Voeding, Pharma & Recht

Blog over Voedingsmiddelenwetgeving, cosmeticaregels, Europese wetgeving en geneesmiddelenrecht

Blog met kennisartikelen inzake het levensmiddelenrecht. Aandacht voor cosmeticawetgeving, Europese Regelgeving en juridisch advies farmaceutisch recht. Daarnaast juridische wetenswaardigheden en kantoorupdates van Slijpen Legal BV!

EU Artificial Intelligence Act: The European Approach to AI

Stanford - Vienna Transatlantic Technology Law Forum, Transatlantic Antitrust and IPR Developments, Stanford University, Issue No. 2/2021

New Stanford tech policy research: “EU Artificial Intelligence Act: The European Approach to AI”.

EU regulatory framework for AI

On 21 April 2021, the European Commission presented the Artificial Intelligence Act. This Stanford Law School contribution lists the main points of the proposed regulatory framework for AI.

The Act seeks to codify the high standards of the EU trustworthy AI paradigm, which requires AI to be legally, ethically and technically robust, while respecting democratic values, human rights and the rule of law. The draft regulation sets out core horizontal rules for the development, commodification and use of AI-driven products, services and systems within the territory of the EU, that apply to all industries.

Legal sandboxes fostering innovation

The EC aims to prevent the rules from stifling innovation and hindering the creation of a flourishing AI ecosystem in Europe. This is ensured by introducing various flexibilities, including the application of legal sandboxes that afford breathing room to AI developers.

Sophisticated ‘product safety regime’

The EU AI Act introduces a sophisticated ‘product safety framework’ constructed around a set of 4 risk categories. It imposes requirements for market entrance and certification of High-Risk AI Systems through a mandatory CE-marking procedure. To ensure equitable outcomes, this pre-market conformity regime also applies to machine learning training, testing and validation datasets.

Pyramid of criticality

The AI Act draft combines a risk-based approach based on the pyramid of criticality, with a modern, layered enforcement mechanism. This means, among other things, that a lighter legal regime applies to AI applications with a negligible risk, and that applications with an unacceptable risk are banned. Stricter regulations apply as risk increases.

Enforcement at both Union and Member State level

The draft regulation provides for the installation of a new enforcement body at Union level: the European Artificial Intelligence Board (EAIB). At Member State level, the EAIB will be flanked by national supervisors, similar to the GDPR’s oversight mechanism. Fines for violation of the rules can be up to 6% of global turnover, or 30 million euros for private entities.

CE-marking for High-Risk AI Systems

In line with my recommendations, Article 49 of the Act requires high-risk AI and data-driven systems, products and services to comply with EU benchmarks, including safety and compliance assessments. This is crucial because it requires AI infused products and services to meet the high technical, legal and ethical standards that reflect the core values of trustworthy AI. Only then will they receive a CE marking that allows them to enter the European markets. This pre-market conformity mechanism works in the same manner as the existing CE marking: as safety certification for products traded in the European Economic Area (EEA).

Trustworthy AI by Design: ex ante and life-cycle auditing

Responsible, trustworthy AI by design requires awareness from all parties involved, from the first line of code. Indispensable tools to facilitate this awareness process are AI impact and conformity assessments, best practices, technology roadmaps and codes of conduct. These tools are executed by inclusive, multidisciplinary teams, that use them to monitor, validate and benchmark AI systems. It will all come down to ex ante and life-cycle auditing.

The new European rules will forever change the way AI is formed. Pursuing trustworthy AI by design seems like a sensible strategy, wherever you are in the world.

Meer lezen
De Wet op de Artificiële Intelligentie

Een bewerkte versie van deze bijdrage is gepubliceerd op platform VerderDenken.nl van het Centrum voor Postacademisch Juridisch Onderwijs (CPO) van de Radboud Universiteit Nijmegen. https://www.ru.nl/cpo/verderdenken/columns/wet-artificiele-intelligentie-belangrijkste-punten/

Nieuwe regels voor AI gedreven producten, diensten en systemen

Op 21 april 2021 presenteerde de Europese Commissie haar langverwachte Wet op de Artificiële Intelligentie (AI). Deze concept Verordening geeft regels voor de ontwikkeling, commodificatie en gebruik van AI gedreven producten, diensten en systemen binnen het territorium van de Europese Unie. Het was bemoedigend te zien dat het team van President Ursula von der Leyen een belangrijk aantal van onze strategische aanbevelingen op het gebied van de regulering van AI heeft overgenomen, danwel zelfstandig tot dezelfde conclusies is gekomen.

Doelstellingen wettelijk kader voor AI

De concept Verordening biedt horizontale overkoepelende kernregels voor kunstmatige intelligentie die op alle industrieën (verticals) van toepassing zijn. De wet beoogt de hoge maatstaven van het EU Trustworthy AI paradigma te codificeren, dat voorschrijft dat AI wettig, ethisch en technisch robuust dient te zijn en daartoe 7 vereisten hanteert.

De Wet op de Artificiële Intelligentie heeft de volgende 4 doelstellingen:

“1. ervoor zorgen dat AI-systemen die in de Unie in de handel worden gebracht en gebruikt, veilig zijn en de bestaande wetgeving inzake grondrechten en waarden van de Unie eerbiedigen;

2. rechtszekerheid garanderen om investeringen en innovatie in AI te vergemakkelijken;

3. het beheer en de doeltreffende handhaving van de bestaande wetgeving inzake grondrechten en veiligheidsvoorschriften die van toepassing zijn op AI-systemen, verbeteren;

4. de ontwikkeling van een eengemaakte markt voor wettige, veilige en betrouwbare AI-toepassingen vergemakkelijken en marktversnippering voorkomen.“

Risico gebaseerde aanpak kunstmatig intelligente applicaties

Om deze doelstellingen te realiseren combineert de concept Artificial Intelligence Act een risk-based approach op basis van de pyramid of criticality, met een modern, gelaagd handhavingsmechanisme. Dit houdt onder meer in dat er voor AI applicaties met een verwaarloosbaar risico een licht wettelijk regime geldt, en onacceptabel risico applicaties verboden worden. Tussen deze 2 uitersten gelden er naarmate het risico toeneemt strengere voorschriften. Deze variëren van vrijblijvende zelfregulerende soft law impact assessments met gedragscodes, tot zwaar, multidisciplinair extern geauditeerde compliance vereisten inzake kwaliteit, veiligheid en transparantie inclusief risicobeheer, monitoring, certificering, benchmarking, validatie, documentatieplicht en markttoezicht gedurende de levenscyclus van de toepassing.

Handhaving en governance

De definitie van hoog risico AI applicaties binnen de diverse industriële sectoren is nog niet in steen gehouwen. Een ondubbelzinnige risicotaxonomie zal bijdragen aan rechtszekerheid en biedt belanghebbenden een adequaat antwoord op vragen over aansprakelijkheid en verzekering. Om ruimte voor innovatie door SME’s waaronder tech-startups te waarborgen, worden er flexibele AI regulatory sandboxes geïntroduceerd en is er IP Action Plan opgesteld voor intellectueel eigendom. De concept Verordening voorziet tenslotte in de installatie van een nieuwe handhavende instantie op Unieniveau: het European Artificial Intelligence Board. De EAIB zal op lidstaatniveau worden geflankeerd door nationale toezichthouders.

Meer lezen
Safeguards for accelerated market authorization of vaccines in Europe

by Suzan Slijpen & Mauritz Kop

This article has been published by the Stanford Law School ‘Center for Law and the Biosciences’, Stanford University, 15 March 2021. link to the full text: https://law.stanford.edu/2021/03/15/safeguards-for-accelerated-market-authorization-of-vaccines-in-europe/

The first COVID-19 vaccines have been approved

People around the globe are concerned about safety issues encircling the accelerated introduction of corona vaccines. In this article, we discuss the regulatory safeguards for fast-track market authorization of vaccines in Europe. In addition, we explain how the transmission of European Union law into national Member State legislation works. We then clarify what happens before a drug can be introduced into the European market. We conclude that governments should build bridges of mutual understanding between communities and increase trust in the safety of authorized vaccines across all population groups, using the right messengers.

Drug development normally takes several years

Drug development normally takes several years. The fact that it has been a few months now seems ridiculously short. How is the quality and integrity of the vaccine ensured? That people - on both sides of the Atlantic - are concerned about this is entirely understandable. How does one prevent citizens from being harmed by vaccines and medicines that do not work for everyone, because the admission procedures have been simplified too much?

The purpose of this article is to shed a little light upon the accelerated market authorization procedures on the European continent, with a focus on the situation in the Netherlands.

How a vaccine is introduced into the market

In June 2020, the Dutch government, in close cooperation with Germany, France and Italy, formed a Joint Negotiation Team which, under the watchful eye of the European Commission, has been negotiating with vaccine developers. Its objective: to conclude agreements with drug manufacturers at an early stage about the availability of vaccines for European countries. In case these manufacturers are to succeed in developing a successful vaccine for which the so-called Market Authorization (MA) is granted by EMA or CBG, this could lead to the availability of about 50 million vaccines (for the Netherlands alone).

Who is allowed to produce these vaccines?

Who is allowed to produce these vaccines? The Dutch Medicines Act is very clear about this. Only "market authorization holders" are allowed to manufacture medicines, including vaccines. These are parties that have gone through an extensive application procedure, who demonstrably have a solid pharmaceutical quality management system in place and have obtained a pharmaceutical manufacturing license (the MIA, short for Manufacturing and Importation Authorisation). This license is granted after assessment by the Health and Youth Care Inspectorate of the Ministry of Health, Welfare & Sport (IGJ) – by Farmatec. Farmatec is part of the CIBG, an implementing body of the Ministry of Health, Welfare and Sport (VWS). The M-license is mandatory for parties who prepare, or import medicines.

Read more at the Stanford Center for Law and the Biosciences!

Read more on manufacturing licenses, fast track procedures and market authorization by the European Medicines Agency (EMA) and the EC, harmonisation and unification of EU law, CE-markings, antigenic testing kits, mutations, reinfection, multivalent vaccines, mucosal immunity, Good Manufacturing Practices (GMP), pharmacovigilance, the HERA Incubator, clinical trials, compulsory vaccination regimes and continuous quality control at Stanford!

Meer lezen
Dit zijn de waarborgen bij de versnelde marktintroductie van vaccins

Deze column is gepubliceerd op platform VerderDenken.nl van het Centrum voor Postacademisch Juridisch Onderwijs (CPO) van de Radboud Universiteit Nijmegen. https://www.ru.nl/cpo/verderdenken/columns/waarborgen-versnelde-marktintroductie-vaccins/

De eerste COVID-19 vaccins zijn in zicht

Veel mensen maken zich zorgen over de versnelde introductie van coronavaccins. "Begrijpelijke vragen, begrijpelijke zorgen. Gelukkig is de werkelijkheid een stuk genuanceerder", zegt jurist Suzan Slijpen. In dit artikel gaat zij in op de waarborgen bij de versnelde marktintroductie van vaccins.

De eerste COVID-19 vaccins zijn in zicht. Met effectiviteitsmarges van waarschijnlijk 55% tot 95% gloort er eindelijk licht aan de horizon. Het RIVM bereidt de vaccinatiestrategie alvast voor, zodat er snel geschakeld kan worden als het moment daar is.

Het ontwikkelen van geneesmiddelen duurt normaal enkele jaren

Het ontwikkelen van geneesmiddelen duurt normaal enkele jaren. Dat er nu sprake is van enkele maanden lijkt absurd kort. Hoe zorgt men ervoor dat deze middelen veilig zijn? Dat mensen - aan beide kanten van de Atlantische Oceaan - zich hier zorgen over maken is geheel terecht. Hoe voorkom je dat burgers schade oplopen doordat de vaccins en medicijnen toch niet voor iedereen blijken te werken, omdat de toelatingsprocedures te veel zijn versoepeld?

Hoe een vaccin op de markt wordt gebracht

De Nederlandse regering heeft in nauwe samenwerking met Duitsland, Frankrijk en Italië een Joint Negotiation Team gevormd dat onder leiding van de Europese Commissie onderhandelt met vaccinontwikkelaars. Doel: in een vroeg stadium met producenten afspraken maken over de beschikbaarheid van vaccins voor de Europese landen. Als deze producenten erin slagen om een succesvol vaccin te ontwikkelen waarvoor de zogenaamde Market Authorization (MA) wordt verleend door EMA danwel CBG, zou dat tot een beschikbaarheid van zo’n 50 miljoen vaccins (enkel en alleen al voor Nederland) kunnen leiden.

Wie mogen deze vaccins produceren?

Wie mogen deze vaccins produceren? De Geneesmiddelenwet is er heel duidelijk over. Alleen ‘vergunninghouders’ mogen geneesmiddelen, waaronder vaccins, produceren. Dit zijn marktpartijen die een uitvoerige aanvraagprocedure hebben doorlopen, aantoonbaar beschikken over een gedegen farmaceutisch kwaliteitsmanagement systeem en die - na toetsing door de Inspectie voor de Gezondheidszorg (IGJ) - een zogenaamde F-vergunning (fabrikantenvergunning) hebben verkregen van Farmatec. Farmatec is onderdeel van het CIBG, een uitvoeringsorgaan van het ministerie van Volksgezondheid, Welzijn en Sport (VWS). De F-vergunning is verplicht voor partijen die geneesmiddelen bereiden, doen bereiden of invoeren.

Meer lezen
Regulating Transformative Technology in The Quantum Age: Intellectual Property, Standardization & Sustainable Innovation

Stanford - Vienna Transatlantic Technology Law Forum, Transatlantic Antitrust and IPR Developments, Stanford University, Issue No. 2/2020 (Forthcoming)

New Stanford cutting edge tech law research: “Regulating Transformative Technology in The Quantum Age: Intellectual Property, Standardization & Sustainable Innovation”.

Quantum technology has many legal aspects

The behavior of nature at the smallest scale can be strange and counterintuitive. In addition to unique physical characteristics, quantum technology has many legal aspects. In this article, we first explain what quantum technology entails. Next, we discuss implementation and areas of application, including quantum computing, quantum sensing and the quantum internet. Through an interdisciplinary lens, we then focus on intellectual property (IP), standardization, ethical, legal & social aspects (ELSA) as well as horizontal & industry-specific regulation of this transformative technology.

The Quantum Age raises many legal questions

The Quantum Age raises many legal questions. For example, which existing legislation applies to quantum technology? What types of IP rights can be vested in the components of a scalable quantum computer? Are there sufficient market-set innovation incentives for the development and dissemination of quantum software and hardware structures? Or is there a need for open source ecosystems, enrichment of the public domain and even democratization of quantum technology? Should we create global quantum safety, security and interoperability standards and make them mandatory in each area of application? In what way can quantum technology enhance artificial intelligence (AI) that is legal, ethical and technically robust?

Regulating quantum computing, quantum sensing & the quantum internet

How can policy makers realize these objectives and regulate quantum computing, quantum sensing and the quantum internet in a socially responsible manner? Regulation that addresses risks in a proportional manner, whilst optimizing the benefits of this cutting edge technology? Without hindering sustainable innovation, including the apportionment of rights, responsibilities and duties of care? What are the effects of standardization and certification on innovation, intellectual property, competition and market-entrance of quantum-startups?

The article explores possible answers to these tantalizing questions.

Meer lezen
Shaping the Law of AI: Transatlantic Perspectives

Stanford-Vienna Transatlantic Technology Law Forum, TTLF Working Papers No. 65, Stanford University (2020).

New Stanford innovation policy research: “Shaping the Law of AI: Transatlantic Perspectives”.

The race for AI dominance

The race for AI dominance is a competition in values, as much as a competition in technology. In light of global power shifts and altering geopolitical relations, it is indispensable for the EU and the U.S to build a transatlantic sustainable innovation ecosystem together, based on both strategic autonomy, mutual economic interests and shared democratic & constitutional values. Discussing available informed policy variations to achieve this ecosystem, will contribute to the establishment of an underlying unified innovation friendly regulatory framework for AI & data. In such a unified framework, the rights and freedoms we cherish, play a central role. Designing joint, flexible governance solutions that can deal with rapidly changing exponential innovation challenges, can assist in bringing back harmony, confidence, competitiveness and resilience to the various areas of the transatlantic markets.

25 AI & data regulatory recommendations

Currently, the European Commission (EC) is drafting its Law of AI. This article gives 25 AI & data regulatory recommendations to the EC, in response to its Inception Impact Assessment on the “Artificial intelligence – ethical and legal requirements” legislative proposal. In addition to a set of fundamental, overarching core AI rules, the article suggests a differentiated industry-specific approach regarding incentives and risks.

European AI legal-ethical framework

Lastly, the article explores how the upcoming European AI legal-ethical framework’s norms, standards, principles and values can be connected to the United States, from a transatlantic, comparative law perspective. When shaping the Law of AI, we should have a clear vision in our minds of the type of society we want, and the things we care so deeply about in the Information Age, at both sides of the Ocean.

Meer lezen
We hebben dringend een recht op dataprocessing nodig

Deze column is gepubliceerd op platform VerderDenken.nl van het Centrum voor Postacademisch Juridisch Onderwijs (CPO) van de Radboud Universiteit Nijmegen. https://www.ru.nl/cpo/verderdenken/columns/we-dringend-recht-dataprocessing-nodig/

Bij een datagedreven economie hoort een gezond ecosysteem voor machine learning en artificial intelligence. Mauritz Kop beschrijft de juridische problemen en oplossingen hierbij. “We hebben dringend een recht op dataprocessing nodig.”

5 juridische obstakels voor een succesvol AI-ecosysteem

Eerder schreef ik dat vraagstukken over het (intellectueel) eigendom van data, databescherming en privacy een belemmering vormen voor het (her)gebruiken en delen van hoge kwaliteit data tussen burgers, bedrijven, onderzoeksinstellingen en de overheid. Er bestaat in Europa nog geen goed functionerend juridisch-technisch systeem dat rechtszekerheid en een gunstig investeringsklimaat biedt en bovenal is gemaakt met de datagedreven economie in het achterhoofd. We hebben hier te maken met een complex probleem dat in de weg staat aan exponentiële innovatie.

Auteursrechten, Privacy en Rechtsonzekerheid over eigendom van data

De eerste juridische horde bij datadelen is auteursrechtelijk van aard. Ten tweede kunnen er (sui generis) databankenrechten van derden rusten op (delen van) de training-, testing- of validatiedataset. Ten derde zullen bedrijven na een strategische afweging kiezen voor geheimhouding, en niet voor het patenteren van hun technische vondst. Het vierde probleempunt is rechtsonzekerheid over juridisch eigendom van data. Een vijfde belemmering is de vrees voor de Algemene verordening gegevensbescherming (AVG). Onwetendheid en rechtsonzekerheid resulteert hier in risicomijdend gedrag. Het leidt niet tot spectaculaire Europese unicorns die de concurrentie aankunnen met Amerika en China.

Wat is machine learning eigenlijk?

Vertrouwdheid met technische aspecten van data in machine learning geeft juristen, datawetenschappers en beleidsmakers de mogelijkheid om effectiever te communiceren over toekomstige regelgeving voor AI en het delen van data.

Machine learning en datadelen zijn van elementair belang voor de geboorte en de evolutie van AI. En daarmee voor het behoud van onze democratische waarden, welvaart en welzijn. Een machine learning-systeem wordt niet geprogrammeerd, maar getraind. Tijdens het leerproces ontvangt een computer uitgerust met kustmatige intelligentie zowel invoergegevens (trainingdata), als de verwachte, bij deze inputdata behorende antwoorden. Het AI-systeem moet zelf de bijpassende regels en wetmatigheden formuleren met een kunstmatig brein. Algoritmische, voorspellende modellen kunnen vervolgens worden toegepast op nieuwe datasets om nieuwe, correcte antwoorden te produceren.

Dringend nodig: het recht op dataprocessing

De Europese Commissie heeft de ambitie om datasoevereiniteit terug te winnen. Europa moet een internationale datahub worden. Dit vereist een modern juridisch raamwerk in de vorm van de Europese Data Act, die in de loop van 2021 wordt verwacht. Het is naar mijn idee cruciaal dat de Data Act een expliciet recht op dataprocessing bevat.

Technologie is niet neutraal

Tegelijkertijd kan de architectuur van digitale systemen de sociaal-maatschappelijke impact van digitale transformatie reguleren. Een digitaal inclusieve samenleving moet technologie actief vormgeven. Technologie an sich is namelijk nooit neutraal. Maatschappelijke waarden zoals transparantie, vertrouwen, rechtvaardigheid, controle en cybersecurity moeten worden ingebouwd in het design van AI-systemen en de benodigde trainingdatasets, vanaf de eerste regel code.

Meer lezen
The Right to Process Data for Machine Learning Purposes in the EU

Harvard Law School, Harvard Journal of Law & Technology (JOLT) Online Digest 2020, Forthcoming

New interdisciplinary Stanford University AI & Law research article: “The Right to Process Data for Machine Learning Purposes in the EU”.

Data Act & European data-driven economy

Europe is now at a crucial juncture in deciding how to deploy data driven technologies in ways that encourage democracy, prosperity and the well-being of European citizens. The upcoming European Data Act provides a major window of opportunity to change the story. In this respect, it is key that the European Commission takes firm action, removes overbearing policy and regulatory obstacles, strenuously harmonizes relevant legislation and provides concrete incentives and mechanisms for access, sharing and re-use of data. The article argues that to ensure an efficiently functioning European data-driven economy, a new and as yet unused term must be introduced to the field of AI & law: the right to process data for machine learning purposes.

The state can implement new modalities of property

Data has become a primary resource that should not be enclosed or commodified per se, but used for the common good. Commons based production and data for social good initiatives should be stimulated by the state. We need not to think in terms of exclusive, private property on data, but in terms of rights and freedoms to use, (modalities of) access, process and share data. If necessary and desirable for the progress of society, the state can implement new forms of property. Against this background the article explores normative justifications for open innovation and shifts in the (intellectual) property paradigm, drawing inspiration from the works of canonical thinkers such as Locke, Marx, Kant and Hegel.

Ius utendi et fruendi for primary resource data

The article maintains that there should be exceptions to (de facto, economic or legal) ownership claims on data that provide user rights and freedom to operate in the setting of AI model training. It concludes that this exception is conceivable as a legal concept analogous to a quasi, imperfect usufruct in the form of a right to process data for machine learning purposes. A combination of usus and fructus (ius utendi et fruendi), not for land but for primary resource data. A right to process data that works within the context of AI and the Internet of Things (IoT), and that fits in the EU acquis communautaire. Such a right makes access, sharing and re-use of data possible, and helps to fulfil the European Strategy for Data’s desiderata.

Meer lezen
Computer generated works: wie of wat is eigenaar?

Deze column is gepubliceerd op platform VerderDenken.nl van het Centrum voor Postacademisch Juridisch Onderwijs (CPO) van de Radboud Universiteit Nijmegen. https://www.ru.nl/cpo/verderdenken/columns/computer-generated-works-eigenaar/

Nieuwe technologieën roepen nieuwe juridische vragen op. Zo ook computers die creatieve werken maken. Wie of wat is de eigenaar van zo’n werk? Mauritz Kop geeft uitleg.

Machines uitgerust met artificiële intelligentie (AI) begeven zich op het terrein van de schone kunsten. Computers schilderen, schrijven en componeren er ijverig op los. Zo genereerde The Next Rembrandt een 3D-geprint meesterwerk, schilderde The Art and Artificial Intelligence Lab een levensechte Mona Lisa, schreef Kurzweils Cybernetic Poet klassieke sonnetten en produceerde Amper Music een complete muziek-cd. Alles in luttele seconden.

Auteursrechten vestigen is problematisch

Het is voorstelbaar dat er auteursrechten rusten op de voortbrengselen van AI-systemen zelf, zoals kunst, muziek, literatuur, uitvindingen, industriële toepassingen, algoritmes, code en andersoortige scheppingen. Men kan zich als wetgever de vraag stellen of er voor computer generated works sui generis categorieën rechten (met een korte looptijd en zonder persoonlijkheidsrechten) in het leven moeten worden geroepen.

Kunnen IE-rechten überhaupt AI-scheppingen beschermen?

De wet in haar huidige vorm erkent geen niet-menselijke auteursrechten. Auteurschap is fundamenteel verbonden met menselijkheid; met scheppingen van de menselijke geest. Dat vloeit bijvoorbeeld voort uit het bekende Infopaq-arrest van het EU Hof van Justitie uit 2009, al is dit arrest niet geschreven met machine learning en kunstmatige intelligentie in het achterhoofd. Is het dogmatisch en doctrinair correct om aan te nemen dat er geen copyright kan zijn op pure AI creations? AI is per slot van rekening niet menselijk en er is bovendien geen menselijke originaliteit en creativiteit aanwezig. Het korte antwoord luidt: ja.

Algoritmisch auteurschap: goed idee of niet?

In tegenstelling tot de benadering van de EU en de VS, heeft het Verenigd Koninkrijk een computer generated works-regime geïmplementeerd, wat betekent dat de programmeur van de AI het auteursrecht krijgt op de output van de machine. Met andere woorden: het VK, en recentelijk ook de Chinese rechter, breiden het menselijke auteurschap uit naar algoritmisch auteurschap.

AI-machine kan geen copyright bezitten

Auteursrechten kunnen alleen eigendom zijn van rechtssubjecten, dus personen of bedrijven. Een AI-machine kan zelf geen copyright bezitten op AI made creations omdat een AI-systeem geen rechtssubjectiviteit en ook geen rechtspersoonlijkheid bezit. AI-systemen kwalificeren als rechtsobject, niet als rechtssubject.

‘Publiek eigendom uit de machine’ en menselijke interventie

Menselijk auteurschap blijft het normatieve orgelpunt van het intellectuele eigendomsrecht. Delen van het meerlagige, uit het Romeinse recht afkomstige eigendomsparadigma kunnen relevant zijn voor AI. Voortbouwend op dit raamwerk is er een nieuw publiek domein model denkbaar voor AI creations and inventions die de autonomiedrempel overschrijden: res publicae ex machina (publiek eigendom uit de machine).

Meer lezen
Machine Learning & EU Data Sharing Practices

Stanford - Vienna Transatlantic Technology Law Forum, Transatlantic Antitrust and IPR Developments, Stanford University, Issue No. 1/2020

New multidisciplinary research article: ‘Machine Learning & EU Data Sharing Practices’.

In short, the article connects the dots between intellectual property (IP) on data, data ownership and data protection (GDPR and FFD), in an easy to understand manner. It also provides AI and Data policy and regulatory recommendations to the EU legislature.

As we all know, machine learning & data science can help accelerate many aspects of the development of drugs, antibody prophylaxis, serology tests and vaccines.

Supervised machine learning needs annotated training datasets

Data sharing is a prerequisite for a successful Transatlantic AI ecosystem. Hand-labelled, annotated training datasets (corpora) are a sine qua non for supervised machine learning. But what about intellectual property (IP) and data protection?

Data that represent IP subject matter are protected by IP rights. Unlicensed (or uncleared) use of machine learning input data potentially results in an avalanche of copyright (reproduction right) and database right (extraction right) infringements. The article offers three solutions that address the input (training) data copyright clearance problem and create breathing room for AI developers.

The article contends that introducing an absolute data property right or a (neighbouring) data producer right for augmented machine learning training corpora or other classes of data is not opportune.

Legal reform and data-driven economy

In an era of exponential innovation, it is urgent and opportune that both the TSD, the CDSM and the DD shall be reformed by the EU Commission with the data-driven economy in mind.

Freedom of expression and information, public domain, competition law

Implementing a sui generis system of protection for AI-generated Creations & Inventions is -in most industrial sectors- not necessary since machines do not need incentives to create or invent. Where incentives are needed, IP alternatives exist. Autonomously generated non-personal data should fall into the public domain. The article argues that strengthening and articulation of competition law is more opportune than extending IP rights.

Data protection and privacy

More and more datasets consist of both personal and non-personal machine generated data. Both the General Data Protection Regulation (GDPR) and the Regulation on the free flow of non-personal data (FFD) apply to these ‘mixed datasets’.

Besides the legal dimensions, the article describes the technical dimensions of data in machine learning and federated learning.

Modalities of future AI-regulation

Society should actively shape technology for good. The alternative is that other societies, with different social norms and democratic standards, impose their values on us through the design of their technology. With built-in public values, including Privacy by Design that safeguards data protection, data security and data access rights, the federated learning model is consistent with Human-Centered AI and the European Trustworthy AI paradigm.

Meer lezen