- BrevetNEW
- Marque
- Innovation
- Solutions
- Contact
- Formation & Support
- Formation et support
- Centre de ressourcesAccédez à des contenus professionnels pour développer vos connaissances.
- Webinaires et événementsVous souhaitez participer à l'un de nos événements en ligne ou sur place ?
- Formations ProduitsAugmentez vos compétences dans l'utilisation des logiciels Questel
- Nouveautés ProduitsUne plateforme dédiée à l'actualité et aux évolutions des logiciels et des plateformes
- Une expérience client inégaléeDépasser les attentes de nos clients en offrant systématiquement un excellent service.
- Formation en PIAugmentez le QI en matière de propriété intellectuelle de l'ensemble de votre organisation
- Centre de ressources
- À propos de Questel
- Formation & Support
- Formation et support
- Centre de ressourcesAccédez à des contenus professionnels pour développer vos connaissances.
- Webinaires et événementsVous souhaitez participer à l'un de nos événements en ligne ou sur place ?
- Formations ProduitsAugmentez vos compétences dans l'utilisation des logiciels Questel
- Nouveautés ProduitsUne plateforme dédiée à l'actualité et aux évolutions des logiciels et des plateformes
- Une expérience client inégaléeDépasser les attentes de nos clients en offrant systématiquement un excellent service.
- Formation en PIAugmentez le QI en matière de propriété intellectuelle de l'ensemble de votre organisation
- Centre de ressources
- À propos de Questel
L'IA peut-elle s'auto-développer ?
L'intelligence artificielle (IA) est passée d'un concept logiciel à une présence active dans nos vies. Nous l'utilisons pour gérer nos réseaux électriques, analyser des données médicales et maintenir les avions en l'air (pour ne citer que quelques exemples). En général, l'IA résout les problèmes en effectuant des analyses automatisées des données basées sur des algorithmes fournis par le programmeur. Souvent, il intègre également l'apprentissage automatique, où le programme s'entraîne à devenir "plus intelligent". L'IA n'est plus seulement une tentative de reproduire l'intelligence humaine – elle peut avoir son propre esprit – et elle peut être différente .
Ces dernières années, les offices de brevets du monde entier ont connu une augmentation des dépôts de brevets liés à l'IA. Ces demandes de brevet d'IA ont remis en question nos normes existantes d'éligibilité aux brevets, et elles soulèvent une question importante sur la propriété intellectuelle (PI) : lorsque l'apprentissage automatique emmène l'IA au-delà des contributions de ses programmeurs humains, l'IA peut-elle s'auto-approprier ? La réponse à cette question est délicate car elle devra englober non seulement qui a le droit de profiter de l'IA, mais aussi qui est responsable des résultats insuffisants, voire dommageables.
Un mot de l'OMPI
L'année dernière, le directeur général de l'Organisation Mondiale de la Propriété Intellectuelle (OMPI), Francis Gurry, a déclaré : "Les objectifs fondamentaux du système de propriété intellectuelle ont toujours été d'encourager les nouvelles technologies et les œuvres créatives, et de créer une base économique durable pour l'invention et la création. D'un point de vue purement économique, si nous mettons de côté d'autres objectifs du système de propriété intellectuelle, tels que la "juste récompense" et les droits moraux, il n'y a aucune raison de ne pas utiliser la propriété intellectuelle pour récompenser des inventions ou des créations générées par l'IA." Cependant, Gurry a admis que "cela nécessite encore une certaine réflexion" et que "les réponses ne sont pas claires".
La réflexion actuelle sur la propriété de l'IA
Les tribunaux américains ont clairement indiqué que les machines ne sont pas des individus et ne peuvent donc pas posséder de propriété ou être tenues responsables. En effet, le consensus mondial général à l'heure actuelle est que l'IA appartient à son ou ses programmeurs humains. Il y a eu de nombreux cas tests pour étayer ce consensus. Les œuvres d'art , par exemple, "créées" par l'IA, reposent jusqu'à présent principalement sur le peaufinage continu des algorithmes par les humains pour obtenir le résultat final. Dans de tels cas, l'IA semble en effet n'être qu'un outil employé par un humain.
Pourtant, des questions demeurent. Par exemple, une grande partie de ce que fait l'IA consiste à analyser des ensembles de données massifs. Cela soulève la question de savoir si les propriétaires de ces données ont droit à des droits de propriété intellectuelle pour les inventions qui ont utilisé leurs données. L'Internet des objets (IoT – Internet of Things) pose une autre question dans le même sens : à qui appartient un programme dont la fonctionnalité dépend de l'interaction avec d'autres appareils ou programmes propriétaires ? Il n'y a pas de réponse simple, et cela devient encore plus compliqué.
L'IA incorpore souvent des morceaux de code open source donnés publiquement. Devrait-il exister des mécanismes permettant aux contributeurs d'un tel code de participer aux gains ? Un exemple concret est une peinture créée par l'IA qui s'est récemment vendue pour un demi-million de dollars. Il était basé en partie sur un code open source écrit et téléchargé par le programmeur Robbie Barrat, qui a demandé dans un tweet : « Suis-je fou de penser qu'ils ont vraiment juste utilisé mon réseau et qu'ils vendent des résultats ? Ce qui rend les choses encore plus complexes, c'est que le code open source peut contenir des contributions de nombreux programmeurs – donc même identifier définitivement ses auteurs peut être difficile, et encore moins les compenser.
Le problème de la "boîte noire" de l'IA
Jusqu'à présent, nous avons discuté de l'IA en général, mais l'IA qui implique l'apprentissage automatique est une toute autre histoire, et dans laquelle l'auto-appropriation de l'IA peut être plus raisonnablement justifiée. Ce type de programme peut évoluer bien au-delà de son apport humain, devenant une "boîte noire" dont le fonctionnement est souvent largement inconnu, même de ses "créateurs" humains d'origine. Cela soulève son propre ensemble particulier de questions sur la propriété intellectuelle : un être humain souhaite-t-il même posséder la propriété intellectuelle d'une IA dont le processus de décision est inconnu ? Qui serait responsable d'un programme d'IA qui fonctionne mal ou cause des dommages ? Il y a aussi un problème de propriété intellectuelle supplémentaire : qui est responsable de l'IA qui s'apprend à enfreindre le brevet de quelqu'un d'autre ?
Alors que l'apprentissage automatique s'est avéré être un outil productif, il ne fait aucun doute qu'il est un peu énervant et potentiellement dangereux en général. Sans savoir comment un programme tire réellement ses conclusions – même si elles semblent plus ou moins sensées – les programmeurs sont à juste titre mal à l'aise. Hanna Wallach, chercheuse principale chez Microsoft, a déclaré à Quartz : "Alors que l'apprentissage automatique devient plus répandu dans la société – et que les enjeux ne cessent de croître – les gens commencent à réaliser que nous ne pouvons pas traiter ces systèmes comme des boîtes noires infaillibles et impartiales. Nous devons comprendre ce qui se passe à l'intérieur et comment ils sont utilisés.
Une refonte radicale de la propriété intellectuelle et de l'IA pourrait éventuellement être nécessaire
La nature de la boîte noire de l'IA d'apprentissage automatique, les complications de la fonctionnalité inter-applications, la difficulté d'évaluer la véritable propriété d'un programme d'IA – tout cela nous laisse croire que les cadres actuels de la PI sont insuffisants en ce qui concerne la propriété de l'IA. Dans le même temps, le directeur de l'OMPI, Gurry, estime que “le système de propriété intellectuelle tel que nous le connaissons n'est certainement pas démodé. Il est utilisé plus que jamais. Mais de nouveaux défis émergent et le résultat peut être une couche de PI supplémentaire, plutôt que le remplacement du système existant. Seul le temps nous le dira.”