Pourquoi les grandes entreprises de technologie ouvrent-elles leurs systèmes d’IA?

AI open source

Les plus grandes entreprises technologiques du monde remettent les clés de leur succès, rendant leurs systèmes d’intelligence artificielle open-source.

Traditionnellement, les utilisateurs d’ordinateurs pouvaient voir le produit final de ce qu’un logiciel faisait, par exemple, écrire un document dans Microsoft Word ou jouer à un jeu vidéo. Mais la programmation sous-jacente (le code source) était propriétaire, gardée loin du public. L’ouverture du code source en informatique est un grand changement car plus il y a de gens qui s’intéressent au code, plus il est probable que les bugs, les opportunités et les risques à long terme puissent être résolus.

L’ouverture est de plus en plus un enjeu scientifique, pour des raisons similaires. L’approche traditionnelle de la science implique la collecte de données, l’analyse des données et la publication des résultats dans un document. Comme pour les programmes informatiques, les résultats étaient traditionnellement visibles par les lecteurs, mais les sources réelles (les données et souvent le logiciel qui effectuait les analyses) n’étaient pas disponibles gratuitement. Rendre la source accessible à tous a un attrait communautaire évident; l’attrait commercial de l’open source est moins évident.

Microsoft, Google, Facebook et Amazon ont fait des progrès remarquables dans le développement de systèmes d’intelligence artificielle. Récemment, ils ont publié une grande partie de leur travail au public pour l’utilisation gratuite, l’exploration, l’adaptation et peut-être l’amélioration.

Cela semble bizarre: pourquoi les entreprises révèlent-elles les méthodes au cœur de leurs activités? Et que signifie leur engagement envers l’IA open-source à propos de l’état actuel de l’intelligence artificielle?

Logiciel remarquablement puissant

Chaque technologie révélée affiche des capacités remarquables qui vont bien au-delà de ce qui était possible il y a seulement 10 ans. Ils se concentrent sur ce qu’on appelle «l’apprentissage en profondeur»; une approche qui organise hiérarchiquement des couches de réseaux neuronaux pour analyser de très grands ensembles de données non seulement à la recherche de statistiques simples, mais aussi pour identifier des modèles abstraits riches et intéressants.

Parmi les technologies que les grandes entreprises technologiques ont récemment ouvert sont:

  • Alexa, le système de réponse vocale d’Amazon qui héberge le dispositif Echo de la société, a ouvert ses portes en juin 2015;
  • TensorFlow de Google, le cœur de sa technologie de recherche d’images, ouvert en novembre 2015;
  • Les conceptions matérielles personnalisées qui exécutent l’assistant personnel M de Facebook, ouvert en décembre 2015; et
  • La réponse de Microsoft à ces systèmes d’apprentissage automatique, nommée Computed Network Tool Kit, a été rendue publique, le dernier ajout à la bibliothèque d’options du public pour les systèmes d’IA.

Pour comprendre ce qui pousse ces tendances vers l’IA open source, il est utile de considérer d’autres organisations dans le contexte social plus large dans lequel ces entreprises opèrent.

Même les militaires ouvrent leurs systèmes d’IA

Une comparaison utile est DARPA, le bras de recherche du Département de la Défense des États-Unis. Il est difficile d’imaginer une organisation susceptible d’être plus préoccupée par le fait que d’autres profitent de l’information ouverte. Pourtant, DARPA a fait une grande poussée vers les technologies d’apprentissage automatique open-source.

En effet, le programme DARPA XDATA a débouché sur un catalogue d’outils d’apprentissage automatique, de visualisation et d’autres technologies que tout le monde peut télécharger, utiliser et modifier pour créer des outils AI personnalisés.

Le fait que la DARPA et le Département de la Défense soient si favorables à l’open-sourcing indique clairement que les avantages de l’open source l’emportent sur les inconvénients de la mise à la disposition d’adversaires potentiels d’outils de haute qualité.

Une autre comparaison utile est le projet OpenAI, récemment annoncé par les entrepreneurs technologiques Elon Musk et Sam Altman, entre autres. L’effort va étudier l’éthique de la création et la libération des machines avec des capacités croissantes d’interagir avec le monde et de le comprendre .

Bien que ces objectifs soient familiers à quiconque a lu Isaac Asimov, ils démentent un problème plus profond: même les experts ne comprennent pas quand et comment l’IA pourrait devenir assez puissante pour causer des dommages ou des blessures.

L’ouverture du code permet à beaucoup de personnes de réfléchir aux conséquences à la fois individuellement et ensemble. Idéalement, cet effort fera progresser les logiciels de plus en plus puissants et utiles, mais aussi largement compréhensible dans ses mécanismes et leurs implications.

Les systèmes d’intelligence artificielle impliquent des quantités importantes, souvent très importantes, de code, à tel point que cela étend la capacité de chaque individu à comprendre à la fois en largeur et en profondeur. L’examen, le dépannage et la correction des bugs sont particulièrement importants dans l’IA, où nous ne concevons pas d’outils pour faire un travail spécifique (par exemple, construire une voiture), mais pour apprendre, adapter et prendre des décisions à notre place. Les enjeux sont plus importants à la fois pour les résultats positifs et potentiellement négatifs.

L’IA open source est compatible avec les affaires

Ni les motivations de DARPA ni d’OpenAI n’expliquent exactement pourquoi ces entreprises de technologie commerciale ouvrent leur code d’IA. En tant qu’entreprises technologiques, leurs préoccupations sont plus immédiates et concrètes. Après tout, si personne n’utilise ses produits, alors à quoi bon un bon code propre et des algorithmes bien intentionnés?

Il existe un point de vue commun au sein de l’industrie selon lequel les entreprises technologiques telles que Google, Facebook et Amazon ne font pas partie des entreprises que l’on pourrait supposer. À long terme, Google et Facebook ne vendent pas vraiment d’annonces, et Amazon ne vend pas de marchandises. Non, ces entreprises de technologie sont alimentées par vos yeux (et données). Leur devise est les utilisateurs. Google, par exemple, donne des emails et recherche gratuitement pour attirer les utilisateurs vers ses produits; il faut innover rapidement, produire des produits plus nombreux et de meilleure qualité pour vous assurer de rester avec l’entreprise.

Ces entreprises ouvrent leur logiciel d’IA parce qu’elles veulent être les bases sur lesquelles les autres innovent. Tout entrepreneur qui le fait avec succès peut être acheté et facilement intégré dans le parent plus grand. L’IA est centrale parce que, de par sa conception, elle apprend et s’adapte, et prend même des décisions. L’IA est plus qu’un produit: c’est un générateur de produit. Dans un proche avenir, l’IA ne sera pas reléguée au service d’images ou de produits de consommation, mais sera utilisée pour identifier et exploiter de nouvelles opportunités en innovant de nouveaux produits.

L’IA à source ouverte sert des objectifs plus larges de ces entreprises, qui sont de rester à la fine pointe de la technologie. En ce sens, ils ne cèdent pas les clés de leur succès: ils ouvrent la voie à leur propre avenir.

Sources: https://theconversation.com/why-big-tech-companies-are-open-sourcing-their-ai-systems-54437

et http://www.iflscience.com/technology/why-big-tech-companies-are-open-sourcing-their-ai-systems/

AWS rejoint la plate-forme AI Open Source d’ONNX

AMS-ONNX

ONNX est un format ouvert pour représenter les modèles d’apprentissage en profondeur. Avec ONNX, les développeurs AI peuvent plus facilement déplacer des modèles entre des outils de pointe et choisir la combinaison qui leur convient le mieux. ONNX est développé et soutenu par une communauté de partenaires (voir; https://onnx.ai pour plus d’informations). Lancé par Facebook et Microsoft en septembre et rejoint par Intel en octobre. Amazon annonce donc qu’il rejoint la communauté ONNX.

Amazon Web Services (AMS) est devenue la dernière société technologique à rejoindre la collaboration de la communauté d’apprentissage en profondeur sur l’Open Neural Network Exchange (ONNX), récemment lancé pour faire progresser l’intelligence artificielle dans un environnement sans interopérabilité et interprétable.

Dans le cadre de cette collaboration, AWS a mis à disposition son progiciel Python open source, ONNX-MxNet, en tant que framework d’apprentissage en profondeur offrant des interfaces de programmation d’applications dans plusieurs langues, notamment Python, Scala et le logiciel de statistiques open source R.

Le format ONNX aidera les développeurs à construire et à former des modèles pour d’autres frameworks, y compris PyTorch, Microsoft Cognitive Toolkit ou Caffe2, selon Hagay Lupesko, directeur de l’ingénierie d’AWS Deep Learning, et Roshani Nagmote, développeur de logiciels. Il permettra aux développeurs d’importer ces modèles dans MXNet, et les exécuter pour l’inférence.

Aide pour les développeurs

Facebook et Microsoft ont lancé cet été ONNX pour soutenir un modèle commun d’interopérabilité pour l’avancement de l’IA. Microsoft a engagé son Cognitive Toolkit, Caffe2 et PyTorch pour prendre en charge ONNX.

Cognitive Toolkit et d’autres frameworks permettent aux développeurs de construire et d’exécuter des graphes de calcul représentant des réseaux neuronaux, a indiqué Microsoft. Les versions initiales du code et de la documentation ONNX étaient disponibles sur Github.

AWS et Microsoft ont annoncé le mois dernier des plans pour Gluon, une nouvelle interface d’Apache MXNet qui permet aux développeurs de créer et de former des modèles d’apprentissage en profondeur. Gluon « est une extension de leur partenariat où ils tentent de rivaliser avec Tensorflow de Google », a observé Aditya Kaul, directeur de recherche chez Tractica. « L’omission de Google est très révélatrice mais témoigne également de leur domination sur le marché », a-t-il déclaré à LinuxInsider.

« Même Tensorflow est open source, et donc open source n’est pas le gros lot ici mais le reste de l’écosystème qui fait équipe pour rivaliser avec Google », a déclaré Kaul.

La communauté Apache MXNet au début de ce mois a présenté la version 0.12 de MXNet, qui étend les fonctionnalités de Gluon pour permettre de nouvelles recherches de pointe, selon AWS. Parmi ses nouvelles fonctionnalités, citons l’abandon variationnel, qui permet aux développeurs d’appliquer la technique de l’abandon pour atténuer «l’overfitting« aux réseaux neuronaux récurrents.

Méthode de cadre neutre

« Cela semble être un excellent moyen de fournir des inférences, quel que soit le cadre qui a généré un modèle », a déclaré Paul Teich, analyste principal chez Tirias Research. « C’est fondamentalement un moyen neutre de fournir des inférences », at-il déclaré à LinuxInsider.

Les fournisseurs de cloud comme AWS, Microsoft et d’autres sont sous la pression des clients pour être en mesure de s’entraîner sur un réseau tout en livrant sur un autre, afin de faire progresser l’IA, a souligné Teich. « Je vois cela comme un moyen de base pour ces fournisseurs de vérifier la boîte d’interopérabilité », a-t-il remarqué. «L’interopérabilité du framework est une bonne chose, et cela aidera les développeurs à s’assurer que les modèles qu’ils construisent sur MXNet ou Caffe ou CNTK sont interopérables», a souligné Kaul de Tractica.

Quant à savoir comment cette interopérabilité pourrait s’appliquer dans le monde réel, Teich a noté que les technologies telles que la traduction en langage naturel ou la reconnaissance vocale nécessiteraient que la technologie de reconnaissance vocale d’Alexa soit empaquetée et livrée à l’environnement embarqué d’un autre développeur.

Open Source

«En dépit de leurs différences concurrentielles, ces entreprises reconnaissent toutes qu’elles doivent une part importante de leur succès aux avancées de développement logiciel générées par le mouvement open source», a déclaré Jeff Kaplan, directeur général de ThinkStrategies. « L’Open Neural Network Exchange s’engage à produire des avantages et des innovations similaires dans l’IA », a-t-il déclaré à LinuxInsider.

Un nombre croissant de grandes entreprises technologiques ont annoncé leur intention d’utiliser l’open source pour accélérer le développement de la collaboration IA, afin de créer des plates-formes plus uniformes pour le développement et la recherche. Il y a quelques semaines, AT & T a annoncé son intention de lancer le projet Acumos avec TechMahindra et The Linux Foundation. La plate-forme est conçue pour permettre la collaboration dans les télécommunications, les médias et la technologie.

 

Source: https://www.linuxinsider.com/story/84971.html?rss=1

La créativité en intelligence artificielle et les enjeux légaux.

AI creativity

AI tient sa promesse de résoudre des problèmes dépassant le cadre de l’imagination humaine. Mais si une IA peut créer, à qui appartient son travail?

L’intelligence artificielle (IA) est en train de devenir une alternative établie aux capacités humaines en matière de calcul, d’optimisation pilotée par les données et de travail manuel. Cependant, les derniers modèles sont aussi capables de la plus humaine des qualités; la créativité.

Dans un exemple récent, l’université Rutgers et le laboratoire d’IA de Facebook se sont associés pour développer un algorithme de peinture qui crée de nouveaux genres d’art. Ca fonctionne avec deux réseaux de neurones qui réagissent sur des idées; l’un créant, l’autre jugeant dans un remarquable mimétisme du processus créatif humain. Pendant ce temps, les réalisateurs utilisant la musique classique composée par un artiste visuel d’intelligence artificielle (AIVA) et DeepMind ont annoncé qu’ils développent une IA avec imagination.

À mesure que cette nouvelle génération de robots créatifs continue de se développer, d’importants problèmes juridiques doivent être pris en compte. La création d’une IA peut-elle être protégée par le droit d’auteur et les brevets? De même, une IA est-elle capable d’enfreindre les droits de propriété intellectuelle de quelqu’un d’autre?

Le travail d’une IA peut-il être légalement protégé?

Cette question est multiforme, car les experts juridiques essaient d’appliquer la loi existante à des circonstances en évolution rapide, ce qui ne fonctionne pas toujours. Il existe également des différences dans les systèmes juridiques nationaux, de sorte que les entreprises de technologie doivent adopter une perspective globale pour réaliser pleinement toutes les implications.

Par exemple, la loi française sur le droit d’auteur, largement créée pour protéger les auteurs individuels et se montrant même récalcitrant à la propriété par des personnes morales (par opposition aux individus), est la marque de protection de l’auteur. De toute évidence, les auteurs doivent être des individus et AI ne peut détenir de copyright.

La solution est identique au Royaume-Uni: la loi de 1988 sur le droit d’auteur et les brevets stipule que dans le cas d’une œuvre littéraire, dramatique, musicale ou artistique générée par ordinateur, « l’auteur est considéré comme la personne mettant en place les dispositions nécessaires à la création du travail artistique ou autre ».

De même, le Copyright Office des États-Unis n’enregistrera pas les œuvres créées par les animaux ou par les forces de la nature. Donc, pour avoir droit à l’enregistrement, une œuvre doit être écrite par un humain. Comme une IA n’a pas (encore, au moins) de personnalité juridique, tout comme un animal, elle requiert une personne morale, qu’elle soit humaine ou organisationnelle, pour assumer la responsabilité de ses actes. Par conséquent, une IA ne peut pas créer de contenus protégés par des droits d’auteur uniquement.

Même si des robots commencent à être considéré comme des humain, du moins niveau de la citoyenneté. Avec l’annonce faite par l’Arabie saoudite de donner la nationalité saoudienne au robot Sophia (référence; http://www.businessinsider.com/sophia-robot-citizenship-in-saudi-arabia-the-first-of-its-kind-2017-10).

On a beaucoup parlé de l’affaire du selfie des singes (Naruto contre Slater), pour laquelle il n’y avait aucun précédent. Le photographe de la nature britannique; David Slater a soutenu qu’il avait une revendication de droit d’auteur sur les selfies pris par les singes macaques à crête en voie de disparition en Indonésie, vu qu’il est à l’origine de la situation qui a abouti aux images.

Le photographe a perdu à la première instance sur la permission d’utiliser les images, car le tribunal a statué qu’aucun droit d’auteur n’existait car les photos n’avaient pas été prises par un être humain. Ceci est un exemple de la façon dont le droit d’auteur doit être attaché à une personne. Ce n’était pas que le singe détenait le droit d’auteur, un copyright ne pouvait pas être attaché aux images parce qu’elles étaient prises sans aucune intervention humaine.

Une autre façon de protéger la propriété intellectuelle est de recourir aux brevets et la loi est encore plus claire. La loi sur les brevets exige que les inventeurs soient des individus qui ont contribué à la conception ou à la conversion d’un concept en pratique.

Par exemple, si une IA créait une toute nouvelle puce à semi-conducteur, elle ne pourrait pas être protégée par des brevets à moins qu’une intervention humaine n’ait eu lieu dans le processus créatif, par exemple par l’intermédiaire de la personne qui a programmé l’IA. Sur le marché, il est maintenant courant que le propriétaire, le fondateur ou le chef du département R & D de l’entreprise qui possède l’IA soit désigné comme l’inventeur du produit pour faire face à cette éventualité.

Encore une fois, en vertu des lois actuelles, une IA ne peut pas posséder un brevet. Cela soulève la question de savoir si le travail de chaque IA qui n’est pas co-créé par un humain est dans le domaine public par défaut. Ce n’est pas tout à fait le cas puisque certains motifs juridiques peuvent être utilisés pour protéger la création de l’IA, notamment en matière de confidentialité et de protection des secrets commerciaux, mais il faudra du temps pour modifier la législation afin d’offrir une protection plus substantielle.

Une AI peut-elle enfreindre les droits de propriété intellectuelle existants?

Le temps où chaque développement de l’IA avait besoin d’une intervention humaine pour «entraîner» la machine à apprendre ses processus a disparu. Maintenant, les systèmes AI ont la capacité de modifier leur code, et le code qui en résulte risque de porter atteinte aux droits de quelqu’un d’autre.

Cela soulève la question de savoir qui est responsable de cette infraction. À l’heure actuelle, le propriétaire, développeur, programmeur ou fabricant de l’IA est susceptible d’être tenu en fin de compte responsable de ses actions.

Il est encourageant de noter que certains domaines juridiques relatifs à l’IA montrent des signes de changement, y compris la responsabilité. En février 2017, les députés ont demandé à la Commission européenne de proposer des règles sur l’IA pour exploiter leur potentiel économique et garantir des normes de sûreté et de sécurité établissant la responsabilité en cas d’accident. Il y a également eu des débats sur l’opportunité d’établir une personnalité pour AI.

Si les robots obtiennent le statut de personne morale à l’avenir, la situation serait très différente. Si une IA ayant le statut de personne créait indépendamment une œuvre d’art qui enfreignait les droits d’autrui, les règles de contrefaçon habituelles s’appliqueraient. Le fait de poursuivre un robot peut sembler un fantasme de science-fiction lointain, mais la personnalité juridique et la capacité à posséder des biens vont de pair, il est donc théoriquement possible d’accorder la personnalité juridique.

Cependant, un changement juridique supplémentaire serait nécessaire pour ouvrir cette possibilité. Les lois sur la propriété intellectuelle actuelles ne reconnaissent pas le droit de l’IA d’inventer une nouvelle technologie brevetable ou de créer une œuvre d’art protégée par le droit d’auteur. La loi telle qu’elle existe a encore besoin d’une intervention humaine pour que la création ait eu lieu. Cela est important car, jusqu’à présent, la législation en matière de propriété intellectuelle évolue beaucoup plus lentement que les questions de responsabilité.

Ces problèmes deviendront plus fréquents à mesure que la technologie évoluera de l’IA douce (intelligence artificielle non sensible focalisée sur une tâche étroite) à l’intelligence artificielle (intelligence générale artificielle avec conscience, sensibilité et esprit).

Droits pour les robots

Nous pouvons arriver à un point où l’IA est aussi intelligente qu’un humain et demande les mêmes droits que les humains, comme dramatisé dans les romans du défunt Isaac Asimov. À l’avenir, il pourrait y avoir une quatrième loi sur les lois de la robotique d’Asimov: «Les robots ont une personnalité juridique et sont responsables de leurs actions». Mais pour l’instant, nous avons du chemin à faire.

Où nous ne pouvons pas appliquer la loi existante à de nouvelles situations, des lois doivent être créées. Identifier un statut juridique pour l’IA et partager ce statut à travers le monde fournirait une réponse à ce défi passionnant.

 

Source: http://www.computerweekly.com/opinion/The-legal-quagmire-of-creativity-in-artificial-intelligence