Overblog
Editer la page Suivre ce blog Administration + Créer mon blog
JCA  Bayonne

JCA Bayonne

Journal d'humeur d'un randonneur bayonnais

Publié par JCA

IA [extraits de différentes revues hebdomadaires]

*   Robots et intelligence artificielle : la France la plus touchée d’ici à 2030
*   Intelligence artificielle : des scénarios infinis pour les jeux vidéo
*   « L'intelligence artificielle de niveau humain sera omniprésente »
*   ChatGPT : et si c’était lui, le vrai Google killer ?

1- les IA sont aujourd'hui principalement produites par nos grandes entités « superintelligentes » : des entreprises, des organisations à but non lucratif ou des institutions gouvernementales collectivement capables d'accomplir des tâches cognitives bien supérieures à celles des humains pris individuellement. De telles institutions contrôlent et testent généralement les IA dans les moindres détails, parce qu'elles en ont les moyens et qu'elles sont responsables des dommages et des embarras causés par leurs IA.
Ainsi, en matière d'IA, le scénario le plus probable ressemble donc à du capitalisme régulé, avec des changements dans l'ensemble progressifs – bien que rapides. De nombreuses organisations fournissent de nombreuses IA et sont poussées, par la loi et la concurrence, à faire en sorte que leurs IA se comportent de manière civile et légale.

Europe craintive.
Au moment où de nombreux pays se montrent très méfiants vis-à-vis de ChatGPT ou d'autres intelligences artificielles, surtout d'origine étrangère, les dirigeants japonais ne nient certes pas totalement les dangers, mais les applications potentielles dont le gouvernement nippon parle montrent qu'ils ont moins de craintes qu'en Europe. Pour preuve, une déclaration cette semaine en conférence de presse du ministre de l'Économie Yasutoshi Nishimura : « Je pense qu'on peut révolutionner les tâches basées sur la rédaction de texte avec des intelligences artificielles ayant de fortes aptitudes linguistiques. »

Une récente étude et les travaux de l'université de Pennsylvanie indiquent qu'au moins 300 millions d'emplois seraient impactés par la montée en puissance de logiciels de type ChatGPT ou encore Bard, son concurrent créé par Google. Des machines à donner de la repartie, à même de rédiger des dissertations dans un style précis comme de classer des travaux de comptabilité, même si elles ne sont pas à l'abri d'erreurs, de biais ou encore respectent encore de manière très aléatoire les droits d'auteur. Sans parler du non-respect de la vie privée qui vient de pousser l'Italie à bannir l'utilisation du robot conversationnel ChatGPT sur son territoire, alors que la ville de Montpellier s'apprête à en déconseiller l'usage à ses représentants. Il n'empêche, expliquent les chercheurs de Goldman Sachs, le boom de la productivité attendu sera comparable à « celui qui a suivi l'émergence de technologies à usage général telles que le moteur électrique et l'ordinateur personnel ». Parallèlement, l'intelligence artificielle a été l'objet d'une publication dans la revue Science, détaillant l'utilisation de tels modèles de langages pour prédire la structure d'une protéine.
Résultat, comme si ces derniers peinaient à garder le contrôle d'un monstre aussi fascinant qu'inquiétant qui leur aurait échappé, de plus en plus de chercheurs tirent la sonnette d'alarme. Certains d'entre eux demandant aux politiques de traiter le sujet, quand d'autres implorent une pause salutaire, sur le modèle de l'appel de Medialab, où la professeure au centre d'ingénierie neurobiologique du MIT estimait qu'il était crucial de construire des machines destinées à épauler notre intelligence, plutôt qu'à la remplacer…

Des merveilles d'apprentissage automatique
Il y a d'abord eu le texte de Noam Chomsky, le professeur émérite de linguistique au Massachusetts Institute of Technology, s'exprimant aux côtés du professeur à l'université de Cambridge Ian Roberts. Ainsi que le philosophe et directeur de l'IA dans l'entreprise "Oceanit" Jeffrey Watumull. Dans une tribune du 6 mars dans le New York Times, ils expliquaient : « ChatGPT d'OpenAI, Bard de Google et Sydney de Microsoft sont des merveilles d'apprentissage automatique. Ces programmes ont été salués comme les premières lueurs à l'horizon de l'IA générale, moment longtemps prophétisé où les esprits mécaniques surpasseront les cerveaux humains non seulement en termes de vitesse de traitement et de taille de la mémoire, mais aussi en termes de perspicacité intellectuelle, de créativité artistique et de toute autre faculté distincte de l'être humain ».

Ils font ensuite cette comparaison : « L'esprit humain n'est pas, à l'instar de ChatGPT et de ses semblables, un moteur statistique encombrant destiné à la recherche de modèles, se nourrissant de centaines de téraoctets de données et extrapolant la réponse conversationnelle la plus probable ou la réponse la plus vraisemblable à une question scientifique. Au contraire, l'esprit humain est un système étonnamment efficace et même élégant qui fonctionne avec de petites quantités d'informations ; il ne cherche pas à déduire des corrélations brutes entre les points de données, mais à créer des explications. » Avant de porter le coup de grâce : « ChatGPT et ses équivalents sont constitutionnellement incapables d'équilibrer créativité et contrainte. Ils sont soit surgénérés (produisant à la fois des vérités et des mensonges, approuvant des décisions éthiques et non éthiques), soit sous-générés (ne s'engageant dans aucune décision et se montrant indifférents aux conséquences). Compte tenu de l'amoralité, de la fausse science et de l'incompétence linguistique de ces systèmes, on ne peut que rire ou pleurer de leur popularité. »


« Apprendre à maîtriser l'IA avant qu'elle ne nous maîtrise »
Il y a ensuite eu l'appel de l'auteur de "Sapiens" et professeur à l'Université hébraïque de Jérusalem Yuval Noah Harari – accompagné pour l'occasion par les cofondateurs du Center for Humane Technology Tristan Harris et Aza Raskin –, qui, le 23 mars, lui aussi dans le New York Times, résonnait comme un appel aux politiques à s'emparer du sujet. « Les entreprises pharmaceutiques ne peuvent pas vendre de nouveaux médicaments à la population sans avoir au préalable soumis leurs produits à des contrôles de sécurité rigoureux. […] De même, les systèmes d'intelligence artificielle de la puissance du GPT-4 et au-delà ne devraient pas s'immiscer dans la vie de milliards de personnes à un rythme qui n'est pas le leur. De milliards de personnes à un rythme plus rapide que celui auquel les cultures peuvent les absorber en toute sécurité. La course pour dominer le marché ne doit pas déterminer la vitesse de déploiement de la technologie la plus importante de l'humanité. Nous devrions avancer à la vitesse qui nous permettra d'y parvenir ». Avant d'expliquer, plein de sagesse : « En s'emparant du langage, l'intelligence artificielle s'offre le sésame de la civilisation. Nous devons apprendre à maîtriser l'IA avant qu'elle ne nous maîtrise. »
À LIRE « L'intelligence artificielle de niveau humain sera omniprésente »
1 300 chercheurs, scientifiques, ou encore entrepreneurs – parmi lesquels de grandes figures de la tech, comme le créateur de Space X  Elon Musk, le cocréateur d'Apple Steve Wozniak, le professeur à l'université de Montréal Yoshua Bengio, ou encore le chercheur de Berkeley Stuart Russell – viennent de publier sur le site du think tank "Future of Life" un texte intitulé « Faisons une pause sur les expériences géantes d'intelligence artificielle ». 

Devrions-nous laisser les machines inonder nos canaux d'information de propagande et de contrevérités ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont épanouissants ? Nous appelons tous les laboratoires travaillant sur l'intelligence artificielle à suspendre immédiatement l'entraînement des systèmes d'IA plus puissants que GPT-4 pour au moins six mois. Cette pause doit être publique, vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut pas être décrétée rapidement, les gouvernements devraient intervenir et décréter un moratoire. 

La recherche et le développement de l'IA devraient être recentrés sur la fabrication de systèmes puissants et à la pointe de la technologie, plus précis, plus sûrs, interprétables, transparents, robustes, alignés, dignes de confiance et loyaux. La société a fait une pause pour d'autres technologies susceptibles d'avoir des effets potentiellement catastrophiques pour elle. Nous pouvons en faire de même ici. Profitons d'un long été d'IA, au lieu de nous précipiter sans préparation dans la chute. »

2- :
Intelligence artificielle : « Le modèle de ChatGPT est déjà dépassé »
Ce qui pourrait succéder au robot conversationnel, qui intrigue autant qu'il inquiète.
- Appelé LaMDA, ou Language Model for Dialogue Applications, le robot conversationnel de Google a fait l'objet d'une attention particulière l'été dernier lorsqu'un ingénieur de Google, Blake Lemoine, a dû quitter l'entreprise après avoir déclaré que son programme était capable de ressentir des sensations. Google pourrait toutefois hésiter à déployer cette nouvelle technologie pour remplacer la recherche en ligne, car elle n'est pas adaptée à la diffusion de publicités numériques, qui ont représenté plus de 80 % des revenus de la société l'année dernière.
- Perplexity AI offre l'avantage de citer les sources qui l'ont aidé à rédiger ses réponses. S'il comprend la grande majorité des questions dans la langue de Molière, il n'y répond pour l'instant qu'en anglais… Il convient de prendre davantage de précautions avec l'application Historical Figures. Si elle vous propose de converser avec 20 000 célébrités historiques, comme à des représentations virtuelles d'Albert Einstein, de Cléopâtre ou encore de Nikola Tesla , cette application a suscité la polémique en donnant la parole à des avatars de nazis. 
- Stability AI peut offrir un rendu visuel des requêtes, mais est l'objet de poursuites de Getty Images pour le non-respect des droits d'exploitation. Un des projets alternatifs les plus intéressants pourrait bien être né de cerveaux français. 
- BigScience, qui vise à entraîner le modèle de langue Bloom, s'appuie sur la puissance du supercalculateur Jean Zay, basé à Orsay. Bref, notre pays compte bien jouer un rôle dans cette recherche enthousiasmante qui vise à percer les mystères des langues humaines.
- Magnicity, application gratuite .
Avec cette application, la vie des touristes parisiens – mais aussi des habitants – va prendre une nouvelle tournure. Justement, il s’agit de tourner sur soi-même pour apercevoir la capitale en réalité augmentée. Au dernier étage de la tour Montparnasse, activez l’application et dirigez la caméra vers l’horizon. Des contenus interactifs dévoilent soudain des informations historiques et des anecdotes sur 60 lieux et monuments de la ville visibles depuis le sommet de la tour. Chicago, Rotterdam et Berlin ont également leur tour avec leur panorama, reconstitutions 3 D et quiz ludiques. Mention spéciale pour la vue de Paris à l’époque antique ! 

« Mettre au point notre paire de lunettes de réalité augmentée va prendre du temps, mais nous allons y arriver. » 

3-IA : 
les métiers menacés ne sont pas ceux que vous croyez.
Si les cols blancs semblent au moins aussi exposés que les cols bleus, une nouvelle compétence sera bientôt requise : celle de savoir parler aux machines pour guider ces dernières. « Plus vous connaissez votre sujet, plus vous êtes en mesure de générer les ordres que vous donnez à la machine, avec précision, de jouer au ping-pong avec l'agent conversationnel et d'évaluer la qualité et la finesse de ses réponses pour le pousser à se dépasser, et à vous dépasser », explique Marie Dollé dans sa newsletter "In Bed With Tech". Interprète homme-machine, en voilà un beau métier !

« Intelligence artificielle : savez-vous parler aux machines ? »