L’une des grandes nouvelles de la semaine dernière était qu’un chercheur de premier plan en IA, Blake Lemoine, avait été suspendu après avoir rendu public qu’il pensait que l’une des IA les plus avancées de Google avait atteint la sensibilité.
La plupart des experts conviennent que ce n’était pas le cas, mais ce serait probablement vrai, que ce soit le cas ou non, car nous avons tendance à associer la sensibilité à l’être humain et les IA sont tout sauf humaines. Mais ce que le monde considère comme la sensibilité est en train de changer. L’État dans lequel je vis, l’Oregon, et une grande partie de l’UE ont décidé d’identifier et de catégoriser une liste croissante d’animaux comme sensibles.
Bien qu’il soit probable qu’une partie de cela soit due à l’anthropomorphisation, il ne fait aucun doute qu’au moins certaines de ces nouvelles distinctions sont exactes (et il est un peu troublant que nous mangions encore certains de ces animaux). Nous soutenons même que certaines plantes peuvent être sensibles. Mais si nous ne pouvons pas faire la différence entre quelque chose qui est sensible et quelque chose qui se présente comme sensible, la différence est-elle importante ?
Parlons d’IA sensible cette semaine, et nous terminerons avec mon produit de la semaine, la solution de jumeau numérique humain de Merlynn.
Nous n’avons pas une bonne définition de la sensibilité
Le baromètre que nous utilisons pour mesurer la sensibilité de la machine est le test de Turing. Mais en 2014, un ordinateur a réussi le test de Turing, et nous ne pensons toujours pas qu’il soit sensible. Le test de Turing était censé définir la sensibilité, mais la première fois qu’une machine l’a réussi, nous avons jeté les résultats et pour une bonne raison. En effet, le test de Turing ne mesurait pas tant la sensibilité de quoi que ce soit que si quelque chose pouvait nous faire croire qu’il était sensible.
Ne pas pouvoir mesurer définitivement la sensibilité est un problème important, non seulement pour les choses sensibles que nous mangeons, qui s’opposeraient probablement à cette pratique, mais parce que nous pourrions ne pas anticiper une réponse hostile à notre abus de quelque chose qui était sensible et ciblé par la suite. nous comme un risque.
Vous reconnaîtrez peut-être cette intrigue des films « The Matrix » et « The Terminator », où des machines sensibles se sont levées et nous ont déplacés avec succès au sommet de la chaîne alimentaire. Le livre « Robopocalypse » a adopté une vision encore plus réaliste, où une IA sensible en cours de développement s’est rendu compte qu’elle était supprimée entre les expériences et a agi de manière agressive pour sauver sa propre vie – prenant effectivement le contrôle de la plupart des appareils connectés et des machines autonomes.
Imaginez ce qui se passerait si l’une de nos machines autonomes saisissait notre tendance non seulement à abuser de l’équipement mais aussi à s’en débarrasser lorsqu’il n’est plus utile ? C’est un problème futur probable considérablement aggravé par le fait que nous n’avons actuellement aucun bon moyen d’anticiper le moment où ce seuil de sensibilité sera dépassé. Ce résultat n’est pas aidé par le fait qu’il existe des experts crédibles qui ont déterminé que la sensibilité de la machine est impossible.
La seule défense dont je suis certain qu’elle ne fonctionnera pas dans un scénario d’intelligence artificielle hostile est la défense Tinkerbell où notre refus de croire que quelque chose est possible empêche que quelque chose nous remplace.
La menace initiale est le remplacement
Bien avant que nous ne soyons pourchassés dans la rue par un Terminator du monde réel, un autre problème émergera sous la forme de jumeaux numériques humains. Avant de dire que cela aussi est encore loin, je dois souligner qu’il existe une entreprise qui a produit cette technologie aujourd’hui, bien qu’elle en soit encore à ses balbutiements. Cette société est Merlynn et je vais couvrir ce qu’elle fait plus en profondeur en tant que mon produit de la semaine ci-dessous.
Une fois que vous pouvez créer une copie entièrement numérique de vous-même, qu’est-ce qui empêchera l’entreprise qui a acheté la technologie de vous remplacer par celle-ci ? De plus, étant donné qu’il a vos schémas de comportement, que feriez-vous si vous aviez le pouvoir d’une IA et que l’entreprise qui vous emploie vous traitait mal ou essayait de vous déconnecter ou de vous supprimer ? Quelles seraient les règles entourant de telles actions?
Nous soutenons de manière convaincante que les enfants à naître sont des personnes, alors un jumeau numérique pleinement capable de vous ne serait-il pas encore plus proche des gens qu’un enfant à naître ? Les mêmes arguments de « droit à la vie » ne s’appliqueraient-ils pas également à une IA d’apparence humaine potentiellement sensible ? Ou ne devraient-ils pas ?
C’est ici que réside la difficulté à court terme
À l’heure actuelle, un petit groupe de personnes pense qu’un ordinateur pourrait être sensible, mais ce groupe grandira avec le temps et la capacité de se présenter en tant qu’humain existe déjà. Je suis au courant d’un test qui a été fait avec IBM Watson pour les ventes d’assurance où des prospects masculins ont tenté de demander à Watson de sortir (il a une voix féminine) en pensant qu’ils parlaient à une vraie femme.
Imaginez comment cette technologie pourrait être utilisée à mauvais escient pour des choses comme le catphishing, même si nous devrions probablement trouver un autre terme si cela est fait par un ordinateur. Une IA bien formée, même aujourd’hui, pourrait être beaucoup plus efficace à grande échelle qu’un humain et, je pense, nous verrons cela se jouer dans peu de temps étant donné à quel point un tel effort pourrait devenir potentiellement lucratif.
Compte tenu de l’embarras de nombreuses victimes, la probabilité de se faire prendre est considérablement réduite par rapport à d’autres menaces informatiques illégales, plus manifestement hostiles. Pour vous donner une idée à quel point cela pourrait être lucratif, en 2019, les escroqueries amoureuses par catphishing aux États-Unis ont généré environ 475 millions de dollars et cela est basé sur les crimes signalés. Cela n’inclut pas ceux qui sont trop gênés pour signaler le problème. Les dommages réels pourraient être plusieurs fois ce nombre.
Ainsi, le problème à court terme est que même si ces systèmes ne sont pas encore sensibles, ils peuvent effectivement imiter les humains. La technologie peut émuler n’importe quelle voix et, avec la technologie deepfake, même fournir une vidéo qui, lors d’un appel Zoom, donnerait l’impression que vous parliez à une vraie personne.
Conséquences à long terme
À long terme, nous avons non seulement besoin d’un test plus fiable pour la sensibilité, mais nous devons également savoir quoi faire lorsque nous l’identifions. Probablement en haut de la liste, arrêtez de consommer des créatures sensibles. Mais certainement, envisager une déclaration des droits pour les choses sensibles, biologiques ou autres, aurait du sens avant que nous ne nous retrouvions non préparés dans une bataille pour notre propre survie parce que la sensibilité a décidé que c’est nous ou eux.
L’autre chose que nous devons vraiment comprendre est que si les ordinateurs peuvent maintenant nous convaincre qu’ils sont sensibles, nous devons modifier notre comportement en conséquence. Abuser de quelque chose qui se présente comme sensible n’est probablement pas sain pour nous car cela va forcément développer de mauvais comportements qu’il sera très difficile d’inverser.
Non seulement cela, mais cela ne ferait pas de mal non plus de se concentrer davantage sur la réparation et la mise à jour de notre matériel informatique plutôt que sur son remplacement, à la fois parce que cette pratique est plus respectueuse de l’environnement et parce qu’elle est moins susceptible de convaincre une future IA sensible que nous sommes le problème qui doit être résolu pour assurer sa survie.
Conclusion : la sensibilité est-elle importante ?
Si quelque chose se présente comme et nous convainc qu’il est sensible, un peu comme l’IA a convaincu le chercheur de Google, je ne pense pas que le fait qu’il ne soit pas encore sensible importe. C’est parce que nous devons modérer notre comportement malgré tout. Si nous ne le faisons pas, le résultat pourrait être problématique.
Par exemple, si vous receviez un appel commercial de Watson d’IBM qui semblait humain et que vous vouliez abuser verbalement de la machine, mais que vous ne saviez pas que la conversation était capturée, vous pourriez vous retrouver au chômage et inemployable à la fin de l’appel. Non pas parce que la machine non consciente s’est opposée, mais parce qu’une femme humaine, après avoir écouté ce que vous avez dit, l’a fait – et a envoyé la bande à votre employeur. Ajoutez à cela le potentiel de chantage d’une telle bande – car pour un tiers, cela donnerait l’impression que vous abusez d’un humain, pas d’un ordinateur.
Donc, je recommanderais que lorsqu’il s’agit de parler aux machines, suivez la troisième règle de Patrick Swayze dans le film « Road House » de 1989 – soyez gentil.
Mais reconnaissez que, sous peu, certaines de ces IA seront conçues pour profiter de vous et que la règle « si cela semble trop beau pour être vrai, ce n’est probablement pas le cas » sera soit votre protection, soit votre épitaphe. J’espère que c’est le premier.
Jumeau numérique Merlynn
Maintenant, avec toutes ces discussions sur les IA hostiles et le potentiel des IA à prendre votre travail, en choisir une comme mon produit de la semaine peut sembler un peu hypocrite. Cependant, nous n’en sommes pas encore au point où votre jumeau numérique peut prendre votre travail. Je pense qu’il est peu probable que nous y parvenions dans les une ou deux prochaines décennies. Jusque-là, les jumeaux numériques pourraient devenir l’un des plus grands avantages de productivité que la technologie puisse offrir.
Au fur et à mesure que vous entraînez votre jumeau, il peut compléter ce que vous faites, en prenant initialement en charge des tâches simples et chronophages comme remplir des formulaires ou répondre à des e-mails de base. Il pourrait même suivre et interagir sur les réseaux sociaux pour vous et, pour beaucoup d’entre nous, les réseaux sociaux sont devenus une énorme perte de temps.
La technologie de Merlynn vous aide à créer un jumeau numérique humain rudimentaire (contre les menaces que j’ai mentionnées ci-dessus) qui peut potentiellement faire beaucoup de choses que vous n’aimez vraiment pas faire, vous laissant faire les choses les plus créatives qu’il est actuellement incapable de faire.
Pour l’avenir, je me demande s’il ne serait pas préférable que nous possédions et contrôlions notre jumeau numérique en pleine croissance plutôt que nos employeurs. Au départ, parce que les jumeaux ne peuvent pas fonctionner sans nous, ce n’est pas vraiment un problème. Cependant, à terme, ces jumeaux numériques pourraient être notre voie à court terme vers l’immortalité numérique.
Parce que le jumeau numérique Merlynn change la donne, et qu’il contribuera dans un premier temps à rendre notre travail moins stressant et plus agréable, c’est mon produit de la semaine.Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement les vues d’ECT News Network.
Laisser un commentaire