ChatGPT, l'intelligence artificielle et l'avenir de l'éducation

Il y a quelques semaines, Ethan Mollick, professeur à Wharton, a dit à ses étudiants du MBA de jouer avec Google Tag, un modèle d’intelligence artificielle, et voir si la technologie pourrait rédiger un essai basé sur l’un des sujets abordés dans son cours. Certes, la mission était principalement un gadget destiné à illustrer la puissance de la technologie. Pourtant, les essais générés par algorithme – bien qu’imparfaits et un peu trop dépendants de la voix passive – étaient au moins raisonnables, a rappelé Mollick. Ils ont également passé un autre test critique : un dépistage par Turnitin, un logiciel anti-plagiat populaire. L’IA, semble-t-il, était soudainement devenue plutôt bonne.

C’est certainement le cas en ce moment. Au cours de la semaine dernière, des captures d’écran de conversations avec ChatGPT, la dernière version du modèle d’IA développé par le cabinet de recherche OpenAI, sont devenus viraux sur les réseaux sociaux. Les gens ont dirigé l’outil, qui est disponible gratuitement en ligne, pour faire des blagues, écrire des épisodes télévisés, composer de la musique et même déboguer du code informatique – toutes choses que l’IA a également à faire. Plus d’un million de personnes J’ai maintenant joué avec l’IA, et même si elle ne dit pas toujours la vérité ou n’a pas de sens, c’est toujours un assez bon écrivain et une connerie encore plus confiante. Parallèlement aux mises à jour récentes de DALL-Ele logiciel de génération d’art d’OpenAI, et Lensa AI, un controversé Plate-forme qui peut produire des portraits numériques à l’aide de l’apprentissage automatique, GPT est un signal d’alarme brutal que l’intelligence artificielle commence à rivaliser avec les capacités humaines, au moins pour certaines choses.

“Je pense que les choses ont changé de façon très spectaculaire”, a déclaré Mollick à Recode. “Et je pense que ce n’est qu’une question de temps pour que les gens le remarquent.”

Si vous n’êtes pas convaincu, vous pouvez essayez-le vous-même ici. Le système fonctionne comme n’importe quel chatbot en ligne, et vous pouvez simplement taper et soumettre toute question ou invite que vous souhaitez que l’IA adresse.

Comment fonctionne GPT ? À la base, la technologie est basée sur un type d’intelligence artificielle appelé modèle de langage, un système de prédiction qui devine essentiellement ce qu’il doit écrire, sur la base des textes précédents qu’il a traités. GPT a été construit en formant son IA avec une quantité extraordinairement importante de données, dont une grande partie provient de la vaste offre de données sur Internet, ainsi que des milliards de dollars, y compris financement initial de plusieurs milliardaires technologiques de premier plan, dont Reid Hoffman et Peter Thiel. ChatGPT a également été formé sur des exemples de conversation humaine dans les deux sens, ce qui l’aide à rendre son dialogue beaucoup plus humain, comme un article de blog publié par OpenAI explique.

OpenAI tente de commercialiser sa technologie, mais cette version actuelle est censée permettre au public de la tester. La société a fait la une des journaux il y a deux ans lorsqu’elle a publié GPT-3, une itération de la technologie qui pourrait produire des poèmes, des jeux de rôle et répondre à certaines questions. Cette dernière version de la technologie est GPT-3.5, et ChatGPT, son chatbot correspondant, est encore meilleur en génération de texte que son prédécesseur. C’est aussi assez bon pour suivre des instructions, comme, “Écrivez une histoire courte de grenouille et de crapaud où la grenouille investit dans des titres adossés à des hypothèques.” (L’histoire se termine avec Toad suivant les conseils de Frog et investissant dans des titres adossés à des créances hypothécaires, concluant que “parfois, prendre un peu de risque peut s’avérer payant à la fin”).

La technologie a certainement ses défauts. Alors que le système est théoriquement conçu pour ne pas franchir certains lignes rouges morales – il est catégorique qu’Hitler était mauvais – il n’est pas difficile de tromper l’IA pour qu’elle partage des conseils sur la façon de s’engager dans toutes sortes d’activités perverses et néfastes, en particulier si vous dites au chatbot qu’il écrit de la fiction. Le système, comme autre IA modèles, peut aussi dire biaisé et des choses offensantes. Comme l’a dit mon collègue Sigal Samuel expliquéune version antérieure de GPT a généré un contenu extrêmement islamophobe et a également produit des points de discussion assez préoccupants sur le traitement des musulmans ouïghours en Chine.

Les capacités impressionnantes de GPT et ses limites reflètent le fait que la technologie fonctionne comme une version des suggestions d’écriture intelligentes de Google, générant des idées basées sur ce qu’elle a lu et traité auparavant. Pour cette raison, l’IA peut sembler extrêmement confiante sans afficher une compréhension particulièrement approfondie du sujet sur lequel elle écrit. C’est aussi pourquoi il est plus facile pour GPT d’écrire sur des sujets couramment discutés, comme une pièce de Shakespeare ou l’importance des mitochondries.

“Elle veut produire des textes qu’elle jugeait vraisemblables, compte tenu de tout ce qu’elle a vu auparavant”, explique Vincent Conitzer, professeur d’informatique à Carnegie Mellon. “Peut-être que cela semble parfois un peu générique, mais cela s’écrit très clairement. Il reprendra probablement des points qui ont souvent été soulevés sur ce sujet particulier car il a, en effet, appris le genre de choses que les gens disent.

Donc pour l’instant, nous n’avons pas affaire à un bot qui sait tout. Les réponses fournies par l’IA ont récemment été bannies de la plateforme de commentaires de codage StackOverflow car elles étaient très susceptibles d’être incorrectes. Le chatbot est également facilement piégé par des énigmes (bien que ses tentatives de réponse sont extrêmement drôles). Dans l’ensemble, le système est parfaitement à l’aise pour inventer des choses, ce qui n’a évidemment aucun sens après un examen humain. Ces limitations peuvent être réconfortantes pour les personnes inquiètes que le L’IA pourrait prendre leur travailou éventuellement poser une menace pour la sécurité des humains.

Mais l’IA s’améliore de plus en plus, et même cette version actuelle de GPT peut déjà très bien faire certaines tâches. Considérez la mission de Mollick. Bien que le système n’était certainement pas assez bon pour mériter un A, il a quand même plutôt bien fonctionné. Un utilisateur de Twitter a déclaré que, lors d’un examen SAT simulé, ChatGPT marqué autour du 52 centile des candidats. Kris Jordan, professeur d’informatique à l’UNC, a déclaré à Recode que lorsqu’il a attribué à GPT son examen final, le chatbot a reçu une note parfaite, bien meilleure que la note médiane des humains qui suivaient son cours. Et oui, même avant la mise en ligne de ChatGPT, les étudiants utilisaient toutes sortes d’intelligence artificielle, y compris plus tôt versions de GPT, pour mener à bien leurs missions. Et ils ne seront probablement pas signalés pour avoir triché. (Turnitin, le fabricant de logiciels anti-plagiat, n’a pas répondu aux multiples demandes de commentaires).

À l’heure actuelle, on ne sait pas combien d’étudiants entreprenants pourraient commencer à utiliser GPT, ou si les enseignants et les professeurs trouveront un moyen de les attraper. Pourtant, ces formes d’IA nous obligent déjà à nous demander quel genre de choses nous voulons que les humains continuent de faire, et ce que nous préférerions que la technologie découvre à la place.

“Mon professeur de mathématiques de huitième année m’a dit de ne pas compter sur une calculatrice car je n’en aurai pas une dans ma poche tout le temps quand je serai grand”, a déclaré Phillip Dawson, un expert qui étudie la triche aux examens à l’Université Deakin. Recode. «Nous savons tous comment cela s’est passé.

Cette histoire a été publiée pour la première fois dans la newsletter Recode. Inscrivez-vous ici pour ne pas rater la prochaine !

Leave a Reply