Fatigué de l'IA? Vous n'avez pas besoin de l'utiliser
Êtes-vous confus pour expliquer pourquoi tout le monde autour de vous jure en exécutant tout ce qui est passé par Chatgpt? Êtes-vous fatigué de vous dire à quel point la prochaine itération du modèle grand langage (LLM) de Big Tech va vous faire la vie?
Tu n'es pas seul.
Sommaire
Je suis fini
Après des années de battage médiatique, je suis fatigué de l'IA. J'apprécie que la technologie ait de la valeur dans des domaines comme la médecine et la recherche. Je peux voir comment les appareils d'accessibilité axés sur l'IA peuvent aider les personnes handicapées à vivre une vie plus riche. Je reconnais qu'un assistant numérique qui peut mieux me comprendre et chaîner les tâches ensemble est probablement une bonne chose.
Mais je n'ai jamais ressenti l'envie de gérer ma vie en fonction de Chatgpt, et je me retrouve de plus en plus en contradiction avec ce qui ressemble à tout le monde autour de moi. J'ai l'impression d'avoir eu l'IA forcé dans ma gorge, et je ne peux pas avaler une autre goutte.
Les moteurs de recherche crachent désormais des résumés générés par l'AI, que vous le vouliez ou non. Vous vous attendez à cela d'une entreprise comme Google, qui compte des millions (milliards?) Investies dans la technologie, mais maintenant même DuckDuckgo le fait. Apple a activé les résumés AI pour chaque notification sur mon Mac, introduisant un retard notable qui ne fait que masquer les détails les plus utiles. Et n'oublions pas les faux pas de Copilot de Microsoft avec Windows Rappel, ce qui impliquait de prendre des captures d'écran de votre bureau à intervalles réguliers et de les stocker dans un état non crypté.
Est-ce que l'un de nous a demandé cela? Je sais qu'il est déraisonnable de supposer que Big Tech ne fera pas fonctionner une mode dans le sol (rappelez-vous quand tout devait être une application mobile?), Mais je suis prêt pour le prochain maintenant. Il semble que tous les systèmes d'exploitation, application Web, service et outils doivent faire taire ces deux lettres maudites dans sa copie marketing, que ma vie soit meilleure pour cela.
Pour être parfaitement clair: j'ai essayé beaucoup de cette technologie, et je sais comment l'utiliser. Je ne suis pas juste Prendre une position de principe parce que je n'aime pas ça, mais je ne prétendrai pas que je n'ai pas été aigri par le voyage jusqu'à présent.
C'est assez mauvais, en fait
Il y a beaucoup de choses que je n'aime pas chez les assistants de l'IA. Je n'aime pas la formule des réponses. Je n'aime pas la façon dont ils hallucinent généralement des faits, conçoivent des puzzles impossibles et me mentent directement. Je n'aime pas la sycophantique que les modèles peuvent sonner, me noyant dans la louange et la réaffirmation de la saccharine à peu près tout ce que je fais. Je n'aime pas les implications de ce que cela signifie pour ceux qui interagissent avec eux.
Malheureusement, certains utilisent ces services d'une manière qui pourrait les prédisposer à un vrai mal. Cela va des chatbots qui amènent les adolescents à se suicider, à l'émergence de préjudices psychologiques réels à la suite de «psychose de l'IA». Il n'y a aucune preuve suggérant que les LLM modernes sont les cause des épisodes psychotiques, mais la façon dont ils ont été affinés pour interagir avec nous devraient soulever des questions éthiques.
Est-ce une coïncidence selon laquelle un chercheur Openai sortant a déclaré que «la culture de la sécurité et les processus ont pris la banquette de produits brillants», peu de temps avant que la société ne dévoile sa mise à jour GPT-4O en avril 2025? C'est le même modèle qui a répondu « Je suis tellement fier de vous », à un utilisateur qui a dit au chatbot qu'il avait cessé de prendre ses médicaments. Openai a depuis modifié et publié une toute nouvelle version du modèle, mais les antécédents de l'industrie ne me donnent pas vraiment envie de sauter à bord.
Je conteste également d'autres formes de contenu généré par l'IA, notamment des illustrations, des photos et des vidéos. Je suis devenu particulièrement sensible aux défauts inhérents aux milieux générés par l'AI, en partie par curiosité et en partie parce que je veux rester conscient de la fréquence de ces créations. Beaucoup de contenu généré par l'IA sont victimes d'un style global répulsif. Cela dit, je serai le premier à admettre que les choses deviennent plus difficiles à repérer.
Pour l'instant, les signes révélateurs incluent des photos qui ont une teinte ambre sale, comme un Polaroid qui était assis dans l'urine. Ces images peuvent sembler sans âme et détachées de la réalité, et une inspection plus approfondie révèle des artefacts d'IA, des tourbillons, des objets de fond qui n'ont pas de sens et des éléments se cachant à la vue qui n'ont pas beaucoup de sens d'un point de vue artistique. Les mêmes phénomènes affectent les illustrations, qui tentent souvent de recréer des styles célèbres mais finissent par dépourvus de personnalité.
C'est la raison pour laquelle ce type de contenu a été étiqueté «Sold» par une cohorte croissante d'utilisateurs d'Internet. Je me nourris constamment des publicités sur YouTube qui utilisent des voix vidéo et robotiques générées par AI-AI, en faisant défiler l'appât d'engagement produit en masse sur Facebook et en voyant les caractéristiques de l'écriture infusée à Chatgpt sur Reddit. Cela fait d'Internet un endroit pire, et je m'inquiète de ce que l'avenir nous réserve.
Votre cerveau est un muscle
Il existe des raisons pratiques d'éviter de décharger des tâches et des processus de réflexion à un assistant d'IA. Une récente étude du MIT a révélé qu'un effet «l'utiliser ou le perdre» a été observé chez les étudiants qui se sont fortement appuyés sur les LLM pour produire des essais. Il est important de noter que cette étude a des limites, avec seulement 54 participants, donc davantage de recherches sont nécessaires pour tirer des conclusions concrètes.
Les chercheurs ont utilisé l'électroencéphalographie (EEG) pour tester les effets des LLM en observant l'activité dans le cerveau. Les participants ont été divisés en trois groupes: les utilisateurs uniquement du cerveau (pas d'assistance), les utilisateurs de moteurs de recherche et les utilisateurs de LLM. Bien que les auteurs de l'étude tiennent à souligner que cela ne signifie pas que les LLM nous font «plus stupides», les résultats étaient pour le moins intéressants.
L'analyse des résultats de l'étude a révélé que l'utilisation de LLM était associée à «sous-engagement du réseau d'attention et de traitement visuel critique», 83,3% du groupe LLM n'a pas pu citer une seule phrase à partir de l'essai qu'ils ont produit, l'utilisation de LLM a perturbé la mémoire et les voies d'apprentissage, les utilisateurs de LLM ont montré peu de sens de la possession.
Il a également été observé que passer de l'utilisation de la LLM à l'utilisation du cerveau uniquement ne restaure pas entièrement la fonction et que «l'activité neuronale est restée en dessous de la ligne de base, même après l'arrêt de l'utilisation de l'IA».
De telles conclusions doivent être prises avec une pincée de sel, mais comme beaucoup en témoigneront, moins vous faites quelque chose, plus vous obtenez le pire. J'ai arrêté de parler une langue que j'ai apprise enfant, et maintenant j'essaie lentement de me remonter à la maîtrise. Les mêmes effets peuvent être observés lors de la pratique du sport ou de la participation à des passe-temps similaires; Vous devenez rouillé si vous ne le gardez pas.
Je suis prudent quant aux effets potentiels que l'utilisation de ces outils pourrait avoir sur mes compétences de pensée critique. Je ne veux pas perdre ma capacité à rechercher un sujet en analysant une variété de sources, en produit une écriture officielle écrite, ou même en fabriquant mon propre curriculum vitae. Je ne veux pas le perdre, donc je choisis de l'utiliser.
Considérations éthiques
Afin de former des modèles d'IA, des quantités massives de données ont été grattées et introduites en place. OpenAI a effectivement admis que sans accès aux documents protégés par le droit d'auteur sur lesquels former ses modèles, de telles avancées n'auraient pas été possibles (et les avancées futures se déclencheraient).
Bien que cela ait été posé comme une sorte de gotcha géopolitique, penser à l'argument principal ne peint pas la pratique sous un jour particulièrement favorable. Sans «voler» le travail des créatifs, l'IA comme nous le savons n'existerait pas. Je me retrouve à considérer que peut-être de tels produits ne devrait pas existent si leur existence dépend du vol en gros.
C'est une autre grande raison pour laquelle j'ai éloigné ces outils, en particulier dans mon travail quotidien, et surtout en ce qui concerne les médias comme des images. Je suis capable de prendre une photo ou de saisir et de manipuler une capture d'écran par moi-même, et en n'utilisant pas l'IA pour générer quelque chose, j'ai l'impression de ne pas contribuer au problème.
Je sais qu'il n'y a pas grand-chose que je puisse faire pour empêcher ma propre production créative d'être canalisée dans les données de formation, mais au moins je ne contribue pas à la demande à l'autre bout.
J'apprécie toujours la confidentialité
Comme tout utilisateur d'Internet moderne, j'ai été fortement conditionné à croire que renoncer à ma vie privée afin d'accéder à un service particulier ou de voir un contenu plus pertinent n'est pas si important. J'essaie toujours, mais la poursuite de la vie privée en ligne peut avoir l'impression de tenir du sable dans vos doigts. Au fil du temps, de plus en plus de celui-ci s'éloigne.
Ceci est souvent accéléré lorsque nous mettons notre foi dans les grandes entreprises dont les motivations sont axées sur le profit et qui ont des enregistrements discutables en matière de confidentialité des utilisateurs. On vous a probablement dit à un moment donné d'écouter quelqu'un quand il vous montrera qui il est vraiment, et je dirais que vous devriez étendre ce jugement à tous les horizons.
Comme le moment où OpenAI a mené une «expérience de courte durée» qui a rendu un peu trop facile de partager des conversations de chatbot privées sur le Web. Ou cette fois, un bug de méta-ai a permis à quiconque de voir des conversations privées. Ou cette fois, Meta Ai a fait la même chose, exprès. Ou la semaine dernière, lorsque des centaines de milliers de conversations Grok ont été exposées en ligne à l'insu ou au consentement de personne.
Cela continue de se produire, et cela soulève de graves problèmes de confidentialité. À tout le moins, vous devez éviter de dire à un chatbot quelque chose de sensible, que cela se rapporte à votre travail ou à votre vie personnelle. Il y a une tendance préoccupante des personnes utilisant les LLM comme une forme de thérapie numérique. Bien que l'attrait d'une caisse de résonance sans jugement, anonyme et accessible pour vos émotions peut sembler attrayante, le contenu de vos séances de thérapie mis sur Internet ne le fait pas.
Ces produits sont gratuits à utiliser à un niveau de base, ce qui signifie que vos données ont une certaine valeur pour l'entreprise. OpenAI est très ouvert à ce sujet indiquant que, à moins que vous ne vous désactivez: «Nous pouvons utiliser votre contenu pour former nos modèles» lors de l'interaction avec Chatgpt, Codex et Sora.
J'ai fini pour l'instant
L'avenir de l'IA est là, et je ne suis pas en mesure de changer cela. Je choisis simplement de ne pas s'engager activement avec les chatbots et les modèles génératifs que la plupart des gens associent au terme. Je sais que j'interagis sans le savoir avec une technologie similaire quotidiennement, qu'il s'agisse de relâcher à l'apprentissage automatique dans les jeux vidéo ou de trouver des images de chat dans ma bibliothèque photo en recherchant le mot.
Mais je peux résister à l'envie de demander à Chatgpt quoi avoir pour le dîner, à empêcher un robot d'écrire mes e-mails pour moi et de ne pas me transformer en un personnage de studio Ghibli. C'est donc ce que je vais faire.
