3 raisons indéniables pour lesquelles l'IA ne prendra pas votre travail de programmation
Agence web » Actualités du digital » 3 raisons indéniables pour lesquelles l'IA ne prendra pas votre travail de programmation

3 raisons indéniables pour lesquelles l'IA ne prendra pas votre travail de programmation

Vous avez probablement utilisé l'IA et avez été étonné à la fois par son éclat et sa stupidité – je l'ai aussi. Pourtant, ces systèmes manquent de ce qu'il faudrait pour vraiment remplacer un programmeur qualifié, et leur épine dorsale financière ne semble pas durer probablement. Je vais expliquer pourquoi.

Ils font des erreurs stupides

Peu importe la façon dont vous utilisez l'IA, que ce soit pour la programmation, la recherche ou la recherche de trouver quelque chose sur le Web; À un moment donné, tout le monde a vécu la frustration des réponses stupides de l'IA. Cela dépend du modèle que vous utilisez, mais très souvent je trouve que l'IA ne saisit tout simplement pas pleinement les questions que je pose – la perplexité étant le pire délinquant.

D'autres fois, les LLM (modèles de grande langue, AKA AI) essaient d'aligner leurs réponses avec les données d'entrée (un code invite ou existant). Hier, Claude a tenté d'utiliser un certain nombre de fonctions de test inutilisées (luminaires) dans ma base de code, et il a radicalement biaisé les résultats de la folie limite. J'ai supprimé ces fonctions et Claude a recommencé à agir raisonnablement.

Un autre problème est que les LLM ont tendance à prendre des raccourcis, probablement parce qu'ils ne saisissent pas pleinement le contexte plus large – comme les attentes sociétales ou professionnelles – et répondent simplement à la demande de la manière qu'ils peuvent. Par exemple, ils truseront occasionnellement un test pour produire artificiellement un résultat attendu, comme affirmer 1 == 1sans comprendre pourquoi ils ne devraient jamais faire cela. Ou ils écrivent souvent le même code à plusieurs reprises sans considérer la réutilisabilité – ce dont ils sont capables, mais ne font que sélectivement.

Travailler avec un LLM se sent souvent comme un jeu de Whack-a-Mole: vous résolvez un problème, seulement pour le faire faire autre chose. Ils alternent également fréquemment entre deux problèmes contradictoires sans former un type de modèle mental. Je me sens un peu idiot en disant cela, mais les vecteurs et les modèles statistiques sont-ils vraiment capables de former des modèles mentaux?

Un autre exemple hilarant de la stupidité des LLM a été la tentative de Claude de gérer une entreprise de distributeurs automatiques. Cela a bien commencé, mais cela s'est transformé en un effondrement complet après un certain temps. En raison des frais sur un compte financier fictif qu'il gérait, Claude a tenté de envoyer un e-mail au FBI et de fermer entièrement l'entreprise. Il ne s'est pas arrêté là; Claude a ensuite affirmé que les lois fondamentales de la réalité n'existaient pas, que l'entreprise était métaphysique et que son état quantique s'était effondré. Je ne te moque pas.

Considérez le cas où une IA dévouée a accepté une ordonnance de 18 000 tasses d'eau à Taco Bell sans aucun doute. Ou quand il a demandé de manière récursive à un client s'il voulait de l'eau avec sa commande – alors qu'il commandait de l'eau. Un tel comportement insensé a incité l'entreprise à reconsidérer sa stratégie d'IA.

Les gens brossent ces comportements comme des problèmes de dentition, mais je pense que la question fondamentale est l'absence d'un cerveau fonctionnel. Nous ne pouvons pas gérer le logiciel du monde sur quelque chose d'aussi peu fiable, et nous aurons donc besoin de programmeurs qualifiés dans le futur.

Ils sont sycophantiques et pas assez critiques

La critique est un aspect crucial du codage efficace. Que vous écriviez ou révisez du code, vous devez constamment remettre en question sa qualité. Chaque fois que je finissais d'écrire un bloc de code, j'évalue immédiatement comment je peux le simplifier ou améliorer sa lisibilité.

Lorsque vous-vous-programme, vous voulez qu'un penseur critique repère vos stupides erreurs. D'après mon expérience, les LLM font le contraire; Ils effectueront consciencieusement vos ordres comme un serviteur sycophantique, aussi dangereux ou stupide des idées. Si vous lui demandez d'être critique, il est 50/50, que ses objections soient perspicaces ou absolument folles. Pour moi, ce manque de perspicacité indique un manque de réelle pensée, mais il est toujours surprenant pour certains.

La pensée critique est intrinsèquement désagréable et nécessite des objections sensibles. Les LLM, cependant, démontrent généralement une nature agréable – l'opposé complet. Récemment, de nombreuses nouvelles ont émergé concernant la psychose de l'IA. Les experts soupçonnent que les LLM renforcent par inadvertance des idées dangereuses, favorisant la pensée délirante. De plus, ces modèles ont tendance à refléter vos idées, créant une boucle de rétroaction de renforcement. J'ai personnellement observé la perplexité modifier ses réponses plusieurs fois en fonction des mots clés que j'ai introduits lors de nos dialogues.

Donc, pour le mettre ensemble: vous avez besoin d'un penseur critique pour vous aider à écrire du code sûr, mais vous obtenez un serviteur sycophantique qui renforce vos idées – bon ou mauvais.

Maintenant plus que jamais, toi Doit être le penseur critique, car les LLM ne peuvent pas effectuer cela de manière authentique. C'est aussi pourquoi je pense que le codage d'ambiance ne fonctionne pas, car il n'y a aucune pensée critique dans la boucle. Demander à un LLM de penser de manière critique, c'est comme demander poliment à un chien de ne pas manger votre déjeuner – parfois cela fonctionne, mais souvent vous préparez le déjeuner pour deux.

C'est une bulle qui finira par sauter

Il est de notoriété publique que l'IA coûte cher à s'entraîner et à courir, mais ce qui peut être moins évident, c'est à quel point les entreprises de jeu prennent des jeux. Les LLM sont encore non prouvées, malgré la hauteur de certaines personnes sur la technologie. Au cours des 6 derniers mois, des questions importantes ont été soulevées sur la qualité du travail qu'ils produisent.

L'année dernière, les modèles projetés par le PDG d'Anthropic pourraient coûter plus de 10 à 100 milliards de dollars pour s'entraîner, tandis qu'Openai a récemment signé un contrat de 300 milliards de dollars avec Oracle pour l'informatique au cours des cinq prochaines années. Les deux projections sont optimistes, s'appuyant entièrement sur la croissance continue du marché – un pari significatif.

Les entreprises d'IA brûlent actuellement en espèces. Bien qu'il soit typique pendant la phase de croissance des nouvelles entreprises ou marchés, il est également typique d'une bulle. Sam Altman lui-même a reconnu que le marché est actuellement dans une bulle. Si l'histoire sert de guide, les bulles éclatent inévitablement.

Les bulles ont éclaté parce que l'argent (et la confiance des investisseurs) sèche, et avec cela, la phase de croissance exponentielle aussi. Lorsque la bulle d'IA éclate, de nombreuses sociétés d'IA passeront. Je ne doute pas que le marché se rétablira, mais cela prendra des années, et le monde aura toujours besoin de programmeurs qualifiés entre-temps.


Les LLM sont une technologie impressionnante, mais je ne pense pas qu'elles puissent rivaliser avec les humains dans leur forme actuelle. J'ai rencontré un battage médiatique et des contre-arguments considérables sur leurs capacités. Il est difficile de dire qui est véridique – ceux qui utilisent la technologie ou ceux qui restent pour tout perdre. Je ne peux pas décider, mais je fais confiance à une expérience personnelle, et cela me dit que les LLM n'ont pas de cerveau fonctionnel. Sans un, nous ne pouvons pas raisonnablement nous attendre à ce que les logiciels se construisent. Et sans les flux de trésorerie cohérents dont jouit actuellement le marché, pouvons-nous nous attendre à ce que les LLM restent aussi accessibles? Seul le temps nous le dira, mais les programmeurs humains ne vont nulle part.

Si vous avez trouvé cela divertissant, vous pourriez être curieux de savoir pourquoi le codage d'ambiance comporte des risques ou pourquoi un programmeur favorise à la place les approches traditionnelles. Alternativement, si vous vous en avez assez d'entendre parler de l'IA, vous serez heureux d'apprendre que personne ne vous oblige à l'utiliser, mais.

★★★★★