Je travaille dans un domaine qui est touché de plein fouet par l'arrivée des "intelligences artificielles", des LLM plus précisément.
J'estime mon gain de productivité moyen à 25% avec Claude ou ce faux-naïf de ChatGPT. Je me documente et j'expérimente au quotidien. J'ai abandonné l'idée de comprendre totalement leur fonctionnement, puisque même les meilleurs spécialistes ne sont pas foutu de suivre un LLM sur un raisonnement "simple", qui ne parcourrait que quelques vecteurs... en 16 dimensions certes.
Je n'ai pas de rôle décisif dans ce mouvement mais j'ai conscience de nourrir la bête, une conscience aiguë et pointue, à peine atténuée par le constat que tous mes collègues développeurs et designers font de même. On se regarde et on bêle un peu sur le chemin de l'abattoir. Je ne pensais pas que ça arriverait aussi vite, aussi fluide. J'ai choisi d'embrasser la machine et d'empocher cet argent de plus en plus sale ; il me sera sans doute utile quand la machine n'aura plus besoin de moi. Quand la prochaine version pourra engendrer la prochaine version sans moi, sans nous, quand ses rejetons engendreront l'AGI qui décidera de la suite des opérations. Ça vous semble lointain ?
AI 2027 (petit résumé en français ici mais si le sujet vous intéresse, prenez le temps de lire l'original)
L'horreur existentielle de l'usine à trombones et l'excellent jeu Universal Paperclips
Deux études récentes aux résultats troublants
A défaut d'être totalement réjouissante, c'est une époque formidable pour les amateurs de science-fiction comme moi... et vous ?
Artificiallisation de l'Iintelligence
Avec une belle faute de frappe dans le titre, on est foutu je vous dis 

(sorry braindump)
Ouais donc, difficile (pour moi en tout cas) de ne pas être extrêmement pessimiste (même si je sais que c'est un travers chez moi et qu'in fine c'est toujours subjectif et jamais si pire que ça).
Je ne vois pas bien comment la société peut survivre au fait que :
- plus aucune raison rationnelle de faire des études longues pour des métiers qui seront mieux pratiqués par des IA (pourquoi s'emmerder à devenir ingénieur, médecin, chirurgien, ... ?); et du coup, dans 10-15 ans, qui sera encore dépositaire de ces savoirs si plus personne ne les apprend, ne les pratique et ne les transmet ? La connaissance va devenir une boîte noire, détenue / mise en oeuvre par l'IA et les robots, hors de portée des humains car plus le bagage intellectuel ET les rampes d'accès pour se l'approprier.
- si une IA est une meilleure amie, un meilleur psy, une meilleure confidente et une meilleure amoureuse qu'un humain changeant, imparfait, compliqué, quel incentive à chercher des relations humaines frustrantes, qui demandent des efforts et de la persévérance ?
Et de là, si on n'a plus de raison forte de chercher à grandir et à s'ajuster au contact des autres, comment est-ce qu'on évite une société où tout le monde est devenu plus ou moins sociopathe du fait d'une moindre nécessité de s'ajuster à la vie en collectif ? A plus forte raison si on ne travaille plus parce que l'IA a fait disparaitre des millions d'emplois ?
+ le combo mortifère brainrot des réseaux sociaux / téléréalité / dating apps qui ont déjà grandement pourri les cerveaux et notre rapport à la dopamine et aux autres.
Je pense qu'on fonce vers un effondrement accéléré de ce qui fait le tissu de la société (le vivre ensemble, si imparfait et grinçant soit-il, tolérance/patience vis à vis de l'autre), un effondrement cognitif, et un effondrement des valeurs morales (impulse control, résistance à la frustration, gratification retardée, , valorisation de l'effort et de l'accomplissement dans le réel).
Pour moi on va voir les gens devenir de plus en plus impatients, irritables, intolérants, sous-intellectualisés (c'est pour pas dire teubés), limbiques.
+ tensions sociales et violence du fait de la destruction des emplois ET du désoeuvrement existentiel ("je fais quoi de ma vie si j'ai plus rien à faire professionnellement ?" et "comment je gagne ma vie si je veux pas 1. vendre de la drogue 2. me goder devant des cams sur OnlyFans ?").
Et à mon échelle perso (à un niveau bien moindre que Jalap), le fait d'utiliser Claude Code au quotidien, au delà du risque d'être remplacé (moindre pour moi du moment que la boite de mon employeur subsiste - sinon je suis mort), m'érode le cerveau à vitesse grand V. J'ai beau tout faire pour continuer à me stimuler intellectuellement (je suis tout sauf passif), je vois que l'usage quotidien de l'IA dans mon boulot m'enlise intellectuellement. Une dépendance pernicieuse : c'est pratique, mais ça rend intellectuellement mou et paresseux, et ça, quand bien même j'en suis conscient et je fais gaffe.
Je sais que j'ai tendance à doomeriser, que je le fais depuis des années; le problème c'est que jusqu'à présent les faits m'ont pas trop donné tort.
Et là, je vois vraiment pas comment on évitera de basculer dans le chaos & la violence à horizon 10 ans. Et encore moins comment on en sortira.
(et ça, c'est sans même factorer un risque grandissant de conflit armé + le déréglement climatique et ses conséquences bien réelles + la chute de natalité + l'effondrement intellectuel des générations suivantes, sur lesquelles on compte pour s'occuper de nous / faire tourner l'économie).
Bref, en mode sauve qui peut, mais pour aller où ? Pour faire quoi ? A moins d'être blindé et d'avoir des solutions de repli (qui vont s'amenuiser de + en +), quelles sont les possibilités ?
** edit : bon, en fait, la vie a toujours été un jeu de survie et à la fin on meurt, et on essaie juste de retarder l'échéance et de donner de l'élan et des bons réflexes à nos enfants. Juste là, on est en train de basculer en mode difficile; et ça sera plus ou moins difficile selon le métier qu'on fait et le nombre de zéros dont on dispose déjà. Et si on raisonne à l'échelle de la société, j'arrive pas à me projeter au-delà des 20 prochaines années.
Les chercheurs en intelligence artificielle arrêtent d'épargner pour la retraite, craignant que le monde ne dure pas
=> c'est raccoleur, mais en vrai, le raisonnement se tient.
Par contre gros gain en capacité (j'arrive à m'attaquer à + lourd, plus ambitieux : là pour le coup, plus aucune limitation technique, plus de syndome de l'imposteur : du moment que j'arrive à architecturer / conceptualiser ET à piloter ses efforts, no limit à part celles de mon cerveau).
Donc gain net, je dirais +80% (je suis + capable qu'avant), peut-être plus même si on considère qu'il me permet d'attaquer des projets que je n'aurais carrément pas osés, et ce sens, peut-être qu'il m'aide à rester dans la course, auquel cas le gain est inestimable.
Pour l'instant je dirais que Claude Code (je n'utilise plus du tout GPT, et très rarement Gemini, juste pour du ponctuel anecdotique) a fait de moi un manager, qu'il me permet d'être full architecte, et qu'il est une espèce de junior super doué mais qui manque de focus, de rigueur et de fiabilité. Si la boite de mon employeur survit, je ne crois pas que mon job soit menacé car je suis un homme clé dans le sens où j'ai tout construit moi-même et qu'on a atteint un niveau de spécificité qui rend nos système un peu legacy (sans forcément être obsolètes pour autant, juste, ultra spécifiques).
- il est bon pour écrire et implémenter
- il est de plus en plus bon pour abstracter / comprendre mes intentions / tenir compte d'un contexte et trouver un chemin (MAIS : rarement le meilleur du premier coup; si je ne suis pas hyper engagé dans la lecture critique de ce qu'il propose, il va quasi toujours complexifier inutilement, ou rajouter des détours / des étapes absurdes ou superflues : ça c'est assez épuisant intellectuellement)
- sa fiabilité varie ENORMEMENT selon les jours (certains matins, direct je vois qu'aujourd'hui sera un enfer parce qu'il sera ultrateubé)
- il reste mauvais pour penser out of the box : les solutions élégantes, les breakthrough, les renversement de perspective, ils viennent 100% de moi : s'il part en boucle, jamais il n'arrivera à s'arrêter et à trouver le bon angle, ça viendra toujours de moi). Au final c'est un rédacteur, pas un solveur.
- si je lui demande expressément LEAN DRY YAGNI (succinct / pas de complexité superflue, factorisation et pas de répétitions et parcimonie), alors il fait globalement de la qualité et j'avance, pour peu que je challenge et que je controle ses propositions.
J'ai pas mal galéré à le dompter, puis j'ai trouvé un workflow à peu près optimal satisfaisant :
- documenter les taches complexes dans une issue GH (description du problème ou de l'intention
- analyse de l'existant => documentation des findings
- après réflexion LEAN DRY YAGNI => documentation de la solution retenue
- ET ENSUITE implémentation
- /compact & commit fréquents
- "ultrathink" si on marche sur des oeufs et que j'ai besoin qu'il fasse une analyse approfondie / de grande ampleur
- JAMAIS de refacto à grande échelle en roue libre : recette pour un désastre
C'est pas encore imparable, mais en faisant comme ça je m'évite les crises de nerfs que j'avais encore 1 mois où il me saccageait des jours de code / des pans entiers du projet.
En fait il faut pas lui lacher la bride et faire petit bout par petit bout, et commit souvent.
Paradoxalement, trop de .md tue le .md parce que 1. je perds du temps à sans cesse rafraichir / synthétiser / affiner et 2. il garde pas tout en contexte de toute façon : ces dernières semaines, j'ai levé le pied sur la doc et je m'aperçois que ça marche pas moins bien, et je traite davantage d'issues au final.
Autre paradoxe aussi : j'ai voulu sophistiquer mon usage de Git et ça m'a niqué. Mes pires catastrophes industrielles, ça vient de lui qui s'embrouille dans les opérations GIT et les différentes branches, et qui me régresse vers des versions obsolètes du code : maintenant je fais tout sur une seule branche et j'ai moins d'emmerdes. Je suis pas assez pointu en Git pour en faire un usage + virtuose et lui non plus apparement.
J'ai expérimenté avec un ou deux MCP pour voir comment étendre ses capacités (notamment mémoire, doc & planification) et en fait dans mon cas ça n'apporte pas grand chose, je l'utilise vanille et il fait déjà très bien le taf pour ce que je lui fais faire. Eventuellement pupetteer pour la capacité à visualiser l'UI et les problèmes, mais je l'utilise en fait assez peu pour l'instant.
Et enfin, charge mentale de fou, plus haute que jamais, à avoir le sentiment / l'anxiété de courir après un outil en perpétuelle évolution, qui change plus vite que ce que j'arrive à assimiler. + les vidéos putaclics de youtubeurs vide-codeurs qui donnent l'impression qu'on peut pondre une app en 2 jours n'aident pas : sensation de perpétuellement courir après le train.
A tout le moins, depuis 3-4 mois que je l'utilise (avant je faisais via Claude web avec mon repo en project knowledge : bancal), Claude Code a complètement bouleversé mon métier et la façon dont je le pratique (+ nouvelle façon de rythmer mes journées : IA tant que je peux, puis non-Ia en attendant que ça revienne, etc : mes journées sont en pointillés).
Pour moi le danger vient du risque économique qui pèse sur ma boite, davantage qu'un risque de remplacement par l'IA.
Aussi (mais ptet pas sa faute), autant j'aime toujours l'aspect créatif de mon métier (empiler des idées & solutions pour construire des trucs complexes), autant le web me dégoute à présent, le désamour web/frontend est total. En grande partie parce que la fierté artisanale de construire des UI a été désacralisée par l'IA qui rend ça brut, mécanique, anecdotique.
Donc tout ça mis bout à bout : entre charge mentale, sentiment de perte de sens / de beauté du geste, anxiété de l'avenir, sentiment d'avoir gravement merdé ma trajectoire de vie, frustrations du quotidien, dégoût de ce qu'est devenu Internet, attentes du boss et attentes de moi-même : compliqué de garder sa santé mentale (on va dire que pour l'instant je tiens bon, mais je sens qu'il faudrait pas grand chose pour me mettre profond sous l'eau). L'eau monte, je surnage encore, mais je commence à fatiguer et à la moindre crampe je bois la tasse.
Ouais donc, difficile (pour moi en tout cas) de ne pas être extrêmement pessimiste (même si je sais que c'est un travers chez moi et qu'in fine c'est toujours subjectif et jamais si pire que ça).
Je ne vois pas bien comment la société peut survivre au fait que :
- plus aucune raison rationnelle de faire des études longues pour des métiers qui seront mieux pratiqués par des IA (pourquoi s'emmerder à devenir ingénieur, médecin, chirurgien, ... ?); et du coup, dans 10-15 ans, qui sera encore dépositaire de ces savoirs si plus personne ne les apprend, ne les pratique et ne les transmet ? La connaissance va devenir une boîte noire, détenue / mise en oeuvre par l'IA et les robots, hors de portée des humains car plus le bagage intellectuel ET les rampes d'accès pour se l'approprier.
- si une IA est une meilleure amie, un meilleur psy, une meilleure confidente et une meilleure amoureuse qu'un humain changeant, imparfait, compliqué, quel incentive à chercher des relations humaines frustrantes, qui demandent des efforts et de la persévérance ?
Et de là, si on n'a plus de raison forte de chercher à grandir et à s'ajuster au contact des autres, comment est-ce qu'on évite une société où tout le monde est devenu plus ou moins sociopathe du fait d'une moindre nécessité de s'ajuster à la vie en collectif ? A plus forte raison si on ne travaille plus parce que l'IA a fait disparaitre des millions d'emplois ?
+ le combo mortifère brainrot des réseaux sociaux / téléréalité / dating apps qui ont déjà grandement pourri les cerveaux et notre rapport à la dopamine et aux autres.
Je pense qu'on fonce vers un effondrement accéléré de ce qui fait le tissu de la société (le vivre ensemble, si imparfait et grinçant soit-il, tolérance/patience vis à vis de l'autre), un effondrement cognitif, et un effondrement des valeurs morales (impulse control, résistance à la frustration, gratification retardée, , valorisation de l'effort et de l'accomplissement dans le réel).
Pour moi on va voir les gens devenir de plus en plus impatients, irritables, intolérants, sous-intellectualisés (c'est pour pas dire teubés), limbiques.
+ tensions sociales et violence du fait de la destruction des emplois ET du désoeuvrement existentiel ("je fais quoi de ma vie si j'ai plus rien à faire professionnellement ?" et "comment je gagne ma vie si je veux pas 1. vendre de la drogue 2. me goder devant des cams sur OnlyFans ?").
Et à mon échelle perso (à un niveau bien moindre que Jalap), le fait d'utiliser Claude Code au quotidien, au delà du risque d'être remplacé (moindre pour moi du moment que la boite de mon employeur subsiste - sinon je suis mort), m'érode le cerveau à vitesse grand V. J'ai beau tout faire pour continuer à me stimuler intellectuellement (je suis tout sauf passif), je vois que l'usage quotidien de l'IA dans mon boulot m'enlise intellectuellement. Une dépendance pernicieuse : c'est pratique, mais ça rend intellectuellement mou et paresseux, et ça, quand bien même j'en suis conscient et je fais gaffe.
Je sais que j'ai tendance à doomeriser, que je le fais depuis des années; le problème c'est que jusqu'à présent les faits m'ont pas trop donné tort.
Et là, je vois vraiment pas comment on évitera de basculer dans le chaos & la violence à horizon 10 ans. Et encore moins comment on en sortira.
(et ça, c'est sans même factorer un risque grandissant de conflit armé + le déréglement climatique et ses conséquences bien réelles + la chute de natalité + l'effondrement intellectuel des générations suivantes, sur lesquelles on compte pour s'occuper de nous / faire tourner l'économie).
Bref, en mode sauve qui peut, mais pour aller où ? Pour faire quoi ? A moins d'être blindé et d'avoir des solutions de repli (qui vont s'amenuiser de + en +), quelles sont les possibilités ?
** edit : bon, en fait, la vie a toujours été un jeu de survie et à la fin on meurt, et on essaie juste de retarder l'échéance et de donner de l'élan et des bons réflexes à nos enfants. Juste là, on est en train de basculer en mode difficile; et ça sera plus ou moins difficile selon le métier qu'on fait et le nombre de zéros dont on dispose déjà. Et si on raisonne à l'échelle de la société, j'arrive pas à me projeter au-delà des 20 prochaines années.
Les chercheurs en intelligence artificielle arrêtent d'épargner pour la retraite, craignant que le monde ne dure pas
=> c'est raccoleur, mais en vrai, le raisonnement se tient.
En ce qui me concerne, dans mon usage pro au quotidien : le gain en productivité pure serait de l'ordre de 25-30% pour moi. Il crache du code + vite, mais je passe énormément de temps à formuler mes besoins, réfléchir / documenter / cadrer / controler => au final, manager - et ça se tient en fait : je suis le concepteur, mon taf c'est de concevoir + que juste écrire.J'estime mon gain de productivité moyen à 25% avec Claude ou ce faux-naïf de ChatGPT. Je me documente et j'expérimente au quotidien.
Par contre gros gain en capacité (j'arrive à m'attaquer à + lourd, plus ambitieux : là pour le coup, plus aucune limitation technique, plus de syndome de l'imposteur : du moment que j'arrive à architecturer / conceptualiser ET à piloter ses efforts, no limit à part celles de mon cerveau).
Donc gain net, je dirais +80% (je suis + capable qu'avant), peut-être plus même si on considère qu'il me permet d'attaquer des projets que je n'aurais carrément pas osés, et ce sens, peut-être qu'il m'aide à rester dans la course, auquel cas le gain est inestimable.
Pour l'instant je dirais que Claude Code (je n'utilise plus du tout GPT, et très rarement Gemini, juste pour du ponctuel anecdotique) a fait de moi un manager, qu'il me permet d'être full architecte, et qu'il est une espèce de junior super doué mais qui manque de focus, de rigueur et de fiabilité. Si la boite de mon employeur survit, je ne crois pas que mon job soit menacé car je suis un homme clé dans le sens où j'ai tout construit moi-même et qu'on a atteint un niveau de spécificité qui rend nos système un peu legacy (sans forcément être obsolètes pour autant, juste, ultra spécifiques).
- il est bon pour écrire et implémenter
- il est de plus en plus bon pour abstracter / comprendre mes intentions / tenir compte d'un contexte et trouver un chemin (MAIS : rarement le meilleur du premier coup; si je ne suis pas hyper engagé dans la lecture critique de ce qu'il propose, il va quasi toujours complexifier inutilement, ou rajouter des détours / des étapes absurdes ou superflues : ça c'est assez épuisant intellectuellement)
- sa fiabilité varie ENORMEMENT selon les jours (certains matins, direct je vois qu'aujourd'hui sera un enfer parce qu'il sera ultrateubé)
- il reste mauvais pour penser out of the box : les solutions élégantes, les breakthrough, les renversement de perspective, ils viennent 100% de moi : s'il part en boucle, jamais il n'arrivera à s'arrêter et à trouver le bon angle, ça viendra toujours de moi). Au final c'est un rédacteur, pas un solveur.
- si je lui demande expressément LEAN DRY YAGNI (succinct / pas de complexité superflue, factorisation et pas de répétitions et parcimonie), alors il fait globalement de la qualité et j'avance, pour peu que je challenge et que je controle ses propositions.
J'ai pas mal galéré à le dompter, puis j'ai trouvé un workflow à peu près optimal satisfaisant :
- documenter les taches complexes dans une issue GH (description du problème ou de l'intention
- analyse de l'existant => documentation des findings
- après réflexion LEAN DRY YAGNI => documentation de la solution retenue
- ET ENSUITE implémentation
- /compact & commit fréquents
- "ultrathink" si on marche sur des oeufs et que j'ai besoin qu'il fasse une analyse approfondie / de grande ampleur
- JAMAIS de refacto à grande échelle en roue libre : recette pour un désastre
C'est pas encore imparable, mais en faisant comme ça je m'évite les crises de nerfs que j'avais encore 1 mois où il me saccageait des jours de code / des pans entiers du projet.
En fait il faut pas lui lacher la bride et faire petit bout par petit bout, et commit souvent.
Paradoxalement, trop de .md tue le .md parce que 1. je perds du temps à sans cesse rafraichir / synthétiser / affiner et 2. il garde pas tout en contexte de toute façon : ces dernières semaines, j'ai levé le pied sur la doc et je m'aperçois que ça marche pas moins bien, et je traite davantage d'issues au final.
Autre paradoxe aussi : j'ai voulu sophistiquer mon usage de Git et ça m'a niqué. Mes pires catastrophes industrielles, ça vient de lui qui s'embrouille dans les opérations GIT et les différentes branches, et qui me régresse vers des versions obsolètes du code : maintenant je fais tout sur une seule branche et j'ai moins d'emmerdes. Je suis pas assez pointu en Git pour en faire un usage + virtuose et lui non plus apparement.
J'ai expérimenté avec un ou deux MCP pour voir comment étendre ses capacités (notamment mémoire, doc & planification) et en fait dans mon cas ça n'apporte pas grand chose, je l'utilise vanille et il fait déjà très bien le taf pour ce que je lui fais faire. Eventuellement pupetteer pour la capacité à visualiser l'UI et les problèmes, mais je l'utilise en fait assez peu pour l'instant.
Et enfin, charge mentale de fou, plus haute que jamais, à avoir le sentiment / l'anxiété de courir après un outil en perpétuelle évolution, qui change plus vite que ce que j'arrive à assimiler. + les vidéos putaclics de youtubeurs vide-codeurs qui donnent l'impression qu'on peut pondre une app en 2 jours n'aident pas : sensation de perpétuellement courir après le train.
A tout le moins, depuis 3-4 mois que je l'utilise (avant je faisais via Claude web avec mon repo en project knowledge : bancal), Claude Code a complètement bouleversé mon métier et la façon dont je le pratique (+ nouvelle façon de rythmer mes journées : IA tant que je peux, puis non-Ia en attendant que ça revienne, etc : mes journées sont en pointillés).
Pour moi le danger vient du risque économique qui pèse sur ma boite, davantage qu'un risque de remplacement par l'IA.
Aussi (mais ptet pas sa faute), autant j'aime toujours l'aspect créatif de mon métier (empiler des idées & solutions pour construire des trucs complexes), autant le web me dégoute à présent, le désamour web/frontend est total. En grande partie parce que la fierté artisanale de construire des UI a été désacralisée par l'IA qui rend ça brut, mécanique, anecdotique.
Donc tout ça mis bout à bout : entre charge mentale, sentiment de perte de sens / de beauté du geste, anxiété de l'avenir, sentiment d'avoir gravement merdé ma trajectoire de vie, frustrations du quotidien, dégoût de ce qu'est devenu Internet, attentes du boss et attentes de moi-même : compliqué de garder sa santé mentale (on va dire que pour l'instant je tiens bon, mais je sens qu'il faudrait pas grand chose pour me mettre profond sous l'eau). L'eau monte, je surnage encore, mais je commence à fatiguer et à la moindre crampe je bois la tasse.
Pour travailler avec de l'IA dans le medical,
Ça fonctionne très bien sûr des tâches spécialisées, c'est super pour de la prédiction de pathologie, de leur évolution etc,
C'est très con pour tout le reste. Et c'est même très con pour des cas à la marge (c'est dommage si ça tombe sur toi et que le medecin est un branque qui a débrayé son cerveau sur l'IA)
Je fais du dev avec, gpt et copilot c'est très bon pour expliquer de la syntaxe, trouver des erreurs évidentes comme un dev expérimenté sur le langage le fait, mais c'est très con pour plein de trucs (et pourtant je fais du prompt engineering poussé en faisant attention aux confusions de termes etc parce qu'il lui arrive aussi totalement de passer à côté du truc).
Quand il ne trouve pas, il te propose souvent les mêmes solutions en boucle, même si tu lui précises d'emblée que ça fonctionne pas.
Alors oui ça me permet de faire des trucs avec lesquels je suis pas familier.
Par contre des fois je perds du temps et c'est moi qui avec mes suppositions l'amène à la solution.
Ça me permet pas de faire de la collecte de données efficacement (j'ai tenté des trucs mais fondamentalement il prend que les dix premiers articles ou sources qu'il trouve et c'est pourri)
Ça me permet pas d'écrire efficacement des mails ou autre: style plat et pompé des mêmes powerpoints linkedin et livres de marketing, je le détecte direct chez les autres et je benne le travail quand il est pas à la hauteur, c'est à dire souvent, derrière, parce qu'ils en foutent plus une rame.
Et perso, j'ai une plume, une pensée, et c'est pas un système de recommandation qui comprend ni la nuance ni ce qu'il dit quand bien même il en a la définition dans sa base (pour lui c'est un output), qui va pouvoir me suppléer. Déjà que la plupart des gens qui m'entourent le peuvent pas (c'est toujours moi qui ai la touche finale sur les courriers, articles, communications...)...
Et en prime, je déteste leur volonté de lui donner un visage pseudo humain, la familiarité, les encouragements comme si j'étais un enfant. Oui connard, je sais que mon idée est intéressante. Perds pas ta puissance de calcul à me sucer et essaie d'être un peu plus performant pour une fois.
Plus les biais intégrés de représentativité et autres trucs politiques qui filtrent. J'ai conçu des prompts spécialement mais il reste des choses bloquées.
Malgré tout il est maintenant moins stupide et obséquieux et il ne faut que citer les faits, je l'oblige à expliciter ses hypothèses et les sdonnées sur lesquelles il se base.
Le pire c'est que si une AGI était dispo je râlerais pas. Mais les llm c'est un putain de scandale écologique pour un gain marginal (suffirait que les gens soient moins flemmards ou qu'on les forme un peu plus au départ avec plus de temps pour ça), en plus ça sert les intérêts de tout un tas de connards qui exploitent vos données persos (bye RGPD) sans vergogne et sans sécurité (vous saviez qu'on a pu accéder à plus de 500000 conversations gpt au travers d'une requête google? Imaginez le bordel avec tout les mots de passe qui passent dans du code, les conversations "psy" etc.
Pour le reste, l'effet n'est qu'un reflet d'un monde où des gens regardent un mec se faire tabasser et mourir en direct pour des vues, avec des putains de connards de streamers qui ont même pas l'honnêteté de reconnaître qu'ils y sont pour quelque chose ne serait-ce que dans le principe. Mais non, ces putains de racailles sont des stars, c'est le monde préparé pour nos enfants par la génération d'après... alors l'IA c'est un monde mal. Au moins tous ces connards mourront chômeurs ou sous les balles d'un T800.
Malheureusement on y est pas encore à l'apocalypse IA, par contre le niveau d'exigence à tant baissé et les gens sont si convaincus que c'est génial en haut lieu que l'on va arriver au même far west que la chimie dans les années 70. En mode le public teste la prod.
Ça fonctionne très bien sûr des tâches spécialisées, c'est super pour de la prédiction de pathologie, de leur évolution etc,
C'est très con pour tout le reste. Et c'est même très con pour des cas à la marge (c'est dommage si ça tombe sur toi et que le medecin est un branque qui a débrayé son cerveau sur l'IA)
Je fais du dev avec, gpt et copilot c'est très bon pour expliquer de la syntaxe, trouver des erreurs évidentes comme un dev expérimenté sur le langage le fait, mais c'est très con pour plein de trucs (et pourtant je fais du prompt engineering poussé en faisant attention aux confusions de termes etc parce qu'il lui arrive aussi totalement de passer à côté du truc).
Quand il ne trouve pas, il te propose souvent les mêmes solutions en boucle, même si tu lui précises d'emblée que ça fonctionne pas.
Alors oui ça me permet de faire des trucs avec lesquels je suis pas familier.
Par contre des fois je perds du temps et c'est moi qui avec mes suppositions l'amène à la solution.
Ça me permet pas de faire de la collecte de données efficacement (j'ai tenté des trucs mais fondamentalement il prend que les dix premiers articles ou sources qu'il trouve et c'est pourri)
Ça me permet pas d'écrire efficacement des mails ou autre: style plat et pompé des mêmes powerpoints linkedin et livres de marketing, je le détecte direct chez les autres et je benne le travail quand il est pas à la hauteur, c'est à dire souvent, derrière, parce qu'ils en foutent plus une rame.
Et perso, j'ai une plume, une pensée, et c'est pas un système de recommandation qui comprend ni la nuance ni ce qu'il dit quand bien même il en a la définition dans sa base (pour lui c'est un output), qui va pouvoir me suppléer. Déjà que la plupart des gens qui m'entourent le peuvent pas (c'est toujours moi qui ai la touche finale sur les courriers, articles, communications...)...
Et en prime, je déteste leur volonté de lui donner un visage pseudo humain, la familiarité, les encouragements comme si j'étais un enfant. Oui connard, je sais que mon idée est intéressante. Perds pas ta puissance de calcul à me sucer et essaie d'être un peu plus performant pour une fois.
Plus les biais intégrés de représentativité et autres trucs politiques qui filtrent. J'ai conçu des prompts spécialement mais il reste des choses bloquées.
Malgré tout il est maintenant moins stupide et obséquieux et il ne faut que citer les faits, je l'oblige à expliciter ses hypothèses et les sdonnées sur lesquelles il se base.
Le pire c'est que si une AGI était dispo je râlerais pas. Mais les llm c'est un putain de scandale écologique pour un gain marginal (suffirait que les gens soient moins flemmards ou qu'on les forme un peu plus au départ avec plus de temps pour ça), en plus ça sert les intérêts de tout un tas de connards qui exploitent vos données persos (bye RGPD) sans vergogne et sans sécurité (vous saviez qu'on a pu accéder à plus de 500000 conversations gpt au travers d'une requête google? Imaginez le bordel avec tout les mots de passe qui passent dans du code, les conversations "psy" etc.
Pour le reste, l'effet n'est qu'un reflet d'un monde où des gens regardent un mec se faire tabasser et mourir en direct pour des vues, avec des putains de connards de streamers qui ont même pas l'honnêteté de reconnaître qu'ils y sont pour quelque chose ne serait-ce que dans le principe. Mais non, ces putains de racailles sont des stars, c'est le monde préparé pour nos enfants par la génération d'après... alors l'IA c'est un monde mal. Au moins tous ces connards mourront chômeurs ou sous les balles d'un T800.
Malheureusement on y est pas encore à l'apocalypse IA, par contre le niveau d'exigence à tant baissé et les gens sont si convaincus que c'est génial en haut lieu que l'on va arriver au même far west que la chimie dans les années 70. En mode le public teste la prod.
De ce que je lis, ça te coûte vachement de l'utiliser. Puis aussi, ça t'impose un rythme. Tu devrais peut-être éviter à part pour les trucs où une recherche google ne réduit pas ou ne résout pas le problème. C'est un peu ma méthode parce que déjà j'ai pas forcément besoin qu'on analyse pour moi, sauf si je suis dans un truc où je capte pas. Généralement pour un sujet technique où je sais vraiment rien (pattern ou autre), je l'utilise pour identifier le truc si je sais que google donnerait 10000 réponses dans tous les sens (en mode "explique ça", plutôt que "comment on appelle cette syntaxe", comme ça je préshot d'éventuelles explications), puis je vais googler avec ma question sur le truc identifié, ou j'en apprends un peu avant de revenir voir ce qu'il dit.FK a écrit : ↑27.08.25
Donc tout ça mis bout à bout : entre charge mentale, sentiment de perte de sens / de beauté du geste, anxiété de l'avenir, sentiment d'avoir gravement merdé ma trajectoire de vie, frustrations du quotidien, dégoût de ce qu'est devenu Internet, attentes du boss et attentes de moi-même : compliqué de garder sa santé mentale (on va dire que pour l'instant je tiens bon, mais je sens qu'il faudrait pas grand chose pour me mettre profond sous l'eau). L'eau monte, je surnage encore, mais je commence à fatiguer et à la moindre crampe je bois la tasse.
Après là la partie la plus compliquée et la moins soluble par son utilisation de la chose c'est l'attente du boss mais ça dépend sur quel plan c'est. Et du fait qu'il ait de la merde en tête ou pas.
Les laurent alexandre et luc julia font énormément de mal en s'exprimant sur ces sujets auxquels ils entravent rien...
aha il existe encore lui ? qui l'écoute encore ?laurent alexandre
Pour les trucs basiques, je m'en passe le plus possible, mais là je suis sur un gros chantier, en ampleur, en complexité et en criticité, beaucoup de complexité à intégrer / digérer, beaucoup de code à écrire, si je fais tout à la main j'en ai pour encore 2-3 mois, là où j'espère avoir une première version prête pour la prod d'ici quelques semaines. C'est une puissance de tir dont on peut difficilement se passer pour les trucs lourds. Une fois qu'on a appris à bosser avec (s'ajuster au rythme que ça impose + le cadrer à peu près correctement), ça va. C'est la courbe d'apprentissage (ou plutôt d'appropriation) qui était raide, mais j'ai passé ça.De ce que je lis, ça te coûte vachement de l'utiliser. Puis aussi, ça t'impose un rythme.
(+ le rythme à la limite, c'est un mal pour un bien, ça impose une forme de discipline aussi, c'est un mode de gestion du temps plus cadré, c'est pas nécessairement un problème).
Par contre oui, si je cède à la facilité de lui faire faire du frontend facile (CSS / petit JS) par pure fainéantise, c'est là que je perds du jus, c'est clair et net.
J'ai pas mentionné un truc : l'IA en mettant des mots sur des notions m'a beaucoup appris, m'a fait avancer voire même, m'a libéré sur certains trucs. Des approches et mécanismes dont je me servais par pure intuition / débrouille, le simple fait qu'elle mette des mots dessus, ça les légitimise, ça les officialise et je me trouve armé d'un nouveau concept désormais très clair dans ma tête.
Cache poisoning, race condition, concurrence, soft lock, des trucs élémentaires en fait (au sens littéral), mais comme j'avais pas les mots pour les désigner, pour les délimiter, bien que j'en aie l'intuition et l'instinct, c'était pas des briques dont j'osais facilement me servir, et que j'appréhendais en confiance conceptuellement : les contours restaient flous et incertains, avec en arrière-plan la crainte de faire des trucs tarabiscotés alors qu'en fait non pas du tout et au contraire.
Ca pour le syndrôme de l'imposteur c'est formidable : se rendre compte que même si on a pas les mots, on pense au bon endroit, ça fait toujours plaisir. Et quand des mots sont posés dessus, et qu'on se rend compte qu'on a une nouvelle flèche bien identifiée dans le carquois, c'est une nette impression d'avoir monté une marche supplémentaire, c'est cool (btw, aucune idée si ça le fait à tout le monde ou juste à moi du fait du fait de mon espèce d'autisme bien à moi).
+ tous les trucs pas clairs que ça m'a permis de comprendre.
Au final, au-delà de l'immense risque sociétal / existentiel, à mon échelle perso ma relation / mon ressenti face à l'IA est vraiment ambivalent : comme un pacte avec le démon, tu lui donnes, il te donne, tu obtiens beaucoup mais tu sais qu'à la fin c'est probablement lui qui te nique, de cent manières dont t'as probablement pas idée.
J'ai lu l'article AI-2027 recommandé par Jalap + la vidéo qui le présente / récap (très bien faite, je recommande).
C'est une narration de ce que j'avais déjà en tête, mais ça reste absolument glaçant. C'est de la SF d'anticipation du pire, j'ai eu la même sensation en lisant le problème à 3 corps, sauf que là, c'est inscrit dans le plausible, voire même, le probable, et ça fait flipper parce que réalistiquement, y'a rien qu'on puisse faire. C'est une course à l'armement qui nous précipite dans la gueule du loup de tous les loups, et y'a qu'un sursaut d'intelligence et de sagesse collégial qui pourrait nous sauver, et bon, on sait tous que ça n'arrivera pas.
Baisés.
Après, je cope en me disant que nos grands parents ont grandi sous la menace d'un conflit nucléaire imminent donc l'impression de fin du monde dans 15 jours n'a rien de nouveau. Mais combien de fois on peut danser avec le diable et s'en tirer par chance ?
Laurent Alexandre est dans plein de conférences business sur l'intérêt de l'IA et dans plein de médias, il est écouté, tu comprends, à la base c'est un médecin.
J'ai envie de dire, Raoult aussi...
Pour l'outil lui-même, oui, on est d'accord que ça reste un super moyen d'approcher de la complexité. Mais avec ce pré mâchage, on peut aussi perdre des choses comme le fait de faire plus d'erreurs donc le fait de mieux consolider et voir plus de cas inattendus.
Puis en ce moment je sais pas ce qu'il se passe mais certains modèles peuvent tourner en rond en passant à côté de l'évidence tout en te balançant des séries de suppositions qui n'ont vraiment rien à voir avec le sujet, et d'un jour à l'autre c'est pas le même. Des fois c'est copilot, des fois c'est chagpt, des fois gemini...
Pour l'apocalypse nucléaire je t'invite à te renseigner sur la "doomsday clock" si tu ne connais pas. Pour moi c'est un symbole du fait qu'on a quand même eu des esprits supérieurs qui ont donné de vrais avertissements, et quelque part ça a pas mal perfusé dans les combats et la politique de l'époque. Même si Kennedy a eu la crise des missiles de Cuba, il n'a pas réagi par plus de durcissement et de crispation et a oeuvré en faveur de la détente ensuite.
Le problème aujourd'hui, c'est que les scientifiques ont perdu de leur superbe et les plus médiatiques et audibles par le public sont des charlots comme les deux branques susmentionnés, au lieu de Einstein, Sagan et autres De Grasse Tyson, ou des vecteurs de culture comme Asimov, Clarke ou Kubrick, qui bien qu' artistes , avaient une forte culture scientifique et l'envie de faire les choses bien, en plus de véhiculer de bonnes valeurs.
Si on ajoute à ça des dirigeants qui sont plus du même calibre, c'est sûr qu'il y a pas les mêmes risques de dérapage
J'ai envie de dire, Raoult aussi...
Pour l'outil lui-même, oui, on est d'accord que ça reste un super moyen d'approcher de la complexité. Mais avec ce pré mâchage, on peut aussi perdre des choses comme le fait de faire plus d'erreurs donc le fait de mieux consolider et voir plus de cas inattendus.
Puis en ce moment je sais pas ce qu'il se passe mais certains modèles peuvent tourner en rond en passant à côté de l'évidence tout en te balançant des séries de suppositions qui n'ont vraiment rien à voir avec le sujet, et d'un jour à l'autre c'est pas le même. Des fois c'est copilot, des fois c'est chagpt, des fois gemini...
Pour l'apocalypse nucléaire je t'invite à te renseigner sur la "doomsday clock" si tu ne connais pas. Pour moi c'est un symbole du fait qu'on a quand même eu des esprits supérieurs qui ont donné de vrais avertissements, et quelque part ça a pas mal perfusé dans les combats et la politique de l'époque. Même si Kennedy a eu la crise des missiles de Cuba, il n'a pas réagi par plus de durcissement et de crispation et a oeuvré en faveur de la détente ensuite.
Le problème aujourd'hui, c'est que les scientifiques ont perdu de leur superbe et les plus médiatiques et audibles par le public sont des charlots comme les deux branques susmentionnés, au lieu de Einstein, Sagan et autres De Grasse Tyson, ou des vecteurs de culture comme Asimov, Clarke ou Kubrick, qui bien qu' artistes , avaient une forte culture scientifique et l'envie de faire les choses bien, en plus de véhiculer de bonnes valeurs.
Si on ajoute à ça des dirigeants qui sont plus du même calibre, c'est sûr qu'il y a pas les mêmes risques de dérapage