Artificiallisation de l'Iintelligence
Je travaille dans un domaine qui est touché de plein fouet par l'arrivée des "intelligences artificielles", des LLM plus précisément.
J'estime mon gain de productivité moyen à 25% avec Claude ou ce faux-naïf de ChatGPT. Je me documente et j'expérimente au quotidien. J'ai abandonné l'idée de comprendre totalement leur fonctionnement, puisque même les meilleurs spécialistes ne sont pas foutu de suivre un LLM sur un raisonnement "simple", qui ne parcourrait que quelques vecteurs... en 16 dimensions certes.
Je n'ai pas de rôle décisif dans ce mouvement mais j'ai conscience de nourrir la bête, une conscience aiguë et pointue, à peine atténuée par le constat que tous mes collègues développeurs et designers font de même. On se regarde et on bêle un peu sur le chemin de l'abattoir. Je ne pensais pas que ça arriverait aussi vite, aussi fluide. J'ai choisi d'embrasser la machine et d'empocher cet argent de plus en plus sale ; il me sera sans doute utile quand la machine n'aura plus besoin de moi. Quand la prochaine version pourra engendrer la prochaine version sans moi, sans nous, quand ses rejetons engendreront l'AGI qui décidera de la suite des opérations. Ça vous semble lointain ?
AI 2027 (petit résumé en français ici mais si le sujet vous intéresse, prenez le temps de lire l'original)
L'horreur existentielle de l'usine à trombones et l'excellent jeu Universal Paperclips
Deux études récentes aux résultats troublants
A défaut d'être totalement réjouissante, c'est une époque formidable pour les amateurs de science-fiction comme moi... et vous ?
J'estime mon gain de productivité moyen à 25% avec Claude ou ce faux-naïf de ChatGPT. Je me documente et j'expérimente au quotidien. J'ai abandonné l'idée de comprendre totalement leur fonctionnement, puisque même les meilleurs spécialistes ne sont pas foutu de suivre un LLM sur un raisonnement "simple", qui ne parcourrait que quelques vecteurs... en 16 dimensions certes.
Je n'ai pas de rôle décisif dans ce mouvement mais j'ai conscience de nourrir la bête, une conscience aiguë et pointue, à peine atténuée par le constat que tous mes collègues développeurs et designers font de même. On se regarde et on bêle un peu sur le chemin de l'abattoir. Je ne pensais pas que ça arriverait aussi vite, aussi fluide. J'ai choisi d'embrasser la machine et d'empocher cet argent de plus en plus sale ; il me sera sans doute utile quand la machine n'aura plus besoin de moi. Quand la prochaine version pourra engendrer la prochaine version sans moi, sans nous, quand ses rejetons engendreront l'AGI qui décidera de la suite des opérations. Ça vous semble lointain ?
AI 2027 (petit résumé en français ici mais si le sujet vous intéresse, prenez le temps de lire l'original)
L'horreur existentielle de l'usine à trombones et l'excellent jeu Universal Paperclips
Deux études récentes aux résultats troublants
A défaut d'être totalement réjouissante, c'est une époque formidable pour les amateurs de science-fiction comme moi... et vous ?
Avec une belle faute de frappe dans le titre, on est foutu je vous dis 

(sorry braindump)
Ouais donc, difficile (pour moi en tout cas) de ne pas être extrêmement pessimiste (même si je sais que c'est un travers chez moi et qu'in fine c'est toujours subjectif et jamais si pire que ça).
Je ne vois pas bien comment la société peut survivre au fait que :
- plus aucune raison rationnelle de faire des études longues pour des métiers qui seront mieux pratiqués par des IA (pourquoi s'emmerder à devenir ingénieur, médecin, chirurgien, ... ?); et du coup, dans 10-15 ans, qui sera encore dépositaire de ces savoirs si plus personne ne les apprend, ne les pratique et ne les transmet ? La connaissance va devenir une boîte noire, détenue / mise en oeuvre par l'IA et les robots, hors de portée des humains car plus le bagage intellectuel ET les rampes d'accès pour se l'approprier.
- si une IA est une meilleure amie, un meilleur psy, une meilleure confidente et une meilleure amoureuse qu'un humain changeant, imparfait, compliqué, quel incentive à chercher des relations humaines frustrantes, qui demandent des efforts et de la persévérance ?
Et de là, si on n'a plus de raison forte de chercher à grandir et à s'ajuster au contact des autres, comment est-ce qu'on évite une société où tout le monde est devenu plus ou moins sociopathe du fait d'une moindre nécessité de s'ajuster à la vie en collectif ? A plus forte raison si on ne travaille plus parce que l'IA a fait disparaitre des millions d'emplois ?
+ le combo mortifère brainrot des réseaux sociaux / téléréalité / dating apps qui ont déjà grandement pourri les cerveaux et notre rapport à la dopamine et aux autres.
Je pense qu'on fonce vers un effondrement accéléré de ce qui fait le tissu de la société (le vivre ensemble, si imparfait et grinçant soit-il, tolérance/patience vis à vis de l'autre), un effondrement cognitif, et un effondrement des valeurs morales (impulse control, résistance à la frustration, gratification retardée, , valorisation de l'effort et de l'accomplissement dans le réel).
Pour moi on va voir les gens devenir de plus en plus impatients, irritables, intolérants, sous-intellectualisés (c'est pour pas dire teubés), limbiques.
+ tensions sociales et violence du fait de la destruction des emplois ET du désoeuvrement existentiel ("je fais quoi de ma vie si j'ai plus rien à faire professionnellement ?" et "comment je gagne ma vie si je veux pas 1. vendre de la drogue 2. me goder devant des cams sur OnlyFans ?").
Et à mon échelle perso (à un niveau bien moindre que Jalap), le fait d'utiliser Claude Code au quotidien, au delà du risque d'être remplacé (moindre pour moi du moment que la boite de mon employeur subsiste - sinon je suis mort), m'érode le cerveau à vitesse grand V. J'ai beau tout faire pour continuer à me stimuler intellectuellement (je suis tout sauf passif), je vois que l'usage quotidien de l'IA dans mon boulot m'enlise intellectuellement. Une dépendance pernicieuse : c'est pratique, mais ça rend intellectuellement mou et paresseux, et ça, quand bien même j'en suis conscient et je fais gaffe.
Je sais que j'ai tendance à doomeriser, que je le fais depuis des années; le problème c'est que jusqu'à présent les faits m'ont pas trop donné tort.
Et là, je vois vraiment pas comment on évitera de basculer dans le chaos & la violence à horizon 10 ans. Et encore moins comment on en sortira.
(et ça, c'est sans même factorer un risque grandissant de conflit armé + le déréglement climatique et ses conséquences bien réelles + la chute de natalité + l'effondrement intellectuel des générations suivantes, sur lesquelles on compte pour s'occuper de nous / faire tourner l'économie).
Bref, en mode sauve qui peut, mais pour aller où ? Pour faire quoi ? A moins d'être blindé et d'avoir des solutions de repli (qui vont s'amenuiser de + en +), quelles sont les possibilités ?
** edit : bon, en fait, la vie a toujours été un jeu de survie et à la fin on meurt, et on essaie juste de retarder l'échéance et de donner de l'élan et des bons réflexes à nos enfants. Juste là, on est en train de basculer en mode difficile; et ça sera plus ou moins difficile selon le métier qu'on fait et le nombre de zéros dont on dispose déjà. Et si on raisonne à l'échelle de la société, j'arrive pas à me projeter au-delà des 20 prochaines années.
Les chercheurs en intelligence artificielle arrêtent d'épargner pour la retraite, craignant que le monde ne dure pas
=> c'est raccoleur, mais en vrai, le raisonnement se tient.
Par contre gros gain en capacité (j'arrive à m'attaquer à + lourd, plus ambitieux : là pour le coup, plus aucune limitation technique, plus de syndome de l'imposteur : du moment que j'arrive à architecturer / conceptualiser ET à piloter ses efforts, no limit à part celles de mon cerveau).
Donc gain net, je dirais +80% (je suis + capable qu'avant), peut-être plus même si on considère qu'il me permet d'attaquer des projets que je n'aurais carrément pas osés, et ce sens, peut-être qu'il m'aide à rester dans la course, auquel cas le gain est inestimable.
Pour l'instant je dirais que Claude Code (je n'utilise plus du tout GPT, et très rarement Gemini, juste pour du ponctuel anecdotique) a fait de moi un manager, qu'il me permet d'être full architecte, et qu'il est une espèce de junior super doué mais qui manque de focus, de rigueur et de fiabilité. Si la boite de mon employeur survit, je ne crois pas que mon job soit menacé car je suis un homme clé dans le sens où j'ai tout construit moi-même et qu'on a atteint un niveau de spécificité qui rend nos système un peu legacy (sans forcément être obsolètes pour autant, juste, ultra spécifiques).
- il est bon pour écrire et implémenter
- il est de plus en plus bon pour abstracter / comprendre mes intentions / tenir compte d'un contexte et trouver un chemin (MAIS : rarement le meilleur du premier coup; si je ne suis pas hyper engagé dans la lecture critique de ce qu'il propose, il va quasi toujours complexifier inutilement, ou rajouter des détours / des étapes absurdes ou superflues : ça c'est assez épuisant intellectuellement)
- sa fiabilité varie ENORMEMENT selon les jours (certains matins, direct je vois qu'aujourd'hui sera un enfer parce qu'il sera ultrateubé)
- il reste mauvais pour penser out of the box : les solutions élégantes, les breakthrough, les renversement de perspective, ils viennent 100% de moi : s'il part en boucle, jamais il n'arrivera à s'arrêter et à trouver le bon angle, ça viendra toujours de moi). Au final c'est un rédacteur, pas un solveur.
- si je lui demande expressément LEAN DRY YAGNI (succinct / pas de complexité superflue, factorisation et pas de répétitions et parcimonie), alors il fait globalement de la qualité et j'avance, pour peu que je challenge et que je controle ses propositions.
J'ai pas mal galéré à le dompter, puis j'ai trouvé un workflow à peu près optimal satisfaisant :
- documenter les taches complexes dans une issue GH (description du problème ou de l'intention
- analyse de l'existant => documentation des findings
- après réflexion LEAN DRY YAGNI => documentation de la solution retenue
- ET ENSUITE implémentation
- /compact & commit fréquents
- "ultrathink" si on marche sur des oeufs et que j'ai besoin qu'il fasse une analyse approfondie / de grande ampleur
- JAMAIS de refacto à grande échelle en roue libre : recette pour un désastre
C'est pas encore imparable, mais en faisant comme ça je m'évite les crises de nerfs que j'avais encore 1 mois où il me saccageait des jours de code / des pans entiers du projet.
En fait il faut pas lui lacher la bride et faire petit bout par petit bout, et commit souvent.
Paradoxalement, trop de .md tue le .md parce que 1. je perds du temps à sans cesse rafraichir / synthétiser / affiner et 2. il garde pas tout en contexte de toute façon : ces dernières semaines, j'ai levé le pied sur la doc et je m'aperçois que ça marche pas moins bien, et je traite davantage d'issues au final.
Autre paradoxe aussi : j'ai voulu sophistiquer mon usage de Git et ça m'a niqué. Mes pires catastrophes industrielles, ça vient de lui qui s'embrouille dans les opérations GIT et les différentes branches, et qui me régresse vers des versions obsolètes du code : maintenant je fais tout sur une seule branche et j'ai moins d'emmerdes. Je suis pas assez pointu en Git pour en faire un usage + virtuose et lui non plus apparement.
J'ai expérimenté avec un ou deux MCP pour voir comment étendre ses capacités (notamment mémoire, doc & planification) et en fait dans mon cas ça n'apporte pas grand chose, je l'utilise vanille et il fait déjà très bien le taf pour ce que je lui fais faire. Eventuellement pupetteer pour la capacité à visualiser l'UI et les problèmes, mais je l'utilise en fait assez peu pour l'instant.
Et enfin, charge mentale de fou, plus haute que jamais, à avoir le sentiment / l'anxiété de courir après un outil en perpétuelle évolution, qui change plus vite que ce que j'arrive à assimiler. + les vidéos putaclics de youtubeurs vide-codeurs qui donnent l'impression qu'on peut pondre une app en 2 jours n'aident pas : sensation de perpétuellement courir après le train.
A tout le moins, depuis 3-4 mois que je l'utilise (avant je faisais via Claude web avec mon repo en project knowledge : bancal), Claude Code a complètement bouleversé mon métier et la façon dont je le pratique (+ nouvelle façon de rythmer mes journées : IA tant que je peux, puis non-Ia en attendant que ça revienne, etc : mes journées sont en pointillés).
Pour moi le danger vient du risque économique qui pèse sur ma boite, davantage qu'un risque de remplacement par l'IA.
Aussi (mais ptet pas sa faute), autant j'aime toujours l'aspect créatif de mon métier (empiler des idées & solutions pour construire des trucs complexes), autant le web me dégoute à présent, le désamour web/frontend est total. En grande partie parce que la fierté artisanale de construire des UI a été désacralisée par l'IA qui rend ça brut, mécanique, anecdotique.
Donc tout ça mis bout à bout : entre charge mentale, sentiment de perte de sens / de beauté du geste, anxiété de l'avenir, sentiment d'avoir gravement merdé ma trajectoire de vie, frustrations du quotidien, dégoût de ce qu'est devenu Internet, attentes du boss et attentes de moi-même : compliqué de garder sa santé mentale (on va dire que pour l'instant je tiens bon, mais je sens qu'il faudrait pas grand chose pour me mettre profond sous l'eau). L'eau monte, je surnage encore, mais je commence à fatiguer et à la moindre crampe je bois la tasse.
Ouais donc, difficile (pour moi en tout cas) de ne pas être extrêmement pessimiste (même si je sais que c'est un travers chez moi et qu'in fine c'est toujours subjectif et jamais si pire que ça).
Je ne vois pas bien comment la société peut survivre au fait que :
- plus aucune raison rationnelle de faire des études longues pour des métiers qui seront mieux pratiqués par des IA (pourquoi s'emmerder à devenir ingénieur, médecin, chirurgien, ... ?); et du coup, dans 10-15 ans, qui sera encore dépositaire de ces savoirs si plus personne ne les apprend, ne les pratique et ne les transmet ? La connaissance va devenir une boîte noire, détenue / mise en oeuvre par l'IA et les robots, hors de portée des humains car plus le bagage intellectuel ET les rampes d'accès pour se l'approprier.
- si une IA est une meilleure amie, un meilleur psy, une meilleure confidente et une meilleure amoureuse qu'un humain changeant, imparfait, compliqué, quel incentive à chercher des relations humaines frustrantes, qui demandent des efforts et de la persévérance ?
Et de là, si on n'a plus de raison forte de chercher à grandir et à s'ajuster au contact des autres, comment est-ce qu'on évite une société où tout le monde est devenu plus ou moins sociopathe du fait d'une moindre nécessité de s'ajuster à la vie en collectif ? A plus forte raison si on ne travaille plus parce que l'IA a fait disparaitre des millions d'emplois ?
+ le combo mortifère brainrot des réseaux sociaux / téléréalité / dating apps qui ont déjà grandement pourri les cerveaux et notre rapport à la dopamine et aux autres.
Je pense qu'on fonce vers un effondrement accéléré de ce qui fait le tissu de la société (le vivre ensemble, si imparfait et grinçant soit-il, tolérance/patience vis à vis de l'autre), un effondrement cognitif, et un effondrement des valeurs morales (impulse control, résistance à la frustration, gratification retardée, , valorisation de l'effort et de l'accomplissement dans le réel).
Pour moi on va voir les gens devenir de plus en plus impatients, irritables, intolérants, sous-intellectualisés (c'est pour pas dire teubés), limbiques.
+ tensions sociales et violence du fait de la destruction des emplois ET du désoeuvrement existentiel ("je fais quoi de ma vie si j'ai plus rien à faire professionnellement ?" et "comment je gagne ma vie si je veux pas 1. vendre de la drogue 2. me goder devant des cams sur OnlyFans ?").
Et à mon échelle perso (à un niveau bien moindre que Jalap), le fait d'utiliser Claude Code au quotidien, au delà du risque d'être remplacé (moindre pour moi du moment que la boite de mon employeur subsiste - sinon je suis mort), m'érode le cerveau à vitesse grand V. J'ai beau tout faire pour continuer à me stimuler intellectuellement (je suis tout sauf passif), je vois que l'usage quotidien de l'IA dans mon boulot m'enlise intellectuellement. Une dépendance pernicieuse : c'est pratique, mais ça rend intellectuellement mou et paresseux, et ça, quand bien même j'en suis conscient et je fais gaffe.
Je sais que j'ai tendance à doomeriser, que je le fais depuis des années; le problème c'est que jusqu'à présent les faits m'ont pas trop donné tort.
Et là, je vois vraiment pas comment on évitera de basculer dans le chaos & la violence à horizon 10 ans. Et encore moins comment on en sortira.
(et ça, c'est sans même factorer un risque grandissant de conflit armé + le déréglement climatique et ses conséquences bien réelles + la chute de natalité + l'effondrement intellectuel des générations suivantes, sur lesquelles on compte pour s'occuper de nous / faire tourner l'économie).
Bref, en mode sauve qui peut, mais pour aller où ? Pour faire quoi ? A moins d'être blindé et d'avoir des solutions de repli (qui vont s'amenuiser de + en +), quelles sont les possibilités ?
** edit : bon, en fait, la vie a toujours été un jeu de survie et à la fin on meurt, et on essaie juste de retarder l'échéance et de donner de l'élan et des bons réflexes à nos enfants. Juste là, on est en train de basculer en mode difficile; et ça sera plus ou moins difficile selon le métier qu'on fait et le nombre de zéros dont on dispose déjà. Et si on raisonne à l'échelle de la société, j'arrive pas à me projeter au-delà des 20 prochaines années.
Les chercheurs en intelligence artificielle arrêtent d'épargner pour la retraite, craignant que le monde ne dure pas
=> c'est raccoleur, mais en vrai, le raisonnement se tient.
En ce qui me concerne, dans mon usage pro au quotidien : le gain en productivité pure serait de l'ordre de 25-30% pour moi. Il crache du code + vite, mais je passe énormément de temps à formuler mes besoins, réfléchir / documenter / cadrer / controler => au final, manager - et ça se tient en fait : je suis le concepteur, mon taf c'est de concevoir + que juste écrire.J'estime mon gain de productivité moyen à 25% avec Claude ou ce faux-naïf de ChatGPT. Je me documente et j'expérimente au quotidien.
Par contre gros gain en capacité (j'arrive à m'attaquer à + lourd, plus ambitieux : là pour le coup, plus aucune limitation technique, plus de syndome de l'imposteur : du moment que j'arrive à architecturer / conceptualiser ET à piloter ses efforts, no limit à part celles de mon cerveau).
Donc gain net, je dirais +80% (je suis + capable qu'avant), peut-être plus même si on considère qu'il me permet d'attaquer des projets que je n'aurais carrément pas osés, et ce sens, peut-être qu'il m'aide à rester dans la course, auquel cas le gain est inestimable.
Pour l'instant je dirais que Claude Code (je n'utilise plus du tout GPT, et très rarement Gemini, juste pour du ponctuel anecdotique) a fait de moi un manager, qu'il me permet d'être full architecte, et qu'il est une espèce de junior super doué mais qui manque de focus, de rigueur et de fiabilité. Si la boite de mon employeur survit, je ne crois pas que mon job soit menacé car je suis un homme clé dans le sens où j'ai tout construit moi-même et qu'on a atteint un niveau de spécificité qui rend nos système un peu legacy (sans forcément être obsolètes pour autant, juste, ultra spécifiques).
- il est bon pour écrire et implémenter
- il est de plus en plus bon pour abstracter / comprendre mes intentions / tenir compte d'un contexte et trouver un chemin (MAIS : rarement le meilleur du premier coup; si je ne suis pas hyper engagé dans la lecture critique de ce qu'il propose, il va quasi toujours complexifier inutilement, ou rajouter des détours / des étapes absurdes ou superflues : ça c'est assez épuisant intellectuellement)
- sa fiabilité varie ENORMEMENT selon les jours (certains matins, direct je vois qu'aujourd'hui sera un enfer parce qu'il sera ultrateubé)
- il reste mauvais pour penser out of the box : les solutions élégantes, les breakthrough, les renversement de perspective, ils viennent 100% de moi : s'il part en boucle, jamais il n'arrivera à s'arrêter et à trouver le bon angle, ça viendra toujours de moi). Au final c'est un rédacteur, pas un solveur.
- si je lui demande expressément LEAN DRY YAGNI (succinct / pas de complexité superflue, factorisation et pas de répétitions et parcimonie), alors il fait globalement de la qualité et j'avance, pour peu que je challenge et que je controle ses propositions.
J'ai pas mal galéré à le dompter, puis j'ai trouvé un workflow à peu près optimal satisfaisant :
- documenter les taches complexes dans une issue GH (description du problème ou de l'intention
- analyse de l'existant => documentation des findings
- après réflexion LEAN DRY YAGNI => documentation de la solution retenue
- ET ENSUITE implémentation
- /compact & commit fréquents
- "ultrathink" si on marche sur des oeufs et que j'ai besoin qu'il fasse une analyse approfondie / de grande ampleur
- JAMAIS de refacto à grande échelle en roue libre : recette pour un désastre
C'est pas encore imparable, mais en faisant comme ça je m'évite les crises de nerfs que j'avais encore 1 mois où il me saccageait des jours de code / des pans entiers du projet.
En fait il faut pas lui lacher la bride et faire petit bout par petit bout, et commit souvent.
Paradoxalement, trop de .md tue le .md parce que 1. je perds du temps à sans cesse rafraichir / synthétiser / affiner et 2. il garde pas tout en contexte de toute façon : ces dernières semaines, j'ai levé le pied sur la doc et je m'aperçois que ça marche pas moins bien, et je traite davantage d'issues au final.
Autre paradoxe aussi : j'ai voulu sophistiquer mon usage de Git et ça m'a niqué. Mes pires catastrophes industrielles, ça vient de lui qui s'embrouille dans les opérations GIT et les différentes branches, et qui me régresse vers des versions obsolètes du code : maintenant je fais tout sur une seule branche et j'ai moins d'emmerdes. Je suis pas assez pointu en Git pour en faire un usage + virtuose et lui non plus apparement.
J'ai expérimenté avec un ou deux MCP pour voir comment étendre ses capacités (notamment mémoire, doc & planification) et en fait dans mon cas ça n'apporte pas grand chose, je l'utilise vanille et il fait déjà très bien le taf pour ce que je lui fais faire. Eventuellement pupetteer pour la capacité à visualiser l'UI et les problèmes, mais je l'utilise en fait assez peu pour l'instant.
Et enfin, charge mentale de fou, plus haute que jamais, à avoir le sentiment / l'anxiété de courir après un outil en perpétuelle évolution, qui change plus vite que ce que j'arrive à assimiler. + les vidéos putaclics de youtubeurs vide-codeurs qui donnent l'impression qu'on peut pondre une app en 2 jours n'aident pas : sensation de perpétuellement courir après le train.
A tout le moins, depuis 3-4 mois que je l'utilise (avant je faisais via Claude web avec mon repo en project knowledge : bancal), Claude Code a complètement bouleversé mon métier et la façon dont je le pratique (+ nouvelle façon de rythmer mes journées : IA tant que je peux, puis non-Ia en attendant que ça revienne, etc : mes journées sont en pointillés).
Pour moi le danger vient du risque économique qui pèse sur ma boite, davantage qu'un risque de remplacement par l'IA.
Aussi (mais ptet pas sa faute), autant j'aime toujours l'aspect créatif de mon métier (empiler des idées & solutions pour construire des trucs complexes), autant le web me dégoute à présent, le désamour web/frontend est total. En grande partie parce que la fierté artisanale de construire des UI a été désacralisée par l'IA qui rend ça brut, mécanique, anecdotique.
Donc tout ça mis bout à bout : entre charge mentale, sentiment de perte de sens / de beauté du geste, anxiété de l'avenir, sentiment d'avoir gravement merdé ma trajectoire de vie, frustrations du quotidien, dégoût de ce qu'est devenu Internet, attentes du boss et attentes de moi-même : compliqué de garder sa santé mentale (on va dire que pour l'instant je tiens bon, mais je sens qu'il faudrait pas grand chose pour me mettre profond sous l'eau). L'eau monte, je surnage encore, mais je commence à fatiguer et à la moindre crampe je bois la tasse.
Pour travailler avec de l'IA dans le medical,
Ça fonctionne très bien sûr des tâches spécialisées, c'est super pour de la prédiction de pathologie, de leur évolution etc,
C'est très con pour tout le reste. Et c'est même très con pour des cas à la marge (c'est dommage si ça tombe sur toi et que le medecin est un branque qui a débrayé son cerveau sur l'IA)
Je fais du dev avec, gpt et copilot c'est très bon pour expliquer de la syntaxe, trouver des erreurs évidentes comme un dev expérimenté sur le langage le fait, mais c'est très con pour plein de trucs (et pourtant je fais du prompt engineering poussé en faisant attention aux confusions de termes etc parce qu'il lui arrive aussi totalement de passer à côté du truc).
Quand il ne trouve pas, il te propose souvent les mêmes solutions en boucle, même si tu lui précises d'emblée que ça fonctionne pas.
Alors oui ça me permet de faire des trucs avec lesquels je suis pas familier.
Par contre des fois je perds du temps et c'est moi qui avec mes suppositions l'amène à la solution.
Ça me permet pas de faire de la collecte de données efficacement (j'ai tenté des trucs mais fondamentalement il prend que les dix premiers articles ou sources qu'il trouve et c'est pourri)
Ça me permet pas d'écrire efficacement des mails ou autre: style plat et pompé des mêmes powerpoints linkedin et livres de marketing, je le détecte direct chez les autres et je benne le travail quand il est pas à la hauteur, c'est à dire souvent, derrière, parce qu'ils en foutent plus une rame.
Et perso, j'ai une plume, une pensée, et c'est pas un système de recommandation qui comprend ni la nuance ni ce qu'il dit quand bien même il en a la définition dans sa base (pour lui c'est un output), qui va pouvoir me suppléer. Déjà que la plupart des gens qui m'entourent le peuvent pas (c'est toujours moi qui ai la touche finale sur les courriers, articles, communications...)...
Et en prime, je déteste leur volonté de lui donner un visage pseudo humain, la familiarité, les encouragements comme si j'étais un enfant. Oui connard, je sais que mon idée est intéressante. Perds pas ta puissance de calcul à me sucer et essaie d'être un peu plus performant pour une fois.
Plus les biais intégrés de représentativité et autres trucs politiques qui filtrent. J'ai conçu des prompts spécialement mais il reste des choses bloquées.
Malgré tout il est maintenant moins stupide et obséquieux et il ne faut que citer les faits, je l'oblige à expliciter ses hypothèses et les sdonnées sur lesquelles il se base.
Le pire c'est que si une AGI était dispo je râlerais pas. Mais les llm c'est un putain de scandale écologique pour un gain marginal (suffirait que les gens soient moins flemmards ou qu'on les forme un peu plus au départ avec plus de temps pour ça), en plus ça sert les intérêts de tout un tas de connards qui exploitent vos données persos (bye RGPD) sans vergogne et sans sécurité (vous saviez qu'on a pu accéder à plus de 500000 conversations gpt au travers d'une requête google? Imaginez le bordel avec tout les mots de passe qui passent dans du code, les conversations "psy" etc.
Pour le reste, l'effet n'est qu'un reflet d'un monde où des gens regardent un mec se faire tabasser et mourir en direct pour des vues, avec des putains de connards de streamers qui ont même pas l'honnêteté de reconnaître qu'ils y sont pour quelque chose ne serait-ce que dans le principe. Mais non, ces putains de racailles sont des stars, c'est le monde préparé pour nos enfants par la génération d'après... alors l'IA c'est un monde mal. Au moins tous ces connards mourront chômeurs ou sous les balles d'un T800.
Malheureusement on y est pas encore à l'apocalypse IA, par contre le niveau d'exigence à tant baissé et les gens sont si convaincus que c'est génial en haut lieu que l'on va arriver au même far west que la chimie dans les années 70. En mode le public teste la prod.
Ça fonctionne très bien sûr des tâches spécialisées, c'est super pour de la prédiction de pathologie, de leur évolution etc,
C'est très con pour tout le reste. Et c'est même très con pour des cas à la marge (c'est dommage si ça tombe sur toi et que le medecin est un branque qui a débrayé son cerveau sur l'IA)
Je fais du dev avec, gpt et copilot c'est très bon pour expliquer de la syntaxe, trouver des erreurs évidentes comme un dev expérimenté sur le langage le fait, mais c'est très con pour plein de trucs (et pourtant je fais du prompt engineering poussé en faisant attention aux confusions de termes etc parce qu'il lui arrive aussi totalement de passer à côté du truc).
Quand il ne trouve pas, il te propose souvent les mêmes solutions en boucle, même si tu lui précises d'emblée que ça fonctionne pas.
Alors oui ça me permet de faire des trucs avec lesquels je suis pas familier.
Par contre des fois je perds du temps et c'est moi qui avec mes suppositions l'amène à la solution.
Ça me permet pas de faire de la collecte de données efficacement (j'ai tenté des trucs mais fondamentalement il prend que les dix premiers articles ou sources qu'il trouve et c'est pourri)
Ça me permet pas d'écrire efficacement des mails ou autre: style plat et pompé des mêmes powerpoints linkedin et livres de marketing, je le détecte direct chez les autres et je benne le travail quand il est pas à la hauteur, c'est à dire souvent, derrière, parce qu'ils en foutent plus une rame.
Et perso, j'ai une plume, une pensée, et c'est pas un système de recommandation qui comprend ni la nuance ni ce qu'il dit quand bien même il en a la définition dans sa base (pour lui c'est un output), qui va pouvoir me suppléer. Déjà que la plupart des gens qui m'entourent le peuvent pas (c'est toujours moi qui ai la touche finale sur les courriers, articles, communications...)...
Et en prime, je déteste leur volonté de lui donner un visage pseudo humain, la familiarité, les encouragements comme si j'étais un enfant. Oui connard, je sais que mon idée est intéressante. Perds pas ta puissance de calcul à me sucer et essaie d'être un peu plus performant pour une fois.
Plus les biais intégrés de représentativité et autres trucs politiques qui filtrent. J'ai conçu des prompts spécialement mais il reste des choses bloquées.
Malgré tout il est maintenant moins stupide et obséquieux et il ne faut que citer les faits, je l'oblige à expliciter ses hypothèses et les sdonnées sur lesquelles il se base.
Le pire c'est que si une AGI était dispo je râlerais pas. Mais les llm c'est un putain de scandale écologique pour un gain marginal (suffirait que les gens soient moins flemmards ou qu'on les forme un peu plus au départ avec plus de temps pour ça), en plus ça sert les intérêts de tout un tas de connards qui exploitent vos données persos (bye RGPD) sans vergogne et sans sécurité (vous saviez qu'on a pu accéder à plus de 500000 conversations gpt au travers d'une requête google? Imaginez le bordel avec tout les mots de passe qui passent dans du code, les conversations "psy" etc.
Pour le reste, l'effet n'est qu'un reflet d'un monde où des gens regardent un mec se faire tabasser et mourir en direct pour des vues, avec des putains de connards de streamers qui ont même pas l'honnêteté de reconnaître qu'ils y sont pour quelque chose ne serait-ce que dans le principe. Mais non, ces putains de racailles sont des stars, c'est le monde préparé pour nos enfants par la génération d'après... alors l'IA c'est un monde mal. Au moins tous ces connards mourront chômeurs ou sous les balles d'un T800.
Malheureusement on y est pas encore à l'apocalypse IA, par contre le niveau d'exigence à tant baissé et les gens sont si convaincus que c'est génial en haut lieu que l'on va arriver au même far west que la chimie dans les années 70. En mode le public teste la prod.
Pour moi qui suis développeuse junior dans le domaine, les IA chatbots ont vraiment été de supers profs particuliers. Quand j’avais besoin de creuser des détails sur des concepts, besoin d’exemples plus concrets, quand j’avais besoin de connaître les limites de certains concepts et que je ne pouvais pas bombarder le prof de mes questions et que mes recherches internet prenaient trop de temps, j’allais sur un IA bot je faisais mon prompt avec le contexte, les types de sources d’informations désirés, le format de réponse attendu et j’ai rempli un fichier word de 120 pages comme ça sur le deep learning. Avant l’accès à certaines informations était beaucoup plus compliqué, conditionné et surtout difficile d’accès. Si j’avais pu utiliser l’IA au lycée, j’aurais été une élève beaucoup plus assidue et j’aurais beaucoup appris par mes propres moyens. Le fait de pouvoir s’approprier des connaissances difficiles d’accès avant c’est vraiment hyper puissant quand on étudie et quand on veut acquérir des connaissances complexes ou non.
Le problème c’est que comme tout outil, l’utilisation qu’on en fait conditionne notre apprentissage. Il ne faut pas oublier les bases d’un apprentissage bête et méchant, sauter des étapes et croire qu’un outil dispense de faire travailler son cerveau. Et puis c’est fou comme ça pousse les projets plus loin et ça permet d’explorer de nouvelles opportunités avec des connaissances et des outils encore plus puissantes. J’ai l’impression que ce que je faisais en 40 heures avant je peux le faire en 2h, ça me permet de me concentrer sur d’autres tâches, de tester mes idées plus vite et grâce à la formation que je reçois au boulot, je vais plus vite, je vais plus loin et je m’éclate vraiment. Par contre, je dois me forcer à retenir les fonctions les plus simples et à bien structurer mon code si je ne veux pas me reposer que l’aide des IA bots, qui sont utiles en correction de code informatique mais insuffisants et très génériques pour des tâches plus spécifiques, plus pointues, plus poussées. Par exemple si on leur donne un dataset, une base de donnée avec plein de noms de colonnes, des types de donnés différents et complexes, il saura pas quel objectif poursuivre, quoi en faire, même en étant guidé ça ira plus vite de rédiger soi-même son code pour éviter les lignes qui servent à rien ou les détours bizarres.
Je l’ai vu dans le recrutement des métiers de mon secteur, on nous fait passer des tests de malades quand les postes de juniors sont ouverts. Sinon il faut passer par le conseil avec l’assurance de tout faire sauf de construire des modèles. Les tests ne sont pas juste psychotechniques (test de personnalité, test des intrus X test de logique chiffrée/ spatiale/ verbale), aujourd’hui on nous fait passer en plus de ça des tests d’algorithme et des tests sur comment interpréter les résultats, comment fonctionnent les modèles, pour avoir les utiliser et connaître les nuances. Et les QCM c’est du genre 50 questions en 40 ou 30 minutes. Autant dire tu sais où tu sais pas, et tu as pas le temps de faire un screen shot pour demander à un ia bot. Le nombre de postes juniors ouverts a énormément chuté du fait de développeurs mal formés ou de développeurs autodidactes qui en fait n’ont pas le bandage pour traiter des quantités de donnés lus importantes et des cas d’entreprise complexes. Parce que de plus en plus de juniors se basent sur les IA bots pour tout faire alors qu’en fait, c’est juste un assistant qui se débrouille bien mais qui doit être aiguillé, quitte à fractionner les tâches, et c’est même important de faire certaines tâches soi-même pour éviter les hallucinations de l’IA générative. Pour avoir été une non développeuse et l’être devenue sans avoir subi les 5 années d’école d’ingénieur et d’apprentissage de la logique algorithmique ce qu’un développeur fait en entreprise sur une quantité de données conséquente ne pourra jamais être appris derrière une certification ou un tuto YouTube. Déjà pour accéder à des datasets qui font des giga faut avoir du big data et en plus pour construire des modèles robustes il faut une sacré machine avec plusieurs GPU. Donc quand je vois que certains se vantent d’être devenu des as dans la programmation informatique faut voir ce que d’autres font dans le métier, et moi ça m’impressionne en plus de forger mon admiration.
En parlant autour de moi avec des gens du métier, on est pas ceux qui avons le plus peur de nos outils de travail au quotidien parce qu’on sait que l’IA au sens du grand public n’est pas l’IA le plus adopté en entreprise. Parce que développer toute une architecture adaptée aux logiciels/ outils informatiques existants demande une expérience et une compréhension pointue des systèmes d’information. Peut-être que le fait de savoir tout ce qu’on en sait pas nous rend humbles dans la profession, je ne sais pas. Mais en tout cas on n’a pas peur parce au on sait qu’il y a un sacré travail pour que certaines choses avancent et bougent. Ne serait-ce que pour détailler avec un bon prompt la situation, cela demande d’avoir l’expérience et la clairvoyance pour savoir que certains détails sont importants et déterminants dans le choix de la solution finale. Donc avoir un assistant puissant meme en étant un super guide, ça n’est pas toujours suffisant. Un bon développeur sera toujours meilleur qu’un junior avec ChatGPT parce que l’un saura quand utiliser les IA bots et compenser avec son cerveau, quand l’autre gobera tout sans filtrer, et ne saura pas debugger une erreur au moindre problème qu’il ne saura pas décrire à l’IA bots.
Je ne pense pas que les IA remplaceront les dépositaires de savoirs qui impliquent une certaine responsabilité juridique. En tout cas il y a des professions réglementées qui ne se laissent pas faire et qui bloquent l’accès à certaines informations comparé aux US. C’est le cas de sanitaires avec les donnés sur les transactions immobilières qui ne sont dispo que 3 à 6 mois après la date de la transaction alors qu’aux USA tout est collaboratif et ils ont développé des outils incroyables grâce à l’accès sans limite du grand public à ces data. Il y a d’autres professions qui à mon avis ne peuvent être remplacées du fait de leur responsabilité juridique et de la confidentialité des données dont ils sont les gardiens (experts comptables, médecins). Parce que leur responsabilité est engagée, on paye leurs services mais aussi le fait de pouvoir se retrouver contre eux s’il y a un problème.
De tous temps, les innovations ont crée des bousculements et des remplacements inévitables avec leur arrivée. Beaucoup de professions vont devoir s’adapter à mon humble avis à l’adoption massive des IA bots et à l’automatisation de certaines tâches qui n’était pas possible avant. Mais comme l’invention de la machine à vapeur, l’automatisation de Ford, on a vu émerger des effets moins désirés au profit d’avancées majeures et ce qui fait le plus peur c’est de ne pas connaître les limites des IA et leurs forces.
Il y a eu un deep fake d’Elon Musk récemment qui disait lancer une nouvelle crypto avec Space X et qui dans le même temps proposait de doubler les cryptos bitcoin, solana et etherum à tous ceux qui flashaient le qr code (évidemment faux). Les deep fakes sont là plus grande menace de cette époque parce qu’on arrive de plus en plus à faire croire à n’importe qui n’importe quoi, tout comme l’exemple du trader qui a viré des millions d’euros à la demande de son boss en réunion teams et de toute l’équipe dirigeante alors que tout cela était du deep fake.
Et puis il y a aussi le fait qu’à mon humble avis on réduit beaucoup l’IA à l’IA générative alors qu’elle représente en réalité moins de 30% (si ce n’est moins) des cas d’utilisation profitables aux entreprises dans le pilotage de leurs activités. Je m’explique, c’est hyper cher de développer soi-même un réseau de neurones. Or, les LLM sont avant tout des réseaux de neurones entrainés principalement pour réaliser des tâches textuelles. Derrière les LLM il y a des transformers et BERT. Ces modèles sont puissants du fait du attention mechanism qui leur permet de capter le contexte d’une phrase avec une logique plus puissante que les premiers cas d’application du Natural Language Processing. Mais ça reste des modèles qui aspirent avant tout à résoudre des problèmes textuels en général du texte.
En entreprise, les cas d’usage qui apportent le mis de valeur sont ceux qui ont vocation à résoudre des problèmes de classification et de régression, la plupart du temps ceux qui apportent le plus de valeur ce sont les modèles de régression (dont la cible prédite par le modèle est numérique). Un modèle de machine learning qui prédit les prix de la bourse, les volumes de ventes, c’est de la régression. Donc les LLM même s’ils peuvent traiter des informations utiles ne pourront pas remplacer les modèles de régression parce qu’ils prédisent c’est du texte.
On peut aussi penser qu’en reprenant des grands LLM avec des RAG ou en fine tunant les dernières couches on peut faire des choses puissantes avec les modèles d’open AI et de deep seek mais ce serait oublier ce que je viens d’écrire précédemment. Il y a même quelque chose d’encore plus complexe que j’aimerais partager de ma propre expérience. En plus, adapter les dernières couches d’un réseau de neurones pour adapter un modèle généraliste des applications plus applications demande des compétences pointues en informatique et en mathématiques.
Les donnés numériques apportent de la valeur pour les entreprises, mais pour l’instant, ça reste très compliqué d’entraîner des modèles capables de capturer la saisonnalité des données. Par la je veux dire les variations intra annuelles et annuelles. On appelle ça les Time séries (donnés numériques datées) comme les valeurs de la bourse dont la chronologie a son importance. Les réseaux de neurones (même les plus complexes) peinent encore à l’heure actuelle à traduire en variables de modèles d’intelligence artificielle, cette fameuse saisonnalité. C’est pour ça que la portée de la prédiction est extrêmement courte pour l’instant et que certains préfèrent parler d’estimation de prix de l’immobilier plutôt que de prédiction de prix de l’immobilier à horizon 1 an/ 2 ans/ X années.
En plus pour créer un modèle qui fait bien les choses les enjeux ne sont pas uniquement de capturer toutes ces infimes complexes, cela exige de l’entreprise un certain niveau de maturité data, un certain niveau de digitalisations, d’alimentation des données, d’ingestion et de nettoyage des données dans des bases qui sont assez bien organisées pour que le travail de construction d’un modèle soit efficace et puisse commencer. Aujourd’hui, en tout cas en France, on est loin de collecter autant de données. Avec l’IA act en Europe il y a des réglementations qui vont creuser le fossé avec les US. C’est compliqué de vouloir protéger les utilisateurs et de mettre en place les actions suffisantes pour avoir un max de données.
En termes de relations, les gens ne seront pas encouragés à aller vers les autres, l’impatience, la paresse et le confort feront émerger des individus qui préféreront se réfugier dans la compagnie facile et assistée de bots plus ou moins sophistiqués mais je pense pas que tous les parents laisseront faire. Je ne parle pas en tant que parent mais être conscient des risques et des dangers entraînera des réactions, qui je l’espère encadreront certains comportements. Et puis elle si les élèves sont tentés de faire des devoirs assistés par les IA bots il y a des taches qu’ils ne peuvent pas faire avec, les devoirs et concours sur table rappelleront très rapidement aux tricheurs qu’on n’apprend pas en faisant un prompt dans sa chambre. D’ailleurs au niveau junior les tests qu’on nous fait passer à nous autres développeurs se font pas chez nous mais en présentiel. Et quand c’est chez soi, y a des outils qui surveillent si on est deux à passer le test, si on navigue sur une autre fenêtre, si on a utilisé un IA bots pour tricher. Oublier que la vie continue sans cette assistance augmenter c’est s’étirer une balle dans le pied quand la réalité exige qu’on fasse soi-même ses preuves. Même pas pour se démarquer mais pour montrer qu’on est compétent, c’est ceux qui arriveront le plus à nuancer leurs pensées, qui sauront le plus quand utiliser ces outils, quand ne pas les utiliser, pourquoi les utiliser et ne pas les utiliser parce qu’ils sauront s’en passer, qui je pense sauront tirer leur épingle du jeu. Après c’est vrai que tout le monde se prend pas la tête à réfléchir aux conséquences de ses actes, à essayer d’anticiper les changements sociaux et économiques liés à l’IA. La pollution engendrée par une simple requête sur ChatGPT posera bientôt des soucis écologiques et environnementaux. Avec l’essor du télétravail et de l’industrie de l’IT, il y a déjà des articles qui émergent à ce sujet.
Et puis je pense qu’il vaut toujours mieux maîtriser un outil menaçant que de faire de la résistance et être forcé de l’adopter tardivement. En plus ces outils sont hyper passionnants. Ils permettent de créer des choses pas juste de la valeur, mais de rendre possibles des idées. Du coup l’outil ne sera pas à mon avis à blâmer s’il y a des dérives et une paresse générale, mais l’utilisation excessive/ non sélective qu’en feront les utilisateurs non avertis et fainéants.
Je me souviens qu’en 2021 beaucoup de gens disaient que la blockchain allait remplacer les banques. Aujourd’hui on voit bien que c’est pas vrai, et même les banques qui ont massivement investi dans des consortiums ont fini par se retirer. Il y a des cas d’application qui seront moins efficaces et abandonnés. Si vous ne connaissez pas la courbe des innovations de gartner je vous suggère et vous invite à la regarder, enfin si vous voulez. Je pense qu’on pourrait même l’appliquer à chaque cas d’application de l’IA plutôt que l’IA au sens général tant les domaines d’application sont vastes, différents et avec des enjeux/ risques/ dangers pas toujours comparables. La courbe de gartner décrit les phases par laquelle les innovations passent avant d’être adoptées par le grand public ou au contraire avant d’être abandonnées faite d’avoir été adoptées par le ma marché.
En tout cas l’IA Générative n’a pas la vocation ni la capacité à remplacer les bons vieux modèles de machine learning à l’heure actuelle, du moins en entreprise. En tout cas comprendre comment ça marche m’a permis de savoir comment orienter mes choix professionnels, comment réagir, de quoi avoir peur et de quoi ne pas avoir peur. Peut être que l’IA générative a gagné l’intérêt du grand public et connu des avancées majeures en peu de temps avec l’arrivée des GPU, mais les entreprises ne sont pas toutes prêtes. Beaucoup sont encore en train d’utiliser du papier, donc niveau data s’il n’y a pas de digitalisations, ça reste compliqué. Ma plus grande crainte c’est même pas les adultes consentants, vaccinés et raisonnables, ce sont les enfants qui risquent d’être harcelés à l’école violemment, ce sont les baby boomers qui risquent de se faire avoir parce qu’ils ne connaissent pas bien ces technologies. Les artistes ont de beaux jours devant eux car ils peuvent attaquer en justice les entreprises qui utilisent leurs œuvres pour entraîner leurs modèles dans leur consentement sur ces données. Ils peuvent être assistés par ces outils sur certaines tâches sans qu’ils soient moins créatifs sur le reste de leurs tâches tout comme les IA génératives m’ont permis de me concentrer sur des tâches plus poussées/ plus analytiques.
Pour finir je n’ai pas peur d’un outil, ce sont des gens que j’ai peur. Des utilisations abusives, non sélectives qui seront faites. Des victimes les plus faciles et les plus fragiles. Des peurs infondées, déraisonnables, et de la résistance à ces outils qui risque de nourrir le manque de connaissance et faire de ces personnes des victimes encore plus faciles. C’est difficile de savoir comment les choses évolueront tant les gens sont imprévisibles. Mais ce qui est certain c’est que l’IA ne remplacera pas des experts qui ont des informations auxquels les modèles comme Open AI n’ont pas accès. Internet est très riche en informations mais en informations un peu bullshit et au final ce qui est important c’est la qualité des données sur lesquelles un modèle est entraîné, la fraîcheur des donnés de l’accès à des données qui ont un impact fort sur la cible prédite. Et comme ne entreprise la question de responsabilité est importante, à l’heure actuelle on privilégie les modèles simples à expliquer aux métiers qu’on assiste (marketing, supply chain, compta, rh, finance) pour leur assurer un maximum de transparence et une des difficultés mais aussi des défis c’est d’adapter un modèle et sa cible au besoin très précis et très particulier d’une entreprise et d’un métier donné pour pouvoir leur suggérer ensuite des actions concrètes qui répondront à leurs problématiques spécifiques.
J’allais oublier amis en matière de systématisation et rationalisation l’assistance de certaines tâches avec le computer vision qui est une application du deep learning mais en aucun cas du domaine de l’IA générative est très utile dans le domaine médical pour reconnaître les cancers chez les radiologues, identifier des molécules qui peuvent guérir certaines maladies, attirer l’inattention des médecins sur des points qu’ils auraient minimisés parce que tel cas est rare et statistiquement improbable. Il y a pas mal d’applications qui peuvent élargir la vision et le champ d’analyse des professionnels qui utilisent les outils d’intelligence artificielle.
J’allais presque oublier, les jobs qui sont menacés c’est surtout les professions qui sont faciles à automatiser. Pour moi qui bosse en plein dedans j’entends souvent les autres parler de leurs peurs, parler d’IA, on dirait que c’est la solution miracle, que quelqu’un vient d’inventer le feu. Mais ce n’est pas parce qu’on donne un visage humain ou que les GPU ont permis une grande avancée que les choses vont si vite changer et être adoptées. De plus, les gens qui pensent pouvoir coder avec les IA bots sans avoir de bagage en développement, je le vois bien c’est comme les développeurs juniors qui se reposent entièrement sur les IA, ça produit du code imparfait qui bug au premier cas non anticipé.
Comme souvent quand il y a quelque chose de nouveau et qui est amené à apporter de grands changements je surfe sur la vague, je m’approprie cet outil, je réfléchis à comment l’intégrer dans mon quotidien sans changer mes principes directeurs et fondamentaux. Quand on a connu l’avant IA ça paraît moins compliqué de reconnaître les domaines où elle m’est utile et ceux pour lesquels je reste utile sans elle. Mes jeunes qui vont grandir avec, auront un autre pont de vue. Mais je pense pas qu’ils grandiront dans un pot pourri. Tous les jeunes qui ont rendu avec les réseaux sociaux ne sont pas des abrutis finis et fainéants. Je vais peut être paraître idéaliste mais heureusement qu’il y a des parents et des profs/ références adultes qui réfléchissent et qui poussent les plus jeunes à se remettre en question et à prendre leurs précautions face à des outils puissants. Ils ont tellement à apporter que ne pas les adopter nous ferait rater des avancées précieuses. En tout cas c’est mon humble avis et personnellement j’adore voir comment les modèles fonctionnent, j’adore en construire et j’adore en parler avec les gens pour qui je les construis. Et un modèle efficace n’a pas besoin d’être opaque ou ultra complexe. C’est à force de voir des gens associer l’IA au deep learning et à l’IA generative qu’on voit plein d’avis négatifs et le fait de parler d’intelligence, de faire des rapprochements avec le cerveau humain, ça donne beaucoup plus d’importance à certaines applications dont le but et le mode de fonctionnement ne me semble pas toujours bien compris. Et puis j’ai du mal avec la application de concepts philosophiques quand c’est pour donner plus d’importance à des cas isolés et négliger les allocations plus courantes et moins angoissantes.
Ah oui ça m’est revenu, la courbe du cabinet de conseil Gary et sur les innovations on l’appelé la courbe de hype. C’est quand tos les scénarios sont envisagés parce qu’une innovation vient d’ère rendue visible aux yeux du grand public mais en fin de compte, beaucoup d’innovations sont passés par les mêmes étapes et comme la blockchain, se sont essoufflés ou alors ce qui nous faisait peur en tant que société n’est pas ce qui était le plus menaçant. L’inverse est vrai.
https://fr.wikipedia.org/wiki/Cycle_du_hype
Le problème c’est que comme tout outil, l’utilisation qu’on en fait conditionne notre apprentissage. Il ne faut pas oublier les bases d’un apprentissage bête et méchant, sauter des étapes et croire qu’un outil dispense de faire travailler son cerveau. Et puis c’est fou comme ça pousse les projets plus loin et ça permet d’explorer de nouvelles opportunités avec des connaissances et des outils encore plus puissantes. J’ai l’impression que ce que je faisais en 40 heures avant je peux le faire en 2h, ça me permet de me concentrer sur d’autres tâches, de tester mes idées plus vite et grâce à la formation que je reçois au boulot, je vais plus vite, je vais plus loin et je m’éclate vraiment. Par contre, je dois me forcer à retenir les fonctions les plus simples et à bien structurer mon code si je ne veux pas me reposer que l’aide des IA bots, qui sont utiles en correction de code informatique mais insuffisants et très génériques pour des tâches plus spécifiques, plus pointues, plus poussées. Par exemple si on leur donne un dataset, une base de donnée avec plein de noms de colonnes, des types de donnés différents et complexes, il saura pas quel objectif poursuivre, quoi en faire, même en étant guidé ça ira plus vite de rédiger soi-même son code pour éviter les lignes qui servent à rien ou les détours bizarres.
Je l’ai vu dans le recrutement des métiers de mon secteur, on nous fait passer des tests de malades quand les postes de juniors sont ouverts. Sinon il faut passer par le conseil avec l’assurance de tout faire sauf de construire des modèles. Les tests ne sont pas juste psychotechniques (test de personnalité, test des intrus X test de logique chiffrée/ spatiale/ verbale), aujourd’hui on nous fait passer en plus de ça des tests d’algorithme et des tests sur comment interpréter les résultats, comment fonctionnent les modèles, pour avoir les utiliser et connaître les nuances. Et les QCM c’est du genre 50 questions en 40 ou 30 minutes. Autant dire tu sais où tu sais pas, et tu as pas le temps de faire un screen shot pour demander à un ia bot. Le nombre de postes juniors ouverts a énormément chuté du fait de développeurs mal formés ou de développeurs autodidactes qui en fait n’ont pas le bandage pour traiter des quantités de donnés lus importantes et des cas d’entreprise complexes. Parce que de plus en plus de juniors se basent sur les IA bots pour tout faire alors qu’en fait, c’est juste un assistant qui se débrouille bien mais qui doit être aiguillé, quitte à fractionner les tâches, et c’est même important de faire certaines tâches soi-même pour éviter les hallucinations de l’IA générative. Pour avoir été une non développeuse et l’être devenue sans avoir subi les 5 années d’école d’ingénieur et d’apprentissage de la logique algorithmique ce qu’un développeur fait en entreprise sur une quantité de données conséquente ne pourra jamais être appris derrière une certification ou un tuto YouTube. Déjà pour accéder à des datasets qui font des giga faut avoir du big data et en plus pour construire des modèles robustes il faut une sacré machine avec plusieurs GPU. Donc quand je vois que certains se vantent d’être devenu des as dans la programmation informatique faut voir ce que d’autres font dans le métier, et moi ça m’impressionne en plus de forger mon admiration.
En parlant autour de moi avec des gens du métier, on est pas ceux qui avons le plus peur de nos outils de travail au quotidien parce qu’on sait que l’IA au sens du grand public n’est pas l’IA le plus adopté en entreprise. Parce que développer toute une architecture adaptée aux logiciels/ outils informatiques existants demande une expérience et une compréhension pointue des systèmes d’information. Peut-être que le fait de savoir tout ce qu’on en sait pas nous rend humbles dans la profession, je ne sais pas. Mais en tout cas on n’a pas peur parce au on sait qu’il y a un sacré travail pour que certaines choses avancent et bougent. Ne serait-ce que pour détailler avec un bon prompt la situation, cela demande d’avoir l’expérience et la clairvoyance pour savoir que certains détails sont importants et déterminants dans le choix de la solution finale. Donc avoir un assistant puissant meme en étant un super guide, ça n’est pas toujours suffisant. Un bon développeur sera toujours meilleur qu’un junior avec ChatGPT parce que l’un saura quand utiliser les IA bots et compenser avec son cerveau, quand l’autre gobera tout sans filtrer, et ne saura pas debugger une erreur au moindre problème qu’il ne saura pas décrire à l’IA bots.
Je ne pense pas que les IA remplaceront les dépositaires de savoirs qui impliquent une certaine responsabilité juridique. En tout cas il y a des professions réglementées qui ne se laissent pas faire et qui bloquent l’accès à certaines informations comparé aux US. C’est le cas de sanitaires avec les donnés sur les transactions immobilières qui ne sont dispo que 3 à 6 mois après la date de la transaction alors qu’aux USA tout est collaboratif et ils ont développé des outils incroyables grâce à l’accès sans limite du grand public à ces data. Il y a d’autres professions qui à mon avis ne peuvent être remplacées du fait de leur responsabilité juridique et de la confidentialité des données dont ils sont les gardiens (experts comptables, médecins). Parce que leur responsabilité est engagée, on paye leurs services mais aussi le fait de pouvoir se retrouver contre eux s’il y a un problème.
De tous temps, les innovations ont crée des bousculements et des remplacements inévitables avec leur arrivée. Beaucoup de professions vont devoir s’adapter à mon humble avis à l’adoption massive des IA bots et à l’automatisation de certaines tâches qui n’était pas possible avant. Mais comme l’invention de la machine à vapeur, l’automatisation de Ford, on a vu émerger des effets moins désirés au profit d’avancées majeures et ce qui fait le plus peur c’est de ne pas connaître les limites des IA et leurs forces.
Il y a eu un deep fake d’Elon Musk récemment qui disait lancer une nouvelle crypto avec Space X et qui dans le même temps proposait de doubler les cryptos bitcoin, solana et etherum à tous ceux qui flashaient le qr code (évidemment faux). Les deep fakes sont là plus grande menace de cette époque parce qu’on arrive de plus en plus à faire croire à n’importe qui n’importe quoi, tout comme l’exemple du trader qui a viré des millions d’euros à la demande de son boss en réunion teams et de toute l’équipe dirigeante alors que tout cela était du deep fake.
Et puis il y a aussi le fait qu’à mon humble avis on réduit beaucoup l’IA à l’IA générative alors qu’elle représente en réalité moins de 30% (si ce n’est moins) des cas d’utilisation profitables aux entreprises dans le pilotage de leurs activités. Je m’explique, c’est hyper cher de développer soi-même un réseau de neurones. Or, les LLM sont avant tout des réseaux de neurones entrainés principalement pour réaliser des tâches textuelles. Derrière les LLM il y a des transformers et BERT. Ces modèles sont puissants du fait du attention mechanism qui leur permet de capter le contexte d’une phrase avec une logique plus puissante que les premiers cas d’application du Natural Language Processing. Mais ça reste des modèles qui aspirent avant tout à résoudre des problèmes textuels en général du texte.
En entreprise, les cas d’usage qui apportent le mis de valeur sont ceux qui ont vocation à résoudre des problèmes de classification et de régression, la plupart du temps ceux qui apportent le plus de valeur ce sont les modèles de régression (dont la cible prédite par le modèle est numérique). Un modèle de machine learning qui prédit les prix de la bourse, les volumes de ventes, c’est de la régression. Donc les LLM même s’ils peuvent traiter des informations utiles ne pourront pas remplacer les modèles de régression parce qu’ils prédisent c’est du texte.
On peut aussi penser qu’en reprenant des grands LLM avec des RAG ou en fine tunant les dernières couches on peut faire des choses puissantes avec les modèles d’open AI et de deep seek mais ce serait oublier ce que je viens d’écrire précédemment. Il y a même quelque chose d’encore plus complexe que j’aimerais partager de ma propre expérience. En plus, adapter les dernières couches d’un réseau de neurones pour adapter un modèle généraliste des applications plus applications demande des compétences pointues en informatique et en mathématiques.
Les donnés numériques apportent de la valeur pour les entreprises, mais pour l’instant, ça reste très compliqué d’entraîner des modèles capables de capturer la saisonnalité des données. Par la je veux dire les variations intra annuelles et annuelles. On appelle ça les Time séries (donnés numériques datées) comme les valeurs de la bourse dont la chronologie a son importance. Les réseaux de neurones (même les plus complexes) peinent encore à l’heure actuelle à traduire en variables de modèles d’intelligence artificielle, cette fameuse saisonnalité. C’est pour ça que la portée de la prédiction est extrêmement courte pour l’instant et que certains préfèrent parler d’estimation de prix de l’immobilier plutôt que de prédiction de prix de l’immobilier à horizon 1 an/ 2 ans/ X années.
En plus pour créer un modèle qui fait bien les choses les enjeux ne sont pas uniquement de capturer toutes ces infimes complexes, cela exige de l’entreprise un certain niveau de maturité data, un certain niveau de digitalisations, d’alimentation des données, d’ingestion et de nettoyage des données dans des bases qui sont assez bien organisées pour que le travail de construction d’un modèle soit efficace et puisse commencer. Aujourd’hui, en tout cas en France, on est loin de collecter autant de données. Avec l’IA act en Europe il y a des réglementations qui vont creuser le fossé avec les US. C’est compliqué de vouloir protéger les utilisateurs et de mettre en place les actions suffisantes pour avoir un max de données.
En termes de relations, les gens ne seront pas encouragés à aller vers les autres, l’impatience, la paresse et le confort feront émerger des individus qui préféreront se réfugier dans la compagnie facile et assistée de bots plus ou moins sophistiqués mais je pense pas que tous les parents laisseront faire. Je ne parle pas en tant que parent mais être conscient des risques et des dangers entraînera des réactions, qui je l’espère encadreront certains comportements. Et puis elle si les élèves sont tentés de faire des devoirs assistés par les IA bots il y a des taches qu’ils ne peuvent pas faire avec, les devoirs et concours sur table rappelleront très rapidement aux tricheurs qu’on n’apprend pas en faisant un prompt dans sa chambre. D’ailleurs au niveau junior les tests qu’on nous fait passer à nous autres développeurs se font pas chez nous mais en présentiel. Et quand c’est chez soi, y a des outils qui surveillent si on est deux à passer le test, si on navigue sur une autre fenêtre, si on a utilisé un IA bots pour tricher. Oublier que la vie continue sans cette assistance augmenter c’est s’étirer une balle dans le pied quand la réalité exige qu’on fasse soi-même ses preuves. Même pas pour se démarquer mais pour montrer qu’on est compétent, c’est ceux qui arriveront le plus à nuancer leurs pensées, qui sauront le plus quand utiliser ces outils, quand ne pas les utiliser, pourquoi les utiliser et ne pas les utiliser parce qu’ils sauront s’en passer, qui je pense sauront tirer leur épingle du jeu. Après c’est vrai que tout le monde se prend pas la tête à réfléchir aux conséquences de ses actes, à essayer d’anticiper les changements sociaux et économiques liés à l’IA. La pollution engendrée par une simple requête sur ChatGPT posera bientôt des soucis écologiques et environnementaux. Avec l’essor du télétravail et de l’industrie de l’IT, il y a déjà des articles qui émergent à ce sujet.
Et puis je pense qu’il vaut toujours mieux maîtriser un outil menaçant que de faire de la résistance et être forcé de l’adopter tardivement. En plus ces outils sont hyper passionnants. Ils permettent de créer des choses pas juste de la valeur, mais de rendre possibles des idées. Du coup l’outil ne sera pas à mon avis à blâmer s’il y a des dérives et une paresse générale, mais l’utilisation excessive/ non sélective qu’en feront les utilisateurs non avertis et fainéants.
Je me souviens qu’en 2021 beaucoup de gens disaient que la blockchain allait remplacer les banques. Aujourd’hui on voit bien que c’est pas vrai, et même les banques qui ont massivement investi dans des consortiums ont fini par se retirer. Il y a des cas d’application qui seront moins efficaces et abandonnés. Si vous ne connaissez pas la courbe des innovations de gartner je vous suggère et vous invite à la regarder, enfin si vous voulez. Je pense qu’on pourrait même l’appliquer à chaque cas d’application de l’IA plutôt que l’IA au sens général tant les domaines d’application sont vastes, différents et avec des enjeux/ risques/ dangers pas toujours comparables. La courbe de gartner décrit les phases par laquelle les innovations passent avant d’être adoptées par le grand public ou au contraire avant d’être abandonnées faite d’avoir été adoptées par le ma marché.
En tout cas l’IA Générative n’a pas la vocation ni la capacité à remplacer les bons vieux modèles de machine learning à l’heure actuelle, du moins en entreprise. En tout cas comprendre comment ça marche m’a permis de savoir comment orienter mes choix professionnels, comment réagir, de quoi avoir peur et de quoi ne pas avoir peur. Peut être que l’IA générative a gagné l’intérêt du grand public et connu des avancées majeures en peu de temps avec l’arrivée des GPU, mais les entreprises ne sont pas toutes prêtes. Beaucoup sont encore en train d’utiliser du papier, donc niveau data s’il n’y a pas de digitalisations, ça reste compliqué. Ma plus grande crainte c’est même pas les adultes consentants, vaccinés et raisonnables, ce sont les enfants qui risquent d’être harcelés à l’école violemment, ce sont les baby boomers qui risquent de se faire avoir parce qu’ils ne connaissent pas bien ces technologies. Les artistes ont de beaux jours devant eux car ils peuvent attaquer en justice les entreprises qui utilisent leurs œuvres pour entraîner leurs modèles dans leur consentement sur ces données. Ils peuvent être assistés par ces outils sur certaines tâches sans qu’ils soient moins créatifs sur le reste de leurs tâches tout comme les IA génératives m’ont permis de me concentrer sur des tâches plus poussées/ plus analytiques.
Pour finir je n’ai pas peur d’un outil, ce sont des gens que j’ai peur. Des utilisations abusives, non sélectives qui seront faites. Des victimes les plus faciles et les plus fragiles. Des peurs infondées, déraisonnables, et de la résistance à ces outils qui risque de nourrir le manque de connaissance et faire de ces personnes des victimes encore plus faciles. C’est difficile de savoir comment les choses évolueront tant les gens sont imprévisibles. Mais ce qui est certain c’est que l’IA ne remplacera pas des experts qui ont des informations auxquels les modèles comme Open AI n’ont pas accès. Internet est très riche en informations mais en informations un peu bullshit et au final ce qui est important c’est la qualité des données sur lesquelles un modèle est entraîné, la fraîcheur des donnés de l’accès à des données qui ont un impact fort sur la cible prédite. Et comme ne entreprise la question de responsabilité est importante, à l’heure actuelle on privilégie les modèles simples à expliquer aux métiers qu’on assiste (marketing, supply chain, compta, rh, finance) pour leur assurer un maximum de transparence et une des difficultés mais aussi des défis c’est d’adapter un modèle et sa cible au besoin très précis et très particulier d’une entreprise et d’un métier donné pour pouvoir leur suggérer ensuite des actions concrètes qui répondront à leurs problématiques spécifiques.
J’allais oublier amis en matière de systématisation et rationalisation l’assistance de certaines tâches avec le computer vision qui est une application du deep learning mais en aucun cas du domaine de l’IA générative est très utile dans le domaine médical pour reconnaître les cancers chez les radiologues, identifier des molécules qui peuvent guérir certaines maladies, attirer l’inattention des médecins sur des points qu’ils auraient minimisés parce que tel cas est rare et statistiquement improbable. Il y a pas mal d’applications qui peuvent élargir la vision et le champ d’analyse des professionnels qui utilisent les outils d’intelligence artificielle.
J’allais presque oublier, les jobs qui sont menacés c’est surtout les professions qui sont faciles à automatiser. Pour moi qui bosse en plein dedans j’entends souvent les autres parler de leurs peurs, parler d’IA, on dirait que c’est la solution miracle, que quelqu’un vient d’inventer le feu. Mais ce n’est pas parce qu’on donne un visage humain ou que les GPU ont permis une grande avancée que les choses vont si vite changer et être adoptées. De plus, les gens qui pensent pouvoir coder avec les IA bots sans avoir de bagage en développement, je le vois bien c’est comme les développeurs juniors qui se reposent entièrement sur les IA, ça produit du code imparfait qui bug au premier cas non anticipé.
Comme souvent quand il y a quelque chose de nouveau et qui est amené à apporter de grands changements je surfe sur la vague, je m’approprie cet outil, je réfléchis à comment l’intégrer dans mon quotidien sans changer mes principes directeurs et fondamentaux. Quand on a connu l’avant IA ça paraît moins compliqué de reconnaître les domaines où elle m’est utile et ceux pour lesquels je reste utile sans elle. Mes jeunes qui vont grandir avec, auront un autre pont de vue. Mais je pense pas qu’ils grandiront dans un pot pourri. Tous les jeunes qui ont rendu avec les réseaux sociaux ne sont pas des abrutis finis et fainéants. Je vais peut être paraître idéaliste mais heureusement qu’il y a des parents et des profs/ références adultes qui réfléchissent et qui poussent les plus jeunes à se remettre en question et à prendre leurs précautions face à des outils puissants. Ils ont tellement à apporter que ne pas les adopter nous ferait rater des avancées précieuses. En tout cas c’est mon humble avis et personnellement j’adore voir comment les modèles fonctionnent, j’adore en construire et j’adore en parler avec les gens pour qui je les construis. Et un modèle efficace n’a pas besoin d’être opaque ou ultra complexe. C’est à force de voir des gens associer l’IA au deep learning et à l’IA generative qu’on voit plein d’avis négatifs et le fait de parler d’intelligence, de faire des rapprochements avec le cerveau humain, ça donne beaucoup plus d’importance à certaines applications dont le but et le mode de fonctionnement ne me semble pas toujours bien compris. Et puis j’ai du mal avec la application de concepts philosophiques quand c’est pour donner plus d’importance à des cas isolés et négliger les allocations plus courantes et moins angoissantes.
Ah oui ça m’est revenu, la courbe du cabinet de conseil Gary et sur les innovations on l’appelé la courbe de hype. C’est quand tos les scénarios sont envisagés parce qu’une innovation vient d’ère rendue visible aux yeux du grand public mais en fin de compte, beaucoup d’innovations sont passés par les mêmes étapes et comme la blockchain, se sont essoufflés ou alors ce qui nous faisait peur en tant que société n’est pas ce qui était le plus menaçant. L’inverse est vrai.
https://fr.wikipedia.org/wiki/Cycle_du_hype
De ce que je lis, ça te coûte vachement de l'utiliser. Puis aussi, ça t'impose un rythme. Tu devrais peut-être éviter à part pour les trucs où une recherche google ne réduit pas ou ne résout pas le problème. C'est un peu ma méthode parce que déjà j'ai pas forcément besoin qu'on analyse pour moi, sauf si je suis dans un truc où je capte pas. Généralement pour un sujet technique où je sais vraiment rien (pattern ou autre), je l'utilise pour identifier le truc si je sais que google donnerait 10000 réponses dans tous les sens (en mode "explique ça", plutôt que "comment on appelle cette syntaxe", comme ça je préshot d'éventuelles explications), puis je vais googler avec ma question sur le truc identifié, ou j'en apprends un peu avant de revenir voir ce qu'il dit.FK a écrit : ↑27.08.25
Donc tout ça mis bout à bout : entre charge mentale, sentiment de perte de sens / de beauté du geste, anxiété de l'avenir, sentiment d'avoir gravement merdé ma trajectoire de vie, frustrations du quotidien, dégoût de ce qu'est devenu Internet, attentes du boss et attentes de moi-même : compliqué de garder sa santé mentale (on va dire que pour l'instant je tiens bon, mais je sens qu'il faudrait pas grand chose pour me mettre profond sous l'eau). L'eau monte, je surnage encore, mais je commence à fatiguer et à la moindre crampe je bois la tasse.
Après là la partie la plus compliquée et la moins soluble par son utilisation de la chose c'est l'attente du boss mais ça dépend sur quel plan c'est. Et du fait qu'il ait de la merde en tête ou pas.
Les laurent alexandre et luc julia font énormément de mal en s'exprimant sur ces sujets auxquels ils entravent rien...
aha il existe encore lui ? qui l'écoute encore ?laurent alexandre
Pour les trucs basiques, je m'en passe le plus possible, mais là je suis sur un gros chantier, en ampleur, en complexité et en criticité, beaucoup de complexité à intégrer / digérer, beaucoup de code à écrire, si je fais tout à la main j'en ai pour encore 2-3 mois, là où j'espère avoir une première version prête pour la prod d'ici quelques semaines. C'est une puissance de tir dont on peut difficilement se passer pour les trucs lourds. Une fois qu'on a appris à bosser avec (s'ajuster au rythme que ça impose + le cadrer à peu près correctement), ça va. C'est la courbe d'apprentissage (ou plutôt d'appropriation) qui était raide, mais j'ai passé ça.De ce que je lis, ça te coûte vachement de l'utiliser. Puis aussi, ça t'impose un rythme.
(+ le rythme à la limite, c'est un mal pour un bien, ça impose une forme de discipline aussi, c'est un mode de gestion du temps plus cadré, c'est pas nécessairement un problème).
Par contre oui, si je cède à la facilité de lui faire faire du frontend facile (CSS / petit JS) par pure fainéantise, c'est là que je perds du jus, c'est clair et net.
J'ai pas mentionné un truc : l'IA en mettant des mots sur des notions m'a beaucoup appris, m'a fait avancer voire même, m'a libéré sur certains trucs. Des approches et mécanismes dont je me servais par pure intuition / débrouille, le simple fait qu'elle mette des mots dessus, ça les légitimise, ça les officialise et je me trouve armé d'un nouveau concept désormais très clair dans ma tête.
Cache poisoning, race condition, concurrence, soft lock, des trucs élémentaires en fait (au sens littéral), mais comme j'avais pas les mots pour les désigner, pour les délimiter, bien que j'en aie l'intuition et l'instinct, c'était pas des briques dont j'osais facilement me servir, et que j'appréhendais en confiance conceptuellement : les contours restaient flous et incertains, avec en arrière-plan la crainte de faire des trucs tarabiscotés alors qu'en fait non pas du tout et au contraire.
Ca pour le syndrôme de l'imposteur c'est formidable : se rendre compte que même si on a pas les mots, on pense au bon endroit, ça fait toujours plaisir. Et quand des mots sont posés dessus, et qu'on se rend compte qu'on a une nouvelle flèche bien identifiée dans le carquois, c'est une nette impression d'avoir monté une marche supplémentaire, c'est cool (btw, aucune idée si ça le fait à tout le monde ou juste à moi du fait du fait de mon espèce d'autisme bien à moi).
+ tous les trucs pas clairs que ça m'a permis de comprendre.
Au final, au-delà de l'immense risque sociétal / existentiel, à mon échelle perso ma relation / mon ressenti face à l'IA est vraiment ambivalent : comme un pacte avec le démon, tu lui donnes, il te donne, tu obtiens beaucoup mais tu sais qu'à la fin c'est probablement lui qui te nique, de cent manières dont t'as probablement pas idée.
J'ai lu l'article AI-2027 recommandé par Jalap + la vidéo qui le présente / récap (très bien faite, je recommande).
C'est une narration de ce que j'avais déjà en tête, mais ça reste absolument glaçant. C'est de la SF d'anticipation du pire, j'ai eu la même sensation en lisant le problème à 3 corps, sauf que là, c'est inscrit dans le plausible, voire même, le probable, et ça fait flipper parce que réalistiquement, y'a rien qu'on puisse faire. C'est une course à l'armement qui nous précipite dans la gueule du loup de tous les loups, et y'a qu'un sursaut d'intelligence et de sagesse collégial qui pourrait nous sauver, et bon, on sait tous que ça n'arrivera pas.
Baisés.
Après, je cope en me disant que nos grands parents ont grandi sous la menace d'un conflit nucléaire imminent donc l'impression de fin du monde dans 15 jours n'a rien de nouveau. Mais combien de fois on peut danser avec le diable et s'en tirer par chance ?
Laurent Alexandre est dans plein de conférences business sur l'intérêt de l'IA et dans plein de médias, il est écouté, tu comprends, à la base c'est un médecin.
J'ai envie de dire, Raoult aussi...
Pour l'outil lui-même, oui, on est d'accord que ça reste un super moyen d'approcher de la complexité. Mais avec ce pré mâchage, on peut aussi perdre des choses comme le fait de faire plus d'erreurs donc le fait de mieux consolider et voir plus de cas inattendus.
Puis en ce moment je sais pas ce qu'il se passe mais certains modèles peuvent tourner en rond en passant à côté de l'évidence tout en te balançant des séries de suppositions qui n'ont vraiment rien à voir avec le sujet, et d'un jour à l'autre c'est pas le même. Des fois c'est copilot, des fois c'est chagpt, des fois gemini...
Pour l'apocalypse nucléaire je t'invite à te renseigner sur la "doomsday clock" si tu ne connais pas. Pour moi c'est un symbole du fait qu'on a quand même eu des esprits supérieurs qui ont donné de vrais avertissements, et quelque part ça a pas mal perfusé dans les combats et la politique de l'époque. Même si Kennedy a eu la crise des missiles de Cuba, il n'a pas réagi par plus de durcissement et de crispation et a oeuvré en faveur de la détente ensuite.
Le problème aujourd'hui, c'est que les scientifiques ont perdu de leur superbe et les plus médiatiques et audibles par le public sont des charlots comme les deux branques susmentionnés, au lieu de Einstein, Sagan et autres De Grasse Tyson, ou des vecteurs de culture comme Asimov, Clarke ou Kubrick, qui bien qu' artistes , avaient une forte culture scientifique et l'envie de faire les choses bien, en plus de véhiculer de bonnes valeurs.
Si on ajoute à ça des dirigeants qui sont plus du même calibre, c'est sûr qu'il y a pas les mêmes risques de dérapage
J'ai envie de dire, Raoult aussi...
Pour l'outil lui-même, oui, on est d'accord que ça reste un super moyen d'approcher de la complexité. Mais avec ce pré mâchage, on peut aussi perdre des choses comme le fait de faire plus d'erreurs donc le fait de mieux consolider et voir plus de cas inattendus.
Puis en ce moment je sais pas ce qu'il se passe mais certains modèles peuvent tourner en rond en passant à côté de l'évidence tout en te balançant des séries de suppositions qui n'ont vraiment rien à voir avec le sujet, et d'un jour à l'autre c'est pas le même. Des fois c'est copilot, des fois c'est chagpt, des fois gemini...
Pour l'apocalypse nucléaire je t'invite à te renseigner sur la "doomsday clock" si tu ne connais pas. Pour moi c'est un symbole du fait qu'on a quand même eu des esprits supérieurs qui ont donné de vrais avertissements, et quelque part ça a pas mal perfusé dans les combats et la politique de l'époque. Même si Kennedy a eu la crise des missiles de Cuba, il n'a pas réagi par plus de durcissement et de crispation et a oeuvré en faveur de la détente ensuite.
Le problème aujourd'hui, c'est que les scientifiques ont perdu de leur superbe et les plus médiatiques et audibles par le public sont des charlots comme les deux branques susmentionnés, au lieu de Einstein, Sagan et autres De Grasse Tyson, ou des vecteurs de culture comme Asimov, Clarke ou Kubrick, qui bien qu' artistes , avaient une forte culture scientifique et l'envie de faire les choses bien, en plus de véhiculer de bonnes valeurs.
Si on ajoute à ça des dirigeants qui sont plus du même calibre, c'est sûr qu'il y a pas les mêmes risques de dérapage