Julien@Kindrobot
banner
kindrobot.bsky.social
Julien@Kindrobot
@kindrobot.bsky.social
490 followers 220 following 2K posts
Artificial intelligence Sharing facts, feedback, thoughts and sources. Latest article : Factuality in GenAI https://www.kindrobot.org/article/factuality-generative-artificial-intelligence-is-there-an-elephant-in-the-room/ Français / English / Svenska
Posts Media Videos Starter Packs
Pinned
Sinon, il s’y prendrait autrement.

Quand les gens réfléchissent, ils se posent des questions et risquent de les lui poser et c’est pas bien.

Laurent Alexandre, c’est l’ #ORTF de l’ #IA.

Comme il le dit si bien : il faut changer de logiciel.

/Fin
Merci. Je suis content que "mes" exemples soient réutilisés. C’est de l’open source. Tout le monde est le bienvenu. Servez-vous. Vraiment 🙏
Et puis étonnamment, c’est toujours les mêmes et toujours là où on les attend mais c’est pas nouveau.

Leur distance aux faits et leur appétence pour les falsifications est documentée depuis un petit moment.

www.theguardian.com/world/2025/f...
Far-right populists much more likely than the left to spread fake news – study
Amplifying misinformation is now part of radical right strategy, says Dutch study of tweets by MPs in 26 countries
www.theguardian.com
La "neutralité" de créer par défaut des taxis jaunes et des cabines téléphoniques rouges.

Et ça c'est juste un effet de bord parmi d'autres.
L'absence de factualité et d'avertissement ne peuvent être considérés comme neutre.

C'est un choix.

My two cents:
www.kindrobot.org/article/fact...
Factuality in generative artificial intelligence: is there an elephant in the room?
Two years ago, I wrote an article on biases and “fallback answers” in generative artificial intelligence. Back in time, I used simple examples like colors of taxis and phone booths to try to illustrat...
www.kindrobot.org
Constamment depuis 5 ans.

La critique est impossible.

Les outils sont parfaits et quand quelqu'un a le malheur de trouver un problème : c'est la mauvaise utilisation d'un hater.

Mais la rhétorique commence à se fissurer.
C'est le contraire en fait. Certaines personnes noient délibérément le poisson en mettant sur la table le terme vague d'IA ou d'algorithmes pour accuser ceux qui dénoncent les LLM d'être des anti-tout, des anti-IA et anti-progrès primaires.
Il donne pas son avis. Il donne l’avis de ChatGPT.
La nuance est importante.
On s'éloigne de la réalité.

À la fois sans forcément le savoir, si on est pas attentifs quand on utilise l'IA.
Mais aussi en pleine conscience.

Même résultat : du contenu synthétique qui envahit notre espace. Le doute qui s'installe, la défiance avec.

C'est irresponsable mais "l'IA la passionne".
Aussi, j’ai pas pu résister à l’idée de jouer avec leur chatbot.

J’ai même pas posé de question.

J’en reste là.
Partez devant, je vais vous ralentir.

#IA
Laisse l'IA gérer les sujets auxquels tu piges rien.
Exemple : le légal, ce nid à merde by design.

bsky.app/profile/kind...
"secures your legal documents (contracts, statutes, minutes, compliance...), without jargon and at a lower cost. "

Mais

"In case of use of AI functionalities to create or generate content (email, texts, etc.), the Customer remains solely responsible for the final content and its use."

Oui voilà.
Donc si t'es une quiche en légal, tu seras toujours une quiche même avec l'IA mais une quiche qui endosse la responsabilité du non sens potentiel généré par leurs "agents".

C'est pas brillant sur du basique facilement debunkable alors du légal : ne jouez pas si vous n'avez pas de compétences.
"secures your legal documents (contracts, statutes, minutes, compliance...), without jargon and at a lower cost. "

Mais

"In case of use of AI functionalities to create or generate content (email, texts, etc.), the Customer remains solely responsible for the final content and its use."

Oui voilà.
Ferry ou Alexandre : même combat.

La toutologie comme guide ultime des "débats" sur l' #IA en France.
Sinon, il s’y prendrait autrement.

Quand les gens réfléchissent, ils se posent des questions et risquent de les lui poser et c’est pas bien.

Laurent Alexandre, c’est l’ #ORTF de l’ #IA.

Comme il le dit si bien : il faut changer de logiciel.

/Fin
De "l’a peu près" qui nous éloigne des faits plus on va générer du contenu synthétique.

Quand la méfiance sera généralisée (ou la crédulité) et que la réalité sera minoritaire derrière nos écrans, le retour en arrière sera difficile voire impossible.
Le slop d'origine humaine, c'est leur fond commerce.
C'est la communication sur le slop des machines qui les contrarie.
L'opposition "humain faillible vs machine meilleure" ne marche plus.
Pour que ça marche, il faut vendre le technofuturisme comme une évolution positive flagrante.
Des oeillères.
En mars 2025, suite à la sortie de son livre sur l' #IA, Les Echos disaient ça : "Luc Ferry s'efforce à la simplification."
Il a pas beaucoup d'effort à faire.
Sa "compréhension" est en droite ligne avec les autres "spécialistes" français.
Il est avant tout, expert, de son ignorance et le documente.
Commente "enfer" sous ce post si tu veux maîtriser le nouvel algorithme avec ma méthode exclusive et 100% efficace.
Alors une IA à la sauce start up autosatisfaite d'elle même je pense que c'est clairement le dernier cercle de l'enfer
LinkedIn va utiliser à partir de lundi les données personnelles de ses utilisateurs pour entraîner son IA
ils auront pas à se soucier de combattre trop fort les messages trop biaisés : ça fait partie intégrante du projet.
Je vais essayer de voir si on peut en savoir un peu plus sur le moteur utilisé dans les coulisses ou si c’est "magic GPT" comme d’hab.
J’ai un peu lâché sur ce sujet mais je me rappelle que les identifications erronées explosaient quand la reconnaissance par IA ciblait des gens de couleur.
Et que ça marchait très mal pour les autres. Il faut que je me remette à la page.
"On" + une question basée sur une obligation basée elle même sur argument d’autorité : s’adapter à l’IA car "la sillicon valley le dit".

La France, ses médias et son "spécialiste" IA.

The gift that keeps on giving.
Laurent Alexandre, médecin et essayiste: "on n'a pas réfléchi à comment rendre nos enfants complémentaires à l'IA "(FranceInfo). Phrase effrayante. L'auteur a t'il réfléchi à la signification de cette phrase.Un humain complémentaire d'un système algorithmique, le condamnant à une aliénation totale!
Bravo ! Je vais lire ça à tête reposée. Belle mise en perspective très documentée.
Les joies d’envoyer ses sources dans un vortex sans aucune possibilité de contrôle.
Le chef leur a passé un savon assez mémorable :
– Arrêtez d'envoyer notre code propriétaire dans un outil comme ChatGPT.
– La doc, fournie JUSTE À CÔTÉ du code, on l'a pas écrite pour rien.
– …
Le fameux, j'ai envie de dire : notre champion. Celui à qui tous les médias tendent les micros et écoutent patiemment sans l'interrompre et risquer de le froisser.

Notre oracle depuis 5 ans. Parmi tous les spécialistes disponibles, "la France" a choisi son guide.

Si c'est pas du bol !