Enno Park
banner
ennopark.de
Enno Park
@ennopark.de
Früher mal Tech-Journalist. Heute berufsunfähig dank Covid-Infektion.
Sie ist immerhin Vorsitzende und spricht als solche für den Verein (oder sollte es tun).
November 26, 2025 at 1:40 PM
Ich soll den Newsletter "Ja" nennen? Ich glaube, dann kriege ich Ärger mit Rewe...
November 26, 2025 at 1:10 PM
>> Ergebnis denkbar, führte aber regelmäßig nicht zu befriedigenden Ergebnissen. Mehr zu Zufall und "Temperatur" hier: www.ibm.com/think/topics...

(Korr: Gelöscht und neu geschrieben, da versehentlich falschen Link reinkopiert)
What is LLM Temperature? | IBM
Temperature is a parameter for adjusting the output of LLMs. Temperature controls the randomness or creativity generated by LLMs during inference
www.ibm.com
November 26, 2025 at 12:39 PM
Zufall, der variable Antworten erzeugt, ist grundsätzlich fest in alle LLMs eingebaut. LLMs haben sogar einen Parameter, der sich "Temperatur" nennt. Über den kann eingestellt werden, wie viel Zufall das Endergebnis haben soll. Theoretisch wäre ein komplett unzufälliges (deterministisches) >>
November 26, 2025 at 12:35 PM
(Das ist jetzt nur ein Streit um Begriffe, aber Mustererkennung [meist mit Hilfe von neuronalen Netzen] ist doch sogar *die* klassische KI-Anwendung, die es schon viele Jahre länger gibt als LLMs in der heutigen Form.)
November 26, 2025 at 12:25 PM
Gibt doch einfach drei mal nacheinander den gleichen Prompt bei ChatGPT ein...
November 26, 2025 at 12:24 PM
Es ist ja immer eine Mischung aus Wissen, Raten und Logik-Puzzle. Manche finden das nervig, ich finde das reizvoll. Ich spiele noch jeden Tag parallel Wordle, aber das ist mir zu einfach geworden.
November 26, 2025 at 12:17 PM
Reposted by Enno Park
Der Fall einer Doktorandin, die letztes Jahre auf X rasend beschimpft wurde, war ein deutliches Zeichen dafür, wohin sich die Plattform entwickelt hatte. Hier habe ich darüber geschrieben.

uebermedien.de/101549/eine-...
"Höllenplattform": Warum man X nicht mehr nutzen kann | Kolumne
Konflikte und Gemeinheiten sind schon immer Teil öffentlicher Diskurse gewesen. Doch auf Elon Musks "X" nimmt die politische Aggression überhand.
uebermedien.de
November 26, 2025 at 11:15 AM
Ui, das ist eine extrem gute Frage, da muss ich erstmal drüber nachdenken...
November 26, 2025 at 12:01 PM
11/ die ja immer wieder betont, dass Mustererkennung zum Beispiel auf Röntgenbildern eine feine Sache ist, aber mit dem breiten Einsatz von LLMs Bauchschmerzen hat.

(Ende)
November 26, 2025 at 11:51 AM
10/ weil das LLM versucht zu entscheiden, was in die Zusammenfassung gehört und was nicht, und das halt nicht zuverlässig kann. Das ist prinzipbedingt, das geht auch nicht weg, wenn man das LLM größer macht. Ich glaube, entlang dieses Unterschiedes bewegt sich auch die "KI-Kritik",
November 26, 2025 at 11:50 AM
9/ Dasselbe gilt für viele andere berufliche Kontexte analog. Nicht einmal ein Task, für den LLMs scheinbar gebaut sind, kann sie zuverlässig erledigen, nämlich Texte zusammenfassen. Bei ein und demselben Text kommt immer eine (unperfekte) Zusammenfassung heraus,
November 26, 2025 at 11:50 AM
8/ (Dass das in der Praxis nicht funktioniert, liegt an der Messiness der Welt und der Interpretierbarkeit von Sachverhalten, nicht jedoch am Grundprinzip des juristischen Prüfschemas, das klaren Wenn-Dann-Regeln folgt.) Folglich sind LLMs völlig ungeeignet für solche Tätigkeiten.
November 26, 2025 at 11:49 AM
7/ Vor allem, wenn versucht wird, Entscheidungen an ein LLM zu delegieren. Ein Jurist, der streng wie erlernt seinem Prüfschema folgt, sollte eigentlich deterministisch sein und mit demselben Input immer zum gleichen Output gelangen.
November 26, 2025 at 11:49 AM
6/ und manchmal fehlt dieses Detail auch ganz. LLMs sind also ganz und gar ungeeignet, in kybernetischen Systemen zu funktionieren. Doch genau das wird immer wieder von ihnen erwartet, insbesondere, wenn sie in Unternehmen und Organisationen eingesetzt werden.
November 26, 2025 at 11:48 AM
5/ Und hier kommen LLMs ins Spiel. Sie sind nicht determiniert. Der gleiche Input führt zu immer wieder anderem Output. Der Output ist oft ähnlich, aber immer wieder anders. Mal wird "halluziniert", mal nicht. Mal enthält der Output in diesem Detail einen Fehler, mal in einem anderen Detail,
November 26, 2025 at 11:48 AM
4/ Ein selbstlenkendes Auto entscheidet ständig (und mit hoher Zuverlässigkeit) wie es lenken, beschleunigen und bremsen muss. Ein Entscheider eignet sich für ein kybernetisches System, wenn er determiniert ist, also ein bestimmter Input normalerweise immer zum gleichen Output führt.
November 26, 2025 at 11:47 AM
3/ von maschinellen Gerätschaften, von analoger Elektronik und natürlich von digitalen Systemen. Künstliche Intelligenz an sich passt da auch gut rein. Muster auf Röntgenbild erkannt ergibt (mit hoher Zuverlässigkeit) den Output, ob Krebs drauf zu sehen ist oder nicht.
November 26, 2025 at 11:46 AM
2/ Ein Messfühler gibt ein Signal, sobald eine Temperatur unterschritten wird, das die Heizung anwirft, und ein Stopp-Signal, sobald eine bestimmte Temperatur überschritten wird. Automatisierung ist voll von solchen "Entscheidern". Die Entscheidungen können von Menschen getroffen werden,
November 26, 2025 at 11:46 AM