Andreas Proschofsky
banner
sukahiroaki.bsky.social
Andreas Proschofsky
@sukahiroaki.bsky.social
Ressortleiter Stv. https://derStandard.at/Web / Journalist / Writing a lot about Linux, Android and IT Security. Also available on Mastodon https://chaos.social/@suka_hiroaki
This is not Gemini 3, AI Overviews use weaker and older models (mostly for speed reasons)
November 22, 2025 at 5:38 PM
"Aber Chatgpt hat gesagt..."
November 21, 2025 at 9:53 PM
Weil der/die kann ja dahinter Clients nutzen, wie er / sie will, die allerlei Extragefahren für MEINE Daten bringen. Sagen wir zb aktuell: Irgendwer verwendet zwar Proton aber halt in ChatGPT Atlas.
November 21, 2025 at 8:55 PM
Auch bei denen gibt es diese Optionen. Aber im Endeffekt sind wir dann irgendwann bei einer viel größeren Frage: Was kommuniziere ich via Mail und wie kann ich überhaupt dem Gegenüber vertrauen?
November 21, 2025 at 8:53 PM
Vor allem aber: Es hat sich halt aktuell genau gar nichts geändert, und wenn jetzt einer und eine nach dem anderen ohne Faktencheck das aufgeregt weitererzählt, dann ärgert mich das schlicht aus ganz grundlegenden Gründen. Und darum werf ich das mal hier hin. Ende. 18/
November 21, 2025 at 8:44 PM
Weil genau das habt ihr alle: ihr habt irgendwann diesen Dialog gelesen und diese Option aktiv gewählt. Man kann sich natürlich wieder umentscheiden, klar, aber so tun als wäre das nie passiert, ist halt eine auf Basis der Fakten "schwierige" Argumentation. 17/
November 21, 2025 at 8:44 PM
Also nicht abdrehen? Nein! Wenn ihr euch unwohl fühlt mit smarten Features, all dem KI-Zeug, dann nutzt es nicht! Das ist eine vollkommen valide Entscheidung. Insofern kann das Ganze ein guter Reminder sein für Leute, die bisher offenbar nicht gelesen haben, wo sie zustimmen / was sie aktivieren 16/
November 21, 2025 at 8:44 PM
Wenn ich jetzt Postings von Leuten sehe, die sich drüber aufregen, dass sie das abdrehen und dann gewisse Dinge nicht mehr gehen, hab ich ein starkes Kopf > Tischplatte-Bedürfnis 15/
November 21, 2025 at 8:44 PM
Was bleibt ist die gleiche Erkenntnis, wie seit Jahren: Wer nicht will, dass die eigenen Daten für smarte Features genutzt werden, sollte sie nicht nutzen. Ernsthaft, wie habt ihr geglaubt, dass das funktioniert? 14/
November 21, 2025 at 8:44 PM
Allein an der Stelle hätte schon wem auffallen können, dass das jetzt keine aktuelle, irgendwie geheime und skandalöse Änderung sein kann. Aber zeigt auch wieder: Niemand liest irgendwas vorm Weiterverbreiten, wenns ins eigene Narrativ passt. 13/
November 21, 2025 at 8:44 PM
Was an dem vir Tweet besonders weird ist: er verwendet sehr alte Screenshots. Dass niemandem aufgefallen ist, dass von "Bard" die Rede ist, also ein Tool, dass vor mehreren Jahren durch Gemini ersetzt wurde, ist schon bissl dings. Alleine da hätte schon auffallen können, dass das nicht neu ist 12/
November 21, 2025 at 8:44 PM
Für zahlende Kunden wird LLM-Training hingegen explizit ausgeschlossen. Dass die Passage erlauben würde, einfach ALLE Mails für KI-Training zu verwenden, erscheint mir zumindest eine gewagte Auslegung, könnte mir auch nicht vorstellen dass das legal wäre, aber wie gesagt: IANAL. 11/
November 21, 2025 at 8:44 PM
Die Frage inwiefern für Gratis-User die eigenen Interaktionen mit Gemini in Gmail auch darunter zählen (also für dessen Training) benutzt werden, kann ich nicht beurteilen, würde mich aber nicht wundern, ist schließlich bei allen kostenlosen Chatbots so. 10/
November 21, 2025 at 8:44 PM
Dabei geht es um konkrete Features, und dass man diese mitverbessert, wenn man sie aktiv nutzt. Also etwa Rechtschreibprüfung, Smart Compose (was btw auch KI-Features sind, schon ewig) etc. 9/
November 21, 2025 at 8:44 PM
Beleg für die Behauptung sind Screenshots aus den Nutzungsbedingungen, die er entsprechend auslegt und so präsentiert als wäre das ein aktueller Skandal. Bin kein Anwalt für mich lässt sich die (seit Jahren gleiche) Passage auch umgekehrt auslegen 8/
support.google.com/mail/answer/...
Learn how Gemini in Gmail, Calendar, Chat, Docs, Drive, Sheets, Slides, Meet & Vids protects your data - Gmail Help
Across Google and Workspace, we’ve long shared robust privacy commitments that outline how we protect user data and prioritize privacy. Generative AI doesn’t change these commitments — it actually
support.google.com
November 21, 2025 at 8:44 PM
Warum dann jetzt die Aufregung: So weit ich das sehe, hat irgendein Youtuber erregt auf X was gepostet, das viral gegangen ist. Darin behauptet er aus dem (seit Jahren gleichen) Eintrag, dass das jetzt ungefragt aktiviert wird und dass man damit zustimmt, KI zu trainieren 7/
November 21, 2025 at 8:44 PM