AlgorithmWatch
banner
algorithmwatch.org
AlgorithmWatch
@algorithmwatch.org
We ensure that the use of algorithms & AI benefits the many, not just the few!
🇪🇺 We’re the EU/German part
🇨🇭 For Switzerland: @algorithmwatchch.bsky.social
🌐 https://algorithmwatch.org/
Hast du dich schon mal gefragt: Was kostet KI den Planeten eigentlich? In diesem Video zeigen wir, was alles hinter einer KI steckt. Teile das Video, um die Kosten von #KI für Mensch und Natur sichtbarer zu machen! Mehr dazu: algorithmwatch.org/de/umweltkos...
November 14, 2025 at 10:40 AM
Immer mehr #KI erfordern mehr #Rechenzentren (RZ). Das Problem? RZ benötigen viel Strom, und wenn der hauptsächlich aus fossilen Energiequellen stammt, stellen mehr RZ eine Gefahr für die #Energiewende und Klimaziele dar.
Wir klären hier darüber auf: algorithmwatch.org/de/explainer...
November 12, 2025 at 4:05 PM
AI-generated text often has a certain je-ne-sais-quoi of monotony and blandness, whatever model is used. In the upcoming #AutomatedSociety newsletter, we show that measuring this phenomenon is much more complex than it sounds.

On Friday, in your inbox 📬 automatedsociety.algorithmwatch.org#/en
November 12, 2025 at 11:16 AM
Wenn du dich schon immer gefragt hast, wie es um den ökologischen Fußabdruck von #KI steht, bist du in der neuen Ausgabe unseres Newsletters „Der Algorithmus und Ich“ genau richtig. Jetzt anmelden, die kommende Ausgabe kommt am 13. November (Do.): algorithmwatch.org/de/der-algor...
November 10, 2025 at 7:31 AM
AI could transform women’s health – or reinforce its inequalities. To prevent AI from delaying care instead of improving it, we need more diverse data, stronger research, and clear rules for the use of algorithms.

👉 Read the whole article: algorithmwatch.org/en/when-will...
November 6, 2025 at 7:04 AM
Non-consensual Sexualization Tools (NSTs) sind Apps und Webseiten, die sexualisierende Deepfakes von echten Menschen erzeugen – ohne ihre Zustimmung.

Melde solche Apps, Webseiten oder Accounts! Dein Hinweis hilft, diese Tools zu stoppen: algorithmwatch.org/de/lasst-uns...
November 4, 2025 at 7:08 AM
Google rolled out AI Overviews earlier this year. Many users now see AI-generated summaries above traditional search results. This doesn’t just risk spreading unreliable answers, it could also divert traffic away from independent media and threaten media pluralism: algorithmwatch.org/en/google-ai...
October 30, 2025 at 8:40 AM
Der Einsatz von #KI führt zu einem sprunghaften Anstieg des Strombedarfs von Rechenzentren. Ein höherer #Energieverbrauch könnte höhere Kosten bedeuten. Und wer bezahlt die Rechnung?

💶 83 % der Europäer*innen sagen, dass #Rechenzentren mehr bezahlen sollten: algorithmwatch.org/de/mehrheit-...
October 29, 2025 at 11:01 AM
Two months ago, an #AIslop farm passing as an online magazine stole the identity of our lead reporter and began publishing AI-generated articles under his name. He was not alone: at least 8 other journalists and influencers were falsely presented as writing for that outlet.
October 28, 2025 at 9:46 AM
Die Bundesregierung erweckt den Eindruck, dass sie beim Bau von Rechenzentren nur drei Kriterien anlegt: größer, schneller und immer mehr davon. Das sieht die Mehrheit der Menschen in Deutschland anders. Sie wünschen sich klare, umweltfreundliche Rahmenbedingungen für den Ausbau von Rechenzentren.
October 27, 2025 at 2:45 PM
Trotzdem will die Bundesregierung KI in Deutschland weiter ausbauen und dafür auch die Ansiedlung neuer Rechenzentren in Deutschland fördern.
October 27, 2025 at 2:45 PM
Insbesondere große, generative KI-Modelle wie #ChatGPT treiben den Ressourcenverbrauch massiv in die Höhe – sowohl bei ihrer Entwicklung als auch im laufenden Betrieb.

In Frankfurt sind Rechenzentren laut Öko-Institut (2025) bereits für 41 % des gesamten lokalen Stromverbrauchs verantwortlich.
October 27, 2025 at 2:45 PM
Eine repräsentative Umfrage zeigt: Die Menschen in #Deutschland machen sich Sorgen über den Strom- und Wasserverbrauch von #Rechenzentren – und fordern saubere Energie und mehr Transparenz.

💡 Alle Ergebnisse und unsere Schlussfolgerungen: algorithmwatch.org/de/mehrheit-...
October 27, 2025 at 2:45 PM
Job Opening: Wir suchen eine*n Redakteur*in für das Berliner Büro!

Kurzinfos:
⌛ 30–40 Stunden pro Woche
🗓️ Start: so bald wie möglich
⏱️ Bewerbungsfrist: Montag, 10.11.2025, 12:00 Uhr
📍 Arbeitsort: Berlin

Vollständige Stellenausschreibung: algorithmwatch.org/de/job-openi...
October 21, 2025 at 1:13 PM
Unten ein Bericht von @netzpolitik.org zu unserer gemeinsamen – @amnesty.de, @freiheitsrechte.org, @ccc.de, Ulrich Kelber und @algorithmwatch.org – Pressekonferenz zu unserer Kritik an den Plänen der Regierung zur biometrischen Überwachung. Das Gutachten gibt's 👉: algorithmwatch.org/de/gutachten...
October 15, 2025 at 2:49 PM
Remote biometric identification #RBI is on the march in Europe. Its proponents argue that it helps find criminals (the evidence is weak) and claim that biometrics originated in investigative police work in fin-de-siècle Paris and London. While this is true, it's far from the whole story.
October 15, 2025 at 10:37 AM
Du wolltest uns schon immer mal sagen, welche Themen rund um KI und Algorithmen du super spannend findest? Du hast Ideen, in welchen Formaten wir diese Themen am besten rüberbringen können?

Hilf uns zu verstehen, was dich bewegt – in nur 5–10 Minuten: algorithmwatch.org/de/community...
October 14, 2025 at 6:11 AM
Generative KI-Modelle wie GPT können bei der Bewertung von Bewerbungen diskriminierende Muster reproduzieren. Namen, die Assoziationen mit einer „anderen“ ethnischen Herkunft wecken, haben systematisch schlechter abgeschnitten: www.bloomberg.com/graphics/202...
October 9, 2025 at 6:12 AM
#Discrimination through #AI in recruitment is a lose-lose scenario that cannot be solved on a technical level alone. In our toolkit for policymakers, we show what can be done to reduce #AlgorithmicDiscrimination in #AlgorithmicHiring.
➡️ findhr.eu/toolkit/poli...
October 6, 2025 at 5:58 AM
“Hey AI, send Jane Doe a Signal message!” Not a particularly good idea – and part of a paradigm shift currently taking place through Agentic AI, as @meredithmeredith.bsky.social told us.
October 4, 2025 at 8:44 AM
If Python isn't a snake to you and Java isn't an Indonesian island, then pay attention!

The use of AI-based software for personnel recruitment carries the risk of #discrimination. As part of #FINDHR, we have developed concrete recommendations for developers: findhr.eu/toolkit/deve...
October 1, 2025 at 11:48 AM
Last month, a group of French MPs published a lengthy report on #TikTok’s impact on the mental health of the country’s youth. Despite the wealth of material collected, the report bends facts to declare TikTok a “poison” that is sole responsible for driving teenage girls to self-harm and depression.
October 1, 2025 at 5:58 AM
Do you work in HR and want to prevent #discrimination through #AI hiring tools? Your contribution is key!

Our FINDHR-Toolkit for HR professionals offers insights on discrimination risks, legal frameworks, and what action you can take to counter #AlgorithmicDiscrimination: findhr.eu/toolkit/hr-p...
September 29, 2025 at 11:48 AM
Sicherheitspaket, biometrische Fernidentifizierung und Massenüberwachung – du hast das alles schon mal gehört, aber nur eine vage Vorstellung davon, was es bedeutet? Wir möchten dir erklären, wie wichtig das Thema für unsere Gesellschaft ist.

Wann: 09.10.2025 | 10:00 – 11:00 Uhr
Wo: Online
September 25, 2025 at 6:14 AM
TOMORROW 6:30 PM (CET) exclusive talk with @meredithmeredith.bsky.social, President of the Signal Foundation, on reclaiming privacy in the age of AI.
Newsletter subscribers can join the livestream: algorithmwatch.org/en/exclusive...
September 24, 2025 at 6:18 AM