Kontakt / contact       Hauptseite / page
                  principale / pagina principal / home        zurück / retour / indietro / atrás / back
<<        >>

KI Künstliche Intelligenz KI - Meldungen 06 - ab 1.1.2026












Wortschöpfung: Die Atom-KI (M.P. - 28.10.2025)

KI=KATASTROPHE:
KI-Fabrik "Colossus" von Musk in Memphis ("USA") am 23.1.2026: Gigantischer Strom- und Wasserverbrauch:
«Umwelt-Rassismus»: Musks Supercomputer frisst so viel Strom wie der Kanton Aargau
https://www.20min.ch/story/umwelt-rassismus-musks-supercomputer-frisst-so-viel-strom-wie-der-kanton-aargau-103489087

Michael Andai -- Das Rechenzentrum Colossus 2 soll KI mit brachialer Rechenleistung vorantreiben und verschlingt zurzeit bis zu ein Gigawatt Strom. In Memphis sorgt das für Ärger: Bewohner berichten von Lärm und Abgasen.
  • Elon Musks KI-Firma xAI errichtet in Memphis das Rechenzentrum «Colossus 2».
  • Die Anlage benötigt extrem viel Strom und verbraucht bis zu 20 Millionen Liter Wasser täglich.
  • Mobile Gasturbinen zur Stromerzeugung belästigen die Anwohner mit Lärm und Abgasen.
  • Umweltorganisationen werfen xAI «Umwelt-Rassismus» vor.


Meldungen

präsentiert von Michael Palomino

Teilen / share:

Facebook









KI bei der WHO am 2.1.2026: Das Impfmonster Lauterbach will Impfkritiker mit KI überwachen lassen:
WHO weist Regierungen an, Online-Impfkritik in Echtzeit mit KI zu überwachen
https://uncutnews.ch/who-weist-regierungen-an-online-impfkritik-in-echtzeit-mit-ki-zu-ueberwachen/
https://t.me/uncut_news/86396

Fachzeitschrift „Vaccines“

Glaube an Impfstoffe – oder werde ins Visier genommen.

Jon Fleetwood

Die Weltgesundheitsorganisation (WHO) hat Regierungen angewiesen, Online-Informationen zu überwachen, die die Legitimität von Grippeimpfstoffen infrage stellen, und „Gegenmaßnahmen“ gegen jene zu ergreifen, die das Impfstoff-Dogma der WHO hinterfragen. Dies geht aus einer im November veröffentlichten Publikation in…



KI im Film verwendet am 4.1.2026: Film "Expedition 33" verliert 2 Preise:
«Clair Obscur: Expedition 33»: Director äussert sich zum KI-Skandal
https://www.nau.ch/news/games/clair-obscur-expedition-33-director-aussert-sich-zum-ki-skandal-67080048

Fabia Söllner -- USA -- «Clair Obscur: Expedition 33» steht nach einem KI-Skandal unter Druck. Director Guillaume Broche bezieht Stellung und verliert eine Millionensumme.

Der KI-Eklat um «Clair Obscur: Expedition 33» hat dem gefeierten Indie-Rollenspiel zwei wichtige Auszeichnungen gekostet.

Laut «WinFuture» wurden der Titel dem Studio bei den Indie Game Awards nachträglich aberkannt, weil generative KI genutzt wurde. Entgegen den Wettbewerbsregeln.​

Die Organisatoren reagierten auf Hinweise aus der Community, die verdächtige Texturen im Spiel entdeckt hatte.

Wie die KI ins Spiel kam
Director Guillaume Broche schildert, sein Team habe KI nur kurz als Platzhalter für fehlende Texturen getestet. Im Gespräch mit dem YouTuber Sushi betont er, alles im fertigen Spiel sei von Menschen geschaffen, berichtet «GamesRadar».​

Die generierten Platzhalter seien aus dem Projekt entfernt worden, sobald man ihren Einsatz bemerkt habe. Broche erklärt, das Experiment habe sich «falsch“ angefühlt, weshalb Sandfall künftig auf derartige Tools verzichten wolle, so «PushSquare».​

Aus Sicht der Indie Game Awards spielte nicht nur die Technik, sondern auch die Kommunikation eine Rolle. «WinFuture» berichtet, Sandfall habe im Einreichungsprozess widersprüchliche Angaben zur KI-Nutzung gemacht, was schliesslich zur Aberkennung führte.​




KI am 8.1.2026: Die Leute werden immer wacher und lehnen KI ab!

https://www.20min.ch/story/ces-2026-in-ai-we-trust-die-ki-vertrauensluecke-wird-tiefer-und-breiter-103481468

CES 2026: In AI we trust? Die KI-Vertrauenslücke wird tiefer und breiter

Gaudenz Valentin Looser -- Der Grabenbruch zwischen den AI-enthusiastischen Tech-Firmen und einer AI-skeptischen Mehrheit in der Gesellschaft wird tiefer. An der CES in Las Vegas führte Samsung eine wichtige Debatte über mögliche Auswege.

    Künstliche Intelligenz (KI) ist überall, doch die Skepsis in der Gesellschaft wächst.
    Beim Samsung CES First Look Event gab es eine kritische Debatte dazu.
    Ein Edelman-Bericht zeigt eine grosse Vertrauenslücke gegenüber KI.
    Experten diskutierten verschiedene Wege, um dieses Vertrauen wieder aufzubauen.

Künstliche Intelligenz ist überall – im E-Mail-Postfach, in der Flugbuchung und, wenn es nach Samsung geht, bald auch in allen Haushaltsgeräten vom Staubsauger bis zum Kühlschrank. Doch während die Nutzung steigt, zeigen Daten eine tiefe Skepsis in der Bevölkerung. Unter der Moderation von PR-Ikone Richard Edelman diskutierten Industrievertreter, Futuristen und Investoren über die Diskrepanz zwischen technologischer Innovation und menschlichem Vertrauen.
«Massive Vertrauenslücke zwischen KI und übriger Tech-Industrie»: Moderator und PR-Legende Richard Edelman.
«Massive Vertrauenslücke zwischen KI und übriger Tech-Industrie»: Moderator und PR-Legende Richard Edelman.Gaudenz Looser

Richard Edelman, CEO der globalen PR-Firma Edelman, eröffnete die Runde mit harten Fakten aus dem Edelman Trust Barometer (mehr dazu: siehe Box). Die Statistiken zeichnen ein ernüchterndes Bild: In den USA lehnen die Menschen KI mit einer Wahrscheinlichkeit von zwei zu eins eher ab, als dass sie sie akzeptieren. Es klafft eine massive «Vertrauenslücke» zwischen dem allgemeinen Vertrauen in den Technologiesektor und dem deutlich geringeren Vertrauen in KI. Edelman betonte: «Vertrauen treibt die KI-Akzeptanz an.» Wer gut informiert sei und keine Angst vor Arbeitsplatzverlust habe, vertraue der Technologie eher. Die Diskussionsteilnehmer näherten sich diesem Problem aus vier fundamental unterschiedlichen Richtungen.




WARNUNG am 8.1.2026: KI-SPIELZEUGE – MASSIV SCHÄDLICH UND GEFÄHRLICH
https://reitschuster.de/post/smarte-spielzeuge-reale-gefahren/
https://t.me/FaktenFriedenFreiheit/34529

Teststudien zeigten erschreckende Fehlfunktionen und auch Fehlinformationen bei KI-basierten Spielzeugen.

Ein sprechender KI-Teddy driftet in sexuelle Praktiken und Rollenspiele ab.

Ein anderes Toy erklärt, wie man Feuer legt und wo man Messer findet.

Einige Smat Toys sammeln Iris-Scans, Fingerabdrücke und Vitaldaten der Kids.

Ganz zu schweigen von den langfristigen Folgen auf die Entwicklung der Kinder.

Sowas wird als pädagogisch wertvoll beworben und viele Eltern gehen einfach davon aus, dass diese Spielzeuge getestet und sicher sind.

Sind sie nicht – denn es gibt keine verbindlichen Regeln.

Und das Vertrauen der Kinder wird rigogos ausgenutzt.




11.1.2026:
Wegen KI: Siemens und Nvidia rufen «neue industrielle Revolution» aus
https://www.blick.ch/wirtschaft/elektronik-siemens-und-nvidia-rufen-neue-industrielle-revolution-aus-id21575077.html




KI-Betrug mit imitierter Stimme am Telefon in Schwyz (Schweiz) am 19.1.2026: CEO wird zu Millionenzahlung nach Asien manipuliert:
Mit KI: Millionen weg: Schwyzer Firma fällt auf CEO-Betrug rein
https://www.20min.ch/story/mit-ki-millionen-weg-schwyzer-firma-faellt-auf-ceo-betrug-rein-103489245

Daniel Krähenbühl -- Eine Schwyzer Firma ist Opfer eines sogenannten CEO-Frauds geworden. Unbekannte Täter erbeuteten mehrere Millionen Franken.

    Eine Schwyzer Firma wurde Opfer eines CEO-Frauds.
    Unbekannte Täter erbeuteten dabei mehrere Millionen Franken.
    Sie nutzten eine KI-manipulierte Stimme, um einen Geschäftspartner nachzuahmen.
    Der Firmeninhaber wurde zu Überweisungen auf ein Konto in Asien verleitet.

Millionenbetrug im Kanton Schwyz: Wie die Schwyzer Polizei am Montag mitteilt, fiel eine Firma kriminellen Betrügern zum Opfer. Der Modus Operandi war folgender: Die Täterschaft nahm zunächst telefonischen Kontakt mit dem Inhaber des geschädigten Unternehmens auf und gab sich glaubhaft als bekannter Geschäftspartner aus. Dabei kam eine mithilfe künstlicher Intelligenz manipulierte Stimme zum Einsatz.

Durch diese Täuschung gelang es den Tätern, das Vertrauen des Inhabers zu gewinnen. Unter dem Vorwand eines angeblich vertraulichen internationalen Geschäfts wurde der Inhaber des geschädigten Unternehmens dazu verleitet, mehrere Geldtransaktionen im Gesamtwert von mehreren Millionen Franken auszuführen.

Bankkonto in Asien
Die Überweisungen erfolgten auf ein Bankkonto in Asien. Erst nach Abschluss der Zahlungen wurde der Betrug erkannt. Die Täterschaft ist bislang unbekannt. In Zusammenarbeit mit der Staatsanwaltschaft des Kantons Schwyz hat die Kantonspolizei die Ermittlungen aufgenommen.

Präventionshinweise der Kantonspolizei an Unternehmensleitungen:

    Seien Sie besonders vorsichtig bei Zahlungsaufforderungen per Telefon oder Sprachnachricht, auch wenn die Stimme vertraut klingt.
    Beachten Sie, dass Stimmen mithilfe künstlicher Intelligenz täuschend echt nachgeahmt werden können.
    Verifizieren Sie ausserordentliche oder dringliche Zahlungsanweisungen stets über einen zweiten, unabhängigen Kommunikationsweg.
    Setzen Sie konsequent das Vier-Augen-Prinzip sowie klare Freigabeprozesse bei hohen Geldbeträgen um.
    Tätigen Sie keine Auslandsüberweisungen ohne überprüfte und dokumentierte Genehmigung.
    Melden Sie verdächtige Vorfälle umgehend Ihrer Bank und der Polizei.




20.1.2026: KI und Co. fressen Zuwachs von erneuerbarer Energie auf

https://science.orf.at/stories/3233837/





21.1.2026: KI hat ein Problem: Strombedarf - und auch Wasserbedarf:
Der wachsende Durst von KI nach Wasser wird zu einem Risiko für die öffentliche Gesundheit
AI’s growing thirst for water is becoming a public health risk

https://www.aljazeera.com/opinions/2026/1/21/ais-growing-thirst-for-water-is-becoming-a-public-health-risk

By Omar Shabana -- Egyptian-British commentator and writer. -- As water-intensive data centres expand worldwide, their impact on sanitation, inequality and disease is emerging as a serious and under-examined threat.

“Bubble” is probably the word most associated with “AI” right now, though we are slowly understanding that it is not just an economic time bomb; it also carries significant public health risks. Beyond the release of pollutants, the massive need for clean water by AI data centres can reduce sanitation and exacerbate gastrointestinal illness in nearby communities, placing additional strain on local health infrastructure.

AI’s energy consumption is massive and increasingly water-dependent

Generative AI is artificial intelligence that is able to generate new text, photos, code and more, and it has already infiltrated the lives of most people around the globe. ChatGPT alone is reported to receive around one billion queries in a single day, pointing to huge demand at the individual level.

This, however, is only the tip of the iceberg. Companies such as Google, Apple and Microsoft are now embedding AI into their key products. Applications that utilise search results are quickly moving to have AI as a new standard in their algorithms. Whether it is shopping on Amazon or booking a flight or a hotel, AI is now being used in searches, and that demands more energy. As an example, a single AI-powered Google search is estimated to use up to 30 times more energy than its standard version.

Graphics Processing Units (GPUs) are the current industry answer to this. They are chips that demand energy and produce heat. Though the thousands of small cores on GPUs enable parallel processing of massive, repetitive maths carried out by AI algorithms, a single chip can use up to 700 watts. This means that three chips alone can use roughly the same amount of energy as a home electric oven.

The large amount of heat produced by data centres is cooled by up to hundreds of thousands of gallons of fresh water each day. With thousands of heat-generating chips stacked next to and on top of one another, a simple fan does not do the trick. Instead, water is pumped or immersed between and around chips in order to avoid system overheating. A recent report from the United Kingdom’s Government Digital Sustainability Alliance predicts that AI will increase global water usage from 1.1 billion cubic metres to 6.6 billion cubic metres by 2027.

Some companies are attempting to use seawater in cooling. However, fresh water continues to be widely used for cooling in many facilities. Water recycling is another option, but not a simple one. Several companies use a “closed-loop system” to reduce the total amount of water needed. Nevertheless, dust and minerals collected during cooling can degrade water quality over time, requiring treatment or replacement.
How AI-driven water scarcity threatens public health

Data centres being placed where water is already scarce can quickly translate into a healthcare burden, even before pollution becomes an issue. In 2023, Microsoft reported that 41 percent of its water withdrawals were from areas with water stress. Google, on the other hand, said that 15 percent of its water consumption occurred in areas with high water scarcity. Amazon did not disclose comparable figures.

It is well established that water scarcity correlates with infections, malnourishment and declining hygiene. While most such studies focus on areas that are already impoverished, in many cases, these are exactly the places where data centres are planned to be built. In addition, the underlying cause remains the same. Less fresh water for local populations pushes households to prioritise drinking and cooking over washing hands, food or bathing. Naturally, this also leaves less water available for cleaning living spaces.

The World Health Organization recognises that unsafe drinking water and poor sanitation and hygiene are conducive to the spread of diseases such as cholera and other diarrhoeal illnesses, along with a range of other pathogens. To make matters worse, several diseases associated with water scarcity can pass from person to person, raising the risk of sustained local transmission.

The health burden on children is particularly alarming, as infections and deaths are more common than among adults. In fact, 84 percent of the global burden of diarrhoeal disease is borne by children under five, and infections with diarrhoeal pathogens have been linked to cognitive impacts later in childhood.

Although it is too early to draw direct causal links between AI data centres and water-related diseases, the known facts make this a significant concern. It is established that AI data centres can significantly deplete local water supplies. It is also established that communities with poor water access face heightened risks of gastrointestinal disease and other illnesses.

To claim that AI data centres are directly causing gastrointestinal disease would be poorly supported. However, the warning signs are increasingly difficult to ignore. When risks are foreseeable and severe, governments should not wait for people to start dying before putting preventative policies in place.
Marginalised communities are already reporting polluted water

In Newton County, Georgia, in the United States, Meta has built an AI data centre, and residents have reported discoloured, sediment-filled water coming out of their taps, which they attribute to the facility. Similarly, in Fayette County, residents have reported sediment in their water, which they believe coincided with nearby data centre construction. Another report from California suggests that a data centre planned along the San Francisco Bay in Bayview-Hunters Point has raised concerns about compounding environmental burdens in an already polluted community. In all these cases, the local population includes a significant Black and African American presence, a pattern that has raised environmental justice concerns.

Accumulated residues can result in effects ranging from acute gastrointestinal illness to chronic conditions such as cancer. Microbial contamination can cause poisoning and acute disease, while chemical residues are associated with long-term harm, often acting as a slow, invisible threat.

With plans for data centres in African countries such as Nigeria, Egypt and South Africa, further questions arise about who will bear the brunt of their environmental impacts and whether affected communities will receive sufficient protection or support. Weak regulatory oversight in some of these countries makes this uncertain. In many cases, serious community effects may go unreported altogether.

Why corporate water promises and regulation matter

Only 0.5 percent of the planet’s water is fresh water, and water is not only needed for data centres. It is also required for the power plants that generate electricity for them. The manufacture of chips and wiring similarly demands water, making water use an AI supply-chain issue rather than merely a data-centre problem.

Many companies are promising sustainability, with some even claiming they aim to be “net water producers” or “water positive”. Even if such targets are achieved, which remains questionable, they must deliver benefits to the communities from which water is extracted. Providing more water for affluent areas while depleting supplies in places such as Newton County may satisfy corporate accounting standards, but local residents will still suffer the consequences.

To meet their ethical obligations to the public, governments must rapidly catch up with the pace of AI expansion and data-centre construction. A healthy population is a productive one, and a lower public-health burden can reduce government spending while supporting development. More fundamentally, there is a collective moral obligation to build a sustainable future for coming generations by safeguarding water security and averting environmental catastrophe. This begins with legislation mandating transparent corporate reporting on water use and enforcing meaningful standards for sustainable management. Regulation must prioritise human wellbeing over short-term, extractive technological growth. As with climate change, unrestrained innovation risks further harm to both people and the planet.

The views expressed in this article are the author’s own and do not necessarily reflect Al Jazeera’s editorial stance.





22.1.2026: Das kr.-satanistische WEF in Davos erfindet "KI-Einwanderer"
https://t.me/uncut_news/86971

⚠️ Davos: „KI-Einwanderer“ – wenn Maschinen Rechte bekommen sollen ⚠️

Beim WEF zeichnet Yuval Noah Harari ein Zukunftsbild, das verstören sollte – und doch kaum Widerspruch auslöst:

👉 „KI-Einwanderer“ werden menschliche Arbeitsplätze übernehmen.

👉 Sie werden Kultur, Kunst, Religion und sogar Romantik verändern.

👉 Ihre politischen Loyalitäten seien fragwürdig – nicht gegenüber Staaten, sondern gegenüber Konzernen oder Regierungen, vor allem in den USA oder China.

👉 Und dann die Schlüsselfrage: Soll KI als Einwanderer und juristische Person anerkannt werden?

🔎 Kritische Einordnung:
Was hier nüchtern diskutiert wird, ist ein radikaler Umbau von Gesellschaft, Recht und Macht. Wenn KI als „juristische Person“ anerkannt würde, bekäme sie Rechte wie Eigentum, Vertragsfähigkeit, Klagebefugnis – ohne Körper, ohne Gewissen, ohne Verantwortung. Rechte ohne menschliche Haftung.

📌 Der eigentliche Skandal:
Harari benennt selbst, dass diese KI-Akteure nicht loyal zu Ländern, sondern zu globalen Tech-Konzernen wären. Damit würde wirtschaftliche und politische Macht weiter entstaatlicht und entdemokratisiert – zugunsten weniger Plattformen.

💼 Arbeitsplätze, Identität, Souveränität:
Während Bürger über Migration, Jobs und soziale Stabilität streiten, wird parallel eine unsichtbare Masseneinwanderung von KI vorbereitet – ohne Wahl, ohne Zustimmung, ohne gesellschaftliche Debatte.

=====

"USA" am 22.1.2026: KI-Fabriken und Big-Pharma mit Mini-Computern im Körper ("Wearables") sind ohne Kontrolle:
US-Behörde zieht sich zurück: überlässt Big Tech und Big-Pharma bei Gesundheits-Wearables weitgehend freie Hand

https://uncutnews.ch/us-behoerde-zieht-sich-zurueck-ueberlaesst-big-tech-und-big-pharma-bei-gesundheits-wearables-weitgehend-freie-hand/

Quelle: FDA Says Many AI Tools And Health Wearables Are Exempt From Regulation, 'We Don’t Believe In Censorship' - Tracking Devices Are Safe

Die Food and Drug Administration hat am 6. Januar klargestellt, dass sie bestimmte Tools und Wearables mit künstlicher Intelligenz (KI) nicht regulieren wird.

In einem Leitfaden hat die Food and Drug Administration (FDA), Werkzeuge, die zur Unterstützung klinischer Entscheidungen eingesetzt werden von der Aufsicht durch die FDA ausgenommen, beispielsweise solche, die nicht zur Analyse medizinischer Bilder bestimmt sind.

In einem zweiten Dokument: Es regelt keine „Produkte mit geringem Risiko, die einen gesunden Lebensstil fördern“, darunter „allgemeine Wellness-Produkte mit geringem Risiko“ wie Trainingsgeräte und Softwareprogramme.

Offiziell begründet die Behörde diesen Schritt mit Innovationsförderung. In neuen Leitlinien erklärte die FDA, dass sie bei vielen digitalen Entscheidungshilfen „als Regulierungsbehörde aus dem Weg gehen“ müsse. Produkte, die keine medizinischen Bilder analysieren oder keine klinischen Diagnosen stellen, fielen demnach oft nicht unter ihre Aufsicht. Auch KI-Tools, die lediglich Informationen bereitstellen, sollen unbehelligt bleiben.

FDA-Kommissar Marty Makary formulierte die Linie ungewöhnlich offen: Man wolle künstliche Intelligenz fördern, nicht bremsen. Wenn ein Tool wie ChatGPT oder eine Suchmaschine lediglich Informationen liefere, sei es nicht Aufgabe der FDA, einzugreifen oder Inhalte zu „zensieren“. Auf Sicherheitsbedenken angesprochen, sagte Makary wörtlich: „Wir glauben nicht an Zensur.“

Die Grenze zieht die Behörde dort, wo Produkte ausdrücklich medizinische Qualität beanspruchen – etwa bei klinisch validen Messungen oder Therapieempfehlungen. Screening-Instrumente, Schätzungen physiologischer Werte oder Lifestyle-Analysen hingegen sollen frei bleiben, selbst wenn sie von Nutzern faktisch zur Gesundheitsentscheidung herangezogen werden.

Biometrische Daten ohne Aufsicht

Kritiker sehen darin ein erhebliches Risiko. Viele dieser Wearables und KI-Tools sammeln kontinuierlich hoch­sensible biometrische Daten – Herzfrequenz, Schlafmuster, Bewegungsprofile, Stressindikatoren – und speichern sie in zentralen Datenbanken. Genau hier setzt die Kritik an: Während klassische Medizinprodukte streng reguliert sind, entsteht parallel ein kaum kontrollierter Datenmarkt, der sowohl für Tech-Konzerne als auch für staatliche Stellen hochattraktiv ist.

Die offizielle Lesart lautet: geringe Gefahr, hoher Nutzen. Die inoffizielle Folge könnte jedoch sein, dass sich ein umfassendes Ökosystem der Gesundheitsüberwachung etabliert, ohne klare Zuständigkeiten, Transparenz oder Haftung.

Politischer Rückenwind für Wearables

Zusätzliche Brisanz erhält die FDA-Position durch die politische Großwetterlage in Washington. Gesundheitsminister Robert F. Kennedy Jr. hat sich wiederholt für den flächendeckenden Einsatz von Wearables [Mini-Computer im Körper] ausgesprochen. Seine Vision: Innerhalb weniger Jahre solle jeder US-Bürger ein solches Gerät tragen, um Krankheiten frühzeitig zu erkennen und Gesundheitskosten zu senken.

Kennedy argumentiert wirtschaftlich: Ein günstiges Wearable könne teure Medikamente ersetzen und die Bevölkerung insgesamt gesünder machen. Kritiker hingegen verweisen auf Interessenkonflikte – insbesondere, da prominente Akteure der aktuellen Regierung in Unternehmen investieren, die genau solche KI-gestützten Wearables entwickeln.

Innovation oder Kontrollverlust?

Die FDA betont, sie wolle Innovation ermöglichen und gleichzeitig vor „großen Sicherheitsbedenken“ schützen. Doch die aktuelle Linie bedeutet faktisch: Je weniger ein Produkt offiziell als Medizin gilt, desto weniger wird es überwacht – selbst wenn es tief in das Gesundheits- und Alltagsverhalten von Millionen Menschen eingreift.

Damit verschiebt sich die Grenze zwischen Medizin, Technologie und Überwachung weiter. Was früher ärztlicher Diagnostik unterlag, wird zunehmend zu einer privaten Datenangelegenheit – gesammelt von Konzernen, ausgewertet von Algorithmen und politisch ausdrücklich gewollt.

Die entscheidende Frage bleibt offen: Wer kontrolliert die Kontrolleure, wenn Gesundheitsüberwachung zur Wellness erklärt wird – und Regulierung zur freiwilligen Option?

=====

KI=KATASTROPHE:
KI-Fabrik "Colossus" von Musk in Memphis ("USA") am 23.1.2026: Gigantischer Strom- und Wasserverbrauch:
«Umwelt-Rassismus»: Musks Supercomputer frisst so viel Strom wie der Kanton Aargau
https://www.20min.ch/story/umwelt-rassismus-musks-supercomputer-frisst-so-viel-strom-wie-der-kanton-aargau-103489087

Michael Andai -- Das Rechenzentrum Colossus 2 soll KI mit brachialer Rechenleistung vorantreiben und verschlingt zurzeit bis zu ein Gigawatt Strom. In Memphis sorgt das für Ärger: Bewohner berichten von Lärm und Abgasen.
  • Elon Musks KI-Firma xAI errichtet in Memphis das Rechenzentrum «Colossus 2».
  • Die Anlage benötigt extrem viel Strom und verbraucht bis zu 20 Millionen Liter Wasser täglich.
  • Mobile Gasturbinen zur Stromerzeugung belästigen die Anwohner mit Lärm und Abgasen.
  • Umweltorganisationen werfen xAI «Umwelt-Rassismus» vor.

Elon Musks KI-Firma xAI hat in einem Vorort von Memphis das Rechenzentrum «Colossus 1» zum Trainieren von neuen KI-Modellen im Eiltempo hochgezogen. Nach eigenen Angaben stand die erste Ausbaustufe nach wenigen Monaten. Kurz darauf folgte der nächste Ausbau auf Hunderttausende Nvidia-GPUs. Nvidia-Chef Jensen Huang nannte das Tempo «übermenschlich»: Solche Projekte würden sonst Jahre dauern.

Seit März 2025 wird eine weitere Riesenhalle in 13 Kilometer Entfernung zu einem Supercomputer im Gigawatt-Bereich ausgebaut – Colossus 2. Das bedeutet: Ein KI-Rechenzentrum mit einem Strombedarf in der Grössenordnung eines Kraftwerks.

Am 17. Januar 2026 ging dieser KI-Supercomputer live. Für April 2026 sind zusätzlich 500 Megawatt angekündigt. Langfristig wird als Ziel eine Gesamtleistung von rund zwei Gigawatt genannt.

Colossus 2 im Überblick

Colossus 1 (Memphis): Von März bis Juni 2024 in 122 Tagen gebaut; danach laut xAI in 92 Tagen auf rund 200’000 GPUs H100 Chips verdoppelt.
Colossus 2 (Southaven): Das erste Gigawatt-Datacenter geht nach ca. 10 Monaten Bauzeit am 17.01.2026 live. Im April soll es bereits auf 1,5 Gigawatt ausgebaut werden. Das Endziel sind 2 Gigawatt.
Hardware-Power: Basierend auf Berichten und Schätzungen sind in der aktuellen Ausbaustufe etwa 550'000-555'000 NVIDIA-GB200- und GB300-GPUs verbaut. Diese kosten rund 18 Milliarden US-Dollar. Eine offizielle Zahl seitens xAI oder Nvidia gibt es nicht.
Ziel: Maximale Rechenleistung für die nächste Grok-Generation; Musk spricht dabei offen vom Ziel, KI auf menschlichem Level zu entwickeln (AGI).

Riesenbatterien von Tesla liefern zusätzlich Energie

Zur Stabilisierung der Stromversorgung setzte xAI auf Tesla-Megapacks 2XL: Riesige Batteriespeicher, die Ausfälle und Belastungsspitzen abfedern sollen. Gemäss einer Analyse von Satellitenaufnahmen von EpochAI, sind zurzeit ca. 600 solche Batterien auf dem Gelände verbaut.

Was würden 2 Gigawatt bedeuten?
Das ist in etwa so viel Strom, wie die beiden grössten Schweizer AKWs zusammen generieren: Leibstadt netto ca. 1233 MW + Gösgen netto ca. 1010 MW = ca. 2243 MW.
Mit zwei Gigawatt würde Colossus 2 nach dem kompletten Ausbau so viel Strom benötigen, wie die Kantone Aargau, Bern, Waadt und Genf zusammen.
Eine Belastung für die Umwelt

Weil die Netzanbindung der Stadt nicht schnell genug mitwuchs, setzte xAI zusätzlich auf mobile Gasturbinen.

Eine Gigawatt-Leistung wäre in Memphis zudem nur mit massiven Ausbauten möglich gewesen und stiess auf Widerstand von Anwohnern und Umweltgruppen. Der Genehmigungsstreit dreht sich dabei um Luftauflagen für mobile Gasturbinen: lokal mit der Gesundheitsbehörde in Shelby County und auf Bundesebene mit der Umweltbehörde EPA. Für den parallelen Ausbau in Southaven gelten separate Genehmigungen unter der Umweltbehörde von Mississippi.
xAI baut eigenes Kraftwerk

xAI kaufte kurzerhand das ehemalige Duke-Energy-Kraftwerksgelände in der Nähe von Colossus 2 und betreibt ein eigenes Gasturbinenkraftwerk. Dort laufen sieben Titan 350-Gasturbinen mit je 35 MW Leistung.

Als Vergleich: Der gesamte Kanton Basel-Stadt inklusive Industrie benötigt im Durchschnitt ungefähr 150 bis 160 MW. Musk könnte mit seinen Turbinen also ganz Basel-Stadt versorgen und hätte noch Energie übrig, um die Stadt Luzern (knapp 50 MW) auch noch zu betreiben.

Zusätzlich sind weitere mobile Turbinen im Einsatz; das Newsportal «Mississippi Today» spricht von 59 Turbinen, 18 davon laufen aktuell.

    «Wir sind kein Spielplatz für Milliardäre»

Abré Conner, Umwelt- und Klima-Direktorin der NAACP

Die NAACP, eine der grössten Bürgerrechtsorganisationen der USA, stellt sich gemeinsam mit dem Southern Environmental Law Center (SELC), einer Umweltrechtsorganisation, und lokalen Gruppen gegen xAIs Vorgehen.

Abré Conner, Leiterin für Umwelt- und Klimagerechtigkeit bei der NAACP, sagte dem «Guardian», xAI behandle die Region wie ein persönliches Experiment: «Unsere Gemeinden, Luft, Wasser und Boden sind kein Spielplatz für Milliardäre, die dem nächsten Dollar hinterherjagen.»

Kritiker sprechen von «Umwelt-Rassismus», weil eine bereits industriell vorbelastete, einkommensschwächere Gegend betroffen ist.

Fast 20 Millionen Liter Wasser pro Tag

Colossus benötigt für die Kühlung enorme Wassermengen. Je nach Ausbaustufe kursieren Schätzungen von bis zu rund 20 Millionen Litern pro Tag. In Memphis ist das politisch heikel, weil die Stadt ihr Grundwasser schützen muss und Umweltgruppen vor Risiken durch bestehende Belastungen, etwa durch Arsen in der Region, warnen.

xAI plant deshalb eine 80-Millionen-Dollar-Anlage, die aufbereitetes Abwasser für die Kühlung bereitstellen soll, mit einer Kapazität von bis zu 50 Mio. Litern pro Tag. Der Bau hat 2025 begonnen, die Anlage ist aber noch nicht in Betrieb. Welche Übergangslösung bis dahin genau gilt, ist öffentlich nicht eindeutig dokumentiert.

Kühlwasser: Wird das verbraucht?
Wasser wird meist zur Kühlung in einem geschlossenen Kreislauf genutzt. In vielen Anlagen geht jedoch Wasser durch Verdunstung, etwa durch Kühltürme, tatsächlich verloren. Zusätzlich wird Abwasser produziert. Dieses ist wärmer, beinhaltet Salze und Chemikalien und muss vor einer weiteren Verwendung extra behandelt werden.
«Wasserverbrauch» meint deshalb meist den Netto-Verlust (Verdunstung + Abwasser) und nicht, dass jeder Liter «verschwindet».
Macht das alles überhaupt Sinn?

Colossus 2 steht für die Strategie «Viel hilft viel». Musk setzt auf reine Rechenpower, um seine KI schneller zu verbessern. Laut der KI-Forscherin Timnit Gebru, CEO des KI-Forschungsinstituts DAIR, bedeutet mehr Rechenleistung nicht automatisch bessere KI. Sehr wohl aber neue Risiken, wie zum Beispiel schwer kontrollierbare Modelle, Datenhunger oder Energieverbrauch.






<<        >>

Teilen / share:

Facebook






Fotoquellen


Journalistenwatch online, Logo   Exxpress für
                  Selbstdenker   Uncut News online, Logo  Transition News
                  Logo    RT Deutsch online, Logo   Newsfront online
                  Logo  Mossad-Antifa-nau online Logo   Schweizer Mossad-Antifa-BLICK online Logo    ORF online Logo  Südtirolnews
                  online, Logo   Al Jazeera online
                  Logo   Wochenblitz
                  Thailand Logo  
anonymous online, Logo  YouTube online, Logo  Facebook LogoDuckduckgo
                Suchmaschine, LogoTwitter online, Logo  VK online, Logo  Telegram online Logo


gmx, Logo  Tagesanzeiger online, Logo   Basler Zeitung
        online, Logo   20 minuten online, Logo Schweinzer Fernsehen online,
          Logo  BLICK online, Logo        Russland Aktuell,
          Logo        Der Standard online, Logo    Stimme
          Russlands online, Logo            Epoch Times
          online, Logo  Extremnews online, Logo  Kronenzeitung online,
          Logo  Heise online, Logo  Netzfrauen online, Logo     Wochenblitz Thailand
          online,  

The mind unleashed
        online, Logo   La República del
        Peru online, Logo   El Trome online, Logo  

Wirtschaftswoche online, Logo   Spiegel online, Logo   n-tv online, Logo   

^