Direkt zum Inhalt
VDI-Podcast

Kann IT den Planeten retten?

Bild: Frame Stock Footage/Shutterstock.com

KI, die Wetterextreme voraussagt. Daten zur Klimaänderung, die Unternehmen zugutekommen. Hat IT das Potenzial, den Planeten zu retten? Darüber sprechen die Hosts Sarah Janczura und Marco Dadomo mit Hendrik Hamann, Chefwissenschaftler für Klima und Nachhaltigkeit bei IBM.

KI-Plattformen leisten bereits einen Beitrag, um verantwortungsvoll mit dem CO₂-Ausstoß umzugehen. Dass extreme Wetterereignisse immer häufiger und schwerwiegender werden, betrifft Privatpersonen wie Unternehmer gleichermaßen. Damit Firmen die Risiken verstehen und ihren Betrieb optimieren können, investiert IBM in die KI-Forschung und -Entwicklung. Was alles möglich ist, berichtet Hendrik Hamann im VDI-Podcast „Technik aufs Ohr“. 

Hamann hat in Göttingen studiert und lebt seit 25 Jahren in New York. Bei IBM gibt es ein globales Forschungsteam, das sich mit Nachhaltigkeit befasst. „Diese sitzen an 12 Orten der Welt“, sagt er. Besonders schätzt er die Grundlagenforschung und diese in die Anwendung zu bringen. Was ist durch Informationstechnologie in Sachen Klimaschutz möglich? Diese Frage befasst den Podcast-Gast jeden Tag.

Drei Kernfragen seien dabei entscheidend:

  1. Wie müssen Computer-Systeme gebaut werden, um schneller Daten auswerten zu können, die für das Klima wichtig sind?
  2. Wie können wir dann effiziente Modelle schaffen, damit Erkenntnisse gewonnen werden?
  3. Was kann in der Anwendung erreicht werden? 

Eines der Ergebnisse bei IBM ist eine bessere Vorhersage von Treibhausgasen. Konkret: Wo sind die Quellen der Emissionen? In erster Linie gehe es um Risikoverringerung – geschäftlich wie privat. Städte können Klimadaten nutzen, um den Stadtbau besser zu planen.

KI ist ein riesiger Forschungsbereich

Weltweit arbeiten die Forschenden mit denselben Methoden, so Hamann. IBM habe weniger mit Endkunden, dafür mehr mit öffentlichen Einrichtungen und Unternehmen zu tun. „Wir fokussieren uns auf kritische Prozesse sowie generelle KI-Modelle“, sagt er. Was heißt das? „Das nennen wir Foundation Models.“ Zur Erklärung holt der Chefwissenschaftler etwas aus: In den 80er Jahren nutzte man Expertensysteme, die durchprogrammiert waren. 2010 kam das Zeitalter von Big Data und maschinelles Lernen. Jetzt sind wir bei den Grundlagenmodellen angekommen.“ Weiterhin sagt er im Podcast: „Man nimmt einen riesigen Datensatz und entfernt Teile davon. Hier versucht man ein Modell zu bauen, das die geblockten Daten des Systems lernt. Das Modell beinhaltet also eine Repräsentation dieser Daten. Es hat gelernt. Das beste Beispiel ist ChatGPT“, erklärt er. ChatGPT ist mit Textdaten gebaut worden. „Klimadaten sind komplexer. Temperatur, Regen etc.“, ordnet er ein. Hier bestünden auch noch offene Fragen.

KI wird sich gewaltig entwickeln – das ist Hendrik Hamann stark bewusst. Wie er die zukünftige Entwicklung einschätzt, gibt es hier zu hören.

Autorin: Sarah Janczura
 

Hinweis: Der Podcast "Technik aufs Ohr" ist eine gemeinsame Produktion von VDI e.V. und ingenieur.de (VDI Verlag GmbH). Jegliche Werbung während der Podcast-Folge erfolgt ausschließlich über die VDI Verlag GmbH. Der VDI e.V. erzielt hieraus keinerlei Einnahmen.

Artikel teilen