
„Moment, ich frag schnell ChatGPT!“
„Also, Copilot sagt, dass…“
Ist Ihnen schon aufgefallen, dass man nicht mehr „googelt“? Man fragt ChatGPT. Das heißt einerseits natürlich, dass man eine schön formulierte Antwort bekommt. Das heißt aber auch, dass man die Quellen nicht mehr groß hinterfragt.
Hat man früher gegoogelt, hat man als erstes die Ergebnisliste (also die Quellen) durchgescrollt, bevor man überhaupt auf eine Webseite geklickt hat. Heute: Ich frage ChatGPT - Quellen egal.
Und wieso nenne ich das „Death by Prompt“? Vielleicht kennen Sie ja den Begriff „Death by PowerPoint“. Das beschreibt die Situation, in der eine Präsentation so schlecht ist, dass sie das Publikum tödlich langweilt. Man verliert die Aufmerksamkeit und damit auch die kritische Distanz. Genauso wie bei der schönen und bequemen KI-Antwort.
Aber man verliert noch etwas anderes, das immens wichtig ist: das Gefühl für die Folgen. Nachhaltigkeitsaspekte werden beim Thema KI komplett ignoriert. Bisher jedenfalls.
Die Schattenseiten der neuen künstlichen Welt
Beides hängt zusammen an dem Punkt, wo wir uns keine Gedanken mehr machen – weder über die Voraussetzungen von KI noch über die Konsequenzen.
Tatsächlich ertappe ich mich selbst dabei, Antworten von KI-Werkzeugen als richtig hinzunehmen, ohne mir die Quellen genauer anzusehen. Das hat manchmal mit Zeitdruck zu tun, manchmal mit Bequemlichkeit. Es kommt auch vor, dass es mir einfach egal ist. Die Antwort ist OK. Hört sich richtig an. Die Macher der KI werden schon wissen, was gut ist.
Das ist das eine, was ich bedenklich finde (wenn ich darüber nachdenke). Das andere ist der CO2-Fußabdruck.
Darüber sollten wir reden
Wussten Sie zum Beispiel, dass jede ChatGPT-Anfrage zehnmal so viel Energie kostet wie eine Google-Suche? Das jedenfalls sagt eine aktuelle Best-Brokers Untersuchung. Eine einzige ChatGPT-Anfrage soll demnach 2,9 Wattstunden verbrauchen (gegenüber 0,3 Wh bei Google).
BestBrokers rechnet vor, dass man mit dem jährlichen Elektrizitätsbedarf von ChatGPT alle Elektroautos in den USA viermal laden könnte. Oder ganz Australien 1,5 Tage mit Strom versorgen … Stand heute!
Aber es ist nicht nur der Strom. Die Server, auf denen ChatGPT und Co. laufen, müssen auch gekühlt werden. Und zwar mit Wasser.
Die Washington Post hat gemeinsam mit der University of California berechnet, wie viel Wasser es kostet, sich von einem Chatbot mit GPT4 eine Mail mit 100 Wörtern schreiben zu lassen: Je nach Datenzentrum iliegt der Verbrauch zwischen 0,5 und 1,5 Liter Wasser. PRO MAIL!
Okay: KI-Chatbots wie ChatGPT verbrauchen viel Wasser und Strom. Was folgt nun daraus? Die KI nicht mehr nutzen und, nur noch googeln? Nein, das funktioniert nicht.
Zunächst sollte man sich die Bedeutung des Umweltaspekts vollkommen klar machen: Laut McKinsey wird der Strombedarf von Rechenzentren in Europa bis 2030 auf über 150 TWh ansteigen – das entspricht rund fünf Prozent des gesamten europäischen Stromverbrauchs.
Da Strom heute immer noch zu großen Anteilen aus Atom- und Kohlekraftwerken kommt, ist völlig klar: Wir müssen bewusster und klüger mit KI umgehen.
Verantwortlicher Umgang mit KI
Da gibt es aktuell diesen Trend, wo man sich eine KI-Actionfigur von ChatGPT erstellen lässt. Das ist tatsächlich ein großer Spaß. Obwohl ich beruflich mit KI zu tun habe, habe ich 5 Anläufe gebraucht, um ein annehmbares Ergebnis zu bekommen. 5 Prompts mal 1 Liter Wasser.
Ich arbeite in Schweden. Um Kristianstad herum haben wir bereits vor Mittsommer Wassermangel mit öffentlichem Bewässerungsstopp – und ich verbrauche 5 Liter Wasser, weil ich einen KI-Action-Helden von mir selbst bastele. Keine Heldentat, scheint mir.
Aber das Problem ist nicht ein rein individuelles, denn KI dringt in alle Bereiche unseres Lebens vor und spielt in Unternehmen und in ihren Prozessen eine zunehmend wichtige Rolle.
Deshalb müssen Unternehmen verstehen und reporten, was ihr KI-Einsatz an Ressourcen verbraucht. Und ja: Der Staat muss gesetzlich regulieren und eine nachhaltige KI-Nutzung belohnen.
Prompts für den Planeten
Ich will niemandem den Spaß verderben. Aber jeder kann etwas tun. Und das fängt beim Prompten an. Mit vier einfachen Tipps sparen Sie Wasser, Strom – und Nerven:
1. Präzise formulieren
Wie gut das Ergebnis Ihrer KI-Anfrage ist, hängt von der Eingabe, also dem sogenannten Prompt ab. Je präziser, desto besser. Das heißt aber auch: Sie wissen vor dem Prompten, was Sie wollen!
Beispiel aus dem Unternehmenskontext:
- Schlechter Prompt: „Erstelle einen Marketingtext für ein neues Produkt.“
- Besserer Prompt: „Erstelle einen Marketingtext für ein neues Produkt: eine KI-gestützte Software zur Projektplanung für KMUs. Zielgruppe: Geschäftsführende und Projektleiter:*innen. Schwerpunkt: Benutzerfreundlichkeit, Kostenersparnis und Zeitmanagement.“
(Alle Tipps, Beispiele und noch mehr finden Sie übrigens beim Digital Zentrum Berlin. Besuch lohnt sich!)
2. Kontext geben
Die KI ist nicht Olaf aus dem Büro nebenan, wo Sie eben rüber gehen und fragen, ob er eine Produktbeschreibung für Ihr neues Fahrrad aus dem Hut zaubern kann. Die KI kennt Sie nicht, sie kennt Ihr Unternehmen nicht (und Olaf auch nicht). KI braucht also Kontext.
Was braucht man z. B. an Kontext für die Produktbeschreibung des neuen Fahrrads?
- Wie heißt das neue Fahrrad?
- Warum heißt es so?
- Warum wurde es entwickelt?
- Für wen wurde es entwickelt?
- „Feature – Function – Benefit“ – Was sind die Merkmale des Fahrrads, was macht es besser und was haben die Käufer davon?
3. In die Rolle schlüpfen von…
Speziell bei Kommentaren oder Social-Media-Posts hat sich das „Role Prompting“ bewährt: Man schreibt in seinen Prompt, dass die KI eine bestimmte Rolle einnehmen soll:
- Zeitreise
- Experte für XY
- eine bestimmte Person
- Pro- und Kontra
4. Sehr geehrte Frau ChatGPT
Höfliche Menschen sind nicht nur netter, sondern auch erfolgreicher. Seien Sie nett zu Ihrer KI – aber übertreiben Sie es nicht:
- Du oder Sie? - Du!
- Bitte und danke? – Nicht nötig.
- Groß- und Kleinschreibung? –Egal.
- Rechtschreibfehler? – Wenn Sie es selbst noch verstehen: Auch egal ;-)
Man sollte höflich sein gegenüber der KI. Dafür reicht es, sie nicht zu beleidigen. Sie duzen? Auf diese Frage antwortet ChatGPT selbst mit „gerne Du. Höflichkeitsfloskeln mit bitte und danke? Unnötig und übertrieben. Die KI ist kein Mensch. Die KI hat keine Gefühle. Sie ist ein Werkzeug. Bei meinem Hammer bedanke ich mich auch nicht, nachdem er mir den Nagel in die Wand gehämmert hat.
Ein Bitte oder Danke kann den Stromverbrauch von ChatGPT um bis zu 20 Prozent pro Prompt erhöhen.
Fazit
Bessere Prompts verringern die Anzahl an Anfragen und damit den Verbrauch von wertvollen Ressourcen. Die Devise lautet: Weniger ist mehr.
Dabei stehen besonders Unternehmen in der Pflicht: Indem sie ihre Mitarbeiter*innen in der KI-Nutzung schulen und das Bewusstsein für die Umweltfolgen schärfen, schaffen Sie eine aufgeklärte Kultur, in der generative KI zugleich effizient und verantwortungsvoll genutzt werden kann.
Übrigens: Dieser Beitrag ist zu 100% Mensch-generiert, nämlich von mir. Das geht auch noch :-)
Weitere passende Blogbeiträge
Fündig geworden?
Starten Sie jetzt Ihre intelligente Suche