
"Åh, jag frågar snabbt ChatGPT!"
"Copilot säger att..."
Har ni också lagt märke till att man inte längre "googlar", utan man frågar ChatGPT istället? Det innebär å ena sidan att man får ett välformulerat svar. Men det innebär också att man inte längre ifrågasätter själva källan.
Tidigare, när man googlade, skannade man först igenom resultatlistan innan man ens klickade på en webbplats. Idag? Jag frågar ChatGPT. Källor? Spelar mindre roll.
Jag har härlett bloggtiteln ”Death by Prompt” från begreppet ”Death by PowerPoint”. Medan det senare beskriver en situation där en presentation är så dåligt utformad att den tröttar ut publiken och förlorar deras uppmärksamhet, menar jag med ”Death by Prompt” att man inte längre kontrollerar källorna. Men inte bara det, även hållbarhetsaspekter ignoreras helt av genAI. Än så länge.
De mörka sidorna av den nya artificiella världen
Detta tycker jag är lite oroande. Jag märker själv att jag accepterar svar från AI-verktyg som korrekta utan att titta på källorna. Ibland beror det på tidspress. Bekvämlighet. Ibland bryr jag mig helt enkelt inte. Svaret passar mig. Det låter rätt. Då är det nog så.
Det är den ena saken som stör mig. Den andra är koldioxidavtrycket! Det stör mig mycket!
Jag googlade lite.
"Varje ChatGPT-förfrågan kostar tio gånger mer energi än en Google-sökning. Det visar en aktuell studie. En enda förfrågan till AI-chatboten ska enligt uppgift förbruka 2,9 wattimmar (jämfört med 0,3 kWh för Google) - BestBrokers
BestBrokers beräknar att man med ChatGPT:s elbehov skulle kunna ladda varje elbil i USA fyra gånger. Eller förse hela Australien med el i 1,5 dagar eller eller eller...
Eller ja: genomsnittpriset per kilowatttimme i Sverige var 3 kronor år 2024.[1] 3 gånger 3 kronor per förfrågan: 9 kronor. Nästan en tia - sjukt!
Men det är inte bara el som behövs för att #genAI ska fungera. Servrarna i datacentren (där AI-applikationer som ChatGPT och liknande finns) måste också kylas. Och det med vatten.
Nu kunde man säga: Ja men ChatGPT:s datacenter ligger ju i USA. Vad bryr det mig? Och dessutom: när jag skickar en ChatGPT-prompt märker jag ju personligen inget av vattenförbrukningen. Ingen tar en flaska vatten ur mitt kylskåp. Och ändå.
"Washington Post" har tillsammans med University of California beräknat hur mycket vatten det kostar att låta en chatbot med GPT-4 skriva ett mejl med 100 ord. Om datacentret ligger i Illinois skulle det krävas cirka 0,5 liter, i Arizona nästan 1 liter, i Washington till och med 1,5 liter vatten.[2]
Okej – sammanfattningsvis kan man säga att generative AI-verktyg som ChatGPT förbrukar mycket vatten och el. Och nu då? Inte använda dem längre, bara googla? Nej.
Enligt en studie från McKinsey kommer elbehovet för datacenter i Europa att öka till över 150 terawattimmar fram till 2030 – det motsvarar cirka fem procent av hela Europas elförbrukning.[3]
Elen kommer idag fortfarande främst från kärnkraft- och kolkraftverk. Vill vi ha en hållbar framtid måste vi också optimera AI i framtiden.
[1] Normal förbrukning och elkostnad för lägenhet - oberoende konsumentinformation om el
[2] ChatGPT: Warum und wie viel Wasser künstliche Intelligenz verbraucht & ChatGPTs Stromverbrauch: Zehnmal mehr als bei Google | heise online

Smartare användning
Det fanns nyligen en trend där alla – oavsett om det var privat eller affärsmässigt – lät skapa en AI-samlarfigur av ChatGPT.
Jag arbetar inom IT och behövde trots föreskrivna prompts cirka fem försök för att få ett någorlunda acceptabelt resultat. Fem prompts à en liter vatten. Bravo. Runt Kristianstad hade vi redan före midsommar vattenbrist och bevattningsförbud och jag slösar vatten för att leka med en AI-samlarfigur... YOLO
Men problemet är inte längre individuellt (lösning: jag genererar färre, men bättre prompts), eftersom AI vävs in mer och mer i företag och processer.
Företag måste förstå och rapportera vad deras AI förbrukar för resurser.
Staten måste lagstifta och subventionera hållbar AI-användning ekonomiskt.
Det tycker jag är vägen framåt.
Resurssnåla prompts
Nu kanske du säger: "Bra och gott, men jag vill ändå inte slösa fem liter vatten på min älskade samlarfigur!" – ja då har jag något för dig:
1. Formulera precist
Hur bra resultatet av din förfrågan i generativa AI-verktyg som ChatGPT är, beror på din inmatning (aka prompt). Ju mer precis, desto bättre. Det innebär också att du måste någorlunda veta vad du vill få ut, men vill att någon annan (AI) skapa det åt dig.
Exempel från företagskontext:
Dålig prompt: "Skapa en marknadsföringstext för en ny produkt."
Bättre prompt: “Skapa en marknadsföringstext för en ny produkt: en AI-baserad programvara för projektplanering för små och medelstora företag. Målgrupp: företagsledare och projektledare. Fokus: användarvänlighet, kostnadsbesparingar och tidsplanering.”
2. Ge kontext
AI är inte Olaf från kontoret bredvid, där man snabbt kan gå över och fråga om han kan skriva en produktbeskrivning för er nya cykel under eftermiddagen. AI känner inte dig, den vet inte vem du är ELLER ditt företag (ELLER Olaf). AI behöver alltså kontext!
Låt oss hålla oss till ämnet produktbeskrivning:
- Vad heter den nya cykeln?
- Varför heter den så?
- Varför utvecklades den?
- För vem utvecklades den?
- "Feature – Function – Benefit" – Vad är cykelns egenskaper, vad gör den därmed och vad är din fördel av det?
Jap det blir mycket kontext det. Du måste veta ganska mycket (och skriva en ganska så omfattande prompt) för att få ut en bra produktbeskrivning i resultat.
3. Gå in i rollen som...
Det kanske inte passar för alla behov (som en objektiv produktbeskrivning), men för kommentarer eller inlägg på sociala medier passar ofta "roll-prompting". Man skriver i sin prompt att AI ska anta en viss roll: tidsresenär, expert på XY, en viss person, för- och nackdelar.
Man har upptäckt att AI ger bättre resultat om man tilldelar den en roll.
4. Bästa Fru ChatGPT
Åh, och nu snabbt om artighetsfraser och hälsningar!
- Tack och varsågod? – Inte nödvändigt!
- Versaler och gemener? Spelar ingen roll ;-)
- Stavfel? Helt okej!
Man bör vara artig mot AI. MEN det räcker att inte förolämpa den. Artighetsfraser med tack och varsågod? Onödigt och överdrivet. AI är ingen människa. AI har inga känslor - AI är ett verktyg. Du tackar ju inte heller din hammare efter att den slagit in spiken i väggen. Eller?
Du tar dock hand om din hammare, lägger tillbaka den i verktygslådan. Kanske rengör du den då och då.
Ett tack eller varsågod kan öka ChatGPT:s elförbrukning med upp till 20 procent per prompt.[1]
Var snäll mot AI, men överdriv inte.
[1] KI frisst Strom: Bitte, Danke, Blackout? Wie Höflichkeit mit KI die Stromrechnung hochtreibt - FOCUS online
Sammanfattningsvis
Bättre prompts minskar antalet förfrågningar, vilket i sin tur påverkar AI-applikationens resursbehov positivt. Mindre är mer är devisen. Googla efter prompt exempel innan du sätter igång med din prompt – det finns bra templates för allt möjligt där ute.
Företag spelar en viktig roll i detta. Genom att utbilda sina anställda i AI-användning och göra dem medvetna om dess miljöpåverkan skapar man en upplyst kultur där generativ AI kan användas effektivt och mer miljövänlig.
Varför ChatGPT och andra generativa KI inte kan ersätta vänskap må du läsa här och lyssna i följande podcast: https://open.spotify.com/episode/1QlppKtj3jpubABZZLvrrE?si=R7SUsKAqSGKkUbZOyHlDkA
(Denna text är skriven av mig, inte AI-genererad)
Nyckelord
Fler liknande blogginlägg:
Hittade du vad du letade efter?
Starta din intelligenta sökning nu