Onderzoekers claimen energieverbruik AI 95 procent terug te dringen

1 dag geleden 2

Het bedrijf BitEnergy AI heeft een manier gevonden om het energieverbruik van AI-applicaties aanzienlijk te verlagen.

De ontwikkelde methode pakt een grote uitdaging van moderne technologie aan. Large language models vereisen veel rekenkracht, wat resulteert in een hoog elektriciteitsverbruik. Ter vergelijking: het dagelijkse stroomverbruik van ChatGPT staat gelijk aan dat van tienduizenden huishoudens. En dat betreft slechts één applicatie. Met de toenemende populariteit van AI is er in de toekomst potentieel een enorme extra stroombehoefte.

Nieuw algoritme

Hoe weet BitEnergy AI dit stroomverbruik te verminderen? Normaal gesproken wordt bij berekeningen floating-point tensor multiplication gebruikt, een methode om getallen in een floating-pointformaat te vermenigvuldigen. Met FPM kunnen applicaties complexe berekeningen uitvoeren met zeer nauwkeurige precisie, maar dit proces vergt veel energie.

BitEnergy AI stelt echter voor om het nieuwe linear-complexity multiplication L-Mul-algoritme toe te passen. Hierbij wordt het traditionele floating-point multiplication-proces benaderd met een integer adder. Deze aanpassing zou minimale impact hebben op de precisie en nauwkeurigheid van de berekeningen, maar met als groot voordeel dat het veel minder energie verbruikt.

De vraag is echter of deze techniek op korte termijn geïmplementeerd kan worden. Om het te gebruiken, is namelijk andere hardware nodig dan wat AI-applicaties momenteel gebruiken.

Tip: Energiehonger datacenters in AI-tijdperk zet kernenergie weer op de agenda

Lees het hele artikel