Machine learning helpt Google energierekening met 40 procent verlagen

Googleplex in Silicon Valley

Machine learning en neurale netwerken kunnen een belangrijke rol spelen bij het verlagen van het energieverbruik in datacenters. Tot die conclusie komt Google na experimenten met het gebruik van DeepMind - de AI engine die enige tijd geleden ook de wereldkampioen Go versloeg. Het resultaat? Er is in de datacenters van Google 40 procent minder energie nodig voor koeling.

De kreet ‘machine learning’ begint zo langzamerhand bekend te worden. Meestal hebben dit soort technieken betrekking op consumententoepassingen. Denk aan gezichtsherkenning in foto’s die we met onze smartphone maken of het gebruik van personal assistants als Apple’s Siri of Cortana van Microsoft.

Data verzamelen

In essentie komt het gebruik van dit soort technologie er op neer dat zoveel mogelijk data wordt verzameld, waarna de machine learning-software hierin op zoek gaat naar patronen. Het idee hierbij is dat er talloze relaties bestaan tussen events in een datacenter die niet direct zichtbaar zijn in bijvoorbeeld logbestanden. Ook veel relaties waar we in eerste instantie zelf niet aan zouden hebben gedacht. De vraag is alleen: welke zijn dat dan precies?

In veel datacenters wordt gewerkt met monitoring-tools, maar daarnaast ook op gevoel en ervaring. Daarmee kunnen belangrijke stappen gezet worden rond bijvoorbeeld energiebesparing, maar het maximale wordt er niet uitgehaald. Zeker als de relaties tussen events minder voor de hand lijken te liggen of zelfs tegen het gevoel van een datacenter manager in gaan. Machine learning haalt dit soort patronen echter wel degelijk uit de data. Waarbij geldt: hoe meer data hoe beter.

Google zet in zijn datacenters hiervoor de technologie van DeepMind in. Dit is een van oorsprong Brits bedrijf dat enkele jaren terug door Google is overgenomen. De technologie van de Britten bleek onder andere krachtig genoeg om de wereldkampioen Go te verslaan. Diezelfde technologie heeft het bedrijf nu dus ingezet om het energieverbruik van zijn datacenters te analyseren. En wat blijkt? Er kan opnieuw een grote stap voorwaarts worden gezet.

Interessante inzichten

Eerder investeerde Google al in het ontwerpen en bouwen van eigen IT-hardware. Bovendien heeft het bedrijf veel engineering ingezet om tot betere en efficiëntere koelmethoden te komen. Daarmee zijn al stevige stappen vooruit gezet. Met DeepMind zet men naar eigen zeggen opnieuw een forse stap doordat het slim analyseren van alle beschikbare data tot een 40 procent lager energieverbruik voor koeling blijkt te leiden.

Daarbij is Google naar eigen zeggen tot een aantal interessante inzichten gekomen:

  • De systemen en componenten die gezamenlijk de koelinstallatie vormen beïnvloeden elkaar op niet-lineaire wijze die veel complexer is dan vaak wordt gedacht. Met andere woorden: de formules die de basis vormen voor het uitrekenen van een koelinstallatie kloppen in een aantal gevallen niet. De invloed die de diverse deelsystemen op elkaar hebben zit vaak veel complexer in elkaar.
  • De huidige generatie koelsystemen kan niet snel en flexibel inspelen op veranderingen - intern noch extern (zoals het weer). De belangrijkste reden hiervoor is dat iedere situatie andere regels voor het instellen van de apparatuur vereist en die zijn op voorhand simpelweg niet allemaal aanwezig.
  • Zelfs bij concerns als Google geldt dat ieder datacenter uniek is voor wat betreft architectuur en omgeving. De koelaanpak dient dus op maat te zijn van ieder individueel datacenter. Google heeft daarom een ‘general intelligence framework’ ontwikkeld dat het mogelijk maakt om het energieverbruik voor koelingsdoeleinden per datacenter te analyseren en te verbeteren.

Dit intelligence framework is waar de machine learning-technologie van DeepMind wordt toegepast. Engineering-teams van Google hebben zoveel mogelijk relevante operationele situaties in de datacenters beschreven. Met deze parameters zijn de neurale netwerken van DeepMind vervolgens aan de slag gegaan. Met als gevolg 40 procent lager energieverbruik voor koeling. Met andere woorden: 40 procent lagere kosten.

IT-hardware kan veel meer

‘Sustainability is meer dan het realiseren van een zeer lage PUE’, meent Rachel Futrell, als technical program manager verantwoordelijk voor datacenter sustainability bij Google. Het bedrijf lanceert daarom een programma dat luistert naar de naam ‘Zero Waste to Landfill’. Vrij vertaald: geen afval meer afvoeren naar de vuilstort.

Natuurlijk kent ieder datacenter restproducten die niet langer gebruikt worden. Met dit programma probeert het concern echter een impuls te geven aan recycling. Is het mogelijk om de restproducten te hergebruiken of materialen uit deze restproducten te halen en opnieuw te benutten? Hierbij baseert Google zich op de UL 2799 standaard van UL Laboratories.

Een interessant onderdeel van dit programma is het feit dat Google IT-hardware veel langer dan gebruikelijk benut. Het bedrijf ontwikkelt natuurlijk al vele jaren zijn eigen IT-apparatuur en kan bij ontwerp en bouw dus al rekening houden met de behoefte om deze apparatuur gemakkelijk te kunnen repareren of te demonteren zodat nog correct functionerende componenten gemakkelijk kunnen worden hergebruikt om defecte apparatuur weer te herstellen. Apparaten die niet meer te repareren zijn, dienen in principe zoveel mogelijk gerecycled te worden.

Zes van de veertien datacenters van Google hebben inmiddels zogeheten ‘100 percent diversion rates’ bereikt. Dit wil zeggen: geen restproducten meer richting vuilstort.

Meer info is te vinden op https://green.googleblog.com.

Robbert Hoeffnagel, hoofdredacteur DatacenterWorks

Dossiers
Lees ook

T-Systems voorspelt aankomst- en vertrektijden Deutsche Bahn-treinen met data analytics

Deutsche Bahn gaat binnenkort een door T-Systems ontwikkeld systeem in gebruik nemen dat de aankomst- en vertrektijden van treinen voorspelt. Reizigers zien tot 90 minuten van tevoren hoe laat hun trein aankomt. Zo kunnen zij hun reis beter plannen en hun tijd efficiënter indelen. De oplossing maakt onder andere gebruik van machine learning-technologie. Het systeem maakt continu vergelijkingen tussen de dienstregeling en de actuele situatie. Daarbij analyseert het de dienstregelingsdata van meer dan twee miljoen stops per dag van alle Deutsche Bahn-treinen. Deze vergelijkt het met de act1

BullGuard neemt IoT security startup Dojo-Labs over

BullGuard, een Britse leverancier van antivirusoplossingen, neemt de Israëlische startup Dojo-Labs over. Met de overname van Dojo-Labs wil BullGuard zijn portfolio met beveiligingsoplossingen voor het Internet of Things uitbreiden. Dojo-Labs richt zich op de beveiliging van Internet of Things (IoT) apparatuur. Het bedrijf heeft een oplossing ontwikkeld waarmee alle IoT-apparaten op een netwerk worden beschermd. Hierbij zet Dojo-Labs machine learning algoritmes in om nieuwe dreigingen en abnormaliteiten te detecteren en blokkeren. De oplossing kan door gebruikers worden beheerd via een mo1

Nieuw analyticsplatform van Cisco geeft real-time inzicht in datacenters

Cisco introduceert het Tetration Analytics platform. Dit platform verzamelt op grote schaal data over allerlei aspecten van het datacenter en laat hier machine learning op los. Hierdoor levert het platform in real-time actiegedreven inzichten, die beheerders kunnen gebruiken om hun datacenter te optimaliseren. Om inzichten eenvoudig begrijpbaar te maken wordt deze weergegeven in visuals. Het systeem verzamelt per seconden 1 miljoen events, en slaat data voor een periode van een jaar op. Dit maakt het mogelijk historische gegevens te gebruiken om patronen, ontwikkelingen en trends inzichtelijk1