JanWiersma.com

Mestvork&knuppels uit de stal… de ‘cloud’ is down!

mob_26_redneck_motivators-s320x240-98571-580Gisteren ging een deel van de Amazon AWS dienst verlening plat. Amazon melde het volgende:

“A networking event early this morning triggered a large amount of re-mirroring of EBS volumes in US-EAST-1,” Amazon said in a status update just before 9 am Pacific time. “This re-mirroring created a shortage of capacity in one of the US-EAST-1 Availability Zones, which impacted new EBS volume creation as well as the pace with which we could re-mirror and recover affected EBS volumes. Additionally, one of our internal control planes for EBS has become inundated such that it’s difficult to create new EBS volumes and EBS backed instances.

De verstoring kwam kort gezegd neer op de uitval van 1 van de Amerikaanse beschikbaarheids zones. De overige zones draaide wel gewoon door. Als gevolg hier van waren ook enkele andere ‘cloud’ services (voornamelijk SAAS), die boven op AWS gebouwd zijn, uitgevallen. Een lijst hier van werd gepubliceerd op http://ec2disabled.com/

Al snel zagen we dat de cloud tegenstanders de mestvorken en knuppels uit de stal hadden gehaald… want ‘de cloud’ had eindelijk zijn ware aard laten zien… en had gefaald.

Dit gebeurde al eerder, zoals mijn DatacenterPulse collega Tim Crawford in zijn blog aanhaalt:

    • Oct 14, 2009   Microsoft Sidekick Data Loss
    • Jun 29, 2009   Rackspace Data Center Outage
    • May 14, 2009  Google Outage
    • Mar 21, 2009   Carbonite Storage Failure

Ook bij deze uitval stonden mensen op de barricade te schreeuwen dat cloud niet betrouwbaar was. Voor leveranciers (en ICT-ers) waar voor de cloud ontwikkeling een bedreiging is (reëel of niet..), is dit een uitstekende gelegenheid om weer wat FUD rond te strooien. Deze tactiek haalde ik al eerder aan in mijn blog: Controle en Vertrouwen; sleutels voor cloud. Hierbij gaf ik ook aan dat het vertrouwen gemakkelijk geschaad word:

Het vertrouwen in cloud computing is iets wat gemakkelijk te schenden is. Het traditionele datacenter leeft redelijk ‘onder de radar’ als het gaat om uitval. Meestal raakt uitval daar slechts enkele applicaties of een deel van de business. Deze uitval kan wel degelijk een grote impact hebben op de productiviteit van een organisatie maar het zal nooit de mate van negatieve publiciteit krijgen die cloud providers ontvangen.

Een vliegtuig crash komt wel in het nieuws, maar de 1000-en auto ongelukken die zelfde dag meestal niet.

Opvallend was echter ook dat een aantal andere cloud services, waar van bekend is dat ze op AWS draaien, gewoon in de lucht waren. Grootste voorbeelden waren Netflix en Twilio.

Referentie architectuur…

In voorgaande blogs gaf ik ook al aan, dat cloud adoptie en migratie draait om de adoptie van een referentie architectuur van iemand ander. Je gaat aan de slag op een IAAS of PAAS omgeving die door iemand anders ontworpen en gebouwd is. Dit men hun visie en gedachte goed. Je moet je dus aan hun regels houden;

Het begrijpen van de referentie architectuur en ontwerp principes van je cloud leverancier is bijzonder belangrijk. Zowel bij IAAS, als bij PAAS geld dat je applicatie of omgeving ontworpen moet zijn voor deel-systeem uitval. Zoals in de PAAS serie aangegeven:  ‘Cloud applications assume failure.’ Soms word dit ondervangen door de aangeboden frameworks, maar je moet dan wel begrijpen hoe deze werken.

Organisaties die niet geraakt werden door de AWS uitval begrepen de architectuur optimaal en hadden hun diensten bij ontwerp en bouw al verdeeld over meerdere geografische beschikbaarheids zones, zoals NetFlix in een presentatie (slide 32-35) eerder liet zien:

netflix-fail

Verder zijn er diverse andere mogelijkheden om redundantie in te bouwen in een AWS omgeving. Zie diverse blogs met tips:

Systeem uitval is een dagelijkse realiteit. Rond cloud computing word vaak geroepen dat ‘cloud omgevingen niet kunnen uitvallen’. De realiteit is echter dat cloud infrastructuren ook kunnen uitvallen. Het verschil tussen cloud en traditionele infrastructuur is echter dat cloud nieuwe (technologische) mogelijkheden biedt voor redundantie en het herstarten van de dienstverlening als deze uitval plaats vind.

We moeten dus blijkbaar nog wel leren om gaan met deze nieuwe vormen van beschikbaarheid en disaster recovery (DR) 🙂

Share

Waarom de stap van Facebook interessant is…

De afgelopen week kondigde Facebook het Open Compute initiatief aan. Kort gezegd publiceerde ze al hun bouw tekeningen van hun datacenter en servers met de mededeling; hier is het, gebruik het, verbeter het…

In de dagen daar op kwam er een stort vloed aan blogs en twitter discussies los over het initiatief. Na een flinke discussie afgelopen weekend met DatacenterPulse leden en cloud guru’s; waarom dit initiatief relevant is voor jou (Enterprise) IT omgeving:

Facebook behoord tot mijn rijtje van bedrijven uit de Formule 1 der ICT; bedrijven die ver vooruit zijn in technologische ontwikkeling, vaak vanwege schaalgrote, en waar van op termijn interessante technologie ontstaat die bruikbaar is voor Enterprise IT en later MKB IT.

Deze bedrijven hebben in de afgelopen jaren diverse interessante ontwikkelingen naar buiten gebracht, die nu al een impact hebben op enterprise IT omgevingen. Een voorbeeld is de inzet van datacenter containers; Uiteraard is de inzet van een container vol met 1500 servers een maatje te groot voor de meeste organisaties. Echter het modulaire concept er achter heeft de manier van datacenter bouw veranderd. Zeker als je kijkt naar het huidige portfolio van veel datacenter aanbieders, zie je altijd wel ergens een ‘modulaire’ oplossing. Deze innovatie is dus opgepakt door de eindgebruikers en de markt, waarna er producten op door ontwikkeld zijn die toepasbaar zijn voor de ‘normale’ IT.

Een ander voorbeeld is de ontwikkeling van Hadoop voor de afhandeling van grote hoeveelheden data. Over dit ‘data olifantje’ schreef ik al eerder.

OpenCompute-Logo-Main

Facebook geeft nu een kijkje in de keuken van hun datacenter en servers. Google deed dit in het verleden ook al een beetje, maar nooit zo open als Facebook nu doet. In eerste instantie staat het volledig (bouwkundig) ontwerp van het Facebook datacenter op internet samen met de server ontwerpen.

De aankondiging van Facebook over hun Open Compute initiatief werd gematigd positief ontvangen; de vraag was vooral wat moet ik (als normale IT-er) er mee.

Laat ik duidelijk zijn; Het 1-op-1 kopiëren van de ontwerpen van Facebook zal een Enterprise IT omgeving niet helpen. Net zo min als het zal helpen om de Google of Amazon ontwerpen te kopiëren (als die publiek bezit zouden zijn). Hier voor zijn de omgevingen en doelen te verschillend.

Er is echter wel een hoop van te leren voor de enterprise IT-er. Door kritisch te kijken in de keuken van de Formule 1 kun je zien waarom het hun lukt om wel 10.000-en servers met enkele beheerders in de lucht te houden, deze snel uit te rollen en hogere beschikbaarheid te bieden tegen lagere kosten.

Daarnaast geeft het ons als eind gebruiker inzicht in de technologische mogelijkheden. Hiermee kunnen we de leveranciers onder druk zetten om ons betere producten te leveren. Dit past geheel in de visie die DatacenterPulse na streeft: “influence the datacenter industry through end users”

Twee andere Open* ontwikkelingen die de moeite waard zijn van het volgen op het IT vlak zijn:

www.openstack.org

OpenStack is a collection of open source technologies delivering a massively scalable cloud operating system. OpenStack is currently developing two interrelated projects: OpenStack Compute and OpenStack Object Storage. OpenStack Compute is software to provision and manage large groups of virtual private servers, and OpenStack Object Storage is software for creating redundant, scalable object storage using clusters of commodity servers to store terabytes or even petabytes of data.

www.openflow.org

OpenFlow enables networks to evolve, by giving a remote controller the power to modify the behavior of network devices, through a well-defined "forwarding instruction set". The growing OpenFlow ecosystem now includes routers, switches, virtual switches, and access points from a range of vendors.

Deze laatste heeft vooral mijn interesse omdat er wel netwerk innovatie is geweest op snelheid (10G, etc..) maar niet echt een open initiatief op het gehele eco-systeem. Hiermee lijkt het netwerk ook echt aansluiting te gaan vinden met de cloud ontwikkelingen op opslag en compute gebied.

Uiteindelijk zien we een heleboel interessante ontwikkelingen aan de horizon, die Enterprise IT gaan helpen. Zeker bij de bouw van private cloud en focus op ‘big data’.

Infrastructuur commodity ?

De Facebook openheid op dit vlak geeft ook nog een andere trend aan; het hebben van een datacenter en IT infrastructuur word steeds minder een strategisch voordeel. Feitelijk kan de Facebook concurrentie het model compleet kopiëren, maar Facebook geeft eigenlijk aan dat dit geen bedreiging zal zijn voor hun business. Ze richten zich op hun belangrijkste waarde; de data en hun eind gebruikers. Deze leveren wel het strategisch voordeel, zoals ook de Huffington Post concludeert:

"[The Open Compute Project] really is a big deal because it constitutes a general shift in terms of what how we look at technology as a competitive advantage," O’Grady said. "For Facebook, the evidence is piling up that they don’t consider technology to be a competitive advantage. They view their competitive advantage in the marketplace to be their users."

Die conclusie werd ook al getrokken rond infrastructuur software (zoals database) bij Facebook en enkele andere, rond de openheid van hun ontwikkelingen;

For Facebook, the value is not in the infrastructure – though Hip-Hop demonstrates the value of even marginal improvements in performance for high scale players – it is in the users and the data they generate. As Tim O’Reilly famously put it, “data is the Intel Inside.”
Read more: http://redmonk.com/sogrady/2011/03/11/how-important-is-software/#ixzz1JFQUwNwa

En dat alles zou wel eens de belangrijkste conclusie kunnen zijn van al deze publicaties en discussies; het gaat om de data… en de IT er om heen word een commodity. Met dank aan de Formule 1 van IT en cloud computing…

Meer van mijn cloud collega’s:

Share

Brand! – Tijd voor de echte IT leiders om op te staan…

CIO’s en IT managers beleven moeilijke tijden; In voorbije tijden hadden ze ruime budgeten. Ze werden gezien als de grote business aanjagers. Daarnaast werden vele op handen gedragen door de eind gebruikers, die met verwondering keken naar deze computer tovenaars en de magie die ze met ICT konden maken uit die kleine PC toverdoosjes. Als ze daar niet van onder de indruk waren, namen we ze mee in het datacenter, waar tientallen servers stonden te zoemen of nog beter; een mainframe. Een bezoek aan deze lampjes en lawaai omgeving… en je werd met groot gezag behandeld. Ja, we konden die eind gebruiker redelijk wat op de mouw spelden en ons IT koninkrijk flink uitbouwen.

De importantie van ICT is de afgelopen jaren behoorlijk toegenomen en we kunnen eigenlijk niet meer zonder. Zowel privé als zakelijk. Dit heeft er voor gezorgd dat ICT kennis een belangrijke basis vormt in het hedendaagse onderwijs. Dat zorgt weer voor veel beter opgeleide en onderlegde eindgebruikers en organisatie eigenaren. Technologische ontwikkelingen hebben ICT ook nog eens toegankelijker gemaakt en nu komen al die jonge managers in eens met hun iPads en Macbooks de organisatie binnen.

De afgelopen twee jaar is ook de hand een beetje op de knip gegaan rond de ICT uitgaven. De economische crisis heeft gezorgd voor de nodig focus op inkomsten en uitgave, en ook die van ICT.

Binnen de ICT afdeling worstelen we met het feit dat al die technologie die we de afgelopen jaren naar binnen hebben gereden, eigenlijk best wel complex geworden is. Zeker het zelf integreren, op alle niveaus van de ICT stack, zorgt voor zo veel relaties dat we als ICT-er soms door de bomen het bos niet meer zien. ‘Even’ iets toevoegen aan deze complexe omgeving is er dus ook niet bij, met lange levertijden tot gevolg. Al deze complexiteit en het in de luchthouden er van kost ook nog eens een hoop geld, waar door er steeds minder overblijft voor innovatie. (Daar worden we zelf ook chagrijnig van, want als ICT-er speel je toch het liefst met de nieuwste speeltjes.)

fire1992Je zou dus maar in de schoenen staan van de CIO of IT manager; onder vuur door de business (met hun budget beperkingen en iPads) en in de knel binnen je eigen afdeling. Je kasteel staat toch aardig in brand.

Als IT-er geniet je echter ook aanzien als IT brandweerman, zoals door mijn DatacenterPulse collega Mark Thiele recent beschreef:

The hero culture is alive and well in IT. They’re sometimes known as the “Firefighters”. These are the heroes who come in at all hours of the day and night to put water on the latest IT fire.  In many organizations a “good” fire fighter is admired and appreciated more than a good developer or other IT contributor.  Why shouldn’t they be admired, they come in at 2:00 AM on Sunday and resolve a major failure that was interrupting the business. What’s not to like?

In de organisaties waar ik de afgelopen tijd over de vloer mocht komen op strategisch niveau, zie ik dit staaltje ‘brandweermanschap’ vol op in actie. Onder (politieke) druk word gewerkt aan actie-actie-actie! plannen om tegemoet te komen aan de budget beperking, continuïteit verhoging en complexiteit reductie. De focus is volledig op de brand en de bestrijding er van. Zolang het vuur maar uit gaat… zeg maar…

In de afgelopen jaren als vrijwillig brandweer man heb ik het nodige mogen leren over brand bestrijding;

Vanuit de Veiligheids Regio Utrecht gaan we regelmatig op training. Zo leren we tijdens realistisch oefenen in Zweden dat bij brand we deze niet meteen uit maken, maar het vuur gebruiken om zicht te hebben en slachtoffers te zoeken. Ook leer je technieken rond ventilatie en het verdrijven van rook en rook gassen; deze verbeteren de overlevings kans voor slachtoffers en geven beter zicht op gevaren voor de brandweerman.

Af en toe is het dus goed om een stapje terug te nemen en het vuur als je voordeel te gebruiken. Bij echt grote branden neemt de brandweer soms een andere stap, ter bescherming van eigen mensen en de omgeving; ze laten een object gecontroleerd uitbranden en schermen omliggende objecten af.

feniks3

Het af laten branden hoeft niet altijd als iets negatiefs gezien te worden. Op de plaats van het oude kan weer iets moois verrijzen. De ‘Phoenix from the flames’ gedachte; vanuit de vernietiging door het vuur, komt nieuw leven.

Deze ‘creative destruction’ was onderwerp van een recente Gartner blog waar in opgeroepen werd tot het vernietigen van een aantal bestaande IT processen en denkbeelden zodat er ruimte komt voor nieuwe:

  • IT’s Strategic Role: which requires destroying the perception and reality of IT supporting generic business strategies and operations in order to create new sources of strategic relevance based on competitive advantage.
  • IT Organization: where you face the need to destroy technically oriented silos that tie up resources and reduce flexibility in order to create greater opportunity and dynamism.
  • IT Personnel Skills: where you need to destroy habits that delegate current operations to existing staff while supporting new projects and technologies with outsourced or contracted resources.
  • IT Processes: presents the opportunity to destroy restrictive processes, governance arrangements and management techniques that seek to protect IT from the business. These processes need to be replaced with agile approaches that concentrate on productivity and throughput.
  • IT Metrics: destroy operational and project metrics that only demonstrate that IT is doing its job and not wasting the company’s money in favor of metrics that demonstrate real business impact.

Soms is het aflaten branden dus nodig om nieuwe zaken mogelijk te maken. Dit alles is uiteraard erg bedreigend voor veel mensen die op dit moment binnen de ICT afdeling werken. Deze bedreigen zet zich vaak om in de eerder beschreven FUD en ‘protectionisme’.

Voor een CIO moet deze potentiele weerstand tegen de veranderingen duidelijk zijn. Op deze manier kan hij inschatten wat de motieven zijn achter de adviezen die hij krijgt van de eigen organisatie en leveranciers. Zeker nu het IT kasteel toch al onder vuur ligt, zijn er juist kansen voor de echt noodzakelijke veranderingen.

Hierbij ligt het gevaar op de loer om vooral oude spullen uit het afgebrande kasteel te willen hergebruiken. Ervaring leert echter dat een aangetast fundament, een slecht fundament is. Zeker als het nieuwe object een totaal andere verschijnings vorm heeft dan de oude, en dus niet echt op het oude fundament past. (Denk: applicatie migratie naar de cloud)

ICT-ers moeten zich vooral afvragen om welke manier zijn de business echt kunnen ondersteunen en meerwaarde kunnen genereren. Dit is een breder perspectief dan het ontwikkelen en in de luchthouden van hun OS of database. Discussies over welk ‘schroefje en moertje’ men nu moet gebruiken, zijn vaak marginaal relevant voor de business en leveren meestal geen echte meerwaarde of strategisch voordeel voor een organisatie.

Als CIO is het zaak je niet te veel te laten leiden door de vuurtjes hier en daar en te zorgen dat je afstand neemt. Dit zorgt voor overzicht. Laat je daarnaast niet verleiden tot allemaal korte termijn acties, maar houd focus op de lange termijn. Het hele proces naar de IT van de toekomst is geen gemakkelijke route en vereist standvastigheid en lef. Maar goed… we wilde vroeger toch allemaal die ‘echte stoere brandweerman’ zijn… Tijd voor de CIO of IT manager om zijn helden status bij de business waar te maken.

wt4d9cbcadd56a9

<credits: het ‘burning platform’ met dank aan Marcel en de keukentafel sessies>

Share

Aan de andere kant van die berg…

technology-adoption-curveAls je werkt aan visie en visie-ontwikkeling en je zit vooraan in de innovatie is je werk niet altijd makkelijk. Je loopt voor de rest van de mensen uit, in de wereld van overmorgen. Om je heen zit vaak slechts een handje vol mensen die het begrijpt en met je mee denkt. Je hebt wat steun aan de early-adopters (13%) die jou ideeën ook zien, ondersteunen en oppakken. Dat is echter ook nog steeds een klein groepje. De eerste echt grote groep volgers komt daarna pas met 34%. Tussen deze early-adopters en de early majority zit vaak ook nog een groot gat (waar Geoffrey Moore het boek Crossing the Chasm over schreef) Dit alles maakt het werk van deze eerste 2,5% soms tot een lastig en eenzaam bestaan.

In mijn werkveld zie ik dat terug in de afgelopen jaren van de ontwikkeling rond Cloud, Apps en Bring-Your-Own-Device (BYOD). Deze ontwikkelingen worden (werden) niet altijd begrepen door organisaties en dan met name de IT-afdelingen. Dat is niet vreemd; het is een dusdanig grote verandering in de manier van werken en denken, dat dit veranderingsproces behoorlijk wat tijd kost.

Daar waar je mensen raakt in hun dagelijks werk en hun manier van werken, lokt dat automatisch een reactie uit. In het begin van de introductie van cloud computing was de reactie van de business zelf al snel positief, maar die van de ICT vaak niet. In de afgelopen jaren heb ik de nodige FUD voorbij zien komen over cloud computing. Het is daarbij altijd makkelijk om te roepen “dat werkt bij ons niet”. Ook Apps en BYOD (zoals iPad) waren dat lot lang beschoren (en soms nog steeds). Dit vaak tot dat er een grotere adoptie vanuit de business zelf plaats vond en dus ICT wel moest mee bewegen.

Het is soms lastig om over dit soort ontwikkelingen te praten met collega ICT-ers omdat men deze ontwikkelingen als een bedreiging ziet voor hun vak. Zoals een collega ooit tegen mij daar over zei: “het is lastig praten met een kalkoen over kerst”.

Bij dit alles zoeken de mensen in de 2,5% al snel steun bij elkaar, om gezamenlijk te kijken naar manieren om deze veranderen en vaak ook cultuurverandering door te kunnen voeren. De ‘innovators’ en ‘early-adaptors’ die dit alles doen, zijn echter ook vaak mensen die gedreven worden door passie en hun gedachtegoed bijna als een soort evangelie proberen uit te dragen. Hier komt ook leiderschap bij kijken; mensen meenemen op een (gedachte)reis.

Een zeer gewaardeerde collega en vriend, die ons recent ontvallen is, heeft mij een hoop geleerd over het werken in de 2,5% categorie. Hij twitterde daar ooit het volgende filmpje over wat mij altijd is bij gebleven:

[youtube=http://www.youtube.com/watch?v=fW8amMCVAJQ&w=448&h=252&hd=1]

Daarbij gaf hij aan: “ook al heb je het gevoel dat je alleen staat te dansen en iedereen denkt dat je gek bent, zolang jij geloofd in het doel.. blijf gewoon door gaan en de rest volgt wel…”  En soms duurt het even voor de rest volgt. En sta je daar best een tijdje alleen… voor lul…

Zodra er echte passie bij komt kijken, zien we echter ook dat het gemakkelijker wordt om mensen te inspireren en ze mee te nemen op reis. Zeker als je hierbij oprecht en transparant communiceert, zoals hij mij ook leerde.

De reis naar de nieuwe IT-wereld is niet altijd makkelijk, maar voor steeds meer organisaties wel noodzakelijk om te kunnen overleven en overmorgen weer echte meerwaarde en innovatie aan de business te kunnen leveren. De ‘innovators’ en ‘early-adaptors’ moeten deze zware kar wel trekken en tenminste de eerst 68% mee op sleeptouw nemen; zij hebben tenslotte een beeld bij deze wereld van overmorgen en de mogelijke reis er naar toe.

Een andere collega van mijn verwoordde dat ooit mooi tijdens een strategiesessie:

“Wij staan allemaal op een grote dorre weide. En dat is een niet al te plezierige omgeving. <De innovator> is over die hoge berg met sneeuwtoppen geweest, naar de andere kant. Hij heeft aan die andere kant grote groene weides met de mooiste bloemen gezien, en vertelt ons daar nu over. Wij staan nu voor de vraag ‘hoe gaan wij allemaal over die berg komen’ ? Voor de een is dit een makkelijkere opgave dan voor de ander. Daarnaast willen we eigenlijk onderweg niemand verliezen.”

Ik heb veel zaken van hem mogen leren op het visie- en leiderschapsvlak, maar uit eindelijk ook mogen zien: het leven is niet altijd even makkelijk voor de mensen die verder kunnen kijken dan de rest.

<Geschreven voor een zeer inspirerende collega, die mijn aanspoorde om meer te bloggen en kennis te delen… en die zijn gezin, vrienden en ik te vroeg moet missen>

Share

Lager kosten=groei; Jevons Paradox

De afgelopen tijd heb ik een aantal keer Jevons paradox gebruikt in presentaties rond cloud.
Het idee en concept achter Jevons paradox in combinatie met cloud computing komt volledig uit de koker van Simon Wardley.
Voor die gene die zijn briljante presentatie(s) nog niet eerder hebben gezien:

[youtube=http://www.youtube.com/watch?v=5Oyf4vvJyy4&w=448&h=252&hd=1]

In zijn verhaal gebruikt hij vaak het voorbeeld van product naar diensten (services/utility) ontwikkeling.BP180211Cycle
Deze zien we terug bij de ontwikkeling van elektra. Deze gaat van de uitvinding van elektra en zijn mogelijkheden (innovatie), via Custom Build waarbij iedereen zijn eigen elektra opwerkte naar Utility levering waarbij we elektra uit de muur kunnen halen en ons niet meer druk maken over wat er eigenlijk allemaal ‘onder’ zit.
Deze ontwikkeling zien we ook terug bij de PC en ook bij de ontwikkeling van CRM. Daarbij zijn we gegaan van custom CRM systemen naar Salesforce vandaag de dag.

Als we de curve omhoog volgen zien we ook dat het product wat deze ontwikkeling volgt, steeds meer standaard word. Hierbij hebben we het dan over het toepassen van (internationale) standaarden, maar ook het feit dat een product zo algemeen beschikbaar is dat deze je als organisatie geen concurrentie voordeel meer beid; iedereen heeft het of kan het kopen.
Het zorgt er ook voor dat men de Utility tegen lager kosten kan af nemen of tegen een pay-per-use model. Hier door word het product beschikbaar voor een grotere groep mensen of bedrijven.

We zien ook dat het product dat een Ultility en zo algemeen beschikbaar, weer een nieuwe golf van innovatie teweeg brengt.
Bij de ontwikkeling van elektra was dit ook te zien; mensen en bedrijven behoefde niet langer te investeren in eigen ‘energie centrales’ waar door de consumptie voor meer mensen mogelijk werd en de consumptie van het product omhoog ging.

Jevons paradox

De toepassing van Jevons paradox op deze ontwikkeling zegt (op hoofdlijnen), dat als de kosten omlaag gaan de consumptie van het product stijgt.

jevons

Deze paradox is ook van toepassing op diverse IT ontwikkelingen.
Een uitstekend voorbeeld wat ik in de praktijk diverse malen mocht tegen komen is de inzet van virtualisatie.
Door de time-to-market te verlagen naar 2 dagen (van 6 weken) en de kosten te verlagen (soms met 75%) per te leveren server, kon er meer gedaan worden aan IT innovatie tegen lager kosten dan voorheen.
Hier door steeg de vraag naar een virtuele server explosief.
Dit fenomeen, wat ook wel bekend is als VM-sprawl, kun je zien als iets negatiefs maar dat is het zeker niet. Als jij de business kan helpen met snellere
innovatie tegen lager kosten, dan doe je het juist heel goed.
Daar waar de business dacht slechts 3 innovaties te kunnen door voeren dat jaar… en het worden er nu 7… dan lever jij een concurrentie voordeel voor jou
organisatie t.o.v. de rest van de markt.

Jevons paradox en Cloud

Jevons paradox is ook van toepassing op cloud computing.
Met cloud computing word het gebruik van 1000-en compute nodes beschikbaar voor iemand met slechts een credit card. En als hij klaar is… dan betaald hij ook niets meer. En dat zonder torenhoge start kosten om die nodes te moeten kopen, bouwen en onderhouden.
Deze manier van levering en het feit dat het ontzettend toegankelijk is, zullen zorgen voor een explosieve groei op dit vlak.

De meeste organisaties vandaag de dag, zitten vast in hun huidige complexiteit en hoge beheerskosten. Hier door is er weinig tot geen ruimte meer voor innovatie.
Door de onderliggende lagen van de IT infrastructuur als een utility af te nemen, zodat men zich hier niet langer druk over hoeft te maken, kan men ruimte creëren voor nieuwe innovatie.

Dit alles betekend echter dat op langere termijn de complexiteits uitdagingen zich zullen verplaatsen naar de hogere lagen van de IT Stack.
Dat is ook de plek waar we vandaag de dag een hele boel uitdagingen hebben waar we niet echt goed aan toe kwamen. Denk bijvoorbeeld aan de explosieve data groei.

2843.Figure8.png-450x0Christian Belady (Microsoft) paste recent ook Jevons paradox toe op de ontwikkeling van de datacenter markt. De afgelopen jaren kende de markt voor bouw en ontwikkeling van datacentra een expolieve groei;

Jevons’ Paradox has been one of the reasons given for the incredible growth we are seeing with online services. The explosion of services now available on the internet has fueled one of the fastest growing industries today:  Datacenter construction.

Dit alles is ook logisch omdat al die cloud omgevingen wel ergens gehuisvest moeten worden. Aangezien het verbruik zal toenemen, zullen er ook meer (of grotere) datacentra gebouwd moeten worden om aan al deze vraag te kunnen voldoen.

Uiteindelijk zal al deze ontwikkeling er voor zorgen dat vele (niet ICT) organisaties een volgende stap kunnen maken in hun eigen innovatie en ontwikkeling. Dit alles ondersteund door IT, die niet langer een beperking is maar een katalysator.

En over 10 jaar? Dan zitten we weer om de tafel; om de complexiteit in de hogere lagen van de IT stack op te lossen… ICT blijft een mooi vak 😉

Share

The Green Grid verruimt scope

Begin maart 2011 vond het Green Grid Technical Forum plaats in Santa Clara (California, USA). Tijdens dit evenement werd door de kersverse Executive Director Mark Monroe een nieuwe richting voor The Green Grid (TGG) aangekondigd.

De afgelopen jaren is TGG zeer succes vol geweest in creëren van aandacht voor energie efficiëntie. Dit gebeurde o.a. met de door hun ontwikkelde Power Usage Effectiveness (PUE). Dit meetinstrument voor de energie efficiëntie van je datacenter omgeving is inmiddels internationaal geaccepteerd en de meeste kaders voor het vaststellen en gebruik van PUE zijn bepaald.

Mark Monroe kreeg begin 2011 de leiding over The Green Grid. Hij heeft jaren lange ervaring op datacenter gebied en was de laatste jaren actief op het gebied van algemene duurzaamheid voor bijvoorbeeld SUN. Hij is ook geen onbekende voor TGG omdat hij 1 van de mede oprichters is. Zijn brede kennis op het duurzaamheids vlak past perfect bij de nieuwe richting die TGG nu neemt.

Op het EMEA Tech Forum (begin 2011) werd al eerder bekend gemaakt, dat men 2 nieuwe efficiëntie eenheden wilde introduceren:

…; Carbon Usage Effectiveness (CUE) en de Water Usage Effectiveness (WUE), zoals ook aangekondigd in recent persbericht:

The new metrics, called Carbon Usage Effectiveness (CUE) and the upcoming Water Usage Effectiveness (WUE), are joining The Green Grid’s widely-used Power Usage Effectiveness (PUE) metric. All are designed to help IT, facilities, and sustainability organizations across the globe optimize their data centers.

Hier mee werd al duidelijk dat de focus voor TGG verschuift van enkel energie efficiëntie naar de duurzaamheid van het gehele datacenter, waar water verbruik ook een belangrijk deel van uit maakt.

Mark Monroe legt de scope wijziging uit:

[youtube=http://www.youtube.com/watch?v=uwQOON42C_w&w=448&h=252&hd=1]

TGG Data Center Maturity Model Mat-model-TGG

Een goed voorbeeld van deze brede aanpak is het Data Center Maturity Model dat tijdens het Technical Forum officieel gepubliceerd werd. Waar voorheen door TGG vooral gekeken werd naar energie efficiëntie op het facilitaire datacenter niveau, word in dit model gekeken naar alle componenten uit de IT keten.

Het model bekijkt facility (met o.a. power, cooling en management) en IT (met compute, storage en network). De volwassenheid op dit vlak kan in kaart gebracht worden op een schaal van 0 (onvolwassen) tot 5 (leading edge). Zodra er bepaald is waar de organisatie staat op deze schaal, kan er een route uitgezet worden naar het volgende niveau. Op deze manier kan het management voor elk vlak een doel uitzetten voor de komende 2 a 3 jaar. Het model geeft daarbij de mogelijkheid om per vlak een score toe te passen. Zo kan een organisatie dus op datacenter cooling een 3 scoren en op IT storage een 2.

Mat-model-TGG2

The model’s Level 0 means a data center’s maturity is minimal and shows no progress. Level 5 – the highest mark – designates the data center as ‘visionary’.
“The initial levels chart the progress of a typical data center that has taken no efficiency improvement measures to one exemplifying the state of an average data center to one that employs current best practices,” reads the organization’s paper on the model.

Het laagste niveau (Level 0) beslaat een omgeving waar in weinig tot geen aandacht is voor energie efficiëntie. Bij Level 1 en 2 past men de industrie best practices uit. Dit zijn de basis best practices die in geruime maten beschikbaar zijn in de markt op dit moment. Level 5 word bestempeld als visionair. Vanaf Level 3 treffen we technologieën aan die leading edge zijn en volop in ontwikkeling. De gedachte hierbij is dat de markt en technologie over ongeveer 5 jaar de onderdelen uit Level 5 als gemeengoed zou moeten zien. Op deze manier probeert TGG zowel de markt als eind gebruikers te stimuleren gezamenlijk te werken aan nieuwe energie efficiënte oplossingen.

De verwachting is dat state-of-the-art data centers zich zullen ontwikkelen van een Level 2 naar Level 5 rond 2016 (groene lijn) . Een generiek datacenter zal zich ontwikkelen naar Level 3 (gele lijn) en slechter presterende datacentra zullen achter blijven en zich ontwikkelen naar Level 2 (rode lijn). 

Mat-model-TGG3

Het Data Center Maturity Model is uiteraard een levend document waar van op dit moment versie 1 is uitgegeven. Naar mate de technologie en mogelijkheden zich door ontwikkelen, zal ook het model bijgewerkt worden.

Zoals ook destijds bij de PUE ontwikkeling, is het model niet bedoeld als marketing instrument of als vergelijking tussen bedrijven onderling (benchmark). Het model is bedoelt als interne toetsing en handvat voor de interne door ontwikkeling van energie efficiëntie.

Uitgebreide uitleg over het model door Harkeeret Singh (chair of The Green Grid’s EMEA technical committee):

[youtube=http://www.youtube.com/watch?v=1Q8zNjEitS8&w=448&h=252&hd=1]

 

Het model is hier te vinden. De bijbehorende whitepaper hier.

Datacenter Pulse Summit

Voorafgaand aan het Green Grid Technical Forum organiseerde Datacenter Pulse (DCP) een dag voor hun leden. Dit in het kader van de alliantie tussen Datacenter Pulse en The Green Grid. Tijdens deze bijeenkomst, waar alleen datacenter eigenaren en eindgebruikers welkom waren, werd gekeken naar
de richting die The Green Grid aan het nemen is en werd hier feedback op gegeven. Ook werd er gekeken wat de top 10 zaken zijn die datacenter eigenaren ‘s nachts uit hun slaap houd. De behandelde onderwerpen waren:

  • DCP Stack Revision & TGG Maturity Model
  • Green Grid Input
    • Data Center Design Guide, WUE/CUE Metrics
    • The Collision Course of Site Selection and Sustainability
  • Modularity, Density, & High-Temp (Combined)
    • Gages – Modular DC RFP Process, Modularity readout interest, & Chill Off work
  • Operational Challenges: What keeps you up at night?

DCP Stack

De DCP stack is al weer 2 jaar oud en werd onderworpen aan een kritische blik. De huidige versie (2) is bedoelt als referentie model om gespreken binnen organisaties makkelijker te maken en onderlinge relaties en afhankelijkheden te kunnen laten zien. De rechterzijde van het model, dat handelt over duurzaamheid in relatie tot datacenter input (zoals stroom en water) en output, was o.a. de aanleiding voor TGG om te werken aan het Data Center Maturity Model. Deze 2 modellen komen hier mooi samen.

dcp-tgg11

(klik voor groter plaatje)

In het model is ook mooi aan te geven welke ‘convergence’ (versmelting) er op dit moment gaande is in de datacenter en IT industrie. Zo zien we cloud computing, datacenter containers en IT appliances, die allemaal hun druk uitoefenen op de totale IT keten.

Ook werd nogmaals duidelijk dat bij het doorvoeren van duurzaamheids oplossingen, vooral naar de hele keten gekeken moet worden omdat punt oplossingen elkaar negatief kunnen beïnvloeden. Hier over schreef ik ook al eerder.

DCP Top 10

De Top 10 zaken die datacenter eigenaren ‘s nachts uit hun slaap houden werd ook bijgewerkt. Deze werd voor het eerst gepubliceerd in 2009.

dcpt10-09dcpt10-10 dcpt10-11

Voor 2011 zijn de Top 10 aandachtspunten:

  1. Industry Alignment
  2. Standardized Stack Framework
  3. Data Center Certification
  4. Move from Availability to Resiliency (new)
  5. More products enabling modularity
  6. Simple, top-level efficiency metric
  7. Wire-line Power Network
  8. Liquid Cooled IT Equipment Options (new)
  9. Expanded IT Equipment Power Options
  10. Infrastructure Intelligence (Convergence) (new)

Datacenter Pulse zal zich uiteraard in 2011 weer inzetten om deze onderwerpen onder het voetlicht te krijgen bij de juiste organisaties en leveranciers en op deze manier het leven van de datacenter eigenaar weer iets makkelijker te maken.

De volledige presentatie van DCP, met alle behandelde onderwerpen, is terug te vinden op TGG website.

Share

Belastingdienst en cloud… leuker en makkelijker?

bd-cloud

Soms is het fijn om te zien hoe andere overheids collega’s de potenties van cloud computing inzien en deze tot hun eigen voordeel aanwenden. Bij deze de credits voor mijn Belastingdienst collega’s:

Tijdens een recente NEN bijeenkomst rond de standaardisatie van cloud computing gaf de Belastingdienst een presentatie over hun werk rond integratie tussen de Belastingdienst en SAAS providers, onder de titel (Samen)werken in ‘de cloud’ (PDF).

De Belastingdienst ziet dat het gebruik van cloud computing een massale vlucht aan het nemen is. Als dit de bedrijfsadministratie betreft dan zien we een aantal gemeenschappelijke belangen voor maximale integratie ontstaan:

  • De gebruiker dient ten alle tijden audittrail’s te kunnen produceren rond bijvoorbeeld zijn financiële boekhouding.
  • Ook de informatie verwerker (de SAAS aanbieder) kent zulke regels, aangevuld met deze functionele wens vanuit de eindgebruiker.

Voor de Belastingdienst heeft deze opkomst van SAAS als voordeel dat er veel word gestandaardiseerd. Hierbij kunnen gemakkelijker afspraken worden gemaakt voor gestandaardiseerde toegang tot de data.

Afspraken tussen Belastingdienst en de SAAS leverancier kan ook zorgen voor het minder makkelijk ‘onderwater’ manipuleren van de data in de boekhouding, waar mee fraude tegen gegaan kan worden.

Het idee is om integratie met bepaalde SAAS cloud providers te zoeken waarbij gebruik gemaakt gaat worden van een keurmerk en een open community.

Dit alles levert dan de volgende voordelen op:

Ondernemer/ZZP-er:
–zekerheid: keurmerk is gezamenlijk met stakeholders ontwikkeld
–Hoge kwaliteit tegen lage kosten
–efficiëncy: voorkomen dubbele werkzaamheden
–hulp bij kiezen voor betrouwbare systemen
Intermediair:
–Zekerheid
–Goede kwaliteit van administratie
–Efficiënte inrichting administratieve keten
SAAS aanbieder:
–zekerheid
–erkenning van de kwaliteit
–meer klanten
BD:
–goede kwaliteit van administratie en aangiften
–efficiënte inrichting van het toezicht
–mogelijkheden voor systeemtoezicht (geautomatiseerd)
–SAAS-aanbieder werkt onder het keurmerk voor al zijn klanten

Ook banken en andere overheids organisatie kunnen mee liften op dit keurmerk en het (technologisch) concept.

Met de invoering hier van, kunnen bedrijven dus gemakkelijker hun bedrijfsadministratie naar ‘de cloud’ verhuizen. Weer een cloud barrière van het lijstje afgestreept… 😀

Share

Datacenter temperatuur & ARBO

Naar aanleiding van mijn blogs over temperatuur verhoging (recent en in het verleden) en presentaties die ik daar over gegeven heb, kreeg ik vragen over de nieuwe omgevings condities en of je daar in wel mag werken.

hp-hot-tubDe vraag: als de inlet temperatuur van servers naar 27C of hoger gaat (in de koude gang), dan word de achter kant (warme gang) wel heel erg warm (40+). Daar kan ik dan niet fatsoenlijk meer werken zonder een zwembroek.

Toen ik in 2007 verantwoordelijk werd voor o.a. het beheer van een datacenter, heb ik door een ARBO dienst een onderzoek laten uitvoeren naar de werkomstandigheden in een datacenter. Voor de temperatuurs condities was het volgende grof weg het antwoord:

Met de invoering van het arbobesluit in 1997 werd de zogenoemde PMV-index gelanceerd. Deze index is de uitkomst van een uiterst ingewikkelde berekening die allerlei zaken meeneemt: temperatuur, luchtvochtigheid, luchtsnelheid, kleding en te verrichten werkzaamheden.
De stelling is vervolgens dat het binnenklimaat behaaglijk is als de PMV-index tussen de 0,5 en -0,5 ligt of als minder dan 10% van de werkzame personen klachten over het klimaat meer zal hebben. Een overschrijding van deze normen gedurende 10% van de werktijd wordt overigens acceptabel gevonden. Het probleem is dat deze officiële norm heel ingewikkeld in elkaar zit: het vraagt een hoop meet- en rekenwerk.

Als je naar de onderliggende onderzoeken en documenten kijkt, zien we dat boven de 26C spraken is van extra belasting. Die grens word vooral bepaald door de lichamelijke inspanning van het werk. Zo is bij licht kantoor werk 30C de grens en bij zware lichamelijke inspanning 25C. Ook maakt het uit of er een voelbare luchtstroom is. Deze zorgt namelijk voor verlaging van de gevoelstemperatuur. Boven de grens moet de werkgever inspanningen doen om de belasting te verlagen. Dit kan zijn door korter werken, zo kort mogelijk aaneengesloten werken, pauzeren in koele ruimtes, aangepaste kleding, extra ventilatie, veel (sportdrank) drinken.

Als we naar de datacenter omgeving kijken zien we dat deze temperatuur grens al snel gereikt word, ook in een traditionele omgeving. Neem een omgeving met server inlet temperatuur van 21C en blade servers met een delta T van 15C (verschil tussen voor en achter kant), dan komen we op 36C in de warme gang.

Bij temperaturen hoger dan 26C in het datacenter, dienen we dus rekening te houden met speciale eisen voor de arbeidsomstandigheden. Bij hogere temperaturen dan in de traditionele omgevingen zal dit leiden tot aanvullende maatregelen maar niet een (wettelijke) onwerkbare situatie.   

Let wel: bij werken in het datacenter word je bloot gesteld aan tal van omgevings factoren. Denk hier bij aan lawaai van server ventilatoren en koeling, het ontbreken van daglicht, aanwezigheid van zware stroom voorzieningen (400v) en aanwezigheid van zware machines (kg). Temperatuur is slechts 1 onderdeel. Welke maatregelen precies gewenst zijn moet per geval worden bekeken door deskundigen, bijvoorbeeld door een arbeidshygienist van de arbo-dienst.

Meer:

Share

Datacenter Management Tools overzicht

Data center infrastructure management (DCIM) tools hebben de afgelopen 2 – 3 jaar een grote vlucht genomen. De focus van deze tools is de integratie tussen IT systemen en de fysieke datacenter omgeving. Hierbij richt men zich grof weg op de twee volgende gebieden: Asset Management en Realtime-monitoring.

real-time-monitoring-diagramBij Asset Management gaat het om het registreren en bijhouden van de componenten die in het datacenter beschikbaar zijn. Denk aan de racks, bekabeling, koeling, energie voorziening, etc.. Hierbij gaat het om de complete levenscyclus van de apparatuur: van aankoop tot afvoer. Over het algemeen worden bij Asset Management de algemene regels en methodes van ITIL gevolgd. Hier zijn hele boeken over geschreven. Tussen al deze componenten kan men de relaties vast leggen. Energie ketens kunnen van hoofdverdeler tot op de server vast gelegd worden en netwerk bekabeling van systeem tot systeem. Door al deze gegevens te combineren kan men ook capaciteitsmanagement in regelen; hoeveel heb ik, hoeveel verbruik ik, hoeveel heb ik nog nodig en wanneer loop ik tegen de grenzen aan? Dit voor rack ruimte (hoogte eenheden of U), beschikbare koeling en/of energie (Watt), aantal beschikbare glas/koper poorten en beschikbare elektra outlets.

Daar waar men dit soort DCIM systemen vaak begin als een statische database, is er de laatste tijd een beweging naar de integratie van real-time gegevens van temperatuur sensors en bijvoorbeeld de hoofdverdeler zelf. Hiermee word het inzicht in het gedrag van de omgeving verbeterd. Daarnaast worden de capaciteits gegevens realistischer om dat het gat tussen theorie en praktijk word gedicht.

Aan de Asset Management kant worden real-time gegevens opgeleverd door barcode of RFID systemen die continue weten waar bepaalde componenten zich in het datacenter bevinden.

IDC heeft in november 2010 een aardig rapport uitgebracht over de DCIM markt. Deze geeft een overzicht over de leveranciers en tools op deze markt. Rapport hier.

Share

Datacenter temperatuur–revisited

In 2009 schreef ik een uitgebreid stuk over datacenter temperatuur. De afgelopen jaren heb ik dit onderwerp ook diverse keren behandeld op congressen. Gezien de ontwikkelingen op dit gebied de laatste maanden; tijd voor een update.

Algemeen kunnen we stellen dat computer apparatuur best wel wat kan hebben. Kijk eens naar de PC die ergens onder je bureau al jaren trouw staat te draaien. Als we die open maken zitten ze meestal vol met stof. Ook is de lucht circulatie meestal niet al te best, zo weg gestopt tussen allemaal spullen. Als we naar game consoles kijken zien we dat hardware helemaal veel kan hebben. De uiterst krachtige PlayStation 3 of XBOX 360 zijn uitgevoerd met een kleine ventilator en weg gestopt in een kastje onder de TV. Zo gaf ook James Hamilton (Amazon) aan in 2010:

[youtube=http://www.youtube.com/watch?v=kHW-ayt_Urk&w=448&h=252&hd=1]

(Bedoelde stuk vanaf 20min:15sec, de rest van de video is ook erg de moeite waard overigens…)

De hoofd reden om koeling toe te passen in het datacenter zijn de eisen van de IT hardware leverancier. Deze eisen zijn terug te vinden in de garantie voorwaarde. Zodra je buiten de aangegeven bandbreedte opereert, vervalt je garantie. De vraag is hoe groot de veiligheids marge is die door de advocaten van de hardware leverancier is ingebouwd. Mensen, zoals Christian Belady, die in de ontwikkeling van hardware hebben gewerkt merkten al eerder op:

As a former server designer, I know that server vendors “sandbag” their hardware. Sandbagging refers to the practice of knowing you can do more but holding back to hedge your risks; in reality, I believe that manufacturers can take greater risks in their operating environments and still achieve the same reliability levels.

Verandering aan de horizon.TC99_Books_Staggered_Large_2

ASHRAE is altijd aardig richting gevend geweest als het aankomt op datacenter temperatuur. Vooral hun Technical Committee (TC) 9.9 (Mission Critical Facilities, Technology Spaces and Electronic Equipment), is een bonte verzameling aan datacenter specialisten, eind gebruikers en hardware leveranciers die bepalend zijn voor een aantal ‘standaarden’ binnen de datacenter industrie.

TC9.9 heeft een bonte verzameling aan boeken gepubliceerd, waar onder “Thermal Guidelines for Data Processing Environments”. In dit boek word ook de bandbreedte voor datacenter temperatuur behandeld, en de inhoud word door alle grote IT leveranciers onderschreven. In de eerste editie van dit boek was de grens op 25C voor de inlet-temperatuur gesteld. In 2008 kwam er een update waarbij de grens op 27C gesteld werd.

Versie 3 komt over een aantal dagen (begin maart 2011) beschikbaar en hier in zal de bandbreedte weer opgerekt worden. Wederom ondersteund door alle grote IT leveranciers. Zoals het persbericht vermeld, word naast de hogere temperatuur er ook rekening gehouden met (oudere) legacy systemen die dit niet ondersteunen.

The third edition will be equally groundbreaking in that it will enable compressorless cooling (all cooling through economizers) in many applications.  Accomplishing this has been a challenge since major tradeoffs (equipment size, equipment cost and operating cost) surface above a certain temperature threshold.  This challenge is complicated because the threshold is not the same for all the manufacturers.

“Different locations, applications and business philosophies make it ineffective to force all equipment to be capable of the same high temperature tolerance (in some cases higher thresholds would negatively impact the return on investment),” Beaty said. “To address this, the third edition creates multiple server classes and therefore provides freedom of choice.  This is particularly important since the thermal guidelines are used throughout the world.”

Deze update door TC9.9 is ook duidelijk een antwoord op de groeiende trend bij grotere datacenter eigenaren om zelf de temperatuur grenzen op te zoeken. Yahoo nam deze stap al in hun

‘Yahoo Computing Coop’ waarbij men volledig passief koelt en hogere temperaturen gebruikt. eBay nam samen met DatacenterPulse dit nog een stap verder door een datacenter in Phoenix te bouwen, met een gemiddelde van 38C in de zomer, en deze volledig van vrije koeling te voorzien. Ook hierbij werden hogere temperaturen voor de IT systemen gebruikt.

Buiten de grenzen.

Veel van de innovatieve ideeën komen door het denken buiten de bestaande oplossingen en vooral jezelf af te vragen waarom dingen zijn zoals ze zijn. Als we zien dat hogere temperaturen en bijvoorbeeld stof maar een marginaal effect heeft op de beschikbaarheid van het systeem en we zien dat er grote winsten te halen zijn door anders (of niet) te koelen zou je een radicale stap kunnen nemen: je systemen buiten de garantie grens laten draaien.

Zodra je buiten de grens komt (nu meestal 35C), vervalt je garantie. Dit betekend dat je niet meer bij de leverancier kunt aankloppen als je systeem stuk is. Als je echter zelf een paar extra systemen op de plank legt ter vervanging van je defecte systeem, is je probleem ook snel opgelost. Daarnaast kun je met de leverancier onderhandelen over een inkoop korting voor deze systemen aangezien je de garantie niet nodig hebt. Zoals eerder gezegd kent de garantie voorwaarde een hele grote veiligheids marge en blijken systemen een stuk robuuster.

Dit idee is een kwestie van kosten en risico berekening.

Integratie en meten

Extreme temperatuur of niet, het goed meten en vastleggen van de (inlet) temperaturen in het datacenter is een must. Dit geeft je inzicht in de effecten van het verhogen van de temperatuur en het totale warmte beeld dat dit oplevert voor je datacenter.

Ondanks het feit dat bijvoorbeeld server systemen tegenwoordig een garantie grens kennen van 35C, heb ik diverse discussies met engineers van grote IT leveranciers gehad over het feit dat het ‘te warm’ zou zijn in een datacenter dat afgeregeld was rond de 25C. Het goed meten en vastleggen van temperatuur kan je dus ook redden in dit soort garantie discussies.

Voor de ontwerpen van Yahoo en eBay zien we dat men maximaal steunt op de integratie tussen IT systemen en het fysieke datacenter. Door deze keten goed op elkaar af te stemmen kan de echte winst gehaald worden. Denk hierbij aan de discussie: als de temperatuur omhoog gaat –> gaat de server fan harder draaien, waar door de energie afname om hoog gaat (zi
e vorige blog
). De oplossing hier voor word dus niet alleen gezocht in fan-less server ontwerpen maar vooral in de integratie tussen de keten delen.

Warm is best wel eng…

Van ASHRAE mogen we al enige tijd hoger dan 21C. Ook de leveranciers voorwaarde staan ons niet in de weg om hoger te gaan. Daarnaast zijn er diverse onderzoeken die zelfs laten zien dat het nog veel extremer kan met 35C+. De realiteit is dat maar weinig datacentra echt naar hogere temperaturen gaan; de meeste blijven hangen rond de 20 – 22C.

Ik kan me voorstellen dat bedrijven zich niets aan trekken van een ‘groen imago’ of ‘maatschappelijk verantwoord zijn’. Door hun ICT-ers en facilitair personeel echter niet te stimuleren om te kijken naar datacenter temperatuur en het verhogen daar van laten deze bedrijven financiële besparingen liggen. En dat is toch iets was aantrekkelijk moet zijn voor elke organisatie in deze tijd van economische crisis…

Meer:

Share