JanWiersma.com

Overheidsinnovatie bij NASA

Met lichte afgunst en jalousie volg ik al enige tijd het NASA Nebula project voor Cloud computing.

Nebula is een open-source cloud computing project die een alternatief moet bieden voor de kostbare constructie van datacentra en IT infrastructuur bij de NASA. Nebula levert high performance en direct beschikbare rekenkracht, opslag en netwerk faciliteiten. Dit alles op basis van enkele bestaande en nieuw ontwikkelde open-source componenten.

nebula_day

NASA heeft goed begrepen welke ingrediënten er zo al nodig zijn om deze flexibele infrastructuur en platform te kunnen bieden:

  • Het fysieke datacenter voor deze oplossing is modulair gebouwd. Hierbij is voor een container gekozen.
  • De onderliggende hardware bestaat voornamelijk uit het Cisco UCS systeem, welke de rekenkracht en netwerk omgeving dynamisch levert.

Een container bevat ongeveer 15.000 CPU cores of 15 petabyte aan data en het geheel is hierbij tot 50% energie zuiniger dan de bestaande IT omgevingen.

De lagen die boven op de hardware zijn gebouwd, bestaan voornamelijk uit open-source producten. Deze zijn voor een deel uit de markt gehaald en voor een deel zelf ontwikkeld. Voor al op dit laatste vlak word het interessant voor een overheids organisatie zoals NASA;

  • Het gene ontwikkeld is heeft een hoog innovatief karakter.
  • De ontwikkelde componenten zijn open-source en worden derhalve ook gepubliceerd en beschikbaar gesteld aan de gemeenschap.
  • Een deel van de componenten zijn gedoneerd aan de OpenStack (het open-source, open-standaarden Cloud project)
  • Men gebruikt voornamelijk open standaarden.

Het bovenstaande zijn allemaal karakteristieken die meestal slecht passen bij de bureaucratische en behoudende mentaliteit van overheidsorganisaties.

Ray O’Brien (Nebula Program Manager) schrijft daar over in zijn blog:

Innovation doesn’t always come easily… especially in a large federal government agency. True, rules and regulations are needed to manage behemoth organizations and protect taxpayers, but this always has to be balanced so that creativity and innovation are nurtured, not stifled. The senior NASA managers responsible for the oversight of Nebula understand this key point.

How does Nebula do it? The answer is that Nebula functions more like a tech start-up and less like a legacy organization. Critical to making it work: a phenomenal team of talented professionals and the effective use of modern day communications.

Ik mag een groot deel van mijn werkzame leven al door brengen in overheidsorganisaties.. dus ik herken waar hij het over heeft. Het succes van dit project (onderschreven door de landelijk CIO Vivek Kundra) dwingt dan ook groot respect af. De ontwikkelde Nebula omgeving is ook nog eens de motor onder een groot deel van de Apps.gov omgeving voor diverse overheidsinstellingen.

Een project dat innovatie combineert met groen, flexibel, cloud, open-source, open-standaarden, dynamische infrastructuur en een modulair datacenter… binnen de overheid ?!? Ik meld me meteen aan !

Share

Het datacenter naar zee

In 2008 kondigde International Data Security (IDS) aan om schepen in te zetten als datacenter locaties. Deze week komen ze met het bericht dat ze een Proof Of Concept (POC) gaan uitvoeren.

De ideeën voor een datacenter op zee zijn niet nieuw. Zeker gezien het patent wat Google hier op aanvroeg in 2007. (zie plaatje).

Hierbij word vooral ingezet op het gebruik van zee water; als koelwater voor de IT systemen en voor het genereren van elektra via golfslag.

Nu hebben wij als Nederlanders al een hele lange relatie met de zee en het bedenken van creatief gebruik van de zee. Voor elektra opwekking zijn dus diverse (Nederlandse) oplossingen beschikbaar.

In 2006 testen de TU Delft de aandrijving van een citruspers op het strand van Scheveningen, onder het motto ‘Energie uit golven’

De firma Ecofys werkt aan hun Wave Rotor concept, waarbij de kracht van de zee word om gezet in energie.

Ook in het buitenland word er al enige jaren gewerkt aan energie opwekking uit zee:

Tijdens de conferentie Clean Energy Power in januari 2006 in Berlijn was één van de themabijeenkomsten speciaal gewijd aan het opwekken van energie uit de zee. Het was indrukwekkend om te zien met hoeveel inzet of ‘Begeisterung’ Duitse ingenieurs en universiteiten werken aan het onderzoek naar de mogelijkheden om energie op te wekken uit zee: in vrijwel alle projecten over de wereld hebben Duitse ingenieurs op de een of ander manier wel een aandeel.

(Bron: Verslag conferentie Clean Energy Power in januari 2006 in Berlijn – http://www.twanetwerk.nl/default.ashx?DocumentId=5967)

De vraag is hoe wetgeving zal om gaan met ‘het datacenter op zee’. De discussie rond de locatie van data is aardig aangezwengeld door de Cloud ontwikkelingen, en deze oplossing maakt het nog interessanter. Op zo’n 22km uit de kust eindigt het territoriale water en is het VN-zeerechtverdrag van toepassing.

Meer:

Share

Groene applicaties ? Integratie !

In de datacenter wereld zijn we al enige tijd bezig met energie efficiëntie. Er worden gezamenlijke normen ontwikkeld zoals Power Usage Effectiveness (PUE). De kunst in het datacenter is dan om zo veel mogelijk energie voor de IT apparatuur beschikbaar te hebben en zo weinig mogelijk te ‘verliezen’ in koeling, verlichting, UPS en andere facilitaire voorzieningen.

Er is een constante race gaande om deze PUE zo klein mogelijk te maken. Er ontstond zelfs een hele PUE ‘oorlog’, aangevoerd door de marketing afdelingen van diverse grote datacenter aanbieders. Deze race levert hele goede innovatie op, maar richt zich alleen op het fysieke datacenter.

Deze PUE zegt helemaal niets over het verbruik van de IT apparatuur zelf; een server kan energie verbruiken en ondertussen geen nuttig werk staan te verrichten (‘idle’ zijn). Ook kunnen de applicaties die op de systemen in het datacenter draaien, ontzettend inefficiënt geschreven zijn en daar door veel energie verbruiken.

Het hebben (en behouden) van een goede PUE betekend dus niet automatisch dat men ook Groen is. Zeker niet als we ook aspecten als grondstof verbruik, recycling en afvoer van afval stoffen (denk aan verpakkingsmaterialen voor servers) en water verbruik (denk aan koelinstallaties) meenemen.

Dat het bekijken van het geheel in plaats van het (sub)optimaliseren van delen handiger is, is iets wat ik al langer verkondig in presentaties en artikelen. Hier voor hanteer ik meestal de DCP Stack;

090924-dc-stack-1.4

Deze toont de gehele keten, die noodzakelijk is om waarde te leveren aan de organisatie. Ook zien we dan de onderlinge afhankelijkheden. (Dit word ook wel de holistische datacenter blik genoemd.)

De IT zijde van de DCP Stack (Platform en hoger) beleven dynamische tijden met virtualisatie en Cloud technieken. Deze dynamiek heeft ook zijn uitwerking op de onderliggende lagen; het fysieke datacenter.

Zo komt men met technieken om virtuele servers dynamisch te verplaatsen van de ene naar de andere fysieke server (VMotion genaamd bij VMware). Hier door ontstaat de mogelijkheid om tijdens dal uren fysieke servers uit te schakelen; deze staan dan toch niets te doen. (VMware Distributed Power Management – Youtube Video).

Hiermee krijgen we een dynamisch IT datacenter, waarbij collecties van servers op- en afschakelen en daar mee ook een zeer dynamische warmte last gaan genereren. Daarbij zou communicatie tussen de IT omgeving en het fysieke datacenter handig zijn; de IT omgeving kan een voorwaarschuwing afgeven naar het koelsysteem bij het opschakelen van een grote collectie servers.

Continue with reading

Share

BICSI-002 uitgebracht

Zoals eerder vermeld is BISCI bezig met de “Data Center Design and Implementation Best Practices”. Deze is nu officieel uitgebracht.

With the push for greater capacity, increased efficiency and higher levels of utilization, data centers have become
more complex to design and bring on-line. Due to this, today’s data center designer is often required to have knowledge in mechanical, electrical and telecommunications systems—areas not typically found in the same reference manuals or standards.

BICSI 002 addresses this need. Written to complement existing standards, within its pages are requirements,
recommendations and additional information that should be considered when planning and building a data center,
such as site selection, layout, thermal systems and security.

http://www.bicsi.org/uploadedFiles/News062110_Standard.pdf

Share

Automation levert DC container uit België

Afgelopen week presenteerde de Belgische firma Automation hun datacenter container concept. Het bedrijf heeft zijn wortels in de telecom en levert daar al jaren succesvol container modellen voor.

Na enkele jaren traditionele datacentra te hebben gebouwd, is men nu begonnen met een datacenter container.

Daar waar de meeste datacenter container leveranciers kiezen voor de standaard (ISO) afmetingen, kiest Automation er voor om de container als basis te kiezen en deze uit te bouwen.aut-cont2

De standaard ISO container is ongeveer 2,4 meter breed, waar die van Automation ongeveer 3,5 meter is. Hier door ontstaat meer ruimte om een fatsoenlijke rack opstelling te maken waarbij men zonder problemen systemen kan in- en uitbouwen.

De standaard ISO container komt o.a. in 20 en 40 feet lengte. Die van Automation is wat langer aangezien deze aan het einde voorzien is van de koelinstallatie.

De afmetingen zijn echter wel zo gekozen dat deze vallen binnen de Europese regels rond weg vervoer. Ook heeft men de ‘oude’ bevestigingspunten van de ISO container bewaard zodat deze gemakkelijker te hijsen is.

aut-cont1

Bij vervoer word de koelinstallatie tijdelijk gedemonteerd.

Al deze ruimte maakt diverse configuraties mogelijk. Hierbij kan een generator (N), een UPS (N+1), een koelinstallatie (N+1) en enkele systeem racks in 1x 20 feet container gestopt worden. Er behoeft dan enkel elektra en glasvezel toegevoerd te worden. Ook zijn configuraties mogelijk waarbij meerdere IT containers en Utility containers een totaal datacenter container park vormen.

Omdat de container van binnen netjes afgewerkt is met isolatie materiaal (komt o.a. de brandwerendheid ten goeden) en hij ruimer is dan een standaard container, word er een laag drempelig alternatief gecreëerd voor de bestaande oplossingen van bijvoorbeeld SUN/Oracle en HP; men heeft  binnen het idee in een ‘normale’ datacenter ruimte te staan.

Met een gemiddelde levertijd van 6 weken, staat dit kant en klare datacenter op de stoep bij de afnemer.

Share

De keten specialisten ?…

Afgelopen week berichte de Computable over de aankoop van AAC Cosmos door Unica. Hier mee versterkt het installatie groep Unica zijn mogelijkheden in de ICT infrastructuur en datacentra.

Unica creëert hier mee dezelfde mogelijkheden als Imtech. Zij namen in 2002 ICT bedrijf Brocom over.

Zoals ik eerder berichte, staat de facilitaire organisatie nog steeds ver van de ICT afdeling als het op het datacenter aan komt. Dit is ook vaak het geval bij installatie bedrijven; ze zijn erg goed in het bouwkundige, mechanische en elektrotechnische aspect van het datacenter, maar missen de taal van de ICT-er die vaak benodigd is.

Tevens limiteert deze kloof organisaties in het toepassen van energie efficiëntie en beschikbaarheid in de keten;

Binnen de hele keten zijn veel vakspecialisten werkzaam. Deze zijn dagelijks bezig met optimalisatie op hun eigen deel gebied. Vanuit de bedrijfsvoering moeten managers echter wel kijken naar de gehele keten. Als we op elk blokje bijvoorbeeld redundantie toepassen om de beschikbaarheid te verhogen, leidt dit tot dubbele kosten in de gehele keten. Zo komt het voor dat de applicatiebouwer beschikbaarheid in de applicatie bouwt, de (Windows-)beheerder zijn systeem als clustersysteem uitvoert, de hardwarebeheerder de systemen met dubbele voeding uitvoert en vervolgens de facilitair beheerder een redundante voeding levert en een Tier 4-datacenteromgeving bouwt.

De potentie om de keten te bedienen en te doorzien, had Imtech al even met Brocom en komt mondjes maat van de grond. Ik ben benieuwd of de installatie specialisten van Unica en de ICT architecten van AAC Cosmos elkaar snel kunnen vinden en echte meerwaarde voor de klant kunnen creëren in het datacenter.

Komt het misschien toch nog goed met de echte datacenter architect. 😉

Share

De BICSI-002 standaard.. of.. handboek…

Zoals eerder aangegeven werkt BICSI aan een datacenter standaard. Deze heeft de naam BICSI-002 mee gekregen en word verwacht in 2010. Nu de laatste hand word gelegd aan het document van 400+ pagina’s, word er ook meer bekend over de inhoud.

Het document krijgt de naam “Data Center Design and Implementation Best Practices” mee. Hier mee is het ook duidelijk dat het meer om een ‘best practices’ handboek gaat, dan om een standaard.

Het document is gebaseerd op Amerikaanse normen, maar zou internationaal bruikbaar moeten zijn. Zoals met veel documenten van standaarden organisaties, beschrijft het redelijk traditionele techniek.

BICSI heeft een uitgebreid artikel geschreven over de te verwachte inhoud van het document.

BICSI News Magazine

Share

Microsoft’s (Cloud) container

De afgelopen tijd zijn er meer details bekend geworden over de al eerder besproken Windows Azure Container, ook wel ITPAC’s genaamd.

De ontwikkeling van deze ITPAC’s is onderdeel van het generatie 4 concept microsoft-ballmer-containerrond datacentra van Microsoft. Hier is bijvoorbeeld het Chicago datacenter een onderdeel van. In dit datacenter worden nog containers gebruikt van o.a. Dell. Met de bouw van de eigen ITPAC’s hoopt Microsoft o.a. het energie en water verbruik nog verder te reduceren.

Een video met de opbouw en werking van de container is te vinden op de Microsoft website.

Enkele spec’s:

  • PUE – 1,15 tot 1,19
  • 400 tot 2500 servers (Dell tot nu toe) afhankelijk van de gewenste storage/server mix.
  • Omgeving:  10-32 C (50 –90 F) en 20-80% luchtvochtigheid. Dus geschikt om buiten te plaatsen.
  • 8 tot 11 liter water per minuut voor koeling. (Een tuinslang red tot wel 18 liter per minuut.)
  • Ledig gewicht 5000 kg. Gewicht incl. IT systeem +/- 12.500 kg.
  • Gebouwd in 4 dagen met ‘standaard’ componenten.
  • Slechts benodigde aansluitingen: water, elektra, glasvezel.

De container zal niet verkocht worden als concurrent van bijvoorbeeld de SUN MD20 (Blackbox), en zal ook niet alle apparatuur uit een gemiddelde enterprise omgeving kunnen huisvesten… het is echter wel een zeer innovatief ontwerp.

De hoop is dat de commerciële container bouwers dit oppikken en de innovatie geschikt maken voor het brede publiek.

Meer op:

One Small Step for Microsoft’s Cloud, Another Big Step for Sustainability

Share

Bijna.. maar niet helemaal… ASHRAE 90.1

Recent heeft ASHRAE een update uitgebracht van hun 90.1 Standaard. Deze standaard behandeld de energie efficiëntie voor (kantoor) gebouwen in de USA en is nu bijgewerkt voor datacentra. Net als in Nederland, krijg een norm of standaard pas waarde zodra er een referentie met een stuk wetgeving ontstaat. Diverse staten in de USA kennen wetgeving met een referentie naar de ASHRAE 90.1 Standard. Zo zijn er bouwwetgevingen die verplichten dat men voldoet aan de 90.1 bij nieuwbouw in diverse staten.

Het deel rond datacentra doet nogal wat stof opwaaien;

the standard dictates which types of cooling methods must be used. For example, the standard requires data centers to use economizers — systems that use ambient air for cooling.

Het schrijft dus duidelijk voor welke technologie er gebruikt moet worden.

Het mag ook duidelijk zijn dat het voorschrijven van een bepaalde technologie in plaats van het beschrijven van een te behalen KPI waarde. (bijvoorbeeld PUE/EUE) ontwikkeling en innovatie in de weg kan staan. Het vastleggen van een technologie (zoals economizers) zorgt er voor dat andere technologieën buiten gesloten worden.

Diverse US datacenter eigenaren reageren hier gezamenlijk op:

In many cases, economizers are a great way to cool a data center (in fact, many of our companies’ data centers use them extensively), but simply requiring their use doesn’t guarantee an efficient system, and they may not be the best choice. Future cooling methods may achieve the same or better results without the use of economizers altogether. An efficiency standard should not prohibit such innovation.

Ondertekenaars van dit antwoord op de ASHRAE 90.1 update zijn geen kleine jongens:

  • Chris Crosby, Senior Vice President, Digital Realty Trust
  • Hossein Fateh, President and Chief Executive Officer, Dupont Fabros Technology
  • James Hamilton, Vice President and Distinguished Engineer, Amazon
  • Urs Hoelzle, Senior Vice President, Operations and Google Fellow, Google
  • Mike Manos, Vice President, Service Operations, Nokia
  • Kevin Timmons, General Manager, Datacenter Services, Microsoft

Dit zijn organisaties die de afgelopen jaren gedurfde experimenten hebben uitgevoerd om hun datacenter energie efficiënter te maken en hebben daar mee een forse invloed gehad op de datacenter markt.

Deze zelfde invloed word door sommige ook toegedicht aan leden van ASHRAE bij het opstellen van de 90.1

one assumption is this group who are active in ASHRAE brought up the energy efficiency issue early on, and ASHRAE stakeholders, most likely vendors who make economizers saw an opportunity to make specific equipment a requirement of energy efficiency data centers.  I could be wrong, but it would explain why an organization who sets standards would choose to specify equipment instead of performance.

Iets wat goed mogelijk is, aangezien standaarden commissies vaak gevuld zijn met leveranciers en consultants en vaak maar een handje vol eind gebruikers. Dit is o.a. de reden voor de overeenkomst tussen GreenGrid en DatacenterPulse,

Het stellen van ambitieuze normen word aangemoedigd door de grote datacenter eigenaren. Het stellen van een ambitieuze norm zorgt voor extra innovatie, omdat men gedwongen word om de norm te halen;

As leaders in the data center industry, we are committed to aggressive energy efficiency improvements, but we need standards that let us continue to innovate while meeting (and, hopefully, exceeding) a baseline efficiency requirement set by the ASHRAE standard.

Meer:

Share

HP’s kleine container

container

HP heeft de kleine broer (20 feet) van de HP POD uitgebracht. Deze heeft de naam gekregen HP POD 2000c.

De nieuwe features zijn:

HP Performance Optimized Data Center is now available in both 20ft/6m and 40ft/12m sizes providing flexibility for a variety of IT deployments. HP POD 2000c features include:

  • 500U of rack capacity inside with 10 50U industry standard width racks in a 20ft/6m container
  • Up to 290kW non-redundant power capacity or 145kW capacity with N+N redundancy
  • Delivers the equivalent of 2,000ft2 (200m2) of data center space

Flexibility

Two sizes to meet the requirements of a variety of applications – 20ft/6m and 40ft/12m.
The HP POD can be configured with either one power input for maximum power capacity or two power inputs for full N+N redundancy.

Hier mee volgt HP de trend van enkele anderen zoals IBM, die diverse grote en lengtes van containers uitbrengen. Volgens GreenM3 blog zou de catalogus prijs voor deze 20 feet container $600k bedragen. Dit is exclusief de IT apparatuur en de utility.

Continue with reading

Share