Et succeshistorie for et servert virtualiseringsprojekt

Westminster Colleges nyligt afsluttede virtualiseringsprojekt er den anden del af det, der begyndte en god stund tilbage som en ad hoc måde at trække nogle kritisk aldrende servere på. Serverne var stadig vært for webapplikationer, som vi var i færd med at udfase; som sådan ønskede vi ikke at købe nye servere og omdisponere disse tjenester fuldstændigt, så vi placerede et par VMware ESX (3 & 3.5) servere og brugte PlateSpins fysisk-til-virtuelle (P2V) software til at fjerne potentialet af hardwarefejl fra ligningen.

Jeg starter ved begyndelsen

I begyndelsen af ​​2007, kort efter min ankomst til Westminster College, blev det tydeligt, at min plan om at udfase en eksisterende portalansøgning ville tage en hel del længere tid, end jeg havde håbet. De understøttede tjenester var sammenflettet i mange forskellige processer; faktisk tre år senere kører vi stadig en af ​​applikationerne i produktionen, men det er den sidste. Understøttelse af denne portalapplikation var et par virkelig, virkelig gamle servere, der var godt forbi deres udløbsdato for garanti. Oven i det var helt omfordeling af portalapplikationen en af ​​de sidste ting, jeg ønskede at gøre, da den kun blev holdet sammen, og de mennesker, der havde implementeret løsningen, var længe væk og havde kun efterladt grundlæggende dokumentation. Jeg ønskede også at reducere antallet af servere, vi kørte i vores lille datacenter; selv de ældre servere kørte kun med en brøkdel af deres kapacitet, men de var stadig nødt til at udskiftes på en slags cyklus og tilsluttes stikkontakter, der forbruger strøm.

Ønsket om at flytte til nyere hardware uden at bryde banken, reducere det elektriske forbrug og ikke at skulle omfordele alle vores eksisterende tjenester førte til fase 1-virtualisering. Når vi havde denne løsning på plads, løb vi i den konfiguration i et stykke tid. Over tid virtualiserede vi også et antal nyere servere, også ved hjælp af P2V-metoden. Da nye tjenester blev bragt online, implementerede vi dem normalt på en af ​​de virtuelle værter.

Værterne var enkle containere til at rumme virtuelle maskiner og var ikke forbundet til et SAN; al opbevaring var lokal. Når det er sagt, var dette Westminsters første skridt ind i VMware, og de nåede de nødvendige mål på det tidspunkt.

Videre til de næste trin

I årenes løb er jeg blevet en stor tro på mottoet "virtualiser alt når det er muligt". Den store succes med den første fase førte til, at jeg besluttede at udvide virtualiseringen til at omfatte alt det, vi kunne, men jeg ville gøre det på en meget mere robust måde.

Vores oprindelige foray implementerede ikke tilgængelighedsmetoder, hvilket var fint til formålet, men da vi flyttede ind i vores "virtualiser alt" -tilstand, havde vi brug for SAN-understøttede ESX-servere og lidt mere robusthed. For at nå vores tilgængelighedsmål, ønskede vi at sikre os, at vi ikke havde nogen eneste punkter med fiasko. Med henblik herpå er alt overflødigt, og vi har indsat flere servere end nødvendigt for at understøtte vores nuværende virtuelle arbejdsbelastning. Vi har plads til vækst, som vi har brug for.

Igen, vi er et lille miljø, så arkitekturen er ret enkel, men her er hvad vi har:

  • En EMC AX4 SAN - iSCSI, dobbeltkontrollere, 12 x 300 GB SAS + 12 x 750 GB SATA. Fuldt og 100% overflødigt.
  • 3 x Dell M600 blade-servere, 2 x 2, 66 GHz Quad Core Intel Xeon-processorer, 32 GB RAM hver, 6 NIC'er hver (chassis indeholder 6 x Dell M6220-switches - 1 for hver NIC på hver server)
    • 2 x NIC'er til frontforbindelse
    • 2 x NIC'er til tilslutning til AX4 (iSCSI)
      • Hver af disse er tilsluttet en separat Ethernet-switch.
      • Hver NIC opretter forbindelse til en anden lagerprocessor på AX4.
      • Hver lagerforbindelse ligger på et andet fysisk netværkskort.
    • 1 x NIC til vMotion
    • 1 x NIC for fejltolerance
Vi kører 28 virtuelle maskiner på tværs af disse tre værter. Af de behandlingsressourcer, vi har i denne tre værtklynge, bruger vi i gennemsnit ca. 10% af den computerkraft, der er tilgængelig for os ( figur A ), så der er masser af plads til vækst, og vi er ikke bekymrede over ydeevne, hvis en af ​​de fysiske værter fejler. På RAM-siden bruger vi lidt over 30% af det samlede tilgængelige RAM i klyngen, men jeg tror, ​​vi kan nedbringe det ved at være mere opmærksom på, hvordan individuelle virtuelle maskiner leveres ( figur B ). Figur A

Vi bruger ca. 10% af vores databehandlingsressourcer. (Klik på billedet for at forstørre det.)
Figur B

Vi bruger lidt over 30% af RAM-ressourcerne i klyngen. (Klik på billedet for at forstørre det.)

Bemærk i figur A og B, at der er to perioder, i hvilke vi oplevede et problem med vCenter, der påvirkede statistikindsamling. Selvom hver maskine har 32 GB RAM, har en af ​​vores værter Dells RAM RAID-funktion slået til, hvilket hjælper med at beskytte værten i tilfælde af et RAM-problem. Som et resultat rapporterer denne server kun 24 GB tilgængelig RAM. På grund af at have redundans på værtsniveau deaktiverer vi denne funktion under et vedligeholdelsesvindue for at få fordelen med de fulde 32 GB RAM.

I figur C ser du et kig på den fulde infrastruktur. 50 og 51 er simpelthen interne identifikatorer. Fig

Hele ESX-miljøet. (Klik på billedet for at forstørre det.)

I sommer foretager vi nogle ændringer i vores miljø for at øge den samlede tilgængelighed, herunder:

  • En migrering fra vores single-server (fysiske) Exchange 2007-system til et multi-server (virtuelt) Exchange 2010-miljø. Den eneste service, der forbliver fysisk, er en samlet besked.
  • Vi bruger SharePoint til en masse ting, inklusive vores offentligt stillede websted. Vores nuværende SharePoint-miljø består af to servere: en dedikeret databaseserver og MOSS-serveren, der kører de andre komponenter. Når vi udforsker SharePoint 2010, migrerer vi sandsynligvis end ikke væk fra den fysiske SharePoint-infrastruktur.

Selv hvis jeg er nødt til at tilføje yderligere ESX-værter for at støtte nyere initiativer (selvom jeg ikke tror, ​​jeg vil), er tilgængelighedsfordelene for store til at ignorere.

Virtualiseringsprojektet på Westminster overskred alle mine oprindelige mål. Vi har været i stand til meget let at forlænge levetiden for aldrende applikationer, reducere strømforbruget, øge tilgængeligheden og gøre en enorm bukke i budgettet for udskiftning af udstyr i datacentret.

Vil du følge med på Scott Lowes indlæg om TechRepublic?

  • Tilmeld dig automatisk nyhedsbrevet om servere og opbevaring
  • Abonner på RSS-feedet Servere og opbevaring
  • Følg Scott Lowe på Twitter

© Copyright 2021 | pepebotifarra.com