Η τεχνολογία x86 αναμφισβήτητα συνετέλεσε σε μια από τις μεγαλύτερες αλλαγές που έλαβαν χώρα στον τομέα του IT τα τελευταία 15 χρόνια. Είναι όμως έτοιμη για τις επόμενες προκλήσεις; Η χρήση των επεξεργαστών τεχνολογίας x86 στην αγορά των severs έπαιξε ίσως τον πιο σημαντικό ρόλο, ώστε το server computing να γίνει ένα εργαλείο προσιτό σε όλες τις επιχειρήσεις, αλλά και σε απαιτητικούς ιδιώτες.
Η μείωση του κόστους αγοράς και διαχείρισης του hardware σε συνδυασμό με τη συνεχή αύξηση των επιδόσεων, έχουν οδηγήσει σήμερα την αναλογία τιμής προς επίδοση για τους x86 servers σε επίπεδα που στις αρχές της δεκαετίας του ’90, δύσκολα κάποιος θα μπορούσε ακόμα και να ονειρευτεί.
Το κόστος και οι επιδόσεις δεν είναι οι μόνοι τομείς όπου έχουν σημειωθεί σημαντικές βελτιώσεις. Οι σύγχρονοι x86 servers είναι περισσότερο αξιόπιστοι, λιγότερο απαιτητικοί σε ενέργεια και ευκολότερα ελεγχόμενοι και διαχειρίσιμοι σε σύνθετα περιβάλλοντα.
Ωστόσο, το μονοπάτι εξέλιξης της τεχνολογίας αποκαλύπτει σε κάθε στροφή και μια νέα ευθεία. Αυτή την περίοδο, οι περισσότερες επιχειρήσεις φαίνεται να βρίσκονται στην ευθεία του virtualization. Μια παλιά σχετικά τεχνολογία, η οποία εμφανίζεται με νέο πρόσωπο στην κατάλληλη εποχή και υπόσχεται να αυξήσει την επιχειρηματική ευελιξία, μειώνοντας παράλληλα τις δαπάνες για τα πληροφοριακά συστήματα.
Προκειμένου να αποκομίσουν τα οφέλη του virtualization, οι κατασκευαστές επεξεργαστών, κυρίως Intel και AMD, έχουν δημιουργήσει «επεκτάσεις» εντολών. Σύμφωνα με αναλυτές αλλά και IT managers, οι επεκτάσεις αυτές κάνουν τη δουλειά τους, όμως δεν επιτυγχάνουν το ίδιο αποτέλεσμα, με αυτό που θα μπορούσαν να πετύχουν νέοι επεξεργαστές σχεδιασμένοι εξ αρχής για να εξυπηρετούν virtualized υποδομές.
Θα ήταν βέβαια λάθος να ταυτίσουμε την ανάγκη εξέλιξης των servers με τις απαιτήσεις που δημιουργούν οι εφαρμογές virtualization. Αλλωστε, υπάρχει ήδη αρκετός αντίλογος σχετικά με το εύρος αξιοποίησης του virtualization σε διαφορετικές εφαρμογές.
Δεν είναι λίγοι οι IT managers που υποστηρίζουν ότι τόσο για λόγους ασφάλειας όσο και αποφυγής αστοχιών από τη σύγκρουση των απαιτήσεων διαφορετικών εφαρμογών, κάποιες επιχειρηματικές εφαρμογές θα πρέπει να λειτουργούν σε «αφοσιωμένους» servers. Αλλωστε, σήμερα, οι περισσότερες δοκιμές που αξιολογούν τις επιδόσεις ενός server γίνονται σε «κάθετα» συστήματα που προσομοιώνουν μια σύνθετη επιχειρηματική εφαρμογή, όπως ένα ERP ή CRM σύστημα.
Στο DNA των πιο σύγχρονων επεξεργαστών υπάρχουν γονίδια τριών δεκαετιών
Το 1978, η Intel παρουσίασε τον πρώτο 16 bit επεξεργαστή, τεχνολογίας 3-micron με συχνότητες χρονισμού από 4,77 MHz έως 10 MHz. Περισσότερα από 30 χρόνια αργότερα με βάση το ανθρώπινο ημερολόγιο, ή 3.000 χρόνια αργότερα με βάση το ημερολόγιο των υπολογιστών, ο επεξεργαστής αυτός συνεχίζει να εξελίσσεται.
Τα γονίδια του x86 βρίσκονται σήμερα όχι μόνο στο DNA των πιο σύγχρονων επεξεργαστών της Intel, όπως ο Core i7 και ο αναμενόμενος Nehalem – EX, αλλά και στo DNA των επεξεργαστών του βασικού ανταγωνιστή της. Οι μικροεπεξεργαστές Phenom II και Opteron της AMD, καθώς και όλοι οι πρόγονοί τους βασίζονται στην x86 αρχιτεκτονική, ώστε να είναι συμβατοί με το λογισμικό που καλούνται να υπηρετήσουν.
Είναι αρκετοί αυτοί που ισχυρίζονται ότι η x86 δεν ήταν η αρχιτεκτονική που είχε τα καλύτερα χαρακτηριστικά για να πετύχει, συγκρίνοντάς την με την αρχιτεκτονική των επεξεργαστών 68xxx της Motorola και φυσικά τη RISC αρχιτεκτονική των Texas Instruments, Motorola και αργότερα των HP, IBM, AMD και της ίδιας της Intel. Ομως, τελικά, η εξέλιξη είναι πολύ πιο πολύπλοκη διαδικασία, ώστε να εξαρτάται μόνο από την αξιολόγηση των «καλύτερων» χαρακτηριστικών.
Αλλωστε, αυτό αποδεικνύεται από το γεγονός ότι οι servers RISC και τύπου RISC συνεχίζουν να κατέχουν ένα σημαντικό μερίδιο στις προτιμήσεις των IT Managers το οποίο, όμως, σύμφωνα με τα στοιχεία της IDC, μειώνεται χρόνο με το χρόνο από τις «επεκτατικές» διαθέσεις των x86 servers. Από το 4ο τρίμηνο του 2005 μέχρι και το 3ο τρίμηνο του 2009, οι x86 servers αυξάνουν περισσότερο κάθε χρονιά τα έσοδα των κατασκευαστών τους. Είναι μάλιστα ενδιαφέρον ότι αυτό συμβαίνει παρά το γεγονός ότι το κόστος ανά μονάδα υπολογιστικής ισχύος έχει σχεδόν υποτριπλασιαστεί στο ίδιο διάστημα.
Η ομοιότητα κάποιων γονιδιών ανάμεσα στους πρώτους επεξεργαστές x86 και τους σύγχρονους απόγονούς τους είναι πολύ μικρή σε σχέση με τις μεταλλάξεις που έχουν γίνει όλο αυτό το διάστημα. Ο 8086 είχε μέσα του 29.000 τρανζίστορ και δυνατότητα να διαχειρίζεται μνήμη 1 MB. Ο Core i7 έχει 730 εκατομμύρια transistor και 9 MB μνήμης στο εσωτερικό του, ενώ ο αναμενόμενος Nehalem – EX της Intel θα ενσωματώνει περισσότερα από 2,3 δισεκατομμύρια transistors.
Η διαφοροποίηση της επεξεργαστικής ισχύος στη συγκεκριμένη περίοδο του χρόνου μοιάζει με την κίνηση μιας σφαίρας, όπως γίνεται αντιληπτή από το ανθρώπινο μάτι. Ωστόσο, δεν πρόκειται για μια εξέλιξη χωρίς αντίτιμο και στη συγκεκριμένη περίπτωση το αντίτιμο είναι η ενεργειακή επιβάρυνση της επιχείρησης.
Στα σύγχρονα data centers με δεκάδες ή χιλιάδες servers, η συζήτηση δεν επικεντρώνεται πλέον στην αγορά του εξοπλισμού, αλλά στις ενεργειακές δαπάνες που απαιτούνται για τη λειτουργία και τη ψύξη τους. Είναι τέτοιο το μέγεθος του προβλήματος για κάποιες επιχειρήσεις, ώστε οι αποφάσεις σχετικά με τις κτηριακές τους εγκαταστάσεις να λαμβάνονται με γνώμονα το κόστος της ενέργειας.
Megahertz …μύθος ή πραγματικότητα;
Τα θεμέλια για την εξέλιξη που βιώνουμε σήμερα έθεσε η Intel σε δύο διαφορετικές χρονικές στιγμής. Η πρώτη ήταν το Μάρτιο του 2006, όταν ανακοίνωσε την Core Microarchitecture και η δεύτερη τον Αύγουστο του 2008, όταν με τη διακοπή παραγωγής των Pentium 4 επεξεργαστών έδειξε τις προθέσεις της για τις x86 CPU μονού πυρήνα.
Ουσιαστικά, η Intel αποφάσισε να διορθώσει ένα λάθος που η ίδια είχε δημιουργήσει στις αρχές της δεκαετίας του ’90 και συντήρησε για αρκετά χρόνια. Σε αυτή την περίοδο, η βασική γραμμή στην πολιτική προώθησης επεξεργαστών ήταν ότι η επεξεργαστική ισχύς είναι άμεσα και αναλογικά συνδεδεμένη με τη συχνότητα λειτουργίας του επεξεργαστή.
Αρκετές εταιρείες τότε, όπως η Apple, μιλούσαν για το «Megahertz Myth», κάνοντας μάλιστα συγκρίσεις επιδόσεων με τον PowerPC G4, ο οποίος λειτουργούσε σε χαμηλότερες συχνότητες. Ωστόσο, οι φωνές δεν ήταν αρκετές να ανατρέψουν την τάση και έτσι ο Pentium 4 έφτασε σε συχνότητες μέχρι 4 GHz και σε θερμοκρασίες που στο εσωτερικό του ήταν υψηλότερες από τη θερμοκρασία του ηλίου.
Η Core Microarchitecture επέτρεπε σε ένα μοναδικό «περίβλημα» να περιέχει περισσότερες από μια x86 CPUs (cores), οι οποίες μοιράζονται μια κοινή L2 cache και λειτουργούν σε χαμηλότερες συχνότητες.
Οι πρώτες επιδείξεις πολυπύρηνων επεξεργαστών, έδειχναν ένα προσωπικό υπολογιστή να τρέχει ταυτόχρονα δύο ή και περισσότερες απαιτητικές εφαρμογές, όπως ένα πρόγραμμα επεξεργασίας εικόνας μαζί με ένα πρόγραμμα αναπαραγωγής video. Η ανάγκη του virtualization μόλις είχε γεννηθεί, επιδοτούμενη μάλιστα από την άμεση εξοικονόμηση ενέργειας του server.
Η Intel ηγείται της αγοράς και δύσκολα αυτό θα αλλάξει
Στην αγορά των servers, οι επεξεργαστές της Intel έχουν μερίδιο λίγο πάνω από το 90%. Παρά τις δηλώσεις της AMD το 2006, η οποία έκανε λόγο για 40% της αγοράς των server microprocessor μέχρι τα τέλη του 2009, σήμερα το μερίδιο της είναι λίγο πάνω από το 9%. Δεδομένου ότι η εικόνα είναι ανάλογη και στην αγορά των PC microprocessor, η Intel έχει τραβήξει πάνω της τα μάτια των επιτροπών ανταγωνισμού, κάτι όμως που έχει συμβεί ξανά στο παρελθόν χωρίς να επηρεάσει ουσιαστικά και μακροχρόνια τις ισορροπίες.
Ενα έγγραφο που δημοσίευσε η Intel το 2005 σχετικά με την τεχνολογία Virtualization Technology, την οποία τότε για πρώτη φορά ενσωμάτωσε σε επεξεργαστές Pentium 4, έγραφε τα εξής: «Η τεχνολογία Virtualization Technology της Intel απαιτεί έναν υπολογιστή με έναν επεξεργαστή, chipset, BIOS, Virtual Machine Monitor και για μερικές χρήσεις, ειδικά διαμορφωμένο λογισμικό που θα υποστηρίξει τις δυνατότητές της».
Εκείνη την περίοδο, το VMware Workstation 5 ήταν από τις πιο διαδεδομένες λύσεις στον τομέα του virtualization, κάτι που συνέχισε να ισχύει όταν 2 χρόνια αργότερα η Intel Capital εξαγόρασε έναντι 218 εκατ. δολαρίων το 2.5% της VMware.
Ενα νέο χτύπημα της Intel αναμένεται με τους επεξεργαστές Nehalem – EX, οι οποίοι θα είναι διαθέσιμοι στους αμέσως επόμενους μήνες. Οπως χαρακτηριστικά λέει ο Νίκος Παναγιωτίδης, Βusiness Developer Manager της Intel Hellas, «Οι Nehalem – EX κλείνουν σε μεγάλο βαθμό το χάσμα ανάμεσα σε RISC και x86 αρχιτεκτονική, τόσο σε θέματα αυτοδιαγνωστικού ελέγχου όσο και σε θέματα fault tolerance».
Ομως, ακόμα και αν η Intel δεν ήταν τόσο αισιόδοξη, οι επιλογές των επιχειρήσεων θα της επέτρεπαν να γίνει. Η αγορά του virtualization τρέχει με ρυθμούς ανάπτυξης που αναμένεται να κινηθούν ανάμεσα στο 10-15% για το 2010. Συνολικά πάνω από το 96% αδειών λογισμικού για virtualization χρησιμοποιείται για x-86 servers και το υπόλοιπο 4% περίπου σε RISC και EPIC servers. Για να το πούμε απλούστερα το «τρένο» πάει εκεί που η Intel έχει στήσει το μεγαλύτερο εμπορικό κέντρο.
Ενας server δεν είναι μόνο ο επεξεργαστής
Ο τρόπος που ο επεξεργαστής δένει με τα υποσυστήματα του server μπορεί να διαμορφώσει καθοριστικά τις επιδόσεις. Ο Sun Fire X4640, εφοδιασμένος με 8 επεξεργαστές Opteron 8435 της AMD και 32 GB μνήμης κατάφερε πρόσφατα να πετύχει 1,1 line items ανά ώρα, υποστηρίζοντας 10.000 χρήστες. Η επίδοση αυτή επιτεύχθηκε σε μια δοκιμή two-tier SAP SD, στην οποία χρησιμοποιήθηκε λειτουργικό σύστημα Solaris 10 και Oracle 10g και ήταν καλύτερη κατά 10% σε σχέση με αυτήν του πλησιέστερου ανταγωνιστή.
Μετά την ανακοίνωση των V-Blocks από τη Cisco, τα οποία θα ενσωματώνουν επεξεργαστική ισχύ, networking και storage στο ίδιο περίβλημα, το ζήτημα γίνεται ακόμα πιο περίπλοκο πλέον σε ένα τέτοιο σύστημα μια συνολική επίδοση θα πρέπει να συγκριθεί με το σύνολο των επιμέρους επιδόσεων αντίστοιχων ξεχωριστών συστημάτων.
Και ευτυχώς για τους πελάτες που ζητούν έντονο ανταγωνισμό από τους προμηθευτές τους, οι επιδόσεις δεν είναι η μόνη ειδοποιός διαφορά στο virtualization.
Στα πρώιμα στάδια του virtualization, οι περισσότερες έρευνες συμφωνούσαν ότι η ενοποίηση servers και οι οικονομίες κλίμακας που προκύπτουν ήταν η κινητήριος δύναμη για την υλοποίηση έργων. Ωστόσο, αν και η ελληνική αγορά βρίσκεται ακόμα σε αυτό το πρώιμο στάδιο, άλλες πιο ώριμες αγορές αποκαλύπτουν ποιό θα είναι το επόμενο σημείο ενδιαφέροντος.
Σύμφωνα με αναλυτές και IT managers, η πρόκληση του virtualization έχει μετατοπιστεί πλέον στην καθημερινή διαχείριση των virtualized servers. Η ευκολία δημιουργίας ενός virtual machine, οπουδήποτε στο δικτυακό και γεωγραφικό κόσμο της επιχείρησης, έχει δημιουργήσει μια άναρχη εξάπλωση. Εκεί που μέχρι τώρα οι IT managers είχαν να αντιμετωπίσουν την άναρχη εξάπλωση servers, έχουν τώρα να αντιμετωπίσουν το ίδιο πρόβλημα με virtual machines, τα οποία, όμως, εξαπλώνονται με ρυθμούς μέχρι και 100 φορές ταχύτερους.
Χωρίς τις απαραίτητες διαδικασίες ελέγχου είναι πολύ εύκολο να δημιουργηθούν σοβαρά προβλήματα, είτε στο επίπεδο των software licenses ή απλά να ξεμείνει η επιχείρηση από φυσικούς πόρους.