L'hybridation entre cloud externe (public ou privé) et infrastructure interne, sera donc la règle pour de nombreuses entreprises si ce n'est la majorité.
Après avoir exploré dans le billet précédent les enjeux de la maîtrise de son infrastructure logicielle (DSI et Facebook, même combat), il encore temps de soulever le capot de cette infrastructure matérielle interne a qui on va demander encore beaucoup, et de jeter le projecteur sur sa forteresse : le datacenter.
Le buzz et le marketing autour du cloud, avec la promesse d'une offre scalable en puissance et en volume de stockage, de coûts de possession réduits, et surtout de ne payer que ce dont on a besoin, nous ferait presque oublier qu'il reste encore des datacenters "à l'ancienne" loin de ces standards. En fait, c'est même la majorité des datacenters!
GreenSI a entendu cette semaine un professionnel se plaindre d'un refus de virtualisation de serveurs dans son datacenter outsourcé, car cela n'arrangeait pas son hébergeur... aussi vendeur de serveurs. Quelle imagination débordante!
Surtout quand on réalise qu'une telle approche reviendrait a renoncer à la scalabilité tant vantée ou à payer un sur-dimensionnement, pour pouvoir augmenter les ressources d'une application (sur une période courte comme une clôture mensuelle), Sans parler du bilan carbone de ce sur-dimensionnement qui serait détestable...
Heureusement, ce n'est pas la règle, et les datacenters, d'entreprises ou d'hébergeurs, sont bien entrés dans une phase de transition pour atteindre les performances du Cloud devenu le benchmark à atteindre.
Une étude (pdf) ommandée par Colt et présentée à quelques DSI dans un restaurant parisien cette semaine, révèle que l'âge moyen des infrastructures des datacenters en Europe est de 9 ans. Sachant que ces dernières années ont été propices à l'ouverture de beaucoup de capacité pour le Cloud, cela veut dire qu'un grand nombre de datacenters sont encore plus vieux que cela.
Pour Colt, hébergeur européen de services de collocation avec 20 centres de données dans 22 pays, les datacenters sont au bord d'une rupture, en tout cas d'une évolution forte pour s'adapter aux besoins à venir.
Dans le contexte des besoins tirés pas l'hybridation présentée ci-avant, et les nouveaux business modèles des entreprises qui se numérisent, les signes de cette rupture sont pour Colt,l'incapacité à prévoir les besoins de capacité et de stockage pour 63% des DSI interrogés.41% ont sous-estimé leurs besoins et 31% sur-estimés.
Et pire, les délais pour prendre des décisions sur la stratégie (expansion, consolidation...) se sont eux allongés par rapport à ce qu'ils étaient 12 mois avant. Alors si les projets de Bigdata et d'objets connectés sont bien devant nous, et amènent réellement une augmentation des capacités de stockage et d'analyse, il est temps de se poser des questions sur l'évolution de ses besoins et sur sa stratégie.
Les facteurs principaux de ces stratégies datacenters sont:
- l'énergie (qui influence les coûts),
- la localisation,
- la gestion des risques et du règlementaire,
- et la transformation métier de l'entreprise dans les années qui arrivent.
Depuis les révélations de Snowden sur les indiscrétions de la NSA, la localisation de ses données devient un facteur important à prendre en compte pour l'évolution de son infrastructure interne. Des affaires qui ont été du pain béni pour les hébergeurs qui avaient misé sur une offre nationale ("cloud souverain").
Mais quand on est une PME avec des clients en Espagne, en France et en Italie, l'offre "nationale" atteint sa limite. Surtout si le réglementaire s'en mêle et impose de garder ses données clientèles dans chaque pays d'origine. C'est peut-être un futur avantage a court-terme pour les hébergeurs pouvant offrir de la multi-localisation en Europe. A moyen terme, on mesure en cette période d'élections européennes, l'importance de l'Europe et de sa capacité a créer un environnement de confiance européen pour nos données et les protéger des indiscrétions des américains pour ne citer qu'eux..
L'annonce en Février dernier de l'américain Salesforce, pour ouvir un datcenter en France, (mais également en Allemagne et UK) est aussi un signe de cette tendance qui impacte aussi le SaaS, d'avoir ses données le plus près du siège de l'entreprise. Celui prévu à Londres venant d'ailleurs d'ouvrir cette semaine. Les extensions de capacités ne vont vraisemblablement pas conduire a des datacenters plus grands, mais a des datacenters mieux répartis.
L'infrastructure devient stratégique. C'est l'actif majeur de sociétés comme Amazon, Facebook ou Google pour se différencier par rapport a des sociétés plus traditionnelles auxquelles elles "siphonnent" les revenus publicitaires ou commerciaux. La réorganisation dans les télécoms n'y est pas étrangère, ces derniers étant devenus de simples fournisseurs d'accès pour les clients des premiers, car la valeur est passée dans les services produits par leurs datacenters à haute performance utilisés par des centaines de millions d'utilisateurs.
Alors ne restons pas trop les bras croisés dans le virtuel où le marketing du Cloud aimerait nous endormir, et posons nous les bonnes questions sur le physique, et sur l'évolution de nos besoins en terme de capacité et de stockage, et surtout : au fait elles seront où nos données demain?