IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OVH abandonne le datacenter SBG1 envahi par de la fumée provenant de batteries lors du nouvel incendie maîtrisé :
Le résultat d'erreurs de conception de l'alimentation électrique révélées en 2017 ?

Le , par Patrick Ruiz

99PARTAGES

13  0 
Dizaine difficile pour OVH lancé dans la gestion d’un incendie qui lui a valu la perte du datacenter dénommé SBG2 sur son site de Strasbourg. En effet, l’addition est désormais plus salée pour le leader français et espoir européen de l’hébergement web. L’entreprise a frôlé un nouvel incendie et décide y faisant suite de l’abandon du datacenter SBG1. Qu’est-ce qui explique cette série de départs en fumée ? La piste de l’erreur de conception de l’alimentation électrique n’est-elle pas à explorer ?

La fumée dans le datacenter SBG1 provenait d’un lot de 300 batteries stockées en son sein dans un local non utilisé. Dans la foulée, OVHCloud a annoncé que tous les serveurs SBG1 seraient finalement déplacés sur d'autres centres de données situés sur le site de Strasbourg ou sur ses campus de Gravelines et Roubaix. L’entreprise avait pointé du doigt un dysfonctionnement d’un onduleur comme cause de l’incendie qui a détruit le datacenter SBG2. À date, 60 % des VPS de SBG3 sont en principe fonctionnels, contre 25 % pour l'offre bare metal. On reste dans l’attente de 40 % de Private Cloud (pCC). Le travail se poursuit. Il en va de même pour SBG4, avec le redémarrage attendu pour ce mercredi 24 mars.


La piste de l’erreur de conception de l’alimentation électrique du site est-elle à exclure ?

Dans une mise à jour de gestion d’incident survenu en 2017 Octave Klaba explique que :

« Ce matin à 7 h 23, nous avons eu une panne majeure sur notre site de Strasbourg (SBG) : une coupure électrique qui a mis dans le noir nos trois datacentres SBG1, SBG2 et SBG4 durant 3h30. Le pire scénario qui puisse nous arriver.

« Le site de SBG est alimenté par une ligne électrique de 20 kV composée de deux câbles qui délivrent chacun 10 MVA. Les deux câbles fonctionnent ensemble, et sont connectés à la même source et sur le même disjoncteur chez ELD (Strasbourg Électricité Réseaux). Ce matin, l’un des deux câbles a été endommagé et le disjoncteur a coupé l’alimentation des datacentres.

« Le site SBG est prévu pour fonctionner, sans limite de temps, sur les groupes électrogènes. Pour SBG1 et SBG4, nous avons mis en place, un premier système de deux groupes électrogènes de 2 MVA chacun, configurés en N+1 et en 20 kV. Pour SBG2, nous avons mis en place trois groupes en N+1 de 1.4MVA chacun. En cas de coupure de la source externe, les cellules haute tension sont reconfigurées automatiquement par un système de bascule motorisé. En moins de 30 secondes, les datacentres SBG1, SBG2 et SBG4 sont réalimentés en 20 KV. Pour permettre toutes ces bascules sans couper l’alimentation électrique des serveurs, nous disposons d’onduleurs (UPS) sachant fonctionner sans aucune alimentation durant huit minutes.

« Ce matin, le système de basculement motorisé n’a pas fonctionné. L’ordre de démarrage des groupes n’a pas été donné par l’automate. Il s’agit d’un automate NSM (Normal Secours Motorisé), fournit par l’équipementier des cellules haute-tension 20 kV. Nous sommes en contact avec lui, afin de comprendre l’origine de ce dysfonctionnement. C’est toutefois un défaut qui aurait dû être détecté lors des tests périodiques de simulation de défaut sur la source externe. Le dernier test de reprise de SBG sur les groupes date de la fin du mois mai 2017. Durant ce dernier test, nous avons alimenté SBG uniquement à partir des groupes électrogènes durant 8H sans aucun souci et chaque mois nous testons les groupes à vide. Et malgré tout, l’ensemble de ce dispositif n’a pas suffi aujourd’hui pour éviter cette panne.

« Vers 10h, nous avons réussi à basculer les cellules manuellement et nous avons recommencé à alimenter le datacentre à partir des groupes électrogènes. Nous avons demandé à ELD de bien vouloir déconnecter le câble défectueux des cellules haute tension et remettre le disjoncteur en marche avec un seul des deux câbles, et donc limité à 10 MVA. La manipulation a été effectuée par ELD et le site a été réalimenté vers 10 h 30. Les routeurs de SBG ont été joignables à partir de 10 h 58.

« Depuis, nous travaillons, sur la remise en route des services. Alimenter le site en énergie permet de faire redémarrer les serveurs, mais il reste à remettre en marche les services qui tournent sur les serveurs. C’est pourquoi chaque service revient progressivement depuis 10 h 58. Notre système de monitoring nous permet de connaitre la liste de serveurs qui ont démarré avec succès et ceux qui ont encore un problème. Nous intervenons sur chacun de ces serveurs pour identifier et résoudre le problème qui l’empêche de redémarrer.

« À 7 h 50, nous avons mis en place une cellule de crise à RBX, où nous avons centralisé les informations et les actions de l’ensemble des équipes. Un camion en partance de RBX a été chargé de pièces de rechange pour SBG. Il est arrivé à destination vers 17 h 30. Nos équipes locales ont été renforcées par des équipes du datacentre de LIM en Allemagne et de RBX, ils sont tous mobilisés sur place depuis 16H00. Actuellement, plus de 50 techniciens travaillent à SBG pour remettre tous les services en route. Nous préparons les travaux de cette nuit et, si cela était nécessaire, de demain matin.

« Prenons du recul. Pour éviter un scénario catastrophe de ce type, durant ces 18 dernières années, OVH a développé des architectures électriques capables de résister à toutes sortes d’incidents électriques. Chaque test, chaque petit défaut, chaque nouvelle idée a enrichi notre expérience, ce qui nous permet de bâtir aujourd’hui des datacentres fiables.

« Alors pourquoi cette panne ? Pourquoi SBG n’a pas résisté à une simple coupure électrique d’ELD ? Pourquoi toute l’intelligence que nous avons développée chez OVH, n’a pas permis d’éviter cette panne ?

« La réponse rapide : le réseau électrique de SBG a hérité des imperfections de design liées à la faible ambition initialement prévue pour le site.

« La réponse longue :

En 2011, nous avons planifié le déploiement de nouveaux datacentres en Europe. Pour tester l’appétence de chaque marché, avec de nouvelles villes et de nouveaux pays, nous avons imaginé une nouvelle technologie de déploiement de datacentres, basée sur les containers maritimes. Grâce à cette technologie, développée en interne, nous avons voulu avoir la souplesse de déployer un datacentre sans les contraintes de temps liées aux permis de construire. À l’origine, nous voulions avoir la possibilité de valider nos hypothèses avant d’investir durablement dans un site.

« C’est comme ça que début 2012, nous avons lancé SBG avec un datacentre en containers maritimes : SBG1. Nous avons déployé huit containers maritimes et SBG1 a été opérationnel en seulement deux mois. Grâce à ce déploiement ultra rapide, en moins de 6 mois nous avons pu valider que SBG est effectivement un site stratégique pour OVH. Fin 2012, nous avons décidé de construire SBG2 et en 2016, nous avons lancé la construction de SBG3. Ces deux constructions n’ont pas été faites en containers, mais ont été basées sur notre technologie de « Tour » : la construction de SBG2 a pris neuf mois et SBG3 sera mis en production dans un mois. Pour pallier les problèmes de place début 2013, nous avons construit très rapidement SBG4, l’extension basée encore sur les fameux containers maritimes.

« Le problème est qu’en déployant SBG1 avec la technologie basée sur les containers maritimes, nous n’avons pas préparé le site au large scale. Nous avons fait deux erreurs : primo, nous n’avons pas remis le site SBG aux normes internes qui prévoient deux arrivées électriques indépendantes de 20*KV, comme tous nos sites de DC qui possèdent plusieurs doubles arrivées électriques. Il s’agit d’un investissement important d’environ 2 à 3 millions d’euros par arrivée électrique, mais nous estimons que cela fait partie de notre norme interne. Deuxio, nous avons construit le réseau électrique de SBG2 en le posant sur le réseau électrique de SBG1, au lieu de les rendre indépendants l’un de l’autre, comme dans tous nos datacentres. Chez OVH, chaque numéro de datacentre veut dire que le réseau électrique est indépendant d’un autre datacentre. Partout sauf sur le site de SBG.

« La technologie basée sur les containers maritimes n’a été utilisée que pour construire SBG1 et SBG4. En effet, nous avons réalisé que le datacentre en containers n’est pas adapté aux exigences de notre métier. Avec la vitesse de croissance de SBG, la taille minimale d’un site est forcément de plusieurs datacentres, et donc d’une capacité totale de 200*000 serveurs. C’est pourquoi, aujourd’hui, pour déployer un nouveau datacenter, nous n’utilisons plus que deux types de conceptions largement éprouvées et prévues pour le large scale avec de la fiabilité : la construction de tours de cinq ou six étages (RBX4, SBG2-3, BHS1-2), pour 40*000 serveurs ; l’achat des bâtiments (RBX1-3,5-7, P19, GRA1-2, LIM1, ERI1, WAW1, BHS3-7, VIH1, HIL1) pour 40 000 ou 80 000 serveurs.

« Même si l’incident de ce matin a été causé par un automate tiers, nous ne pouvons nous dédouaner de la responsabilité de la panne. À cause du déploiement initial basé sur les containers maritimes, nous avons un historique à rattraper sur SBG pour atteindre le même niveau de normes que sur les autres sites d’OVH.

« Cet après-midi, nous avons décidé du plan d’action suivant : la mise en place de la 2e arrivée électrique, totalement séparée, de 20 MVA ; la séparation du réseau électrique de SBG2 vis-à-vis de SBG1/SBG4, ainsi que la séparation du futur SBG3 vis-à-vis de SBG2 et SBG1/SBG4 ; la migration des clients de SBG1/SBG4 vers SBG3 ; la fermeture de SBG1/SBG4 et la désinstallation des containers maritimes.

« Il s’agit d’un plan d’investissement de 4-5 millions d’euros, que nous mettons en route dès demain, et qui, nous l’espérons, nous permettra de restaurer la confiance de nos clients envers SBG et plus largement OVH.

« Les équipes sont toujours en train de travailler sur la remise en route des derniers clients impactés. Une fois l’incident clos, nous appliquerons les SLA prévus dans nos contrats.

« Nous sommes profondément désolés pour la panne générée et nous vous remercions des encouragements que vous nous témoignez durant cet incident. »

La Cnil monte au créneau

La CNIL a pour sa part procédé à la publication d’ une note sur son site qui rappelle les règles du RGPD aux propriétaires des sites web affectés par les incidents OVH. S'ils ont perdu des données personnelles, il faut le signaler à l'autorité :

« Suite à l’incendie du 10 mars 2021 ayant eu lieu dans un centre de données d’OVH à Strasbourg, la CNIL rappelle les obligations en matière de notification de violation en cas d’indisponibilité ou de destruction de données personnelles. La destruction de données personnelles (temporaire ou définitive), y compris accidentelle, constitue une violation de données au sens du RGPD. À ce titre, les responsables de traitement qui hébergeaient des données personnelles au sein des infrastructures touchées doivent documenter la violation (les faits, ses effets et les mesures prises pour y remédier) dans un registre tenu en interne. Les sous-traitants doivent informer leurs clients de l'incident afin que ces derniers puissent remplir leurs propres obligations, dont celle de documentation dans le registre des violations tenu en interne par chacun d’entre eux. »

Sources : Twitter, Cnil

Et vous ?

Qu’en pensez-vous ?

Voir aussi :

OVHcloud lance le processus d'une éventuelle introduction en bourse selon un porte-parole de l'entreprise
Capgemini et OVHcloud signent un partenariat mondial pour permettre aux organisations de mener leur transformation dans le cloud de manière sécurisée et apporter des solutions cloud robustes
OVHcloud s'associe à Orange Business Services afin d'accompagner les projets de migration et de transformation vers le cloud OVHcloud dans «*une approche multifournisseur »
OVHcloud s'associe à IBM et Atempo pour offrir aux organisations européennes une solution de stockage dans le cloud souveraine et compétitive, partenariat basé sur les solutions de stockage sur bande

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 30/03/2021 à 10:05
OVH donne des informations relatives au nettoyage des équipements suite à l'incendie,
opération nécessaire avant une remise en service

L'opérateur de cloud français OVH a révélé comment il nettoie tous les serveurs qui, selon lui, peuvent être remis en service dans ses centres de données brulés à Strasbourg. Le fondateur et président Octave Klaba a utilisé son compte Twitter pour montrer une partie du travail effectué par l'équipe de nettoyage de l'entreprise.

« Le nettoyage prend du temps. Nous avons 80 personnes (SBG3) + 20 personnes (Croix). Sur la gauche, une carte mère avec la pollution par la fumée sur le socket du CPU. C'est très corrosif ! Si nous mettons sous tension, il est mort. Identique au disque. Sur la droite, le même appareil 24 h après le nettoyage ».


Klaba a également déclaré que tous les serveurs devraient être nettoyés d'ici mardi, mais que le stockage et l'empilage de l'infrastructure pour certains services prennent plus de temps que prévu.

La mise à jour du dimanche après-midi d'OVH a offert plus de détails : « Aujourd'hui, le temps de nettoyage d'un rack est de 7 heures, et nos équipes s'améliorent chaque jour ».

La mise à jour avait également de meilleures nouvelles pour les clients :
  • SBG1 : Les serveurs récupérables Bare Metal Cloud sont en cours de nettoyage pour réinstallation à Strasbourg (SBG3 et SBG4). La remise en service débutera progressivement au début de la semaine prochaine (après inspection et nettoyage).
  • SBG3 est opérationnel : 84 % des services Bare Metal Cloud (VPS) ont de nouveau été mis à la disposition des clients, avec un objectif de 90 % au soir du 28 mars.
  • SBG4 est opérationnel : 100 % des serveurs Bare Metal sont à la disposition des clients.

Les serveurs du centre de données SBG1 reviendront en ligne à des moments différents. Certains resteront à Strasbourg et logeront au SBG4. D'autres sont destinés à d'autres centres de données OVH. La mise à jour mentionne un redémarrage « en milieu de semaine du 29 mars » pour certains et un redémarrage le 1er ou le 2 avril pour ceux qui ont été déplacés vers d'autres emplacements.

La reprise après sinistre est également en cours.

Certains services cloud d'OVH ne sont pas non plus restaurés à 100% de disponibilité. La société a également averti que des niveaux élevés de demande signifient que « les délais de livraison de nos services Bare Metal Cloud peuvent prendre plus de temps que d'habitude ».

« Nos équipes sont pleinement mobilisées et nous travaillons d'arrache-pied pour livrer le plus rapidement possible à nos clients, en particulier à tous les clients concernés », indique le communiqué de dimanche.

Klaba, quant à lui, a révélé que l'incendie avait coûté à OVH l'opportunité de lancer un nouveau service.

Sources : OVH, Octave Klaba

Et vous ?

Hébergez-vous des données ou sites sur OVHcloud ? Avez-vous été impactés par cet incendie ?
Si oui, faites-vous partie des clients dont les services ont été restaurés ?

Voir aussi :

OVHcloud lance le processus d'une éventuelle introduction en bourse selon un porte-parole de l'entreprise
Capgemini et OVHcloud signent un partenariat mondial pour permettre aux organisations de mener leur transformation dans le cloud de manière sécurisée et apporter des solutions cloud robustes
OVHcloud s'associe à Orange Business Services afin d'accompagner les projets de migration et de transformation vers le cloud OVHcloud dans « une approche multifournisseur »
OVHcloud s'associe à IBM et Atempo pour offrir aux organisations européennes une solution de stockage dans le cloud souveraine et compétitive, partenariat basé sur les solutions de stockage sur bande
12  0 
Avatar de Bill Fassinou
Chroniqueur Actualités https://www.developpez.com
Le 10/05/2021 à 20:41
OVH : le site de Roubaix de l'hébergeur aurait une sécurité incendie déficiente,
selon un rapport de Bureau Veritas

Un peu plus d'un mois après l'incendie qui a ravagé les datacenters strasbourgeois du français OVH, l'on apprend l'existence d'un rapport qui démontre la défaillance du système de sécurité incendie du site hébergeant ses datacenters à Roubaix. Le rapport, signé Bureau Veritas, a analysé en janvier la protection incendie du site de Roubaix qui renferme plus de 130 000 serveurs. Selon Bureau Veritas, les salles de batteries sont mal protégées et nécessitent une remise en conformité, la protection anti-foudre comporte des câbles susceptibles de conduire la foudre à l'intérieur de l'édifice, et d'autres problèmes encore.

Les sites abritant les centres de données du fournisseur français d'infrastructures cloud OVH seraient mal sécurisés. En effet, c'est ce que démontre un rapport d'audit de Bureau Veritas datant de janvier 2021, soit environ deux mois avant l'incendie qui a détruit ses installations à Strasbourg. Le rapport d'expertise sur le site de Roubaix attire l'attention sur trois points essentiels, notamment les salles abritant les batteries, les poteaux-incendie et la protection anti-foudre des datacenters roubaisiens. En premier, Bureau Veritas a remarqué que les pièces où OVH entrepose les batteries sont mal sécurisées.



Ces salles ne respecteraient pas les conditions minimales requises de résistance au feu. « Aucune prise de terre paratonnerre n’a été créée, seule une interconnexion en 50 mm² a été réalisée avec une câblette de terre passant sur un chemin de câble près de la clôture extérieure. Descente reliée à une barrette de liaison avec une câblette elle-même reliée à un conducteur présent dans un chemin de câble à environ 5 m (la gaine grise présente dans le regard ne contient pas de conducteur) », a noté Bureau Veritas à propos du bâtiment Roubaix 1, parlant du choix de la protection externe pour cette structure.

Vu sous cet angle, le bureau d'inspection recommande une remise en conformité des locaux qui abritent les batteries, notamment en ce qui concerne le côté « coupe-feu ». Toujours par rapport à ces observations, Bureau Veritas recommande également le déplacement de certaines de ces salles vers d'autres espaces respectant les contraintes réglementaires. Cette dernière recommandation vient du fait que, selon l'organisme, le bâtiment Roubaix 4 serait difficile d'accès aux engins de secours en cas de pépins. Le rapport mentionne que "les locaux de batteries de Roubaix 4 ne disposent pas d'une voie d'échelle".

Toutefois, il a précisé que "l'intégralité des salles contenant des batteries est en cours de mise en conformité" et qu'elles devraient être conformes à la réglementation ICPE d'ici fin 2022. La deuxième défaillance majeure mise en évidence par le rapport concerne les poteaux- incendie. À ce stade, l'organisme a révélé que le débit disponible en simultané sur trois poteaux-incendie installés sur le site de Roubaix, soit 360 m3/h, est "insuffisant par rapport aux besoins requis (420 m3/h)" par l'ensemble des installations. Il recommande donc l'implantation de "bassins de confinement" pour résoudre ce déficit.

En troisième grand point, c'est le dispositif anti-foudre du site roubaisien du fournisseur cloud français qui a été remis en cause par Bureau Veritas. En plus de pointer du doigt une installation défectueuse, il ajoute que les câbles de parafoudre, tels qu’installés, sont susceptibles de conduire la foudre « directement à l'intérieur de l'édifice ». En fait, le rapport note qu'aux abords des bâtiments Roubaix 2 et 4, un câble de parafoudre mal protégé se glisse sur une quinzaine de mètres à l'intérieur du centre de données Roubaix 2. Il s'agirait d'une installation contraire aux bonnes pratiques du domaine.



« Ce câble pénètre dans le bâtiment et remonte vers les bureaux. Cette installation peut être dangereuse, car elle peut amener en cas d'impact la foudre directement à l'intérieur de l'édifice », lit-on dans le rapport. Outre ces faits, Bureau Veritas note l'absence de parafoudres de type 1 au sein des tableaux basse tension (TGBT), à l'exception du bâtiment Roubaix 7. « L'ensemble des TGBT et TGBT de secours du site de Roubaix devront être équipés de parafoudres de type 1+2 », recommande l'organisation de certification dans son rapport de janvier dernier.

À lecture du rapport, des critiques avancent que les bâtiments des centres de données de Strasbourg souffriraient des mêmes défaillances, ce qui aurait donc conduit à l'incendie qui s'est ravagé le site dans la nuit du mardi 9 à mercredi 10 mars 2021. S'exprimant sur Twitter au lendemain de l'incendie, le fondateur et PDG d'OVHcloud, Octave Klaba avait expliqué que l’incendie est parti du centre de données SBG2, qui a été entièrement détruit au moment où arrivaient les secours. Il s'est propagé pour toucher une partie de SBG1. Les autres centres de données du site SBG3 et SGB4 ont été épargnés par l'incendie.

À la suite de ses recommandations pour la mise en conformité et la sécurisation des centres de données roubaisiens d'OVH, Bureau Veritas a estimé le montant des travaux. L'organisme mentionne dans le rapport que le fournisseur cloud français devra dépenser pas moins de 2,9 millions d'euros pour remettre le site aux normes actuelles de l'industrie.

Source : Rapport de l'étude (PDF)

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Un important incendie sur les installations d'OVHcloud à Strasbourg provoque l'indisponibilité de nombreux sites internet en France et en dehors de l'Hexagone

OVHcloud lance le processus d'une éventuelle introduction en bourse, selon un porte-parole de l'entreprise

OVHcloud promet de créer un laboratoire de simulation des incendies de datacenters pour mieux les modéliser et trouver des moyens plus efficaces de les éteindre

OVH abandonne le datacenter SBG1 envahi par de la fumée provenant de batteries lors du nouvel incendie maîtrisé : le résultat d'erreurs de conception de l'alimentation électrique révélées en 2017 ?
12  0 
Avatar de Fleur en plastique
Membre extrêmement actif https://www.developpez.com
Le 24/03/2021 à 10:47
Je suis tout feu tout flamme !

C'est vraiment des bandes de branquignoles, là on peut dire que leur réputation a cramé, que la confiance est partie en fumée, mais le feu de la catastrophe à venir devait couver depuis longtemps. Il a fallu que les flammes du destin viennent consumer le clair manque de sécurité de leurs datacentres. OVH sur le coup, a fait long feu, et leur aura de premier hébergeur de France est en cendres. Il est certain qu'il leur faudra des années à OVH pour faire des étincelles à nouveau.

Pour mon expérience personnelle : j'exploite un serveur situé sur le datacentre SBG1, dans l'une des salles qui a échappée au premier feu. Le serveur a été rallumé 7 jours après l'incident, mais mis en mode rescue, obligeant du coup à une opération manuelle pour le mettre en mode normal. Mais le robot de reboot était HS, il a donc fallu attendre qu'ils soit réparé pour que je puisse le relancer en mode normal. OVH a envoyé deux mails de condoléances dans les jours qui suivaient l'incident, a prévenu du démarrage du serveur en mode secours. Mais depuis, plus rien. D'ailleurs, le serveur est à nouveau HS, probablement suite au déménagement prochain vers un datacentre non maudit ? En tant que cliente, je n'en ai pas la moindre idée.

Je pensais les incendier au téléphone. J'ai été mise en attente pendant très exactement 59 minutes, m'assurant qu'un opérateur allait prendre mon appel. Mais au final, on m'a juste raccroché au nez. J'étais verte.
12  2 
Avatar de Michael Guilloux
Chroniqueur Actualités https://www.developpez.com
Le 23/03/2021 à 15:22
OVHcloud promet de créer un laboratoire de simulation des incendies de datacenters
pour mieux les modéliser et trouver des moyens plus efficaces de les éteindre

L'enquête relative à l'incendie sur les installations d'OVHcloud à Strasbourg est en cours, mais elle ne devrait pas livrer ses conclusions de sitôt. Essayant de redorer l'image de son entreprise après un sinistre qui a soulevé de nombreuses critiques, y compris sur la politique de sauvegarde des données des clients, Octave Klaba a annoncé de nouvelles mesures. Il promet par exemple la création d'un laboratoire de test pour modéliser les effets des incendies de datacenters. Mais ce n'est pas tout.

Deux semaines après l'incident, l'entreprise travaille d'arrache-pied pour qu'enfin tous ses datacenters soient de nouveau en service. Du moins, ceux qui sont encore utilisables, notamment SBG3 et SGB4 qui n'ont pas été touchés par le feu. Le datacenter SBG2 a été entièrement détruit, donc irrécupérable. Quant au datacenter SBG1, il a été en partie touché. Et avec l'épaisse nuée de fumée qui s'y est dégagée il y a quelques jours, OVHcloud n'est pas sûr de vouloir le remettre en service.

De leur côté, la police judiciaire et les experts en assurance mènent leurs enquêtes, pour faire la lumière sur les circonstances qui ont déclenché l'incendie. « Il faudra attendre des mois pour avoir les conclusions sur les causes de cet incident. Nous en communiquerons les résultats dès que nous les aurons », explique Octave Klaba dans une récente vidéo publiée sur Twitter. Vu sa promesse de tout faire désormais pour qu'une telle situation « n'arrive plus jamais », le PDG a d'OVHcloud a décidé de ne pas attendre les conclusions de l'enquête. Tentant de redorer l'image de son entreprise, il a annoncé un certain nombre de mesures, y compris la création d'un laboratoire de test pour modéliser les effets des incendies de datacenters.

Octave Klaba compte mettre sur pied un laboratoire d'essai qui étudiera les départs de feu dans les datacenters, leur modèle de propagation et les moyens les plus efficaces de les éteindre. Et les résultats de ces simulations en laboratoire, OVHcloud envisage de les partager avec les autres fournisseurs de cloud « de sorte qu’un incendie ne se reproduise plus non seulement chez nous, mais aussi dans toute la profession des datacenters », explique le PDG de l'entreprise d'hébergement Web. Il rappelle en effet qu'on n'éteint pas de la même façon un feu selon qu'il provienne des serveurs ou qu'il soit d'origine électrique.


Octave Klaba

OVHcloud a également décidé de renforcer les mesures de sécurité incendie dans tous ses datacenters et discuter avec l’ensemble de la communauté des datacenters pour faire évoluer les standards de protection. Octave Klaba voudrait par exemple changer le mode de refroidissement des salles de serveurs à l’intérieur du datacenter. Le standard aujourd’hui est le « free cooling ». Également désigné par « système de refroidissement passif », le free cooling consiste à refroidir naturellement un bâtiment tout en étant parfaitement respectueux de l'environnement, c'est-à-dire en utilisant l’air extérieur. En période de chaleur, ce procédé naturel est complété par la climatisation.

D'après Octave Klaba, OVHcloud a utilisé ce standard jusqu’en 2016, avant de passer à un système maison de refroidissement à l'eau comme pour ses serveurs. « Nous avons décidé de mettre ce procédé dans le domaine open source, l’ouvrant ainsi à tous les opérateurs de datacenters », a-t-il ajouté.

En ce qui concerne le retour à la normale, Octave Klaba promet que cela sera effectif à la fin de la semaine ou au début de la semaine prochaine. OVHcloud, qui fabrique ses propres serveurs, en a déjà produit 5000 depuis l’incident selon Octave Klaba, et devrait en faire encore entre 10 000 à 15 000 dans les deux semaines à venir. « Ces serveurs vont, selon les choix de migration des clients touchés, sur les datacenters de Roubaix, Gravelines, Francfort, Londres ou Varsovie », dit-il.

Source : Octave Klaba

Voir aussi :

OVHcloud lance le processus d'une éventuelle introduction en bourse selon un porte-parole de l'entreprise
Capgemini et OVHcloud signent un partenariat mondial pour permettre aux organisations de mener leur transformation dans le cloud de manière sécurisée et apporter des solutions cloud robustes
OVHcloud s'associe à Orange Business Services afin d'accompagner les projets de migration et de transformation vers le cloud OVHcloud dans « une approche multifournisseur »
OVHcloud s'associe à IBM et Atempo pour offrir aux organisations européennes une solution de stockage dans le cloud souveraine et compétitive, partenariat basé sur les solutions de stockage sur bande
9  0 
Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 02/04/2021 à 9:31
Incendie OVH : plus d’un millier de sauvegardes ne seront probablement pas récupérables,
admet OVHcloud

C'est sur twitter qu'Octave Klaba, fondateur et président d'OVH, a annoncé l'évolution des travaux de son entreprise. Cette fois-ci, une mauvaise nouvelle pour certains de ses clients : ils ne seront pas en mesure de récupérer leurs sauvegardes.

Le problème se situe au niveau de l’option payante de backup automatisé pour les VPS et les instances Public Cloud (PCI). Elle dépend du service de stockage objet (PCS). Ce dernier se trouvait dans le datacenter SBG3 à 99,5 %. Le reste était hébergé dans SBG2, que l’incendie a détruit. Est alors étudiée la possibilité de reconstituer les données. Étant donné que les fichiers sont chiffrés, l'exercice s'avère impossible s'il manque ne serait-ce qu'une infime partie. C'est le cas pour 1235 sur 19 486 sauvegardes. Octave Klaba explique :

« 0,5 % des serveurs ont été détruits. Nous avons vérifié et reconstruit les données, mais nous ne pouvons pas récupérer toutes les données. Il s’agit d’une petite partie ; nous n'avons pas trois copies puisque les trois copies étaient sur 0,5 % des serveurs. Des 1 235 sauvegardes sur 19 486 sauvegardes, 6 %, soit une petite partie du fichier, n’y sont pas. Étant donné que tous les fichiers sont chiffrés, nous ne pouvons pas reconstruire partiellement les 1 235 sauvegardes avec les données dont nous disposons. Nous continuons à vérifier, mais ..: /

« Toutes les 18 251 sauvegardes (VPS / PCI) sont en cours ».


Concernant les sauvegardes valides, la remise en service VPS a débuté ce jeudi 1er avril. OVHcloud compte les fournir « prêts à l’emploi » à partir de la dernière sauvegarde. Toutefois, l'hébergeur prévient que la récupération est susceptible de durer plusieurs jours. Pour mémoire, un serveur privé virtuel (VPS, pour Virtual Private Server) est un serveur dédié virtualisé. Contrairement à un hébergement web (dit mutualisé) où la gestion technique est prise en charge par OVHcloud, c'est vous qui administrez totalement votre VPS.

Au tweet « Ils sont probablement en train de créer un script qui pourra reconstruire les VPS à l'identique en termes d'IP et de configuration similaire et qui y remontera le dernier backup disponible (la veille de l'incendie donc), plus rapide (sur la totalité) et fiable que manuellement », OVHcloud Task Force Tech a répondu : « C'est ça, l'idée est de pouvoir reconstruire les VPS de SBG2 qui avaient des backups automatiques à partir du dernier backup, de la façon la plus rapide et industrialisée possible ».

Sur l’offre PCI, la mise à disposition des backups a démarré ce 31 mars dans une nouvelle région OpenStack. Il revient aux clients de recréer des instances à partir du manager ou de l’API.

Concernant la récupération des serveurs, OVHCloud a fait une mise à jour. Conformément à sa politique de transparence vis-à-vis de ses clients, l'entreprise a communiqué sur ses plans d'action en cours. Voici la situation actuelle :
  • SBG1 : les serveurs de SBG1 sont inspectés, nettoyés et éventuellement réparés à Croix. Certains ont été renvoyés sur le site de Strasbourg et sont en cours de reconnexion. Les premiers racks sont en service depuis jeudi 1er avril. Les opérations se poursuivront pendant une semaine. Le site SBG1 est en cours de démantèlement.
  • SBG 2 : des services équivalents dans d'autres datacenters sont proposés à tous ses clients, et OVH les accompagne par des solutions alternatives.
  • SBG3 est opérationnel : à ce jour, 95 % des services VPS et 99 % des services Bare Metal Cloud, Public Cloud Instance et Public Cloud Storage ont été mis à disposition des clients. Le service vRack a également été restauré.
  • Il y a eu un dysfonctionnement sur l'équipement énergétique du SBG3 jeudi 1er avril aujourd'hui vers 6 heures du matin, sans conséquence sur le service. Ses équipes ont mis en place les contrôles nécessaires et poursuivi les opérations sur site.
  • SBG4 est opérationnel : 100% des serveurs Bare Metal Cloud sont à la disposition des clients.

Sources : Octave Klaba, OVH

Et vous ?

Hébergez-vous des données ou sites sur OVHcloud ? Avez-vous été impacté par cet incendie ?
Si oui, faites-vous partie des clients dont les services ont été restaurés ?

Voir aussi :

OVHcloud lance le processus d'une éventuelle introduction en bourse selon un porte-parole de l'entreprise
Capgemini et OVHcloud signent un partenariat mondial pour permettre aux organisations de mener leur transformation dans le cloud de manière sécurisée et apporter des solutions cloud robustes
OVHcloud s'associe à Orange Business Services afin d'accompagner les projets de migration et de transformation vers le cloud OVHcloud dans « une approche multifournisseur »
OVHcloud s'associe à IBM et Atempo pour offrir aux organisations européennes une solution de stockage dans le cloud souveraine et compétitive, partenariat basé sur les solutions de stockage sur bande
9  0 
Avatar de Levure
Membre du Club https://www.developpez.com
Le 24/03/2021 à 15:19
Donc en 2017, OVH annonce ceci :

« Cet après-midi, nous avons décidé du plan d’action suivant : la mise en place de la 2e arrivée électrique, totalement séparée, de 20 MVA ; la séparation du réseau électrique de SBG2 vis-à-vis de SBG1/SBG4, ainsi que la séparation du futur SBG3 vis-à-vis de SBG2 et SBG1/SBG4 ; la migration des clients de SBG1/SBG4 vers SBG3 ; la fermeture de SBG1/SBG4 et la désinstallation des containers maritimes.

« Il s’agit d’un plan d’investissement de 4-5 millions d’euros, que nous mettons en route dès demain, et qui, nous l’espérons, nous permettra de restaurer la confiance de nos clients envers SBG et plus largement OVH.
Et en 2021, rien n'a été apparemment fait :
  • Il n'y a toujours qu'une seule alimentation électrique pour l'ensemble du site de Strasbourg.
  • SBG1 et SBG4 sont toujours là. (Ce n'est que maintenant qu'ils vont fermer SBG1 et déplacer une partie des serveurs de SBG1 vers SBG4)


Pire, OVHCloud a annoncé qu'ils allaient alimenter SBG4 (électricité et réseau) à partir de SBG3.
Il n'y a aucune redondance sur le datacenter de Strasbourg, c'est effrayant. Le site de Strasbourg est clairement un site à éviter en l'état.

Et quand à la climatisation des salles via un refroidissement à eau, OVH n'a rien inventé : ça existe déjà chez Scaleway (DC5) : https://lafibre.info/scaleway/dc5/

Enfin, la dernière annonce d'OVHCloud de vouloir "faire évoluer les standards de protection" fait rire (jaune)...
Qu'ils implémentent déjà les principes de base existants de l'agencement et la gestion d'un datacenter et qu'ils soient plus transparents sur l'éventuel backup de leurs hébergements ainsi que leurs offres payantes de backup (réplications éventuelles et lieux de stockages des backups), ce sera déjà un énorme pas en avant...
..
OVHCloud c'est du low-cost, et le low-cost - il n'y a pas de magie - ca se fait toujours au détriment de l'un ou l'autre élément.
Je ne comprends pas comment on a pu reconnaître OVHcloud comme fournisseur de cloud souverain.
8  0 
Avatar de Sylvain_LD
Nouveau membre du Club https://www.developpez.com
Le 26/03/2021 à 9:56
Citation Envoyé par Anselme45 Voir le message
Ce ne serait pas plus "productif" de simplement ajouter à leurs datacenters un système anti-incendie efficace comme c'est le cas dans tous les datacenters sérieux?

Ou pourquoi pas, soyons fou, de ne pas mettre les serveurs et leur backup dans le même local?
Je ne pesais vraiment pas qu'OVH était amateur à ce point! Se vanter d'âtre le N°1 et avoir des systèmes concentrés au même endroit sans redondance miroir ça fait vraiment guignol!
Le B A BA de la sécutité des systèmes informatiques bafoué!
7  0 
Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 24/03/2021 à 11:08
Ce ne serait pas plus "productif" de simplement ajouter à leurs datacenters un système anti-incendie efficace comme c'est le cas dans tous les datacenters sérieux?

Ou pourquoi pas, soyons fou, de ne pas mettre les serveurs et leur backup dans le même local?
6  0 
Avatar de petitours
Membre expérimenté https://www.developpez.com
Le 25/03/2021 à 18:26
Citation Envoyé par Leruas Voir le message
Il y a des offres "premium" chez OVH, le Private Cloud par exemple coutant au minimum 1000€ / mois (pas spécialement moins cher que la concurrence), à première vue les Private Cloud étaient stockés de la même façon que les serveurs hébergeant des sites lambdas à 5€/mois ou des instances VPS/Public Cloud.
Le plus étonnant étant surement que des serveurs Private Cloud (PCC) de Strasbourg se sont retrouvés mis dans des vieux containers maritimes. J'imagine que les clients en question n'était pas au courant que leur PCC était dans un container maritime au milieu d'un terrain vague alimenté juste par un gros câble électrique. (Et que la backup Veeam était dans le container maritime d'à côté...).
Il y a forcément une question de coût/valeur ajouté qui justifierait très légitiment pourquoi certaines infrastructures sont mieux protégées que d'autres.
Pour moi rien de choquant à dire là que l'on a des installations low cost où on vous garanti rien du tout, même si certaines choses (comme isoler les installations électriques du reste) ne coute pas plus cher que de les mettre à un endroit ou ça peut se propager.

Mais là la question n'est pas là. Il est ici question de faire de la recherche pour trouver des solutions contre de tels incendies. Les solutions existent et sont parfaitement connues de pleins de gens spécialisés là dedans !

Un exemple très courant dans l'industrie métallurgique ou agroalimentaire où il y a des outils de production monstrueux, très couteux et tellement spécifiques qu'ils peuvent être irremplaçables (comme des données) ; les assureurs font déplacer les alimentations électrique pour les éloigner des process et de puissants sprinklages sont mis en place pour neutraliser totalement l'installation électrique en cas de départ de feu. L’assureur sait qu'il va massacrer l'alimentation électrique mais ça il sait le remplacer facilement et il sait aussi fournir des 10n de MW de puissance avec des camions générateurs le temps des réparations.
Chez OVH c'est pareil. Les infras fibres sont ultra précieuses, les datas pareil, les serveurs un peu moins et l'alim élec représente queudal car très facilement remplacée. Et comme partout les départs de feu sont plus probables sur les appareils énergétiques (onduleurs, groupes froids et compresseurs, protections...), les fameux trucs les plus faciles à remplacer.

Autre solution technique trés répandu avec les armoire électrique inertées. si départ de feu dans l'armoire elle st automatiquement noyée dans l'azote pour stopper le feu. J'ai vu ça sur des 10n d'armoire de machines critiques dans l'industrie et je suis même rentré dans un local serveur d'une usine (15m² le truc) où toute la salle était équipée du même système d'inertage à l'azote. En cas d'alarme on avait quelques secondes pour quitter la salle.

Soit on évite la propagation des flammes, soit on protège ce qui est précieux, soit on fait les 2 (en gros) et l'analyse des risque indique aussi ce qu'il faut remplacer et comment le cas échéant.

Ça fait 20 ans que je bosse dans l'industrie lourde et vois des spécialistes du risque industriel mettre en place des infras et je vous garantis que les solutions méthodologiques et techniques sont là ; ce labo d’étude et simulation est un gag de communication.
6  0 
Avatar de grunk
Modérateur https://www.developpez.com
Le 07/05/2021 à 11:47
Le plan d’OVH commence par les sauvegardes internes. « Bien sûr, OVH dispose de sauvegardes internes pour tous les services, pour nos besoins internes », a déclaré Klaba. « Et nous avons décidé de mettre à niveau la façon dont nous effectuons les sauvegardes internes ». Certaines sauvegardes étaient dans le même centre de données, tandis que d'autres étaient dans des centres de données distants. L'opérateur propose désormais de créer une région de quatre centres de données où il hébergera des sauvegardes internes physiquement séparées des régions opérationnelles.

À l'avenir, a-t-il dit, « nous allons créer une région avec quatre centres de données en dehors de tous nos centres de données. Et c'est là que nous placerons toutes les sauvegardes internes. Ce sera donc totalement en dehors de tous nos centres de données dans une autre région ».
Pourquoi encore tout regrouper dans une même région et ne pas répliquer géographiquement un peu partout ?
5  0