Sapinet

All systems are operational.

Fixed

Fixed

1 week ago —

Éléments communiqués par notre partenaire datacenter

Suite à nos échanges avec notre partenaire, nous avons pu obtenir les premières explications techniques concernant l’incident :

  • Une perte totale de courant est survenue à 5h30 sur le site Moji 1, d’abord sur la voie B, puis sur la voie A.
  • L’onduleur B a tenté une bascule suite à une variation importante de tension, mais le groupe électrogène (GE) n’a pas démarré, en raison d’un code d’erreur inédit actuellement en cours d’analyse par le constructeur.
  • L’alimentation de la voie A a été maintenue temporairement par les supercaps, jusqu’à leur épuisement. À ce moment-là, une surcharge sur la voie A a provoqué la mise en sécurité de l’onduleur A.
  • Le système de transfert de source (STS), qui est en coupure manuelle, n’a pas permis une bascule automatique. Le rétablissement de l’alimentation a donc nécessité un réarmement manuel progressif, selon la procédure.

Mesures correctives engagées par notre partenaire

Des actions immédiates ont été enclenchées afin d’éviter toute récidive :

  • Le constructeur du groupe électrogène a été contacté pour une analyse approfondie du code d’erreur.
  • Le STS de la voie A sera câblé en automatique d’ici vendredi.
  • L’analyse complète du défaut de l’onduleur A est actuellement en cours.

Nous continuons à suivre la situation de près et vous tiendrons informés des prochaines étapes ou conclusions définitives dès qu’elles seront disponibles.

Encore une fois, nous vous prions de bien vouloir nous excuser pour la gêne occasionnée et vous remercions pour votre compréhension.

1 week ago —

Bonjour,

Nous vous informons qu’un incident est survenu le 28/05/2025 au sein de l’un de nos datacenters. Nos équipes ont immédiatement mis en œuvre les actions nécessaires afin de rétablir la situation dans les plus brefs délais.

Heure Description
05h30 (UTC+2) Notre système de monitoring détecte un incident impactant une partie de notre infrastructure hébergée en datacenter.
05h35 (UTC+2) Un technicien est immédiatement mobilisé pour vérification. Aucune des baies concernées n’est alors joignable.
05h40 (UTC+2) Nous prenons contact avec notre partenaire d’hébergement pour clarification. À ce moment-là, leurs équipes indiquent être en cours d’investigation.
08h00 (UTC+2) Les premières baies commencent à remonter sur le réseau. Nos équipes poursuivent leurs actions pour un rétablissement complet.
08h45 (UTC+2) Toute l’infrastructure est de nouveau opérationnelle.

Nos équipes restent mobilisées en collaboration avec notre partenaire pour identifier la cause de cet incident. Nous reviendrons vers vous avec une analyse détaillée dès que possible.

Nous vous remercions pour votre compréhension et restons à votre disposition pour toute question complémentaire.

Bien cordialement,

Incident UUID 4b1cfbcb-03cf-4d2b-9bba-dedf0536c5e5