Sapinet

All systems are operational.

  • moji moji1, Nanterre

    Last updated 2025-04-29 14:31:10

    Operational
  • Equinix PA3, Saint-Denis

    Last updated 2025-04-27 17:33:22

    Operational
  • TeleHouse 2 KDDI, Paris

    Last updated 2025-04-27 17:34:04

    Operational
  • Virtual Private Server (VPS)

    Last updated 2025-04-27 17:35:14

    Operational
  • Dedicated server

    Last updated 2025-04-27 19:23:45

    Operational
  • Housing

    Last updated 2025-04-27 17:35:33

    Operational
  • IPv4 network

    Last updated 2025-04-27 17:36:07

    Operational
  • IPv6 network

    Last updated 2025-04-27 17:36:15

    Operational
  • DDoS Protection

    Last updated 2025-04-27 17:36:25

    Operational
  • Website

    Last updated 2025-04-28 14:11:32

    Operational
  • Customer Area

    Last updated 2025-04-27 17:37:06

    Operational
  • Payment methods

    Last updated 2025-04-27 17:37:20

    Operational
  • Service management

    Last updated 2025-04-27 17:37:39

    Operational

Past Incidents

No incidents reported.

No incidents reported.

No incidents reported.

No incidents reported.

No incidents reported.

No incidents reported.

Fixed

Fixed

1 week ago —

Éléments communiqués par notre partenaire datacenter

Suite à nos échanges avec notre partenaire, nous avons pu obtenir les premières explications techniques concernant l’incident :

  • Une perte totale de courant est survenue à 5h30 sur le site Moji 1, d’abord sur la voie B, puis sur la voie A.
  • L’onduleur B a tenté une bascule suite à une variation importante de tension, mais le groupe électrogène (GE) n’a pas démarré, en raison d’un code d’erreur inédit actuellement en cours d’analyse par le constructeur.
  • L’alimentation de la voie A a été maintenue temporairement par les supercaps, jusqu’à leur épuisement. À ce moment-là, une surcharge sur la voie A a provoqué la mise en sécurité de l’onduleur A.
  • Le système de transfert de source (STS), qui est en coupure manuelle, n’a pas permis une bascule automatique. Le rétablissement de l’alimentation a donc nécessité un réarmement manuel progressif, selon la procédure.

Mesures correctives engagées par notre partenaire

Des actions immédiates ont été enclenchées afin d’éviter toute récidive :

  • Le constructeur du groupe électrogène a été contacté pour une analyse approfondie du code d’erreur.
  • Le STS de la voie A sera câblé en automatique d’ici vendredi.
  • L’analyse complète du défaut de l’onduleur A est actuellement en cours.

Nous continuons à suivre la situation de près et vous tiendrons informés des prochaines étapes ou conclusions définitives dès qu’elles seront disponibles.

Encore une fois, nous vous prions de bien vouloir nous excuser pour la gêne occasionnée et vous remercions pour votre compréhension.

1 week ago —

Bonjour,

Nous vous informons qu’un incident est survenu le 28/05/2025 au sein de l’un de nos datacenters. Nos équipes ont immédiatement mis en œuvre les actions nécessaires afin de rétablir la situation dans les plus brefs délais.

Heure Description
05h30 (UTC+2) Notre système de monitoring détecte un incident impactant une partie de notre infrastructure hébergée en datacenter.
05h35 (UTC+2) Un technicien est immédiatement mobilisé pour vérification. Aucune des baies concernées n’est alors joignable.
05h40 (UTC+2) Nous prenons contact avec notre partenaire d’hébergement pour clarification. À ce moment-là, leurs équipes indiquent être en cours d’investigation.
08h00 (UTC+2) Les premières baies commencent à remonter sur le réseau. Nos équipes poursuivent leurs actions pour un rétablissement complet.
08h45 (UTC+2) Toute l’infrastructure est de nouveau opérationnelle.

Nos équipes restent mobilisées en collaboration avec notre partenaire pour identifier la cause de cet incident. Nous reviendrons vers vous avec une analyse détaillée dès que possible.

Nous vous remercions pour votre compréhension et restons à votre disposition pour toute question complémentaire.

Bien cordialement,