L’intelligence artificielle au sein des centres de données : la réponse pour une fiabilité sans faille

Les coupures représentent l’un des risques les plus couteux pour les opérateurs de centre de données et leurs clients. L’IDC évalue que le coût moyen d’une panne est de 100,000 $ US par heure. Dans le cas d’une défaillance majeure, le montant s’élève à 500,000 US $ et peut atteindre plus d’1 million de $. Pour les opérateurs de centre de données, un seul incident peut non seulement compromettre leur place comme partenaire de choix pour leurs clients mais également ternir leur réputation pour toujours.

Pourtant, même avec des mesures d’entretien des plus rigoureuses, un taux de disponibilité de 100% est un objective difficile à atteindre. Afin de maintenir et d’optimiser la performance des centres, l’approche traditionnelle est de combiner l’expertise d’ingénieurs hautement qualifiés, un réseau de détecteurs électroniques et un personnel de techniciens qui contrôle chaque jour la consommation électrique ainsi que les systèmes de refroidissement. Malgré ces mesures quotidiennes de maintenance et ces nombreux tests, c’est l’erreur humaine qui reste la cause principale de pannes.

Cette statistique alarmante met en évidence les limites des procédures mise en place aujourd’hui au sein des centres de données. Avec des besoins de plus en plus complexes, ce défi devient à son tour de plus en plus réel et problématique. Dans l’univers des centres de données modernes, il est simplement irréaliste de concevoir des tests pour toutes les combinaisons et configurations possibles maximisant la performance des centres. En 2014, Google s’imposa comme innovateur en utilisant l’intelligence artificielle pour étudier les variables nécessaires pour calculer l’efficacité maximale de leurs parcs de serveurs. Les algorithmes créés grâce aux données collectées sont devenus une référence dans le milieu et sont utilisés à travers le monde pour atteindre une performance optimale.

Aujourd’hui les possibilités qu’offre l’IA sont sans limite. C’est sans surprise que les innovateurs TI se sont tournés vers son potentiel pour résoudre le plus gros défi des centres de données : le taux de disponibilité. Un des pionniers est la start-up de San José LitBit.

LitBit a développé un logiciel d’IA qui en écoutant apprend à mettre en évidence la disponibilité et la capacité de travail du personnel présent sur les sites. Ces détecteurs deviennent partie intégrante de l’équipe de techniciens et ajoutent une mesure de contrôle systématique supplémentaire permettant d’identifier et de résoudre de façon proactive un éventuel problème.

Engagé à fournir des solutions toujours plus fiables et sécuritaires, ROOT incorporera dès 2018 la technologie de pointe LitBit dans ses procédures de maintenance. Le processus a déjà commencé avec l’installation des détecteurs LitBit.

Pour en savoir plus sur l’IA au sein des centres de données et son utilisation par ROOT pour atteindre un taux de disponibilité de 100%, télécharger le livre blanc ici.