Optimisez vos ressources IT dormantes par Michel Corriou
Un gaspillage important des ressources IT dans les clouds privés
Le cloud public a connu un très fort développement depuis une dizaine d’année, mais les datacenters privés représentent encore près de 70% des investissements en serveurs informatiques (IDC 2019). Le cloud privé est en croissance de 15% par an. Les serveurs sont dimensionnés en fonction de leur pic de charge et les infrastructures sont en partie redondantes pour résister à des défaillances matérielles. Il en résulte que 50 à 80% des capacités des datacenters privés sont dormantes à un moment donné[1]. Cela n’est ni optimal d’un point de vue économique, ni vraiment acceptable d’un point de vue écologique lorsque l’on sait que les datacenters contribuent de manière non négligeable à la pollution due à l’industrie électronique[2].
Parallèlement, il existe un besoin exponentiel de ressources de calcul pour exécuter des traitements Big Data. Mais investir dans des ressources dédiées est très couteux et l’alternative reposant sur les clouds publics leaders du marché (Google, Amazon, Microsoft) ne permet pas de garantir une stricte confidentialité des données ni une souveraineté, compte tenu en particulier de la règlementation américaine en la matière, le Cloud Act, promulgué en 2018.
La transformation numérique dans le monde post Covid-19
Le climat d’incertitude lié au Covid-19 a accéléré la volonté de transformation numérique vers des infrastructures cloud. Les problématiques qui existaient avant la pandémie se sont renforcées avec la crise et imposent aux entreprises de revoir leurs priorités selon les 4 axes suivants :
1. Dimension stratégique de la transformation numérique et du cloud
- Accélérer la migration vers le Cloud devient la 1ere priorité[3]
- Pour 94% des entreprises, remanier leur stratégie informatique [3]
- Améliorer la réactivité en cas de fortes variations des besoins en volume informatique et en localisation
- Augmenter l'utilisation des ressources distribuées pour réduire les risques, assurer la continuité des services et optimiser les coûts
2. Optimiser ses coûts et garantir la résilience des entreprises
- Rééquilibrer les ressources et l'investissement
- Comprendre et gérer les changements de comportement des clients et les évolutions sociétales
- Limiter l’impact environnemental
3. Réduire les dépendances, se diriger vers la souveraineté numérique
- Tirer parti des partenaires de l'écosystème pour passer à un modèle allégé
- Réduire les dépendances vulnérables
4. Accroître l'adoption d'outils d'analyse de données
- Identifier rapidement la disponibilité des systèmes et les contraintes de performances
- Faire évoluer les applications
Dans ce contexte, nous avons rencontré Michel Corriou, Directeur des Opérations chez b<>com, afin qu’il nous explique pourquoi la technologie développée récemment par ses équipes, répond de façon agile à cette nouvelle réalité.
Michel, peux-tu résumer en quoi consiste la solution b<>com *Spare Cloud Allocator* ?
Cette solution technologique consiste à proposer une plateforme d’exécution Big Data distribuée s’appuyant sur les ressources informatiques dormantes de multiples datacenters privés, dans une approche de cloud collaboratif.
*Spare Cloud Allocator* offre aux clients finaux un environnement applicatif Big Data, reposant entièrement sur des ressources non utilisées dans les infrastructures privées. Ces ressources sont détectées automatiquement puis utilisées de façon optimisée, et remises à disposition en fonction des besoins sur l’infrastructure privée. La solution est sécurisée via des mécanismes d’isolation entre les différents environnements applicatifs instanciés.
Notre solution peut être déployée dans des infrastructures privées de type OpenStack ou VMWare. Les environnements applicatifs sont orchestrés par Kubernetes. Nous avons également implémenté des modèles prédictifs pour identifier les ressources disponibles et les allouer de façon intelligente sans perturber les besoins internes d’une infrastructure privée. La solution est aujourd’hui déployée en interne chez b<>com, sur notre plateforme d’expérimentation *xG Testbed*. Pour nos propres besoins, nous avons intégré la solution Apache Spark car il supporte nativement les infrastructures distribuées et intègre des mécanismes de résilience. Mais bien entendu, d’autres frameworks applicatifs pourront être intégrés dans la solution en fonction des demandes des clients.
A qui la solution s’adresse-t-elle ?
Aux DSI et services informatiques des secteurs des banques, assurances, transports et logistique, institutions publiques, pharma… tous les acteurs opérant des infrastructures clouds privés et devant répondre également à des besoins utilisateurs d’applications de Big Data.
Quels sont les différents cas d’usage ?
Dans un premier temps, nous considérons un cas d’usage mono-entreprise, c’est-à-dire avec des datacenters et des traitements Big Data internes à une même entreprise. Très tôt dans le projet, j’ai souhaité que ce cas d’utilisation soit mis en avant car il correspond à un segment marché plus facile d’accès, avec une meilleure acceptabilité du partage des ressources au sein d’une même structure. L’architecture logicielle est cependant conçue pour pouvoir supporter un modèle multi-entreprises par la suite.
Quels sont les atouts de cette solution ?
Tout d’abord, il faut parler du nerf de la guerre ! Cette solution a le mérite d’être rentable car elle évite aux entreprises d’investir dans de nouveaux serveurs quand bien souvent, les infrastructures existantes ne sont utilisées qu’à la moitié de leur capacité. Une étude économique que nous avons menée montre que le coût d’exécution sur une plateforme collaborative de ce type pourrait être 3 à 4 fois moins important sur un cloud privé dédié comparé à l’utilisation d’un cloud public de type AWS Spot Instance.
De plus, en évitant la construction de nouveaux data centers et l’investissement dans de nouvelles capacité de calcul et de stockage, la solution contribue au développement d’une Responsabilité Sociale d’Entreprise (RSE) en limitant l’impact environnemental dans un contexte de besoin exponentiel en ressources de calcul.
Un autre aspect extrêmement important dans le cadre d’une stratégie numérique souveraine est que la solution est entièrement développée en France et se base sur des composants open source maîtrisés. Elle représente une alternative aux fournisseurs de clouds publics américains et asiatiques. Notre solution permet d’assurer une stricte confidentialité des données et des applications en les conservant au sein de l’entreprise, au plus proche des utilisateurs.
La solution peut être encore plus disruptive avec le cas d’utilisation du modèle ouvert, c’est-à-dire multi-entreprises, car elle permet de générer une nouvelle source de revenus. Gagner de l’argent grâce à la location de la partie dormante de son infrastructure privée serait alors possible !
Vous êtes une entreprise capable d’intégrer notre solution pour la proposer à vos clients ? Notre solution est prête pour un partenaire qui souhaite expérimenter cette approche.
[1] M. Carvalho, W. Cirne, F. Brasileiro, and J. Wilkes. Long-term slos for reclaimed cloud computing resources. In Proceedings of the ACM Symposium on Cloud Computing, pages 1–13. ACM, 2014
[2] (La croissance du flux de e-déchets est la plus rapide au monde avec 48,5 millions de tonnes en 2018 January, selon le rapport du Forum Economique Mondial 2019).
[3] selon une étude menée par IDC en Europe au T2 2020