Que dit le cloud en 2018 ?




Au AWS Summit qui se tenait à Paris ce 19 juin 2018 nous avons, inévitablement, fait le plein de « Amazing stories, Amazing customers…. »

Il est vrai que les chiffres sont éloquents, ne serait-ce que la croissance de 50% sur l’année passée … et qui accélère.

Et ceci s’explique naturellement par un observation quotidienne du phénomène que Werner Vogels (https://twitter.com/Werner ) a évoqué en introduction :

“ les stratégies du moment, pour tout type d’entreprises, de tous secteurs :

  • Adoption des standards cloud.
  • Fermeture programmées de data center;
  • Approche Cloud first.
  • …partout dans le monde et bien entendu en France.

==== La fin (toujours plus proche) des Serveurs



En parlant de standard Cloud, celui qui revient désormais avec insistance est l’approche Serverless (traduisez Lambda en AWS). La définition avancée est :

“la plus petite entité logique qui peut être changée facilement – que ce soit pour des raisons business (évolution de l’offre) ou technologique”.

Ceci en opposition avec les approches à l’ancienne par serveurs d’application, qui rendent les applications difficiles à passer à l’échelle.

Les témoignages qui ont suivi (SNCF, ContentSquare, Euronex, Renault) ont systématiquement mis en avant l’elasticité comme un des atouts majeurs du cloud, et l’approche serverless en est un des supports naturels.

Il y a un corollaire en terme de développement:

Embrasser le développement serverless, c’est dépendre un peu plus du fournisseur de cloud et de ses standards.
C’est aussi utiliser des outils de développement qui se placent au coeur de la plateforme, et c’est l’esprit d’un des produits mis en avant lors de cette cérémonie : Cloud 9. Les fonctionnalités mentionnées sont : Le collaboratif, le développement facilité des fonctions Lambda, l’intégration avec les outils de déploiement pour des mises en lignes continues…

==== Le retour d’expérience et perspectives de la SNCF



Raphael Viard , CIO / CTO de la SNCF, nous a présenté le contexte d’une organisation très complexe :

  • 120 000 PC, 90 0000 terminaux mobiles, 14 000 applications et 15 000 serveurs, des data centers internes.
  • des métiers réseau, voyageurs, …
  • des événements (intempéries, ),
  • des événements en très grands nombre : des millions de voyageurs quotidiens.

Il faut masquer la complexité et garantir la qualité de services.

Elasticité : A titre d’exemple, lors de fortes charges sur une application, la SNCF a pu monter de 170 a 240 instances en 20 minutes….. et inversement, ce qui n’aurait pas été possible avec l’infrastructure interne.

Résilience : en automatisant les déploiements, on s’offre la possibilité de mettre en ligne des évolutions en continu, mais aussi de faire des retours à la version de base en 45 minutes (errare humanum est).

Les objectifs affichés sont de placer 60% du patrimoine IT dans le cloud public à horizon de 2 ans et demi et d’être en approche Cloud first.

==== Machine learning



AWS met en avant que l’intelligence de leurs produits prime ./ Alexa /GO … sont pilotés par le machine learning …. et que cette technologie est disponible au travers des composants techniques de ML de AWS.

Traduction, Transcription, Synthèse vocale

l’exemple cité est celui d’ARAMIS AUTO qui utilise AWS pour vendre ses voitures. ils ont mis seulement 5 jours pour développer la première version de leur moteur de recommandation qui leur a apporté plus 20 % de vente.

Werner Vogels a évoqué leur souhait d’accompagner les data scientists dans leur activité en leur simplifiant tout le travail de préparation des données. c’est surtout donner un environnement de travail, SageMaker, qui intègre le meilleur des technologies : mxnet, de pytorch, de tensotflow, de caffe2, keras, gluon.

et enfin, c’est la possibilité de mobiliser ponctuellement des machines à très forte puissance de calcul (instances F1 et P3 …. NVidia Tesla V100 avec 128 Go de RAM).

On peut apprécier la promesse faite qui est :
“Le cloud permet de se poser les bonnes questions : comment est-ce que je peux travailler mieux, passer moins de temps et non pas développer de la technologie pour le plaisir d’en développer.”

pour conclure cette première partie sur le AWS Summit, abordons une thématique essentielle de la stratégie AWS : les Bases de données.

==== LES BASES DE DONNÉES

Elles sont un produit d’appel pour les entreprises ayant un patrimoine important .

AWS, qui met en avant 75000 migrations de bases vers leur offre Aurora, promet notamment des échelles de coût de 90%.

Et techniquement, l’offre évolue pour intégrer toujours plus de fonctionnalités ‘Entreprise’ : les points de backups, la disponibilité multi-région… et la promesse d’une base de données Aurora en serverless dans les prochains mois.

Et le chapitre se termine sur une critique des bases NoSQL qui peut faire sourire, mais qui reflète bien les défis que cela pose :
“ le modèle des bases NoSQL est très simple, marche bien et vite ; mais dès que la complexité augmente, il faut se confronter à des centaines de paramètre qu’il faut tuner / paramétrer“.

Nous nous permettons d’ajouter qu’aucune solution n’est magique, même si elles progressent toujours en termes de fonctionnalités et simplicité. C’est aux experts Data & Cloud que revient la responsabilité de modéliser, architecturer les solutions.