view counter

Mais qu’est-ce que c’est que ce cloud ?

Voir le PDF

Disponibilité immédiate de ressources quasi illimitées, utilisation et facturation des logiciels à la carte, le cloud computing est une technologie particulièrement prometteuse mais induit encore beaucoup d’interrogations. Explications.

Faire du calcul haute performance sur de gros modèles sans investir dans un cluster, monter des équipes projets et les doter de stations de travail pour une durée limitée, ou encore construire des modèles 3D depuis un simple PC portable, un tabletPC, voir un smartphone… Voilà ce que nous prédisent les services de R&D des grands fournisseurs de matériel informatique et des éditeurs du monde du PLM, grâce à l’adoption du… cloud computing.

Il y a plusieurs clouds
Mais qu’est-ce exactement que ce « cloud computing », ou « informatique sur un nuage », en bon français ? Lors d’une présentation aux adhérents de l’Association française des utilisateurs du net (Afnet), Isabelle Flory, directeur secteur public et initiatives stratégiques chez Intel, le définissait ainsi : « le Cloud Computing est une évolution de la consommation et de la distribution de services IT aux utilisateurs au travers d’infrastructures efficientes, hautement élastiques et aisément dimensionnables. C’est un nouveau paradigme d’architecture IT où les services et les données sont situés au sein de ressources partagées entre data centers dimensionnables, par l’intermédiaire de tout type de dispositif connecté par protocoles IP (internet) ». Pour la spécialiste, il s’agirait ainsi de l’association du grid computing  - le partage des ressources via le réseau - et de la virtualisation des postes de travail.
Les clouds peuvent être privés, publics ou hybrides. Dans le premier cas, l’architecture repose sur des installations internes à une entreprise, au sein de laquelle les machines et les applications sont virtualisées. Dans le deuxième, tout est externalisé. Dans le troisième, le cloud privé est étendus sur un cloud public en cas de débordements de la demande. L’ensemble donne lieu à trois grands types de services. Le plus simple et le plus répandu est le logiciel à la demande, ou software as a service (SaaS), qui consiste à se connecter à une application installée sur un serveur distant via un explorateur internet. Plus complexe, le Platform as a service (PaaS) vous propose d’un serveur distant, mais dont le système d’exploitation est déjà choisi. Enfin, l’infrastructure as a service (IaaS) consiste à mettre à disposition du client des capacités de stockage et de traitement de données en lui laissant le choix de son système d’exploitation.

Une réalité
Dans le monde du grand public, le concept est déjà une réalité. Avec ses Google Apps, le géant de Mountain View (Californie) propose déjà de sauvegarder vos données sur un serveur distant et de gérer vos mails ou votre agenda sans installer de logiciel dans votre ordinateur. Avec son Elastic Compute Cloud (EC2), Amazon vous permet de créer des ordinateurs virtuels (il appelle cela des instances) accessibles via Internet, sur lesquels vous pouvez installer les applications de certains éditeurs pour la durée de votre choix. Vous payez alors en fonction de votre usage des machines et des logiciels. Microsoft est lui aussi dans la course avec un dispositif analogue baptisé Azure. Dans l’industrie aussi, des solutions commencent à émerger. PTC commercialise ainsi une offre de PLM à la demande (on demand en anglais), qui vous permet de partager un espace de travail construit autour de Windchill ProjectLink et PDMlink, proposés en mode Saas. Les fabricants de clusters comme SGI mettent pour leur part à disposition leurs machines pour effecteur les calculs de clients. Enfin, Dassault Systèmes fait lui aussi sont entrée sur le cloud avec sa plateforme V6 ou encore l’espace collaboratif de SolidWorks 2011, baptisé Product Data Sharing. Et ce n’est qu’un début.

Des freins importants
A priori, le cloud computing se présente comme LA solution aux demandes des industriels. En effet, il permet de faire face à des pics d’activité sans lancer des investissements lourds. En outre, avec la virtualisation des machines et des applications, il garantit de disposer des technologies les plus récentes, même si ses terminaux deviennent obsolètes, et des dernières versions des logiciels. Enfin, il représente de sérieuses économies pour le client qui ne paie que ce qu’il consomme.
 « Le cloud représente une promesse de flexibilité à faible coût, mais à condition de maitriser certains aspects primordiaux », prévient Isabelle Flory, d’Intel. Pour se propager dans le monde industriel, le cloud devra en effet trouver les solutions techniques pour éliminer toute latence dans la délivrance des informations. Les fournisseurs de services devront également trouver les moyens de gérer les priorités (que faire si un gros client a besoin de 95% des ressources à un instant T ?), de garantir la disponibilité de leurs outils et la continuité de l’accès au réseau. Les différents systèmes en place devront également être interopérables, pour non seulement pouvoir communiquer entre eux, mais pour éviter aux clients de se retrouver prisonnier d’une technologie ou d’un prestataire. L’ensemble des acteurs de la chaîne devront aussi s’entendre sur des modèles économiques et juridiques cohérents, notamment pour définir les responsabilités en cas de défaillance du système.
Enfin, et surtout, les offreurs de solutions de cloud computing devront garantir la sécurité de leurs services et l’inviolabilité de la propriété intellectuelle des clients à tout moment. Pas si simple, avec des données hébergées on ne sait où et qui transitent potentiellement par des tuyaux du monde entier avant d’arriver à bon port.
« Les solutions peuvent être différentes selon les cas. A chaque fois, Il faudra sans doute partir du besoin de l’utilisateur et remonter à la solution technique adéquate », déclare Isabelle Flory. Certaines restent encore à mettre au point, mais les choses avancent vite. Selon les spécialistes, la technologie devrait ainsi se développer d’ici à 2015, en commençant par les clouds privés. Pour autant, cela ne sonne pas la fin des postes autonomes qui resteront une solution clé pour beaucoup de cas…

 

Deux services « industriels » disponibles en France

En France, c’est PI3C qui est chargé de commercialiser le PLM on demand de PTC. Sa particularité ? « Nous utilisons exclusivement deux serveurs français. Les données manipulées peuvent être sensibles et les clients préfèrent qu’elles soient hébergées sur des infrastructures situées sur note territoire », commente François Tribouillois, PDG de l’entreprise. Pour encore plus de sécurité, le prestataire peut aussi mettre en place un dispositif qui laisse les informations chez le client et les autres utilisateurs y accèdent au travers de métadonnées, des « vues métiers », stockées sur le serveur externe. Les utilisateurs de la plateforme y ont accès via leur explorateur internet et paient au mois (de 500 à 800 euros par mois selon la configuration choisie), sans limite de nombre de projet et d’utilisateurs. La plateforme mutualisée de PI3C compte déjà plus de 110 adhérents. Toujours dans l’hexagone, le fabricant de serveurs de calcul SGI propose depuis peu Cyclone, un service qui met à disposition de ses clients des serveurs installés dans son siège francilien. « Cyclone est destiné aux utilisateurs qui ont besoin de puissance mais qui n’ont pas les moyens de s’équiper, ou à des entreprises qui disposent de serveurs de calcul mais font face à un besoin de puissance plus importante sur une durée limitée », explique Patrice Gommy, directeur commercial de SGI France. Le client paie chaque heure de calcul et par cœur employé, un euro de l’heure. Les machines sont proposées en mode Saas (plusieurs applications sont préinstallées sur les machines) ou Iaas (SGI installe alors l’application du client sur ses machines). La force de SGI « nous pouvons proposer nos trois types de serveurs, en fonction de l’application », commente Patrice Gommy. Une vingtaine d’entreprises font déjà appel à ce service en France.

view counter