L’ADN, l’avenir du stockage informatique ?

Les besoins en stockage numérique de l’humanité ne cessent d’augmenter. Alors que la quantité de données produites en 1 an n’était « que » de 2 zettaoctets en 2010 (1 zettaoctet = mille milliards de milliards d’octets…), elle a été multipliée par 32 en 10 ans pour atteindre 64,2 zettaoctets en 2020. Et c’est loin d’être fini : ce chiffre pourrait atteindre 180 zettaoctets en 2025, soit une augmentation de 40% en 5 ans…

Les supports de stockage sont donc naturellement amenés à évoluer, depuis la bande magnétique des années 30 jusqu’au disque SSD, devenant de plus en plus petits et de plus en plus performants. Jusqu’à leur dernier avatar, pourtant vieux de plusieurs milliards d’années…l’ADN.

La molécule d’acide désoxyribonucléique, qui code notre information génétique et celle de tous les organismes vivants sur Terre, se révèle être, d’après de nombreuses recherches, un formidable support pour les données « froides », c’est-à-dire les informations non consultées quotidiennement mais néanmoins précieuses, comme les archives.

Le principe est simple : les données numériques binaires (0 ou 1) sont converties en nucléotides (les 4 molécules de l’ADN) A, C, G ou T. L’ADN est ensuite synthétisé par des appareils dédiés, puis stocké dans une solution aqueuse.

Les avantages par rapport aux méthodes de stockage actuelles sont plutôt convaincants :

  • Solidité et pérennité : Conservé dans les conditions ad hoc, l’ADN peut rester intact plusieurs dizaines de milliers d’années, alors que les supports physiques actuels sont bien plus fragiles…
  • Peu énergivore : …Et ce alors que les datacenters actuels consomment près de 2% de la production électrique mondiale
  • Peu volumineux : C’est l’une des caractéristiques les plus fascinantes de l’ADN. Ces mêmes datacenters occupent un volume toujours croissant : 167 km2 à travers le monde. Or, l’ADN possède une exceptionnelle capacité de densification de l’information. Alors que le noyau d’une cellule de notre corps mesure moins de 10 micromètres, l’ADN qu’il contient, déroulé, mesurerait près de 2 mètres. Après 100 000 DVD sur les cartes SD, 2 ans de musique sur une clé USB ou 1000 milliards d’octets dans quelques mètres cubes de serveurs, c’est l’intégralité des données mondiales qui pourrait tenir dans un espace équivalent à une boîte à chaussures…

L’idée d’utiliser l’ADN comme support de stockage n’est pas totalement neuve. Le prix Nobel de physique Richard Feynman l’avait déjà formulée en 1959. Mais ce n’est qu’en 2012 que les premiers essais techniques ont été réalisés par des équipes d’Harvard. Aujourd’hui les initiatives font florès : depuis les start-ups jusqu’aux grandes entreprises en passant par des groupes de recherche universitaires, de nombreuses avancées techniques ont été réalisées, élargissant le champ des possibles.

Mais les obstacles restent encore nombreux avant l’industrialisation des processus : les coûts de production et la durée de transformation restent trop importants pour une utilisation industrielle. Il faudra attendre l’horizon 2030 pour voir débarquer cette technologie prometteuse dans nos vies…

 

Sources :

https://lejournal.cnrs.fr/

https://www.cnet.com/

https://www.lebigdata.fr/

https://www.statista.com

https://www.capital.fr/

Vous souhaite une nouvelle année pleine de succès !

Le métavers, le poste de travail du futur ?

Alors que le DaaS est appelé à se généraliser , les géants de la tech réfléchissent déjà à l’espace de travail de demain.
« Imaginez. Vous êtes attablé au Starbucks avec votre café, et, d’un claquement de doigts, vos écrans de travail apparaissent devant vos yeux tels que vous les avez laissés à la maison. Vous butez sur un problème ? Plutôt que d’appeler un collègue, ce dernier se téléporte jusqu’à vous, voit vos documents, se met à vos côtés pour vous aider, puis disparaît en un instant. C’est ce que nous appelons le bureau infini. »
C’est ce que déclarait Mark Zuckerberg en juillet dernier dans le podcast The Verge, en présentant son nouveau concept-phare : le métavers.
Quelques mois plus tard, Microsoft, fort du succès de son application de visioconférence Teams, annonce les nouvelles fonctionnalités qui y seront ajoutées via l’application 3D Mesh : automatisation, mise en place d’avatars, intégration des participants dans un décor virtuel commun, attention accrue portée aux interactions non verbales, processus créatifs en équipe de type brainstorming facilités… Microsoft lui-même qualifie cet outil de… « plateforme de metaverse. »
Et ce n’est pas tout : Apple, Alibaba ou Tencent ont également investi cette technologie très en vogue.

Le métavers, bien plus qu’un simple univers de jeu ultra-sophistiqué, représente-t-il le poste de travail du futur ?
Certes, pour le moment, il ne s’agit que de réunions de travail virtuelles, bien loin du concept de poste de travail virtuel tel qu’on le comprend dans le cas du VDI. Dans le premier cas il s’agit du poste de travail physique (c’est-à-dire le bureau ou la salle de réunion), dans le second cas d’un poste de travail informatique (le bureau Windows et les ressources qui y sont associées).
Or il n’est plus si loin le temps où le VDI permettra de se connecter à son métavers professionnel : un bureau virtuel qui permettra d’accéder à des applications permettant de simuler des postes de travail physiques en réalité augmentée qui seront en réalité virtuels…

Cet emboîtement de poupées gigogne est certes vertigineux. Mais les conséquences potentielles, sur le long terme, sur les habitudes de travail le sont encore plus. Quelques pistes de réflexion en vrac, en extrapolant juste un peu :

  • Le télétravail sera-t-il généralisé à 100%, pour tous ?
  • L’immobilier d’entreprise est voué à disparaître, puisque les bureaux seront devenus quasiment inutiles ?
  • Pourra-t-on se créer des bureaux physiques virtuels de PDG, avec vue à 360° sur la skyline de Manhattan, depuis son T3 de banlieue parisienne ?
  • Pourra-t-on côtoyer des collègues pendant des années en ne connaissant d’eux que leur avatar ?
  • Sera-t-on soumis à des systèmes de surveillance ultra sophistiqués contrôlant les touches tapées sur le clavier et les mouvements de souris ?
  • Comment évoluera le concept de la machine à café, centre névralgique des échanges dans une entreprise ?

image source: www.01net.com

Une réflexion passionnante, qui bien au-delà de l’informatique d’entreprise, pose des questions de société profondes. Affaire à suivre…

Sources :
www.journaldunet.fr
news.microsoft.com
www.usinenouvelle.com

Quels indicateurs clés de performances pour un environnement multi-cloud ou hybride ?

« Cloud privé ou cloud public ? » se demandait-on encore il y a quelques années. Aujourd’hui obsolète, cette question a été remplacée par « Comment concilier une multitude de clouds différents ? »

Un peu de sémantique tout d’abord : le multi-cloud combine différents fournisseurs de clouds publics : Amazon Web Services (AWS), Microsoft Azure, IBM/Red Hat, Google Cloud Platform…Le cloud hybride lui, combine cloud privé (c’est-à-dire un hébergement privé, sur le site de l’entreprise) et cloud public, à travers un ou plusieurs fournisseurs.

De fait, les environnements multi-clouds et hybrides sont devenus sinon la norme, du moins une tendance incontournable des prochaines années. De plus en plus, les entreprises hébergent leurs données sur différentes plateformes. Selon Gartner, les trois quarts des moyennes et grandes entreprises auront adopté ce type de stratégie d’ici la fin de l’année. Pour IDC, ce sont même 90% des entreprises à travers le monde qui feront appel à diverses plateformes et hébergements pour leurs données d’ici 2022.

La question de savoir comment gérer ces environnements hybrides, et surtout comment mesurer leur performance devient donc centrale pour les DSI. Les indicateurs financiers entrent en ligne de compte évidemment, mais les paramètres techniques doivent également être considérés, pour avoir une vision unifiée de ces environnements parfois très hétérogènes.

Indicateurs financiers

Ici, attention aux coûts cachés ! en plus des coûts liés aux abonnements et aux licences, vous devez également inclure les dépenses liées à la maintenance, au support, au stockage des données, au réseau, mais aussi à la formation et à la conduite du changement au sein des équipes.

Indicateurs de sécurité et de réseau

Mesurer les incidents de sécurité par équipe et par mois, ainsi que les ressources mobilisées pour les traiter permet de dégager une vue d’ensemble de l’état de sécurité de l’infrastructure. Mesurer la latence et la perte de paquets permet par ailleurs de se rendre compte de l’état du réseau, de même que la mesure du temps de réponse, de la bande passante et du débit.

Indicateurs applicatifs

La mesure des performances des applications ainsi que de la qualité de l’expérience utilisateur est déjà réalisée par nombre d’entreprises. Mais il est également crucial de prendre en compte l’infrastructure sur laquelle l’application repose, pour avoir une cartographie complète de l’infrastructure applicative. Dans le cas de catalogues applicatifs importants, des solutions de mesure de la performance applicative (solutions APM, pour Application Performance Management) s’avèrent indispensables.

Indicateurs de conformité

Se confronter aux normes de sécurité et de cloud reconnus par l’industrie, les institutions ou les clients (normes internationales ISO, règlements européens comme le RGPD, référentiel ANSSI au niveau national…) est un exercice parfois fastidieux, mais nécessaire pour juger de sa conformité avec les standards du secteur.

Si vous souhaitez vous faire accompagner dans la mise en place de votre projet multi-cloud ou cloud hybride, contactez-nous.

Sources :

https://www.lemondeinformatique.fr/actualites/lire-bien-choisir-ses-kpi-pour-gerer-efficacement-le-multicloud

https://docs.vmware.com/fr/vRealize-Business/7.3/com.vmware.vRBforCloud.user.doc/GUID-9262D7D6-6923-41BB-8735-8CC0129F8646.html

https://www.vmware.com/topics/glossary/content/hybrid-cloud-vs-multi-cloud

9 choses à savoir lorsque vous lancez un projet VDI

Lorsque vous mettez en place un nouveau projet VDI au sein de votre entreprise, il est extrêmement important de comprendre votre environnement, vos utilisateurs, de cerner votre budget et d’avoir en tête les enjeux organisationnels de votre entreprise. Certains facteurs clés peuvent avoir un impact direct sur le succès de votre projet.

# 1 Comprendre vos utilisateurs

Vous pensez peut-être savoir comment vos utilisateurs travaillent, mais si vous creusez le sujet vous serez surpris. Un audit approfondi permet souvent aux entreprises de lister les applications pour lesquelles les utilisateurs ne disposent pas de suffisamment de ressources. D’autres applications, au contraire, sont inutilisées alors que l’entreprise en paye les licences et les coûts d’exploitation. Il est également important de dresser un portrait-robot de l’utilisateur Windows et de vraiment comprendre l’expérience de bureau de l’utilisateur, qui doit être au moins égalée, sinon améliorée grâce au VDI.

# 2 Assurez-vous que les utilisateurs disposent des ressources dont ils ont besoin

Lorsque vous passez au VDI, la fluidité de l’expérience utilisateur est impérative. Tout comme sur un PC physique, la VM de l’utilisateur aura besoin d’une allocation en mémoire, stockage et GPU. Cela nécessite un choix judicieux des serveurs et du stockage à utiliser. De nombreuses entreprises ont opté pour des technologies hyper convergées qui offrent performances optimales et une meilleure évolutivité. Il est fortement recommandé que le stockage soit 100% Flash.

# 3 Applications graphiques consommant beaucoup de ressources

Certaines applications telles que AutoCAD ou la suite Adobe ne peuvent être exécutées sans carte GPU sur le serveur. Il s’agit généralement d’un investissement important dans une solution VDI qui doit être suffisamment pris en compte. De grandes avancées dans ce domaine ont permis à des applications très gourmandes en ressources d’être intégrées à un environnement VDI, ce qui n’était pas le cas encore récemment.

# 4 Une connectivité suffisante

Si vous avez des utilisateurs dans des endroits avec une faible couverture Internet ou une mauvaise connexion, l’expérience utilisateur peut être fortement dégradée. Assurez-vous d’effectuer des tests depuis plusieurs localisations différentes pour vérifier l’accès aux données, sous peine d’affronter l’ire de vos utilisateurs par la suite.

# 5 Listez tous les périphériques utilisés

Des imprimantes aux scanners en passant par les lecteurs de carte, vous devez vous assurer que tous les périphériques fonctionneront correctement avec votre solution VDI. Certains périphériques peuvent nécessiter un système d’exploitation local spécifique en raison de la disponibilité limitée des pilotes.

# 6 Choisissez des postes de travail faciles à administrer

Les clients légers ou zéro basés sur Linux peuvent constituer une excellente option pour vous soulager de la gestion quotidienne des postes de travail Windows, et offrir une meilleure sécurité. Conservez Windows sur les machines virtuelles uniquement et optez pour un système d’exploitation plus sûr et plus léger sur le poste de travail local. Certains clients légers offrent par ailleurs des possibilités de personnalisation en local, si certaines applications ne peuvent être installées que sur le bureau local par exemple.

# 7 Impression et numérisation

L’impression et la numérisation des documents posent souvent problème en environnement VDI et peuvent être une charge très lourde pour les équipes support. Ces tâches consomment une bande passante importante et peuvent impacter négativement l’expérience utilisateur. Il n’est pas rare non plus qu’il y ait des problèmes de compatibilité avec les pilotes d’impression, ou des problèmes de localisation d’imprimantes spécifiques. Certaines solutions telles que ZeePrint peuvent vous aider à optimiser la bande passante, simplifier la gestion des périphériques d’impression et améliorer l’expérience utilisateur.

# 8 Etudiez soigneusement la question de la sauvegarde des profils utilisateurs

Avec le VDI, vous avez le choix entre des profils utilisateurs itinérants (les modifications faites sur sa session par l’utilisateur sont sauvegardées à chaque déconnection) ou figés (l’administrateur garde le contrôle des paramètres de la session). Chaque approche a ses avantages et inconvénients pour l’utilisateur et l’administrateur.  Votre prestataire VDI doit pouvoir vous accompagner sur ce sujet. Certains outils vous aident également à simplifier la gestion de l’environnement de bureau global de l’utilisateur.

# 9 Utilisez un VDI Calculator

Il existe plusieurs simulateurs de coûts d’implémentation du VDI pour vous aider à budgétiser votre projet. Ces outils n’offrent bien sûr qu’une approche limitée, qui néglige de nombreux facteurs, mais ils peuvent vous aider à vous faire une première idée, qui devra être affinée par la suite. Le vétéran de l’industrie, André Lebovici, en a créé un très utile qui peut certainement aider. Cliquez ici pour y accéder.

INSIA vous conseille et vous accompagne sur tous vos projets VDI.

 

Avec l’autorisation de ZeeTim.

Comment le passage à Linux a conduit à la création d’AWS

Les changements de stratégie radicaux ne pardonnent pas : soit c’est un succès complet, soit un échec total. La création d’Amazon Web Services par le géant de l’e-commerce Amazon est le fruit d’un de ces paris insensés. Retour sur une anecdote des plus intéressantes sur la naissance d’un futur géant du cloud.

En 1999, Sun Microsystems constituait la référence pour les solutions de stockage. Le stockage de données étant le nerf de la guerre pour une activité comme Amazon, l’entreprise n’avait pas lésiné sur les coûts et investi une fortune dans la Rolls des serveurs de l’époque : les serveurs Sun.

Or, après 1999 vint l’année 2000, et l’éclatement de la bulle Internet que l’on connaît. Nombre de start-ups ruinées par l’éclatement de la bulle mirent alors en vente leurs serveurs Sun sur Ebay, souvent pour une somme dérisoire.

Face à la dépréciation brutale et inattendue des serveurs Sun, Amazon aurait pu renégocier le coût d’exploitation de ses solutions de stockage, mais ses dirigeants firent un choix bien plus inattendu et radical, un changement complet de paradigme : investir dans des serveurs HP/Linux.

Classique aujourd’hui, il s’agissait à l’époque d’un choix relativement audacieux, qui a dû faire hausser plus d’un sourcil : Linux n’était né qu’en 1994, en même temps qu’Amazon…et n’inspirait encore qu’une confiance limitée.

Le temps d’intégrer ce nouveau système, Amazon dût stopper tous ses projets de développement sur sa plate-forme d’e-commerce durant près d’un an, faisant plonger ses revenus, jusqu’à frôler la faillite en pleine période de récession. Si on ajoute à cela l’onde de choc du 11 septembre 2001, Amazon passa à ce moment là à deux doigts de la faillite, de l’aveu même de Dan Rose, son directeur commercial de l’époque.

Mais une fois la transition lancée, les technologies Linux permirent de réduire de 80% les coûts d’exploitation de l’infrastructure, tout en stabilisant le site web de façon incomparable. Mais ce n’est pas tout : l’infrastructure Linux permettant une grande évolutivité, Jeff Bezos eut l’intuition de découpler et cloisonner les espaces de stockage, afin que différentes équipes puissent travailler indépendamment les unes des autres, en utilisant chacune leur espace dédié.

Cette idée de mutualiser les ressources allait connaître un autre développement : fortement saisonnière, comme la plupart des activités de distribution, l’activité d’Amazon mobilisait fortement les serveurs en novembre et décembre, mais les laissait largement excédentaires le reste de l’année. Pourquoi, à partir de là, ne pas louer ces capacités de serveurs excédentaires à d’autres entreprises ? Amazon Web Services était né…

La création d’Amazon Web Services marqua une rupture dans l’histoire de l’informatique, faisant du stockage une simple ressource au lieu d’un investissement lourd, permettant ainsi l’explosion des startups et l’émergence de tout un écosystème marqué par la prise de risque et l’innovation.

Aujourd’hui, Amazon Web Services représente la plus grande partie des revenus d’Amazon, et constitue la locomotive du groupe en termes d’innovation : services d’IA, machine learning, nouveau processeur ARM Graviton pour ses serveurs, instances serverless…Son plus grand concurrent reste toutefois Microsoft Azure, qui a particulièrement tiré son épingle du jeu lors de la pandémie. Dans les nouvelles technologies comme ailleurs, être le premier à avoir la bonne idée ne garantit pas nécessairement de conserver son leadership sur le long terme…

 

Sources :

https://www.lemondeinformatique.fr/actualites/lire-comment-le-passage-de-sun-a-linux-a-lance-aws

https://www.zdnet.fr/actualites/top-2020-des-fournisseurs-de-cloud-aws-microsoft-azure-google-cloud-l-hybride-et-les-acteurs-du-saas-39903633.htm

https://www.zdnet.fr/actualites/amazon-web-services-a-developpe-un-nouveau-processeur-arm-pour-ses-serveurs-39894811.htm

 

 

 

L’initiative Gaia-X pour un cloud européen souverain est-elle viable ?

La question d’un cloud européen souverain n’est pas nouvelle. On se souvient des destins peu glorieux de CloudWatt ou Numergy il y a quelques années. Aussi la nouvelle de la création du projet Gaia-X, portée par le couple franco-allemand, a été scrutée à la loupe dès le début.

Portant l’ambition de s’ériger en alternative européenne à Azure, AWS ou Google Cloud, ce consortium de quelques 300 entreprises a tenu sa première séance plénière le 22 janvier 2021.

Alors que sur le papier, l’initiative avait fière allure, le projet a commencé à susciter incompréhension et critiques lorsqu’il a commencé à intégrer des acteurs extra-européens : Microsoft, Google, Alibaba, Huawei…

Les porte-paroles de Gaia-X se veulent cependant rassurants et rappellent les principes qui s’appliqueront à tous les membres, y compris non européens : respect des règles de gouvernance européennes, conseil d’administration composé d’entreprises ayant leur siège en Europe uniquement…

Pourtant, en ouvrant la porte à ceux-là même qu’il était censé contrer, le projet Gaia-X n’a-t-il pas fait entrer le loup dans la bergerie ? Google ne fait pas mystère de son opposition aux principes européens de protection des données, le gouvernement chinois a réaffirmé sa mainmise sur la direction d’Alibaba, et le traitement des données opéré par Palantir soulève de nombreuses questions.

Alors que la roadmap annoncée le 22 janvier 2021 se veut très ambitieuse, il reste à savoir si, dans le numérique comme ailleurs, l’Europe peut tracer son propre chemin et proposer une véritable alternative aux géants américains et asiatiques.

Sources : Journal du Net, Portail de L’IE, DataNews

INSIA vous souhaite une excellente année 2021 !