HPE introduit un ordinateur à mémoire unique pour l’ère Big Data

. © Hewlett Packard Enterprise

Hewlett Packard Enterprise (HPE) lance un ‘single-memory computer’ spécifiquement développé pour l’ère naissante des données massives (big data). Cet ordinateur est une composante de The Machine, le plus important projet en recherche et développement de l’histoire de HPE. Ce projet de recherche cible la mise au point de ce qu’on appelle le Memory-Driven Computing, une nouvelle architecture de traitement des données massives.

“La prochaine grande percée scientifique, les innovations qui vont changer l’IT, et la technologie qui va chambouler notre vie: tout cela sera intégré à d’énormes quantités de données créées jour après jour”, déclare Meg Whitman, CEO de Hewlett Packard Enterprise. “Pour rendre ces innovations possibles, nous ne pourrons plus nous appuyer sur des technologies du passé. Nous avons besoin d’un ordinateur pour l’ère Big Data.”

Intégrer des ensembles de données complets dans un système à mémoire unique

Le prototype introduit par HPE incorpore 160 téraoctets (To) de mémoire et peut fonctionner simultanément avec des données issues de quelque 160 millions de livres, soit huit fois plus que l’ensemble des livres de la Library of Congress. HPE affirme que c’est la première fois que des ensembles de données de ce format peuvent être conservés et traités dans un système à mémoire unique.

Sur base du prototype actuel, HPE s’attend à faire évoluer l’architecture vers un système à mémoire unique à l’échelle exa-octet et, dans un stade ultérieur, vers une source quasiment infinie de mémoire: 4.096 yotta-octets, soit 250.000 fois plus que l’univers numérique complet actuel. Avec cette quantité de mémoire, il sera possible de travailler au même moment avec chaque dossier médical numérique sur Terre, toutes les données de Facebook, chaque déplacement des voitures autonomes de Google et chaque ensemble de données issu de la recherche spatiale. Voilà qui offrira de nouvelles possibilités et réponses à une vitesse exceptionnelle.

De ‘l’intelligent edge’ aux superordinateurs

“Nous croyons que l’industrie technologique pourra avec le Memory-Driven Computing générer des progrès à tous les niveaux de la société”, prétend Mark Potter, CTO de HPE et directeur des Hewlett Packard Labs. “L’architecture mise au point pourra être appliquée à chaque catégorie d’ordinateurs: des appareils de ‘l’intelligent edge’ (en périphérie du réseau) aux superordinateurs.”

Le Memory-Driven Computing accordera la place centrale à la mémoire – et donc plus au processeur – dans l’architecture IT. En éliminant l’inefficience de l’interaction entre la mémoire, le stockage et les processeurs dans les systèmes traditionnels, le Memory-Driven Computing réduirae le temps nécessaire au traitement des problèmes complexes. Cela rendra possible l’intelligence en temps réel.

Spécifications techniques

Le nouveau prototype capitalise sur les résultats du projet de recherche The Machine, notamment:

  • 160 To de mémoire partagée répartie sur 40 noeuds physiques interconnectés par un protocole spécifique hautes performances.
  • Un système d’exploitation basé sur Linux optimalisé, tournant sur le Thunder X2 de Cavium.
  • Les liens de communication Photonics/Optical sont en ligne et opérationnels, y compris le nouveau modèle photonique X1.
  • Des outils de programmation software pour pouvoir utiliser de grandes quantités de mémoire persistante.

Vous en saurez plus à propos du Memory-Driven Computing et du projet de recherche The Machine sur www.hpe.com/TheMachine.

En collaboration avec Dutch IT-Channel.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire