Il est difficile de suivre l’actualité technologique sur la mémoire informatique. On a parfois l’impression qu’un support de stockage de données révolutionnaire est inventé chaque semaine. De la mystérieuse technologie 3D XPoint annoncée par Intel aux matériaux ferroélectriques organiques récemment mis au point, il semble que tous les ingénieurs de la Terre soient obsédés par le fait de stocker des informations sur un support parfaitement fiable. Mais le Saint Graal de la mémoire informatique, c’est avant tout de réduire tous les types de mémoires actuellement utilisés dans un ordinateur à un seul, parfait et immuable. C’est le rêve de la mémoire universelle.
Des chercheurs d’IBM ont annoncé cette semaine lors du Workshop international IEEE à Paris, et dans un article accompagnant leur intervention, qu’ils avaient réussi à réaliser une matrice de 64 0000 cellules à changement de phase (PCM), dont chaque cellule était capable de stocker 3 bits de données. Les bits ont non seulement pu résister à des tests à température élevée mais aussi à un test d’endurance d’un million de cycles. Ces essais étaient nécessaires pour évaluer la résistance de ce dispositif dans des conditions d’utilisation réelles.
Videos by VICE
Actuellement, la mémoire informatique est quelque chose de très précaire. Ou plutôt, elle l’est depuis que la vitesse des processeurs a commencé à augmenter plus vite que la vitesse d’accès mémoire. Cette asymétrie a généré ce que l’on appelle le « goulot d’étranglement de la mémoire, » c’est-à-dire une situation où l’augmentation de la vitesse des processeurs récents est devenue indifférente puisqu’il est devenu impossible de les abreuver de données à une vitesse suffisante. En quelque sorte, c’est l’équivalent informatique de conduire une voiture de course aux heures de pointe.
La « hiérarchie de la mémoire » commence au niveau du processeur de l’ordinateur, où des quantités infimes de données sont stockées dans des registres locaux qui représentent ce qui est calculé par le processeur à un moment précis. Au niveau au-dessus, on trouve les caches de la mémoire CPU, qui sont également très rapides, très petits, et très coûteux. Vient ensuite la mémoire la plus rapide, la RAM. C’est la mémoire principale de l’ordinateur, et elle nécessite une source d’alimentation en continu pour maintenir ses magasins de données.
Ensuite, évidemment, il y a les SSD et la mémoire flash, qui est plus rapide que les disques durs et est non volatile (les données sont conservées lorsqu’il n’y a pas d’alimentation électrique), mais l’utilisation de ces bons vieux disques durs est encore très majoritaire.
Les ingénieurs en informatique rêveraient que toute cette pyramide s’effondre, pour être remplacée par un type de mémoire idéal, qui serait assez rapide pour service de mémoire principale, aussi bon marché qu’un support de stockage externe, et non volatile, comme un CD ou une clé USB. C’est à ce moment-là que PCM entre en scène (il faut savoir que PCM n’est qu’une des possibilités envisagées par les ingénieurs en terme de mémoire universelle).
« La mémoire à changement de phase est la première instanciation d’une mémoire universelle réunissant les propriétés DRAM et flash ; elle répond ainsi à l’un des grands défis de notre industrie », explique Haris Pozidis, directeur des recherches sur la mémoire non volatile chez IBM Research. « Atteindre l’objectif de 3 bits par cellule a été une étape importante, car à cette densité le coût du PCM sera nettement inférieur à celui de la DRAM et plus proche de celui de la mémoire flash. »
La technologie PCM est basée sur des matériaux capable d’alterner les phases cristalline et amorphe en réponse à un courant appliqué. Ces différentes phases, analogues à la fusion et à la congélation, sont utilisées pour coder des données sous forme de bits ; parce qu’il existe plusieurs phases intermédiaires possibles entre le cristallin et l’amorphe, il est possible de coder plusieurs bits dans la même cellule. L’information est ensuite récupérée en faisant passer le courant à travers les cellules de la mémoire, avec des seuils de résistivité différents correspondant aux différents états de la cellule. C’est à peu près la même idée de base que pour la technologie Blu-Ray.
Les avancées qui permettent la technologie PCM d’IBM ont moins à voir avec les matériaux eux-mêmes qu’avec la façon dont les informations sont stockées et récupérées à partir des matrices de mémoire. D’une part, les paramètres permettant de déterminer l’état actuel d’une cellule de mémoire ont été améliorés, et d’autre part, le glissement naturel du matériau entre états amorphes et cristallins est désormais mieux contrôlé, ce qui a pour effet de modifier les tensions de seuil correspondant à différents états de codage de l’information.
Le travail sur la technologie PCM est toujours en cours, et IBM n’est pas seul dans la course. On peut déduire que la technologie XPoint d’Intel est basée sur des idées similaires, mais que le constructeur a préféré ne pas communiquer sur son fonctionnement.