Quelle sera la taille du stockage

David Shapton sur le voyage que la technologie de stockage a entrepris au cours des dernières décennies et vers où elle pourrait se diriger ensuite.

Il est souvent tentant de simplifier à l’extrême toute analyse de stockage au point de se demander simplement « de quelle taille de seau avez-vous besoin ». Mais toute personne impliquée dans la production vidéo sait que c’est beaucoup plus compliqué que cela. La vitesse, le coût, la bande passante, la sécurité et la sûreté comptent tous, et trouver le meilleur stockage pour un travail impliquera très probablement de jongler avec tout cela, en priorisant certains et en faisant des compromis sur d’autres.

La quantité de stockage dans l’univers est probablement très proche de l’infini, mais comment y accéder ? Par exemple, si chaque atome pouvait potentiellement stocker des données, c’est impressionnant : mais qu’est-ce que cela signifie en pratique ?

Pour comprendre à quoi pourrait ressembler le stockage ultime, il vaut la peine de passer une minute à examiner la nature du progrès lui-même et ce que nous pouvons en apprendre. Prenez les résolutions vidéo, par exemple.

En très peu de temps – une vingtaine d’années à peine – les résolutions vidéo se sont multipliées, passant de la définition standard à la 8K et même à la 12K dans le cas des caméras Blackmagic. C’est une belle illustration de la croissance exponentielle. La HD représente environ cinq fois la quantité de données en SD. 4K est quatre fois HD. 8K est quatre fois 4K, et ainsi de suite. Faites les sommes et vous constaterez que 8K nécessite au moins 80 fois plus de données que SD. Vous avez littéralement besoin de 80 fois plus d’espace pour stocker 8K. La quantité de données générée par 12K est l’équivalent d’une image fixe de 85 mégapixels multipliée par la fréquence d’images par seconde. Heureusement, une compression intelligente atténue cela, mais la tendance est à la hausse, quelle que soit la façon dont vous la regardez.

Sera-t-il à la hausse pour toujours ? Pas dans le cadre de la même progression. Quelque chose peut prendre le relais de la vidéo numérique « conventionnelle » qui nécessitera un stockage de données encore plus important, mais ce sera à cause d’une dimension supplémentaire au-delà de la vidéo 2D. Recherchez « métaverse » pour les résultats possibles.

Mais, pour plusieurs raisons, il est peu probable que la vidéo « conventionnelle » aille bien au-delà de l’état de l’art actuel. Vous ne remarqueriez probablement pas la différence si c’était le cas. Au point où votre écran de télévision a la taille du mur de votre salon, vous n’avez certainement pas besoin de plus de 12K. Mais il y a un point plus important et général ici. Une fois que les résolutions vidéo sont suffisamment élevées, il ne reste plus rien à corriger pour des densités de pixels encore plus élevées. Plus précisément : les artefacts numériques qui étaient répréhensibles dans les premières incarnations de la vidéo numérique disparaissent effectivement avec une résolution suffisamment élevée. En vérité, ils ne disparaissent pas : c’est juste qu’ils sont trop petits ou trop insignifiants pour être remarqués.

Il pourrait donc s’avérer que, dans la plupart des cas pratiques, il n’y a pas besoin d’un approvisionnement presque infini de stockage. Ce qui compte le plus, c’est qu’il soit rapide (assez), sécurisé et fiable. Le stockage moderne a évolué en une variété presque déconcertante d’ »espèces », de sorte que chaque niche a son propre ensemble élégant d’options.

Mais ce n’est qu’un côté de l’histoire.

Le besoin constant de plus

L’autre argument est que tout ce que nous faisons produit des données, et à mesure que nos expériences vécues deviennent plus numériques, cette quantité augmentera et continuera de croître.

Toutes les données ne sont pas numériques. Nous vivons dans un monde organique et analogique où tout ce que nous faisons laisse une trace. Par exemple, vous pouvez en apprendre beaucoup sur une personne en regardant son espace de vie. Est-ce bien rangé ? Les choses sont-elles arrangées de manière obsessionnelle ? Ou est-ce plus chaotique ou peut-être minimaliste ? La visualisation du même habitat au fil du temps révélera plus d’informations sur les tendances et les habitudes. Il est possible que tout ce que nous faisons – même notre propre discours – soit en quelque sorte « enregistré » dans notre environnement. Alors, comment décodons-nous ces informations ? Pour le moment, nous ne pouvons pas, mais à mesure que la puissance de traitement et la sophistication des logiciels continuent de croître, nous pourrions découvrir qu’un jour, nous pourrons « rejouer » nos vies antérieures depuis le canapé de notre salon ou le papier peint de la salle de bain.

Aujourd’hui, le cloud offre un stockage quasi infini. Un individu ne manquera jamais de stockage en nuage. Le cloud – qui n’est pas réellement un cloud mais un réseau mondial de centres de données climatisés – continuera d’être construit au rythme nécessaire pour répondre aux demandes croissantes de données. La seule limite pour les utilisateurs n’est pas l’espace mais le coût d’accès. Cela deviendra presque inévitablement moins cher par unité de stockage.

À mesure que le métaverse mûrit et que nous passons une plus grande partie de notre vie à interagir les uns avec les autres dans le domaine numérique, le stockage devra se développer pour s’adapter à notre nouveau mode d’existence. Quelles sont les limites à cela ? Très peu, hormis un facteur limitant peut-être surprenant et gigantesque : le bruit.

Le contraire de l’information est le hasard. Un signal ou un ensemble de données purement aléatoire ne contient aucune information. Si c’était le cas, ce ne serait pas aléatoire. Entre les données et l’aléatoire se trouve un espace où il faut un traitement – des mathématiques en temps réel – pour séparer le signal du bruit. Rappelons que le stockage numérique repose sur des phénomènes analogiques : champs magnétiques, réflectivité optique et tensions. Les couches les plus basses du stockage numérique sont résolument analogiques, et plus elles sont petites, plus il est difficile d’extraire des informations fiables.

Les futurs potentiels du stockage

Le traitement numérique a évolué au fil des décennies et peut désormais extraire des quantités extraordinaires de données à partir de supports qui seraient autrement trop bruyants ; trop indistinct. Mais à l’avenir, il devra faire face à un autre phénomène : les effets quantiques.

En théorie, des atomes uniques pourraient être utilisés pour stocker des données. C’est certainement intrigant, notamment parce qu’il promet le potentiel de conserver toutes les données numériques qui ont jamais été générées dans l’espace de (insérer un objet arbitrairement petit comme un morceau de sucre). Mais il y a un problème : les atomes ne se comportent pas comme des objets du quotidien. Les lois familières de la physique ne s’appliquent pas à cette échelle. Avant d’atteindre l’échelle des atomes et des molécules, les effets dits quantiques influencent le comportement. Les fabricants de puces existants commencent à voir des effets quantiques alors qu’ils réduisent les interconnexions sur puce à seulement quelques atomes de large.

Peut-être que les ordinateurs quantiques se révéleront aptes à résoudre les problèmes quantiques. Jusque-là, le stockage à l’échelle moléculaire semble loin. Mais ne le rejetez pas complètement car l’impossible a tendance à devenir possible de manière inattendue de nos jours.

En attendant, qu’en est-il d’aller dans l’espace ? Et si on pouvait mettre du stockage là-bas ? Peut-être pourrions-nous déposer dans l’un de ces endroits, appelés points de Lagrange, où la gravité des corps opposés s’annule. Peut-être que le télescope James Webb a besoin de compagnie !

Seulement deux problèmes ici. Premièrement : il est coûteux d’envoyer du matériel dans l’espace. C’est probablement le facteur dominant dans les coûts de service. Deuxièmement : la latence. L’espace est assez grand pour que la vitesse de la lumière semble inadéquate. En termes simples, le temps nécessaire pour récupérer les données d’un lecteur ultra-distant le rendra probablement inutilisable dans la plupart des cas, à l’exception de l’archivage approfondi, où la vitesse de récupération n’est pas un problème.

Au cours des 60 dernières années, le stockage s’est étendu, heureusement, pour répondre aux exigences de notre capacité toujours croissante à créer et à consommer des données. Aujourd’hui, plus que jamais, il est difficile de dire si cela va continuer. S’il existe une limite stricte à la taille des composants et des interconnexions, la seule façon de continuer est de créer des appareils plus grands et plus parallèles ou d’utiliser un stockage en réseau distribué. En fin de compte, il y a aussi une limite à cela. Mais avec plusieurs nouvelles technologies prêtes à aider au cours de la prochaine décennie, il serait surprenant que nous ne voyions pas une poursuite des tendances actuelles vers une plus grande capacité, voire une accélération.

Vous procurez l’idée principale de votre clip et ensuite à nous de jouer.

La première étape du travail de réalisation de vidéo institutionnelle consiste en la mise sur le papier et la détermination détaillée de votre attente. Mettre en avant un ou plusieurs éléments de votre majeur atout concurrentiel se réalisera de différentes façons toutefois en considération des suites diverses en matière de stratégie. Plus d’informations en matière des vidéos institutionnellesici page « une ». C’est pourquoi le sujet dont nous aurons besoin pour entamer la travail est la concrétisation de l’objectif de votre clip et la communication que votre vidéo d’entreprise doit produire.

Vous aimerez aussi:

Gestion du niveau de service dans les environnements émergents.,(la couverture) .