Glossaire

La carte vidéo

Ecrit par Julien

Une carte vidéo, également appelée carte graphique (entre autres noms) est responsable du traitement des données provenant du processeur principal (CPU ou UCP) et les convertit en informations qui peuvent être représentées sur des appareils tels que les moniteurs et les téléviseurs. Il est à noter que ce composant peut présenter une grande variété d’architectures, bien qu’elles soient communément appelées de la même manière, même si l’on parle d’une puce vidéo intégrée dans une carte mère ; dans ce dernier cas, il est plus exact de dire GPU (Graphic Processing Unit).

Depuis leur conception, les cartes graphiques ont inclus diverses caractéristiques et fonctions, telles que la possibilité de syntoniser la télévision ou de capturer des séquences vidéo à partir d’un appareil externe. Il est important de noter qu’il ne s’agit pas seulement d’un composant que l’on trouve dans les ordinateurs d’aujourd’hui, mais qu’il existe depuis plus de quatre décennies et qu’il est maintenant aussi un élément indispensable des consoles de jeux vidéo, portables et faites maison.

Sa création remonte à la fin des années 1960, lorsque l’utilisation d’une imprimante pour visualiser l’activité informatique a été abandonnée et que les moniteurs ont commencé à être utilisés. Au début, les résolutions étaient très basses par rapport à celles déjà connues en haute définition. C’est grâce aux travaux de recherche et développement de Motorola que les caractéristiques des puces sont devenues plus complexes et que ses produits ont conduit à la standardisation des cartes vidéo nominatives.

Les ordinateurs à usage personnel et les premières consoles de jeux vidéo devenant populaires, il a été décidé d’intégrer des puces graphiques dans les cartes mères, ce qui a permis de réduire considérablement les coûts de fabrication. A première vue, cela présente un inconvénient évident : l’impossibilité de mettre à jour l’équipement ; cependant, il s’agissait de systèmes fermés, qui ont été construits en tenant compte de chacun de leurs composants, afin que le produit final soit cohérent et offre les meilleures performances possibles.

A lire :   La carte mère

Il faut noter qu’aujourd’hui cela continue à se produire avec les consoles, et c’est grâce à ce type de conception inaltérable qu’après quelques années les développeurs obtiennent des résultats bien supérieurs aux premières expériences ; ce n’est pas possible sur un PC, aussi puissant soit-il, car un éditeur de logiciels ne peut envisager toutes les combinaisons possibles des machines des utilisateurs. De plus, l’architecture d’un ordinateur a des points faibles précisément parce que ses parties sont interchangeables, la plus notable étant la distance entre la mémoire, la carte graphique et le processeur principal.

Au début des années 1980, IBM s’est basé sur le design de l’inoubliable Apple II et a réussi à populariser la carte vidéo interchangeable, bien que dans son cas elle n’offrait que la possibilité d’afficher les caractères à l’écran. C’était un adaptateur avec la modeste quantité de 4KB de mémoire (aujourd’hui ils peuvent avoir 2GB, 512 fois plus) et a été utilisé avec un moniteur monochrome. C’était le point de départ, et les améliorations n’ont pas tardé à venir.

Quelque temps plus tard, IBM a normalisé le terme VGA, qui fait référence à une technologie de carte vidéo capable d’offrir une résolution de 640 pixels de large sur 480 de haut, ainsi que les moniteurs qui pourraient représenter ces images et le connecteur nécessaire à leur utilisation. Après le travail de plusieurs sociétés dédiées exclusivement au graphisme, le Super VGA (aussi connu sous le nom de SVGA) a vu le jour, augmentant la définition disponible (à 1024 x 768) ainsi que le nombre de couleurs pouvant être représentées simultanément (de 16 couleurs en 640 x 480 à 256 en 1024 x 768).

A lire :   Grandes données

A propos de l'auteur

Julien

Ingénieur réseau de profession, je suis un papa touche à tout de l'informatique.

Laisser un commentaire