Glossaire

Surveiller

Ecrit par Julien

D’autres utilisations du concept liées aux métiers ou professions nous permettent de nommer l’assistant des professeurs d’éducation physique, l’esclave qui accompagnait son maître comme assistant et le subordonné qui collaborait avec l’orateur romain dans le forum.

Un moniteur est aussi un vieux navire de guerre qui était presque submergé et qui avait un petit tirant d’eau. Ces bateaux ont été très populaires jusqu’au XIXe siècle, lorsque leur utilisation a commencé à décliner.

Le moniteur, enfin, peut être l’écran qui permet d’observer les paramètres d’un patient connecté à un dispositif médical. Les battements du cœur peuvent être reflétés graphiquement sur le moniteur pour surveiller la fréquence cardiaque.

Le sens le plus commun de la notion est celui qui désigne un dispositif capable de transmettre des images prises à partir d’une caméra vidéo ou d’une autre source. Il peut s’agir d’un périphérique de sortie qui affiche les résultats du traitement par un ordinateur.

L’évolution des moniteurs au cours des deux dernières décennies a été considérable, au point de fournir une clarté d’image comparable à celle d’une feuille imprimée. Lorsque l’on classe les moniteurs en catégories, il est important de distinguer les technologies (comment elles sont fabriquées) des normes (à quoi elles servent).

En ce qui concerne la technologie utilisée pour fabriquer les moniteurs, la plus connue était le tube cathodique (tube cathodique), développé en 1987 et encore valable aujourd’hui, malgré l’apparition des écrans LCD, LED et OLED, qui offrent des économies d’énergie considérables, une netteté d’image infiniment supérieure et sont plus faciles à installer et à manipuler, car ils sont beaucoup plus fins et légers.

A lire :   PowerPoint 2010 : comment partager une présentation sous forme de vidéo

Voyons un bref aperçu de l’évolution de ses normes, avec IBM toujours à l’avant-garde :

* MDA (Monochrome Display Adapter) : Moniteurs monochromes. Elles sont apparues en 1981, en même temps que la carte CGA, produite par IBM. Il est à noter que ces écrans ne permettaient pas la représentation d’images, mais montraient uniquement du texte en italique, en gras et souligné. Curieusement, la couleur verte caractéristique de sa police de caractères provoquait une irritation des yeux ;

* CGA (Color Graphics Adapter) : lancé sur le marché la même année que le MDA, ils ont été les premiers moniteurs à prendre en charge les graphiques couleur. Leur objectif principal, contrairement aux premiers, était d’offrir une meilleure expérience de jeu. Pour un traitement supplémentaire, leurs cartes graphiques contenaient 16 Ko, soit quatre fois plus de mémoire que celles utilisées par les MDA ;

* EGA (Enhanced Graphics Adapter) : en 1984, IBM a introduit cette nouvelle norme de visualisation graphique, faisant allusion à ses « améliorations » dans son propre nom (le terme « amélioré » signifie amélioré). Ils avaient la quadruple mémoire que le CGA et supportaient une plus grande gamme de couleurs ;

* VGA (Video Graphics Array) : sa sortie en 1987 a marqué un avant et un après, et a lentement laissé ses prédécesseurs dans l’oubli. Les cartes VGA normales avaient 256 Ko de mémoire vidéo, et ces moniteurs étaient capables d’afficher jusqu’à 256 couleurs à leur résolution la plus basse (320 x 200 pixels), ou en mode texte plus net à leur résolution la plus haute (720 x 400). Le point médian, avec le populaire 640 x 480, combinant texte et graphiques en 16 couleurs ;

A lire :   Grandes données

* SVGA ou Super VGA : sont sortis en 1989 en différentes versions dans le but de dépasser les résolutions possibles en VGA (à partir de 800 x 600). Les premières cartes graphiques ATI et NVIDIA semblent accompagner la naissance d’un standard qui connaîtra un grand succès pendant quelques années.

A propos de l'auteur

Julien

Ingénieur réseau de profession, je suis un papa touche à tout de l'informatique.

Laisser un commentaire