Résolution et filtrage d'une image
Introduction :
La photographie numérique permet de réaliser des prises de vues plus ou moins précises qui peuvent ensuite être stockées, consultées sur un écran, modifiés par des logiciels et imprimées sur différents supports. Nous préciserons dans un premier temps ce que sont la définition et la résolution d’une image numérique. Nous nous intéresserons ensuite aux algorithmes permettant l’agrandissement d’images. Nous étudierons enfin les principaux formats de fichiers dédiés au stockage des images numériques.
Définition et résolution d’une image matricielle
Définition et résolution d’une image matricielle
Caractéristiques de l’image matricielle
Caractéristiques de l’image matricielle
Il existe deux types d’images numériques : les images matricielles et les images vectorielles. Ce cours, s’inscrivant dans un chapitre sur la numérisation, s’intéresse aux seules images matricielles.
Les images matricielles sont également appelées images bitmap. Le terme anglais « bitmap » désigne un tableau de bits. Sa traduction usuelle en français est image matricielle.
- Une image bitmap est composée d’une mosaïque de pixels.
Définition d’image
Définition d’image
En conservant l’analogie avec une mosaïque, on comprend aisément que plus les carreaux de la mosaïque sont nombreux, plus l’image peut comporter de détails précis. Cet ordre de grandeur est la définition de l’image.
Définition (d’une image) :
La définition d’une image désigne le nombre de pixels qu’elle contient.
La définition en pixels de l’image peut être exprimée de deux manières selon les besoins :
- par le produit en pixels de la largeur par la hauteur,
- par le nombre total de pixels.
Les deux descriptions suivantes correspondent à une même image :
- $4000 \times 3000\text{px}$ (largeur $\times$ longueur) ;
- $12\ \text{Mpx}$ ($\text{Mpx}$ pour mégapixel, signifiant « million de pixels »).
Plus une image comporte de pixels, mieux elle est définie, et plus il est possible de l’agrandir sans perte de qualité visuelle.
L’expression « taille de l’image » est parfois employée comme synonyme de sa définition, mais il ne faut pas confondre avec l’expression corollaire « poids de l’image » qui renvoie à la taille informatique (en bits) du fichier contenant l’image. Le « poids » de l’image dépend principalement du nombre de pixels composant l’image, mais aussi du nombre de bits par pixel ($\text{bpp}$) et du format technique de fichier image utilisé pour la stocker. Nous reviendrons sur cet aspect dans la troisième partie du cours.
Résolution d’une image
Résolution d’une image
Lorsqu’une photographie numérique est affichée sur un écran ou imprimée, elle acquiert une taille physique.
L’imprimante qui produit cette image physique dispose de caractéristiques techniques dont le nombre de points individuels qu’elle est capable d’imprimer sur une surface donnée. Dans le cas d’une imprimante à jet d’encre, c’est la petitesse des micro-points d’encre qui conditionne la finesse de l’image.
- Cela signifie que pour une taille d’impression souhaitée, il est nécessaire de disposer de suffisamment d’informations (pixels) à fournir à l’imprimante pour chaque micro-point qu’elle peut imprimer.
La résolution d’une image traduit cette relation entre la taille de l’image (sa définition) et une taille physique : la résolution d’une image conditionne la taille d’impression possible de cette image.
Résolution :
La résolution désigne le nombre de pixels par unité de longueur d’une image.
L’expression « densité de pixels » est parfois employée de manière synonyme pour désigner la résolution d’une image.
La résolution peut être exprimée selon différentes unités de mesure. Elle est le plus souvent exprimée en $\text{dpi}$. L’unité $\text{dpi}$ est un sigle signifiant « dots per inch », traduite en français par $\text{ppp}$ pour « points par pouce ».
- À nombre de pixels égal, la taille d’impression dépend donc de la résolution souhaitée.
Sachant que $1^{\prime\prime}=25,4\ \text{mm}$, considérons une image dont la définition est $4000 \times 3000\ \text{px}$ :
- avec une résolution d’impression usuelle de $300\ \text{dpi}$, on obtiendra une image de $339 \times 254\ \text{mm}$,
- en augmentant la résolution d’impression à $600\ \text{dpi}$, l’image sera réduite à $169 \times 127\ \text{mm}$,
- en diminuant la résolution d’impression à $150\ \text{dpi}$, l’image pourra être agrandie jusqu’à $667 \times 508\ \text{mm}$.
En matière d’image numérique, la définition et la résolution sont souvent confondues. Les abus de langage sont nombreux et il arrive fréquemment que les termes soient inversés, en partie suite à une mauvaise traduction historique des termes anglais équivalents dans certains systèmes d’exploitation et documents informatiques.
La définition (ou taille) de l’image correspond au nombre de pixels. La résolution de l’image correspond à la densité de pixels pour son impression ou son affichage sur écran.
Algorithmes d’agrandissements
Algorithmes d’agrandissements
La définition est en principe fixée une fois pour toutes au moment de la prise de vue. Il existe toutefois des algorithmes qui permettent d’augmenter artificiellement la définition de l’image après la prise de vue, comme nous allons le voir maintenant.
Les limites du zoom
Les limites du zoom
Les logiciels de visualisation ou d’édition d’images matricielles permettent souvent de zoomer au-delà de 100 %. Ce faisant, ils sont confrontés à une insuffisance de définition de l’image : il n’y a pas assez de pixels disponibles dans celle-ci pour en proposer une représentation fine. Ne disposant pas de suffisamment d’informations pour remplir individuellement tous les pixels de l’écran avec des valeurs distinctes, les logiciels représentent les pixels sous forme de carrés de plus en plus gros à mesure du zoom avant.
Pixellisation importante d’une image de paysage zoomée à 800 % avec le logiciel libre Gimp
Si la définition de l’image dont on dispose est insuffisante, la meilleure solution consiste à capter une nouvelle image, mieux définie. Mais ce n’est pas toujours possible : on peut être limité par la performance de l’appareil utilisé, qui est peut-être déjà au maximum de ses capacités techniques. En de tels cas, on peut recourir à des algorithmes d’agrandissement numérique de l’image.
Principe général des algorithmes d’agrandissement
Principe général des algorithmes d’agrandissement
Toute opération de redimensionnement d’une image nécessite un ré-échantillonnage, c’est-à-dire un changement de définition de cette image.
Il ne faut pas confondre :
- les réglages de zoom qui modifient seulement le niveau de détail visible à l’écran (par exemple passer de 100 % à 50 % de zoom) ;
- les redimensionnements de l’image qui modifient sa définition (par exemple passer de $4000 \times 3000\ \text{px}$ à $2000 \times 1500\ \text{px}$).
Le redimensionnement dans le sens de la réduction de taille est relativement simple dans la mesure où l’opération consiste à synthétiser des informations existantes, pour « résumer » un ensemble de pixels en un seul.
Dans le sens de l’agrandissement, certains des pixels inexistants devront être ajoutés, après avoir été « devinés » par interpolation en se basant sur les pixels environnants.
Interpolation :
L’interpolation permet d’estimer une valeur inconnue d’un point d’une fonction en connaissant les valeurs pour d’autres points de la fonction.
L’interpolation permet ainsi de proposer une approximation de ce qu’aurait été l’image si elle avait été captée avec une définition supérieure.
Nous présentons ci-après quelques-unes des méthodes algorithmiques courantes pour l’agrandissement d’images.
Méthodes algorithmiques
Méthodes algorithmiques
Parmi les méthodes algorithmiques fréquemment employées pour augmenter la définition d’une image, figurent l’interpolation par plus proche voisin, l’interpolation bilinéaire et l’interpolation bicubique.
L’interpolation par plus proche voisin, parfois appelée « interpolation arrondie », consiste à considérer que chaque pixel à créer pour ré-échantillonner l’image prend la valeur de son plus proche voisin. Cet algorithme est très rapide mais il produit un phénomène appelé « crénelage » ou « effet d’escalier » sur les contours, ainsi que des effets de mosaïque sur les dégradés.
Les interpolations bilinéaire et bicubique (parfois appelées « filtres bilinéaire et bicubique ») consistent à calculer des moyennes entre les pixels connus les plus proches pondérées par la distance du pixel à estimer. L’interpolation bicubique donne généralement des résultats un peu meilleurs que l’interpolation bilinéaire pour un surcoût algorithmique qui reste raisonnable.
L’interpolation bicubique est souvent proposée comme choix par défaut en raison de son bon rapport entre son coût d’exécution (temps de calcul) et la qualité du rendu obtenu.
Fenêtre de changement de taille d’image par interpolation bicubique proposée par défaut par le logiciel libre d’édition Gimp
Lissage algorithmique après agrandissement
Lissage algorithmique après agrandissement
Il est possible de recourir à des filtres de lissage pour estomper certains effets consécutifs à l’agrandissement en « adoucissant » certains détails.
Parmi les algorithmes les plus fréquents figurent le filtre moyenneur, le filtre médian et le filtre gaussien. Ce dernier est assez similaire au filtre moyenneur mais pondère celui-ci en fonction de la distance.
Il est souvent nécessaire de tester plusieurs filtres et différents paramètres de ces filtres pour obtenir le résultat souhaité en fonction du type d’image.
Intéressons-nous maintenant aux principaux formats de fichiers dédiés au stockage des images numériques.
Principaux formats d’images numériques
Principaux formats d’images numériques
Il existe plusieurs dizaines de formats numériques pour les images, chacun doté de caractéristiques propres qui les destinent à des usages différents, comme nous le présentons ci-après avec quatre d’entre eux : les formats RAW, BMP, TIFF et JPEG.
Format RAW
Format RAW
Parfois surnommé « négatif numérique », ce format n’est pas directement utilisable en tant qu’image, mais contient tous les éléments qui permettent, par le biais d’un logiciel spécialisé, de créer une image à partir des données de captation.
Les appareils professionnels proposent tous le format RAW, ou plutôt un format RAW : le RAW n’est pas un standard mais une désignation générique pour un fichier contenant les données brutes en provenance du capteur (raw signifie « brut » en anglais). Les caractéristiques techniques des fichiers RAW varient ainsi d’un constructeur à l’autre.
Au prix d’un coût mémoire plus important, le format RAW permet notamment :
- de disposer de nuances colorées plus étendues (car codées sur $12$ ou $14\ \text{bits}$ au lieu de $8$ pour le JPEG),
- d’accéder à une image qui n’a pas fait l’objet de pré-traitements de réduction de bruit ou d’accentuation.
Le principal intérêt de ce format est de conserver un maximum d’informations directement issues de la prise de vue par le capteur de l’appareil, ainsi que les métadonnées associées.
- Ce négatif numérique peut ensuite être développé de différentes manières en fonction des besoins à l’aide de logiciels spécialisés.
Le développement consiste en une succession de traitements appliqués sur les données brutes de l’image, avec la possibilité de revenir en arrière le cas échéant.
Format BMP
Format BMP
Le format BMP (pour BitMaP, image matricielle) est le format natif historique des images matricielles sous Windows, mais il est aujourd’hui supporté sur différentes plateformes. Capable de stocker différents types d’images en haute qualité sans compression, le format BMP génère des fichiers assez volumineux.
Format TIFF
Format TIFF
Le sigle TIFF signifie Tagged Image File Format. Le format TIFF est en réalité un conteneur flexible de données structurées, il peut contenir à la fois des données et des métadonnées et supporte différents types d’encodages, et de compression.
Le format TIFF présente l’intérêt de pouvoir stocker des images de haute qualité, compressées ou non. Si elles sont compressées, les images peuvent l’être, au choix, avec ou sans perte. Ce format supporte également différents modes de représentation des couleurs, parmi lesquels la quadrichromie (CMJN, pour Cyan Magenta Jaune Noir) employée en imprimerie.
Format JPEG
Format JPEG
Les appareils photo grand public pré-traitent et compressent l’image obtenue par le capteur photo, et proposent généralement l’image correspondante directement au format JPEG.
Le format JPEG est le format le plus utilisé. JPEG signifie Joint Photographic Experts Group (que l’on peut traduire par « groupe d’experts en photographie ») est également très utilisé pour la publication d’images photographiques sur le web.
Les possibilités de compression offertes par le format JPEG permettent de réduire parfois significativement la taille (en octets), soit le poids informatique des fichiers d’images. Toutefois cette compression s’accompagne d’une perte d’information et de qualité d’image, plus ou moins perceptible en fonction du niveau de compression choisi.
Une même image enregistrée au format JPEG avec des taux de compression croissants
Le choix du format technique de stockage dépend des besoins spécifiques de chaque utilisateur.
Conclusion :
Nous avons dans un premier temps précisé les notions de définition et de résolution de l’image numérique matricielle. Nous avons ensuite montré qu’il était possible par le biais d’algorithmes spécialisés d’augmenter artificiellement la définition native d’une image. Nous avons enfin décrit les principales caractéristiques de plusieurs formats techniques qui permettent le stockage des images numériques sous forme de fichiers informatiques.