ISO/IEC 14492:2001/Amd 1:2004
(Amendment)Information technology — Lossy/lossless coding of bi-level images — Amendment 1: Encoder
Information technology — Lossy/lossless coding of bi-level images — Amendment 1: Encoder
Technologies de l'information — Codage avec ou sans perte des images au trait — Amendement 1: Codeur
General Information
Relations
Standards Content (Sample)
INTERNATIONAL ISO/IEC
STANDARD 14492
First edition
2001-12-15
AMENDMENT 1
2004-12-15
Information technology — Lossy/lossless
coding of bi-level images
AMENDMENT 1: Encoder
Technologies de l'information — Codage avec ou sans perte des
images au trait
AMENDEMENT 1: Codeur
Reference number
ISO/IEC 14492:2001/Amd.1:2004(E)
©
ISO/IEC 2004
---------------------- Page: 1 ----------------------
ISO/IEC 14492:2001/Amd.1:2004(E)
PDF disclaimer
This PDF file may contain embedded typefaces. In accordance with Adobe's licensing policy, this file may be printed or viewed but
shall not be edited unless the typefaces which are embedded are licensed to and installed on the computer performing the editing. In
downloading this file, parties accept therein the responsibility of not infringing Adobe's licensing policy. The ISO Central Secretariat
accepts no liability in this area.
Adobe is a trademark of Adobe Systems Incorporated.
Details of the software products used to create this PDF file can be found in the General Info relative to the file; the PDF-creation
parameters were optimized for printing. Every care has been taken to ensure that the file is suitable for use by ISO member bodies. In
the unlikely event that a problem relating to it is found, please inform the Central Secretariat at the address given below.
© ISO/IEC 2004
All rights reserved. Unless otherwise specified, no part of this publication may be reproduced or utilized in any form or by any means,
electronic or mechanical, including photocopying and microfilm, without permission in writing from either ISO at the address below or
ISO's member body in the country of the requester.
ISO copyright office
Case postale 56 • CH-1211 Geneva 20
Tel. + 41 22 749 01 11
Fax + 41 22 749 09 47
E-mail copyright@iso.org
Web www.iso.org
Published by ISO in 2005
Published in Switzerland
ii © ISO/IEC 2004 – All rights reserved
---------------------- Page: 2 ----------------------
ISO/IEC 14492:2001/Amd.1:2004(E)
Foreword
ISO (the International Organization for Standardization) and IEC (the International Electrotechnical
Commission) form the specialized system for worldwide standardization. National bodies that are members of
ISO or IEC participate in the development of International Standards through technical committees
established by the respective organization to deal with particular fields of technical activity. ISO and IEC
technical committees collaborate in fields of mutual interest. Other international organizations, governmental
and non-governmental, in liaison with ISO and IEC, also take part in the work. In the field of information
technology, ISO and IEC have established a joint technical committee, ISO/IEC JTC 1.
International Standards are drafted in accordance with the rules given in the ISO/IEC Directives, Part 2.
The main task of the joint technical committee is to prepare International Standards. Draft International
Standards adopted by the joint technical committee are circulated to national bodies for voting. Publication as
an International Standard requires approval by at least 75 % of the national bodies casting a vote.
Attention is drawn to the possibility that some of the elements of this document may be the subject of patent
rights. ISO and IEC shall not be held responsible for identifying any or all such patent rights.
Amendment 1 to ISO/IEC 14492:2001 was prepared by Joint Technical Committee ISO/IEC JTC 1,
Information technology, Subcommittee SC 29, Coding of audio, picture, multimedia and hypermedia
information, in collaboration with ITU-T. The identical text is published as ITU-T Rec. T.88 (2000)/Amd.1.
© ISO/IEC 2004 – All rights reserved iii
---------------------- Page: 3 ----------------------
ISO/IEC 14492:2001/Amd.1:2004(E)
Introduction
In this amendment, the following new materials are added:
a) new clauses 9, 10, and 11 to describe the required architecture and procedures for JBIG2 encoding; and
b) a new Annex J to document optional JBIG2 encoding methods.
The encoding procedures in clauses 9 and 10 are essentially the inverse of the decoding procedures already described in
clauses 6 and 7 of ITU-T Rec. T.88 | ISO/IEC 14492. To simplify the required new documentation, description of each of
the encoding procedures is given by referring to the corresponding decoding procedures in clauses 6 and 7, wherever
applicable. Clause 11 and Annex J, however, are new material and thus contain more detailed documentation. In
clause 11 (although the encoding complements that of clause 8 of ITU-T Rec. T.88 | ISO/IEC 14492), JBIG2 encoding
architecture as well as its technical components are described, and their corresponding implementation methods are given
by reference. In J.1, compliant example encoding methods are summarized in table form.
iv © ISO/IEC 2004 – All rights reserved
---------------------- Page: 4 ----------------------
ISO/IEC 14492:2001/Amd.1:2004(E)
INTERNATIONAL STANDARD
ITU-T RECOMMENDATION
Information technology – Lossy/lossless coding of bi-level images
Amendment 1
Encoder
1) New clauses 9, 10, and 11
Add the following clauses:
9 Encoding procedures
The encoding procedures in this clause are essentially the inverse of the decoding procedures already described in clause
6 and will not be duplicated here. The inverse of generic region encoding is described in 6.2. The inverse of generic
refinement encoding is described in 6.3. The inverse of text region encoding is described in 6.4. The inverse of symbol
dictionary encoding is described in 6.5. The inverse of halftone region encoding is described in 6.6. The inverse of
pattern dictionary encoding is described in 6.7.
10 Control encoding procedures
The control encoding procedures in this clause are essentially the inverse of the decoding control procedures already
described in clause 7 and will not be duplicated here. The inverse of segment header syntax encoding is described in 7.2.
The inverse of segment type encoding is described in 7.3. The segment types syntax for the region segment information
field, symbol dictionary segment, text region segment, pattern dictionary segment, halftone region segment, generic
region, generic refinement segment, end of page segment, end of stripe segment, end of file segment, profiles segment,
code table segment and extension segment are described in detail in 7.4.1 to 7.4.15 respectively.
11 Page break-up
The page break-up ("Front end") procedures in this clause are conceptually the inverse of the page make-up ("Back end")
procedures already described in clause 8. However, page break-up also requires additional page and document
decomposition steps prior to encoding.
11.1 Page break-up architecture
This clause describes the JBIG2 encoder break-up defined by compliant, but optional, technical 'components' (with a
range of 'algorithms' possible to implement each of these components). These JBIG2 page break-up components are a set
of processing steps labelled: Capture, Filter, Orient (de-skew), Identify, eXtract, Screen, Align (register), Match,
Post-match, Dictionary (optimize), and Refine. An example sequence of this component set is illustrated in the
Architectural Components figure below as the horizontal axis with abbreviated labels C F O I X S A M P D R (leading
from input on the left to a compressed data stream on the right). The vertical dimension above each label represents the
range of possible algorithms that may be used to implement each component. The horizontal band illustrates an example
JBIG2 compliant page break-up method, using some algorithm for each architectural component and spanning over these
components.
ITU-T Rec. T.88 (2000)/Amd.1 (06/2003) 1
---------------------- Page: 5 ----------------------
ISO/IEC 14492:2001/Amd.1:2004(E)
Page Encoding
Break-up Procedure
C F O I X S A M P D R
ARCHITECTURAL COMPONENTS
A compliant JBIG2 encoder need not include all architectural components, nor use them in exactly the above sequence.
11.2 Page image decomposition
A page image is decomposed into several groups of sub-images such as marks [J2], line-arts, residues and halftones.
Each group is identified and then compressed using an appropriate set of processing (architectural components) from
those summarized in 11.2.1 to 11.2.12. Processing may include one or more of these component techniques prior to
bitstream creation. The specific algorithm selected for each processing step is left up to the implementer but compliant
examples for each processing step are provided in J.1. Implementing a full combination of these components, each using
a compliant example encoding method, will result in an encoder capable of producing reasonable near-lossless quality for
most 300 + dpi images.
11.2.1 Capture (rasterize)
Capture (rasterization) is a process by which an image source is converted into a two-dimensional bi-level raster image.
This is done by mapping a region of the image source to a set of pixels of the raster image, and then assigning a 1-bit
colour value to each pixel. In the scope of this amendment, two types of images are defined: generated and scanned
images. A generated image is an image converted from a computer-generated metafile or vector graphic (e.g., a bitmap
rasterized from a document created using a typical word processor), whereas a scanned image is an image obtained from
a paper document by means of imaging hardware such as a scanner or facsimile.
11.2.2 Filter
In most cases, a scanning process is noisy, and the resulting scanned image may contain random pixel values not
representative of the original source. These pixels or small groups of pixels are called flyspecks. It is often desireable to
remove flyspecks in a scanned image to improve compression efficiency as well as visual quality of the reconstructed
image. A scanned image also contains quantization errors, i.e., identical marks in the original image may be slightly
different in the scanned image. Smoothing the edges of the marks helps to recover the equivalence of such identical
marks in the scanned image and also improve compression efficiency. These filtering techniques are shown as a reference
in J.1. Filtering is seldom required for generated images although these techniques may still be applied.
11.2.3 Orient (de-skew)
A scanned image may be skewed when it is scanned or photocopied at a slight angle, and it is often beneficial to identify
and adjust any skew prior to compression. In most texts, marks (characters) are aligned in straight lines, and examining
the slope of these lines that align pairs of marks yields the skew angle. Several methods of de-skewing are shown as a
reference in J.1.
11.2.4 Identify
Identification of sub-image categories involves two processes: segmentation and classification. First an image is
segmented into groups of sub-mages or 'regions' having similar characteristics. These regions (segments) are then
classified into pre-defined categories such as textual data, line-art and halftones, to which appropriate compression
methods are applied.
2 ITU-T Rec. T.88 (2000)/Amd.1 (06/2003)
---------------------- Page: 6 ----------------------
ISO/IEC 14492:2001/Amd.1:2004(E)
11.2.5 Extract
A symbol (character) is a mark consisting of black pixels. A symbol boundary is first traced by observing the
connectivity of black pixels, and the adjacent black pixels are extracted to form a symbol. Although simply extracting all
the pixels confined by the boundary may work in most cases, it does not handle nested marks. Several methods are
shown as a reference in J.1.
11.2.6 Screen
Comparing an extracted mark against all the symbols in the dictionary is inefficient especially when the dictionary size is
large, and relatively complex matching criteria as described in 11.2.8 are used. Simple methods, such as restricting
comparisons to only be made between marks and dictionary symbols with similar width and height, can be used to find
possible matching candidates. More detailed approaches are shown as a reference in J.1.
11.2.7 Align (register)
Symbols are often aligned (registered) in the dictionary using the same criteria selected for the screening method
in 11.2.6. When distribution of black pixels is tested against symbols in a dictionary to find matching candidates, aligning
symbols along their centroids can enhance the screening rate. More detailed approaches are shown as a reference in J.1.
11.2.8 Match
Marks are extracted from a region containing textual data and compared with existing symbols in a dictionary, in order to
exploit any similarities between them for better compression. Basically, each mark is tested to determine whether it is
similar enough to be considered a 'match' to one of the existing symbols. One way of matching is to first obtain a
difference bitmap between the mark and a symbol and test the number of black pixels in the difference bitmap to a
pre-defined threshold. Giving more weight to the clustered black pixels in the difference bitmap usually improves
matching results. When a close match is found, a reference to the matching symbol in the dictionary is coded. When there
is no close match, the extracted mark is stored as a new symbol in the dictionary.
11.2.9 Post-match
Several additional criteria and processing steps may be applied to the symbol dictionary to improve image quality. A best
dictionary symbol shape may be determined by examining several similar symbols, which have already passed the
matching step. Direct encoding of a symbol or alignment of symbol bottoms may also be used to improve symbol
dictionary accuracy.
11.2.10 Dictionary (optimize)
After a symbol dictionary has been generated, it may be examined further to identify any 'singletons' [J2]. Singletons are
symbols in the dictionary that have not been referenced by more than one mark. One may sometimes wish to remove
such symbols from the dictionary and place them back into the 'residue' sub-images (which contain any residua
...
NORME ISO/CEI
INTERNATIONALE 14492
Première édition
2001-12-15
AMENDEMENT 1
2004-12-15
Technologies de l'information — Codage
avec ou sans perte des images au trait
AMENDEMENT 1: Codeur
Information technology — Lossy/lossless coding of bi-level images
AMENDMENT 1: Encoder
Numéro de référence
ISO/CEI 14492:2001/Amd 1:2004(F)
©
ISO/CEI 2004
---------------------- Page: 1 ----------------------
ISO/CEI 14492:2001/Amd 1:2004(F)
PDF – Exonération de responsabilité
Le présent fichier PDF peut contenir des polices de caractères intégrées. Conformément aux conditions de licence d'Adobe, ce fichier
peut être imprimé ou visualisé, mais ne doit pas être modifié à moins que l'ordinateur employé à cet effet ne bénéficie d'une licence
autorisant l'utilisation de ces polices et que celles-ci y soient installées. Lors du téléchargement de ce fichier, les parties concernées
acceptent de fait la responsabilité de ne pas enfreindre les conditions de licence d'Adobe. Le Secrétariat central de l'ISO décline toute
responsabilité en la matière.
Adobe est une marque déposée d'Adobe Systems Incorporated.
Les détails relatifs aux produits logiciels utilisés pour la création du présent fichier PDF sont disponibles dans la rubrique General Info
du fichier; les paramètres de création PDF ont été optimisés pour l'impression. Toutes les mesures ont été prises pour garantir
l'exploitation de ce fichier par les comités membres de l'ISO. Dans le cas peu probable où surviendrait un problème d'utilisation,
veuillez en informer le Secrétariat central à l'adresse donnée ci-dessous.
© ISO/CEI 2004
Droits de reproduction réservés. Sauf prescription différente, aucune partie de cette publication ne peut être reproduite ni utilisée sous
quelque forme que ce soit et par aucun procédé, électronique ou mécanique, y compris la photocopie et les microfilms, sans l'accord écrit
de l'ISO à l'adresse ci-après ou du comité membre de l'ISO dans le pays du demandeur.
ISO copyright office
Case postale 56 • CH-1211 Geneva 20
Tel. + 41 22 749 01 11
Fax. + 41 22 749 09 47
E-mail copyright@iso.org
Web www.iso.org
Version française parue en 2006
Publié en Suisse
ii © ISO/CEI 2004 – Tous droits réservés
---------------------- Page: 2 ----------------------
ISO/CEI 14492:2001/Amd 1:2004(F)
Avant-propos
L'ISO (Organisation internationale de normalisation) et la CEI (Commission électrotechnique internationale)
forment le système spécialisé de la normalisation mondiale. Les organismes nationaux membres de l'ISO ou
de la CEI participent au développement de Normes internationales par l'intermédiaire des comités techniques
créés par l'organisation concernée afin de s'occuper des domaines particuliers de l'activité technique. Les
comités techniques de l'ISO et de la CEI collaborent dans des domaines d'intérêt commun. D'autres
organisations internationales, gouvernementales et non gouvernementales, en liaison avec l'ISO et la CEI
participent également aux travaux. Dans le domaine des technologies de l'information, l'ISO et la CEI ont créé
un comité technique mixte, l'ISO/CEI JTC 1.
Les Normes internationales sont rédigées conformément aux règles données dans les Directives ISO/CEI,
Partie 2.
La tâche principale du comité technique mixte est d'élaborer les Normes internationales. Les projets de
Normes internationales adoptés par le comité technique mixte sont soumis aux organismes nationaux pour
vote. Leur publication comme Normes internationales requiert l'approbation de 75 % au moins des
organismes nationaux votants.
L'attention est appelée sur le fait que certains des éléments du présent document peuvent faire l'objet de
droits de propriété intellectuelle ou de droits analogues. L'ISO et la CEI ne sauraient être tenues pour
responsables de ne pas avoir identifié de tels droits de propriété et averti de leur existence.
L'Amendement 1 à l'ISO/CEI 14492:2001 a été élaboré par le comité technique mixte ISO/CEI JTC 1,
Technologies de l'information, sous-comité SC 29, Codage du son, de l'image, de l'information multimédia et
hypermédia, en collaboration avec l'UIT-T. Le texte identique est publié en tant que
Rec. UIT-T T.88 (2000)/Amd.1.
© ISO/CEI 2004 – Tous droits réservés iii
---------------------- Page: 3 ----------------------
ISO/CEI 14492:2001/Amd 1:2004(F)
Introduction
Les nouveaux éléments suivants sont ajoutés par le présent amendement:
a) de nouveaux § 9, 10 et 11 décrivant l'architecture et les procédures requises pour le codage JBIG2;
b) une nouvelle Annexe J décrivant des méthodes de codage JBIG2 facultatives.
Les procédures de codage des § 9 et 10 sont pratiquement l'inverse des procédures de décodage déjà décrites dans les
§ 6 et 7 de la Rec. UIT-T T.88 | ISO/CEI 14492. Afin de simplifier la nouvelle documentation requise, la description de
chacune des procédures de codage est indiquée par référence aux procédures de décodage correspondantes des § 6 et 7,
si applicables. Le § 11 et l'Annexe J sont cependant de nouveaux éléments et contiennent donc une documentation plus
détaillée. Le § 11 décrit l'architecture de codage JBIG2 et ses composants techniques (bien que ce codage soit conforme
au § 8 de la Rec. UIT-T T.88 | ISO/CEI 14492) et leurs méthodes d'implémentation correspondantes sont indiquées par
des renvois. Dans le § J.1, des exemples de méthodes de codage compatibles sont résumés sous forme tabulaire.
iv © ISO/CEI 2004 – Tous droits réservés
---------------------- Page: 4 ----------------------
ISO/CEI 14492:2001/Amd.1:2004 (F)
NORME INTERNATIONALE
RECOMMANDATION UIT-T
Technologies de l'information – Codage avec ou sans perte des images au trait
Amendement 1
Codeur
1) Nouveaux § 9, 10 et 11
Ajouter les nouveaux paragraphes suivants:
9 Procédures de codage
Les procédures de codage du présent § 9 sont pratiquement l'inverse des procédures de décodage déjà décrites dans le
§ 6; elles ne seront donc pas reprises ici. L'inverse du codage de région générique est décrit au § 6.2. L'inverse du
codage de région générique par raffinement est décrit au § 6.3. L'inverse du codage de région alphanumérique est décrit
au § 6.4. L'inverse du codage par dictionnaire de symboles est décrit au § 6.5. L'inverse du codage de région de dégradé
est décrit au § 6.6. L'inverse du codage du dictionnaire de structures est décrit au § 6.7.
10 Procédures de codage des commandes
Les procédures de codage des commandes du présent paragraphe sont pratiquement l'inverse des procédures de
décodage des commandes déjà décrites au § 7: elles ne seront donc pas reprises ici. L'inverse du codage de syntaxe
d'en-tête de segment est décrit au § 7.2. L'inverse du codage des types de segment est décrit au § 7.3. La syntaxe des
segments pour le champ d'information de segment de région, le segment de dictionnaire de symboles, le segment de
région alphanumérique, le segment de dictionnaire de structures, le segment de région de dégradé, le segment de région
générique, le segment de région générique par raffinement, le segment de fin de page, le segment de fin de bande, le
segment de fin de fichier, le segment de profils, le segment de table de codage et le segment d'extension est décrite en
détail dans les § 7.4.1 à 7.4.15, respectivement.
11 Décomposition de page
Les procédures de décomposition de page ("à l'extrémité initiale") du présent paragraphe sont théoriquement l'inverse
des procédures de mise en page ("à l'extrémité finale") déjà décrites au § 8. Toutefois, la décomposition de page
nécessite également des étapes additionnelles d'analyse de page et de document avant le codage.
11.1 Architecture de décomposition de page
Le présent paragraphe décrit la décomposition de codeur JBIG2 définie par des "composants" techniques compatibles
mais facultatifs (avec une étendue d'"algorithmes" permettant d'implémenter chacun de ces composants). Ces
composants de décomposition de page JBIG2 sont un ensemble d'étapes de traitement désignées comme suit: capture,
filtrage, orientation (compensation d'obliquité), identification, extraction, criblage, alignement (enregistrement),
appariement, post-appariement, dictionnaire (optimisation) et raffinement. Une séquence de cet ensemble de
composants est présentée en exemple dans la figure ci-dessous décrivant les composants architecturaux, sous la forme
de l'axe horizontal portant les désignations abrégées C F O I X S A M P D R (allant de l'entrée à gauche jusqu'à un train
de données comprimées à droite). La dimension verticale au-dessus de chaque désignation représente l'étendue des
algorithmes possibles qui peuvent servir à implémenter chaque composant. La bande horizontale représente un exemple
de méthode décomposition de page JBIG2 compatible, faisant appel à un algorithme pour chaque composant
architectural et englobant ces composants.
Rec. UIT-T T.88 (2000)/Amd.1 (06/2003) 1
---------------------- Page: 5 ----------------------
ISO/CEI 14492:2001/Amd.1:2004 (F)
Procédure
Décomposition de page de codage
C O X AM DR
T.88AMD.1_F11.1
Composants architecturaux
Un codeur JBIG2 compatible n'a pas besoin d'inclure tous les composants architecturaux, ni de les utiliser exactement
dans la séquence ci-dessus.
11.2 Décomposition d'une image de page
Une image de page est décomposée en plusieurs groupes de sous-images telles que marques [J2], traits, résidus et
dégradés. Chaque groupe est identifié puis comprimé au moyen d'un ensemble d'éléments de traitement appropriés
(composants architecturaux) extrait de ceux qui sont résumés aux § 11.2.1 à 11.2.11. Le traitement peut inclure un ou
plusieurs de ces composants techniques avant la création du flux binaire. L'algorithme spécifiquement choisi pour
chaque échelon de traitement est laissé aux soins du réalisateur mais des exemples compatibles sont fournis dans le
§ J.1 pour chaque échelon de traitement. L'implémentation d'une combinaison complète de ces composants, utilisant
chacun une méthode de codage compatible à titre d'exemple, se traduira par un codeur capable de produire une qualité
quasi sans pertes acceptable pour la plupart des images de résolution 300 + dpi.
11.2.1 Capture (analyse par balayage)
La capture (analyse par balayage) est un processus par lequel une image source est convertie en image analysée en deux
dimensions et deux tons. A cette fin, une région de l'image source est mise en correspondance avec un ensemble de
pixels de l'image analysée, puis une valeur chromatique codée sur 1 bit est attribuée à chaque pixel. Dans le domaine
d'application du présent amendement, deux types d'images sont définis: engendrées et numérisées. Une image
engendrée est une image convertie à partir d'un métafichier produit par un ordinateur ou par un logiciel graphique
vectoriel (par exemple, une phototrame analysée en points à partir d'un document créé au moyen d'un traitement de
texte), tandis qu'une image numérisée est obtenue à partir d'un document imprimé au moyen d'un appareil d'imagerie tel
qu'un scanneur ou un télécopieur.
11.2.2 Filtrage
Dans la plupart des cas, un processus d'analyse est bruyant et l'image numérisée qui en résulte peut contenir des valeurs
de pixel aléatoires, qui ne sont pas représentatives de la source originale. Ces pixels ou petits groupes de pixels sont
appelés mouchetures. Il est souvent souhaitable de supprimer les mouchetures dans une image numérisée afin
d'améliorer le rendement de compression ainsi que la qualité visuelle de l'image reconstruite. Une image numérisée
contient également des erreurs de quantification, c'est-à-dire que des marques identiques dans l'image originale peuvent
être légèrement différentes de l'image numérisée. L'adoucissement de la bordure des marques contribue à rétablir
l'équivalence de telles marques identiques dans l'image numérisée tout en améliorant le rendement de compression. Ces
techniques de filtrage sont citées en référence dans le § J.1. Le filtrage est rarement requis pour les images engendrées
bien que ces techniques puissent toujours leur être appliquées.
11.2.3 Orientation (compensation d'obliquité)
Une image numérisée peut être biaisée quand elle est numérisée ou photocopiée avec un léger décalage et il est souvent
utile de repérer et de redresser une éventuelle obliquité avant la compression. Dans la plupart des textes, les marques
(caractères) sont alignées en lignes droites et l'examen de la pente des lignes qui sous-tendent des paires de marques
fournit l'angle d'obliquité. Plusieurs méthodes de compensation d'obliquité sont citées en référence dans le § J.1.
11.2.4 Identification
L'identification des catégories de sous-image implique deux processus: la segmentation et la classification. Une image
est d'abord fractionnée en groupes de sous-images ou "régions" ayant des caractéristiques similaires. Ces régions
(segments) sont ensuite rangées dans des catégories prédéfinies telles que données alphanumériques, traits et dégradés,
auxquelles des méthodes de compression appropriées sont appliquées.
2 Rec. UIT-T T.88 (2000)/Amd.1 (06/2003)
---------------------- Page: 6 ----------------------
ISO/CEI 14492:2001/Amd.1:2004 (F)
11.2.5 Extraction
Un symbole (caractère) est une marque composée de pixels noirs. Une limite de symbole est d'abord tracée par examen
de la connexité des pixels noirs, et les pixels noirs adjacents sont extraits afin de former un symbole. Bien que la simple
extraction de tous les pixels confinés par la limite puisse fonctionner dans la plupart des cas, elle ne gère pas les
marques imbriquées. Plusieurs méthodes sont citées en référence dans le § J.1.
11.2.6 Criblage
La comparaison d'une marque extraite à tous les symboles contenus dans le dictionnaire est inefficace, en particulier
quand la taille du dictionnaire est grande et que des critères d'appariement relativement complexes (comme décrits au
§ 11.2.8) sont utilisés. Des méthodes simples, telles que la limitation des comparaisons à des marques et à des symboles
de dictionnaire ayant une largeur et une hauteur similaires, peuvent servir à trouver des éléments pouvant être appariés.
Des méthodes plus détaillées sont citées en référence dans le § J.1.
11.2.7 Alignement (d'enregistrement)
Les symboles sont souvent alignés (enregistrés) dans le dictionnaire au moyen des critères déjà choisis pour la méthode
de sélection du § 11.2.6. Quand la répartition des pixels noirs est comparée aux symboles contenus dans un dictionnaire
afin de trouver des éléments à apparier, le fait d'aligner les symboles sur leur centre de gravité peut améliorer la vitesse
de sélection. Des méthodes plus détaillées sont citées en référence dans le § J.1.
11.2.8 Appariement
Les marques sont extraites d'une région contenant des données alphanumériques et sont comparées aux symboles déjà
contenus dans un dictionnaire, afin d'exploiter d'éventuelles similitudes entre eux et d'améliorer la compression.
Fondamentalement, chaque marque est contrôlée afin de déterminer si elle est assez semblable à un des symboles
existants pour être considérée comme un "appariement" à ce symbole. Une façon d'effectuer l'appariement consiste à
obtenir d'abord une phototrame différentielle entre la marque et le symbole puis à comparer le nombre de pixels noirs
contenus dans la phototrame différentielle à un seuil prédéfini. Le fait de donner plus de poids aux pixels noirs
agglomérés dans la phototrame différentielle améliore habituellement les résultats d'appariement. Quand un
appariement étroit est trouvé, une référence au symbole apparié dans le dictionnaire est codée. Quand il n'y a pas
d'appariement étroit, la marque extraite est mémorisée comme un nouveau symbole dans le dictionnaire.
11.2.9 Post-appariement
Plusieurs critères et étapes de traitement supplémentaires peuvent être appliqués au dictionnaire de symboles afin
d'améliorer la qualité d'image. Une meilleure forme de symbole de dictionnaire peut être déterminée par examen de
plusieurs symboles semblables, qui ont déjà passé l'étape de l'appariement. Le codage direct d'un symbole ou
l'alignement des bases de symbole peut également servir à améliorer la précision du dictionnaire de symboles.
11.2.10 Dictionnaire (optimisation)
Une fois qu'un dictionnaire de symboles a été engendré, il peut être examiné plus précisément afin de détecter
d'é
...
Questions, Comments and Discussion
Ask us and Technical Secretary will try to provide an answer. You can facilitate discussion about the standard in here.