FR2643735A1 - Procede pour convertir des donnees d'images en des donnees de points - Google Patents

Procede pour convertir des donnees d'images en des donnees de points Download PDF

Info

Publication number
FR2643735A1
FR2643735A1 FR9002404A FR9002404A FR2643735A1 FR 2643735 A1 FR2643735 A1 FR 2643735A1 FR 9002404 A FR9002404 A FR 9002404A FR 9002404 A FR9002404 A FR 9002404A FR 2643735 A1 FR2643735 A1 FR 2643735A1
Authority
FR
France
Prior art keywords
image
pixels
section
point
sections
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9002404A
Other languages
English (en)
Other versions
FR2643735B1 (fr
Inventor
Yousuke Ito
Ichiro Sasaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Publication of FR2643735A1 publication Critical patent/FR2643735A1/fr
Application granted granted Critical
Publication of FR2643735B1 publication Critical patent/FR2643735B1/fr
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Generation (AREA)

Abstract

Ce procédé pour convertir des données du contour d'une image, représentatives de segments AB, BC définissant un contour d'une zone de l'image devant être reproduite, en des données de points, consiste à superposer le contour sur un écran dont les lignes verticales et horizontales de pixels 50, 52 forment des intersections définissant des positions de points 54, les lignes de pixels formant une pluralité de sections 82 dont chacune comporte quatre coins définis par les quatre intersections des lignes de pixels, déterminer chaque section en tant que section concernée si l'un des segments AB, BC du contour traverse chacune des sections, et préparer les données de points pour qu'elles représentent la présence du point d'image en l'un prédéterminé des quatre coins de la section concernée. Application notamment à une imprimante laser.

Description

I Procédé pour convertir des données d'image en des données de points La
présente invention a pour but de perfectionner un procédé de conversion de données du contour d'une image, représentatives d'un contour d'une image telle que des ca-
ractères (lettres et symboles) et des représentations'gra-
phiques, en des données de points représentatives de points, qui définissent ensemble l'image, de sorte que l'image est tracée par un traceur numérique de courbes, est enregistrée par une imprimante laser, est affichée sur un dispositif d'affichage à tube cathodique ou est présentée d'une autre manière par n'importe quel autre dispositif de
sortie approprié.
Selon un procédé connu de conversion de données
du contour d'une image (par exemple sous la forme de don-
nées vectorielles) en des données de points pour une représentation d'une zone d'une image, sous la forme d'une matrice de points, on utilise un écran formé de pixels (c'est-à-dire des éléments d'image) coordonnés, de sorte qu'un contour de la zone de l'image est superposé sur l'écran formé de pixels. Comme cela est représenté sur la figure 8 annexée à la présente demande, l'écran formé de pixels est défini par une pluralité de lignes verticales
parallèles de pixels 50 et par une pluralité de lignes ho-
rizontales parallèles de pixels 52, qui coopèrent pour dé-
finir une matrice 53, l'intersection 54 correspondant à des positions de points. Le contour de la zone de l'image, tel
qu'indiqué en 55 sur la figure 8, est défini par une plura-
lité de segments. Lors de la préparation des données de
points à partir des données du contour de l'image, les in-
tersections ou les positions- de points 54, qui sont situées à l'intérieur du contour de l'image superposé sur l'écran formé de pixels (matrice 53), sont sélectionnées sous la forme de positions de points d'image comme indiqué en 56
sur la figure 8. Le procédé est adapté de manière à prépa-
rer les données de points, qgui sont représentatives des po-
sitions de points d'image 56 ainsi sélectionnés ou sont in-
dicatives de la présence de points dans ces positions.
La zone 55 de l'image est reproduite conformément aux données de points préparées, sous la forme d'un gr.oupe des points dans les positions 56 de points d'image, comme
indiqué par des cercles hachurés sur la figure 8.
Dans le cas d'une zone d'image -e8 possédant une largeur relativement faible comme représenté sur la figure
9 annexée à la présente demande par exemple, aucune posi-
tion de point 54 n'est située à l'intérieur du contour de la zone de l'image. Dans ce cas, aucune donnée de points ne
peut être préparée, et la zone 58 de l'image n'est pas re-
présentée par des points d'image. Afin d'éviter cette si-
tuation, les données de points sont habituellement prepa-
rées conformément à une règle spéciale de sorte que les po-
sitions de points 54, adjacentes extérieurement au contour de la surface 58 de l'image, sont choisies en tant que
points d'image 56.
Cependant, la préparation des données de points
conformément à la règle spéciale décrite précédemment re-
quiert un programme de commande complexe pour la conversion des données du contour de l'image en les données de points correspondantes. L'utilisation de la règle spéciale n'est
pas souhaitable. En outre, la procédure permettant de dé-
terminer les points d'image 56 à l'extérieur du contour de la zone 58 de l'image, comme représenté sur la figure 9, est plus difficile et complexe que la procédure servant à déterminer les points d'image 56 à l'intérieur du contour
de la zone 55 de l'image, comme représenté sur la figure 8.
Dans le cas de la figure 9, la préparation de données de points concernées requiert la sélection d'un certain nombre de positions de points 54, qui sont situées à l'extérieur
du contour 58 de l'image et satisfont à une exigence prédé-
terminée. Par exemple, l'exigence prédéterminée consiste en une distance prédéterminée entre les positions de points 54 et le contour (une pluralité de segments rectilignes) de la zone 58 de l'image. Dans ce cas, la préparation des données de points requiert une étape de sélection des positions de points 54, qui sont situées sur une étendue correspondant à
la distance prédéterminée, et tend à être très complexe.
C'est pourquoi un but de la présente invention est de fournir un procédé simple de préparation des données
de points, par conversion à partir des données correspon-
dantes du contour de l'image, de la même manière à la fois pour une surface relativement étroite de l'image que pour
une surface relativement étendue de l'image.
Le but indiqué précédemment peut être atteint conformément au principe de la présente invention, qui fournit un procédé pour convertir des données du contour d'une image, représentatives de segments définissant un contour d'une zone de l'image devant être reproduite, en des données de points représentatives de points d'image,
qui représentent collectivement la zone de l'image, carac-
térisé en ce qu'il inclut les étapes consistant à: superposer ledit contour de la zone de l'image sur un écran formé de pixels coordonnés et dans lequel une pluralité de lignes verticales de pixels et une pluralité de lignes horizontales de pixels coopèrent pour former des intersections définissant une matrice de positions de
points, qui sont utilisées de façon sélective pour consti-
tuer lesdits points d'image, les lignes verticales et horl-
zontales de pixels formant une pluralité de sections dont
chacune comporte quatre coins définis par les quatre in-
tersections respectives desdites lignes de pixels; détermi-
ner chaque section faisant- partie de la pluralité de sec-
tions en tant que section concernée si l'un quelconque des segments du contour de la zone de l'image traverse chaque section, et préparer les données de points de manière que ces données de points représentent la présence du point
d'image en l'un prédéterminé de quatre coins de ladite sec-
tion concernée.
Conformément au procédé selon l'invention tel que décrit précédemment, un point d'image est formé pour chaque section concernée de l'écran formé de pixels, que traverse chaque segment du contour de l'image ou dans lequel chaque segment s'étend. Par conséquent, les données de points pour une zone de l'image possédant une faible largeur peuvent être préparées de la même manière que les.données de points
pour une zone de l'image, qui possède une largeur impor-
tante. Par conséquent, aucune procédure spéciale de conver-
sion de données n'est nécessaire pour préparer les données
de points pour une telle zone étroite de l'image.
En outre, la conversion des données du contour en les données de points est exécutée au moyen d'une simple sélection des sections concernées de l'écran formé de pixels, que traverse chaque segment du contour de l'image ou dans lequel chaque segment s'étend, de sorte que les données de points devant être préparées représentent la présence d'un point d'image en un coin prédéterminé faisant partie des quatre coins de chaque section concernée. Par conséquent, les positions des points d'image représentant
collectivement la zone appropriée de l'image sont détermi-
nées de façon automatique au moyen d'une procédure simple,
ce qui permet de réaliser à une vitesse accrue la conver-
sion des données du contour en les données de points.
Le présent procédé peut en outre inclure une
étape consistant à déterminer s'il existe au moins une po-
sition de point, qui est entourée par des points d'image extérieurs qui constituent lesdits points de l'image, dont chacun correspond audit coin prédéterminé de chaque section
concernée dudit écran formé de pixels, et une étape consis-
tant à sélectionner au moins ladite position de point en-
tourée par lesdits points d'image extérieurs, comme étant
au moins un point d'image intérieur, qui coopère avec les-
dits points d'image extérieurs pour représenter ladite zone
de l'image.
Chacune des sections de l'écran formé de pixels peut être déterminée comme étant la section concernée si l'un des points de départ et d'extrémité de chacun des seg- ments du contour de la zone de l'image est situé dans cette section. Dans ce cas, l'une des sections de l'écran formé de pixels, qui est située sur l'un des côtés opposés d'une ligne de pixels de l'écran est déterminée comme étant la
section considérée, si l'un des points de départ et d'ex-
trémité de chacun des segments est situé sur cette ligne de pixels. La détermination de la section concernée peut
être obtenue au moyen du calcul des coordonnées d'intersec-
tions entre chaque segment du contour de la zone de '1image et les lignes verticales et horizontales de pixels, et au moyen de la détermination de la section concernée sur la base des coordonnées calculées des intersections entre
chaque segment et les lignes de pixels.
La détermination de la section concernée peut in-
clure une étape consistant à déterminer si chaque segment
recoupe au moins l'une des lignes verticales et horizon-
tales de pixels. La détermination peut être réalisée de telle manière que la section, dans laquelle les points de
départ et d'extrémité du segment donné du contour sont si-
tués, est la seule section concernée pour le segment donné.
De même, la détermination peut inclure une étape consistant
à déterminer chaque section faisant partie de ladite plura-
lité de sections en tant que section concernée inclut en outre la détermination du fait qu'il existe ou non l'une de deux conditions, comprenant une première condition, pour laquelle chacun desdits segments est situé entre les deux lignes verticales adjacentes de pixels, et une seconde condition, dans laquelle chacun desdits segments est situé entre deux lignes horizontales adjacentes de pixels. Si
l'une des deux conditions existe, les sections, dans les-
quelles sont situés les points de départ et d'extrémiré du segment concerné et chaque section, à savoir au moin.s une
section, qui est située entre les points de départ et d'ex-
trémité indiqués précédemment, sont déterminées en tant aue
sections concernées.
Afin d'éviter un écart excesrif des points d'image par rapport au contour de la zone de l'image, on peut de préférence superposer le contour de l'image sur
l'écran formé de pixels coordonnés de manière que le con-
tour de la zone de l'image soit décalé par rapport à une position nominale le long desdites lignes verticales de pixels et le long desdites lignes horizontales de pixels, dans des directions s'écartant dudit point prédéterminé de ladite section concernée en direction des points voisins desdits coins prédéterminés de ladite section concernée, et ce de distances égales aux longueurs de côtés de la section concernée, qui sont parallèles respectivement aux lignes
verticales et horizontales de pixels.
D'autres caractéristiques et avantages de la pré-
sente invention ressortiront de la description donnée ci-
après prise en référence aux dessins annexés, sur lesquels: - la figure 1 représente un schéma-bloc montrant un système de commande électrique d'une imprimante laser, qui est adapté pour la mise en oeuvre du procédé selon la présente invention; - les figures 2 et 3 sont des vues illustrant deux exemples de relations entre un contour d'une zone de l'image représentée par des données du contour de l'image, et des positions de points de l'image représentées par des
données de points, lorsque les données du contour de l'ima-
ge sont converties en les données de points conformément à la présente invention; - la figure 4 est un organigramme illustrant une partie d'un programme de commande mémorisé dans une mémoire morte du système de commande, cette partie de programme
concernant la conversion des données conforme à l'inver.-
tion; - la figure 5 est une vue indiquant un exemple d'une opération de traitement des données, conformément au programme représenté dans l'organigramme de la figure 4; - la figure 6 est une vue illustrant un cas o il existe un écart très important entre les positions de
points d'image représentées par les données de points pré-
parées conformément au programme de la figure 4, et le con-
tour de l'image représenté par les données de ce contour;
- la figure 7 est une vue montrant une forme mo-
difiée du procédé permettant de réduire l'écart représenté sur la figure 6; et - les fiaures 8 et 9, dont il a déjà été fait mention, sont des vues indiquant des relations entre le contour de l'image représenté par les données de ce contour et les positions de points de l'image, représentées par des données de points, qui sont préparées conformément à un
procédé connu.
En se référant tout d'abord à la figure 1, on voit que le système de commande électrique d'une imprimante
laser, adapté pour la mise en oeuvre du principe de la pré-
sente invention, utilise un micro-ordinateur incluant une unité CPU 62 (unité centrale de traitement), une mémoire
ROM 64 (mémoire morte) et une mémoire RAM 66 (mémoire à ac-
cès direct). La mémoire ROM 64 mémorise différents pro-
grammes de commande comme par exemple un programme de com-
mande de conversion de données, tel que représenté dans l'organigramme de la figure 4. La mémoire RAM 66 comporte une mémoire de travail 68, une mémoire 70 des données du contour et une mémoire de pages 72. La mémoire de travail 68 est utilisée pour mémoriser temporairement des résultats d'opérations arithmétiques réalisées par l'unité CPU 62. La mémoire 70 des données de contour mémorise les données du contour de l'image, sous la forme de données vectorielles qui représentent des segments définissant un contour d'une zone de l'image devant être reproduite. La mémoire de pages 72 mémorise un ensemble de données de points correspondant à une page de texte ou d'images. Les données de points-sont préparées au moyen d'une conversion à partir des données vectorielles mémorisées dans la mémoire 70 de données de contours, de sorte que les données de points représentent des points d'image, qui représentent collectivement la zone
de l'image.
Une interface 76 et une unité d'impression 78
sont raccordées à l'unité CPU 62. L'interface 76--est rac-
cordée à un dispositif approprié de délivrance de données, comme par exemple une machine de traitement de texte-ou un ordinateur personnel, de sorte que les données vectorielles envoyées par le dispositif de délivrance de données sont mémorisées dans la mémoire 70 des données de contours de
l'imprimante laser. Un ensemble de données de points cor-
respondant à chaque page du texte devant être imprimé par
l'imprimante laser est préparé à partir des données vecto-
rielles et est mémorisé dans la mémoire de page 72. Les en-
sembles de données de points correspondant à des lignes respectives du texte sont transférés les uns après les
autres à partir de la mémoire de page 72 dans l'unité d'ifr-
pression 78, de sorte que les lignes des images sont impri-
mées sur un support d'enregistrement, au moyen d'une ma-
trice de points formées par des faisceaux laser, confor-
mément aux données de points.
En se référant aux figures 2 et 3, on y voit re-
présentés des exemples de conversion de données d'un con-
tour de l'image sous la forme de données vectorielles en
des données de points utilisées pour l'impression par l'im-
primante laser. Les données vectorielles sont constituées par une pluralité de vecteurs, dont chacun définit des
points de départ et d'extrémité de chaque segment rec-
tiligne de lignes du contour d'une zone de l'image, comme par exemple un segment d'un caractère. En d'autres termes,
le contour de la zone de l'image est défini par une plura-
lité de segments rectilignes définis chacun par un en.semble de données vectorielles. Le contour de la zone de l'image est superposé à un écran formé de pixels coordonnés formés par une multiplicité de lignes verticales de pixels 50
(suivant l'axe y) et par une multiplicité de lignes hori-
zontales de pixels 52 (axe x). Ces lignes verticales et ho-
rizontales de pixels 50,52 coopèrent de manière à former une multiplicité d'intersections 54, qui définissent une
matrice 53 de positions de points, qui sont utilisé de fa-
çon sélective en tant que points d'image. Le ch--iffre ce ré-
férence 54 désigne soit les intersections sur l'écran, soit les positions de points, comme cela s'avère approprié. Les
lignes verticales et horizontales de pixels 50,52 sont per-
pendiculaires entre elles et sont également espacées les
unes des autres de sorte que les lignes verticales et hori-
zontales de pixels 50,52 forment une multiplicité de sec-
tions carrées 82. C'est-à-dire que les quatre côtés de chaque section carrée 82 de la matrice 53 possèdent la même longueur. La figure 2 représente un contour d'une zone 84 de l'image, qui est représenté par un premier groupe de
données vectorielles mémorisées dans la mémoire 70 des don-
nées du contour et qui est superposé à la matrice de points 53 de l'écran formé de pixels. Comme indiqué sur la figure 2, le contour 84 de l'image est constitué par six segments rectilignes, qui s'étendent dans huit sections 82 de l'écran. Chacune de ces huit sections 82 est sélectionnée et déterminée et est désignée sous le terme de "section concernée". Les données de points concernant ce premier groupe de données vectorielles et constituant des données du contour de l'image sont préparées de manière que les
données de points représentent la présence de points d'ima-
ge 56 en l'un prédéterminé des quatre coins de chacune des
huit sections concernées 82. Dans la présente forme de réa-
lisation, un point d'image 56 est formé ou positionné dans le coin supérieur gauche de chaque section concernée 82, comme indiqué sur la figure 2. Les données de points cor- respondant à chaque élément d'image, qui correspond à
chaque intersection ou position de point 34 sont consti-
tuées par un bit. Le bit est positionné à "1" si le point d'image 56 est présent au niveau de la position de point
appropriée 54, et est positionné sur "0" si le point d'ima-
ge 56 n'est pas présent au niveau de la position de points
appropriée 54.
Conformément à la règle indiquée plus haut, les données vectorielles représentant le contour de la zone 84 de l'image sont converties en les données correspondantes de points et les points d'image 56 sont formés conformément aux données de points obtenues de sorte que les points
d'image 56 représentent collectivement la zone 84 de l'ima-
ge. De la même manière, une zone rectangulaire 86 de l'ima-
ge, indiquée sur la figure 3, est imprimée sous la forme d'un groupe de points d'image 56 conformément aux données de points appropriés. Dans ce cas, deux positions de points
intérieures 54 sont entourées par dix points d'image exeé-
rieurs 56 correspondant aux coins supérieurs gauche des dix sections concernées respectives 82, qui sont déterminées conformément à la règle décrite précédemment. Dans ce cas, les données de points sont préparées de manière que les
points d'image soient formés également dans les deux posi-
tions de points intérieures 54.
En se référant ci-après à l'organigramme de la figure 4, on va décrire de façon détaillée une manière dont les données vectorielles représentant des segments AB et BC représentés sur la figure 5 sont converties en des données de points correspondantes. Sur l'écran formé de pixels, tel que représenté sur la figure 5, la ligne verticale de pixels 50 la plus à gauche est l'axe y, tandis que la ligne horizontale de pixels 52 la plus élevée est l'axe x. Dans le système de coordonnées x-y, ainsi établi, de l'écran formé de pixels, le point A est représenté par les valeurs de coordonnées (1, 0,3), le point B est représenté par les
valeurs de coordonnées (0,2, 0,5) et le point C est reépré-
senté par les valeurs de coordonnées (0,8, 2,5).
Initialement, la procédure de commande exécute le pas SI de l'organigramme de la figure 4 pour déterminer les
sections 82, dans lesquelles sont situés les points de dé-
part et d'extrémité A et B du segment rectiligne AB. Dans cet exemple spécifique, le point de départ A est situé sur la ligne verticale de pixels 50, dont la coordonnée suivant l'axe x est égale à "1". Si le point de départ ou le point
d'extrémité est situé à droite de l'une des lignes verti-
cales de pixels 50, comme dans ce cas, la section 82 située
à droite de la ligne appropriée de pixels 50 est sélection-
née comme étant la section concernée. Si le point de déparz ou le point d'extrémité est situé à droite de l'une des lignes horizontales de pixels 52, la section 82 située juste au-dessous de la ligne appropriée de pixels 52 est
sélectionnée comme étant la section concernée.
On suppose que les valeurs de coordonnées du point A sont (Ax,Ay) et que les inégalités 1 S Ax < 2 et
0 Ay < 1 sont toutes les deux satisfaites. Par consé-
quent, le point de départ A est déterminé comme étant situé
dans la seconde section 82 (repérée en 2 sur la figure 5).
De façon similaire, on suppose que les valeurs de coordon-
nées du point B sont (Bx,By) et que les inégalités
0 5 Bx < 1 et 0 ' By < 1 sont toutes les deux satisfaites.
Par conséquent, le point d'extrémité B est déterminé comme étant situé dans la première section 82 (indiquée en 1 sur
la figure 5).
Alors, la procédure de commande passe au pas S2 pour déterminer si le segment rectiligne AB recoupe ou non l'une quelconque des lignes verticales et horizontales de pixels 50,52. Etant donné que le segment rectiligne AB ne recoupe aucune ligne de pixels 50,52 hormis au niveau du point de départ A situé sur la ligne de pixels 50 (x='), une décision négative (NON) est obtenue lors du pas S2. Par conséquent, le pas S2 est suivi par le pas S3, lors duquel des données indiquant que les première et seconde sections 82 repérées en 1 et 2 sur la figure 5 sont les sections
concernées, sont mémorisées dans la mémoire de travail 68.
En effet, seules les deux sections, dans lesquels les points de départ et d'extrémité A et B sont situés, sont sélectionnées comme étant les sections concernées. Alors, la procédure de commande passe au pas S6, lors duquel les coins supérieurs gauche des deux sections concernées 82
sont déterminés comme étant des positions de points d'ima-
ge, au niveau desquelles les points d'image sont formés.
Lors du pas suivant S7, les bits de données situés aux -em-
placements de mémoire de la mémoire de pages 72, qui cor-
respondent aux positions sélectionnées de points d'image, sont positionnés sur "1", de manière à indiquer la présence des points d'image au niveau des coins supérieurs gauche, indiqués précédemment, des sections concernées 82. C'est
ainsi qu'est réalisée la conversion des données veczo-
rielles en les données de points pour le segment rectiligne AB. Les pas Sl et S2 sont répétés pour le segment
rectiligne BC. Les valeurs de coordonnées des points de dé-
part et d'extrémité BC sur l'axe y présentent une diffé-
rence supérieure à "1". Cela signifie que le segment BC re-
coupe au moins deux lignes horizontales de pixels 52. Par conséquent, une décision affirmative (OUI) est obtenue lors du pas S2, et la procédure de commande passe au pas S4 pour
le calcul des coordonnées des intersections entre le seg-
ment rectiligne BC et les lignes verticale et horizontale de pixels 50,52. Mais, dans ce cas spécifique, les valeurs de coordonnées des points de départ et d'extrémité B et C sur l'axe x sont tous deux compris entre "0" et "1". Cela signifie que le segment rectiligne BC ne recoupe aucune
ligne verticale de pixels 50. En effet, le segment recti-
ligne BC recoupe uniquement les deux lignes horizontales de pixels 52 (y=l) et (y=2). C'est pourquoi, dans ce cas, il
n'est pas nécessaire de calculer, lors du pas S4, les va-
leurs de coordonnées des intersections entre le segment rectiligne BC et les lignes horizontales de pixels 52, de manière à déterminer lors du pas S5 les sections concernées 82, dans lesquelles passe le segment BC. Cependant, si un segment rectiligne recoupe à la fois les lignes verticales de pixels 50 et les lignes horizontales de pixels 52, les
valeurs de coordonnées des intersections du segment recri-
ligne des lignes de pixels 50,52 doivent être calculées pour déterminer les sections concernées 82. C'est-à-dire que le calcul effectué lors du pas S4 doit être exécuté lorsqu'à la fois les valeurs de coordonnées suivant l'axe x et les valeurs de coordonnées suivant l'axe y des points de départ et d'extrémité du segment rectiligne présentent des différences supérieures à "1", étant donné que, dans ce cas, les sections concernées 82, dans lesquelles passe le segment rectiligne, ne peuvent pas être déterminées sans le
calcul des coordonnées des intersections du segment recti-
ligne et des lignes de pixels 50,52.
Lors du pas S5, les sections concernées 82, dans lesquelles passe le segment rectiligne 82, sont déterminées sur la base du résultat du calcul lors du pas S4. Dans ce cas spécifique, les sections 82 repérées en 1,5 et 9 sur la
figure 5 sont déterminées comme étant les sections concer-
nées, et les données indicatives de ces sections concernées sont mémorisées dans la mémoire de travail 68. Lors du pas
S6, les coins supérieurs gauche des sections concernées dé-
terminées 82 (repérées en 1,5 et 9 sur la figure 5) sonz sélectionnés comme étant les positions de points d'image, pour lesquelles les points d'image sont formés. Lors du pas S7, les bits de données situés dans la mémoire de pages 72, qui correspondent aux positions des points d'image, sont positionnés sur un "1" de manière à représenter les points d'image devant être formés. Par consequent, les données vectorielles correspondant au segment rectiligne BC sont
converties en les données de points correspondants mémori-
sées dans la mémoire de pages 72.
Le sous-programme de conversion de données, tel
que représenté dans l'organigramme de la figure 4, est ré-
pété pour chaque segment du contour des zones de- l'image, ce qui a pour effet qu'un ensemble de données vectorielles
correspondant à une page de texte mémorisée dans la mémoire -
des données du contour sont convertis en l'ensemble cor-
respondant de données de points mémorisé dans la mémoire de pages 72. Les ensembles de données de points représenta-
tives de lignes d'images sont transférés successivement de-
puis la mémoire de pages 72 à l'unité d'impression 78, ce qui a pour effet que les lignes respectives d'images sont imprimées avec une matrice de points d'image formés dans les positions appropriées sur le support d'enregistrement,
au moyen d'une irradiation par le faisceau laser, conformé-
ment aux données de points.
Pour une compréhension aisée, on a décrit précé-
demment la conversion des données et l'impression ulté-
rieure, exécutées de telle sorte que l'ensemble de données de points correspondant à des lignes respectives d'images sont envoyées successivement à l'unité d'impression 78, une fois que l'ensemble des données de points préparées par conversion à partir des données vectorielles a été mémorisé dans la mémoire de pages 72. Mais en général, la conversion des données vectorielles en les données de points peut être réalisée en un bref intervalle de temps. C'est pourquoi, il est possible que pendant l'impression d'une ligne d'image imprimée par l'unité d'impression 78, la conversion des données pour la ligne immédiatement suivante d'images peut être réalisée. Dans ce cas, les données de points préparées par conversion à partir des données vectorielles peuvent être directement envoyées à l'unité d'impression 78, sans être mémorisées temporairement dans la mémoire de pages 72. Cependant, la mémoire de pages 72 est utilisée dans le cas o la conversion des données pour une ligne spécifique d'images d'une page de texte requiert un long intervalle de temps.
Dans la forme de réalisation indiquée précédem-
ment, le point d'image 58 est formé dans le coin supérieur gauche de chaque section concernée 82, que traverse au
moins partiellement un segment du contour de l'image, re-
présenté par des données vectorielles. En effet, le coin
supérieur gauche de la section concernée est utilisé indé-
pendanment d'une partie de la section concernée, dans la-
quelle le segment passe ou s'étend. Conformément à cet agencement, les positions des points d'image 56 s'écartent
de la position nominale déterminée par le contour de l'ima-
* ge, et ce d'une distance moyenne égale à 0,5 (la moitié de la longueur de chaque côté des sections 82), dans les deux
directions de l'axe x et de l'axe y. Dans le cas o un con-
tour d'image 88 est superposé sur l'écran formé de pixels comme indiqué sur la figure 6, la distance d'écartement est presque égale à "1" (espacement entre les lignes adjacentes de pixels). Pour réduire cette distance d'écart ou annuler
la distance moyenne d'écartement, il est souhaitable de su-
perposer le contour d'image 88 sur l'écran formé de pixels, comme représenté sur la figure 7, de manière que le contour
d'image 88 soit décalé ou translaté par rapport à la posi-
tion nominale le long des lignes verticales et horizontales de pixels 50, 52, vers la droite et vers le bas (à partir du coin supérieur gauche prédéterminé de la section concernée 82), sur une distance égale à la longueur de chaque côté des sections carrées 82. Cette translation est réalisée avant que les données vectorielles soient converties en les
données de points comme indiqué précédemment.
Bien que la présente invention ait été décrite dans ses formes de réalisation actuellement préférées, avec un certain degré de particularisme, on comprendra que l'invention n'est pas limitée aux détails des formes de
réalisation représentées, mais peut être réalisée avec dif-
férents changements, modifications et améliorations, que peuvent imaginer les spécialistes de la technique, sans sortir du cadre et de l'esprit de l'invention, définis dans
les revendications annexées. Par exemple, le contour d'une
zone de l'image représentée par les données du contour de l'image (données vectorielles) peut être défini par des
segments courbes à la place ou en plus des segments recti-
lignes. En outre, l'un quelconque des quatre coins de chaque section concernée 82 peut être utilisé en tant que position d'un point d'image, au niveau duquel le point
d'image 56 est formé.

Claims (9)

REVENDICATIONS
1. Procédé pour convertir des données du cor.tour (84) d'une image, représentatives de segments définissant un contour d'une zone de l'image devant être reproduite, en des données de points représentatives de l'image, qui re-
présentent collectivement ladite zone de l'image, caracté-
risé en ce qu'il inclut les étapes consistant à: superposer ledit contour (84) de la zone de l'image sur un écran formé de pixels (50) coordonnés et dans lequel une pluralité de lignes verticales de pixels et
une pluralité de lignes horizontales de pixels (52) coopè-
rent pour former des intersections définissant une matrice (53) de positions de points, qui sont utilisées de façon sélective pour constituer lesdits points d'image (56), les
lignes verticales et horizontales de pixels (50, 52) for-
mant une pluralité de sections (82) dont chacune comporte
quatre coins définis par les quatre intersections respec-
tives desdites lignes de pixels, déterminer chaque section (82) faisant partie de ladite pluralité de sections en tant que section concernée si l'un quelconque desdits segments (AB,BC) dudit contour
(84) de la zone de l'image traverse chacune desdites sec-
tions, et préparer lesdites données de points de manière que ces données de points représentent la présence dudit point d'image (56) en l'un prédéterminé de quatre coins de
ladite section concernée.
2. Procédé selon la revendication 1, caractérisé en ce qu'il inclut en outre les opérations consistant à: déterminer s'il existe au moins une position de point, qui est entourée par des points d'image extérieurs qui constituent lesdits points d'image (56), dont chacun correspond audit coin prédéterminé de chaque section concernée (82) dudit écran formé de pixels, et sélectionner au moins ladite position de point (56) entourée par lesdits points d'image extérieurs, comme étant au moins un point d'image intérieur, qui coopère avec lesdits points d'image extérieurs pour représenter ladite
zone de l'image.
-3. Procédé selon la revendication 1, caractérisé en ce que ladite étape de détermination de chaque section faisant partie de ladite pluralité de sections (82) comme étant la section concernée consiste à déterminer que chaque section faisant partie de ladite pluralité de sections est ladite section concernée si l'un des points de départ et d'extrémité de chacun desdits segments (AB,BC) dudit contour (84) de la zone de l'image est situé dans ladite section.
4. Procédé selon la revendication 3, caractérisé en ce que l'une desdites sections (82) dudit écran formé de pixels, qui est située sur l'un de côtés opposés d'une ligne de pixels (50,52) de l'écran, est déterminée comme étant ladite section concernée, si l'un desdits points de
départ et d'extrémité de chaque segment est situé sur la-
dite ligne de pixels.
5. Procédé selon la revendication 1, selon lequel
ladite étape de détermination de chacune des sections fai-
sant partie de ladite pluralité de sections (82) comme
étant une section concernée inclut le calcul des coordon-
nées d'intersections entre chaque segment (AB,BC) et les-
dites lignes verticales et horizontales de pixels (50,52) et la détermination de ladite section concernée sur la base des coordonnées calculées desdites intersections entre
chaque segment et lesdites lignes de pixels.
6. Procédé selon la revendication 1, caractérisé en ce que ladite étape de détermination de chaque section
de ladite pluralité de sections (82) comme étant une sec-
tion concernée inclut la détermination du fait que chacun
desdits segments (AB,BC) recoupe ou non au moins l'une des-
dites lignes verticales et horizontales de pixels (50,52).
7. Procédé selon la revendication 6, caractérisé en ce que ladite étape de détermination de chaque section faisant partie de la pluralité de sections (82) comme étant
une section incluant la détermination du fait que la sec-
tion, dans laquelle un point de départ et un point d'extré-
mité d'un segment donné (AB,BC) dudit contour (84) de la-
dite zone de l'image est situé, est la seule section con-
cernée pour ledit segment donné.
8. Procédé selon la revendication 6, caractérisé en ce que ladite étape de détermination de chaque section faisant partie de ladite pluralité de sections (82) en tant que section concernée inclut en outre la détermination du
fait qu'il existe ou non l'une de deux conditions, compre-
nant une première condition, pour laquelle chacun desdits segments (AB,BC) est situé entre les deux lignes verticales adjacentes de pixels (50), et une seconde condition, dans laquelle chacun desdits segments est situé entre deux lignes horizontales adjacentes de pixels (52), et que, dans
le cas o l'une desdites deux conditions existe, on déter-
mine en tant que section concernée, chacune des sections dans laquelle sont situés un point de départ et un point d'extrémité de chacun desdits segments (AB,BC), et au moins une section, qui est située entre lesdits points de départ
et d'extrémité.
9. Procédé selon la revendication 1, caractérisé en ce que ladite étape de superposition dudit contour (84)
de la zone de l'image sur un écran formé de pixels coordon-
nés est réalisée de telle sorte que ledit contour de ladite
zone de l'image est décalé par rapport à une position nomi-
nale le long desdites lignes verticales de pixels (50) et le long desdites lignes horizontales de pixels (52), dans
des directions s'écartant dudit point prédéterminé de la-
dite section concernée en direction des points voisins des-
dits coins prédéterminés de ladite section concernée, et ce
de distances égales aux longueurs de côtés de ladite sec-
tion concernée, parallèles respectivement auxdites lignes
verticales et horizontales des éléments d'image (50,52).
FR9002404A 1989-02-28 1990-02-27 Procede pour convertir des donnees d'images en des donnees de points Expired - Lifetime FR2643735B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1047034A JP2580759B2 (ja) 1989-02-28 1989-02-28 データ変換方法

Publications (2)

Publication Number Publication Date
FR2643735A1 true FR2643735A1 (fr) 1990-08-31
FR2643735B1 FR2643735B1 (fr) 1993-12-03

Family

ID=12763888

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9002404A Expired - Lifetime FR2643735B1 (fr) 1989-02-28 1990-02-27 Procede pour convertir des donnees d'images en des donnees de points

Country Status (3)

Country Link
US (1) US5134687A (fr)
JP (1) JP2580759B2 (fr)
FR (1) FR2643735B1 (fr)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997011835A2 (fr) * 1995-09-27 1997-04-03 3D Systems, Inc. Procede et appareil de manipulation de donnees et unite de commande de systeme pour systeme de modelage par deposition selective
US5943235A (en) * 1995-09-27 1999-08-24 3D Systems, Inc. Rapid prototyping system and method with support region data processing

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI653574B (zh) * 2013-06-19 2019-03-11 宏碁股份有限公司 頁面劃分的方法及電子顯示裝置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0199989A2 (fr) * 1985-04-24 1986-11-05 International Business Machines Corporation Procédé et système de traitement d'images

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60211575A (ja) * 1984-04-05 1985-10-23 Fujitsu Ltd 量子化投影法
US4780711A (en) * 1985-04-12 1988-10-25 International Business Machines Corporation Anti-aliasing of raster images using assumed boundary lines
US4931785A (en) * 1986-06-17 1990-06-05 Ascii Corporation Display apparatus
US4815009A (en) * 1987-04-21 1989-03-21 Xerox Corporation Algorithm for filling an image outline
US4904994A (en) * 1987-09-08 1990-02-27 Auto-Trol Technology Corporation Apparatus and method for identifying next matrices for vector drawing
US5018217A (en) * 1988-09-26 1991-05-21 Brother Kogyo Kabushiki Kaisha Data converting apparatus having means for changing ornamental stroke end data of character outline

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0199989A2 (fr) * 1985-04-24 1986-11-05 International Business Machines Corporation Procédé et système de traitement d'images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
T. PAVLIDIS 'Algorithms for graphics and image processing' 1982 , COMPUTER SCIENCE PRESS , ROCKVILLE, MD, USA *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997011835A2 (fr) * 1995-09-27 1997-04-03 3D Systems, Inc. Procede et appareil de manipulation de donnees et unite de commande de systeme pour systeme de modelage par deposition selective
WO1997011835A3 (fr) * 1995-09-27 1997-06-05 3D Systems Inc Procede et appareil de manipulation de donnees et unite de commande de systeme pour systeme de modelage par deposition selective
US5943235A (en) * 1995-09-27 1999-08-24 3D Systems, Inc. Rapid prototyping system and method with support region data processing
US6532394B1 (en) 1995-09-27 2003-03-11 3D Systems, Inc. Method and apparatus for data manipulation and system control in a selective deposition modeling system

Also Published As

Publication number Publication date
US5134687A (en) 1992-07-28
FR2643735B1 (fr) 1993-12-03
JPH02226491A (ja) 1990-09-10
JP2580759B2 (ja) 1997-02-12

Similar Documents

Publication Publication Date Title
FR2468467A1 (fr) Procede et dispositif pour l&#39;agrandissement de caracteres imprimes par points
US4947260A (en) Method and apparatus for generating composite images
JPS58189641A (ja) 製版方法
RU2003110175A (ru) Способ преобразования двумерного изображения в трехмерное изображение
FR2643735A1 (fr) Procede pour convertir des donnees d&#39;images en des donnees de points
FR2533044A1 (fr) Procede d&#39;introduction de donnees de modeles graphiques
FR2638263A1 (fr) Appareil pour la conversion de donnees de contour d&#39;image en donnees de point representatives de points a former
FR2643996A1 (fr) Dispositif pour convertir des donnees d&#39;un contour en des donnees de points, comportant des moyens pour garantir la continuite de representations visibles reproduites au moyen des donnees de points
JPH02224187A (ja) 直線に対するサーチ領域を発見するよう2値像をサーチする方法
JPH0530106B2 (fr)
FR2588399A1 (fr) Procede et systeme de conversion de motifs delimites
FR2480543A1 (fr) Dispositif et procede pour corriger des erreurs spatiales et de masquage apparaissant dans une image de television
JPH05336352A (ja) 網掛けされたイメージを再生するための方法及び装置
FR2530059A1 (fr) Procede et appareil de commande d&#39;affichage d&#39;un arc de cercle sur un dispositif d&#39;affichage
JPS59149463A (ja) 画像信号の読取方法
JP4504861B2 (ja) 画像処理方法及び画像処理装置
EP0142098B1 (fr) Procédé et dispositif de reproduction mixte
JP3584662B2 (ja) 画像変換装置
KR20020011320A (ko) 이진 영상 회전 시스템 및 그 방법
JPH03187572A (ja) カラー画像情報処理方法
JP3341926B2 (ja) 画像変換装置
JP2675363B2 (ja) 文字処理装置
JP6209086B2 (ja) 画像処理装置及び画像処理方法
JPH09284543A (ja) 画像処理装置
JP2619971B2 (ja) 画像処理装置