WO2006006666A1 - ディジタル画像の輪郭追跡による画像処理方法並びに画像処理装置 - Google Patents

ディジタル画像の輪郭追跡による画像処理方法並びに画像処理装置 Download PDF

Info

Publication number
WO2006006666A1
WO2006006666A1 PCT/JP2005/013026 JP2005013026W WO2006006666A1 WO 2006006666 A1 WO2006006666 A1 WO 2006006666A1 JP 2005013026 W JP2005013026 W JP 2005013026W WO 2006006666 A1 WO2006006666 A1 WO 2006006666A1
Authority
WO
WIPO (PCT)
Prior art keywords
contour
image
tracking
point
contour line
Prior art date
Application number
PCT/JP2005/013026
Other languages
English (en)
French (fr)
Inventor
Kazuo Toraichi
Tetsuo Sugiyama
Paul Wing Hing Kwan
Original Assignee
Japan Science And Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science And Technology Agency filed Critical Japan Science And Technology Agency
Publication of WO2006006666A1 publication Critical patent/WO2006006666A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/20Contour coding, e.g. using detection of edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation

Definitions

  • the present invention relates to an image processing method and an image processing apparatus, and in particular, for graphics and images (hereinafter, it is not necessary to distinguish between them, or simply images) that are indispensable for digital image processing processed by a computer.
  • the present invention relates to an image processing method and an image processing apparatus by contour tracking of a digital image, which accurately grasps the contour of a region and maintains an appropriate relationship with adjacent graphics and images even when the image is enlarged or reduced.
  • graphics and images are handled as digital data on a computer (including a microcomputer and a digital data processing device).
  • a computer including a microcomputer and a digital data processing device.
  • it is necessary to grasp the outline of the figure or image area for recognition of the figure or color area.
  • grasping the contours of adjacent graphics and image areas depending on the method of grasping the contours, it is not possible to grasp the contour lines redundantly and maintain an appropriate relationship in the enlargement or reduction of the graphics or image areas. There is a case.
  • Image data is roughly divided into a raster format and a function format.
  • a raster image is represented as a collection of colored dots called pixels that are regularly arranged in a grid. This is a format suitable for display on modern CRT displays and LCDs.
  • the function form expresses the features of graphics and image areas in the image by functions, so it is suitable for expressing simple graphics and image areas, and the image quality is not degraded by affine transformation.
  • Patent Document 1 the coordinate for expressing the boundary of the region is set by the region boundary extraction mechanism for obtaining the boundary of the region of the image. It is disclosed.
  • Patent Document 3 discloses a technique in which a boundary line is shared by dividing an area so that one pixel, that is, one dot overlaps in the vertical and horizontal boundaries of a divided image.
  • Patent Document 4 In the field of digital image processing,! / Is a reference technique related to sharing of boundary lines, but in Patent Document 4, two adjacent closed regions are integrated into one closed region. There is something. That is, in Patent Document 4, in a curved surface dividing method such as a mold of a product, two adjacent closed regions are integrated with respect to a closed region surrounded by each boundary line based on the phase relationship of each region. A technology has been disclosed that automatically performs the unfolding process for one closed region.
  • Patent Document 1 Japanese Patent Laid-Open No. 10-145590
  • Patent Document 2 JP 2001-52187 A
  • Patent Document 3 Japanese Patent Laid-Open No. 6-348837
  • Patent Document 4 Japanese Patent Laid-Open No. 7-44733
  • FIG. 10 shows an example of grasping the outline of a figure by the function format of the prior art.
  • the contour tracking method for binary images is applied to a multicolor image, so an area in which a certain color or brightness in a figure or image appears as shown in Fig. 10 (hereinafter referred to as a color area). ), And consider the inside of the area as a figure and the outside as the ground. Guo chasing.
  • this conventional method has two problems due to the fact that the outline is doubled at the place where the two color regions meet.
  • the method described in Patent Document 1 extracts a region using a difference in density in a color Z gradation image, and compresses and decodes the boundary of the region by function approximation. .
  • the pixels within a predetermined difference are within the same region, and the region where the difference is larger than a predetermined value is the boundary of the region. Therefore, in the invention described in Patent Document 1, a gray level difference that is determined to be the same region is input, an image is scanned in a horizontal direction (raster scan) in units of pixels, and a point where the gray level difference is larger than a predetermined value is a boundary point. And boundary points are extracted for all images. Thereafter, the region is determined by connecting the boundary points.
  • the boundary line is a horizontal scanning line. This may not be detected in parallel. In other words, since only the gray level difference of the pixels in the horizontal direction is determined, the boundary line cannot be detected if there is no horizontal gray level difference. In addition, even if a boundary point is found, the connection direction of the boundary point cannot be determined, so that it is necessary to separately track the boundary line.
  • the joining point is defined as a dividing point, but this dividing point is extracted by dividing the boundary point by 2 * 2 pixels. Scanning is performed with a window function (consisting of 4 pixels), and the point where the color (shading) of the 4 pixels in the window becomes 3 or more is taken as the dividing point.
  • a window function consisting of 4 pixels
  • processing takes time.
  • the present invention improves the problems of the prior art, and in particular, a digital image that can be processed at high speed with a small amount of data and a high-precision graphic or image including a plurality of colors or luminance.
  • the purpose is to propose a contour tracking method.
  • Another object of the present invention is to propose a digital image contour tracking method capable of maintaining and reproducing the contour of the original image with high precision.
  • the present invention has the following features.
  • the image processing device tracks the contour of the digital image, grasps the image area, and generates contour information.
  • Contour line processing is performed to extract contour lines by performing contour tracking that tracks the border edges of pixels that have the same relationship as the color of the pixels at both ends in the direction of travel (or pixels that have a color difference greater than or equal to a predetermined value)!
  • the branching process and the synthesizing process are performed on the extracted contour line segment, and the contour determined by the combination of the contour segment is formed to generate the contour information of the digital image.
  • Another feature of the present invention is that pixel points or color differences in which the left and right or upper and lower colors of the image are scanned from an arbitrary point in the region including the target image in the horizontal direction or the vertical direction.
  • a pixel point having a (gradation difference) of a predetermined value or more is found, the contour line segment is traced using that point as a starting point, a meeting point of pixels of three or more colors is searched, and the meeting point is detected as the contour line segment.
  • the initial value of the end point is to be used.
  • Another feature of the present invention is that the tracking of the contour is stopped once at the point where three or more colors or three or more luminance levels of the contour line meet, and a contour line is taken for each boundary of two colors or two luminances.
  • the purpose is to allow two adjacent areas to share contour data.
  • the invention's effect [0022]
  • using a color difference (shading difference) as a region recognition reference a given digital image is first traced between pixels to obtain a contour, and two adjacent regions are contour data. Can be shared, and contour information is generated based on the contour line data. Contour line By sharing data, it is no longer approximated by different functions, and solves the problems of conventional methods such as separation of figures during enlargement, reduction, movement, etc., and reduces data processing efficiency and storage efficiency It can be prevented.
  • the contour line is extracted by tracing the boundary side of the pixel, the contour of the original image can be accurately maintained and reproduced. Therefore, even when processing such as image enlargement is performed, the contour line is along the boundary of the pixels, and there is an advantage that a fine image is maintained.
  • the input color image data is arranged in a two-dimensional bitmap.
  • a color difference shading difference
  • the same color difference shading difference
  • the contour tracking is stopped once at the point where three or more colors or three or more brightness levels meet, and a contour line is taken for each boundary between two colors or two brightness levels.
  • FIG. 3 shows an example of the configuration of an image processing apparatus that performs graphic processing and image processing, which are objects of the present invention.
  • the processing device is composed of, for example, a computer having a CPU, a memory, input / output means, and the like, and has a function of performing processing for graphics and image processing by loading and executing a program on the memory.
  • Figure 3 shows a block diagram of the functions of this processor.
  • reference numeral 100 denotes an input unit for image data.
  • the image data (color figure, color photograph, picture, color document, etc.) is read by the image scanner as digital information into the processing device, or already digital.
  • the information directly stored in the recording medium or other processing device as information has a function of reading into the processing device via the communication network.
  • 150 indicates the digital image data read into the processor.
  • Reference numeral 200 denotes a contour tracking processing unit, which performs pixel side tracking processing, that is, contour tracking of a color area of a graphic or image of the read data 150.
  • Reference numeral 250 indicates contour information as a result of the processing.
  • [0028] 300 is a function approximation processing unit that converts a boundary of a contour, that is, a color region into a function by function approximation based on the contour information 250, and 350 is a function format and parameter that represents a contour of a figure or an image region obtained as a result of the processing.
  • Reference numeral 400 denotes an image processing unit that generates a figure and an image using the function format and the parameter 350, and generates a processed figure and a processed image 450 as the processing result.
  • Reference numeral 500 denotes an output unit such as a display device or a printer.
  • the output unit 500 includes means for recording the processed graphic and the processed image on a recording medium or transmitting them to another processing apparatus via a network. It is also conceivable to record and use it on a recording medium at the stage of processed graphic or processed image 450.
  • FIG. 4A shows a specific configuration example of the contour tracking processing unit 200 of FIG.
  • An image data input unit 210 includes a memory for storing graphic data and image data.
  • the input unit 210 has a function of arranging the read data into a two-dimensional bitmap, and the image data is arranged into a two-dimensional bitmap.
  • An outline tracking unit 220 reads the contents of the memory of the data input unit and tracks the outline on a pixel basis. The In other words, with respect to image data arranged in a bitmap format, the color difference (shading difference) is traced as a boundary between adjacent pixels.
  • Reference numeral 230 denotes a contour line segment branch processing unit that performs processing when there is a branch point in the contour segment and processing for concatenating the contour segment.
  • Reference numeral 240 denotes an area outline forming unit that forms an outline of an area surrounding a figure or image determined by the combination of outline segments, and generates and outputs outline information 250.
  • the functions of the contour tracking processing unit 200 are realized by one or more programs as a whole rather than being limited to the categories shown in 210 to 240 above.
  • the contour line tracking unit 220 and the contour line segment connecting / branching processing unit 230 may be configured by a single program that performs a series of continuous contour line tracking processes. These programs are executed by reading a program held in a recording medium by a computer or reading a program held in a storage device of a computer into a memory.
  • FIG. 4B is a functional block diagram more specifically showing the configuration of FIG. 4A.
  • the data input unit 210 includes an AD converter 211, an image data input unit 212, an image data two-dimensional array unit 213, It has an image data memory storage function 214.
  • Reference numeral 216 denotes an image memory.
  • a density difference setting unit 218 gives a pixel color difference or luminance difference that serves as a reference for image area recognition. For example, R, G, B, 8 bits each, 256 gradations, and the color difference (shading difference) that should be identified within the range of approximately 160,000 color representations are set appropriately as the region recognition standard.
  • a luminance gradation difference that is recognized as a boundary for example, a 50 gradation difference or a 100 gradation difference, is given to each of the R, G, and B color signals of a natural image.
  • a luminance signal Y signal
  • the images handled in the present invention include a binary image, a multicolor image, and a natural image.
  • the multicolor image includes a dullation image.
  • RGB signals there are combinations of luminance signals (Y signals) and color difference signals (Cr, Cb signals) as image signals.
  • differences in the levels of all these signals are used as color differences.
  • the contour line tracking unit 220 includes an image data reading unit 221 and a contour line segment extracting unit 222. Each of these functional units is realized by one or more programs.
  • the pixel color is three colors, in other words, the color difference set by the shading difference setting unit.
  • the point where three or more (shading differences) meet is the end point of the contour line segment.
  • the boundary edge of the pixel having the same relationship as the color or color difference of the pixels at both ends in the traveling direction of the starting point of the contour tracking process, or the pixel having a relationship of a predetermined value or more is tracked.
  • the initial value of the end point of this contour line segment is a horizontal or vertical scan from any point in the area that contains the target image, finds pixel points with different colors on the left, right, or top of the image. Trace the outline as a starting point. Then, search for the meeting point of pixels of three or more colors, and use the meeting point as the initial value of the end point of the line segment.
  • the contour line tracking unit 220 further has a memory area for individually registering the branch direction as an untracked direction and a tracked direction at the end points of the contour line segment. Then, referring to the untracked direction of the memory area, one of them is used as the start end point of the contour tracking, and the contour tracking is performed, and when the tracking is completed, the tracked direction is registered in the memory area. Alternatively, when a new branch point is found, it is registered in the memory area as an untracked direction.
  • FIG. 5 shows the case of a multicolor image, and shows the contour tracking algorithm and pixel pattern in the contour line segment extraction unit 222 of FIG. 4B.
  • the principle of contour tracking is to store the color or brightness of the left and right pixels at the starting pixel (S501), and if the left and right pixels have the same color or brightness (pixel pattern 514), the boundary between the pixels Is tracked (S507, S508). If the left or right color or brightness in the direction of travel is different from the color or brightness of the starting point, that is, if more than two colors or more than three kinds of brightness meet, the contour tracking is terminated ( S502).
  • the direction of travel is changed to the right (S505, S506). If the color or brightness of the pixel is the same as the color of the right pixel of the starting point or the brightness (pixel pattern 510), the direction of travel is changed to the left (S503, S504), and the color of the left and right pixels always in the direction of travel Alternatively, contour tracking is performed so that the luminance is the same as the color or luminance stored as the starting point. The contour line tracked in this way The starting point, end point, line number, or line name is registered in the memory as a line list.
  • Fig. 6 shows the contour tracking algorithm of Fig. 5, that is, all the contour lines connected to a certain point are traced, and a point where three or more colors or three or more patterns meet is used as a branch point.
  • a specific example of a method of performing contour tracking from the above and forming a contour line segment of the region will be described. This example is intended for image data having a large number of three-color rectangular regions in which the orange region (center portion) is surrounded by the upper left green region and the right and lower blue regions. The same processing is performed if the image data includes three or more color differences (light / dark differences).
  • the black circle point (1, 1) in Fig. 6 (a) is the starting point, and the first traveling direction is the upward direction.
  • left and right front colors are stored in the memory as “left color” and “right color”, respectively.
  • pixels having a difference in density are tracked to recognize boundaries and their connections. It is possible to find this boundary accurately regardless of whether it is horizontal or vertical. In addition, since the tracking is performed while judging the direction, it is possible to surely find the boundary.
  • tracking is always performed in the contour tracking process while determining the density difference of the surrounding four pixels. Therefore, it is not necessary to scan with a window function that requires a window function. Therefore, the extraction of the dividing points and the boundary are performed at the same time, and the processing speed is improved.
  • the boundary line is extracted by tracking the boundary side of the pixel, the outline of the original image can be accurately maintained and reproduced. Therefore, even if processing such as image enlargement is performed, the contour line is along the boundary of the pixel, and there is an advantage that a fine image is maintained.
  • FIG. 7 shows the processing of the contour line segment joining / branching processing unit 230, that is, the processing when there is a branch point in the contour line segment obtained by tracking the pixel boundary and the contour line segment. It is a figure which shows the specific example of the method of performing this joint process.
  • branch list One element of the branch list is extracted and traced (S706). If the end is already in the branch list (S707), it is deleted from the branch list (S708). If the end is not in the branch list (S709
  • FIG. 7 In order to describe the processing procedure of FIG. 7 more specifically, the contour tracking of a figure will be described below using the example of FIG. 8A. 8A and FIG. 8B showing the procedure of the area contour forming process of FIG. 9 described later, and the process from the figure outline tracking process to the area outline forming process will be described as a continuous series of processes.
  • this example is intended for three-color image data with two-color areas of blue and red and a white background.
  • the number of branches is 0 when the contour line of an independent region is tracked without touching the contour of another region.
  • ⁇ Untracked branch list ⁇ A, B, C ⁇
  • Tracking end point E is in the untracked branch list, so it is deleted from the list.
  • ⁇ Untracked branch list ⁇ F ⁇
  • tracked branch set ⁇ A, D, B, E, C, F ⁇
  • Tracking end point F is in the untracked branch list, so it is deleted from the list.
  • ⁇ Region X ⁇ AD ⁇
  • Tracked branch set ⁇ B, C, D, E, F ⁇
  • Attention A ⁇
  • ⁇ Region X ⁇ AD ⁇
  • tracked branch set ⁇ B, C, D, F ⁇
  • attention E ⁇
  • Focused branch E force Focus on branch A closest to the end of the tracked contour in the counterclockwise direction.
  • Branch F is the end branch of the contour traced from B, which is the closest counterclockwise.
  • the first registered area X represents the outside of the figure and is discarded.
  • contour information 250 generated in this way can completely solve the problem of the conventional method in which the area does not leave in the processing such as enlargement, reduction, and movement of the graphic in the subsequent processing.
  • contour line segmentation is performed on a digital image by performing contour tracking for tracking the boundary side of pixels having the same relationship as the color of pixels at both ends in the traveling direction of the starting point or pixels having a color difference equal to or greater than a predetermined value. To extract. Then, the contour tracking is stopped once at the point where three or more colors meet, and the contour line is taken for each boundary between the two colors, so that two adjacent regions can share the contour data. By sharing the contour line data, it is no longer approximated by different functions, and it is possible to prevent a decrease in data processing efficiency and storage efficiency.
  • the contour line is extracted by tracking the boundary side of the pixel, the contour of the original image can be accurately maintained and reproduced. Therefore, even when processing such as image enlargement is performed, the contour line is along the boundary of the pixels, and there is an advantage that a fine image is maintained.
  • the contour line segment is extracted with the start point, end point, and branch point of the contour line segment as end points, and the connection state of the contour line segment is traced via the branch point to form a closed loop.
  • the outermost contour may be the same as the contour of the inner region. In this case, the process of adopting the inner periphery of the contour is performed. As a result, each region is only a portion surrounded by a single outline, and is not surrounded by two.
  • pixels having a difference in density are tracked, and the boundary points and their connections as described in Patent Document 1 are recognized.
  • pixels having a difference in density are tracked, it is possible to accurately find the boundary line regardless of whether the boundary line is in the horizontal direction or the vertical direction. Since the force is also tracked while judging the direction, It is possible to find out.
  • division point extraction and boundary extraction are performed simultaneously, and the processing speed is improved.
  • FIG. 1 is an explanatory diagram of an example of contour tracing of a figure based on the present invention.
  • FIG. 2 is an explanatory diagram of how to obtain coordinate points, which is the basis of the present invention.
  • FIG. 3 is a diagram showing a configuration example of an image processing apparatus that performs graphic processing and image processing, which are objects of the present invention.
  • FIG. 4A is a diagram showing a specific configuration example of the contour tracking processing unit in FIG. 3.
  • FIG. 4A is a diagram showing a specific configuration example of the contour tracking processing unit in FIG. 3.
  • FIG. 4B is a functional block diagram more specifically showing the configuration of FIG. 4A.
  • FIG. 5 is a diagram showing a contour tracking algorithm and a pixel pattern in the contour line segment extraction unit in FIG. 4B.
  • FIG. 6 is a diagram showing the contour tracking procedure of FIG. 5.
  • FIG. 7 is a diagram illustrating a processing procedure of a contour line segment branching processing unit in an embodiment of the present invention.
  • FIG. 8A is a diagram for more specifically explaining the procedure of the contour tracking process of FIG.
  • FIG. 8B is a diagram for more specifically explaining the procedure of the contour tracking process of FIG.
  • FIG. 9 is a diagram for explaining the procedure of region contour formation processing in one embodiment of the present invention.
  • FIG. 10 is an explanatory diagram of figure contour tracking in the prior art.
  • FIG. 11 is a diagram showing an example of problems in the prior art.
  • 100 Image data input unit, 150: Graphic data and image data, 200: Outline tracking processing unit, 210: Input unit, 211 to AD conversion, 212: Image data input unit, 213: Image data 2D array unit, 214 ... Image data memory storage function, 216 ... Image memory, 218 ... Shading difference setting unit, 220 ... Contour line tracking unit, 230 ... Contour line segmentation branch processing unit, 240 .. Forming unit, 250... Contour information, 300 ... function approximation processing unit, 350 ... function format and parameters, 400 ... image processing unit, 450 ... figures and images, 500 ... output unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

 複数の色あるいは輝度を含む図形や画像でも精度の高い図形や画像を少ないデータ容量で、かつ、高速に処理できるディジタル画像の輪郭追跡手法を提案する。  画像処理装置によりディジタル画像の輪郭を追跡し画像領域を把握して輪郭情報を生成する画像処理方法であって、入力されたディジタル画像について、出発点の進行方向両端の画素の色と同じ画素の境界辺を追跡する輪郭追跡を行って輪郭線分を抽出する輪郭線分処理を行い、抽出された前記輪郭線分に関して分岐処理及び合成処理を行い、該輪郭線分の結合で決まる輪郭を形成して前記ディジタル画像の輪郭情報を生成する。

Description

明 細 書
ディジタル画像の輪郭追跡による画像処理方法並びに画像処理装置 技術分野
[0001] 本発明は、画像処理方法並びに画像処理装置に係り、特に、計算機で処理される ディジタル画像処理に不可欠な図形や画像 (以下、特に区別する必要のな!、ときは 単に画像)の領域の輪郭を高精度に把握し、画像の拡大、縮小に対しても隣接図形 や画像との関係を適切に保つ、ディジタル画像の輪郭追跡による画像処理方法並び に画像処理装置に関する。
背景技術
[0002] 一般に、計算機 (マイクロコンピュータやディジタルデータ処理機器を含む)の上で 、図形や画像はディジタルデータとして扱われる。このような計算機上で扱われるディ ジタル画像を処理する場合、図形や色領域の認識などに対して、図形や画像領域の 輪郭を把握することが行われる。しかし、隣接する図形や画像領域の輪郭を把握す る際、輪郭の把握の方法によっては、重複して輪郭線を把握し、図形や画像領域の 拡大、縮小において適切な関係を保つことができない場合がある。
[0003] また、画像データは大きく分けてラスタ形式と関数形式に分けられる。ラスタ形式の 画像は、格子状に規則正しく並んだ画素と呼ばれる色のついた点の集合として表さ れる。これは、現代の CRTディスプレイや LCDなどに表示するのに適した形式である 。しかし、拡大'縮小 '回転'平行移動などのァフィン変換操作を行うと画質が劣化し てしまう問題がある。これに対し、関数形式は画像の中の図形や画像領域の特徴を 関数によって表すため、単純な図形や画像領域を表現するのに適しており、ァフィン 変換によって画質が劣化しな 、と言う性質を持って 、る。
[0004] ところが、関数形式で表した方が都合がよ!、図形や画像でも、スキャナやディジタ ルカメラなどの装置を通じて計算機に取り込んだ場合ラスタ形式になってしまうことが 多い。従来、このようなラスタ形式の図形や画像は手動で適切な関数を割り当てて関 数形式に変換する作業を行うが、熟練が必要であり多くの手間もかかる。そのため、 これらのラスタ形式の図形や画像を自動的に関数形式に変換する必要が生じる。ラ スタ形式の図形や画像を自動的に関数形式の図形や画像に変換する手法は従来で も提案されているが、後で述べるようにカラー図形や画像を扱う際に色の境界を適切 に扱えない場合がある。
[0005] 一方、特許文献 1には、画像の領域の境界線を求める領域境界線抽出機構により 、領域境界線を表現するための座標を設定するものにおいて、画素の 4隅を座標点 とすることが開示されて 、る。
[0006] なお、隣接する輪郭を把握する際、輪郭の把握の方法によっては、重複して輪郭 線を把握し前記した画像データから抽出された輪郭線データから関数形式の図形や 画像に変換する手法については、例えば特許文献 2に開示されている。
[0007] また、特許文献 3には、分割画像の縦横の境界において 1画素つまり 1ドットずつ重 なるように領域分割することにより、境界線を共有するようにした技術が開示されてい る。
[0008] なお、ディジタル画像処理の分野ではな!/、が、境界線の共有に関する参考技術と して、特許文献 4には、隣接する 2つの閉領域を一体化して 1つの閉領域とするもの がある。すなわち、特許文献 4には、製品の金型などの曲面分割方法において、各 境界線で囲まれた閉領域に関して、各領域の位相関係に基いて、隣接する 2つの閉 領域を一体ィ匕して 1つの閉領域とする展開処理を自動的に行うようにした技術が開 示されている。
[0009] 特許文献 1 :特開平 10— 145590号公報
特許文献 2 :特開 2001— 52187号公報
特許文献 3:特開平 6 - 348837号公報
特許文献 4:特開平 7— 44733号公報
発明の開示
発明が解決しょうとする課題
[0010] 図 10に、従来技術の関数形式により図形の輪郭を把握する一例を示す。
従来の一般的な手法では、 2値画像に対する輪郭追跡手法を多色画像に適用す るため、図 10のように図形や画像中のある色や輝度が連続して現れる領域 (以降、 色領域と記す)だけに注目し、その領域の中を図、外を地とみなし、 2値画像として輪 郭追跡を行っていた。
しかし、この従来手法では、 2つの色領域が接する場所で輪郭線が 2重に取られて しまうことに起因する 2つの問題がある。 1つは、図 11のように、輪郭線の関数近似を 行うと双方の領域の輪郭線の近似誤差によって領域が重なったり隙間が開いたりし てしまう場合がある事である。 2つめは、同じ輪郭線が 2回処理されることで、処理時 間と格納効率が低下する事である。
[0011] 一方、前記特許文献 1に記載の方式は、カラー Z濃淡画像において、濃淡差を利 用して領域抽出を行い、その領域の境界を関数近似により圧縮、復号ィ匕を行ってい る。濃淡差は、所定の差分以内の画素を同一領域内とし、差分が所定の値よりも大き いところを領域の境界としている。従って、特許文献 1記載の発明では、同一の領域 と判断する濃淡差を入力し、画像を画素単位に水平方向(ラスタースキャン)に走査 し、その濃淡差が所定値よりも大きいところを境界点として記憶しておき、全画像につ いて境界点を抽出する。その後、境界点を繋ぐことで領域を決定する。
[0012] この特許文献 1記載の発明のように、画像を水平方向に走査し、その濃淡差が所 定の値よりも大きいところを境界点とする方法では、境界線が水平方向の走査線と並 行の場合にはこれを検出できない可能性がある。つまり、水平方向の画素の濃淡差 のみを判定するため水平方向の濃淡差が無いと、境界線を検出できない。また、境 界点を見出してもその境界点の繋がり方向が判らないため、別途、境界線の追跡が 必要となる。
[0013] さらに、特許文献 1の発明では、 2つ以上の領域が接合する場合、その接合点を分 割点と定義しているが、この分割点の抽出は、境界点を 2 * 2画素 (4画素で構成され る)の窓関数で走査し、窓内の 4画素の色 (濃淡)が 3色以上となったところを分割点と している。この方式では、分割点の抽出に窓関数を用いて走査する必要があるため、 処理に時間を要する。
[0014] 一方、 2つの領域が接する場所で輪郭線が 2重に取られないようにするために、特 許文献 3に記載の方法は、境界で 1画素つまり 1ドットずつ重なるように領域分割する 。しかし、この方法では、 1つの画素全体が境界の輪郭線を構成することになり、カラ 一画像に適用した場合、 2つの色領域の輪郭線はいずれか 1つの色の画素で構成さ れる。そのため、この画像を拡大処理したとき、拡大された画素による太い輪郭線が 現れることなる。カラー画像にこのような太い輪郭線が現れるのは好ましくない。
[0015] また、特許文献 4に記載の方法では、隣接する 2つの閉領域を一体化して 1つの新 たな閉領域を生成するために展開処理を行っており、仮にこの技術をディジタル画 像の処理に適用した場合、元の画像の輪郭は維持されないことになる。
[0016] 本発明は、従来技術の問題点を改善し、特に複数の色あるいは輝度を含む図形や 画像でも精度の高い図形や画像を少ないデータ容量で、かつ、高速に処理できるデ イジタル画像の輪郭追跡手法を提案することを目的とする。
[0017] 本発明の他の目的は、元の画像の輪郭をきめ細力べ正確に維持し、再現し得るディ ジタル画像の輪郭追跡手法を提案することにある。
課題を解決するための手段
[0018] 上記従来技術の問題点を解決するため、本発明は、以下のような特徴を有する。
[0019] 本発明の 1つの特徴は、画像処理装置によりディジタル画像の輪郭を追跡し画像 領域を把握して輪郭情報を生成するものにぉ ヽて、入力されたディジタル画像につ いて、出発点の進行方向両端の画素の色と同じ関係の画素(あるいは色差が所定の 値以上の画素)の境界辺を追跡する輪郭追跡を行って輪郭線分を抽出する輪郭線 分処理を行!ヽ、抽出された前記輪郭線分に関して分岐処理及び合成処理を行 ヽ、 該輪郭線分の結合で決まる輪郭を形成して前記ディジタル画像の輪郭情報を生成 することにある。
[0020] 本発明の他の特徴は、対象とする前記画像を含む領域の任意の点から、水平方向 あるいは垂直方向に走査し、前記画像の左右あるいは上下の色が異なる画素点ある いは色差 (階調差)が所定の値以上ある画素点を見出し、その点を出発点として輪郭 線分の追跡を行い、 3色以上の画素の会合点を探索し、該会合点を前記輪郭線分 の端点の初期値とすることにある。
[0021] 本発明の他の特徴は、輪郭線を 3色以上あるいは 3種以上の輝度が会合する点で 輪郭の追跡を一度打ち切り、 2色あるいは 2輝度の境界ごとに輪郭線を取ることで、 隣接する 2つの領域が輪郭線データを共有できるようにすることにある。
発明の効果 [0022] 本発明によれば、色差 (濃淡差)を領域認識の基準として、与えられたディジタル画 像について先ず画素間を追跡して輪郭線を取り、隣接する 2つの領域が輪郭線デー タを共有できるようにし、この輪郭線データに基づいて輪郭情報を生成する。輪郭線 データが共有されることにより、異なる関数で近似されることも無くなり、拡大、縮小、 移動などにおいて図形が離れるなどの従来手法の課題を解決し、データの処理効率 •格納効率の低下を防止出来る。
[0023] また、画素の境界辺を追跡して輪郭線を抽出するので、元の画像の輪郭を正確に 維持し、再現し得る。したがって、画像の拡大等の処理を行っても、輪郭線は画素の 境界辺に沿ったものとなり、きめの細かい画像が維持される利点がある。
発明を実施するための最良の形態
[0024] 以下、本発明の実施例を説明する。まず、本発明の基本的な構成を図 1及び図 2 で説明する。
本発明では、入力されたカラー画像データを 2次元のビットマップに配列する。一方 、領域認識の基準となる色差 (濃淡差)を設定する。そして、このビットマップ配列され たディジタル画像データに関して、その色差 (濃淡差)が隣り合う画素間で同じ所を 境界として追跡し、追跡の結果、閉領域が出来れば、その領域を一つの領域として 認識する。輪郭線を 3色以上あるいは 3種以上の輝度が会合する点で輪郭の追跡を 一度打ち切り、 2色あるいは 2輝度の境界ごとに輪郭線を取る。このような処理を繰り 返すことで、図 1のように、隣接する 2つの領域が輪郭線データを共有できるようにす る。また、図 2のように、 2領域の輪郭辺を共有するために、画像の輪郭線データは各 画素の角を輪郭の座標値 (Χ= 1, Υ=0)、 (Χ= 1, Υ= 1)、 (Χ= 2, Υ= 1)、——、 (X=m, Υ=η)として用いる。
[0025] 本発明の理解を深めるために、より具体的な実施例を用いて説明する。
図 3は、本発明の対象となる図形処理や画像処理を行う画像処理装置の一構成例 である。処理装置は、例えば CPUやメモリ、入出力手段などを有するコンピュータで 構成され、メモリ上にプログラムをロードして実行させることにより、図形や画像処理に 対する処理を行う機能を備えている。図 3にこの処理装置の機能をブロック的に表示 する。 [0026] 図 3において、 100は画像データの入力部であり、画像データ (カラー図形、カラー 写真や絵、カラー文書等)をイメージスキャナ一により読み取りディジタル情報として 処理装置へ読み込む機能や、既にディジタル情報として記録媒体や他の処理装置 等に保持されて ヽる情報を直接ある 、は通信ネットワークを介して処理装置へ読み 込む機能を有して 、る。 150は処理装置へ読み込まれたディジタル画像データを示 す。
[0027] 200は輪郭追跡処理部であり、画素の辺の追跡処理、すなわち読み込まれたデー タ 150の図形や画像の色領域の輪郭追跡を行う。 250はその処理結果である輪郭情 報を示す。この輪郭情報 250は、例えば、画像の輪郭に関し、 X座標、 Y座標ごと〖こ 輪郭に沿った座標値を表すデータ (X座標 = 1, 1, 2, 一, m、 Y座標 =0、 1, 1、 一, n)を含んでいる。
[0028] 300は輪郭情報 250に基づき、輪郭すなわち色領域の境界を関数近似により関数 化する関数近似処理部、 350はその処理結果として得られる図形や画像領域の輪 郭を表す関数形式およびパラメータである。また、 400は、上記関数形式およびパラ メータ 350により図形や画像を生成する画像処理部であり、その処理結果として処理 図形や処理画像 450を生成する。 500は、表示装置やプリンタなどの出力部である。 出力部 500には、処理図形や処理画像を記録媒体に記録しあるいはネットワークを 介して他の処理装置へ送信する手段も含まれる。処理図形や処理画像 450の段階 で記録媒体に記録して、利用することも考えられる。
[0029] なお、関数近似処理部 300や画像処理部 400の処理、すなわち画像データから抽 出された輪郭線データを関数形式の図形や画像に変換処理につ!ヽては、例えば前 記特許文献 2に開示された手法を用いることができる。よって、以下では、これらの処 理についての詳細説明は省略する。
[0030] 図 4Aは、図 3の輪郭追跡処理部 200の具体的構成例を示す。 210は画像データ の入力部であり、内部に図形データ、画像データを格納するメモリを含む。入力部 21 0は、読み込んだデータを 2次元のビットマップに配列する機能を持っており、画像デ ータは 2次元のビットマップに配列される。 220は輪郭線追跡部であり、前記データ 入力部のメモリの内容を読み出して、画素単位での輪郭線分の追跡を実施する。す なわち、ビットマップ配列された画像データに関して、その色差 (濃淡差)が隣り合う 画素間で所定値以上の所を境界として追跡する。 230は輪郭線分結合分岐処理部 であり、輪郭線分に分岐点があるときの処理および輪郭線分の結合処理を行う。 240 は領域輪郭形成部であり、輪郭線分の結合で決まる図形や画像を囲む領域の輪郭 を形成し、輪郭情報 250を生成し、出力する。なお、輪郭追跡処理部 200の機能は、 上記 210〜240で示した区分に限定されるものではなぐ全体として 1つあるいは複 数のプログラムにより、実現される。例えば輪郭線追跡部 220と輪郭線分結合分岐処 理部 230は、連続した一連の輪郭線追跡処理を行う単一のプログラムで構成してもよ い。これらのプログラムは、記録媒体に保持されているものをコンピュータで読み取り 、あるいは、コンピュータの記憶装置に保持されているものをメモリに読み出して実行 される。
[0031] 図 4Bは、図 4Aの構成をより具体的に示した機能ブロック図であり、データ入力部 2 10は、 AD変換器 211、画像データ入力部 212、画像データ 2次元配列部 213、画 像データメモリ格納機能 214を有している。 216は画像メモリである。 218は、画像の 領域認識の基準となる画素の色の差あるいは輝度の差を与える濃淡差設定部である 。例えば R, G, B各 8ビット 256階調、合計約 16万色余の色表現の範囲内で識別す べき色差 (濃淡差)を領域認識の基準として適宜設定する。具体的には、自然画像 の R, G, B各色信号に対して、境界と認識される輝度階調差、例えば 50階調差ある いは 100階調差を与える。これにより、例えば、隣り合う画素の階調レベル差が設定 された階調差以上のとき、その画素間が境界であると判断できる。輝度信号 (Y信号) に対しても同様である。
[0032] なお、本発明では、輪郭線を挟む画素の色関係、色差、階調差、輝度差を含めて 、単に色差として説明する。なお、本発明で扱う画像としては、 2値画像、多色画像、 自然画像があり、多色画像においてはダラディエーシヨン画像も含む。このような画像 に対しての色差は色階調の差として現れることは言うまでもない。また、画像信号とし て、 RGB信号のほか、輝度信号(Y信号)と色差信号 (Cr, Cb信号)の組合せなどが あるが、本発明においては、これら全ての信号のレベルの差を色差として扱っている [0033] 輪郭線追跡部 220は、画像データ読出し部 221と、輪郭線分抽出部 222とを有し ている。なお、これらの各機能部は、 1つあるいは複数のプログラムにより、実現される
[0034] 輪郭線分処理では、画素の色が 3色、換言すると濃淡差設定部で設定された色差
(濃淡差)が 3つ以上で会合する点を輪郭線分の端点とする。また、輪郭追跡処理の 出発点の進行方向両端の画素の色または色差と同じ関係の画素、あるいは所定の 値以上の関係の画素の境界辺を追跡する。この輪郭線分の端点の初期値は、対象 とする画像を含む領域の任意の点から、水平方向あるいは垂直方向に走査し、画像 の左右あるいは上下の色が異なる画素点を見出し、その点を出発点として、輪郭線 分の追跡を行う。そして、 3色以上の画素の会合点を探索し、該会合点を線分の端 点の初期値とする。
[0035] 輪郭線追跡部 220はさらに、輪郭線分の端点で、分岐方向を未追跡方向と追跡済 み方向として個々に登録するメモリ領域を有する。そして、このメモリ領域の未追跡方 向を参照してその一つを輪郭追跡の開始端点として輪郭追跡を実施し、追跡完了時 に追跡済み方向として前記メモリ領域に登録する。あるいは、新規な分岐点を見出し たとき未追跡方向として前記メモリ領域に登録する。
[0036] 図 5は、多色画像の場合を示し、図 4Bの輪郭線分抽出部 222における輪郭追跡の アルゴリズム及び画素パターンを示す。輪郭追跡の原則は、出発点の画素における 左右の画素の色あるいは輝度を記憶しておき(S501)、左右の画素の色あるいは輝 度が同じであれば(画素パターン 514)、その画素の境界を追跡する(S507、 S508) 。進行方向の左右の色あるいは輝度が前記記憶して 、る出発点の色あるいは輝度と 異なる場合、すなわち 3色以上あるいは 3種以上の輝度が会合する点の場合、ー且 輪郭追跡を終了する(S502)。進行方向の左右の色あるいは輝度が出発点の左の 画素の色ある ヽは輝度と同じであれば (画素パターン 512)右方向に進行方向を転 換し(S505、 S506)、進行方向の左右の色あるいは輝度が出発点の右画素の色あ るいは輝度と同じであれば (画素パターン 510)左に進行方向を転換して(S503、 S 504)、常に進行方向の左右の画素の色あるいは輝度が出発点の記憶されている色 あるいは輝度と同じとなるように輪郭追跡を行う。このようにして追跡した輪郭線の出 発点と終了点および線分番号あるいは線分名称を線分リストとしてメモリに登録して おく。
[0037] このようにして登録された線分は、追跡した画素の座標を用いて多項式関数で近似 される(図 3、 300)。
[0038] 図 6は、図 5の輪郭追跡のアルゴリズム、すなわちある点に繋がる全ての輪郭線を 追跡し、 3色以上あるいは 3種以上の模様が会合する点を分岐点として、新たにその 点から輪郭追跡を行い、領域の輪郭線分を形成する方法の具体例を示す。この例は 、橙領域(中央部)を左上側の緑領域と右側及び下側の青領域とで囲んだ 3色の矩 形領域を多数持つ画像データを対象としている。なお、色差 (濃淡差)が 3つ以上あ る画像データを含むものであれば、同様に処理される。この例では、図 6 (a)の黒丸 点(1, 1)を出発点とし、最初の進行方向を上方向とする。そして、出発点の進行方 向両端の画素の色と同じ関係の画素の境界辺、即ち、右側が橙、左側が緑の関係 にある画素の境界辺を追跡し、図 6の(d)に至る。以下、ステップごとに詳細に説明す る。
[0039] (1) 図 6の(a)に示すように、座標(1, 1)の点から上向きに追跡を開始したとする 。 {初期位置 = (1, 1)、初期方向 =上}
(2) (1, 1)を現在位置とし、上を進行方向とする。
また、左右前方の色をそれぞれ「左色」「右色」としてメモリに記憶する。
[0040] {初期位置 = (1, 1)、初期方向 =上、右色 =橙、左色 =緑、
現在位置 = (1, 1)、進行方向 =上}
(3) 現在位置を輪郭線に追加し、進行方向が上なので画像に多重追跡防止印を 付ける。(これらの情報をメモリに記憶する。メモリには、未追跡方向、追跡済み方向 の記号を羅列する。 )
(4) 図 6の(b)に示すように、現在位置を進行方向に 1画素進める。
{初期位置 = (1, 1)、初期方向 =上、右色 =橙、左色 =緑、
現在位置 = (1, 2)、進行方向 =上}
(5) 現在位置から進行方向を見て左右前方の色をそれぞれ、「左次色」「右次色」 とする。 [0041] {初期位置 = (1, 1)、初期方向 =上、右色 =橙、左色 =緑、
現在位置 = (1, 2)、進行方向 =上、右次色 =緑、左次色 =緑}
(6) 図 5のパターン 512を参照して、図 6の(c)に示すように、次の進行方向を右 にする。
[0042] {初期位置 = (1, 1)、初期方向 =上、右色 =橙、左色 =緑、
現在位置 = (1, 2)、進行方向 =右、右次色 =緑、左次色 =緑}
(7) 現在の進行方向は初期方向に一致しないので、(3)に戻る。
[0043] (3- 2) 現在位置を輪郭線に追加する。(この情報をメモリに記憶する。)
(4- 2) 図 6の(d)に示すように、現在位置を進行方向に 1画素進める。
[0044] {初期位置 = (1, 1)、初期方向 =上、右色 =橙、左色 =緑、
現在位置 = (2, 2)、進行方向 =右、右次色 =緑、左次色 =緑}
(5- 2) 現在位置から進行方向を見て左右前方の色をそれぞれ、「左次色」「右次 色」とする。
[0045] {初期位置 = (1, 1)、初期方向 =上、右色 =橙、左色 =緑、
現在位置 = (2, 2)、進行方向 =右、右次色 =青、左次色 =青}
(6- 2) 図 5のパターンを参照すると、右次色も左次色も右色でも左色でもないの で追跡を停止し、(9)へ飛ぶ。
[0046] (9) 輪郭の分岐を検出したので分岐の方向(左、上、下)と分岐の数(3)を返して 終了する。特に、今追跡した経路への分岐を先頭にして、時計回りに全ての分岐を 列挙する。
[0047] 本発明によれば、濃淡差を持つ画素間を先ず追跡し、境界とその繋がりを認識して いる。境界が水平方向あるいは垂直方向であっても関係なく正確にこの境界が見出 すことが可能である。また、方向を判断しながら追跡しているため、確実に境界を見 出すことが可能となる。
[0048] また、本発明では、輪郭線の追跡過程で常に周囲の 4画素の濃淡差を判断しなが ら追跡を進行させている。従って、窓関数が必要なぐ窓関数による走査も必要がな い。そのため、分割点の抽出と境界の抽出が同時に行われ、処理速度の向上が図ら れる。 [0049] また、本発明では、画素の境界辺を追跡して輪郭線を抽出するので、元の画像の 輪郭を正確に維持し、再現し得る。したがって、画像の拡大等の処理を行っても、輪 郭線は画素の境界辺に沿ったものとなり、きめの細かい画像が維持される利点がある
[0050] 次に、図 7は、輪郭線分結合分岐処理部 230の処理、すなわち、画素の境界を追 跡して得られた輪郭線分に、分岐点があるときの処理および輪郭線分の結合処理を 行う方法の具体例を示す図である。
[0051] まず、領域の外周の適当な 1点力 輪郭を追跡する(S701)。
領域が一周して閉じているか判断し(S702)、閉じていれば終了する(S703)。閉 じていない場合、終端と見つ力つた分岐を分岐リストに追加する(S704)。分岐リスト が空になるまで以下を繰り返す (S705)。
分岐リストの 1つの要素を取り出して追跡する(S706)。終端が既に分岐リストにあ れば (S707)、分岐リストから削除する(S708)。終端が分岐リストになければ (S709
)、新たに発見された分岐を分岐リストに追加する(S710)。
[0052] 図 7の処理手順をより具体的に説明するために、以下、図 8Aの例により図形の輪 郭追跡について述べる。なお、図 8Aは、後で述べる図 9の領域輪郭形成処理の手 順を示す図 8Bと共に、図形の輪郭追跡処理から領域輪郭形成処理間での処理を、 連続した一連の処理として説明する。また、この例は、青と赤の 2色の領域及び白色 の背景を持つ 3色の画像データを対象として 、る。
[0053] (1)画像を走査し、画素の色が左右で異なる点を見つける。(図 8Aの(a)参照)
(2)見つけた点から輪郭の追跡を行う。
[0054] (3)分岐数が 0でないので次に進む。
[0055] 分岐数が 0となるのは他の領域の輪郭と接して 、な 、独立した領域の輪郭線を追 跡した場合である。
[0056] (4)末端の分岐(図 8Aの (b)参照)をメモリ中の「未追跡分岐リスト」に、登録する( 図 7のステップ 704に相当)。
[0057] {未追跡分岐リスト = {A, B, C} }
(5)未追跡分岐リストから分岐 Aを取り出して輪郭追跡をする(図 7のステップ 706に 相当)。
[0058] {未追跡分岐リスト ={B, C}}
(6)追跡の開始点 Aと終了点 Dをメモリ中の「追跡済み分岐集合」に登録する。
[0059] {未追跡分岐リスト ={B, C}、追跡済み分岐集合 ={A, D}}
(7)追跡の終了点 Dは未追跡分岐リストにないので、発見された新しい分岐 E, Fを 、未追跡分岐リストに追加する(図 8Aの(c)参照)、(図 7のステップ 709に相当)。
[0060] {未追跡分岐リスト ={B, C, E, F}、追跡済み分岐集合 ={A, D}}
(8)未追跡分岐リストは空ではないので、(5)に戻る。
[0061] (5)未追跡分岐リストから Bを取り出して輪郭追跡をする。(図 8Aの (d)参照)
{未追跡分岐リスト ={C, E, F}、追跡済み分岐集合 ={A, D}}
(6)追跡の開始点 Bと終了点 Eを追跡済み分岐集合に登録する。
[0062] {未追跡分岐リスト ={C, E, F}、追跡済み分岐集合 ={A, D, B, E}}
(7)追跡の終了点 Eは未追跡分岐リストに有るのでリストから削除する。
[0063] {未追跡分岐リスト ={C, F}、追跡済み分岐集合 ={A, D, B, E}}
(8)未追跡分岐リストは空ではな 、ので(5)に戻る。
[0064] (5)未追跡分岐リストから Cを取り出して輪郭追跡をする。(図 8Aの (e)参照)
{未追跡分岐リスト ={F}、追跡済み分岐集合 ={A, D, B, E}}
(6)追跡の開始点 Cと終了点 Fを追跡済み分岐集合に登録する。(図 8Aの (f)参照
)
{未追跡分岐リスト ={F}、追跡済み分岐集合 ={A, D, B, E, C, F}}
(7)追跡の終了点 Fは未追跡分岐リストに有るのでリストから削除する。
[0065] {未追跡分岐リスト ={}、追跡済み分岐集合 ={A, D, B, E, C, F}}
(8)未追跡分岐リストが空なので次に進む。
[0066] 次に、図 9及び図 8Bにより、領域輪郭形成部 240の処理、すなわち上記輪郭線分 結合分岐処理の結果を受けて、領域の輪郭を形成し輪郭情報 250を生成する処理 の手順を説明する。
[0067] まず、図 9において、領域輪郭形成処理の手順を説明する。
最初に、全輪郭線分への順方向と逆方向のポインタのリストを作る(S901)。次に、 以下の処理を、線分リストが空になるので反復する(S902)。
線分リストの 1つの要素を取り出して注目する(S903)。注目線分が最初に注目し た線分に戻るまで、以下の(a)、(b)を反復する(S904)。
(a)注目して 、る線分を線分リストから削除する(S905)。
[0068] (b)注目線分の終端の分岐で時計回りに最も近!、線分に注目する(S906)。
注目した順に線分を繋 、で閉じた輪郭を作る (S907)。
[0069] 次に、上記図 9の処理手順を、図 8Bを用いてより具体的に説明する。
[0070] (9)新規の「領域 X」を定義する。(図 8Bの (a)参照)
{領域 X= { }、追跡済み分岐集合 = { A, B, C, D, E, F} }
(10)追跡済み分岐集合の中から Aを取り出し、注目する。
[0071] {領域 X= { }、追跡済み分岐集合 = {B, C, D, E, F}、注目 =A}
(11)注目して ヽる分岐 Aから伸びる輪郭線分 ADを領域 Xに追加する。
[0072] {領域 X= {AD}、追跡済み分岐集合 = {B, C, D, E, F}、注目 =A}
(12)注目している分岐 Aから追跡した輪郭の終端の分岐で、反時計回りに最も近 い分岐 Eに注目する。
[0073] {領域 X= {AD}、追跡済み分岐集合 = {B, C, D, F}、注目 =E}
(13)注目している分岐 Eが(10)で注目した Aと同一ではないので、(11)に戻る。
[0074] (11)注目して ヽる分岐 Eカゝら伸びる輪郭線分 EBを領域 Xに追加する。
[0075] {領域 X= {AD, EB}、追跡済み分岐集合 = {B, C, D, F}、注目 =E}
(12)注目している分岐 E力 追跡した輪郭の終端の分岐で、反時計回りに最も近 い分岐 Aに注目する。
[0076] {領域 X= {AD, EB}、追跡済み分岐集合 = {B, C, D, F}、注目 =A}
(13)注目している分岐 Aが(10)で注目したものと同一なので次に進む。
[0077] (14)領域 Xを保存し、追跡済み分岐リストが空ではないので、(9)に戻る。
[0078] (9)新規の「領域 Y」を定義する。(図 8Βの (b)参照)
{領域 Y= U、追跡済み分岐集合 = {B, C, D, F} }
(10)追跡済み分岐集合力 分岐 Βを取り出し、注目する。(図 8Βの (c)参照) {領域 Υ= { }、追跡済み分岐集合 = {C, D, F}、注目 =B} (11)注目して 、る分岐 B力 伸びる輪郭線分 BEを領域 Yに追加する。
[0079] {領域 Y= {BE}、追跡済み分岐集合 = {C, D, F}、注目 =B}
(12)注目している分岐 Bから追跡した輪郭の終端の分岐で、反時計回りに最も近 い分岐 Fに注目する。
[0080] {領域 Y= {BE}、追跡済み分岐集合 = {C, D}、注目 =F}
(13)注目している分岐 Fが(10)で注目した Bと同一ではないので、(11)に戻る。
(11)注目して 、る分岐 F力も伸びる輪郭線分 FCを領域 Yに追加する。
[0081] {領域 Y= {BE, FC}、追跡済み分岐集合 = {C, D}、注目 =F}
( 12)注目して 、る分岐 Fから追跡した輪郭の終端の分岐で、反時計回りに最も近!ヽ 分岐 Bに注目する。(図 8Bの(d)参照)
{領域 Y= {BE, FC}、追跡済み分岐集合 = {C, D}、注目 =B}
(13)注目している分岐 Bが(10)で注目したものと同一なので次に進む。
(14)領域 Yを保存し、追跡済み分岐リストが空でないので、(9)に戻る。
(9)新規の「領域 Z」を定義する。
[0082] {領域 Z= { }、追跡済み分岐集合 = {C, D} }
(10)追跡済み分岐集合力 分岐 Cを取り出し、注目する。
[0083] {領域 Z= { }、追跡済み分岐集合 = {D}、注目 =C}
(11)注目している分岐 C力も伸びる輪郭線分 CFを領域 Zに追加する。(図 8Bの(e) 参照)
{領域 Z= {CF}、追跡済み分岐集合 = {D}、注目 =C}
( 12)注目して 、る分岐 C力 追跡した輪郭の終端の分岐で、反時計回りに最も近!ヽ 分岐 Dに注目する。
[0084] {領域 Z= {CF}、追跡済み分岐集合 = { }、注目 =D}
(13)注目している分岐 Dが (10)で注目した Cと同一ではないので、(11)に戻る。
(11)注目している分岐 Dカゝら伸びる輪郭線分 DAを領域 Zに追加する。
[0085] {領域 Z= {CF, DA}、追跡済み分岐集合 = { }、注目 =D}
( 12)注目して 、る分岐 Dから追跡した輪郭の終端の分岐で、反時計回りに最も近!ヽ 分岐 Cに注目する。 (13)注目している分岐 Cが(10)注目したものと同一なので次に進む。
(14)領域 Zを保存し、追跡済み分岐リストが空なので次に進む。(図 8Bの (f)参照)
( 15)最初に登録した領域 Xは図形の外部を表すので破棄する。
(16) 図 7の処理の例(1)に戻る。
(1) 画像を最後まで走査して、追跡していない輪郭線が見付力もないため終了する
[0086] 以上の方法により、全ての領域は一つの輪郭線で囲まれ、且つ各輪郭線は隣接す る領域に共有された線分として扱われる。このようにして生成された輪郭情報 250は 、その後の処理における図形の拡大、縮小、移動などの処理において、領域が離れ ることなぐ従来手法の課題を完全に解決することができる。
[0087] 本発明によれば、ディジタル画像について、出発点の進行方向両端の画素の色と 同じ関係の画素あるいは色差が所定値以上の画素の境界辺を追跡する輪郭追跡を 行って輪郭線分を抽出する。そして、輪郭線を 3色以上が会合する点で輪郭の追跡 を一度打ち切り、 2色の境界ごとに輪郭線を取ることで、隣接する 2つの領域が輪郭 線データを共有できるようにする。輪郭線データが共有されることにより、異なる関数 で近似されることも無くなり、データの処理効率 ·格納効率の低下を防止出来る。
[0088] また、画素の境界辺を追跡して輪郭線を抽出するので、元の画像の輪郭を正確に 維持し、再現し得る。したがって、画像の拡大等の処理を行っても、輪郭線は画素の 境界辺に沿ったものとなり、きめの細かい画像が維持される利点がある。
[0089] また、本発明では、輪郭線分の始端、終端、分岐点を端点として輪郭線分を抽出し 、輪郭線分の接続状態を分岐点を経由しながら追跡し、閉ループを形成するか否か を判断して領域を抽出する。最外周の輪郭線は内周の領域の輪郭線と共通となる場 合があり、その場合は輪郭線の内周側を採用する処理を行う。これにより、各領域は 一本の輪郭線で囲まれた部分のみとなり、 2重に囲まれることはない。
[0090] また、本発明によれば、濃淡差を持つ画素間を先ず追跡し、特許文献 1で言う境界 点とその繋がりを認識している。本発明によれば、濃淡差を持つ画素間を追跡するの で、境界線が水平方向あるいは垂直方向であっても関係なく正確にこの境界線が見 出すことが可能である。し力も方向を判断しながら追跡しているため、確実に境界を 見出すことが可能となる。
[0091] また、本発明では、分割点の抽出と境界の抽出が同時に行われ、処理速度の向上 が図られる。
図面の簡単な説明
[0092] [図 1]本発明に基く図形の輪郭追跡例の説明図である。
[図 2]本発明の基本となる座標点の取り方の説明図である。
[図 3]本発明の対象となる図形処理や画像処理を行う画像処理装置の一構成例を示 す図である。
[図 4A]図 3の輪郭追跡処理部の具体的構成例を示す図である。
[図 4B]図 4Aの構成をより具体的に示した機能ブロック図である。
[図 5]図 4Bの輪郭線分抽出部における輪郭追跡のアルゴリズム及び画素パターンを 示す図である。
[図 6]図 5の輪郭追跡の手順を示す図である。
[図 7]本発明の一実施例における輪郭線分結合分岐処理部の処理手順を示す図で ある。
[図 8A]図 7の輪郭追跡処理の手順をより具体的に説明する図である。
[図 8B]図 9の輪郭追跡処理の手順をより具体的に説明する図である。
[図 9]本発明の一実施例における領域輪郭形成処理の手順を説明する図である。
[図 10]従来技術における図形の輪郭追跡の説明図である。
[図 11]従来技術における課題の一例を示す図である。
符号の説明
[0093] 100…画像データの入力部、 150…図形データや画像データ、 200…輪郭追跡処 理部、 210…入力部、 211〜AD変翻、 212…画像データ入力部、 213…画像デ ータ 2次元配列部、 214…画像データメモリ格納機能、 216…画像メモリ、 218…濃 淡差設定部、 220…輪郭線追跡部、 230…輪郭線分結合分岐処理部、 240· ··領域 輪郭形成部、 250· ··輪郭情報、 300…関数近似処理部、 350…関数形式およびパ ラメータ、 400…画像処理部、 450…図形や画像、 500· ··出力部。

Claims

請求の範囲
[1] 画像処理装置によりディジタル画像の輪郭を追跡し画像領域を把握して輪郭情報 を生成する画像処理方法であって、
入力されたディジタル画像について、出発点の進行方向両端の画素の色差と同じ 画素の境界辺を追跡する輪郭追跡を行って輪郭線分を抽出する輪郭線分処理を行 い、
抽出された前記輪郭線分に関して分岐処理及び合成処理を行!ヽ、該輪郭線分の 結合で決まる輪郭を形成して前記ディジタル画像の輪郭情報を生成する、
ことを特徴とする画像処理方法。
[2] 請求項 1にお 、て、前記輪郭線分処理にお!、て、前記画素の色が 3色以上で会合 する点を前記輪郭線分の端点とする、ことを特徴とする画像処理方法。
[3] 請求項 1または 2において、対象とする前記画像を含む領域の任意の点から、水平 方向あるいは垂直方向に走査し、前記画像の左右あるいは上下の色差が異なる画 素点を見出し、その点を出発点として輪郭線分の追跡を行い、 3色以上の画素の会 合点を探索し、該会合点を前記輪郭線分の端点の初期値とすることを特徴とする画 像処理方法。
[4] 請求項 1な!、し 3の 、ずれかにお 1、て、前記分岐処理は、輪郭線分の端点で、分 岐方向を未追跡方向と追跡済み方向として個々〖こメモリ領域に登録し、
該メモリ領域の未追跡方向を参照してその一つを輪郭追跡の開始端点として輪郭 追跡を実施し、
追跡完了時に追跡済み方向として前記メモリ領域に登録し、
新規な分岐点を見出したとき未追跡方向として前記メモリ領域に登録することを特 徴とする画像処理方法。
[5] 請求項 4にお 、て、前記輪郭線分合成処理は、追跡済みの輪郭線分を前記メモリ 領域から読み出し、
異なる輪郭線分の同一端点を接合して輪郭の結合を行うことを特徴とする画像処 理方法。
[6] 請求項 5において、輪郭の合成により閉領域が形成されたとき、その領域を一つの 画像領域として前記メモリに登録することを特徴とする画像処理方法。
[7]
Figure imgf000020_0001
、て、与えられた前記画像の領域認識の基準とな る画素の色の差ある 、は輝度の差に基 ヽて、前記輪郭線分処理を行うことを特徴と する画像処理方法。
[8] 請求項 1ないし 7のいずれかにおいて、前記輪郭追跡により生成された前記輪郭情 報に基づき、画像領域の輪郭を近似して表す関数形式およびパラメータを生成し、 該関数形式およびパラメータにより図形もしくは画像を生成することを特徴とする画像 処理方法。
[9] 輪郭追跡部によりディジタル画像の輪郭を追跡し画像領域を把握して輪郭情報を 生成する画像処理装置であって、
前記輪郭追跡部は、入力されたディジタル画像について、出発点の進行方向両端 の画素の色差と同じ画素の境界辺を追跡して輪郭線分を抽出する輪郭線追跡処理 部と、
抽出された前記輪郭線分に関して分岐処理及び合成処理を行!ヽ、該輪郭線分の 結合で決まる輪郭を形成して前記ディジタル画像の輪郭情報を生成する領域輪郭 形成部、とを備えていることを特徴とする画像処理装置。
[10] 請求項 9にお 、て、前記輪郭線追跡処理部は、対象とする前記画像を含む領域の 任意の点から、水平方向あるいは垂直方向に走査し、前記画像の左右あるいは上下 の色が異なる画素点を見出し、その点を出発点として輪郭線分の追跡を行い、 3色 以上の画素の会合点を探索し、該会合点を前記輪郭線分の端点の初期値とすること を特徴とする画像処理装置。
[11] 請求項 9または 10において、前記領域輪郭形成部は、分岐処理において、輪郭線 分の端点で、分岐方向を未追跡方向と追跡済み方向として個々にメモリ領域に登録 し、該メモリ領域の未追跡方向を参照してその一つを輪郭追跡の開始端点として輪 郭追跡を実施し、追跡完了時に追跡済み方向として前記メモリ領域に登録し、新規 な分岐点を見出したとき未追跡方向として前記メモリ領域に登録する機能を有するこ とを特徴とする画像処理装置。
[12] 請求項 9ないし 11のいずれかにおいて、前記輪郭追跡により生成された前記輪郭 情報に基づき画像領域の輪郭を近似して表す関数形式およびパラメータを生成する 関数近似部と、該関数形式およびパラメータにより図形もしくは画像を生成する図形 処理部とを備えて!/ヽることを特徴とする画像処理装置。
[13] コンピュータを備えた画像処理装置にお ヽて入力されたディジタル画像の輪郭を 追跡し画像領域を把握し輪郭情報を生成するためのプログラムであって、
コンピュータに、
入力されたディジタル画像について、出発点の進行方向両端の画素の色差と同じ 画素の境界辺を追跡する輪郭追跡を行って輪郭線分を抽出する輪郭線分処理を行 う機能と、
抽出された前記輪郭線分に関して分岐処理及び合成処理を行!ヽ、該輪郭線分の 結合で決まる輪郭を形成して前記ディジタル画像の輪郭情報を生成する機能、とを 実現させるためのプログラム。
[14] コンピュータを備えた画像処理装置にお ヽて入力されたディジタル画像の輪郭を 追跡し画像領域を把握し輪郭情報を生成するためのプログラムを保持した、コンビュ ータ読み取り可能な記録媒体であって、
コンピュータに、
入力されたディジタル画像について、出発点の進行方向両端の画素の色差と同じ 画素の境界辺を追跡する輪郭追跡を行って輪郭線分を抽出する輪郭線分処理を行 う機能と、
抽出された前記輪郭線分に関して分岐処理及び合成処理を行!ヽ、該輪郭線分の 結合で決まる輪郭を形成して前記ディジタル画像の輪郭情報を生成する機能、とを 実現させるためのプログラムを記録した記録媒体。
[15] 請求項 1において、画像を水平方向あるいは垂直方向に走査し、隣り合う画素の色 差が所定の色差となる 2つの画素を見出し、その 2つの画素の色関係(色および色差 )と同じにある水平方向、垂直方向の画素間を順次走査し、 3色以上の会合点となつ たとき、その点を輪郭追跡の初期出発点とすることを特徴とする画像処理方法。
PCT/JP2005/013026 2004-07-14 2005-07-14 ディジタル画像の輪郭追跡による画像処理方法並びに画像処理装置 WO2006006666A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-207156 2004-07-14
JP2004207156A JP2006031245A (ja) 2004-07-14 2004-07-14 ディジタル画像の輪郭追跡による画像処理方法並びに画像処理装置

Publications (1)

Publication Number Publication Date
WO2006006666A1 true WO2006006666A1 (ja) 2006-01-19

Family

ID=35784002

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/013026 WO2006006666A1 (ja) 2004-07-14 2005-07-14 ディジタル画像の輪郭追跡による画像処理方法並びに画像処理装置

Country Status (2)

Country Link
JP (1) JP2006031245A (ja)
WO (1) WO2006006666A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2528027A (en) * 2014-05-13 2016-01-13 String Labs Ltd Perimeter detection
CN112419357A (zh) * 2020-11-18 2021-02-26 方正株式(武汉)科技开发有限公司 一种生成图像实体轮廓一笔画路径的方法及系统

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007139544A1 (en) 2006-05-31 2007-12-06 Thomson Licensing Multi-tracking of video objects
JP5629483B2 (ja) 2010-03-30 2014-11-19 キヤノン株式会社 画像処理方法、画像処理装置、及びプログラム
JP5566158B2 (ja) 2010-03-30 2014-08-06 キヤノン株式会社 画像処理方法、画像処理装置、及びプログラム
JP5600524B2 (ja) 2010-08-27 2014-10-01 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、および記憶媒体
JP5653141B2 (ja) * 2010-09-01 2015-01-14 キヤノン株式会社 画像処理方法、画像処理装置、及び、プログラム
JP5597096B2 (ja) * 2010-10-18 2014-10-01 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61208181A (ja) * 1985-03-12 1986-09-16 Mitsubishi Electric Corp 輪郭抽出装置
JPH06223183A (ja) * 1993-01-22 1994-08-12 Nec Corp 輪郭追跡方法
JPH10145590A (ja) * 1996-11-12 1998-05-29 Tsukuba Soft Kenkyusho:Kk カラー/濃淡画像入力出力装置と入力出力方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61208181A (ja) * 1985-03-12 1986-09-16 Mitsubishi Electric Corp 輪郭抽出装置
JPH06223183A (ja) * 1993-01-22 1994-08-12 Nec Corp 輪郭追跡方法
JPH10145590A (ja) * 1996-11-12 1998-05-29 Tsukuba Soft Kenkyusho:Kk カラー/濃淡画像入力出力装置と入力出力方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2528027A (en) * 2014-05-13 2016-01-13 String Labs Ltd Perimeter detection
GB2528027B (en) * 2014-05-13 2016-12-14 String Labs Ltd Perimeter detection
US10275885B2 (en) 2014-05-13 2019-04-30 String Limited Perimeter detection
CN112419357A (zh) * 2020-11-18 2021-02-26 方正株式(武汉)科技开发有限公司 一种生成图像实体轮廓一笔画路径的方法及系统
CN112419357B (zh) * 2020-11-18 2023-06-30 方正株式(武汉)科技开发有限公司 一种生成图像实体轮廓一笔画路径的方法及系统

Also Published As

Publication number Publication date
JP2006031245A (ja) 2006-02-02

Similar Documents

Publication Publication Date Title
US6522329B1 (en) Image processing device and method for producing animated image data
WO2006006666A1 (ja) ディジタル画像の輪郭追跡による画像処理方法並びに画像処理装置
JP3258122B2 (ja) 画像処理装置
US5091967A (en) Method of extracting contour of a subject image from an original
US7149355B2 (en) Image processing apparatus, image processing method, image processing program, and computer-readable record medium storing image processing program
JP5958023B2 (ja) 画像処理装置および画像処理プログラム
US20050008254A1 (en) Image generation from plurality of images
JP4568459B2 (ja) 画像処理装置及び記録媒体
KR101000421B1 (ko) 드롭 아웃 컬러 처리방법 및 그 장치
CN102053804B (zh) 图像处理装置及控制方法
US7526137B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP2004102819A (ja) 画像処理方法およびその装置
JP4164215B2 (ja) 画像処理方法、装置および記録媒体
CN112308773B (zh) 一种无人机航摄影像无损放大和拼接融合方法
JP2007088912A (ja) 画像処理装置およびプログラム
JP3952188B2 (ja) 画像補間装置、画像補間方法および画像補間プログラム
JP2009272665A (ja) 画像処理装置、画像処理方法およびプログラム
JP5395722B2 (ja) 線画処理装置、線画処理方法およびプログラム
JPH07334648A (ja) 画像処理方法及びその装置
JPH11110577A (ja) 画像データ処理装置および方法、並びに伝送媒体
JPS60163164A (ja) 画像の塗りつぶし装置
JP5023205B2 (ja) ドロップアウトカラー処理装置およびこれを用いたドロップアウトカラー処理方法
JP2559359B2 (ja) 画像の構造記憶方法及び画像登録装置
JP3669008B2 (ja) 画像処理装置および画像処理方法
JPH03225477A (ja) 画像処理装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

122 Ep: pct application non-entry in european phase