JP4770590B2 - Outline creation apparatus, creation method, and image processing apparatus - Google Patents

Outline creation apparatus, creation method, and image processing apparatus Download PDF

Info

Publication number
JP4770590B2
JP4770590B2 JP2006146209A JP2006146209A JP4770590B2 JP 4770590 B2 JP4770590 B2 JP 4770590B2 JP 2006146209 A JP2006146209 A JP 2006146209A JP 2006146209 A JP2006146209 A JP 2006146209A JP 4770590 B2 JP4770590 B2 JP 4770590B2
Authority
JP
Japan
Prior art keywords
pixel
level
boundary line
edge position
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006146209A
Other languages
Japanese (ja)
Other versions
JP2007316964A5 (en
JP2007316964A (en
Inventor
智宏 安岡
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006146209A priority Critical patent/JP4770590B2/en
Priority to US11/748,868 priority patent/US7957594B2/en
Priority to CN2007101045917A priority patent/CN101079150B/en
Publication of JP2007316964A publication Critical patent/JP2007316964A/en
Publication of JP2007316964A5 publication Critical patent/JP2007316964A5/ja
Application granted granted Critical
Publication of JP4770590B2 publication Critical patent/JP4770590B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30176Document
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/28Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
    • G06V30/287Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of Kanji, Hiragana or Katakana characters

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

この発明は、静止画像の第1、第2のレベルの領域の境界を示すアウトラインを作成するアウトライン作成装置、アウトライン作成方法および画像処理装置に関する。詳しくは、この発明は、第1、第2のレベル間のレベルを持つ各エッジ位置の画素に対応して、エッジ位置およびその周辺の画素のデータ値に基づき、画素内における第1、第2のレベル領域の境界を示す境界線を生成し、それら生成された各境界線を連結してアウトラインを求めることによって、画素単位ではなく実数精度でアウトラインを作成可能としたアウトライン作成装置等に係るものである。   The present invention relates to an outline creation apparatus, an outline creation method, and an image processing apparatus that create an outline that indicates a boundary between first and second level regions of a still image. Specifically, the present invention corresponds to a pixel at each edge position having a level between the first and second levels, and based on the data values of the edge position and surrounding pixels, the first and second pixels in the pixel. Concerning outline creation devices that can create outlines with real number accuracy, not pixel units, by generating boundary lines that indicate the boundaries of level regions and obtaining the outlines by connecting the generated boundary lines It is.

従来、画像処理の分野では、種々の目的のために、静止画像のエッジ位置を検出することが行われている。例えば、特許文献1には、画像データを高い圧縮率で符号化する方法として、画像データそのものを符号化するのではなく、画像データのエッジを連続的に検出して連続的なエッジデータを符号化することが記載されている。また例えば、特許文献2には、製造途中で重ね合わせマークを用いて回路パターンの重ね合わせ状態の検査をする際に、CCDカメラの撮像画像からエッジ位置(マーク位置)を検出することが行われている。このエッジ位置の検出は、例えば画素のデータ値が急激に変化する部分を検出することで行われる。
特開平8−36641号公報 特開2004−79970号公報
Conventionally, in the field of image processing, detection of the edge position of a still image has been performed for various purposes. For example, in Patent Document 1, as a method of encoding image data at a high compression rate, instead of encoding the image data itself, the edge of the image data is continuously detected and the continuous edge data is encoded. It is described that. Further, for example, in Patent Document 2, when an overlay state of a circuit pattern is inspected using an overlay mark during manufacturing, an edge position (mark position) is detected from a captured image of a CCD camera. ing. This edge position is detected by, for example, detecting a portion where the pixel data value changes rapidly.
JP-A-8-36641 JP 2004-79970 A

上述の特許文献1、特許文献2に記載されるエッジ位置の検出では、エッジの位置を画素単位で検出するものである。しかし、このエッジ位置が例えば黒レベル領域および白レベル領域の境界を示すアウトラインである場合、例えば画素数の増加による画像の拡大処理を考えると、画素単位より細かな単位でのエッジ位置検出が望まれる。   In the edge position detection described in Patent Document 1 and Patent Document 2 described above, the edge position is detected in units of pixels. However, when this edge position is an outline indicating the boundary between the black level region and the white level region, for example, considering the image enlargement process by increasing the number of pixels, it is desirable to detect the edge position in units smaller than the pixel unit. It is.

この発明の目的は、画素単位ではなく実数精度でアウトラインを作成可能とすることにある。   An object of the present invention is to make it possible to create an outline with real number accuracy instead of pixel units.

この発明の概念は、
静止画像を構成する各画素より第1のレベルと該第1のレベルより大きな第2のレベルとの間のレベルを持つエッジ位置の画素を検出するエッジ検出部と、
上記エッジ検出部で検出された各エッジ位置の画素にそれぞれ対応して該エッジ位置の画素および該エッジ位置の画素の周辺に位置する画素を切り出す画素切り出し部と、
上記エッジ検出部で検出される各エッジ位置の画素のそれぞれに対応して、上記画素切り出し部で切り出された画素のデータ値に基づき、画素内における上記第1のレベルの領域と上記第2のレベルの領域との境界を示す境界線を生成する境界線生成部と、
上記エッジ検出部で検出された各エッジ位置の画素のそれぞれに対応して上記境界線生成部で生成された境界線を連結して、上記静止画像における上記第1のレベルの領域と上記第2のレベルの領域との境界を示すアウトラインを求める連結処理部とを備え
上記境界線生成部は、
上記エッジ位置の画素のデータ値と上記周辺に位置する画素のデータ値との差に基づいて上記境界線の角度を検出する境界線角度検出部と、
上記エッジ位置の画素のデータ値に対応した上記第1のレベルおよび上記第2のレベルの混入率に基づいて、上記境界線角度検出部で検出された角度の境界線の切片を検出する境界線切片検出部とからなり、
上記画素切り出し部は、
上記エッジ位置の画素に対して水平方向の左右にそれぞれ隣接する画素d2,d1と、上記エッジ位置の画素に対して垂直方向の上下にそれぞれ隣接する画素d3,d4とを切り出し、
上記境界線角度検出部は、
水平方向成分d2−d1および垂直方向成分d4−d3からなる差ベクトルの方向に90度だけ加算した角度を境界線の角度とす
ことを特徴とするアウトライン作成装置。
The concept of this invention is
An edge detection unit that detects a pixel at an edge position having a level between a first level and a second level greater than the first level from each pixel constituting the still image;
A pixel cutout unit that cuts out the pixel at the edge position and the pixel located around the pixel at the edge position corresponding to the pixel at each edge position detected by the edge detection unit;
Corresponding to each pixel at each edge position detected by the edge detection unit, based on the data value of the pixel extracted by the pixel extraction unit, the first level region and the second level in the pixel A boundary line generation unit for generating a boundary line indicating a boundary with the level region;
The boundary lines generated by the boundary line generation unit corresponding to the pixels at the respective edge positions detected by the edge detection unit are connected, and the first level region and the second level in the still image are connected. and a link unit for obtaining the outline indicating a boundary between the level of the region,
The boundary line generation unit
A boundary angle detector that detects the angle of the boundary based on the difference between the data value of the pixel at the edge position and the data value of the pixel located in the periphery;
A boundary line for detecting the intercept of the boundary line of the angle detected by the boundary line angle detection unit based on the mixing ratio of the first level and the second level corresponding to the data value of the pixel at the edge position Consisting of a section detector,
The pixel cutout unit
Cut out pixels d2 and d1 that are adjacent to the pixel at the edge position in the horizontal direction and pixels d3 and d4 that are adjacent to the pixel at the edge position in the vertical direction;
The boundary angle detection unit is
Outline generating apparatus, characterized in that shall be the horizontal component d2-d1 and angular directions 90 degrees by adding angular boundaries of the difference vector of the vertical component d4-d3.

この発明においては、静止画像を構成する各画素のデータより第1のレベル(例えば黒レベル)と第2のレベル(例えば白レベル)との間のレベルを持つエッジ位置の画素が検出される。このエッジ位置の検出は画素単位で行われるものである。この発明では、さらに各エッジ位置の画素を用いて、第1のレベルの領域と第2のレベルの領域との境界を示すアウトラインが実数精度で作成される。ここで、第1、第2のレベルは、それぞれ、ある一つのレベル、あるいは所定の幅を持ったレベルを意味している。   In the present invention, the pixel at the edge position having a level between the first level (for example, the black level) and the second level (for example, the white level) is detected from the data of each pixel constituting the still image. The detection of the edge position is performed in units of pixels. In the present invention, an outline indicating the boundary between the first level region and the second level region is further created with real number accuracy using the pixels at the respective edge positions. Here, each of the first and second levels means a certain level or a level having a predetermined width.

すなわち、各エッジ位置の画素にそれぞれ対応して、このエッジ位置の画素およびその周辺に位置する画素が切り出され、それらの画素のデータ値に基づき、画素内における第1のレベルの領域と第2のレベルの領域との境界を示す境界線が生成される。   That is, corresponding to each pixel at each edge position, the pixel at this edge position and the pixels located in the vicinity thereof are cut out, and based on the data values of these pixels, the first level region and the second region in the pixel are extracted. A boundary line indicating the boundary with the region of the level is generated.

この場合、例えば、このエッジ位置の画素のデータ値とその周辺に位置する画素のデータ値との差に基づいて、境界線の角度が検出される。さらに、エッジ位置の画素のデータ値に対応した第1のレベルおよび第2のレベルの混入率に基づいて、上述の角度検出された境界線の切片が検出される。ここで、切片とは境界線の画素枠との交点の座標をいう。この切片によって、境界線の画素上の位置が特定される。   In this case, for example, the angle of the boundary line is detected based on the difference between the data value of the pixel at the edge position and the data value of the pixel located in the vicinity thereof. Further, based on the mixing ratio of the first level and the second level corresponding to the data value of the pixel at the edge position, the above-described angle-detected boundary line intercept is detected. Here, the intercept refers to the coordinates of the intersection point with the pixel frame of the boundary line. The position of the boundary line on the pixel is specified by this intercept.

各エッジ位置の画素のそれぞれに対応して生成された境界線が連結されて、静止画像における第1のレベルの領域と第2のレベルの領域との境界を示すアウトラインが求められる。例えば、各エッジ位置の画素に対応した境界線の方向はそれぞれ左側または右側にデータ値の高い画素が存在するように設定され、第1の境界線に連結される第2の境界線はこの第1の境界線の終点に最も近い始点を持つ境界線とされる。   The boundary lines generated corresponding to the pixels at the respective edge positions are connected to obtain an outline indicating the boundary between the first level region and the second level region in the still image. For example, the direction of the boundary line corresponding to the pixel at each edge position is set such that a pixel with a high data value exists on the left side or the right side, and the second boundary line connected to the first boundary line is the first boundary line. It is assumed that the boundary line has the start point closest to the end point of one boundary line.

このように、第1、第2のレベル間のレベルを持つ各エッジ位置の画素に対応して、エッジ位置およびその周辺の画素のデータ値に基づき、画素内における第1、第2のレベル領域の境界を示す境界線が生成され、その後に各境界線が連結されてアウトラインが求められるものであり、画素単位ではなく実数精度でアウトラインが作成される。   As described above, the first and second level regions in the pixel corresponding to the pixel at each edge position having a level between the first and second levels, based on the data value of the edge position and the surrounding pixels. A boundary line indicating the boundary is generated, and then each boundary line is connected to obtain an outline, and an outline is created with real number accuracy instead of pixel units.

例えば、このように作成されたアウトラインに基づいて、画素数を増加した静止画像のデータが生成される。この場合、作成されたアウトラインにより静止画像における第1のレベルの領域と第2のレベルの領域との境界が実数精度で示されるため、画素数の増加時におけるアウトライン部分でそのレベルが第1のレベルおよび第2のレベルの中間値となる画素の個数を少なくでき、アウトライン部分が明瞭な拡大画像が得られる。   For example, still image data with an increased number of pixels is generated based on the outline thus created. In this case, since the boundary between the first level region and the second level region in the still image is indicated with real number accuracy by the generated outline, the level is the first level in the outline portion when the number of pixels is increased. The number of pixels that are intermediate values between the level and the second level can be reduced, and an enlarged image with a clear outline can be obtained.

この発明によれば、第1、第2のレベル間のレベルを持つ各エッジ位置の画素に対応して、エッジ位置およびその周辺の画素のデータ値に基づき、画素内における第1、第2のレベル領域の境界を示す境界線を生成し、それら生成された各境界線を連結してアウトラインを求めるものであり、画素単位ではなく実数精度でアウトラインを作成できる。   According to the present invention, corresponding to the pixel at each edge position having a level between the first and second levels, the first and second pixels in the pixel are based on the data values of the edge position and the surrounding pixels. A boundary line indicating the boundary of the level region is generated, and the generated boundary lines are connected to obtain an outline, and an outline can be created with real number accuracy instead of pixel units.

以下、図面を参照しながら、この発明の実施の形態について説明する。図1は、実施の形態としての画像処理装置100の構成を示している。この画像処理装置100は、CPU(Central Processing Unit)101と、ROM(Disk ReadOnly Memory)102と、RAM(Random Access Memory)103と、画像メモリ104と、マウスあるいはキーボードなどのユーザ操作部105と、スキャナ106と、カメラ107と、ディスプレイ108と、プリンタ109とが、バス110に接続されて構成されている。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of an image processing apparatus 100 as an embodiment. The image processing apparatus 100 includes a CPU (Central Processing Unit) 101, a ROM (Disk Read Only Memory) 102, a RAM (Random Access Memory) 103, an image memory 104, a user operation unit 105 such as a mouse or a keyboard, A scanner 106, a camera 107, a display 108, and a printer 109 are configured by being connected to a bus 110.

CPU101は、装置全体の動作を制御する。ROM102は、CPU101の動作に必要なプログラムおよびデータを格納している。RAM103は、CPU101の作業領域等を構成している。スキャナ106およびカメラ107は静止画像データの入力部を構成している。また、ディスプレイ108およびプリンタ109は、静止画像データの出力部を構成している。ここで、静止画像データは複数の画素データからなる白黒の画像データであって、各画素データはそれぞれ例えば0〜255の値をとる8ビットデータである。   The CPU 101 controls the operation of the entire apparatus. The ROM 102 stores programs and data necessary for the operation of the CPU 101. The RAM 103 constitutes a work area of the CPU 101 and the like. The scanner 106 and the camera 107 constitute a still image data input unit. The display 108 and the printer 109 constitute an output unit for still image data. Here, the still image data is monochrome image data composed of a plurality of pixel data, and each pixel data is 8-bit data having a value of 0 to 255, for example.

図1に示す画像処理装置100においては、スキャナ106あるいはカメラ107で得られる静止画像データは、ユーザ操作部105のよるユーザ操作に対応して、CPU101により処理される。そして、処理後の静止画像データがディスプレイ108あるいはプリンタ109に供給され、画像表示あるいは印画される。   In the image processing apparatus 100 shown in FIG. 1, still image data obtained by the scanner 106 or the camera 107 is processed by the CPU 101 in response to a user operation by the user operation unit 105. Then, the processed still image data is supplied to the display 108 or the printer 109 and displayed or printed.

ここで、静止画像データに対するCPU101の処理として、画像を拡大する処理が行われる。この画像拡大処理では、ユーザ操作で指定された拡大率に対応して、拡大対象の画像領域に対応した画素数が拡大率に応じて増加される。例えば、拡大率が2であるときは、1/2の画像領域が拡大対象とされ、その画像領域に対応した画素数が2倍に増加される。   Here, as the processing of the CPU 101 for still image data, processing for enlarging an image is performed. In this image enlargement process, the number of pixels corresponding to the image area to be enlarged is increased in accordance with the enlargement ratio in accordance with the enlargement ratio designated by the user operation. For example, when the enlargement ratio is 2, a 1/2 image area is set as an enlargement target, and the number of pixels corresponding to the image area is doubled.

CPU101は、この画像拡大処理を行うために、アウトライン作成部と、データ生成部とを構成している。アウトライン作成部は、画像メモリ104に蓄積されている処理前の静止画像データに基づいて、第1のレベルとしての黒レベルの領域と、第2のレベルとしての白レベルの領域との境界を求める。また、データ作成部は、アウトライン作成部で作成されたアウトラインに基づいて、拡大対象の画像領域の画素数を増加して拡大画像用の静止画像データを生成する。   The CPU 101 constitutes an outline creation unit and a data generation unit in order to perform this image enlargement process. The outline creation unit obtains a boundary between the black level area as the first level and the white level area as the second level based on the still image data before processing stored in the image memory 104. . Further, the data creation unit increases the number of pixels in the image region to be enlarged based on the outline created by the outline creation unit, and generates still image data for the enlarged image.

図2は、アウトライン作成部200の機能ブロックを示している。このアウトライン作成部200は、エッジ検出部201と、画素切り出し部202と、境界線角度検出部203と、境界線切片検出部204と、連結処理部205とを有している。境界線角度検出部203および境界線切片検出部204は、境界線生成部を構成している。   FIG. 2 shows functional blocks of the outline creation unit 200. The outline creation unit 200 includes an edge detection unit 201, a pixel cutout unit 202, a boundary line angle detection unit 203, a boundary line segment detection unit 204, and a connection processing unit 205. The boundary line angle detection unit 203 and the boundary line segment detection unit 204 constitute a boundary line generation unit.

エッジ検出部201は、静止画像を構成する各画素より、黒レベルと白レベルとの間のレベルを持つエッジ位置の画素を検出する。ここでは、黒レベルのデータ値を「0」、白レベルのデータ値を「255」とし、「1」〜「254」のデータ値を持つ画素はエッジ位置の画素として検出される。なお、黒レベルは「0〜10」、白レベルは「245〜255」のように、黒レベルおよび白レベルに所定の幅を持たせるようにしてもよい。   The edge detection unit 201 detects a pixel at an edge position having a level between the black level and the white level from each pixel constituting the still image. Here, a black level data value is “0”, a white level data value is “255”, and a pixel having a data value of “1” to “254” is detected as a pixel at an edge position. Note that the black level and the white level may have predetermined widths such as “0 to 10” for the black level and “245 to 255” for the white level.

画像切り出し部202は、エッジ検出部201で検出された各エッジ位置にそれぞれ対応して、このエッジ位置の画素およびその周辺に位置する画素を切り出す。図3は、静止画像の画素構造を示しており、水平方向がN画素、垂直方向がM画素となるように、マトリクス状に画素は配置されている。   The image cutout unit 202 cuts out the pixel at the edge position and the pixels located in the vicinity thereof corresponding to each edge position detected by the edge detection unit 201. FIG. 3 shows a pixel structure of a still image. The pixels are arranged in a matrix so that the horizontal direction is N pixels and the vertical direction is M pixels.

図4Aは、切り出される画素の一例を示している。この場合、エッジ位置の画素d0と、この画素d0に対して垂直方向の上下それぞれ隣接する画素d3,d4と、この画素d0に対して水平方向の左右にそれぞれ隣接する画素d2,d1が切り出される。
FIG. 4A shows an example of a pixel to be cut out. In this case, the pixel d0 edge position, and the pixel d3, d4 respectively adjacent in the vertical direction perpendicular to the pixel d0, excised pixel d2, d1 respectively adjacent to the left and right horizontal direction with respect to the pixel d0 It is.

境界線角度検出部203は、各エッジ位置の画素に対応して、エッジ位置の画素のデータ値と、その周辺に位置する画素のデータ値との差に基づいて、画素内における黒レベルの領域と白レベルの領域との境界を示す境界線の角度を検出する。この場合、図4Bに示すように、水平方向成分d2−d1(=d2−d0+d0−d1)および垂直方向成分d4−d3(=d4−d0+d0−d3)からなる、差ベクトルVCの方向に90度だけ加算した角度(波線矢印で図示)が境界線の角度となる。   The boundary line angle detection unit 203 corresponds to the pixel at each edge position, based on the difference between the data value of the pixel at the edge position and the data value of the pixel located at the periphery thereof, and a black level region in the pixel The angle of the boundary line indicating the boundary between the white level region and the white level region is detected. In this case, as shown in FIG. 4B, the horizontal direction component d2-d1 (= d2-d0 + d0-d1) and the vertical direction component d4-d3 (= d4-d0 + d0-d3) are 90 degrees in the direction of the difference vector VC. The angle obtained by adding only (shown by the wavy arrow) is the angle of the boundary line.

境界線切片検出部204は、各エッジ位置の画素に対応して、エッジ位置の画素のデータ値に対応した黒レベルおよび白レベルの混入率に基づいて、図4Cに示すように、境界線角度検出部203で検出された角度にある境界線の切片、つまり境界線の画素枠との交点の座標(xs,ys),(xe,ye)を検出する。この場合、境界線で仕切られる正方形画素の黒レベル領域Sbと白レベル領域Swとの面積比が、上述した黒レベルおよび白レベルの混入率に対応した値となるようにする。   As shown in FIG. 4C, the boundary line intercept detection unit 204 corresponds to the pixel at each edge position, and based on the black level and white level mixing rate corresponding to the data value of the pixel at the edge position, The intercept of the boundary line at the angle detected by the detection unit 203, that is, the coordinates (xs, ys), (xe, ye) of the intersection with the pixel frame of the boundary line are detected. In this case, the area ratio between the black level region Sb and the white level region Sw of the square pixels partitioned by the boundary line is set to a value corresponding to the above-described mixing ratio of the black level and the white level.

これにより、各エッジ位置の画素のそれぞれに対応して、画素内における黒レベル領域と白レベル領域との境界を示す境界線BLが生成される。この境界線BLは、エッジ位置の画素内における黒レベルの領域と白レベルの領域との境界を示すものとなる。なお、この境界線BLの方向は、左側または右側、この実施の形態では右側にデータ値の高い画素が存在するように設定される。このとき、図4Cに示すように、座標(xs,ys)は境界線BLの始点となり、座標(xe,ye)は境界線BLの終点となる。   Thus, a boundary line BL indicating the boundary between the black level region and the white level region in the pixel is generated corresponding to each pixel at each edge position. This boundary line BL indicates the boundary between the black level region and the white level region in the pixel at the edge position. Note that the direction of the boundary line BL is set so that pixels with a high data value exist on the left side or the right side, in this embodiment, on the right side. At this time, as shown in FIG. 4C, the coordinates (xs, ys) become the start point of the boundary line BL, and the coordinates (xe, ye) become the end point of the boundary line BL.

連結処理部205は、上述した境界線生成部(境界線角度検出部203および境界線切片部204)で生成された各エッジ位置の画素の境界線を連結して、静止画像における黒レベルの領域と白レベルの領域との境界を示すアウトラインを求める。この場合、図5Aに示すように、第1の境界線BLに連結する第2の境界線BLを、この第1の境界線の終点に最も近い始点を持つ境界線とする。   The connection processing unit 205 connects the boundary lines of the pixels at the respective edge positions generated by the above-described boundary line generation unit (the boundary line angle detection unit 203 and the boundary line intercept unit 204), thereby obtaining a black level region in the still image. An outline indicating the boundary between the white level region and the white level region is obtained. In this case, as shown in FIG. 5A, the second boundary line BL connected to the first boundary line BL is a boundary line having a start point closest to the end point of the first boundary line.

なお、図5Aでは、第1の境界線BLの終点と第2の境界線BLの始点とが接続されている。しかし、これら終点および始点の座標は一致しないことが多い。したがって、この連結処理の段階では、図5Bに示すように、連結すべき2つの境界線BLの中点同士が直線BL′で接続されていく。この場合、この直線BL′がアウトラインを構成することになる。   In FIG. 5A, the end point of the first boundary line BL and the start point of the second boundary line BL are connected. However, the coordinates of these end points and start points often do not match. Therefore, in this connection processing stage, as shown in FIG. 5B, the midpoints of the two boundary lines BL to be connected are connected by a straight line BL ′. In this case, this straight line BL ′ constitutes an outline.

図2に示すアウトライン作成部200の動作を、図6〜図8のフローチャートに沿って説明する。   The operation of the outline creating unit 200 shown in FIG. 2 will be described along the flowcharts of FIGS.

図6は、アウトライン作成処理の処理手順を示している、ステップST1で、処理を開始し、ステップST2で、各エッジ位置の画素に対応した境界線BLを生成する。次に、ステップST3で、ステップST2で生成された各境界線BLを連結してアウトラインを求め、その後にステップST4で、処理を終了する。   FIG. 6 shows the processing procedure of the outline creation process. In step ST1, the process is started, and in step ST2, the boundary line BL corresponding to the pixel at each edge position is generated. Next, in step ST3, the boundary lines BL generated in step ST2 are connected to obtain an outline, and then the process is ended in step ST4.

図7は、図6のステップST2における境界線生成処理の処理手順の詳細を示している。ステップST11で、処理を開始し、ステップST12で、画面上の左上の画素d(0,0)を注目画素に設定する(図3参照)。そして、ステップST13で、注目画素がエッジ位置の画素か否かを判定する。この場合、注目画素のデータ値が、黒レベルのデータ値「0」および白レベルのデータ値「255」の間のデータ値であるときは、エッジ位置の画素と判定する。   FIG. 7 shows details of the processing procedure of the boundary line generation processing in step ST2 of FIG. In step ST11, the process is started, and in step ST12, the upper left pixel d (0,0) on the screen is set as a target pixel (see FIG. 3). In step ST13, it is determined whether or not the target pixel is a pixel at the edge position. In this case, when the data value of the target pixel is a data value between the black level data value “0” and the white level data value “255”, the pixel is determined to be the pixel at the edge position.

ここで、図9に示すような文字画像を静止画像の一例として説明する。図10は、図9の一部(矢印Pで図示)を拡大して示したものであり、付された数値は各画素のデータ値を示している。この例の場合、「65」、「233」、「29」、「201」、「2」、「138」、「63」、「225」、「12」「144」のデータ値の画素は、エッジ位置の画素となる。   Here, a character image as shown in FIG. 9 will be described as an example of a still image. FIG. 10 is an enlarged view of a part of FIG. 9 (illustrated by an arrow P), and the attached numerical values indicate the data values of the respective pixels. In this example, pixels having data values of “65”, “233”, “29”, “201”, “2”, “138”, “63”, “225”, “12” “144” are The pixel at the edge position.

注目画素がエッジ位置の画素であるときは、ステップST14で、境界線角度および境界線切片を検出して、注目画素の境界線を生成する。まず、注目画素(エッジ位置の画素)のデータ値と、その周辺に位置する画素のデータ値との差に基づいて、境界線の角度を検出する(図4A,B参照)。例えば、図10に矢印Qで示している、データ値が「138」である画素が注目画素であるとき、d0=138、d1=、d2=255、d3=、d4=255であり、差ベクトルVCの水平方向成分d2−d1=255、差ベクトルの垂直方向成分d4−d3=253であって、境界線の角度は図11に矢印Rで示すように、ほぼ右下45度の角度となる。
When the target pixel is a pixel at the edge position, in step ST14, the boundary line angle and the boundary line intercept are detected, and the boundary line of the target pixel is generated. First, the angle of the boundary line is detected based on the difference between the data value of the target pixel (the pixel at the edge position) and the data value of the pixel located in the vicinity thereof (see FIGS. 4A and 4B). For example, when a pixel whose data value is “138” indicated by an arrow Q in FIG. 10 is a target pixel, d0 = 138, d1 = 0 , d2 = 255, d3 = 2 , d4 = 255, The horizontal direction component d2-d1 = 255 of the difference vector VC, the vertical direction component d4-d3 = 253 of the difference vector, and the angle of the boundary line is an angle of approximately 45 degrees to the lower right as indicated by an arrow R in FIG. It becomes.

次に、注目画素(エッジ位置の画素)のデータ値に対応した黒レベルおよび白レベルの混入率に基づいて、境界線の切片を検出する(図4C参照)。例えば、データ値が「138」である画素が注目画素であるとき、黒レベル「0」が46%混入し、白レベル「255」が54%混入したものである。そのため、正方形画素の黒レベル領域Sbと白レベル領域Swとの面積比が46:54となるように切片を検出する。   Next, the intercept of the boundary line is detected based on the black level and white level mixing rate corresponding to the data value of the pixel of interest (the pixel at the edge position) (see FIG. 4C). For example, when a pixel whose data value is “138” is the target pixel, 46% of black level “0” is mixed and 54% of white level “255” is mixed. Therefore, the intercept is detected so that the area ratio between the black level region Sb and the white level region Sw of the square pixel is 46:54.

このステップST14の処理の後にステップST15に進む。ステップST13で、注目画素がエッジ位置の画素でないときは、直ちにステップST15に進む。このステップST15では、ラスター順で、次の画素が存在するか否かを判定する。ここで、ラスター順とは、図3に示す画素構造で、d(0,0)→d(0,1)→・・・→d(0,N-1)→d(1,0)→d(1,1)→・・・→d(1,N-1)→・・・→d(M-2,0)→d(M-2,1)→・・・→d(M-2,N-1)→d(M-1,0)→d(M-1,1)→・・・→d(M-1,N-1)の順である。   After the process of step ST14, the process proceeds to step ST15. If the target pixel is not a pixel at the edge position in step ST13, the process immediately proceeds to step ST15. In step ST15, it is determined whether or not the next pixel exists in the raster order. Here, the raster order is the pixel structure shown in FIG. 3, and d (0,0) → d (0,1) →... → d (0, N−1) → d (1,0) → d (1,1) → ・ ・ ・ → d (1, N-1) → ・ ・ ・ → d (M-2,0) → d (M-2,1) → ・ ・ ・ → d (M- 2, N−1) → d (M−1,0) → d (M−1,1) →... → d (M−1, N−1).

次の画素が存在するときは、ステップST16で、次の画素を注目画素に設定し、その後にステップST13に戻り、上述したと同様の処理をする。一方、次の画素が存在しないときは、ステップST17で、処理を終了する。   When the next pixel exists, in step ST16, the next pixel is set as the target pixel, and then the process returns to step ST13 to perform the same processing as described above. On the other hand, when the next pixel does not exist, the process ends in step ST17.

図7のフローチャートに沿って境界線生成処理を行うことで、図12に示すように、各エッジ位置の画素に対応した境界線BLを生成できる。   By performing the boundary line generation process according to the flowchart of FIG. 7, as shown in FIG. 12, boundary lines BL corresponding to the pixels at the respective edge positions can be generated.

図8は、図6のステップST3における境界線連結処理の処理手順の詳細を示している。ステップST21で、処理を開始し、ステップST22で、画面上の左上の画素d(0,0)を注目画素に設定する(図3参照)。そして、ステップST23で、注目画素に境界線が存在するか否かを判定する。境界線が存在するときは、ステップST24で、その境界線は連結処理で使用済みか否かを判定する。使用済みでないときは、ステップST25で、注目画素を連結処理画素に設定する。   FIG. 8 shows details of the processing procedure of the boundary line connection processing in step ST3 of FIG. In step ST21, the process is started, and in step ST22, the upper left pixel d (0,0) on the screen is set as a target pixel (see FIG. 3). In step ST23, it is determined whether or not a boundary line exists in the target pixel. If there is a boundary line, it is determined in step ST24 whether the boundary line has been used in the connection process. If not used, the pixel of interest is set as a connected pixel in step ST25.

次に、ステップST26で、連結処理画素の近傍、例えば隣接する画素に連結可能な境界線があるか否かを判定する。連結可能な境界線があるときは、ステップST27で、連結処理画素の境界線を、その終点に最も近い始点を持つ境界線と連結する。そして、ステップST28で、連結した境界線に使用済みフラグをたて、その境界線を持つ画素を連結処理画素に設定して、その後にステップST26に戻って、上述したと同様の処理をする。   Next, in step ST26, it is determined whether there is a boundary line that can be connected to the vicinity of the connection processing pixel, for example, an adjacent pixel. If there is a connectable boundary line, in step ST27, the boundary line of the connection processing pixel is connected to the boundary line having the start point closest to the end point. In step ST28, a used flag is set for the connected boundary line, a pixel having the boundary line is set as a connection processing pixel, and then the process returns to step ST26 to perform the same processing as described above.

ステップST26で、連結可能な境界線がないときは、ステップST29で、一連の連結結果を形状として記憶し、その後にテップST30に進む。ステップST23で注目画素に境界線が存在しないとき、およびステップST24で境界線が使用済みであるとき、直ちに、ステップST30に進む。   If there is no boundary line that can be connected in step ST26, a series of connection results are stored as shapes in step ST29, and then the process proceeds to step ST30. When the boundary line does not exist in the pixel of interest in step ST23, and when the boundary line has been used in step ST24, the process immediately proceeds to step ST30.

このステップST30では、ラスター順で次の画素が存在するか否かを判定する。次の画素が存在するときは、ステップST31で、次の画素を注目画素に設定し、その後にステップST23に戻り、上述したと同様の処理をする。一方、次の画素が存在しないときは、ステップST32で、処理を終了する。   In this step ST30, it is determined whether or not the next pixel exists in the raster order. When the next pixel exists, in step ST31, the next pixel is set as the target pixel, and then the process returns to step ST23 to perform the same processing as described above. On the other hand, when the next pixel does not exist, the process ends in step ST32.

図8のフローチャートに沿って境界線連結処理を行うことで、各エッジ位置の画素の境界線の連結を行うことができ、静止画像における黒レベルと白レベルとの境界を示すアウトラインを実数精度で作成できる。図13は、図9の静止画像に対応したアウトラインの作成結果を示している。   By performing the boundary line connection process according to the flowchart of FIG. 8, the boundary lines of the pixels at the respective edge positions can be connected, and an outline indicating the boundary between the black level and the white level in the still image is obtained with real number accuracy. Can be created. FIG. 13 shows an outline creation result corresponding to the still image of FIG.

次に、上述したアウトライン作成部で作成されたアウトラインを用いて拡大画像用の静止画像データを生成するデータ作成部について説明する。このデータ作成部では、拡大率をERとするとき、1/ERの画像領域を拡大対象とする。例えば、ER=2であるときは、1/2の画像領域が拡大対象とされる。そして、このデータ作成部では、拡大対象の画像領域の画素数をER倍に増加して、拡大画像用の静止画像データを生成する。この拡大率は水平方向および垂直方向がそれぞれ独立して設定可能とされている。   Next, a data creation unit that generates still image data for an enlarged image using the outline created by the outline creation unit described above will be described. In this data creation unit, when the enlargement ratio is ER, the 1 / ER image area is to be enlarged. For example, when ER = 2, 1/2 of the image area is an enlargement target. In this data creation unit, the number of pixels in the image area to be enlarged is increased ER times to generate still image data for the enlarged image. This enlargement ratio can be set independently in the horizontal and vertical directions.

図14は、データ生成部300の機能ブロックを示している。このデータ生成部300は、画素数増加部301と、データ値決定部302とを有している。画素数増加部301は、拡大対象の画像領域の水平方向および垂直方向の画素数を、それぞれ、拡大率に応じて増加する。   FIG. 14 shows functional blocks of the data generation unit 300. The data generation unit 300 includes a pixel number increase unit 301 and a data value determination unit 302. The pixel number increasing unit 301 increases the number of pixels in the horizontal direction and the vertical direction of the image area to be enlarged according to the enlargement ratio.

データ値決定部302は、画素数増加後の各画素のデータ値を、アウトライン作成部で作成されたアウトラインの位置に応じて決定する。つまり、アウトラインが存在しない画素のデータ値を、その画素が黒レベル領域にあるときは「0」とし、その画素が白レベル領域にあるときは「255」に決定する。また、アウトラインが存在する画素のデータ値は、当該画素における黒レベル領域と白レベル領域との面積比に応じて決定する。この場合、白レベル領域の割合が高くなる程データ値は大きくなる。   The data value determining unit 302 determines the data value of each pixel after the increase in the number of pixels according to the position of the outline created by the outline creating unit. That is, the data value of a pixel that does not have an outline is determined as “0” when the pixel is in the black level region, and is determined as “255” when the pixel is in the white level region. Further, the data value of a pixel having an outline is determined according to the area ratio between the black level region and the white level region in the pixel. In this case, the data value increases as the ratio of the white level region increases.

図15を参照して、データ作成部の処理動作を説明する。図15Aは、画素数を増加する前の画素例を示しており、上述のアウトライン作成部では、データ値が「123」、「185」の画素はエッジ位置画素とされ、図15Bに示すように、黒レベル「0」の領域と白レベル「255」の領域との境界を示すアウトラインが作成される。データ生成部では、まず、図15Cに示すように、設定された拡大率に応じて水平方向および垂直方向の画素数が増加される。そして、図15Dに示すように、アウトラインの位置に応じて、各画素のデータ値が決定される。   The processing operation of the data creation unit will be described with reference to FIG. FIG. 15A shows an example of a pixel before increasing the number of pixels. In the outline creation unit described above, pixels with data values “123” and “185” are edge position pixels, as shown in FIG. 15B. Then, an outline indicating the boundary between the black level “0” region and the white level “255” region is created. In the data generation unit, first, as shown in FIG. 15C, the number of pixels in the horizontal direction and the vertical direction is increased according to the set enlargement ratio. Then, as shown in FIG. 15D, the data value of each pixel is determined according to the position of the outline.

図1に示す画像処理装置100によれば、CPU101で構成されるアウトライン作成部200(図2参照)は、黒レベルと白レベルとの間のレベルを持つ各エッジ位置の画素に対応して、エッジ位置およびその周辺の画素のデータ値に基づき、画素内における黒レベル領域と白レベル領域との境界を示す境界線BLを生成し(図4参照)、それら生成された各境界線を連結してアウトラインを求めるものであり(図5参照)、画素単位ではなく実数精度でアウトラインを作成できる。   According to the image processing apparatus 100 shown in FIG. 1, the outline creation unit 200 (see FIG. 2) configured by the CPU 101 corresponds to a pixel at each edge position having a level between a black level and a white level. Based on the edge position and the data values of the surrounding pixels, a boundary line BL indicating the boundary between the black level region and the white level region in the pixel is generated (see FIG. 4), and the generated boundary lines are connected. The outline can be obtained (see FIG. 5), and the outline can be created with real number accuracy instead of pixel units.

また、図1に示す画像処理装置100によれば、CPU101で構成されるデータ生成部300(図14参照)は、設定された拡大率で拡大対象の画像領域の画素数を増加したのち、アウトライン作成部200で作成されたアウトラインに基づいて各画素のデータ値を決定するものであり(図15参照)、当該アウトラインは静止画像における黒レベル領域と白レベル領域との境界を実数精度で示しているため、画素数の増加時におけるアウトライン部分でそのレベルが黒レベルおよび白レベルの中間値となる画素の個数を少なくでき、アウトライン部分が明瞭な拡大画像を得ることができる。   Further, according to the image processing apparatus 100 shown in FIG. 1, the data generation unit 300 (see FIG. 14) configured by the CPU 101 increases the number of pixels in the image area to be enlarged at the set enlargement rate, and then outlines the outline. The data value of each pixel is determined based on the outline created by the creation unit 200 (see FIG. 15), and the outline indicates the boundary between the black level region and the white level region in the still image with real number accuracy. Therefore, the number of pixels whose level is an intermediate value between the black level and the white level in the outline portion when the number of pixels increases can be reduced, and an enlarged image with a clear outline portion can be obtained.

例えば、図16Bは、図15Bに示すようなアウトラインを作成せずに、図16Aに示す画素(図15Aに示す画素と同じ)のみを用いて画素数を増加した場合の各画素のデータ値を示しているが、アウトライン部分における「0」と「255」の間のデータ値となる画素の個数は、図15Dに示すものに比べて多くなっている。   For example, FIG. 16B shows the data value of each pixel when the number of pixels is increased using only the pixel shown in FIG. 16A (same as the pixel shown in FIG. 15A) without creating the outline as shown in FIG. 15B. As shown, the number of pixels having a data value between “0” and “255” in the outline portion is larger than that shown in FIG. 15D.

図17Bは、図17Aの画像(図15A、図16Aに対応)に対応した拡大画像であって、アウトラインを作成した後にそれを用いて生成された拡大画像用の静止画像データによるものであり、アウトライン部分が明瞭な拡大画像となっている。これに対して、図18Bは、図18Aの画像(図15A、図16Aに対応)に対応した拡大画像であって、アウトラインを作成せずに生成された拡大画像用の静止画像データによるものであり、アウトライン部分が不明瞭でぼけた拡大画像となっている。 FIG. 17B is an enlarged image corresponding to the image of FIG. 17A (corresponding to FIG. 15A and FIG. 16A), and is based on the still image data for the enlarged image generated using the outline after it has been created. The outline is a clear enlarged image. On the other hand, FIG. 18B is an enlarged image corresponding to the image of FIG . 18A (corresponding to FIGS. 15A and 16A), and is based on still image data for an enlarged image generated without creating an outline. Yes, the outline is unclear and blurred.

なお、上述実施の形態においては、静止画像における黒レベルと白レベルとの境界を示すアウトラインを求めるものを示したが、この発明は、一般的に第1のレベルとこの第1のレベルより大きな第2のレベルとの境界を示すアウトラインを、同様にして求めることができる。   In the above-described embodiment, an example has been shown in which an outline indicating a boundary between a black level and a white level in a still image is obtained. However, the present invention is generally higher than the first level and the first level. An outline indicating the boundary with the second level can be obtained in the same manner.

また、上述実施の形態においては、画像拡大処理においてアウトラインを作成して用いるものを示したが、このように作成されたアウトラインは、スキャナ技術などのその他の用途にも用いることができることは勿論である。   In the above-described embodiment, the outline is created and used in the image enlargement process. However, the outline created in this way can be used for other applications such as scanner technology. is there.

この発明は、画素単位ではなく実数精度でアウトラインを作成できるものであり、画像の拡大処理を行う画像処理装置等に適用できる。   The present invention can create an outline with real number accuracy instead of pixel units, and can be applied to an image processing apparatus or the like that performs image enlargement processing.

実施の形態としての画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus as embodiment. アウトライン作成部の機能ブロックを示すブロック図である。It is a block diagram which shows the functional block of an outline creation part. 画素構造を示す図である。It is a figure which shows a pixel structure. 境界線角度および境界線切片の検出処理を説明するための図である。It is a figure for demonstrating the detection process of a boundary line angle and a boundary line intercept. 境界線の連結処理を説明するための図である。It is a figure for demonstrating the connection process of a boundary line. 境界線作成処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a boundary line preparation process. 境界線生成処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a boundary line production | generation process. 境界線連結処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a boundary line connection process. 静止画像の一例を示す図である。It is a figure which shows an example of a still image. 静止画像の一部を拡大し、エッジ位置の画素を示した図である。It is the figure which expanded a part of still image and showed the pixel of an edge position. 差ベクトルと境界線角度との関係を示す図である。It is a figure which shows the relationship between a difference vector and a boundary line angle. 各エッジ位置画素で生成された境界線を示した図である。It is the figure which showed the boundary line produced | generated by each edge position pixel. アウトラインの作成結果を示す図である。It is a figure which shows the creation result of an outline. データ生成部の機能ブロックを示すブロック図である。It is a block diagram which shows the functional block of a data generation part. データ作成部の処理を説明するための図である。It is a figure for demonstrating the process of a data preparation part. アウトラインを作成せずに画素数の増加を行った場合における各画素のデータ値を示す図である。It is a figure which shows the data value of each pixel when the number of pixels is increased without creating an outline. アウトライン作成による拡大画像の一例を示す図である。It is a figure which shows an example of the enlarged image by outline creation. アウトライン不作成による拡大画像の一例を示す図である。It is a figure which shows an example of the enlarged image by outline non-creation.

符号の説明Explanation of symbols

100・・・画像処理装置、101・・・CPU、102・・・ROM、103・・・RAM、104・・・画像メモリ、105・・・ユーザ操作部、106・・・スキャナ、107・・・カメラ、108・・・ディスプレイ、109・・・プリンタ、110・・・バス、200・・・アウトライン作成部、201・・・エッジ検出部、202・・・画素切り出し部、203・・・境界線角度検出部、204・・・境界線切片検出部、205・・・連結処理部、300・・・データ生成部、301・・・画素数増加部、302・・・データ値決定部   DESCRIPTION OF SYMBOLS 100 ... Image processing apparatus, 101 ... CPU, 102 ... ROM, 103 ... RAM, 104 ... Image memory, 105 ... User operation part, 106 ... Scanner, 107 ... -Camera, 108 ... Display, 109 ... Printer, 110 ... Bus, 200 ... Outline creation unit, 201 ... Edge detection unit, 202 ... Pixel cutout unit, 203 ... Border Line angle detection unit, 204 ... Boundary line segment detection unit, 205 ... Connection processing unit, 300 ... Data generation unit, 301 ... Pixel number increase unit, 302 ... Data value determination unit

Claims (4)

静止画像を構成する各画素より第1のレベルと該第1のレベルより大きな第2のレベルとの間のレベルを持つエッジ位置の画素を検出するエッジ検出部と、
上記エッジ検出部で検出された各エッジ位置の画素にそれぞれ対応して該エッジ位置の画素および該エッジ位置の画素の周辺に位置する画素を切り出す画素切り出し部と、
上記エッジ検出部で検出される各エッジ位置の画素のそれぞれに対応して、上記画素切り出し部で切り出された画素のデータ値に基づき、画素内における上記第1のレベルの領域と上記第2のレベルの領域との境界を示す境界線を生成する境界線生成部と、
上記エッジ検出部で検出された各エッジ位置の画素のそれぞれに対応して上記境界線生成部で生成された境界線を連結して、上記静止画像における上記第1のレベルの領域と上記第2のレベルの領域との境界を示すアウトラインを求める連結処理部とを備え
上記境界線生成部は、
上記エッジ位置の画素のデータ値と上記周辺に位置する画素のデータ値との差に基づいて上記境界線の角度を検出する境界線角度検出部と、
上記エッジ位置の画素のデータ値に対応した上記第1のレベルおよび上記第2のレベルの混入率に基づいて、上記境界線角度検出部で検出された角度の境界線の切片を検出する境界線切片検出部とからなり、
上記画素切り出し部は、
上記エッジ位置の画素に対して水平方向の左右にそれぞれ隣接する画素d2,d1と、上記エッジ位置の画素に対して垂直方向の上下にそれぞれ隣接する画素d3,d4とを切り出し、
上記境界線角度検出部は、
水平方向成分d2−d1および垂直方向成分d4−d3からなる差ベクトルの方向に90度だけ加算した角度を境界線の角度とす
ことを特徴とするアウトライン作成装置。
An edge detection unit that detects a pixel at an edge position having a level between a first level and a second level greater than the first level from each pixel constituting the still image;
A pixel cutout unit that cuts out the pixel at the edge position and the pixel located around the pixel at the edge position corresponding to the pixel at each edge position detected by the edge detection unit;
Corresponding to each pixel at each edge position detected by the edge detection unit, based on the data value of the pixel extracted by the pixel extraction unit, the first level region and the second level in the pixel A boundary line generation unit for generating a boundary line indicating a boundary with the level region;
The boundary lines generated by the boundary line generation unit corresponding to the pixels at the respective edge positions detected by the edge detection unit are connected, and the first level region and the second level in the still image are connected. and a link unit for obtaining the outline indicating a boundary between the level of the region,
The boundary line generation unit
A boundary angle detector that detects the angle of the boundary based on the difference between the data value of the pixel at the edge position and the data value of the pixel located in the periphery;
A boundary line for detecting the intercept of the boundary line of the angle detected by the boundary line angle detection unit based on the mixing ratio of the first level and the second level corresponding to the data value of the pixel at the edge position Consisting of a section detector,
The pixel cutout unit
Cut out pixels d2 and d1 that are adjacent to the pixel at the edge position in the horizontal direction and pixels d3 and d4 that are adjacent to the pixel at the edge position in the vertical direction;
The boundary angle detection unit is
Outline generating apparatus, characterized in that shall be the horizontal component d2-d1 and angular directions 90 degrees by adding angular boundaries of the difference vector of the vertical component d4-d3.
上記連結処理部は、
上記境界線生成部で生成される上記各エッジ位置の画素に対応した境界線の方向をそれぞれ左側または右側にデータ値の高い画素が存在するように設定し、
第1の境界線に連結する第2の境界線を、該第1の境界線の終点に最も近い始点を持つ境界線とする
ことを特徴とする請求項1に記載のアウトライン作成装置。
The connection processing unit
The direction of the boundary line corresponding to the pixel at each edge position generated by the boundary line generation unit is set so that pixels with high data values exist on the left side or the right side, respectively.
The outline creating apparatus according to claim 1, wherein the second boundary line connected to the first boundary line is a boundary line having a start point closest to an end point of the first boundary line.
静止画像を構成する各画素より第1のレベルと該第1のレベルより大きな第2のレベルとの間のレベルを持つエッジ位置の画素を検出するエッジ検出ステップと、
上記エッジ検出ステップで検出された各エッジ位置の画素にそれぞれ対応して該エッジ位置の画素および該エッジ位置の画素の周辺に位置する画素を切り出す画素切り出しステップと、
上記エッジ検出ステップで検出される各エッジ位置の画素のそれぞれに対応して、上記画素切り出しステップで切り出された画素のデータ値に基づき、画素内における上記第1のレベルの領域と上記第2のレベルの領域との境界を示す境界線を生成する境界線生成ステップと、
上記エッジ検出ステップで検出された各エッジ位置の画素のそれぞれに対応して、上記境界線生成部で生成された境界線を連結して上記静止画像における上記第1のレベルの領域と上記第2のレベルの領域との境界を示すアウトラインを求める連結処理ステップとを備え
上記境界線生成ステップは、
上記エッジ位置の画素のデータ値と上記周辺に位置する画素のデータ値との差に基づいて上記境界線の角度を検出する境界線角度検出ステップと、
上記エッジ位置の画素のデータ値に対応した上記第1のレベルおよび上記第2のレベルの混入率に基づいて、上記境界線角度検出ステップで検出された角度の境界線の切片を検出する境界線切片検出ステップとからなり、
上記画素切り出しステップでは、
上記エッジ位置の画素に対して水平方向の左右にそれぞれ隣接する画素d2,d1と、上記エッジ位置の画素に対して垂直方向の上下にそれぞれ隣接する画素d3,d4とを切り出し、
上記境界線角度検出ステップでは、
水平方向成分d2−d1および垂直方向成分d4−d3からなる差ベクトルの方向に90度だけ加算した角度を境界線の角度とす
ことを特徴とするアウトライン作成方法。
An edge detection step of detecting a pixel at an edge position having a level between a first level of each pixel constituting the still image and a second level larger than the first level;
A pixel cutout step of cutting out the pixel at the edge position and the pixel located around the pixel at the edge position corresponding to the pixel at each edge position detected in the edge detection step;
Corresponding to each pixel at each edge position detected in the edge detection step, based on the data value of the pixel extracted in the pixel extraction step, the first level region and the second level in the pixel A boundary generation step for generating a boundary line indicating a boundary with the level region;
Corresponding to each pixel at each edge position detected in the edge detection step, the boundary line generated by the boundary line generation unit is connected to connect the first level region and the second level in the still image. and a connecting process steps for obtaining the outline indicating a boundary between the level of the region,
The boundary generation step is
A boundary angle detection step for detecting an angle of the boundary line based on a difference between a data value of a pixel at the edge position and a data value of a pixel located at the periphery; and
A boundary line for detecting the intercept of the boundary line of the angle detected in the boundary line angle detection step based on the mixing ratio of the first level and the second level corresponding to the data value of the pixel at the edge position Section detection step,
In the pixel clipping step,
Cut out pixels d2 and d1 that are adjacent to the pixel at the edge position in the horizontal direction and pixels d3 and d4 that are adjacent to the pixel at the edge position in the vertical direction;
In the boundary angle detection step,
Outline generating method, characterized in that you angle obtained by adding 90 degrees in the direction of the difference vector comprised of the horizontal component d2-d1 and the vertical direction component d4-d3 and the angle of the boundary line.
複数の画素データより構成される静止画像データを入力するデータ入力部と、
上記データ入力部に入力された静止画像データに基づいて、上記静止画像における第1のレベルの領域と該第1のレベルより大きな第2のレベルの領域との境界を示すアウトラインを作成するアウトライン作成部と、
上記アウトライン作成部で作成されたアウトラインに基づいて、拡大対象の画像領域の画素数を増加して拡大画像用の静止画像データを生成するデータ生成部を有し、
上記アウトライン作成部は、
上記静止画像を構成する各画素より上記第1のレベルと上記第2のレベルとの間のレベルを持つエッジ位置の画素を検出するエッジ検出部と、
上記エッジ検出部で検出された各エッジ位置の画素にそれぞれ対応して該エッジ位置の画素および該エッジ位置の画素の周辺に位置する画素を切り出す画素切り出し部と、
上記エッジ検出部で検出される各エッジ位置の画素のそれぞれに対応して、上記画素切り出し部で切り出された画素のデータ値に基づき、画素内における上記第1のレベルの領域と上記第2のレベルの領域との境界を示す境界線を生成する境界線生成部と、
上記エッジ検出部で検出された各エッジ位置の画素のそれぞれに対応して上記境界線生成部で生成された境界線を連結して、上記静止画像における上記第1のレベルの領域と上記第2のレベルの領域との境界を示すアウトラインを求める連結処理部とを備え
上記境界線生成部は、
上記エッジ位置の画素のデータ値と上記周辺に位置する画素のデータ値との差に基づいて上記境界線の角度を検出する境界線角度検出部と、
上記エッジ位置の画素のデータ値に対応した上記第1のレベルおよび上記第2のレベルの混入率に基づいて、上記境界線角度検出部で検出された角度の境界線の切片を検出する境界線切片検出部とからなり、
上記画素切り出し部は、
上記エッジ位置の画素に対して水平方向の左右にそれぞれ隣接する画素d2,d1と、上記エッジ位置の画素に対して垂直方向の上下にそれぞれ隣接する画素d3,d4とを切り出し、
上記境界線角度検出部は、
水平方向成分d2−d1および垂直方向成分d4−d3からなる差ベクトルの方向に90度だけ加算した角度を境界線の角度とす
ことを特徴とする画像処理装置。
A data input unit for inputting still image data composed of a plurality of pixel data;
Outline creation for creating an outline indicating a boundary between a first level region and a second level region larger than the first level in the still image based on the still image data input to the data input unit And
Based on the outline created by the outline creation unit, a data generation unit that increases the number of pixels of the image region to be enlarged and generates still image data for the enlarged image,
The outline creation part
An edge detection unit for detecting a pixel at an edge position having a level between the first level and the second level from each pixel constituting the still image;
A pixel cutout unit that cuts out the pixel at the edge position and the pixel located around the pixel at the edge position corresponding to the pixel at each edge position detected by the edge detection unit;
Corresponding to each pixel at each edge position detected by the edge detection unit, based on the data value of the pixel extracted by the pixel extraction unit, the first level region and the second level in the pixel A boundary line generation unit for generating a boundary line indicating a boundary with the level region;
The boundary lines generated by the boundary line generation unit corresponding to the pixels at the respective edge positions detected by the edge detection unit are connected, and the first level region and the second level in the still image are connected. and a link unit for obtaining the outline indicating a boundary between the level of the region,
The boundary line generation unit
A boundary angle detector that detects the angle of the boundary based on the difference between the data value of the pixel at the edge position and the data value of the pixel located in the periphery;
A boundary line for detecting the intercept of the boundary line of the angle detected by the boundary line angle detection unit based on the mixing ratio of the first level and the second level corresponding to the data value of the pixel at the edge position Consisting of a section detector,
The pixel cutout unit
Cut out pixels d2 and d1 that are adjacent to the pixel at the edge position in the horizontal direction and pixels d3 and d4 that are adjacent to the pixel at the edge position in the vertical direction;
The boundary angle detection unit is
The image processing apparatus characterized by you angle obtained by adding 90 degrees in the direction of the difference vector comprised of the horizontal component d2-d1 and the vertical direction component d4-d3 and the angle of the boundary line.
JP2006146209A 2006-05-26 2006-05-26 Outline creation apparatus, creation method, and image processing apparatus Expired - Fee Related JP4770590B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006146209A JP4770590B2 (en) 2006-05-26 2006-05-26 Outline creation apparatus, creation method, and image processing apparatus
US11/748,868 US7957594B2 (en) 2006-05-26 2007-05-15 Outline definition apparatus and outline definition method, and image processing apparatus
CN2007101045917A CN101079150B (en) 2006-05-26 2007-05-25 Outline definition apparatus and outline definition method, and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006146209A JP4770590B2 (en) 2006-05-26 2006-05-26 Outline creation apparatus, creation method, and image processing apparatus

Publications (3)

Publication Number Publication Date
JP2007316964A JP2007316964A (en) 2007-12-06
JP2007316964A5 JP2007316964A5 (en) 2009-06-25
JP4770590B2 true JP4770590B2 (en) 2011-09-14

Family

ID=38749579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006146209A Expired - Fee Related JP4770590B2 (en) 2006-05-26 2006-05-26 Outline creation apparatus, creation method, and image processing apparatus

Country Status (3)

Country Link
US (1) US7957594B2 (en)
JP (1) JP4770590B2 (en)
CN (1) CN101079150B (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102855642B (en) * 2011-06-28 2018-06-15 富泰华工业(深圳)有限公司 The extracting method of image processing apparatus and its contour of object
US9053389B2 (en) * 2012-12-03 2015-06-09 Analog Devices, Inc. Hough transform for circles
CN107103865B (en) * 2017-04-10 2020-12-15 海信视像科技股份有限公司 Method and device for detecting display area in display screen
US11373404B2 (en) * 2018-05-18 2022-06-28 Stats Llc Machine learning for recognizing and interpreting embedded information card content

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0836641A (en) 1994-07-25 1996-02-06 Sony Corp Edge image data coding decoding method and device therefor
JP2001326807A (en) * 2000-05-17 2001-11-22 Dainippon Screen Mfg Co Ltd Image processing unit and recording medium
JP4178875B2 (en) 2002-08-22 2008-11-12 株式会社ニコン Mark position detection device, mark position detection method, overlay measurement device, and overlay measurement method
US7218763B2 (en) * 2003-02-27 2007-05-15 Eastman Kodak Company Method for automated window-level settings for magnetic resonance images

Also Published As

Publication number Publication date
US7957594B2 (en) 2011-06-07
CN101079150A (en) 2007-11-28
US20070274594A1 (en) 2007-11-29
JP2007316964A (en) 2007-12-06
CN101079150B (en) 2012-03-21

Similar Documents

Publication Publication Date Title
JP2812982B2 (en) Table recognition method
JP4770590B2 (en) Outline creation apparatus, creation method, and image processing apparatus
JPH0320882A (en) Method for displaying, extracting, and segmenting interested area
JP6337680B2 (en) Image processing system, image processing apparatus, program, and image processing method
JP4760550B2 (en) Image conversion apparatus and image conversion program
JPH06208625A (en) Method and device for processing image
CN110163829B (en) Image generation method, device and computer readable storage medium
JP2858530B2 (en) Edge enhancement device
US11640535B2 (en) Probability acquisition apparatus and probability acquisition method
CN112950514B (en) Image processing method and device, electronic equipment and readable storage medium
JP2000182056A (en) Picture processor
JP2009141525A (en) Apparatus and method of processing image
JP2005156206A (en) Crackwidth calculation method
JP4089924B2 (en) Image processing method and apparatus
JP2666552B2 (en) Line width control method for outline characters
JP2934011B2 (en) Image processing method and apparatus
JPH06215183A (en) Character recognizing device
JPH1049670A (en) Method for processing picture
JP2011033705A (en) Image processing device and image processing method
JP2022122703A (en) Program, information processing apparatus, and determination method
CN116758239A (en) Laser line processing method, device, computer equipment and storage medium
JP3089913B2 (en) High quality character output device
JP2009200923A (en) Image processing apparatus and program
JP2007280293A (en) Image processing apparatus and image processing method
JP3039699B2 (en) Image processing device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090513

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110606

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees