JPH09204529A - Image processor - Google Patents

Image processor

Info

Publication number
JPH09204529A
JPH09204529A JP8010244A JP1024496A JPH09204529A JP H09204529 A JPH09204529 A JP H09204529A JP 8010244 A JP8010244 A JP 8010244A JP 1024496 A JP1024496 A JP 1024496A JP H09204529 A JPH09204529 A JP H09204529A
Authority
JP
Japan
Prior art keywords
image
contour line
unit
input
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8010244A
Other languages
Japanese (ja)
Inventor
Akiteru Kimura
暁輝 木村
Yoshinobu Komata
芳信 小俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP8010244A priority Critical patent/JPH09204529A/en
Publication of JPH09204529A publication Critical patent/JPH09204529A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a nice-looking contour and also to effectively carry out the desired image processing in a short time by deciding the type of an input image and extracting the contour of the input image by means of the contour extraction method that is accordant with the type of the input image. SOLUTION: An original image is picked up by a digital still camera 60 and this picked up image is sent to a personal computer 69. The computer 69 displays the received original image on a display, etc., serving as an output device 67. An operator decides whether the displayed image is identical with a machine drawing, a landscape image or a figure image and then inputs this decision result via a mouse keyboard, etc., serving as an input device 68. An image type decision part 4 of a contour extraction mode selection part 3 sends the type signal of the image to be processed to a contour extraction part 8 together with the original image data. The part 8 decides the contour extraction method based on the inputted image type.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置に関
し、特に、デジタルスチルカメラあるいはスキャナ等で
入力された濃淡画像から輪郭線を抽出して、取り扱い説
明書やマニュアル等に利用する線図形を作成するための
画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly, to extracting a contour line from a grayscale image input by a digital still camera, a scanner or the like to create a line figure used for an instruction manual or a manual. The present invention relates to an image processing device.

【0002】[0002]

【従来の技術】デジタルスチルカメラあるいはスキャナ
等で入力された濃淡画像から輪郭線を抽出して、取り扱
い説明書やマニュアル等に利用する線図形を作成するた
めの技術として、特開昭61−175879号公報や特
開平1−295378号公報が開示されている。両者と
も、入力された原画像中のデータを所定の方向に微分し
て原画像の輪郭線を抽出するという方法をとっている。
2. Description of the Related Art As a technique for extracting a contour line from a grayscale image input by a digital still camera, a scanner or the like to create a line figure to be used in an instruction manual, a manual, etc., Japanese Patent Laid-Open No. 61-175879. Japanese Patent Laid-Open No. 1-295378 and Japanese Patent Laid-Open No. 1-295378 are disclosed. Both of them employ a method of differentiating the input data in the original image in a predetermined direction to extract the contour line of the original image.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記し
た従来技術はいずれも、入力された原画像がどのような
画像で、どのような性質を持ちあわせる画像であるのか
を考慮することなしに、単一の輪郭線抽出方法を用いて
輪郭線の抽出を行っているので、抽出された輪郭線画像
の見栄えが良くなかった。また、入力された原画像が大
きな画像であったり、原画像の枚数が非常に多い場合
は、処理時間が不必要に長くなったり、手間がかかった
りして効率的でなかった。
However, in any of the above-mentioned conventional techniques, it is not possible to simply consider what kind of image the input original image is and what kind of property it has. Since the contour line is extracted using one contour line extraction method, the appearance of the extracted contour line image is not good. In addition, when the input original image is a large image or the number of original images is very large, the processing time becomes unnecessarily long and time-consuming, which is not efficient.

【0004】本発明の画像処理装置はこのような課題に
着目してなされたものであり、その目的とするところ
は、見栄えの良い輪郭線画像が得られるとともに、所望
の画像処理を効率的に短時間で行なうことができる画像
処理装置を提供することにある。
The image processing apparatus of the present invention has been made in view of such a problem, and an object thereof is to obtain a contour line image having a good appearance and to efficiently perform desired image processing. An object of the present invention is to provide an image processing device that can be performed in a short time.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明の画像処理装置は、画像を入力するための
画像入力部と、この画像入力部から入力された入力画像
を表示するための画像表示部と、この画像表示部に表示
された入力画像から得られた情報に基づいて、入力画像
の種別を判定する種別判定手段と、この種別判定手段に
よる判定結果に応じた輪郭線抽出方法を用いて入力画像
の輪郭線を抽出する輪郭線抽出手段とを具備する。
In order to achieve the above object, the image processing apparatus of the present invention displays an image input section for inputting an image and an input image input from the image input section. For determining the type of the input image based on the information obtained from the input image displayed on the image display unit, and the contour line according to the determination result by the type determining unit. And a contour line extracting means for extracting the contour line of the input image by using the extraction method.

【0006】また、本発明の画像処理装置はさらに、前
記画像表示部に表示された前記入力画像に対して輪郭線
抽出を行うべき領域を指定するための処理領域指定部を
具備する。
Further, the image processing apparatus of the present invention further comprises a processing area designating section for designating an area where contour line extraction is to be performed on the input image displayed on the image display section.

【0007】また、前記種別判定手段は、入力画像をフ
ーリエ係数データに変換するためのフーリエ変換部と、
得られたフーリエ係数データをスペクトルデータに変換
するためのスペクトル演算部と、得られたスペクトルデ
ータと、入力画像を分類するためのテンプレートスペク
トルデータとの間の相関演算を行う相関演算部と、この
相関演算部によって算出された相関係数を判定するため
の相関係数判定部とを具備する。
Further, the type determining means includes a Fourier transform unit for converting an input image into Fourier coefficient data,
A spectrum calculation unit for converting the obtained Fourier coefficient data into spectrum data, a correlation calculation unit for performing a correlation calculation between the obtained spectrum data and the template spectrum data for classifying the input image, and And a correlation coefficient determining section for determining the correlation coefficient calculated by the correlation calculating section.

【0008】すなわち、本発明の画像処理装置は、画像
入力部から入力された入力画像を画像表示部に表示し、
表示された入力画像から得られた情報に基づいて、種別
判定手段によって入力画像の種別を判定する。そして、
この種別判定手段による判定結果に応じた輪郭線抽出方
法を用いて輪郭線抽出手段によって入力画像の輪郭線を
抽出するようにする。
That is, the image processing apparatus of the present invention displays the input image input from the image input section on the image display section,
The type determining means determines the type of the input image based on the information obtained from the displayed input image. And
The contour line extracting method extracts the contour line of the input image by using the contour line extracting method according to the determination result by the type determining means.

【0009】また、本発明の画像処理装置はさらに、前
記画像表示部に表示された処理領域指定部で前記入力画
像に対して輪郭線抽出を行うべき領域を指定するように
する。
Further, in the image processing apparatus of the present invention, the processing area designating section displayed on the image display section designates an area to be subjected to contour line extraction for the input image.

【0010】また、前記種別判定手段では、フーリエ変
換部において入力画像をフーリエ係数データに変換し、
得られたフーリエ係数データをスペクトル演算部におい
てスペクトルデータに変換し、得られたスペクトルデー
タと、入力画像を分類するためのテンプレートスペクト
ルデータとの間の相関演算を相関演算部において行な
い、算出された相関係数を相関係数判定部において判定
するようにする。
In the type determining means, the input image is converted into Fourier coefficient data in the Fourier transform section,
The obtained Fourier coefficient data is converted into spectrum data in the spectrum calculation unit, and the correlation calculation unit performs the correlation calculation between the obtained spectrum data and the template spectrum data for classifying the input image. The correlation coefficient is determined by the correlation coefficient determination unit.

【0011】[0011]

【発明の実施の形態】以下に本発明の実施形態を図面を
参照して詳細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0012】まず、図1を参照して本実施形態の概略を
説明する。画像入力部1から入力された画像は原画像表
示部2において表示される。オペレータはこの表示され
ている画像がどのような種類の画像であるのかを判断し
て、その判断結果を輪郭線抽出モード選択部3に入力す
る。輪郭線抽出モード選択部3は入力された判断結果に
基づいて入力画像の種別を判断して最適な輪郭線抽出モ
ードを選択する。輪郭線抽出部8は選択された輪郭線抽
出モードに適した輪郭線抽出方法で入力画像の輪郭線を
抽出して輪郭線画像を作成する。作成された輪郭線画像
は処理画像表示部9で表示される。
First, the outline of this embodiment will be described with reference to FIG. The image input from the image input unit 1 is displayed on the original image display unit 2. The operator determines what kind of image the displayed image is, and inputs the determination result to the contour line extraction mode selection unit 3. The contour line extraction mode selection unit 3 determines the type of the input image based on the input determination result and selects the optimum contour line extraction mode. The contour line extraction unit 8 extracts the contour line of the input image by a contour line extraction method suitable for the selected contour line extraction mode and creates a contour line image. The created contour image is displayed on the processed image display unit 9.

【0013】以下に本発明の第1実施形態を説明する。
図2は第1実施形態の構成を示す図である。デジタルス
チルカメラ60は図1の画像入力部1に対応し、スキャ
ナ等によっても構成することができる。出力デバイス6
7は図1の原画像表示部2、処理画像表示部9に対応
し、ディスプレイ等によって構成される。原画像表示部
2は画像入力部1によって入力された原画像を表示し、
処理画像表示部9は処理あるいは輪郭線抽出が行われた
処理画像を表示する。メモリ63は、輪郭線抽出モード
選択部3及び輪郭線抽出部8の処理手順を格納してい
る。輪郭線抽出モード選択部3と、輪郭線抽出部8と、
メモリ63と、フレームメモリ64とはパソコン69を
構成している。
The first embodiment of the present invention will be described below.
FIG. 2 is a diagram showing the configuration of the first embodiment. The digital still camera 60 corresponds to the image input unit 1 in FIG. 1 and can be configured by a scanner or the like. Output device 6
Reference numeral 7 corresponds to the original image display unit 2 and the processed image display unit 9 in FIG. 1, and is constituted by a display or the like. The original image display unit 2 displays the original image input by the image input unit 1,
The processed image display unit 9 displays the processed image that has been processed or contour line extracted. The memory 63 stores the processing procedures of the contour line extraction mode selection unit 3 and the contour line extraction unit 8. A contour line extraction mode selection unit 3, a contour line extraction unit 8,
The memory 63 and the frame memory 64 form a personal computer 69.

【0014】また、第1実施形態では、図1に示す輪郭
線抽出モード選択部3は図3に示すように、画像の種別
を判断するための画像種別判定部4を有している。この
画像種別判定部4が判断した結果として画像種別を表現
する種別信号a(5)、b(6)、c(7)を出力する
ことによって、原画像の種別の判定が行われる。また、
図1に示す輪郭線抽出部8は図4に示すように、種別信
号判定部10を有し、種別信号の判定が行われる。この
判定結果によって、(1) 画像の明るさ変化の微分値を利
用する微分処理部11、(2) 画像上での輪郭線付近の濃
淡パターンを想定したテンプレートにより、画像間との
相関値から輪郭要素を検出するテンプレート方法実行部
12、(3) 輪郭の点をガウス関数でぼかしてからグラジ
エントを計算して、ノイズ除去及び細線化を行うCan
nyの方法実行部13のうちいずれか1つの輪郭線抽出
部が選択されて実行される。なお、(1) の微分処理につ
いては、例えば画像解析ハンドブック,東京大学出版
会,1992,pp550−554に開示されている。
また、(2) のテンプレートの方法については、例えば画
像解析ハンドブック,東京大学出版会,1992,pp
554−555に開示されている。また、(3) のCan
nyの方法については、IEEE TRANSACTI
ONS ON PATTERN ANALYSIS A
ND MACHINE INTELLIGENCE,V
OL PAMI−8 NO.6,1986,pp679
−698に開示されている。
Further, in the first embodiment, the contour line extraction mode selection unit 3 shown in FIG. 1 has an image type determination unit 4 for determining the image type, as shown in FIG. The type of the original image is determined by outputting the type signals a (5), b (6), and c (7) expressing the image type as a result of the determination by the image type determination unit 4. Also,
As shown in FIG. 4, the contour line extraction unit 8 shown in FIG. 1 has a type signal determination unit 10 and determines the type signal. Based on this determination result, (1) the differential processing unit 11 that uses the differential value of the brightness change of the image, and (2) the template that assumes the grayscale pattern near the outline on the image Template Method Execution Unit 12 for Detecting Contour Elements, (3) Can which performs noise removal and thinning by blurring the contour points with a Gaussian function and then calculating the gradient
Any one of the ny method execution units 13 is selected and executed. The differential processing (1) is disclosed in, for example, the Image Analysis Handbook, The University of Tokyo Press, 1992, pp 550-554.
The template method of (2) is described in, for example, Image Analysis Handbook, The University of Tokyo Press, 1992, pp.
554-555. Moreover, Can of (3)
For ny's method, see IEEE TRANSACTI
ONS ON PATTERN ANALYSIS A
ND MACHINE INTELLIGENCE, V
OL PAMI-8 NO. 6,1986, pp679
-698.

【0015】以下に上記した構成の作用を述べる。ま
ず、図2において、デジタルスチルカメラ60によって
原画像が撮影される。撮影された原画像は記憶媒体61
に記憶される。この原画像はパソコン69に接続されて
いるデータ読み込み装置62によって読み込まれてパソ
コン69へと転送される。転送された原画像はフレーム
メモリ64に読み込まれ、出力デバイス67であるディ
スプレイ等に表示される。オペレータはディスプレイに
表示されている画像が機械図面であるのか、風景画像で
あるのか、人物画像であるのかを判断し、入力デバイス
68であるマウスやキーボード等によってその判断結果
を入力する。
The operation of the above configuration will be described below. First, in FIG. 2, an original image is captured by the digital still camera 60. The captured original image is the storage medium 61.
Is stored. This original image is read by the data reading device 62 connected to the personal computer 69 and transferred to the personal computer 69. The transferred original image is read into the frame memory 64 and displayed on the display or the like which is the output device 67. The operator determines whether the image displayed on the display is a mechanical drawing, a landscape image, or a person image, and inputs the determination result using the mouse, keyboard, or the like which is the input device 68.

【0016】輪郭線抽出モード選択部3内の画像種別判
定部4ではオペレータからの入力に応じて、処理すべき
画像の種別信号を種別信号a〜cとして原画像データと
共に輪郭線抽出部8に送る。輪郭線抽出部8ではまず、
種別信号判定部10によって種別信号の判定が行われ
る。種別信号aの時には手法1が選択され、原画像デー
タは微分処理部11へ送られて輪郭線抽出が行われる。
種別信号bの時には手法2が選択され、原画像データは
テンプレート方法実行部12へ送られて輪郭線抽出が行
われる。また種別信号cの時には手法3が選択され、原
画像データはCannyの手法実行部13へ送られて輪
郭線抽出が行われる。このように入力された画像の種別
に応じて輪郭線抽出方法が決定される。輪郭線抽出が行
われた画像データは再び出力デバイス67に送られディ
スプレイに表示される。また、輪郭線抽出が行われた画
像データは外部記憶装置66に転送され、処理結果の保
存が行われる。
In the image type determination unit 4 in the contour line extraction mode selection unit 3, in response to an input from the operator, the type signals of the images to be processed are sent to the contour line extraction unit 8 as the type signals a to c together with the original image data. send. In the contour line extraction unit 8, first,
The type signal determination unit 10 determines the type signal. When the type signal is a, the method 1 is selected, the original image data is sent to the differentiation processing section 11, and the contour line is extracted.
When the type signal is b, the method 2 is selected, the original image data is sent to the template method execution unit 12, and the contour line is extracted. When the type signal is c, the method 3 is selected, the original image data is sent to the Canny method execution unit 13, and the contour line is extracted. The contour line extraction method is determined according to the type of the image thus input. The image data from which the contour has been extracted is sent again to the output device 67 and displayed on the display. Further, the image data from which the contour line has been extracted is transferred to the external storage device 66, and the processing result is stored.

【0017】上記した第1実施形態では、デジタルスチ
ルカメラ60によって入力された原画像を出力デバイス
67に表示し、オペレータはこの表示画像を見て入力さ
れた画像の種別を確認した上で、入力デバイス68を用
いて画像の種別を入力する。そして、輪郭線抽出部8で
は種別信号に基づき原画像に適した輪郭線抽出方法を用
いて入力画像の輪郭線を抽出するようにしたので、抽出
された輪郭線画像の見栄えが良くなる。
In the above-described first embodiment, the original image input by the digital still camera 60 is displayed on the output device 67, the operator looks at the displayed image to confirm the type of the input image, and then the input image is input. The type of image is input using the device 68. Then, the contour line extraction unit 8 extracts the contour line of the input image by using the contour line extraction method suitable for the original image based on the type signal, so that the appearance of the extracted contour line image is improved.

【0018】以下に本発明の第2実施形態を説明する。
第2実施形態は図5に示すように、図1に示す原画像表
示部2と輪郭線抽出モード選択部3との間に処理領域指
定部14を設けた点が第1実施形態と異なる。
The second embodiment of the present invention will be described below.
As shown in FIG. 5, the second embodiment is different from the first embodiment in that a processing area designation unit 14 is provided between the original image display unit 2 and the contour line extraction mode selection unit 3 shown in FIG.

【0019】処理領域指定部14は例えば図2に示した
入力デバイス68であるマウスやキーボード等によって
原画像中に対して処理領域を指定するものである。
The processing area designating section 14 is for designating a processing area in the original image by a mouse, a keyboard or the like which is the input device 68 shown in FIG.

【0020】以下に第2実施形態の作用を説明する。図
2において、デジタルスチルカメラ60によって原画像
が撮影される。撮影された原画像は記憶媒体61に記憶
される。この原画像はパソコン69に接続されているデ
ータ読み込み装置62によって読み込まれてパソコン6
9へと転送される。転送された原画像はフレームメモリ
64に読み込まれ、出力デバイス67であるディスプレ
イ等に表示される。
The operation of the second embodiment will be described below. In FIG. 2, an original image is captured by the digital still camera 60. The captured original image is stored in the storage medium 61. This original image is read by the data reading device 62 connected to the personal computer 69 and is read by the personal computer 6.
9 is transferred. The transferred original image is read into the frame memory 64 and displayed on the display or the like which is the output device 67.

【0021】次に、図6に示すように、オペレータはデ
ィスプレイに表示されている原画像16に対して処理領
域15を入力デバイス68を用いて選択する。オペレー
タは続いて原画像が機械図面であるのか、人物画像であ
るのか、風景画像であるのかを判断し、入力デバイス6
8によってその判断結果を入力する。輪郭線抽出モード
選択部3内の画像種別判定部4ではオペレータの入力に
応じて、処理すべき画像の種別信号を種別信号a〜cと
して処理領域のデータと共に輪郭線抽出部8に送る。輪
郭線抽出部8ではまず、種別信号判定部10によって種
別信号の判定が行われる。種別信号aの時には手法1が
選択され、原画像データは微分処理部11へ送られて輪
郭線抽出が行われる。種別信号bの時には手法2が選択
され、原画像データはテンプレート方法実行部12へ送
られて輪郭線抽出が行われる。また、種別信号cの時に
は手法3が選択され、原画像データはCannyの手法
実行部13へ送られて輪郭線抽出が行われる。輪郭線抽
出が行われた処理領域データは再び出力デバイス67に
送られてディスプレイに表示される。また、輪郭線抽出
が行われた処理領域データは外部記憶装置66に転送さ
れて処理結果の保存が行われる。
Next, as shown in FIG. 6, the operator uses the input device 68 to select the processing area 15 for the original image 16 displayed on the display. The operator subsequently determines whether the original image is a mechanical drawing, a person image, or a landscape image, and the input device 6
The judgment result is input by 8. The image type determination unit 4 in the contour line extraction mode selection unit 3 sends the type signals of the images to be processed as the type signals a to c together with the data of the processing area to the contour line extraction unit 8 in response to the operator's input. In the contour line extraction unit 8, first, the type signal determination unit 10 determines the type signal. When the type signal is a, the method 1 is selected, the original image data is sent to the differentiation processing section 11, and the contour line is extracted. When the type signal is b, the method 2 is selected, the original image data is sent to the template method execution unit 12, and the contour line is extracted. Further, when the type signal is c, the method 3 is selected, the original image data is sent to the Canny's method execution unit 13, and the contour line is extracted. The processing area data from which the contour line has been extracted is sent again to the output device 67 and displayed on the display. Further, the processing area data from which the contour line has been extracted is transferred to the external storage device 66 and the processing result is stored.

【0022】上記した第2実施形態によれば、原画像中
から所定の領域を選択するようにしたのでオペレータは
必要な情報のみを得ることができる。また、原画像が非
常に大きな場合には所定の領域を選択することにより処
理すべき領域を制限することができるので処理時間を短
縮することができ効率的である。
According to the above-described second embodiment, since the predetermined area is selected from the original image, the operator can obtain only the necessary information. Further, when the original image is very large, the area to be processed can be limited by selecting a predetermined area, which can shorten the processing time and is efficient.

【0023】以下に本発明の第3実施形態を説明する。
第3実施形態は図7に示すように、図2に示す原画像表
示部2と輪郭線抽出モード選択部3の間に前処理部17
を設けた点が第1実施形態と異なる。
The third embodiment of the present invention will be described below.
In the third embodiment, as shown in FIG. 7, a preprocessing unit 17 is provided between the original image display unit 2 and the contour line extraction mode selection unit 3 shown in FIG.
The point that is provided is different from the first embodiment.

【0024】前処理部17では例えば入力された画像に
含まれるノイズの除去を行う。前処理部17で行うノイ
ズ除去方法は、平滑化フィルタ、ガウスフィルタ、フー
リエ変換を利用して高周波数成分をカットする方法、輪
郭線保存型平滑化などの少なくとも1つを用いる。平滑
化フィルタは注目画素を中心とした周辺領域の平均値を
求めて中心画素の値とする。ガウスフィルタは画像に対
して2次元のガウス関数で重みづけを行う。フーリエ変
換を利用して高周波数成分をカットする方法は、画像を
フーリエ変換してフーリエ平面で高周波数成分を遮断す
るようなフィルタをかけてそれをフーリエ逆変換する。
輪郭線保存型平滑化は、画像中の輪郭線情報を鮮鋭化し
たまま平滑化を行う。
The preprocessing section 17 removes noise contained in the input image, for example. As the noise removal method performed by the preprocessing unit 17, at least one of a smoothing filter, a Gaussian filter, a method of cutting high frequency components by using a Fourier transform, and contour line preserving smoothing is used. The smoothing filter obtains the average value of the peripheral area centered on the pixel of interest and sets it as the value of the central pixel. The Gaussian filter weights the image with a two-dimensional Gaussian function. The method of cutting the high frequency component by using the Fourier transform applies a Fourier transform to the image and applies a filter that cuts off the high frequency component in the Fourier plane, and inversely transforms it.
The contour-preserving smoothing is performed while sharpening the contour information in the image.

【0025】以下に第3実施形態の作用を説明する。図
2において、デジタルスチルカメラ60によって原画像
が撮影される。撮影された原画像は記憶媒体61に記憶
される。この原画像は、パソコン69に接続されている
データ読み込み装置62によって読み込まれてパソコン
69へと転送される。転送された原画像はフレームメモ
リ64に読み込まれ、出力デバイス67であるディスプ
レイ等に表示される。オペレータはディスプレイに表示
されている原画像16に対して入力デバイス68を用い
てノイズ除去方法を選択する。続いて原画像が機械図面
であるのか、人物画像であるのか、風景画像であるのか
を判断する。オペレータは入力デバイス68によってそ
の判断結果を入力する。
The operation of the third embodiment will be described below. In FIG. 2, an original image is captured by the digital still camera 60. The captured original image is stored in the storage medium 61. This original image is read by the data reading device 62 connected to the personal computer 69 and transferred to the personal computer 69. The transferred original image is read into the frame memory 64 and displayed on the display or the like which is the output device 67. The operator uses the input device 68 to select the noise removal method for the original image 16 displayed on the display. Then, it is determined whether the original image is a mechanical drawing, a person image, or a landscape image. The operator inputs the judgment result by the input device 68.

【0026】輪郭線抽出モード選択部3内の画像種別判
定部4ではオペレータの入力に応じて、処理すべき画像
の種別信号を種別信号a〜cとして処理領域のデータと
共に輪郭線抽出部8に送る。輪郭線抽出部8ではまず、
種別信号判定部10によって種別信号の判定が行われ
る。種別信号aの時には手法1が選択され、原画像デー
タは微分処理部11へ送られて輪郭線抽出が行われる。
種別信号bの時には手法2が選択され、原画像データは
テンプレート方法実行部12へ送られて輪郭線抽出が行
われる。また、種別信号cの時には手法3が選択され、
原画像データはCannyの手法実行部13へ送られて
輪郭線抽出が行われる。輪郭線抽出が行われた処理領域
データは再び出力デバイス67に送られてディスプレイ
に表示される。また、輪郭線抽出が行われた処理データ
は外部記憶装置66に転送され、処理結果の保存が行わ
れる。
In the image type determination unit 4 in the contour line extraction mode selection unit 3, the type signals of the image to be processed are sent to the contour line extraction unit 8 together with the data of the processing area as the type signals a to c in response to the operator's input. send. In the contour line extraction unit 8, first,
The type signal determination unit 10 determines the type signal. When the type signal is a, the method 1 is selected, the original image data is sent to the differentiation processing section 11, and the contour line is extracted.
When the type signal is b, the method 2 is selected, the original image data is sent to the template method execution unit 12, and the contour line is extracted. When the type signal is c, the method 3 is selected,
The original image data is sent to the Canny technique execution unit 13 to perform contour line extraction. The processing area data from which the contour line has been extracted is sent again to the output device 67 and displayed on the display. Further, the processing data from which the contour line has been extracted is transferred to the external storage device 66, and the processing result is stored.

【0027】上記した第3実施形態によれば、前処理部
17で入力画像に含まれるノイズを除去するようにした
ので、鮮鋭なノイズの少ない画像として出力画像を生成
できるようになり、輪郭線抽出後にオペレータの手作業
による補正の手間を大幅に削減することができる。
According to the above-described third embodiment, the noise contained in the input image is removed by the preprocessing unit 17, so that the output image can be generated as a sharp image with less noise, and the contour line can be generated. After the extraction, it is possible to greatly reduce the labor of the manual correction of the operator.

【0028】以下に本発明の第4実施形態を説明する。
図4実施形態は図8に示すように、図1に示す輪郭線抽
出部8と処理画像表示部9の間に後処理部40を設けた
点が第1実施形態と異なる。図9は後処理部40の構成
を示す図であり、輪郭線抽出部8によって輪郭線が抽出
された画像に対して、ノイズ除去、細線化、2値化の少
なくとも1つを実行するように構成されている。18は
ノイズ除去を行うか否かを選択する選択部を表し、19
はノイズ除去処理部を表している。ノイズ除去処理には
近傍領域での画素値の中央値を求めるメディアンフィル
タ、あるいはもとの図形を膨張、収縮させる方法である
イロージョン、ダイレーションを用いる。
The fourth embodiment of the present invention will be described below.
As shown in FIG. 8, the embodiment of FIG. 4 differs from the first embodiment in that a post-processing unit 40 is provided between the contour line extraction unit 8 and the processed image display unit 9 shown in FIG. FIG. 9 is a view showing the arrangement of the post-processing unit 40. At least one of noise removal, thinning, and binarization is executed on the image whose contour line has been extracted by the contour line extraction unit 8. It is configured. Reference numeral 18 denotes a selection unit for selecting whether or not to remove noise, and 19
Represents a noise removal processing unit. For the noise removal processing, a median filter for obtaining the median value of pixel values in the neighborhood area, or erosion or dilation which is a method of expanding or contracting the original figure is used.

【0029】20は細線化処理を行なうか否かを選択す
る選択部を表し、21は画像中の輪郭線情報を細線化す
る細線化処理部を表している。細線化処理には、多値画
像の場合には、注目画素での微分値を輪郭線に垂直な方
向に隣接する近傍要素の微分量と比較して、近傍のもの
より小さい微分値をもつ輪郭線を除去するnonmaximasup
pression 手法を用い、2値画像の場合には2値画像細
線化法を用いる。22は2値化を行うか否かを選択する
選択部を表し、23は画像を2値化する2値化処理部を
表している。2値化処理には、最適な閾値を求め、画像
の濃度ヒストグラムを2クラスに分割する2値化手法を
用いる。
Reference numeral 20 denotes a selection unit for selecting whether or not to perform thinning processing, and 21 denotes a thinning processing unit for thinning the contour line information in the image. In the thinning process, in the case of a multi-valued image, the differential value at the pixel of interest is compared with the differential amount of a neighboring element adjacent in the direction perpendicular to the contour line, and the contour having a smaller differential value than the neighboring Remove lines nonmaximasup
The compression method is used, and in the case of a binary image, the binary image thinning method is used. Reference numeral 22 represents a selection unit that selects whether or not to perform binarization, and 23 represents a binarization processing unit that binarizes the image. For the binarization processing, a binarization method is used in which an optimum threshold value is obtained and the density histogram of the image is divided into two classes.

【0030】以下に第4実施形態の作用を説明する。図
2において、デジタルスチルカメラ60によって原画像
が撮影される。撮影された原画像は記憶媒体61に記憶
される。この原画像は、パソコンに接続されているデー
タ読み込み装置62によって読み込まれてパソコン69
へと転送される。転送された原画像はフレームメモリ6
4に読み込まれ、出力デバイス67であるディスプレイ
等に表示される。オペレータはディスプレイに表示され
ている原画像16が機械図面であるか、人物画像である
のか、風景画像であるのか判断し、入力デバイス68を
用いて入力を行う。
The operation of the fourth embodiment will be described below. In FIG. 2, an original image is captured by the digital still camera 60. The captured original image is stored in the storage medium 61. This original image is read by the data reading device 62 connected to the personal computer and is read by the personal computer 69.
Is forwarded to. The transferred original image is the frame memory 6
4 and is displayed on the output device 67 such as a display. The operator determines whether the original image 16 displayed on the display is a mechanical drawing, a person image, or a landscape image, and makes an input using the input device 68.

【0031】画像種別判定部4ではオペレータの入力に
よって処理する画像の種別信号を種別信号a〜cとして
処理領域のデータと共に輪郭線抽出部8に送る。輪郭線
抽出部8ではまず、種別信号判定部10によって種別信
号の判定が行われる。種別信号aの時には手法1が選択
され、原画像データは微分処理部11へ送られて輪郭線
抽出が行われる。種別信号bの時には手法2が選択さ
れ、原画像データはテンプレート方法実行部12へ送ら
れて輪郭線抽出が行われる。また、種別信号cの時には
手法3が選択され、原画像データはCannyの手法実
行部13へ送られて輪郭線抽出が行われる。輪郭線抽出
が行われた画像に対してノイズ除去処理19が必要であ
る場合には、オペレータは入力デバイス68を用いて入
力し、ノイズ除去処理が行われる。
The image type determining unit 4 sends the type signals of the image to be processed by the operator's input to the contour line extracting unit 8 as the type signals a to c together with the data of the processing area. In the contour line extraction unit 8, first, the type signal determination unit 10 determines the type signal. When the type signal is a, the method 1 is selected, the original image data is sent to the differentiation processing section 11, and the contour line is extracted. When the type signal is b, the method 2 is selected, the original image data is sent to the template method execution unit 12, and the contour line is extracted. Further, when the type signal is c, the method 3 is selected, the original image data is sent to the Canny's method execution unit 13, and the contour line is extracted. When the noise removal processing 19 is necessary for the image from which the contour line has been extracted, the operator inputs it using the input device 68, and the noise removal processing is performed.

【0032】図10(a)、(b)、(c)は輪郭線抽
出とノイズ除去処理の様子を表す図である。図10
(a)に示すような濃度が異なる3つの領域A、B、C
からなる原画像に対して輪郭線抽出処理を行った画像が
図10(b)である。図10(b)の画像には概してノ
イズ(x印で示される部分)が含まれているため、後処
理でノイズ除去処理を行う必要がある。図10(c)は
図10(b)に対してノイズ除去処理を行った結果を表
している。
FIGS. 10A, 10B, and 10C are diagrams showing the states of contour line extraction and noise removal processing. FIG.
Three regions A, B, C having different densities as shown in (a)
FIG. 10B shows an image obtained by performing the contour line extraction process on the original image consisting of. Since the image in FIG. 10B generally includes noise (a portion indicated by an x mark), it is necessary to perform noise removal processing in post processing. FIG. 10C shows the result of the noise removal processing performed on FIG.

【0033】また、輪郭線抽出が行われた画像に対して
細線化処理部21での細線化が必要な場合には、オペレ
ータは入力デバイス68を用いて入力し、細線化処理が
行われる。図11(a)、(b)は細線化処理の様子を
表したものである。細線化を行う前の図11(a)では
抽出された輪郭線の線幅はまちまちであるが、細線化処
理によって図11(b)に示すように線幅を統一する事
ができる。また、輪郭線抽出が行われた画像に対して2
値化処理部23での2値化処理が必要である場合には、
オペレータは入力デバイス68を用いて入力し、2値化
処理が行われる。後処理が行われた処理データは再び出
力データ67に送られディスプレイに表示される。ま
た、処理データは外部記憶装置66に転送され、処理結
果の保存が行われる。
Further, when it is necessary for the thinning processing unit 21 to perform thinning on the image from which the contour has been extracted, the operator uses the input device 68 to input, and thinning processing is performed. 11A and 11B show the thinning process. Although the line width of the extracted contour line is different in FIG. 11A before performing the thinning, the line width can be unified as shown in FIG. 11B by the thinning process. In addition, it is 2
When the binarization processing in the binarization processing unit 23 is necessary,
The operator uses the input device 68 to input, and binarization processing is performed. The processed data subjected to the post-processing is sent again to the output data 67 and displayed on the display. Further, the processed data is transferred to the external storage device 66, and the processing result is stored.

【0034】上記した第4実施形態によれば、後処理部
17においてノイズ除去、細線化、2値化等の処理を選
択的に行なうようにしたので、鮮鋭なノイズの少ない画
像として出力画像を生成できるようになる。また、細線
化を行なうことによってイラスト画像の表現力を向上す
る。さらに2値化を行なうことによって画像保存時のデ
ータ量を削減できるようになる。
According to the above-described fourth embodiment, the post-processing unit 17 selectively performs noise removal, thinning, binarization, etc., so that the output image is a sharp image with little noise. Will be able to generate. In addition, the thinning of the line improves the expressiveness of the illustration image. Further, by performing binarization, it becomes possible to reduce the amount of data when saving an image.

【0035】以下に本発明の第5実施形態を説明する。
第5実施形態は第4実施形態の後処理部の構成を他の構
成に置き換えたものである。すなわち、図12におい
て、輪郭線抽出部6によって輪郭線が抽出された画像に
対してノイズ除去、細線化の少なくとも1つを実行した
後に、2値化処理部23で2値化処理を行い、さらに線
分成分補正部50で線分成分の補正を行うように構成す
る。
The fifth embodiment of the present invention will be described below.
In the fifth embodiment, the configuration of the post-processing unit of the fourth embodiment is replaced with another configuration. That is, in FIG. 12, at least one of noise removal and thinning is performed on the image from which the contour line is extracted by the contour line extraction unit 6, and then the binarization processing unit 23 performs binarization processing, Further, the line segment component correction unit 50 is configured to correct the line segment component.

【0036】図13は線分成分補正部50の構成を示し
ており、25は入力画像に対してハフ変換を行うための
ハフ変換部である。ハフ変換は図14に示すように原点
Oから線分kへおろした垂線ρの長さと、垂線ρとx軸
とのなす角θとして、画面上の座標を、ρ、θをパラメ
ータとして表すことができる。画像上の1点はρ−θ平
面(ハフ平面)では1本曲線を成し、またハフ平面上の
1点は画像上では1本の線分を表す。つまり両者にはρ
=xcosθ+ysinθという関係が成り立つ。
FIG. 13 shows the construction of the line segment component correction unit 50, and 25 is a Hough transform unit for performing Hough transform on the input image. In the Hough transform, as shown in FIG. 14, the length of the perpendicular line ρ drawn from the origin O to the line segment k and the angle θ formed by the perpendicular line ρ and the x-axis, the coordinates on the screen are expressed with ρ and θ as parameters. You can One point on the image forms one curve on the ρ-θ plane (Huff plane), and one point on the Huff plane represents one line segment on the image. In other words, for both
= Xcos θ + y sin θ holds.

【0037】ハフ平面上において、曲線が多く交差して
いる点が線分を表しているため、線分を抽出するために
閾値を設定する必要があるので、図13に示すように閾
値設定部27を設ける。28は閾値設定部27によって
抽出された値を基に画像データに変換する逆変換部であ
る。29は逆変換された画像から正確な線分を再現する
ための拘束条件設定部である。
On the Huff plane, a point where many curves intersect represents a line segment. Therefore, it is necessary to set a threshold value in order to extract the line segment. Therefore, as shown in FIG. 27 is provided. Reference numeral 28 is an inverse conversion unit that converts the value extracted by the threshold setting unit 27 into image data. Reference numeral 29 is a constraint condition setting unit for reproducing an accurate line segment from the inversely transformed image.

【0038】以下に、図15を用いて拘束条件設定部2
9の処理を説明する。図15(a)、(b)、(c)は
ハフ変換操作の一例を示す図である。図15(a)は輪
郭線抽出画像であり、線分、曲線などさまざまな成分が
含まれている。線分成分のみ抽出するために、ある閾値
を設定してハフ変換を行い、その結果を逆変換した結果
を図15(b)に示す。原画像の線分に対応する線分の
みを抽出するため拘束条件をつけることによって図15
(c)に示すように線分情報のみを抽出することができ
る。
The constraint condition setting unit 2 will be described below with reference to FIG.
The process of 9 will be described. 15A, 15B, and 15C are diagrams showing an example of the Hough transform operation. FIG. 15A is a contour line extraction image, which includes various components such as line segments and curves. In order to extract only the line segment components, a certain threshold value is set, Hough transform is performed, and the result of the inverse transform is shown in FIG. By attaching a constraint condition to extract only the line segment corresponding to the line segment of the original image, the line segment shown in FIG.
As shown in (c), only line segment information can be extracted.

【0039】図15(b)の線分A’B’は図15
(a)の原画像の線分ABに対応する。ここで原画像中
の点A、点Bはそれぞれ端点である。逆変換された画像
に、対応する原画像中の線分に基づいて端点情報を検出
してその情報を拘束条件とする方法を用いる。
The line segment A'B 'in FIG. 15B is shown in FIG.
This corresponds to the line segment AB of the original image in (a). Here, points A and B in the original image are end points. A method is used in which the endpoint information is detected in the inversely transformed image based on the line segment in the corresponding original image and the information is used as a constraint condition.

【0040】例えば、図15(d)の線分AB上の端点
A,端点Bから線分ABの中心座標C(x0,y0)を
計算する。端点A,端点Bの座標をA(x1,y1),
B(x2,y2)とすれば、AB線の中心座標Cはx0
=(x1+x2)/2,y0=(y1+y2)/2と計
算することができる。また、点Aと点Cの距離はD=
{(x0 −x1 )2 +(y0 −y1 )2 1/2 の式から
求めることができる。
For example, the center coordinates C (x0, y0) of the line segment AB are calculated from the end points A and B on the line segment AB in FIG. 15 (d). The coordinates of the end points A and B are A (x1, y1),
If B (x2, y2), the center coordinate C of the AB line is x0
= (X1 + x2) / 2, y0 = (y1 + y2) / 2 can be calculated. The distance between points A and C is D =
{(X0 -x1) 2 + ( y0 -y1) 2} can be obtained from the half of the equation.

【0041】ここで、図15(b)の線分A’B’上に
図15(d)の線分AB上の中心座標Cに対応する点を
C’とする。線分A’B’上の任意の点をE’(x,
y)とすると、線分C’E’の距離はD’={(x−x
0 )2 +(y−y0 )2 1/2と計算することができ
る。もし、D’がDより大きければ、原画像中E’は存
在しないので点Eは描かない。また、D’がD以下であ
る場合には原画像中E’が存在するものとして点Eを描
く。このような拘束条件をつけることによって、端点A
と端点Bの範囲内の線分のみが抽出される。このような
拘束条件をハフ変換によって抽出された線分全てに対し
て適応する事によって図15(c)のような画像が得ら
れる。
Here, the point corresponding to the center coordinate C on the line segment AB of FIG. 15D is defined as C ′ on the line segment A′B ′ of FIG. 15B. Let any point on the line segment A'B 'be E' (x,
y), the distance of the line segment C′E ′ is D ′ = {(xx
0) 2 + (y-y0 ) 2} can be calculated 1/2. If D ′ is larger than D, E ′ does not exist in the original image and the point E is not drawn. When D ′ is D or less, the point E is drawn as if the E ′ exists in the original image. By applying such a constraint condition, the end point A
And only the line segment within the range of the end point B is extracted. An image as shown in FIG. 15C is obtained by applying such a constraint condition to all the line segments extracted by the Hough transform.

【0042】上記した第5実施形態によれば、後処理部
40にハフ変換を用いる線分成分補正部50を設けたこ
とによって、撮像時に鮮明でない線分成分を補正するこ
とができるとともに、線分のみを抽出することができる
ようになる。
According to the fifth embodiment described above, by providing the post-processing unit 40 with the line-segment component correction unit 50 using Hough transform, it is possible to correct unclear line-segment components at the time of image pickup, and You will be able to extract only the minutes.

【0043】以下に本発明の第6実施形態を説明する。
第6実施形態は図1に示す輪郭線抽出モード選択部3の
構成として図16に示すような構成を用いる。
The sixth embodiment of the present invention will be described below.
The sixth embodiment uses the configuration shown in FIG. 16 as the configuration of the contour line extraction mode selection unit 3 shown in FIG.

【0044】図16において、原画像データはフーリエ
変換部29によってフーリエ係数データに変換される。
スペクトル演算部30ではフーリエ係数データをスペク
トルデータに変換する。相関演算部32はスペクトルデ
ータとテンプレートスペクトルデータ発生部31からの
テンプレートスペクトルデータとの相関係数を算出す
る。ここでは、テンプレートスペクトルデータを機械図
面用テンプレートデータ、人物画像用テンプレートデー
タ、風景画像用テンプレートデータと3つ用意してお
く。テンプレートスペクトルデータとしては、あらかじ
め用意しておいた複数枚の機械図面画像、人物画像、風
景画像からスペクトルデータを計算して、統計的に処理
した結果を用いる。相関演算部32において各画像ごと
に相関係数が計算され、得られた3つの相関係数が相関
係数判定部33へ送られる。
In FIG. 16, the original image data is converted into Fourier coefficient data by the Fourier transform unit 29.
The spectrum calculation unit 30 converts the Fourier coefficient data into spectrum data. The correlation calculator 32 calculates a correlation coefficient between the spectrum data and the template spectrum data from the template spectrum data generator 31. Here, three template spectrum data are prepared: mechanical drawing template data, portrait image template data, and landscape image template data. As the template spectrum data, the result of statistically processing the spectrum data calculated from a plurality of mechanical drawing images, portrait images, and landscape images prepared in advance is used. The correlation coefficient is calculated for each image in the correlation calculation unit 32, and the three obtained correlation coefficients are sent to the correlation coefficient determination unit 33.

【0045】相関係数判定部33では、図17に示すよ
うなテーブルを用いて相関係数を判定する。図17にお
いて、相関係数Aは機械図面用テンプレートデータと原
画像、相関係数Bは人物画像用テンプレートデータと原
画像、相関係数Cは風景画像用テンプレートデータと原
画像の演算結果をそれぞれ表している。(1)は相関係
数Aが最大でかつ0.5以上の時、判定結果はaとなり
種別信号aが輪郭線抽出部8へ送られる。(2)は相関
係数Bが最大でかつ0.5以上の時、判定結果はcとな
り種別信号bが輪郭線抽出部8へ送られる。(3)は相
関係数Cが最大でかつ0.5以上の時、判定結果はcと
なり種別信号cが輪郭線抽出部8へ送られる。(4)は
何れの相関係数も0.5に満たない場合で種別信号dが
輪郭線抽出部8へ送られる。
The correlation coefficient determination unit 33 determines the correlation coefficient using the table shown in FIG. In FIG. 17, a correlation coefficient A is the mechanical drawing template data and the original image, a correlation coefficient B is the human image template data and the original image, and a correlation coefficient C is the landscape image template data and the original image. It represents. In (1), when the correlation coefficient A is the maximum and is 0.5 or more, the determination result is a and the type signal a is sent to the contour line extraction unit 8. In (2), when the correlation coefficient B is the maximum and is 0.5 or more, the determination result is c, and the type signal b is sent to the contour line extraction unit 8. In (3), when the correlation coefficient C is maximum and is 0.5 or more, the determination result is c, and the type signal c is sent to the contour line extraction unit 8. In (4), when none of the correlation coefficients is less than 0.5, the type signal d is sent to the contour line extraction unit 8.

【0046】次に、輪郭線抽出部8(図4)ではまず、
種別信号判定部10において種別信号の判定が行われ
る。種別信号a及びdの時には手法1が選択され、原画
像データは微分処理部11へ送られて輪郭線抽出が行わ
れる。種別信号bの時には手法2が選択され、原画像デ
ータはテンプレート方法実行部12へ送られて輪郭線抽
出が行われる。また、種別信号cの時には手法3が選択
され、原画像データはCannyの手法実行部13へ送
られて輪郭線抽出が行われる。
Next, in the contour line extracting section 8 (FIG. 4), first,
The type signal determination unit 10 determines the type signal. When the type signals are a and d, the method 1 is selected, the original image data is sent to the differentiation processing unit 11, and the contour line is extracted. When the type signal is b, the method 2 is selected, the original image data is sent to the template method execution unit 12, and the contour line is extracted. Further, when the type signal is c, the method 3 is selected, the original image data is sent to the Canny's method execution unit 13, and the contour line is extracted.

【0047】なお、本実施形態ではテンプレートスペク
トルデータ31を3つに設定したが、画像の種別をより
細かく分類して、3つ以上のテンプレートスペクトルデ
ータ31を用意してもよい。
In this embodiment, the template spectrum data 31 is set to three, but the image types may be classified more finely to prepare three or more template spectrum data 31.

【0048】上記した第6実施形態では、フーリエ変換
部29とスペクトル演算部30によって原画像のスペク
トルデータを算出し、テンプレートスペクトルデータと
の相関係数を求めることによってその画像の種別を自動
的に判定し、その画像に適した輪郭線抽出法を選択し、
輪郭線抽出を行うようにしている。したがって、例え
ば、原画像の枚数が非常に多い場合には、オペレータは
処理する画像を指定するだけで自動的に画像の輪郭線を
抽出できるため、作業の効率が向上する。
In the sixth embodiment described above, the Fourier transform unit 29 and the spectrum calculation unit 30 calculate the spectrum data of the original image, and the correlation coefficient with the template spectrum data is obtained to automatically determine the type of the image. Judge, select the contour extraction method suitable for that image,
The contour line is extracted. Therefore, for example, when the number of original images is very large, the operator can automatically extract the contour line of the image only by designating the image to be processed, which improves the work efficiency.

【0049】以下に本発明の第7の実施形態を説明す
る。第7実施形態は第6実施形態で説明した輪郭線抽出
モード選択部3の代わりに図19に示すような構成を用
いる。図19において、原画像データはフーリエ変換部
29によってフーリエ係数データに変換される。スペク
トル演算部30ではフーリエ係数データをスペクトルデ
ータに変換する。スペクトルデータはブロック化部37
に入力されてブロック化処理が施される。
The seventh embodiment of the present invention will be described below. The seventh embodiment uses a configuration shown in FIG. 19 instead of the contour line extraction mode selection unit 3 described in the sixth embodiment. In FIG. 19, the original image data is converted into Fourier coefficient data by the Fourier transform unit 29. The spectrum calculation unit 30 converts the Fourier coefficient data into spectrum data. The spectrum data is blocked by the block unit 37.
Is input to and block processing is performed.

【0050】図18はブロック化処理の説明図である。
まず、スペクトルデータ38に対して周波数帯域の近い
4つのスペクトルの平均値を求める。ここでは4つの平
均を求めたがこれは4つに限られるものではなく、幾つ
でもかまわない。相関演算部32はスペクトルデータと
テンプレートスペクトルデータ発生部31からのテンプ
レートスペクトルデータとの相関係数を算出する。例え
ばテンプレートスペクトルデータとして機械図面用テン
プレートデータ、人物画像用テンプレートデータ、風景
画像用テンプレートデータと3つ用意しておくと、相関
係数は各画像ごとに計算され、得られた3つの相関係数
が相関係数判定部33へ送られる。
FIG. 18 is an explanatory diagram of the blocking process.
First, with respect to the spectrum data 38, the average value of four spectra having close frequency bands is obtained. Here, four averages are obtained, but the number is not limited to four, and any number may be used. The correlation calculator 32 calculates a correlation coefficient between the spectrum data and the template spectrum data from the template spectrum data generator 31. For example, if three template spectrum data, machine drawing template data, portrait image template data, and landscape image template data, are prepared, the correlation coefficient is calculated for each image, and the three obtained correlation coefficients are obtained. Is sent to the correlation coefficient determination unit 33.

【0051】相関係数判定部33では、図17に示すテ
ーブルを用いて相関係数を判定する。相関係数Aは機械
図面用テンプレートデータと原画像、相関係数Bは人物
画像用テンプレートデータと原画像、相関係数Cは風景
画像用テンプレートデータと原画像の演算結果を表して
いる。(1)は相関係数Aが最大でかつ0.5以上の
時、判定結果はaとなり種別信号aが輪郭線抽出部8へ
送られる。(2)は相関係数Bが最大でかつ0.5以上
の時、判定結果はcとなり種別信号bが輪郭線抽出部8
へ送られる。(3)は相関係数Cが最大でかつ0.5以
上の時、判定結果はcとなり種別信号cが輪郭線抽出部
8へ送られる。(4)は何れの相関係数も0.5に満た
ない場合で種別信号dが輪郭線抽出部8へ送られる。
The correlation coefficient determination unit 33 determines the correlation coefficient using the table shown in FIG. The correlation coefficient A represents the mechanical drawing template data and the original image, the correlation coefficient B represents the portrait image template data and the original image, and the correlation coefficient C represents the calculation result of the landscape image template data and the original image. In (1), when the correlation coefficient A is the maximum and is 0.5 or more, the determination result is a and the type signal a is sent to the contour line extraction unit 8. In (2), when the correlation coefficient B is the maximum and is 0.5 or more, the determination result is c and the type signal b is the contour line extraction unit 8
Sent to In (3), when the correlation coefficient C is maximum and is 0.5 or more, the determination result is c, and the type signal c is sent to the contour line extraction unit 8. In (4), when none of the correlation coefficients is less than 0.5, the type signal d is sent to the contour line extraction unit 8.

【0052】次に、輪郭線抽出部8(図4)ではまず、
種別信号判定部10において種別信号の判定が行われ
る。種別信号a及びdの時には手法1が選択され、原画
像データは微分処理11へ送られて輪郭線抽出が行われ
る。種別信号bの時には手法2が選択され、原画像デー
タはテンプレート方法実行部12へ送られて輪郭線抽出
が行われる。また、種別信号cの時には手法3が選択さ
れ、原画像データはCannyの手法実行部13へ送ら
れて輪郭線抽出が行われる。
Next, in the contour line extraction unit 8 (FIG. 4), first,
The type signal determination unit 10 determines the type signal. When the type signals are a and d, the method 1 is selected, the original image data is sent to the differentiating process 11, and the contour line is extracted. When the type signal is b, the method 2 is selected, the original image data is sent to the template method execution unit 12, and the contour line is extracted. Further, when the type signal is c, the method 3 is selected, the original image data is sent to the Canny's method execution unit 13, and the contour line is extracted.

【0053】上記した第7実施形態では原画像に対して
ブロック化を施すようにしたのでデータ数を削減するこ
とができる。したがって、相関演算を高速に行うことが
でき、処理時間を短縮することができる。
In the seventh embodiment described above, since the original image is divided into blocks, the number of data can be reduced. Therefore, the correlation calculation can be performed at high speed, and the processing time can be shortened.

【0054】なお、上記した具体的実施形態には以下の
構成を有する発明が含まれており、各構成の効果は次の
通りである。
The specific embodiments described above include inventions having the following configurations, and the effects of each configuration are as follows.

【0055】構成(1) 画像を入力するための画像入力部と、この画像入力部か
ら入力された入力画像を表示するための画像表示部と、
この画像表示部に表示された入力画像から得られた情報
に基づいて、入力画像の種別を判定する種別判定手段
と、この種別判定手段による判定結果に応じた輪郭線抽
出方法を用いて入力画像の輪郭線を抽出する輪郭線抽出
手段と、を具備することを特徴とする画像処理装置。
Structure (1) An image input section for inputting an image, an image display section for displaying an input image input from the image input section,
Based on the information obtained from the input image displayed on the image display unit, the input image is obtained by using a type determining means for determining the type of the input image and a contour line extracting method according to the determination result by the type determining means. An image processing apparatus, comprising: a contour line extracting unit that extracts the contour line of the image processing apparatus.

【0056】(効果)入力された原画像を画像表示部に
表示し、オペレータはこの表示画像を見て入力された画
像の種別を確認した上で、画像の種別を入力する。そし
て、輪郭線抽出部では種別信号に基づき原画像に適した
輪郭線抽出法を用いて入力画像の輪郭線を抽出するよう
にしたので、抽出された輪郭線画像の見栄えが良くな
る。
(Effect) The input original image is displayed on the image display section, and the operator looks at the displayed image to confirm the type of the input image, and then inputs the type of the image. Since the contour line extraction unit is configured to extract the contour line of the input image using the contour line extraction method suitable for the original image based on the type signal, the appearance of the extracted contour line image is improved.

【0057】構成(2) 前記画像表示部に表示された前記入力画像に対して輪郭
線抽出を行うべき領域を指定するための処理領域指定部
をさらに具備する構成(1)に記載の画像処理装置。
Structure (2) The image processing according to structure (1), further comprising a processing region designating unit for designating a region in which contour line extraction is to be performed on the input image displayed on the image display unit. apparatus.

【0058】(効果)原画像中から所定の領域を選択す
るようにしたのでオペレータは必要な情報のみを得るこ
とができる。また、原画像が非常に大きな場合には所定
の領域を選択することにより処理すべき領域を制限する
ことができるので処理時間を短縮することができ効率的
である。
(Effect) Since the predetermined area is selected from the original image, the operator can obtain only necessary information. Further, when the original image is very large, the area to be processed can be limited by selecting a predetermined area, which can shorten the processing time and is efficient.

【0059】構成(3) 前記種別判定手段によって入力画像の種別を判定するに
先だって、この入力画像中のノイズ成分を除去するため
の前処理部をさらに具備する構成(1)に記載の画像処
理装置。
Structure (3) The image processing according to structure (1), further comprising a pre-processing unit for removing a noise component in the input image before the type judging unit judges the type of the input image. apparatus.

【0060】(効果)前処理部で入力画像に含まれるノ
イズを除去するようにしたので、鮮鋭なノイズの少ない
画像として出力画像を生成できるようになり、輪郭線抽
出後にオペレータの手作業による補正の手間を大幅に削
減することができる。
(Effect) Since the noise contained in the input image is removed by the preprocessing unit, the output image can be generated as a sharp image with less noise, and the correction is manually performed by the operator after the contour line extraction. The labor of can be reduced significantly.

【0061】構成(4) 前記輪郭線抽出手段によって入力画像の輪郭線を抽出し
た後で、輪郭線が抽出された入力画像に対してノイズ除
去、細線化、2値化の少なくとも1つの処理を施す後処
理部をさらに具備する構成(1)に記載の画像処理装
置。
Structure (4) After the contour line of the input image is extracted by the contour line extraction means, at least one process of noise removal, thinning, and binarization is performed on the input image from which the contour line is extracted. The image processing apparatus according to (1), further including a post-processing unit that performs the processing.

【0062】(効果)後処理部においてノイズ除去、細
線化、2値化等の処理を選択的に行なうようにしたの
で、鮮鋭なノイズの少ない画像として出力画像を生成で
きるようになる。また、細線化を行なうことによってイ
ラスト画像の表現力が向上する。さらに2値化を行なう
ことによって画像保存時のデータ量を削減できるように
なる。
(Effect) Since noise removal, thinning, binarization and the like are selectively performed in the post-processing section, an output image can be generated as a sharp image with little noise. In addition, the expression of the illustration image is improved by performing the thinning. Further, by performing binarization, it becomes possible to reduce the amount of data when saving an image.

【0063】構成(5) 前記後処理部は線分成分を抽出して線分成分の補正を行
うための線分成分補正部を具備することを特徴とする構
成(4)に記載の画像処理装置。
Structure (5) The image processing according to structure (4), wherein the post-processing unit includes a line segment component correction unit for extracting a line segment component and correcting the line segment component. apparatus.

【0064】(効果)後処理部にハフ変換を用いる線分
成分補正部を設けたことによって、撮像時に鮮明でない
線分成分を補正することができるとともに、線分のみを
抽出することができるようになる。
(Effect) By providing a line segment component correction unit using Hough transform in the post-processing unit, it is possible to correct a line segment component which is not clear at the time of image pickup and to extract only the line segment. become.

【0065】構成(6) 前記種別判定手段は、入力画像をフーリエ係数データに
変換するためのフーリエ変換部と、得られたフーリエ係
数データをスペクトルデータに変換するためのスペクト
ル演算部と、得られたスペクトルデータと、入力画像を
分類するためのテンプレートスペクトルデータとの間の
相関演算を行う相関演算部と、この相関演算部によって
算出された相関係数を判定するための相関係数判定部
と、を具備する構成(1)に記載の画像処理装置。
Configuration (6) The type determining means is obtained by a Fourier transform unit for converting an input image into Fourier coefficient data, a spectrum operation unit for converting the obtained Fourier coefficient data into spectrum data, and And a correlation calculation unit for performing a correlation calculation between the template spectrum data for classifying the input image, and a correlation coefficient determination unit for determining the correlation coefficient calculated by the correlation calculation unit. The image processing device according to configuration (1), including:

【0066】(効果)フーリエ変換部とスペクトル演算
部によって原画像のスペクトルデータを算出し、テンプ
レートスペクトルデータとの相関係数を求めることによ
ってその画像の種別を自動的に判定し、その画像に適し
た輪郭線抽出法を選択し、輪郭線抽出を行うようにして
いる。したがって、例えば、原画像の枚数が非常に多い
場合には、オペレータは処理する画像を指定するだけで
自動的に画像の輪郭線を抽出できるため、作業の効率が
向上する。
(Effect) The spectrum data of the original image is calculated by the Fourier transform unit and the spectrum calculation unit, and the type of the image is automatically determined by obtaining the correlation coefficient with the template spectrum data, which is suitable for the image. The contour line extraction method is selected and the contour line is extracted. Therefore, for example, when the number of original images is very large, the operator can automatically extract the contour line of the image only by designating the image to be processed, which improves the work efficiency.

【0067】構成(7) 前記種別判定手段は、前記スペクトルデータをブロック
化するためのブロック化部を具備する構成(6)に記載
の画像処理装置。
Structure (7) The image processing apparatus according to structure (6), wherein the type determining means includes a blocking unit for blocking the spectrum data.

【0068】(効果)原画像に対してブロック化を施す
ようにしたのでデータ数を削減することができる。した
がって、相関演算を高速に行うことができ、処理時間を
短縮することができる。
(Effect) Since the original image is divided into blocks, the number of data can be reduced. Therefore, the correlation calculation can be performed at high speed, and the processing time can be shortened.

【0069】[0069]

【発明の効果】本発明によれば、見栄えの良い輪郭線画
像が得られるとともに、所望の画像処理を効率的に短時
間で行なうことができるようになる。
As described above, according to the present invention, a contour line image having a good appearance can be obtained, and desired image processing can be efficiently performed in a short time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施形態の概略を説明するための図である。FIG. 1 is a diagram for explaining the outline of the present embodiment.

【図2】本発明の第1実施形態の構成を示す図である。FIG. 2 is a diagram showing a configuration of a first exemplary embodiment of the present invention.

【図3】図2に示す輪郭線抽出モード選択部の構成を示
す図である。
FIG. 3 is a diagram showing a configuration of a contour line extraction mode selection unit shown in FIG.

【図4】図2に示す輪郭線抽出部の構成を示す図であ
る。
FIG. 4 is a diagram showing a configuration of a contour line extraction unit shown in FIG.

【図5】本発明の第2実施形態の構成を示す図である。FIG. 5 is a diagram showing a configuration of a second embodiment of the present invention.

【図6】処理領域を指定する様子を示す図である。FIG. 6 is a diagram showing how a processing area is designated.

【図7】本発明の第3実施形態の構成を示す図である。FIG. 7 is a diagram showing a configuration of a third exemplary embodiment of the present invention.

【図8】本発明の第4実施形態の構成を示す図である。FIG. 8 is a diagram showing a configuration of a fourth embodiment of the present invention.

【図9】図9に示す後処理部40の構成を示す図であ
る。
9 is a diagram showing a configuration of a post-processing unit 40 shown in FIG.

【図10】輪郭線抽出とノイズ除去処理の様子を表す図
である。
FIG. 10 is a diagram illustrating a state of contour line extraction and noise removal processing.

【図11】細線化処理の様子を示す図である。FIG. 11 is a diagram showing how thinning processing is performed.

【図12】本発明の第5実施形態における後処理部の構
成を示す図である。
FIG. 12 is a diagram showing a configuration of a post-processing unit in a fifth embodiment of the present invention.

【図13】本発明の第5実施形態において、線分成分補
正部の構成を示す図である。
FIG. 13 is a diagram showing a configuration of a line segment component correction unit in a fifth embodiment of the present invention.

【図14】ハフ変換について説明するための図である。FIG. 14 is a diagram for explaining Hough transform.

【図15】ハフ変換操作の一例を示す図である。FIG. 15 is a diagram showing an example of a Hough transform operation.

【図16】本発明の第6実施形態の構成を示す図であ
る。
FIG. 16 is a diagram showing a configuration of a sixth exemplary embodiment of the present invention.

【図17】相関係数判定に用いられるテーブルである。FIG. 17 is a table used for correlation coefficient determination.

【図18】ブロック化処理の説明図である。FIG. 18 is an explanatory diagram of blocking processing.

【図19】本発明の第7実施形態の構成を示す図であ
る。
FIG. 19 is a diagram showing a configuration of a seventh exemplary embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…画像入力部、2…原画像表示部、3…輪郭線抽出モ
ード選択部、8…輪郭線抽出部、9…処理画像表示部。
1 ... Image input unit, 2 ... Original image display unit, 3 ... Contour line extraction mode selection unit, 8 ... Contour line extraction unit, 9 ... Processed image display unit.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 画像を入力するための画像入力部と、 この画像入力部から入力された入力画像を表示するため
の画像表示部と、 この画像表示部に表示された入力画像から得られた情報
に基づいて、入力画像の種別を判定する種別判定手段
と、 この種別判定手段による判定結果に応じた輪郭線抽出方
法を用いて入力画像の輪郭線を抽出する輪郭線抽出手段
と、 を具備することを特徴とする画像処理装置。
1. An image input section for inputting an image, an image display section for displaying an input image input from the image input section, and an image obtained from the input image displayed on the image display section. A type determining means for determining the type of the input image based on the information; and a contour line extracting means for extracting the contour line of the input image by using the contour line extracting method according to the determination result by the type determining means. An image processing device characterized by:
【請求項2】 前記画像表示部に表示された前記入力画
像に対して輪郭線抽出を行うべき領域を指定するための
処理領域指定部をさらに具備することを特徴とする請求
項1記載の画像処理装置。
2. The image according to claim 1, further comprising a processing region designating unit for designating a region in which contour line extraction is to be performed on the input image displayed on the image display unit. Processing equipment.
【請求項3】 前記種別判定手段は、 入力画像をフーリエ係数データに変換するためのフーリ
エ変換部と、 得られたフーリエ係数データをスペクトルデータに変換
するためのスペクトル演算部と、 得られたスペクトルデータと、入力画像を分類するため
のテンプレートスペクトルデータとの間の相関演算を行
う相関演算部と、 この相関演算部によって算出された相関係数を判定する
ための相関係数判定部と、 を具備することを特徴とする請求項1記載の画像処理装
置。
3. The type determining means includes a Fourier transform unit for converting an input image into Fourier coefficient data, a spectrum calculation unit for converting the obtained Fourier coefficient data into spectrum data, and the obtained spectrum. A correlation calculation unit that performs a correlation calculation between the data and the template spectrum data for classifying the input image; and a correlation coefficient determination unit that determines the correlation coefficient calculated by this correlation calculation unit. The image processing apparatus according to claim 1, further comprising:
JP8010244A 1996-01-24 1996-01-24 Image processor Pending JPH09204529A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8010244A JPH09204529A (en) 1996-01-24 1996-01-24 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8010244A JPH09204529A (en) 1996-01-24 1996-01-24 Image processor

Publications (1)

Publication Number Publication Date
JPH09204529A true JPH09204529A (en) 1997-08-05

Family

ID=11744902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8010244A Pending JPH09204529A (en) 1996-01-24 1996-01-24 Image processor

Country Status (1)

Country Link
JP (1) JPH09204529A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8994815B2 (en) 2010-01-22 2015-03-31 Hitachi High—Technologies Corporation Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device
US9702695B2 (en) 2010-05-27 2017-07-11 Hitachi High-Technologies Corporation Image processing device, charged particle beam device, charged particle beam device adjustment sample, and manufacturing method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8994815B2 (en) 2010-01-22 2015-03-31 Hitachi High—Technologies Corporation Method of extracting contour lines of image data obtained by means of charged particle beam device, and contour line extraction device
US9702695B2 (en) 2010-05-27 2017-07-11 Hitachi High-Technologies Corporation Image processing device, charged particle beam device, charged particle beam device adjustment sample, and manufacturing method thereof

Similar Documents

Publication Publication Date Title
US9569827B2 (en) Image processing apparatus and method, and program
JP4480958B2 (en) Digital image creation method
KR100896643B1 (en) Method and system for modeling face in three dimension by means of aam, and apparatus applied to the same
US20210390282A1 (en) Training data increment method, electronic apparatus and computer-readable medium
JP2005293539A (en) Facial expression recognizing device
JP3438440B2 (en) Image processing device
Telea Feature preserving smoothing of shapes using saliency skeletons
CN104268845A (en) Self-adaptive double local reinforcement method of extreme-value temperature difference short wave infrared image
WO2017041552A1 (en) Texture feature extraction method and apparatus
JP3706755B2 (en) Image processing apparatus and method, and storage medium
JP3902887B2 (en) Lip extraction method
JP4804382B2 (en) Image processing method, image processing program, and image processing apparatus
JP4441300B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing the program
JP2007122101A (en) Image processor and image processing method
JP3636936B2 (en) Grayscale image binarization method and recording medium recording grayscale image binarization program
JPH09204529A (en) Image processor
JPH1125222A (en) Method and device for segmenting character
Gautam et al. A GUI for automatic extraction of signature from image document
JP2009271657A (en) Image processing method, image processor, and program thereof and computer-readable storage medium
JP2775122B2 (en) Automatic contour extraction vectorization processing method of illustration data and processing device used for the method
JPH11120331A (en) Method and device for marker area acquisition and area dividing device
JP2011188237A (en) Image processing method and image processing apparatus
JP2022147713A (en) Image generation device, learning device, and image generation method
JP4238323B2 (en) Image processing method and image processing apparatus
JP2960468B2 (en) Method and apparatus for binarizing grayscale image

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060523