JP2000216979A - Image extraction method and device and storage medium - Google Patents

Image extraction method and device and storage medium

Info

Publication number
JP2000216979A
JP2000216979A JP11014680A JP1468099A JP2000216979A JP 2000216979 A JP2000216979 A JP 2000216979A JP 11014680 A JP11014680 A JP 11014680A JP 1468099 A JP1468099 A JP 1468099A JP 2000216979 A JP2000216979 A JP 2000216979A
Authority
JP
Japan
Prior art keywords
value
point
distance
image
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11014680A
Other languages
Japanese (ja)
Inventor
Masakazu Matsugi
優和 真継
Toshiaki Kondo
俊明 近藤
Fumiaki Takahashi
史明 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP11014680A priority Critical patent/JP2000216979A/en
Priority to US09/488,792 priority patent/US6674905B1/en
Publication of JP2000216979A publication Critical patent/JP2000216979A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To highly accurately and quickly extract a subject with various images. SOLUTION: When the dispersion value of concentration values is a threshold or higher in the neighborhood of a reference point, it is judged that an image pattern has texture priority characteristics, and when the dispersion value is less than the threshold, it is decided that changes in the concentration values is smooth (S11). When the dispersion value is the threshold or higher (S11), a texture featured value is loaded (S12), and a featured value suitable for area growth (for example, texture energy) is calculated (S13), and a distance DT related to the texture featured value is calculated (S14). When the dispersion value is less than the threshold (S11), a color component featured value is loaded (S16), and a feature value suitable for area growth (for example, a featured vector calculated from local histogram related to the color components or the list of central color components or the like) is extracted (S17), and a distance DC related to the color components is calculated (S18). The area growth based on the corresponding featured value is operated (S15, S19), and an update position based on the new boundary line of a core area obtained by unifying the area growth results from each reference point is decided (S20).

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像抽出方法及び
装置並びに記憶媒体に関し、より具体的には、画像から
背景と分離して所望の被写体の図形又はパターンなどを
抽出又は検出する方法及び装置並びにその方法のプログ
ラム・ソフトウエアを記憶する記憶媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image extracting method and apparatus, and a storage medium, and more specifically, to a method and apparatus for extracting or detecting a desired figure or pattern of an object separately from a background from an image. And a storage medium for storing program software of the method.

【0002】[0002]

【従来の技術】従来、画像から特定の被写体を切り出す
方法として、ユーザが指定した物体又は背景上の点の画
素値を含む所定範囲の色成分値(又は濃淡値)を有する
領域を選択しながら、背景を除去又は抽出被写体の領域
指定を繰り返す方法(特開平8−7107号公報、特開
平8−16779号公報、特開平7−334675号公
報及び特公平7−34219号公報など)、及び、抽出
対象の輪郭線を含む大まかな粗輪郭線領域又は局所領域
を指定し、その指定領域内を細線化又はクラスタリング
して対象の境界輪郭線を求めて切り出す方法(特開平3
−240884号公報、特開平7−225847号公
報、特開平6−251149号公報、特開平7−107
266号公報、特開平8−7075号公報、特開平8−
77336号公報、特公平6−42068号公報及び特
公平8−20725号公報など)などがある。
2. Description of the Related Art Conventionally, as a method of cutting out a specific subject from an image, a region having a predetermined range of color component values (or shading values) including a pixel value of a point on an object or a background designated by a user is selected. A method of removing a background or repeatedly specifying an area of an extraction subject (JP-A-8-7107, JP-A-8-16779, JP-A-7-334675, and JP-B-7-34219, etc.); A method in which a rough rough contour region or a local region including a contour to be extracted is designated, and the designated region is thinned or clustered to obtain and cut out a target contour
-240884, JP-A-7-225847, JP-A-6-251149, JP-A-7-107
266, JP-A-8-7075, JP-A-8-7075
No. 77336, Japanese Patent Publication No. 6-42068, and Japanese Patent Publication No. 8-20725).

【0003】色成分のみを用いることにより、切り出し
対象の画像部分を大まかに囲むように閉曲線(又は多角
形の境界線)を設定するだけで対象物の形状にほぼ近い
切り出しマスク画像を生成する方法(特許264236
8号公報及び特開平7−322054号公報)も知られ
ている。
A method of generating a cut-out mask image that is almost similar to the shape of an object only by setting a closed curve (or a polygonal boundary line) so as to roughly surround an image portion to be cut out by using only color components (Patent 264236
No. 8 and Japanese Patent Application Laid-Open No. 7-322054) are also known.

【0004】更には、入力画像を類似色の領域又は類似
する空間周波数をもつ領域に分割し、ユーザが、この分
割された領域から抽出すべき領域からなる画像領域を選
び出す操作を行うことにより所望の対象画像を抽出する
方法(特開平6−149959号公報、特開平5−21
6992号公報及び特開平5−35868号公報)も、
知られている。
Further, the input image is divided into regions of similar colors or regions having similar spatial frequencies, and the user performs an operation of selecting an image region including a region to be extracted from the divided regions, thereby obtaining a desired image region. (See JP-A-6-149959 and JP-A-5-21)
6992 and JP-A-5-35868).
Are known.

【0005】[0005]

【発明が解決しようとする課題】所定範囲の色成分値を
有する領域を選択しながら抽出対象の領域を指定する方
法は、被写体が局所的に多くの色成分を有する領域から
なる場合、又は、背景と被写体との境界が低コントラス
トで画素性だけでは区別がつきにくい場合に、非常に多
くの手間(色成分選択範囲の指定と抽出対象内の点指定
など)を要する。特公平7−34219号公報に記載さ
れるように、抽出領域の大きさを任意に変更する手段を
備えることにより操作性を向上させたものでも、濃淡値
のみでは原理的に背景と抽出されるべき被写体とを区別
して抽出することは困難な場合がある。
A method of designating a region to be extracted while selecting a region having a predetermined range of color component values is performed in a case where a subject is locally composed of regions having many color components, or When the boundary between the background and the subject is low in contrast and cannot be easily distinguished only by pixel characteristics, it takes a great deal of trouble (designation of a color component selection range and designation of a point in an extraction target). As described in Japanese Patent Publication No. 7-34219, even if the operability is improved by providing a means for arbitrarily changing the size of the extraction area, the background is extracted in principle only with the grayscale values. In some cases, it is difficult to extract a target subject separately.

【0006】抽出対象の輪郭線を含む大まかな粗輪郭線
を指定する方法では、粗輪郭線の幅が小さい場合に、真
の輪郭線をはみ出さないように相当の注意力を以って粗
輪郭線を設定しなければならない。また、粗輪郭線の幅
が大きい場合には、細線化又はクラスタリング等により
対象物体の輪郭線を求めても、対象物体の境界が低コン
トラストの場合、及び粗輪郭線内の対象の輪郭が複雑な
形状を有する場合などには、真の輪郭を抽出することが
困難である。局所領域を指定してその中で領域分割又は
境界決定を行いながら、その局所領域を抽出対象の輪郭
線上をなぞるようにして移動させることにより境界線を
逐次、抽出する方法(特公平6−42068号公報、特
公平8−20725号公報及び特開平6−251149
号公報など)でもなお、ユーザの操作において相当の注
意力と手間を要する。
In the method of specifying a rough outline including an outline to be extracted, when the width of the outline is small, the coarse outline is taken with great care so as not to protrude from the true outline. Contour lines must be set. Further, when the width of the rough contour is large, even if the contour of the target object is obtained by thinning or clustering, if the boundary of the target object has a low contrast, and the contour of the target within the coarse contour is complicated. It is difficult to extract a true contour when the image has a complicated shape. A method of successively extracting a boundary line by designating a local region and moving the local region along an outline to be extracted while performing region division or boundary determination therein (Japanese Patent Publication No. 6-42068). JP, JP-B-8-20725 and JP-A-6-251149
Still require considerable attention and effort in user operations.

【0007】切り出し対象の画像部分を大まかに囲む閉
曲線(大まかに含む領域)を指定する方法では、閉曲線
内に含まれる同じ色成分を有する領域の面積の割合に基
づく方式(特許2642368号公報)でも、閉曲線内
の背景中に被写体と同色となる領域がある場合、及び、
閉曲線領域が切り出し対象領域と比べて2倍以上の面積
を有する場合などで、背景部分が抽出されるなどの誤抽
出を生じ易いという問題がある。
In the method of designating a closed curve (a region roughly including) that roughly encloses an image portion to be cut out, a method based on the area ratio of a region having the same color component included in the closed curve (Japanese Patent No. 2642368) is also used. When there is an area in the background within the closed curve that is the same color as the subject, and
There is a problem that erroneous extraction such as extraction of a background portion is liable to occur when the closed curve region has an area twice or more as large as the cutout target region.

【0008】予め色成分による領域分割と空間周波数成
分に基づく領域分割とを行った結果からユーザが抽出す
べき領域を選択する方法(特開平6−149959号公
報、特開平5−216992号公報及び特開平5−35
868号公報)では、最適な領域分割が行われなかった
場合に、抽出すべき領域に属する分割された小領域の数
が多くなり、ユーザによる選択の手間が多くなる。領域
分割の境界線が抽出対象の輪郭と一致しない場合には、
修整の手間がかかりすぎる。また、画像全体に対して演
算を行うので、本来不必要な背景部分での領域分割によ
り、処理負荷が不必要に過大となる場合があり、結果を
高速に得られない。
A method in which a user selects an area to be extracted from the result of area division based on color components and area division based on spatial frequency components in advance (JP-A-6-149959, JP-A-5-216992 and JP-A-5-35
868), when the optimal region division is not performed, the number of divided small regions belonging to the region to be extracted increases, and the user's labor for selection increases. If the boundary line of the area division does not match the contour to be extracted,
It takes too much work to fix. Further, since the calculation is performed on the entire image, the processing load may be unnecessarily excessive due to the region division in the background part which is originally unnecessary, and the result cannot be obtained at high speed.

【0009】本発明は、このような不都合を解消する画
像抽出方法及び装置並びに記憶媒体を提示することを目
的とする。
An object of the present invention is to provide an image extracting method and apparatus and a storage medium which solve such inconveniences.

【0010】すなわち、本発明は、より高速に所望の画
像を精度良く抽出できる画像抽出方法及び装置並びに記
憶媒体を提示することを目的とする。
[0010] That is, an object of the present invention is to provide an image extraction method and apparatus and a storage medium which can extract a desired image with high speed and high accuracy.

【0011】[0011]

【課題を解決するための手段】本発明に係る画像抽出方
法は、画像中に、所定の点、線分及び領域の少なくとも
1つによって指定される核を設定し、当該核を構成する
少なくとも一つの基準点からなる局所領域において、テ
クスチャ特徴量を含む評価関数を算出し、当該評価関数
の値に基づき当該核の形状を更新することにより当該画
像中の所定領域の境界線を定めることを特徴とする。
According to the image extracting method of the present invention, a nucleus specified by at least one of a predetermined point, a line segment and an area is set in an image, and at least one nucleus constituting the nucleus is set. In a local region including two reference points, an evaluation function including a texture feature amount is calculated, and a boundary of a predetermined region in the image is determined by updating the shape of the nucleus based on the value of the evaluation function. And

【0012】本発明に係る画像抽出装置は、画像中に所
定の点、線分及び領域の少なくとも1つによって指定さ
れる核を設定する設定手段と、当該核を構成する少なく
とも1つの基準点からなる局所領域において色成分の特
徴量とテクスチャ特徴量の少なくとも一方を含む所定の
評価関数の関数値を求める評価関数算出手段と、当該評
価関数の関数値に基づき当該核の形状を更新することに
より画像中の所定領域の境界線を定める境界線更新手段
とを具備することを特徴とする。
[0012] An image extracting apparatus according to the present invention comprises a setting means for setting a nucleus specified by at least one of a predetermined point, a line segment, and a region in an image, and at least one reference point constituting the nucleus. Evaluation function calculating means for obtaining a function value of a predetermined evaluation function including at least one of a feature amount of a color component and a texture feature amount in a local region, and updating the shape of the nucleus based on the function value of the evaluation function A boundary line updating unit that determines a boundary line of a predetermined area in the image.

【0013】このような構成により、一般に様々な模様
や色成分からなる画像から抽出対象となる領域を少ない
演算量でかつ高精度に一括抽出することが可能となる。
With such a configuration, generally, it is possible to collectively extract a region to be extracted from an image composed of various patterns and color components with a small amount of calculation and with high accuracy.

【0014】本発明に係る画像抽出方法はまた、画像中
に所定の点、線分及び領域の少なくとも1つによって指
定される核を設定する核設定ステップと、当該核上に設
定された代表点を基準点とする基準点設定ステップと、
所定の方法で与えられた着目点と当該基準点について色
成分の特徴量に基づく特徴空間内での2点間の第1の距
離と、テクスチャ特徴量に基づく特徴空間内の当該2点
間の第2の距離とを重み付け加算して得られる特徴量距
離に基づき当該基準点の近傍領域画像と当該着目点の近
傍領域画像との類似度を求める類似度算出ステップと、
当該類似度が所定の閾値より大きい場合に、当該着目点
又はその近傍領域を基準点を含む所定の抽出領域に併合
し、当該閾値以下でかつ当該着目点が当該抽出領域に含
まれる場合に当該該抽出領域から削除することにより、
当該抽出領域の境界線を更新する抽出領域更新ステップ
と、更新後の当該抽出領域の境界線を表示する境界線表
示ステップとからなることを特徴とする。
[0014] The image extracting method according to the present invention further includes a nucleus setting step of setting a nucleus specified by at least one of a predetermined point, a line segment, and a region in the image, and a representative point set on the nucleus. A reference point setting step with the reference point as
A first distance between two points in the feature space based on the feature amount of the color component for the point of interest and the reference point given by a predetermined method, and a first distance between the two points in the feature space based on the texture feature amount A similarity calculating step of calculating a similarity between the neighboring area image of the reference point and the neighboring area image of the target point based on the feature distance obtained by weighting and adding the second distance;
If the similarity is greater than a predetermined threshold, the point of interest or a nearby area is merged into a predetermined extraction area including a reference point, and if the point of interest is equal to or less than the threshold and the point of interest is included in the extraction area, By deleting from the extraction area,
The method is characterized by comprising an extraction area updating step of updating a boundary line of the extraction area, and a boundary line displaying step of displaying a boundary line of the updated extraction area.

【0015】この構成により、色成分特徴量の優位性と
テクスチャ成分特徴量の優位性を相対的に評価し、抽出
領域の境界線を確定させるのに必要かつ最適な特徴量を
生成することができる。その結果として、ユーザによる
操作の手間を最小限にとどめ、自動的に画像抽出を行う
ことが可能となる。
With this configuration, it is possible to relatively evaluate the superiority of the color component characteristic amount and the superiority of the texture component characteristic amount, and generate the necessary and optimal characteristic amount for determining the boundary of the extraction region. it can. As a result, it is possible to automatically perform image extraction while minimizing user's operations.

【0016】評価関数は、当該基準点近傍における当該
テクスチャ特徴量に関する所定の共起確率値の関数とし
て表わされ、当該評価関数の関数値が最大となる方向に
当該各基準点を所定量移動することにより当該核の形状
を更新する。これにより、抽出対象の境界をなす模様
(テクスチャ)の境界線を効率的にかつ高精度に求める
ことができる。
The evaluation function is expressed as a function of a predetermined co-occurrence probability value related to the texture feature amount in the vicinity of the reference point, and the reference point is moved by a predetermined amount in a direction in which the function value of the evaluation function is maximized. By doing so, the shape of the nucleus is updated. As a result, it is possible to efficiently and accurately determine the boundary of the pattern (texture) that forms the boundary of the extraction target.

【0017】評価関数は、テクスチャ特徴量の境界で最
小値を与える項を含む所定のエネルギ関数である。これ
により、いわゆる動的輪郭の手法をテクスチャ特徴空間
において適用し、抽出対象の輪郭線がテクスチャ境界に
相当する場合でもその輪郭線に自動収束する動的輪郭モ
デルを提供し、動的輪郭により画像(又は輪郭線)の自
動抽出が実行可能となる。
The evaluation function is a predetermined energy function including a term giving a minimum value at the boundary of the texture feature. This provides a dynamic contour model that applies the so-called active contour method in the texture feature space and automatically converges to the contour even when the contour to be extracted corresponds to the texture boundary. (Or an outline) can be automatically extracted.

【0018】抽出領域更新ステップは、当該閾値を当該
境界線の更新ごとに所定の方法で増加又は減少する閾値
更新ステップを含む。これにより、様々な模様や色成分
を含む画像から所望の対象の画像を自動又は半自動的に
抽出することができる。
The extraction area updating step includes a threshold updating step of increasing or decreasing the threshold value by a predetermined method every time the boundary line is updated. Thus, a desired target image can be automatically or semi-automatically extracted from an image including various patterns and color components.

【0019】当該閾値更新ステップは、当該抽出領域上
の所定の境界線上の点がエッジ点である割合を求めるエ
ッジ割合算出ステップと、当該エッジの割合の値及びそ
の変化率の一方に基づいて当該閾値を更新する。これに
より、様々な模様や色成分を含む画像から所望の対象の
画像を自動で抽出することができる。
The threshold updating step includes an edge ratio calculating step of calculating a ratio of a point on a predetermined boundary line on the extraction area as an edge point, and the edge ratio calculating step based on one of a value of the edge ratio and a change rate thereof. Update the threshold. Thus, a desired target image can be automatically extracted from an image including various patterns and color components.

【0020】エッジ割合の値が所定の基準値以上に達す
るか、又はエッジ割合の変化率の絶対値が所定の基準値
以下に達すると、抽出領域更新処理を自動停止する。こ
れにより、様々な模様や色成分を含む画像から所望の対
象の画像を自動で抽出することができる。
When the value of the edge ratio reaches a predetermined reference value or more, or when the absolute value of the change rate of the edge ratio reaches a predetermined reference value or less, the extraction area update processing is automatically stopped. Thus, a desired target image can be automatically extracted from an image including various patterns and color components.

【0021】閾値は、所定の指示選択手段からの信号に
基づき更新される。これにより、ユーザの意図を直接反
映し、簡単かつ確実に抽出処理結果を得ることが可能と
なる。
The threshold value is updated based on a signal from a predetermined instruction selecting means. This makes it possible to directly and directly reflect the user's intention and obtain the extraction processing result easily and reliably.

【0022】当該第1の距離は、複数の成分に分解され
た各色成分についての当該基準点での値と当該着目点で
の値の差分値及び当該差分の絶対値のいずれか一方に関
する重み付きべき乗和で表わされ、当該第2の距離は、
複数の成分に分解された各テクスチャ特徴成分について
の当該基準点での値と当該着目点での値の差分値及び当
該差分の絶対値のいずれ一方に関する重み付きべき乗和
で表わされる。これにより、色成分とテクスチャ特徴成
分、それぞれについて基準点と着目点での特徴量の差異
を適切に評価することができる。また、テクスチャ特徴
成分に関する基準点と着目点間での差異を検出するため
の演算効率を高めることができる。
The first distance is a weighted value relating to one of the difference value between the value at the reference point and the value at the point of interest for each color component separated into a plurality of components and the absolute value of the difference. The second distance is represented by a power sum.
It is represented by a weighted power-sum of one of the difference between the value at the reference point and the value at the point of interest for each texture feature component decomposed into a plurality of components and the absolute value of the difference. This makes it possible to appropriately evaluate the difference between the feature amounts of the color component and the texture feature component at the reference point and the point of interest. Further, it is possible to increase the calculation efficiency for detecting the difference between the reference point and the point of interest regarding the texture feature component.

【0023】当該第1の距離と当該第2の距離を重み付
け加算する際の重み係数は、当該基準点近傍での濃淡値
に関する分散の値に基づいて決定される。これにより、
画像中においてテクスチャ特徴量の優位な所と色又は輝
度レベルの比較的均質な部分とを自動識別して、それぞ
れに最適な評価関数を与えることが可能になり、抽出対
象の境界線(輪郭線)の検出精度を高めることができ
る。
The weighting factor for weighting and adding the first distance and the second distance is determined based on the variance of gray values near the reference point. This allows
It is possible to automatically discriminate a portion where the texture feature amount is superior in the image and a portion where the color or luminance level is relatively uniform, and to give an optimal evaluation function to each of them. ) Can be improved in detection accuracy.

【0024】[0024]

【実施例】以下、図面を参照して、本発明の実施例を詳
細に説明する。
Embodiments of the present invention will be described below in detail with reference to the drawings.

【0025】図1は、本発明の一実施例の概略構成ブロ
ック図を示す。10は画像入力装置、12は画像記憶装
置、14は画像表示装置、16は画像処理装置、18は
マウスなどのポインティング・デバイスからなる指示選
択装置である。画像入力装置10は、イメージ・スキャ
ナ、ディジタル・カメラなどの撮像装置、又は、画像デ
ータベースに接続する画像データ転送装置からなる。
FIG. 1 is a schematic block diagram showing an embodiment of the present invention. Reference numeral 10 denotes an image input device, 12 denotes an image storage device, 14 denotes an image display device, 16 denotes an image processing device, and 18 denotes an instruction selecting device including a pointing device such as a mouse. The image input device 10 includes an image pickup device such as an image scanner or a digital camera, or an image data transfer device connected to an image database.

【0026】本実施例では、画像入力装置10から、背
景から分離抽出されるべき対象を含む画像データが入力
し、画像記憶装置12に記憶される。画像記憶装置12
に記憶される画像データは、画像表示装置14の画面上
の所定位置に所定の形式で表示される。
In this embodiment, image data including an object to be separated and extracted from the background is input from the image input device 10 and stored in the image storage device 12. Image storage device 12
Is displayed at a predetermined position on the screen of the image display device 14 in a predetermined format.

【0027】画像処理装置16の概略構成ブロック図を
図2に示す。20は核設定装置、22はテクスチャ特徴
量抽出装置、24は色成分特徴量抽出装置、26は特徴
空間内での特徴量距離を算出する特徴量距離算出装置、
28は特徴量距離に基づき領域を成長させる領域成長装
置、30は領域成長の結果得られる核の境界線を求める
境界線更新装置、32はマスクデータ生成装置、34は
画像データを生成する抽出画像生成装置である。図示し
ていないが、画像処理装置16は、処理途中のデータを
一時的に記憶する記憶装置を具備する。
FIG. 2 shows a schematic block diagram of the image processing apparatus 16. 20 is a kernel setting device, 22 is a texture feature amount extracting device, 24 is a color component feature amount extracting device, 26 is a feature amount distance calculating device for calculating a feature amount distance in a feature space,
28 is a region growing device for growing a region based on the feature distance, 30 is a boundary line updating device for obtaining a boundary line of a nucleus obtained as a result of region growing, 32 is a mask data generating device, and 34 is an extracted image for generating image data. It is a generating device. Although not shown, the image processing device 16 includes a storage device that temporarily stores data being processed.

【0028】本実施例において「核」とは、点又は曲線
を含む線分若しくは任意形状の領域の成長の種となるも
のをいう。図3(a),(b),(c)は、初期の核の
一例を示す。図3(a),(c)は、ユーザが画像表示
装置14の画面上に表示される画像を見ながら、指示選
択装置18により指定した例を示し、図3(b)は、抽
出処理の対象となる画像の外枠の4辺を核とする例を示
す。フレームの枠を構成する四辺のうちの任意の辺(複
数可)をユーザが指定してもよい。
In this embodiment, the "nucleus" refers to a seed that grows a line segment including a point or a curve or a region of an arbitrary shape. 3A, 3B, and 3C show an example of an initial nucleus. FIGS. 3A and 3C show an example in which the user designates with the instruction selecting device 18 while looking at the image displayed on the screen of the image display device 14, and FIG. An example in which four sides of an outer frame of a target image are nuclei will be described. The user may specify an arbitrary side (a plurality of sides) of the four sides constituting the frame of the frame.

【0029】図4は、本実施例の動作フローチャートを
示す。図4を参照して、本実施例の動作を説明する。
FIG. 4 shows an operation flowchart of this embodiment. The operation of the present embodiment will be described with reference to FIG.

【0030】画像データを画像入力装置10から画像記
憶装置12に入力し、画像表示装置14の画面上に表示
する(S1)。表示された入力画像を見て、ユーザは、
核を設定する(S2)。例えば、曲線状に核を設定する
場合、ユーザは、画像表示装置14表示される画像中の
切り出したい対象を囲むように、指示選択装置18によ
り任意形状の曲線を設定する。この曲線は、抽出対象を
包囲するような閉曲線でも、抽出対象の近傍にあって閉
じていない任意形状の曲線であってもよい。具体的に
は、画像表示装置14上に表示されたカーソル(不図
示)の位置を確認しつつ、指示選択装置(マウス)18
のボタンを押しながら、抽出対象を囲む曲線の軌跡を描
くようにそのカーソルを画面上で移動させると、その軌
跡上の点を所定の間隔でサンプリングしたサンプリング
点間を結ぶ滑らかな曲線が生成され、これが初期の核と
なる。その他、抽出対象の外側の任意の複数の点でマウ
スをクリックすると、核設定装置20が、クリック点同
士を直線で結んで核を生成する。
Image data is input from the image input device 10 to the image storage device 12, and displayed on the screen of the image display device 14 (S1). Looking at the displayed input image, the user
A nucleus is set (S2). For example, when setting the nucleus in a curved shape, the user sets a curve of an arbitrary shape using the instruction selecting device 18 so as to surround the target to be cut out in the image displayed on the image display device 14. This curve may be a closed curve surrounding the extraction target or a curve of any shape near the extraction target and not closed. Specifically, while checking the position of a cursor (not shown) displayed on the image display device 14, an instruction selection device (mouse) 18
When the cursor is moved on the screen so as to draw a locus of a curve surrounding the extraction target while pressing the button, a smooth curve connecting the sampling points obtained by sampling points on the locus at predetermined intervals is generated. This is the core of the early days. In addition, when the mouse is clicked at any of a plurality of points outside the extraction target, the nucleus setting device 20 connects the click points with a straight line to generate a nucleus.

【0031】核の生成後、核を構成する基準点がサンプ
リングされる(S3)。例えば、曲線として核が設定さ
れた場合、その曲線上の点を離散的に所定の間隔でサン
プリングして基準点とする。図3(a),(b),
(c)の核の上に配置される黒丸の点が基準点である。
核がポイントとして指定された場合には、その点を基準
点としてもよいし、その点の近傍の複数位置を自動的に
基準点としてサンプリングしてもよい。
After the generation of the nucleus, the reference points constituting the nucleus are sampled (S3). For example, when a nucleus is set as a curve, points on the curve are discretely sampled at predetermined intervals and used as reference points. 3 (a), (b),
The point of the black circle arranged on the nucleus of (c) is the reference point.
When a nucleus is designated as a point, that point may be used as a reference point, or a plurality of positions near the point may be automatically sampled as reference points.

【0032】基準点又は着目点(核上に無い任意のサン
プリング点であり、通常は基準点の近傍から採用され
る。)を含む近傍で特徴量を抽出する(S4)。着目点
とは、基準点を含む領域に併合するか否かを判断される
べき点をいい、通常は抽出領域の外側に存在し、且つ基
準点の近傍にある点である。本実施例では、特徴量とし
てテクスチャ特徴量と色成分特徴量を採用する。
A feature quantity is extracted in the vicinity including the reference point or the point of interest (arbitrary sampling point not on the nucleus, usually adopted from the vicinity of the reference point) (S4). The point of interest refers to a point at which it is determined whether or not to merge with a region including the reference point, and is usually a point outside the extraction region and near the reference point. In this embodiment, a texture feature amount and a color component feature amount are employed as feature amounts.

【0033】テクスチャ特徴量抽出装置22によるテク
スチャ特徴量の抽出方法を説明する。本実施例では、入
力画像の濃淡値(入力画像データがカラー画像であれば
それを濃淡画像に変換したもの。)をGaborウエー
ブレット変換し、その変換係数によりテクスチャ特徴量
を抽出する。
A method for extracting texture features by the texture feature extraction device 22 will be described. In the present embodiment, the gray level value of the input image (if the input image data is a color image, it is converted into a gray image) is subjected to Gabor wavelet conversion, and the texture feature is extracted based on the conversion coefficient.

【0034】Gaborウェーブレットは下記式(1)
で与えられるように、一定の方向成分と空間周波数を有
する正弦波をガウシアン関数で変調した形状を有し、ス
ケーリンクレベルのインデックスmと方向成分のインデ
ックスnで特定される。すなわち、
The Gabor wavelet is given by the following equation (1)
Sine wave having a constant directional component and a spatial frequency is modulated by a Gaussian function, and is specified by a scaling level index m and a directional component index n. That is,

【0035】[0035]

【数1】gmn(x,y)=(a−m/2πσxσy)exp(hmn(x,y)) hmn(x,y)={(xcosθn+ysinθn)2/a2mσx 2+(-xsinθn+yco
n)2/a2mσy 2}/2-i2πW(xcosθn+ysinθn)/am ここに、(x,y)が画像中の位置、aはスケーリング
ファクタ、θはフィルタの方向成分、Wは基本空間周
波数をそれぞれ示す。σ,σはそれぞれフィルタ関
数のx方向及びy方向の広がりの大きさを与えるパラメ
ータである。
[Equation 1] gmn(x, y) = (a−m/ 2πσxσy) exp (hmn(x, y)) hmn(x, y) = {(xcosθn+ ysinθn)Two/ a2mσx Two+ (-xsinθn+ yco
n)Two/ a2mσy Two} / 2-i2πW (xcosθn+ ysinθn) / am  Where (x, y) is the position in the image and a is the scaling
Factor, θnIs the directional component of the filter, W is the basic space circumference
The wave numbers are shown. σx, ΣyAre the filter functions
A parameter giving the magnitude of the spread of a number in the x and y directions
Data.

【0036】ウエーブレットとして、このフィルタのセ
ットは互いに相似の関数形状を有し、主方向と大きさが
互いに異なる。このウエーブレットは、空間周波数ドメ
インと実空間ドメインで関数形が局在していることと、
位置と空間周波数に関する同時不確定性が最小となり、
実空間でも周波数空間でも最も局在した関数であること
が知られている(J. G. Daugman,”Un
certaintyrelation for res
olution in space, spatial
frequency, and orientati
on optimized by two−dimen
sional visual cortical fi
lters”, Journal of Optica
l Society of America A, v
ol. 2, pp.1160−1169, 198
5)。
As a wavelet, this set of filters has similar functional shapes and different main directions and sizes. In this wavelet, the function form is localized in the spatial frequency domain and the real space domain, and
Simultaneous uncertainty regarding position and spatial frequency is minimized,
It is known that the function is the most localized function in both real space and frequency space (JG Daugman, “Un
certaintylation for res
solution in space, spatial
frequency, and orientati
on optimized by two-dimen
sional visual coral fi
liters ", Journal of Optica
l Society of America A, v
ol. 2, pp. 1160-1169, 198
5).

【0037】本実施例では、θは0度、30度、60
度、90度、120度及び150度の6方向の値をと
り、aは2とし、mは1から4までの整数として与えら
れる。σ,σは、フーリエドメインで各フィルタが
互いに適切に均質に重なり合い、特定の空間周波数への
偏りがないように設定されるのが望ましい。例えば、フ
ーリエ変換後の振幅最大値に対する半値レベルがフーリ
エドメインで互いに接するように設計すると、
In the present embodiment, θ n is 0 degree, 30 degrees, 60 degrees.
Taking values in six directions of degrees, 90 degrees, 120 degrees and 150 degrees, a is set to 2, and m is given as an integer from 1 to 4. σ x and σ y are desirably set such that the filters appropriately and homogeneously overlap each other in the Fourier domain, and there is no bias toward a specific spatial frequency. For example, if the half-value levels for the amplitude maximum after Fourier transform are designed to be in contact with each other in the Fourier domain,

【0038】[0038]

【数2】σu = −(a−1)UH/{(a+1)(2ln2)1/2}u = − (a−1) U H / {(a + 1) (2ln2) 1/2 }

【0039】[0039]

【数3】σv = tan(π/2N){UH 2−(2ln2)σu 2}/{(2ln2)U
H 2−(2ln2)2σu 2}1/2
Σ v = tan (π / 2N) {U H 2 − (2ln2) σ u 2 } / {(2ln2) U
H 2 − (2ln2) 2 σ u 2 } 1/2

【0040】[0040]

【数4】a=(UH/UL )−1/(M−1) ここで、U,Uは、ウェーブレット変換でカバーす
る空間周波数帯域の最大値及び最小値であり、Mはその
範囲でのスケーリンクレベル数を与える。
[Equation 4] a = (UH/ UL ) −1 / (M−1)  Where UH, ULIs covered by the wavelet transform.
Where M is the maximum and minimum value of the spatial frequency band
Gives the number of scaling levels in the range.

【0041】各フィルタgmn(x,y)と入力濃淡画
像との2次元畳み込み演算を行うことにより、Gabo
rウエーブレット変換が行われる。すなわち、
By performing a two-dimensional convolution operation between each filter g mn (x, y) and the input grayscale image, Gabo
An r wavelet transform is performed. That is,

【0042】[0042]

【数5】 ここにIは入力画像、WmnはGaborウエーブレッ
ト変換係数である。W (m=1,・・・,4;n=
1,・・・,6)のセットを特徴ベクトルとして、各点
でWmn(x,y)を求める。なお、*は複素共役をと
ることを示す。主として演算量を低減させるために、後
述する基準点と着目点間の特徴空間での距離関数値に基
づく領域成長処理において、Wmnから以下に示す特徴
量を求めて用いてもよい。
(Equation 5) Here, I is an input image, and W mn is a Gabor wavelet transform coefficient. W m n (m = 1, ···, 4; n =
The set of 1,..., 6) is used as a feature vector, and W mn (x, y) is obtained at each point. In addition, * shows taking a complex conjugate. In order to mainly reduce the calculation amount, the following feature amount may be obtained from W mn and used in a region growing process based on a distance function value in a feature space between a reference point and a point of interest, which will be described later.

【0043】例えば、テクスチャエネルギとして、For example, as texture energy,

【0044】[0044]

【数6】 を用いると、一定範囲での空間周波数の平均的な揃い具
合が表わされる。スカラー量であるので、類似度比較の
際の演算量を大幅に低減出来る。
(Equation 6) Is used, the average uniformity of spatial frequency in a certain range
A combination is represented. Since it is a scalar quantity,
The amount of calculation at the time can be greatly reduced.

【0045】その他、各基準点又は着目点の近傍領域で
の各成分についての平均値及び分散値のセット(例え
ば、μmn,σmnをそれぞれ基準点又は着目点近傍で
の平均値と分散値としたときの[μ11,σ11,μ
12,σ12,・・・μ46,σ 46])を特徴ベクト
ルとしてもよい。また、基準点の近傍領域において所定
の評価基準、例えば局所領域で均質度が高い場合には局
所領域での平均値が最大のもの、そうでなければコント
ラスト(最大値と最小値の差が大でそれぞれの値をとる
頻度も一定レベル以上の場合)が最大のものを与える特
定の(m,n)に対応するWmnをテクスチャ特徴量と
したり、又はその値の順に最大値を与えるものから複数
個(2乃至3個程度)のWmnを選択的に抽出し、それ
らによって構成される低次元化した特徴ベクトル(例え
ば、[|Wm1n1|,|Wm2n2|,|W m3n3|])を基準
点又は着目点の近傍でのテクスチャ特徴量としてもよ
い。更には、以下に示す色成分特徴量において定義され
るようなヒストグラムの分布形状を基準点及び着目点の
近傍でGaborウエーブレット変換係数のそれぞれに
ついて求め、特徴ベクトルとして表現してもよい。
In addition, in the area near each reference point or point of interest,
A set of mean and variance values for each component of
If, μmn, ΣmnNear the reference point or the point of interest, respectively.
[Μ] when the mean and variance of11, Σ11, Μ
12, Σ12, ... μ46, Σ 46])
May be used. In addition, in a region near the reference point,
Evaluation criteria, for example, if the homogeneity is high in the local area,
The average value in the place area is the largest, otherwise the control
Last (the difference between the maximum value and the minimum value is large and takes each value
If the frequency is above a certain level)
W corresponding to the constant (m, n)mnThe texture features and
Or from the one giving the maximum value in the order of the values
Pieces (about 2 or 3 pieces) of WmnSelectively extract it,
Reduced feature vectors (eg,
If [| Wm1n1|, | Wm2n2|, | W m3n3|])
It can also be used as a texture feature at a point or near a point of interest.
No. Furthermore, it is defined in the following color component feature quantity.
Of the distribution shape of the histogram
Near each of the Gabor wavelet transform coefficients
And may be expressed as a feature vector.

【0046】色成分特徴量抽出装置24により抽出する
特徴量を説明する。色成分としては、一般に、RGBの
各成分値、又は、色相、彩度及び明度などに分解した成
分が用いられる。ここでは、基準点(又は着目点)を中
心とする所定サイズ(例えば、縦10画素、横10画
素)の矩形領域で与えられる近傍領域において各色成分
に関するヒストグラムをとり、基準点(又は着目点)ご
とにその分布形状に基づく特徴ベクトル又は色成分の代
表値のリスト形式により与えられる特徴量などのように
して色成分特徴量を求める。
The feature value extracted by the color component feature value extracting device 24 will be described. As the color components, RGB component values or components decomposed into hue, saturation, lightness, and the like are generally used. Here, a histogram is taken for each color component in a nearby area given by a rectangular area of a predetermined size (for example, 10 pixels vertically and 10 pixels horizontally) centered on the reference point (or point of interest), and the reference point (or point of interest) is taken. In each case, a color component characteristic amount is obtained as a characteristic vector based on the distribution shape or a characteristic amount given in a list format of representative values of color components.

【0047】ヒストグラムの分布形状を特徴ベクトルと
して表わすときには、例えば、RGB各成分値について
0から255の範囲をN(例えば、N=20)等分して
得られる各範囲(ビンという。)について、該当する色
成分を有する画素数をカウントし、その頻度を求める。
各色成分の頻度に関して要素数Nの特徴ベクトルVR
G,Vが求まる。例えば、V=[V
,・・・,V ]は、R成分についてのヒスト
グラムの分布形状を表わす。
When expressing the distribution shape of the histogram as a feature vector, for example, for each range (called a bin) obtained by equally dividing the range from 0 to 255 for each of the RGB component values by N (for example, N = 20). The number of pixels having the corresponding color component is counted, and the frequency is obtained.
With respect to the frequency of each color component, a feature vector V R with N elements,
V G, V B is obtained. For example, V R = [V 1 R ,
V 2 R, ···, V N R] represents the distribution shape of the histogram for the R component.

【0048】色成分の代表成分値による特徴量は、色空
間での距離が互いに基準値以上離れているような色成分
値であって、例えばヒストグラムの各ビンの中心値とな
る色成分値で表わされる。ここで用いられる色空間での
距離Dとしては、各成分の差分の絶対値の総和、即
ち、 D=|R(x, y)-R(x', y')|+|G(x, y)-G(x', y')|+|B(x, y)
-B(x', y')| などが典型的に用いられる。従って、基準点近傍での代
表色のリストは、(R,G,B)、(R
,B),・・・,(R,G,B)などのよ
うに表わされる。
The feature value of the representative component value of the color component is a color component value such that the distance in the color space is greater than or equal to a reference value, for example, a color component value that is the center value of each bin of the histogram. Is represented. The distance D c in the color space used herein, the sum of the absolute values of differences of the components, i.e., D = | R (x, y) -R (x ', y') | + | G (x , y) -G (x ', y') | + | B (x, y)
-B (x ', y') | is typically used. Therefore, the list of representative colors near the reference point is (R 1 , G 1 , B 1 ), (R 2 ,
G 2 , B 2 ),..., (R k , G k , B k ).

【0049】特徴量の抽出後、特徴量距離算出装置26
が、基準点と着目点間の特徴量距離を算出する(S
5)。図5は、特徴量距離算出装置26による特徴距離
算出と領域成長装置28による領域成長の動作フローチ
ャートを示す。本実施例では、基準点近傍において0か
ら255の範囲の値をとる濃淡値の分散を求め、その分
散値が閾値(例えば、30)以上なら画像パターンがテ
クスチャ優位な特徴を有するものとし、閾値未満なら濃
淡値の変化が緩やかであると判定する(S11)。
After the feature value is extracted, the feature value distance calculating device 26
Calculates the feature distance between the reference point and the point of interest (S
5). FIG. 5 is a flowchart showing the operation of the feature distance calculation by the feature amount distance calculation device 26 and the region growth by the region growth device 28. In the present embodiment, the variance of the gray values having values in the range of 0 to 255 near the reference point is obtained, and if the variance is equal to or larger than a threshold value (for example, 30), it is determined that the image pattern has a texture superior feature. If it is less than the threshold value, it is determined that the change in the gray level is gradual (S11).

【0050】分散値が閾値以上の場合(S11)、テク
スチャ特徴量を図示しない一次記憶装置からロードし
(S12)、領域成長に適した特徴量(例えば、テクス
チャエネルギ)を算出し(S13)、テクスチャ特徴量
に関する距離Dを求める(S14)。特徴量の変換処
理(S13)は、処理スピードと要求精度などによって
は省略できる。その場合、テクスチャ特徴量は、Gab
orウエーブレット変換係数のセットとして与えられ
る。
If the variance is equal to or larger than the threshold value (S11), the texture feature is loaded from a primary storage device (not shown) (S12), and a feature (eg, texture energy) suitable for region growth is calculated (S13). The distance DT related to the texture feature amount is obtained (S14). The feature amount conversion process (S13) can be omitted depending on the processing speed, required accuracy, and the like. In that case, the texture feature amount is Gab
or as a set of wavelet transform coefficients.

【0051】分散値が閾値未満の場合(S11)、色成
分特徴量を図示しない一次記憶装置からロードし(S1
6)、領域成長に適した特徴量(例えば、色成分に関す
る局所ヒストグラムから求まる特徴ベクトル又は代表色
成分のリストなど)を抽出し(S17)、色成分に関す
る距離Dを求める(S18)。特徴量の変換処理(S
17)は、処理スピードと要求精度などによっては省略
できる。その場合、色成分特徴量は、RGB各成分値と
して与えられる。
If the variance value is less than the threshold value (S11), the color component feature is loaded from a primary storage device (not shown) (S1).
6), the feature amount suitable for region growing (e.g., such as a list of feature vectors or representative color component obtained from the local histogram of the color component) to extract (S17), obtains a distance D C for the color component (S18). Conversion of feature value (S
17) can be omitted depending on the processing speed and required accuracy. In that case, the color component feature amount is given as RGB component values.

【0052】S11での判定は、分散に限らず他の評価
値尺度により何れの特徴量が優位であるかを決めてもよ
い。テクスチャ特徴量に関する距離Dは、テクスチャ
特徴量がスカラー量(例えば、テクスチャエネルギ又は
選択抽出されたGaborウェーブレット変換係数値)
の場合、基準点及び着目点での値の差分絶対値などを用
いることが好ましい。同様に、テクスチャ特徴量がベク
トル量ならば、対応する各成分間の差分絶対値の総和を
用いるのが好ましい。但し、他の特徴量距離の尺度とし
て、ユークリッド距離、ミンコフスキー距離、カイ二垂
距離及びコルモコロフ・スミルノフ距離などを用いても
よい。
The determination in S11 is not limited to the variance, and it is also possible to determine which feature is superior based on another evaluation value scale. The distance DT related to the texture feature amount is a scalar amount of the texture feature amount (eg, texture energy or a Gabor wavelet transform coefficient value selected and extracted).
In this case, it is preferable to use the absolute value of the difference between the values at the reference point and the point of interest. Similarly, if the texture feature amount is a vector amount, it is preferable to use the sum of absolute differences between corresponding components. However, the Euclidean distance, the Minkowski distance, the Chi-Nikho distance, and the Kolmokov-Smirnov distance may be used as other measures of the feature amount distance.

【0053】図5に示す処理は一例であり、第1及び第
2の距離の重みづけ和として距離を定義し、テクスチャ
(又は色成分)の優位度に関する所定の評価値γを重み
係数として、次式に示す値を算出してもよい。すなわ
ち、
The processing shown in FIG. 5 is an example, in which a distance is defined as a weighted sum of the first and second distances, and a predetermined evaluation value γ relating to the superiority of the texture (or color component) is defined as a weighting factor. The value shown in the following equation may be calculated. That is,

【0054】[0054]

【数7】D=D+γD ただし、γを例えば、 γ=β(α/σ(x, y)+μ(x, y)) のように設定すると、点(x,y)を中心とする局所領
域でテクスチャ特徴量の平均値μ(x,y)が高く、か
つ均質度1/σ(x,y)が高い場合ほど、係数γの値
が大きくなる。α,βは定数である。
D = Dc+ ΓDT  However, if γ is set as, for example, γ = β (α / σ (x, y) + μ (x, y)), the local area around the point (x, y) is set.
The average value μ (x, y) of the texture feature is high in the
The higher the homogeneity 1 / σ (x, y), the higher the value of the coefficient γ
Becomes larger. α and β are constants.

【0055】次に、領域成長装置28が、特徴量距離に
基づき領域を成長し、基準点位置を更新する(S6)。
領域成長は、特徴空間内での基準点と着目点間の距離D
が閾値以下の場合に基準点を含む抽出領域に着目点を併
合し、閾値より大きい場合には着目点を抽出領域から排
除するような処理を意味する。境界線更新装置30が、
領域成長過程で得られる核の境界線データを求め、その
逐次更新結果を画像表示装置14の画面上に表示する。
Next, the region growing device 28 grows the region based on the feature distance and updates the reference point position (S6).
The region growth is based on the distance D between the reference point and the point of interest in the feature space.
Is smaller than or equal to the threshold value, the point of interest is merged with the extraction region including the reference point, and if it is larger than the threshold value, the point of interest is excluded from the extraction region. The boundary update device 30
The nucleus boundary line data obtained in the region growing process is obtained, and the result of the successive update is displayed on the screen of the image display device 14.

【0056】図5に示す処理では、対応する特徴量に基
づき領域を成長し(S15,S19)、各基準点からの
領域成長結果を統合して得られる核領域の新たな境界線
に基づく更新位置の決定する(S20)。具体的には、
各基準点の更新位置は、領域成長により得られる新たな
核領域の境界線上の所定のサンプリング点として与えら
れる。色成分特徴量による領域成長では、色成分の代表
成分値による特徴量を用いる場合には、基準点位置の更
新は必須ではない。
In the processing shown in FIG. 5, the region is grown based on the corresponding feature amount (S15, S19), and the update based on the new boundary line of the core region obtained by integrating the region growth results from each reference point is performed. The position is determined (S20). In particular,
The update position of each reference point is given as a predetermined sampling point on the boundary of a new nucleus region obtained by region growth. In the region growth based on the color component feature, when the feature based on the representative component value of the color component is used, the update of the reference point position is not essential.

【0057】基準点は、領域成長の過程において適宜新
たな核領域の境界線から所定の方法に従って(例えば、
境界線に沿った隣接基準点間の距離がほぼ等しくなるよ
うに)サンプリングされる。従って、基準点の数は、一
般的に増減する。
The reference point is set in accordance with a predetermined method (for example, from the boundary line of a new nucleus region in the process of region growth).
Sampling (so that the distances between adjacent reference points along the boundary are approximately equal). Therefore, the number of reference points generally increases or decreases.

【0058】図3(d),(e),(f)は、図3
(a),(b),(c)からの途中結果を示す。図3
(d),(e),(f)のハッチング部分が成長過程の
領域を示す。図3(g)は領域成長後の最終結果を示
す。被写体の輪郭線に成長領域が収束している。図3に
示す例では、核が初めに背景部分に設定されるので、い
ずれも、成長終了後には、抽出対象の領域を穴とするド
ーナツ状の領域となる。
FIGS. 3 (d), (e) and (f) show FIG.
The intermediate results from (a), (b) and (c) are shown. FIG.
The hatched portions in (d), (e) and (f) indicate regions in the growth process. FIG. 3 (g) shows the final result after region growth. The growth area converges on the contour of the subject. In the example shown in FIG. 3, the nucleus is initially set in the background portion, so that after the growth is completed, the nucleus becomes a donut-shaped region having a hole in the region to be extracted.

【0059】本実施例では、例えば、ユーザがマウスの
左ボタンを押している間は閾値を時間的に単調増加さ
せ、右ボタンを押している間は閾値を単調減少させるよ
うに、ユーザによる操作と連動して閾値を変化させる
(S7)。その間、核領域の外郭境界線などによって領
域成長結果を画像表示装置14の画面上に表示する(S
8)。これにより、ユーザの意図を反映した画像抽出が
可能となる。閾値を変化させる方法として、マウスボタ
ンなどを押している時間の関数として、一次関数的に増
加又は減少する方式、又は双曲線関数であるtanh
(x)などのように一定レベルに飽和するように増加又
は減少する方式が有効である。後者は、閾値の上限又は
下限を予め制限したい場合に有効かつ好適である。
In this embodiment, for example, the threshold is monotonically increased while the user is pressing the left button of the mouse, and the threshold is monotonically decreased while the user is pressing the right button. Then, the threshold is changed (S7). In the meantime, the region growth result is displayed on the screen of the image display device 14 by the outer boundary line of the nuclear region or the like (S
8). As a result, an image can be extracted that reflects the user's intention. As a method of changing the threshold value, a method of increasing or decreasing linearly as a function of the time during which a mouse button or the like is pressed, or tanh which is a hyperbolic function
A method of increasing or decreasing so as to saturate to a certain level as in (x) is effective. The latter is effective and suitable when the upper or lower limit of the threshold is to be restricted in advance.

【0060】本実施例では、背景と抽出対象の絵柄の組
み合わせによっては、抽出対象の輪郭及び対象の画像を
自動的に抽出できる。図6は、そのように図4のフロー
チャートを変更した例を示す。画像入力(S11)から
領域成長(S26)の開始までは、図4に示すフローチ
ャートと同じである。但し、ここでは、入力画像のフレ
ーム全部又は一部からなる核(又はユーザにより設定さ
れた核)から所定の初期閾値に従って領域成長を実行
し、成長結果の妥当性判断のための評価値(の一例)と
して領域成長により更新された核領域の境界線上の点の
エッジ割合を算出し、その算出値に基づいて領域成長の
閾値を制御する(S27)。具体的には、例えば、エッ
ジ割合が所定の閾値Th(例えば、0.5)未満のと
きには所定の割合で領域成長の処理サイクルごと又は単
位時間ごとに閾値を単調増加させ、Th以上になった
ら、所定の飽和レベルに漸次的に到達するような単調増
加関数(双曲線関数tanhなど)に従って領域成長用
の閾値を与える。
In this embodiment, the outline of the extraction target and the image of the extraction target can be automatically extracted depending on the combination of the background and the design of the extraction target. FIG. 6 shows an example in which the flowchart of FIG. 4 is modified as described above. The process from the input of the image (S11) to the start of the region growing (S26) is the same as the flowchart shown in FIG. However, here, region growth is performed according to a predetermined initial threshold value from a nucleus (or a nucleus set by the user) consisting of all or a part of the frames of the input image, and an evaluation value for determining the validity of the growth result is obtained. As an example), the edge ratio of a point on the boundary line of the nucleus region updated by the region growth is calculated, and the region growth threshold is controlled based on the calculated value (S27). Specifically, for example, when the edge ratio is less than a predetermined threshold value Th E (for example, 0.5), the threshold value is monotonously increased at a predetermined ratio for each processing cycle of region growth or for each unit time, and becomes equal to or greater than Th E. Then, a threshold for region growth is given according to a monotonically increasing function (such as a hyperbolic function tanh) that gradually reaches a predetermined saturation level.

【0061】この場合、初期設定された核が抽出対象を
包囲する閉曲線の場合、領域成長の結果得られるドーナ
ツ状の領域の内側境界線がエッジ割合を算出する対象と
なる。初期設定された核が全て抽出対象の内部にある場
合には、いうまでもなくその最外郭境界線がエッジ割合
の算出対象となる。その他、初期設定された核が抽出対
象の近傍にある孤立点、断片的な線分又は孤立した小領
域の場合には、エッジ割合のみでは領域成長結果の妥当
性を常に判断できるとは限らないが、途中結果の表示と
いう意味で、処理を自動中断して(S28)、核領域の
境界線を表示してもよい(S29)。
In this case, if the initially set nucleus is a closed curve surrounding the extraction target, the inner boundary of the donut-shaped region obtained as a result of region growth is the target for calculating the edge ratio. If all of the initially set nuclei are inside the extraction target, it goes without saying that the outermost boundary is the target of calculating the edge ratio. In addition, when the initially set nucleus is an isolated point, a fragmentary line segment, or an isolated small area in the vicinity of the extraction target, the validity of the area growth result cannot always be determined only by the edge ratio. However, the process may be automatically interrupted (S28) to display the intermediate result (S28), and the boundary line of the nuclear region may be displayed (S29).

【0062】処理中断又は自動停止(S28)の条件と
しては、エッジ割合が所定レベル(例えば、9割)以上
になったとき又はその変化率の絶対値が一定値(例え
ば、1割)以下になったときなどが挙げられる。エッジ
割合以外の他の指標、例えば境界線長さ又はテクスチャ
エッジの割合などを用いて、処理停止を判定してもよ
い。テクスチャエッジとは、テクスチャ特徴量(テクス
チャエネルギ又はGaborウエーブレット変換係数値
など)の2次元分布データのエッジを抽出することによ
り得られるものであり、例えばこれらのデータにSob
elフィルタなどによる空間微分演算を行い、更に2値
化処理を行うことにより得られる。
The conditions for the processing interruption or automatic stop (S28) are as follows: when the edge ratio exceeds a predetermined level (for example, 90%) or when the absolute value of the rate of change becomes equal to or less than a predetermined value (for example, 10%). And the like. Processing stop may be determined using an index other than the edge ratio, for example, a boundary line length or a texture edge ratio. The texture edge is obtained by extracting the edge of the two-dimensional distribution data of the texture feature amount (texture energy or Gabor wavelet transform coefficient value, etc.).
It is obtained by performing a spatial differentiation operation using an el filter or the like and further performing a binarization process.

【0063】エッジ割合の算出に際しては、領域成長の
結果得られる核の境界線が画像フレームに接している場
合、その部分を対象としないことが望ましい。抽出対象
の輪郭と画像フレームの輪郭が一致する場合は通常少な
いと考えられるからである。
In calculating the edge ratio, if the boundary line of the nucleus obtained as a result of the region growth is in contact with the image frame, it is desirable not to target that portion. This is because it is generally considered that the case where the contour to be extracted matches the contour of the image frame is small.

【0064】領域成長により得られる輪郭線が不完全で
あるとユーザにより認められる場合、以下の手順に例示
する方法により、更に処理を継続し、又は不完全な部分
を修正できる。例えば、指示選択装置18を用いて必要
な部分又は適切な部分の境界線を指定選択し、その部分
を確定させる(例えば、マウス・ボタンをダブルクリッ
クする方法や、画像表示装置14の画面上に表示される
確定ボタンのアイコンをクリックする方法がある。)。
これに応じて、残りの部分について更に領域成長処理が
自動継続されるか、又は、ユーザの指示に応じて領域成
長が実行される。
If the user finds that the outline obtained by the region growth is incomplete, the processing can be continued further or the incomplete part can be corrected by the method exemplified in the following procedure. For example, by using the instruction selection device 18 to specify and select a boundary of a necessary portion or an appropriate portion, the portion is fixed (for example, a method of double-clicking a mouse button or a method of displaying the image on the screen of the image display device 14). There is a way to click the icon of the confirmation button that is displayed.)
Accordingly, the region growing process is automatically continued for the remaining portion, or the region growing is performed according to the user's instruction.

【0065】以上のような方法により抽出された輪郭線
は、抽出対象の輪郭線又は抽出対象を除く背景領域の輪
郭線である。その輪郭線が閉曲線をなす場合、マスクデ
ータ生成装置32が、その閉曲線内部の領域を表わすマ
スクデータ(一般には、2値データであり、マスク領域
内部の各画素を’1’、外部の各画素を’0’とす
る。)を生成する(S9,S30)。抽出画像生成装置
34は、このマスク・データと原画像との論理積をとる
ことにより、抽出対象画像を示す画像データを生成し、
抽出結果が画像表示される(S10,S31)。例え
ば、ユーザが抽出結果を容易に視認できるように、抽出
対象以外の領域を特定色にしたり、抽出された輪郭線を
点滅表示するなどの表示方法が採用される。
The outline extracted by the above method is the outline of the extraction target or the outline of the background region excluding the extraction target. When the contour forms a closed curve, the mask data generating device 32 outputs the mask data (generally, binary data) representing the area inside the closed curve to each pixel inside the mask area as “1” and each outside pixel as “1”. Is set to '0'.) (S9, S30). The extraction image generation device 34 generates image data indicating the extraction target image by taking the logical product of the mask data and the original image,
The extraction result is displayed as an image (S10, S31). For example, a display method such as setting a region other than the extraction target to a specific color or blinking the extracted outline is displayed so that the user can easily visually recognize the extraction result.

【0066】本実施例では、テクスチャ特徴量としてG
aborウエーブレット変換により得られる局所空間周
波数ドメインの特徴量を用いたが、本発明自体は、その
種の特徴量に限定されない。例えば、他の特徴量とし
て、以下に例示するように、ある画素の画素値又は単な
る濃度勾配(エッジ強度)のような情報ではなく、局所
2次元領域(又は大局的な領域)における画像パターン
の特徴を表わす特徴量(但し、画素ごとに定義され得る
ものであることが望ましい。)であればよく、このこと
は、以下の実施例でも同様である。例えば、濃度共起行
列により得られるエネルギ、エントロピー、相関及び局
所一様性などの特徴量(R.M.Haralick e
t a1., ”Textural features
forimage classificatio
n”, IEEE Trans. Syst. Ma
n, Cybern., Vol. SMC−3, p
p.610−621, 1973)、又は濃淡値に関す
る平均、分散、Skewness及びKurtosis
の組み合わせ(P. C. Chen and T.P
alvidis, ”Segmentation by
Texture Using a Co−Ocurr
ence Matrix and a Sp1it−a
nd−Merge Algorithm”, Comp
uter Graphics and Image P
rocessing, vol. 10,pp.172
−182, 1979)などが利用可能である。
In this embodiment, G is used as the texture feature amount.
Although the feature values in the local spatial frequency domain obtained by the abor wavelet transform are used, the present invention is not limited to such feature values. For example, as another characteristic amount, as illustrated below, instead of information such as a pixel value of a certain pixel or a mere density gradient (edge intensity), an image pattern of a local two-dimensional region (or a global region) is not included. What is necessary is just a feature amount representing a feature (however, it is desirable that the feature amount can be defined for each pixel), and the same applies to the following embodiments. For example, feature amounts (RM Haralick e) such as energy, entropy, correlation, and local uniformity obtained by a density co-occurrence matrix
ta1. , "Textural features
forage classificatio
n ", IEEE Trans. Syst. Ma.
n, Cybern. , Vol. SMC-3, p
p. 610-621, 1973) or mean, variance, Skewness and Kurtosis for gray values.
(PC Chen and TP
alvidis, "Segmentation by
Texture Using a Co-Ocurr
ence Matrix and a Sp1it-a
nd-Merge Algorithm ", Comp
Uter Graphics and Image P
processing, vol. 10, pp. 172
-182, 1979).

【0067】以上の各処理は、コンピュータで実行可能
な所定のプログラム形式により形成されていても良い
し、各部の処理を所定のゲートアレイ(FPGA及びA
SlC等)などのハードウェア、又は所定のコンピュー
タプログラムと図1に示す一部の要素を実現する部分的
ハードウェア・モジュールとが混在する形式でも実現で
きることは明らかである。ハードウェアモジュールが含
まれる場合、必ずしも各構成要素が図1に示す構成と同
一でなくてもよく、その機能が実質的に同一であるも
の、又は、一つの要素が図1の複数の要素の機能を備え
るものなどは、本発明の技術的範囲に含まれることはい
うまでもない。この点は、以下の実施例において同様で
ある。
Each of the above processes may be formed in a predetermined program format that can be executed by a computer, or each process may be performed by a predetermined gate array (FPGA and A
Obviously, the present invention can also be realized in a form in which hardware such as an SLC or the like, or a predetermined computer program and a partial hardware module for realizing some elements shown in FIG. 1 are mixed. When a hardware module is included, each component does not necessarily have to have the same configuration as that shown in FIG. It goes without saying that a device having a function is included in the technical scope of the present invention. This is the same in the following embodiments.

【0068】図7は、画像処理装置16の別の構成例を
示す概略構成ブロック図である。40は初期輪郭設定装
置、42はテクスチャ特徴量抽出装置、44はテクスチ
ャ特徴量に基づく共起確率場を算出する共起確率場算出
装置、46は共起確率場に基づきテクスチャ境界方向を
算出するテクスチャ境界方向算出装置、48はサンプリ
ング点移動装置、50は移動停止判定装置、52は境界
位置精密推定装置、54は境界線更新装置、56はマス
クデータ生成装置、58は抽出画像生成装置である。処
理途中のデータを一時記憶する一次記憶装置(図示せ
ず。)を具備することは、図2の場合と同じである。
FIG. 7 is a schematic configuration block diagram showing another example of the configuration of the image processing apparatus 16. 40 is an initial contour setting device, 42 is a texture feature amount extraction device, 44 is a co-occurrence probability field calculation device that calculates a co-occurrence probability field based on the texture feature amount, and 46 is a texture boundary direction based on the co-occurrence probability field. A texture boundary direction calculating device, 48 is a sampling point moving device, 50 is a movement stop determining device, 52 is a boundary position precise estimating device, 54 is a boundary line updating device, 56 is a mask data generating device, and 58 is an extracted image generating device. . The provision of a primary storage device (not shown) for temporarily storing data being processed is the same as that of FIG.

【0069】図8は、図7に示す構成の動作フローチャ
ートを示す。処理例としては、図3(b)→(e)→
(g)というように変化する。
FIG. 8 shows an operation flowchart of the configuration shown in FIG. As a processing example, FIG. 3 (b) → (e) →
(G).

【0070】画像の入力と表示(S41)の後、ユーザ
が、初期輪郭として、抽出対象を包囲する閉曲線(矩形
枠なども含む。)又は抽出対象の内部に抽出対象の形状
を大まかに表す閉曲線を、指示選択装置18を用いて設
定する(S42)。初期輪郭としては、閉曲線に限ら
ず、図3(a)に示すように抽出対象を大まかに囲むよ
うな閉曲線でもよい。
After the input and display of the image (S41), the user selects a closed curve (including a rectangular frame or the like) surrounding the extraction target or a closed curve roughly representing the shape of the extraction target inside the extraction target as an initial contour. Is set using the instruction selecting device 18 (S42). The initial contour is not limited to a closed curve, and may be a closed curve that roughly surrounds the extraction target as shown in FIG.

【0071】図示しない輪郭線画像生成装置が、画像表
示装置14の画面上に、この初期輪郭線を特定の色又は
パターンにより視認が容易なように入力画像に重畳して
表示する。初期輪郭線上で所定の間隔、例えば輪郭線上
に沿った距離が隣接点間でほぼ一定になるような間隔
で、基準点のサンプリングする(S43)。
An outline image generating device (not shown) superimposes and displays the initial outline on the screen of the image display device 14 in a specific color or pattern so as to be easily recognized. The reference points are sampled at predetermined intervals on the initial contour, for example, at intervals such that the distance along the contour becomes substantially constant between adjacent points (S43).

【0072】次に第1の実施例と同様に、入力画像の濃
淡値(入力画像データがカラー画像の場合には、それを
濃淡画像に変換したもの)についてGaborウエーブ
レット変換を行い、その変換係数により画像中の各点で
のテクスチャ特徴量データを抽出する(S44)。ここ
で用いる特徴量としては、前述したように、テクスチャ
エネルギのほか、各基準点又は着目点の近傍領域での各
成分の平均値及び分散値のセットからなる特徴ベクト
ル、若しくは、基準点の近傍領域において所定の評価碁
準値が最大のものを与える特定の(m,n)に対応する
mn、又はその絶対値の順に複数のWmnを抽出し、
それらによって構成される低次元化した特徴ベクトルな
どが使われる。
Next, similarly to the first embodiment, the Gabor wavelet transform is performed on the gray value of the input image (when the input image data is a color image, it is converted into a gray image), and the conversion is performed. The texture feature amount data at each point in the image is extracted by the coefficient (S44). As described above, in addition to the texture energy, the feature amount used here is a feature vector including a set of an average value and a variance value of each component in each reference point or an area near the point of interest, or a feature vector in the vicinity of the reference point. extracting a plurality of W mn in the order of W mn, or its absolute value corresponding to the predetermined evaluation go reference value specific to provide maximum ones (m, n) in the region,
A reduced-dimensional feature vector constituted by the above is used.

【0073】各基準点において、その点を含む局所領域
のテクスチャ特徴量に関し、以下に定義するテクスチャ
共起確率場H(x,y,D,θ)を求める(S45)。
テクスチャ共起確率場H(x,y,D,θ)は、一方
(基準)の特徴量をi、他方(比較対照)の特徴量を
j、テクスチャの境界線付近で変化するテクスチャ特徴
量の大きさの変化量の基準となる閾値をThとしたと
き、|i−j|>Thとなるなる2点が存在する確率で
あり、次式で与えられる。即ち、
At each reference point, a texture co-occurrence probability field H (x, y, D, θ) defined below is determined for the texture feature of a local region including the point (S45).
The texture co-occurrence probability field H (x, y, D, θ) is obtained by calculating the feature amount of one (reference) as i, the feature amount of the other (comparison control) as j, and the texture feature amount changing near the boundary of the texture. Assuming that a threshold value serving as a reference for the magnitude change amount is Th, this is the probability that two points satisfying | i−j |> Th exist, and is given by the following equation. That is,

【0074】[0074]

【数8】 ただし、(x,y)は局所領域A内の任意の位置に
ある基準点、(x,y )は局所領域A内の比較対照
点をそれぞれ示す。Dは、点(x,y)を含む局所領域
内の2点間の距離、θは一方の点から見た他方の点の方
向を示す。Nは領域Aの面積(画素数)である。V
(θ),V(θ)は、各θごとに図9に示すように
決定される。
(Equation 8)However, (xa, Ya) Is at an arbitrary position in the local area A.
A reference point, (xb, Y b) Indicates a comparison in the local area A.
Points are indicated. D is a local region including the point (x, y)
Is the distance between two points, and θ is the other point viewed from one point
Indicates the direction. N is the area of the region A (the number of pixels). V
x(Θ), Vy(Θ) is calculated for each θ as shown in FIG.
It is determined.

【0075】本実施例では、テクスチャ境界の存在方向
を推定するために、2点のテクスチャ特徴量の差が一定
閾値Thより大きいことのみを基本制約条件として上述
の確率Hを求め、向きθの正負を区別する。特定方向に
対する反対方向も区別する。
In this embodiment, in order to estimate the direction in which the texture boundary exists, the above-described probability H is obtained by using only the difference between the two texture features larger than a certain threshold value Th as a basic constraint condition. Distinguish between positive and negative. The direction opposite to the specific direction is also distinguished.

【0076】一方、共起行列では、濃度値iをもった画
素からq方向に距離Dだけ離れた画素が濃度値jをもつ
ことを制約条件とし、そのような条件を満たす2点の存
在する確率密度を求める。特定のGaborウェーブレ
ット変換係数(例えば、W (x,y))をテクスチ
ャ特徴量として用いる場合、テクスチャ共起確率HはH
mn(x,y,D,q)のように読み替えられるものと
する。
On the other hand, in the co-occurrence matrix, a constraint condition is that a pixel which is separated by a distance D in the q direction from a pixel having a density value i has a density value j, and there are two points satisfying such a condition. Find the probability density. Particular Gabor wavelet transform coefficients (e.g., W m n (x, y )) when used as the texture feature, texture co-occurrence probability H is H
mn (x, y, D, q).

【0077】ユーザは、画像抽出の開始を指示する際、
初期輪郭が基本的に収縮することにより抽出対象の輪郭
に収束するのか、又は、膨張することによるのかを指示
する。この場合、輪郭線上の各基準点の基本移動方向
は、前者の場合、輪郭線の中心方向、後者の場合、は中
心から基準点方向に向かう方向となる。
When the user instructs the start of image extraction,
It is instructed whether the initial contour basically converges to the extraction target contour by contracting or expands. In this case, the basic movement direction of each reference point on the contour is the direction toward the center of the contour in the former case, and the direction from the center toward the reference point in the latter case.

【0078】テクスチャ共起確率H(x,y,D,θ)
の値に基づき、テクスチャ境界の存在方向の推定値Θ
(x,y)を、次式に示すようにargmax内の値が
最大となるようなθとして求める(S46)。すなわ
ち、
Texture co-occurrence probability H (x, y, D, θ)
推定 based on the value of
(X, y) is determined as θ that maximizes the value in argmax as shown in the following equation (S46). That is,

【0079】[0079]

【数9】 Θ(x, y) = argmaxθ{NH(x, y, D,θ)P(x, y, D,θ)} P(x, y, D,θ)=H(x, y, D,θ)/(H(x, y, D,θ)+H(x, y,
D,θ+π)) NH(x,y,D,θ)は、テクスチャ境界の存在する
条件を満たすペアの数を示し、P(x,y,D,θ)
は、テクスチャ境界の存在する方向としてθ+πに対す
る方向θの優位性を表わす確率を示す。
9 (x, y) = argmax θ {NH (x, y, D, θ) P (x, y, D, θ)} P (x, y, D, θ) = H (x, y, D, θ) / (H (x, y, D, θ) + H (x, y,
D, θ + π)) NH (x, y, D, θ) indicates the number of pairs that satisfy the condition for the existence of a texture boundary, and P (x, y, D, θ)
Indicates a probability indicating the superiority of the direction θ with respect to θ + π as the direction in which the texture boundary exists.

【0080】数9では、テクスチャ特徴量を第1の実施
例で示したような特定のスカラー量(テクスチャエネル
ギなど)とせずに、Gaborウェーブレット変換係数
それぞれについてテクスチャ共起確率Hを求めてからΘ
を算出してもよい。更には、距離Dの値の範囲を変化さ
せてもよい。この場合、各Dの値ごとにHを求め、積N
H(x,y,D,θ)P(x,y,D,θ)の最大値を
与える特定のGabor変換係数Wmn(x,y)に対
応した方向θが求まることになる。
In Equation 9, the texture co-occurrence probability H is obtained for each Gabor wavelet transform coefficient without using the texture feature amount as a specific scalar amount (such as texture energy) as shown in the first embodiment.
May be calculated. Further, the range of the value of the distance D may be changed. In this case, H is obtained for each value of D, and the product N
The direction θ corresponding to a specific Gabor transform coefficient W mn (x, y) that gives the maximum value of H (x, y, D, θ) P (x, y, D, θ) is obtained.

【0081】テクスチャ共起確率が0の場合、例えばそ
の算出条件を満たす2点が基準点近傍の局所領域に存在
しない場合には、初期輪郭の中心方向をθとして選択す
ればよい。
When the texture co-occurrence probability is 0, for example, when two points satisfying the calculation conditions do not exist in the local area near the reference point, the center direction of the initial contour may be selected as θ.

【0082】次に、基準点位置の移動の可否を判定する
(S47)。移動停止の判定条件は、例えば、推定され
たテクスチャ境界方向が前述した基本移動方向(初期輪
郭が抽出対象を包囲するようにして設定された場合には
初期輪郭線の収斂方向、初期輪郭が抽出対象の内部に設
定された場合には膨張方向)と矛盾する場合(例えば、
180度以上異なる場合)、及び/又は基準点位置の近
傍領域(10×10の矩形領域など)でのテクスチャ特
徴量の変化幅及び分散が基準値より大きい場合、又は直
前の移動方向とその移動後推定された新たな移動方向と
が大きく異なる場合(例えば、180度以上異なる場
合)などでは、該当する基準点の移動を行わずに、移動
前の位置で基準点を停止させる。
Next, it is determined whether or not the reference point position can be moved (S47). The determination condition of the movement stop is, for example, that the estimated texture boundary direction is the above-described basic movement direction (when the initial contour surrounds the extraction target, the convergence direction of the initial contour and the initial contour are extracted). Inconsistent with the direction of inflation if set inside the object (eg,
180 degrees or more) and / or the change width and variance of the texture feature amount in the area near the reference point position (10 × 10 rectangular area or the like) are larger than the reference value, or the immediately preceding movement direction and its movement In a case where the new moving direction is largely different from the later estimated new moving direction (for example, a case where the moving direction differs by 180 degrees or more), the reference point is stopped at the position before the movement without moving the corresponding reference point.

【0083】移動が可能な場合、選択された移動方向θ
に各基準点の位置を所定量、ステップ移動し(S4
8)、移動先の基準点において上述した方法によりテク
スチャ共起確率に基づくテクスチャ境界方向の推定及び
移動可否の判定の処理を繰り返す。
If movement is possible, the selected movement direction θ
Next, the position of each reference point is step-moved by a predetermined amount (S4).
8) Repeat the process of estimating the texture boundary direction based on the texture co-occurrence probability and determining whether or not to move at the reference point of the movement destination by the above-described method.

【0084】移動後の基準点間を滑らかに繋ぐ曲線を、
抽出に係る輪郭線として所定の次数(3次又は5次が典
型的)のスプライン補間により生成し、画像表示装置1
4の画面上に表示する(S49)。スプライン関数とし
ては、Bスプラインなどが典型的に用いられるが、特定
のものに限定されない。
A curve that smoothly connects the reference points after the movement is
The image display device 1 generates a contour line to be extracted by spline interpolation of a predetermined order (typically 3rd order or 5th order).
4 (S49). As a spline function, a B-spline or the like is typically used, but is not limited to a specific one.

【0085】上述した一連の処理、特に、基準点の移動
動作の収束後、又は上述の繰り返し処理を自動で一定回
数、行なった後に、更に、必要によりユーザからの指示
(マウスボタン操作及びキーボード操作など)により所
定回数繰り返した後で、抽出対象の境界位置を精密に推
定する(S50)。本実施例では、基準点位置の移動動
作がステップ移動により行なわれるので、移動ステップ
量以下の分解能での境界位置の推定が必要となり、その
ためにこの精密推定が実行される。具体的には、基準点
位置の一定範囲の近傍領域において、エッジ強度の最大
位置又は先に説明したように色成分の特徴量について色
空間で定義された距離が基準点から所定の閾値以上にな
る点の位置が求められる。
After the above-described series of processing, especially after the convergence of the movement of the reference point, or after the above-described repetition processing has been automatically performed a fixed number of times, instructions from the user (mouse button operation and keyboard operation) After a predetermined number of times, the boundary position of the extraction target is accurately estimated (S50). In the present embodiment, since the movement operation of the reference point position is performed by the step movement, it is necessary to estimate the boundary position with a resolution equal to or less than the movement step amount, and therefore, this precise estimation is performed. Specifically, in the vicinity area of a certain range of the reference point position, the maximum position of the edge strength or, as described above, the distance defined in the color space for the feature amount of the color component is equal to or more than the predetermined threshold from the reference point. The position of a point is determined.

【0086】このようにして精密に求まった基準点間を
同様にスプライン補間して、画像抽出に係る対象の輪郭
線を生成する(S51)。但し、最終的に抽出に係る輪
郭線を確定させる前に、先に説明したのと同様に、不完
全な部分を修整してもよい。例えば、指示選択装置18
により必要な部分又は適切な部分の境界線を指定選択し
てその部分を確定させるとともに、残りの部分について
上述した処理を自動継続したり、エッジ強度の最大値を
追跡するような輪郭追跡法を併用してもよい。
The contour between the reference points thus precisely determined is similarly spline-interpolated to generate a target contour line for image extraction (S51). However, before a contour line to be finally extracted is determined, an incomplete portion may be modified in the same manner as described above. For example, the instruction selecting device 18
A contour tracing method such as specifying and selecting a necessary part or an appropriate part boundary line and confirming the part and automatically continuing the above-described processing for the remaining part or tracking the maximum value of the edge strength is performed. You may use together.

【0087】最後に、抽出すべき対象又は除去すべき背
景のマスクデータ又はその輪郭線データを生成し、所定
の記憶手段に記憶して、処理を終了する(S52)。
Finally, mask data of the object to be extracted or the background to be removed or its outline data is generated and stored in a predetermined storage means, and the process is terminated (S52).

【0088】先に説明したのと同様に、各基準点の近傍
で画像の濃淡値の分散などを求め、その値に応じて上述
したテクスチャ特徴量に基づく処理と、図2に示す構成
における処理のうちの色成分に基づく領域成長処理のい
ずれかを適宜に選択して実行するようにしてもよい。後
者を実施する場合、基準点の近傍領域での領域成長は、
一定の閾値により行うのが簡易であるが、領域成長の閾
値の自動設定又は自動停止判定を行う場合には、次のよ
うにすればよい。即ち、初期輪郭の収斂又は膨張のいず
れかのモードにより抽出対象の輪郭を求めることが予め
分かっているので、収斂の場合には初期輪郭の中心方
向、膨張の場合には初期輪郭の中心からみた基準点方向
を主成長方向とし、その主成長方向を含む一定角度範囲
を領域成長範囲とし、その成長した領域の境界線部分に
ついてエッジ割合を求め、そのエッジ割合又はその変化
率などに基づいて図2について説明したように閾値の制
御又は領域成長の停止を行えばよい。領域成長後は、新
たな基準点を成長後の領域の境界線から設定するか、又
は成長後の主成長方向範囲にある境界線部分を新たな境
界線の一部として保持する。前者の場合には、主成長方
向を含む所定の範囲の境界線から適当な位置(例えば、
主成長方向にある点など)をサンプリングして設定すれ
ばよい。
In the same manner as described above, the variance of the grayscale value of the image is obtained near each reference point, and the processing based on the above-described texture feature amount according to the value is performed, and the processing in the configuration shown in FIG. Any of the area growing processes based on the color components may be appropriately selected and executed. In the latter case, the area growth in the area near the reference point is
Although it is easy to perform the process with a fixed threshold value, when performing automatic setting or automatic stop determination of the region growth threshold value, the following may be performed. That is, since it is known in advance that the contour to be extracted is determined by either the mode of convergence or expansion of the initial contour, it is viewed from the center direction of the initial contour in the case of convergence and from the center of the initial contour in the case of expansion. The reference point direction is defined as a main growth direction, a fixed angle range including the main growth direction is defined as a region growth range, an edge ratio is obtained for a boundary portion of the grown region, and a graph is obtained based on the edge ratio or its change rate. The control of the threshold value or the stop of the region growth may be performed as described in connection with No. 2. After area growth, a new reference point is set from the boundary of the area after growth, or a boundary part in the main growth direction range after growth is held as a part of the new boundary. In the former case, an appropriate position (for example, from the boundary of a predetermined range including the main growth direction)
A point in the main growth direction) may be sampled and set.

【0089】図10は、画像処理装置16の第3の構成
例の概略構成ブロック図を示す。60は初期輪郭設定装
置、62はテクスチャ特徴量抽出装置、64はエッジ強
度分布算出装置、66はテクスチャ特徴量及び入力画像
のエッジ強度分布などに基づきエネルギ関数を算出する
エネルギ関数算出装置、68は算出されたエネルギ関数
に基づき輪郭線を変形する輪郭線変形装置、70はマス
クデータ生成装置、72は、抽出画像データを生成する
抽出画像生成装置である。先の例と同様に、処理途中の
データを一時記憶する一次記憶装置を具備する。
FIG. 10 is a schematic block diagram showing a third configuration example of the image processing apparatus 16. 60 is an initial contour setting device, 62 is a texture feature amount extraction device, 64 is an edge intensity distribution calculation device, 66 is an energy function calculation device that calculates an energy function based on the texture feature amount and the edge intensity distribution of the input image, and 68 is An outline deforming device 70 for deforming the outline based on the calculated energy function, 70 is a mask data generating device, and 72 is an extracted image generating device for generating extracted image data. As in the previous example, a primary storage device for temporarily storing data being processed is provided.

【0090】図10に示す構成の動作を説明する。ここ
では、テクスチャ特徴空間においてその特徴量に関する
テクスチャエッジ位置に収束するような動的輪郭法によ
り対象画像が抽出される。ここで、テクスチャエッジ
は、所定のテクスチャ特徴量の2次元分布データについ
て急峻にその値が変化する所をエッジとして抽出したも
のである。テクスチャエッジは例えば、テクスチャ特徴
量の分布データにSobelフィルタなどによる空間微
分演算を行い、更に2値化処理を行うことにより得られ
る。
The operation of the configuration shown in FIG. 10 will be described. Here, the target image is extracted by the active contour method that converges to the texture edge position related to the feature amount in the texture feature space. Here, the texture edge is obtained by extracting, as an edge, a portion where the value of two-dimensional distribution data of a predetermined texture feature value changes rapidly. The texture edge can be obtained, for example, by performing a spatial differentiation operation on the distribution data of the texture feature amount using a Sobel filter or the like, and further performing a binarization process.

【0091】動的輪郭法とは、エッジ情報から物体の輪
郭を抽出する方法で輪郭が滑らかであることとエッジ上
にあること等を拘束条件として表わした所定のエネルギ
関数が最小となるように、輪郭線モデルを変形すること
により、物体上の輪郭に収束させる輪郭抽出方法であ
る。これを発展させた方法として、初期輪郭の近傍領域
の画像と被写体部分の局所的な領域に関する画像の特徴
量との差異に基づいて動的輪郭の輪郭上の点に内向き又
は外向きの外力を作用させる方法が考えられる。
The active contour method is a method of extracting a contour of an object from edge information so that a predetermined energy function expressing a smooth contour and being on an edge as a constraint condition is minimized. This is a contour extraction method in which a contour model is transformed to converge on a contour on an object. As a method developed from this, an inward or outward external force is applied to a point on the contour of the active contour based on the difference between the image of the area near the initial contour and the feature amount of the image relating to the local area of the subject part. Can be considered.

【0092】図11に示すフローチャートを参照して、
図10に示す構成の動作を説明する。処理例としては、
図3(b)→(e)→(g)というように変化する。
Referring to the flowchart shown in FIG.
The operation of the configuration shown in FIG. 10 will be described. As a processing example,
3 (b) → (e) → (g).

【0093】画像の入力から基準点のサンプリングまで
(S61〜S63)は、図8のS41〜S43と同じで
あるので、説明を省略する。特徴量としてテクスチャ特
徴量とエッジ強度分布を抽出し(S64,S65)、両
者からエネルギ関数を算出する(S66)。
The steps from the input of the image to the sampling of the reference point (S61 to S63) are the same as S41 to S43 in FIG. A texture feature and an edge intensity distribution are extracted as the feature (S64, S65), and an energy function is calculated from both (S66).

【0094】エネルギ関数にテクスチャ特徴量に関する
項が存在する点が、先に説明した実施例及び従来例とは
異なるところである。エネルギ関数は具体的には以下の
ように定義される。エネルギ算出装置66が、各基準点
位置v(s)において以下に示す評価関数値Eを算出
する。
The energy function has a term related to the texture feature amount, which is different from the above-described embodiment and the conventional example. The energy function is specifically defined as follows. The energy calculation device 66 calculates the following evaluation function value E at each reference point position v (s i ).

【0095】[0095]

【数10】E=Σ{Eint(v(si)) + Eimage(v(si))+E
texture(v(si)) + Eext(v(si))} ここで、Eint,Eimageの項は、従来の動的輪
郭法にも存在するものであり、その他の項目がここで新
たに導入されたものである。sは輪郭線上のi番目の
サンプリング点位置に相当する輪郭線に沿った周囲長の
値を示す。Ein は輪郭線モデルv(s)=(x
(s),y(s))が滑らかになろうとする内部エネル
ギであり、以下の式により与えられる。すなわち、
E = Σ {E int (v (s i )) + E image (v (s i )) + E
texture (v (s i )) + E ext (v (s i ))} Here, the terms E int and E image also exist in the conventional active contour method, and the other items are It is newly introduced. s i denotes the value of the circumferential length along the outline that corresponds to the i-th sampling point position on the contour. E in t is the contour line model v (s) = (x
(S), y (s)) are internal energies to be smoothed, and are given by the following equations. That is,

【0096】[0096]

【数11】 Eint(v(s)) = α(s)|dv/ds|2 + β(s)|d2v/ds2| Eimageはいわゆる濃淡エッジに引き寄せられる力
を表わすエネルギであり、エッジ強度分布算出装置64
の算出結果を用いて、
E int (v (s)) = α (s) | dv / ds | 2 + β (s) | d 2 v / ds 2 | E image is energy representing a force attracted to a so-called gray-scale edge. Yes, edge intensity distribution calculation device 64
Using the calculation result of

【0097】[0097]

【数12】Eimage(v(s)) = - wI|▽I(v(s))|2 のように求められる。同様に、Etextureは、テ
クスチャエッジに引き寄せられる力を表わすエネルギで
あり、下記式で与えられる。即ち、
(Equation 12)image(v (s)) =-wI| ▽ I (v (s)) |Two  Is required. Similarly, EtextureIs
With the energy representing the force drawn to the texture edge
And is given by the following equation: That is,

【0098】[0098]

【数13】Etexture(v(s)) = - w|▽T(v(s))|2 数12及び数13で、I(v(s))及びT(v
(s))はそれぞれ、v(s)上の画素値及びテクスチ
ャ特徴量を表わす。数11のα(s),β(s)は、輪
郭線の形状に応じて場所ごとに設定されるべきものであ
るが、定数であってもよい。W,WIは、テクスチャ
エッジと濃淡エッジのいずれに重きを置くかで決まる定
数である。
(Equation 13)texture(v (s)) =-wT| ▽ T (v (s)) |Two  In Expressions 12 and 13, I (v (s)) and T (v
(S)) is a pixel value and a text on v (s), respectively.
It represents the key feature. Α (s) and β (s) in Equation 11 are circles
It should be set for each location according to the shape of the contour line.
However, it may be a constant. WT, WIThe texture
Determined by weighting the edge or shading edge
Is a number.

【0099】Eext(v(s))は外力に相当し、適
宜に設定されり、ここでは、
E ext (v (s)) corresponds to an external force and is appropriately set.

【0100】[0100]

【数14】Eext(v(s)) = -γ{lnPin,s(T(v(s))) - lnP
out,s(T(v(s)))} γは正の定数である。Pin(T(v(s)),Pout
(T(v(s))は、初期輪郭線又はその更新後の輪郭
線についての内側近傍領域と外側近傍領域内において、
テクスチャ特徴量のそれぞれの平均値μin,Ns,μ
out,Ns及び分散σin,Ns,σout,Ns
用いて次のように表される。すなわち、
E ext (v (s)) = -γ {lnP in, s (T (v (s)))-lnP
out, s (T (v (s)))} γ is a positive constant. P in (T (v (s)), P out
(T (v (s)) is an inner contour region and an outer neighboring region of an initial contour line or an updated contour line thereof.
Average value μ in, Ns , μ of each texture feature
out, Ns and variances σ in, Ns , σ out, Ns are represented as follows. That is,

【0101】[0101]

【数15】Pin,s = (1/{(2π)1/2σin,Ns})exp{- (T(v
(s)) - μin,Ns)2/(2σ2 in,Ns)} Pout,s = (1/{(2π)1/2σout,Ns})exp{- (T(v(s)) - μ
out,Ns)2/(2σ2 out,Ns)} Nsは点v(s)についてテクスチャ特徴量の平均値及
び分散を求める近傍領域を表わす。初期輪郭の重心に近
い方を内側、遠い方を外側とする。
P in, s = (1 / {(2π) 1/2 σ in, Ns }) exp {-(T (v
(s))-μ in, Ns ) 2 / (2σ 2 in, Ns )} P out, s = (1 / {(2π) 1/2 σ out, Ns }) exp {-(T (v (s ))-μ
out, Ns) representing the 2 / (2σ 2 out, Ns )} Ns neighboring region to obtain an average value and variance of the texture feature for point v (s). The inner side is closer to the center of gravity of the initial contour, and the outer side is farther from the center of gravity of the initial contour.

【0102】数15を適用することにより、数14は、
輪郭線上のサンプリング点が初期(又は更新)輪郭線の
内側近傍領域の画像上にある確率が高ければ、輪郭線に
は外側に膨張する外力が働き、逆に、外側近傍領域の画
像上にある確率が高ければ、内側に収縮する方向の外力
が働くことを意味する。また、数15は、輪郭上のサン
プリング点v(s)におけるテクスチャ特徴量と内側又
は外側近傍領域におけるテクスチャ特徴量との差異を評
価する関数とみなすことができ、その意味において、サ
ンプリング点と近傍領域に関する他の特徴量の差異を評
価する尺度を用いても良い。数15では、確率モデルを
ガウシアンとしたが、他のモデルを用いてもよい。E
ext(v(s))においてテクスチャ特徴量Tではな
く、画像データIについて数15を評価してもよい。更
には、外力として他の成分項を付加してもよい。
By applying equation 15, equation 14 becomes
If there is a high probability that the sampling points on the contour are on the image in the area near the inner side of the initial (or updated) contour, an external force that expands outward acts on the contour, and conversely, it is on the image in the area near the outer side. If the probability is high, it means that an external force in the direction of contracting inward acts. Further, Equation 15 can be regarded as a function for evaluating the difference between the texture feature amount at the sampling point v (s) on the contour and the texture feature amount in the inner or outer neighboring region. It is also possible to use a scale for evaluating the difference between other feature amounts regarding the region. In Equation 15, the Gaussian model is used as the probability model, but another model may be used. E
In ext (v (s)), instead of the texture feature amount T, Expression 15 may be evaluated for the image data I. Further, another component item may be added as an external force.

【0103】テクスチャ特徴量が図2を参照して説明し
たGaborウエーブレット変換係数Wmnの全体にわ
たる場合には、
When the texture feature amounts cover the entire Gabor wavelet transform coefficient W mn described with reference to FIG.

【0104】[0104]

【数16】 のように、各成分についての重み付け和として定義され
る。ここに、pは正の定数である。αmnは上式の定義
によらず定数でもよい。
(Equation 16) Is defined as a weighted sum for each component. Here, p is a positive constant. α mn may be a constant regardless of the definition of the above equation.

【0105】図10に示す構成では、以上のようにして
定義されたエネルギ関数値が最小値に収束するまで、輪
郭線変形装置68が、初期輪郭線上のサンプリング点を
逐次移動させ(S67)、移動後の各点間を滑らかに結
ぶ曲線をスプライン補間などにより生成する(S6
8)。これにより、抽出すべき対象の輪郭線が自動的に
求まる。各サンプリング点の移動量は、動的輪郭法にお
いて既に知られた手法である変分法等により求められ
る。。
In the configuration shown in FIG. 10, the contour deforming device 68 sequentially moves the sampling points on the initial contour until the energy function value defined as described above converges to the minimum value (S67). A curve that smoothly connects the points after the movement is generated by spline interpolation or the like (S6).
8). Thereby, the outline of the target to be extracted is automatically determined. The movement amount of each sampling point can be obtained by a variation method or the like which is a known method in the active contour method. .

【0106】得られた輪郭線は、表示画面上で入力画像
に重畳して、視認されやすいように表示され、必要に応
じた修整できる。その後、マスクデータ生成装置70
が、輪郭線データ、抽出される画像データ又はその領域
を表わすマスクデータを生成し、抽出画像生成装置72
が、抽出された画像データを記録媒体又は記憶装置に格
納する(S72)。
The obtained outline is superimposed on the input image on the display screen, displayed so as to be easily recognized, and can be modified as required. After that, the mask data generation device 70
Generates contour data, image data to be extracted or mask data representing an area thereof, and generates an extracted image generating device 72.
Store the extracted image data in a recording medium or a storage device (S72).

【0107】初期輪郭が抽出対象へ収束する過程におい
て、画像の濃淡値(又は色成分値)に関するエネルギ項
とテクスチャ特徴量に関する項との相対的な重みは、図
2に関連して説明したようにサンプリング点の近傍での
濃淡値の分散などに基づいてテクスチャ特徴の優位性の
高さを評価した結果に基づいて決定するのが望ましい。
具体的には、数7のγで与えられるような重みづけを行
う。
In the process in which the initial contour converges on the object to be extracted, the relative weight between the energy term relating to the gray level value (or color component value) of the image and the term relating to the texture feature amount is as described with reference to FIG. It is desirable that the determination be made based on the result of evaluating the superiority of the texture feature based on the variance of the gray value near the sampling point.
Specifically, weighting is performed as given by γ in Equation 7.

【0108】[0108]

【発明の効果】以上の説明から容易に理解できるよう
に、本発明によれば、抽出対象又は非抽出対象に関する
極めて大まかな指示(点により示す指定、近似輪郭線又
は矩形枠等による指定など)を与えた後、色成分(又は
濃淡値)特徴量とテクスチャ特徴量とを用い、又は少な
くともテクスチャ特徴量を用いて、画像パターンの局所
的な特性(例えば、テクスチャ特徴成分が優位がどう
か、又はテクスチャ境界の存在可能性など)に応じた適
切な評価関数を与え、その評価関数値に基づいて抽出領
域の境界線を推定するので、極めて広範な種類の画像に
ついて簡単な操作で所望の領域の抽出(画像切り出し又
は輪郭線抽出)が可能となる。また、抽出対象の指示に
要する手間が少なくなり、一括抽出などの自動化も可能
である。
As can be easily understood from the above description, according to the present invention, extremely rough instructions (designation by dots, designation by an approximate contour line or a rectangular frame, etc.) regarding an extraction target or a non-extraction target, etc. , A color component (or gray value) feature amount and a texture feature amount, or at least the texture feature amount is used to determine a local characteristic of the image pattern (for example, whether the texture feature component is superior or Given an appropriate evaluation function according to the possibility of the existence of a texture boundary, and based on the value of the evaluation function, the boundary line of the extraction region is estimated. Extraction (image clipping or contour line extraction) becomes possible. Further, the labor required for specifying the extraction target is reduced, and automation such as batch extraction is also possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施例の基本構成ブロック図であ
る。
FIG. 1 is a block diagram showing a basic configuration of an embodiment of the present invention.

【図2】 画像処理装置16の第1例の概略構成ブロッ
ク図である。
FIG. 2 is a schematic configuration block diagram of a first example of an image processing device 16;

【図3】 本実施例の処理系の経過を示す図である。FIG. 3 is a diagram showing the progress of the processing system of the present embodiment.

【図4】 図2に示す画像処理装置16の動作フローチ
ャートである。
4 is an operation flowchart of the image processing apparatus 16 shown in FIG.

【図5】 特徴量距離算出装置26による特徴距離算出
と領域成長装置28による領域成長の動作フローチャー
トである。
FIG. 5 is an operation flowchart of a feature distance calculation by a feature distance calculating device and a region growing by a region growing device.

【図6】 自動抽出用に図4を変更したフローチャート
である。
FIG. 6 is a flowchart in which FIG. 4 is modified for automatic extraction.

【図7】 画像処理装置16の第2例の概略構成ブロッ
ク図である。
FIG. 7 is a schematic configuration block diagram of a second example of the image processing device 16;

【図8】 図7に示す画像処理装置16の動作フローチ
ャートである。
8 is an operation flowchart of the image processing apparatus 16 shown in FIG.

【図9】 数8におけるV(θ),V(θ)の数値
例を示す表である。
FIG. 9 is a table showing a numerical example of V x (θ) and V y (θ) in Expression 8.

【図10】 画像処理装置16の第3例の概略構成ブロ
ック図である。
FIG. 10 is a schematic block diagram of a third example of the image processing apparatus 16;

【図11】 図10に示す画像処理装置16の動作フロ
ーチャートである。
11 is an operation flowchart of the image processing apparatus 16 shown in FIG.

【符号の説明】[Explanation of symbols]

【実施例】10:画像入力装置 12:画像記憶装置 14:画像表示装置 16:画像処理装置 18:指示選択装置 20:核設定装置 22:テクスチャ特徴量抽出装置 24:色成分特徴量抽出装置 26:特徴量距離算出装置 28:領域成長装置 30:境界線更新装置 32:マスクデータ生成装置 34:抽出画像生成装置 40:初期輪郭設定装置 42:テクスチャ特徴量抽出装置 44:共起確率場算出装置 46:テクスチャ境界方向算出装置 48:サンプリング点移動装置 50:移動停止判定装置 52:境界位置精密推定装置 54:境界線更新装置 56:マスクデータ生成装置 58:抽出画像生成装置 60:初期輪郭設定装置 62:テクスチャ特徴量抽出装置 64:エッジ強度分布算出装置 66:エネルギ関数算出装置 68:輪郭線変形装置 70:マスクデータ生成装置 72:抽出画像生成装置DESCRIPTION OF THE PREFERRED EMBODIMENTS 10: Image Input Device 12: Image Storage Device 14: Image Display Device 16: Image Processing Device 18: Instruction Selection Device 20: Kernel Setting Device 22: Texture Feature Extraction Device 24: Color Component Feature Extraction Device 26 : Feature amount distance calculation device 28: Region growth device 30: Boundary line update device 32: Mask data generation device 34: Extracted image generation device 40: Initial contour setting device 42: Texture feature value extraction device 44: Co-occurrence probability field calculation device 46: Texture boundary direction calculating device 48: Sampling point moving device 50: Moving stop determining device 52: Boundary position precise estimating device 54: Boundary line updating device 56: Mask data generating device 58: Extracted image generating device 60: Initial contour setting device 62: Texture feature extraction device 64: Edge intensity distribution calculation device 66: Energy function calculation device 68: Ring Linear transformation device 70: the mask data generation unit 72: extraction image generating apparatus

───────────────────────────────────────────────────── フロントページの続き (72)発明者 高橋 史明 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 Fターム(参考) 5C076 AA02 AA33 BA03 BB04 BB25 CA11 5L096 AA02 AA06 BA07 CA07 CA24 DA01 EA37 EA39 FA06 FA14 FA15 FA39 FA45 FA53 FA66 GA08 GA22 GA23 GA51  ────────────────────────────────────────────────── ─── Continued on the front page (72) Fumiaki Takahashi 3-30-2 Shimomaruko, Ota-ku, Tokyo F-term (reference) in Canon Inc. 5C076 AA02 AA33 BA03 BB04 BB25 CA11 5L096 AA02 AA06 BA07 CA07 CA24 DA01 EA37 EA39 FA06 FA14 FA15 FA39 FA45 FA53 FA66 GA08 GA22 GA23 GA51

Claims (41)

【特許請求の範囲】[Claims] 【請求項1】 画像中に、所定の点、線分及び領域の少
なくとも1つによって指定される核を設定し、 当該核を構成する少なくとも一つの基準点からなる局所
領域において、テクスチャ特徴量を含む評価関数を算出
し、 当該評価関数の値に基づき当該核の形状を更新すること
により当該画像中の所定領域の境界線を定めることを特
徴とする画像抽出方法。
1. A nucleus specified by at least one of a predetermined point, a line segment, and a region is set in an image, and a texture feature amount is determined in a local region including at least one reference point constituting the nucleus. An image extraction method, comprising: calculating an evaluation function including the evaluation function; and updating the shape of the nucleus based on the value of the evaluation function to determine a boundary of a predetermined region in the image.
【請求項2】 当該評価関数は、色成分の特徴量とテク
スチャ特徴量を因子とする請求項1に記載の画像抽出方
法。
2. The image extraction method according to claim 1, wherein the evaluation function uses a feature amount of a color component and a texture feature amount as factors.
【請求項3】 当該評価関数は、所定の方法で与えられ
た着目点と当該核を構成する基準点について、色成分の
特徴量に基づく特徴空間内での2点間の第1の距離と、
テクスチャ特徴量に基づく特徴空間内の当該2点間の第
2の距離とを重み付け加算するものであり、 当該評価関数の関数値に基づき当該基準点の近傍領域画
像と当該着目点の近傍領域画像との類似度を求め、当該
類似度が所定閾値より大きい場合に当該着目点又はその
近傍領域を当該基準点を含む所定の抽出領域に併合し、
当該類似度が当該閾値以下でかつ当該着目点が当該抽出
領域に含まれる場合に、当該抽出領域から削除すること
により、当該核の形状を更新することを特徴とする請求
項2に記載の画像抽出方法。
3. The evaluation function calculates a first distance between two points in a feature space based on a feature amount of a color component between a point of interest given by a predetermined method and a reference point forming the nucleus. ,
A weighted addition of the second distance between the two points in the feature space based on the texture feature amount, and a neighborhood image of the reference point and a neighborhood image of the target point based on the function value of the evaluation function. When the similarity is greater than a predetermined threshold, the point of interest or its neighboring area is merged with a predetermined extraction area including the reference point,
The image according to claim 2, wherein when the similarity is equal to or less than the threshold and the point of interest is included in the extraction region, the shape of the nucleus is updated by deleting the extraction point from the extraction region. Extraction method.
【請求項4】 当該評価関数は、所定の方法で与えられ
た着目点と当該核を構成する基準点について、色成分の
特徴量に基づく特徴空間内での2点間の第1の距離と、
テクスチャ特徴量に基づく特徴空間内の当該2点間の第
2の距離とのいずれか一方を所定の基準に基づき選択す
るものであり、 当該評価関数の関数値に基づき当該基準点の近傍領域画
像と当該着目点の近傍領域画像との類似度を求め、当該
類似度が所定閾値より大きい場合に当該着目点又はその
近傍領域を当該基準点を含む所定の抽出領域に併合し、
当該類似度が当該閾値以下でかつ当該着目点が当該抽出
領域に含まれる場合に、当該抽出領域から削除すること
により、当該核の形状を更新することを特徴とする請求
項2に記載の画像抽出方法。
4. The evaluation function calculates a first distance between two points in a feature space based on a feature amount of a color component between a point of interest given by a predetermined method and a reference point constituting the nucleus. ,
And selecting one of a second distance between the two points in the feature space based on the texture feature amount based on a predetermined criterion, and an image of an area near the reference point based on a function value of the evaluation function. And calculating the similarity between the vicinity area image of the point of interest and the similarity, if the similarity is greater than a predetermined threshold, merging the point of interest or its neighboring area with a predetermined extraction area including the reference point,
The image according to claim 2, wherein when the similarity is equal to or less than the threshold and the point of interest is included in the extraction region, the shape of the nucleus is updated by deleting the extraction point from the extraction region. Extraction method.
【請求項5】 当該評価関数は、当該基準点近傍におけ
る当該テクスチャ特徴量に関する所定の共起確率値の関
数として表わされ、当該評価関数の関数値が最大となる
方向に当該各基準点を所定量移動することにより当該核
の形状を更新することを特徴とする請求項1に記載の画
像抽出方法。
5. The evaluation function is expressed as a function of a predetermined co-occurrence probability value related to the texture feature amount in the vicinity of the reference point, and the reference point is set in a direction in which the function value of the evaluation function becomes maximum. The method according to claim 1, wherein the shape of the nucleus is updated by moving the nucleus by a predetermined amount.
【請求項6】 当該核の境界線上の点のエッジ割合の値
が所定の基準値以上に達すると、当該抽出領域の更新処
理を自動停止する請求項1に記載の画像抽出方法。
6. The image extraction method according to claim 1, wherein when the value of the edge ratio of a point on the boundary line of the nucleus reaches a predetermined reference value or more, the update processing of the extraction area is automatically stopped.
【請求項7】 当該核の境界線上の点のエッジ割合の変
化率の絶対値が所定の基準値以下に達すると、当該抽出
領域の更新処理を自動停止する請求項1に記載の画像抽
出方法。
7. The image extraction method according to claim 1, wherein when the absolute value of the rate of change of the edge ratio of a point on the boundary line of the nucleus reaches a predetermined reference value or less, the update processing of the extraction area is automatically stopped. .
【請求項8】 当該閾値は所定の指示選択手段からの信
号に基づき更新される請求項3に記載の画像抽出方法。
8. The image extracting method according to claim 3, wherein the threshold is updated based on a signal from a predetermined instruction selecting unit.
【請求項9】 当該評価関数は、テクスチャ特徴量の境
界で最小値を与える項を含む所定のエネルギ関数であ
り、当該評価関数の関数値が最小となるように当該各基
準点の位置を移動することにより当該核の形状を更新す
る請求項1に記載の画像抽出方法。
9. The evaluation function is a predetermined energy function including a term that gives a minimum value at the boundary of the texture feature amount, and moves the position of each reference point so that the function value of the evaluation function becomes minimum. 2. The image extraction method according to claim 1, wherein the shape of the nucleus is updated by performing the process.
【請求項10】 当該第1の距離は、複数の成分に分解
された各色成分についての当該基準点での値と当該着目
点での値の差分値及び当該差分の絶対値のいずれか一方
に関する重み付きべき乗和で表わされ、当該第2の距離
は、複数の成分に分解された各テクスチャ特徴成分につ
いての当該基準点での値と当該着目点での値の差分値及
び当該差分の絶対値のいずれ一方に関する重み付きべき
乗和で表わされる請求項3に記載の画像抽出方法。
10. The first distance relates to one of a difference value between a value at the reference point and a value at the point of interest for each color component decomposed into a plurality of components, and an absolute value of the difference. The second distance is represented by a weighted power sum, and the second distance is a difference value between the value at the reference point and the value at the point of interest for each texture feature component decomposed into a plurality of components, and the absolute value of the difference. 4. The image extraction method according to claim 3, wherein the image extraction is represented by a weighted sum of powers concerning one of the values.
【請求項11】 当該第1の距離は、複数の成分に分解
された各色成分についての当該基準点での値と当該着目
点での値の差分値及び当該差分の絶対値の何れか一方に
関する重み付きべき乗和で表わされ、当該第2の距離
は、複数の成分に分解された各テクスチャ特徴成分に関
する所定の重み付きべき乗和で表わされるエネルギ値に
ついての当該基準点での値と当該着目点での値の差分値
及び当該差分の絶対値の何れか一方に関する所定の関数
値で表わされる請求項3に記載の画像抽出方法。
11. The first distance relates to one of a difference value between a value at the reference point and a value at the target point for each color component separated into a plurality of components, and an absolute value of the difference. The second distance is represented by a weighted sum of powers, and the second distance is a value at the reference point of an energy value represented by a predetermined weighted sum of powers for each texture feature component decomposed into a plurality of components, and 4. The image extraction method according to claim 3, wherein the image extraction method is represented by a predetermined function value relating to one of a difference value of a value at a point and an absolute value of the difference.
【請求項12】 当該第1の距離と当該第2の距離を重
み付け加算する際の重み係数は、当該基準点近傍での濃
淡値に関する分散の値に基づいて決定される請求項3に
記載の画像抽出方法。
12. The method according to claim 3, wherein the weighting factor for weighting and adding the first distance and the second distance is determined based on a variance value related to a gray value near the reference point. Image extraction method.
【請求項13】 画像中に所定の点、線分及び領域の少
なくとも1つによって指定される核を設定する核設定ス
テップと、 当該核上に設定された代表点を基準点とする基準点設定
ステップと、 所定の方法で与えられた着目点と当該基準点について色
成分の特徴量に基づく特徴空間内での2点間の第1の距
離と、テクスチャ特徴量に基づく特徴空間内の当該2点
間の第2の距離とを重み付け加算して得られる特徴量距
離に基づき当該基準点の近傍領域画像と当該着目点の近
傍領域画像との類似度を求める類似度算出ステップと、 当該類似度が所定の閾値より大きい場合に、当該着目点
又はその近傍領域を基準点を含む所定の抽出領域に併合
し、当該閾値以下でかつ当該着目点が当該抽出領域に含
まれる場合に当該該抽出領域から削除することにより、
当該抽出領域の境界線を更新する抽出領域更新ステップ
と、 更新後の当該抽出領域の境界線を表示する境界線表示ス
テップとからなることを特徴とする画像抽出方法。
13. A nucleus setting step of setting a nucleus specified by at least one of a predetermined point, a line segment, and an area in an image, and setting a reference point using a representative point set on the nucleus as a reference point. A step, a first distance between two points in a feature space based on a feature amount of a color component for a point of interest given by a predetermined method and the reference point, and a second distance in a feature space based on a texture feature amount. A similarity calculating step of calculating a similarity between a neighboring area image of the reference point and a neighboring area image of the target point based on a feature distance obtained by weighting and adding a second distance between the points; Is larger than a predetermined threshold, the point of interest or a nearby area is merged with a predetermined extraction area including a reference point, and when the point of interest is equal to or less than the threshold and the point of interest is included in the extraction area, the extraction area is To be removed from Than,
An image extraction method, comprising: an extraction area update step of updating a boundary line of the extraction area; and a boundary line display step of displaying a boundary line of the updated extraction area.
【請求項14】 当該類似度算出ステップは、当該第1
の距離と当該第2の距離の一方を選択して当該特徴量距
離とする請求項13に記載の画像抽出方法。
14. The method according to claim 1, wherein the similarity calculating step includes:
14. The image extraction method according to claim 13, wherein one of the distance and the second distance is selected to be the feature amount distance.
【請求項15】 当該抽出領域更新ステップは、当該閾
値を当該境界線の更新ごとに所定の方法で増加又は減少
する閾値更新ステップを含むことを特徴とする請求項1
3に記載の画像抽出方法。
15. The method according to claim 1, wherein the extracting area updating step includes a threshold updating step of increasing or decreasing the threshold by a predetermined method every time the boundary line is updated.
3. The image extraction method according to 3.
【請求項16】 当該閾値更新ステップは、当該抽出領
域上の所定の境界線上の点がエッジ点である割合を求め
るエッジ割合算出ステップと、当該エッジの割合の値及
びその変化率の一方に基づいて当該閾値を更新する更新
ステップとを有する請求項15に記載の画像抽出方法。
16. The threshold updating step includes: an edge ratio calculating step of obtaining a ratio at which a point on a predetermined boundary line on the extraction area is an edge point; and one of a value of the edge ratio and a change rate thereof. 16. The image extracting method according to claim 15, further comprising: an updating step of updating the threshold value by using a command.
【請求項17】 当該閾値は、所定の指示選択手段から
の信号に基づき更新されることを特徴とする請求項13
に記載の画像抽出方法。
17. The apparatus according to claim 13, wherein said threshold value is updated based on a signal from a predetermined instruction selecting means.
2. The image extraction method according to 1.
【請求項18】 当該第1の距離は、複数の成分に分解
された各色成分についての当該基準点での値と当該着目
点での値の差分値及び当該差分の絶対値のいずれか一方
に関する重み付きべき乗和で表わされ、当該第2の距離
は、複数の成分に分解された各テクスチャ特徴成分につ
いての当該基準点での値と当該着目点での値の差分値及
び当該差分の絶対値のいずれ一方に関する重み付きべき
乗和で表わされる請求項13に記載の画像抽出方法。
18. The first distance relates to one of a difference value between a value at the reference point and a value at the point of interest for each color component decomposed into a plurality of components, and an absolute value of the difference. The second distance is represented by a weighted power sum, and the second distance is a difference value between the value at the reference point and the value at the point of interest for each texture feature component decomposed into a plurality of components, and the absolute value of the difference. 14. The image extraction method according to claim 13, wherein the image extraction method is represented by a weighted sum of powers concerning one of the values.
【請求項19】 当該第1の距離は、複数の成分に分解
された各色成分についての当該基準点での値と当該着目
点での値の差分値及び当該差分の絶対値の何れか一方に
関する重み付きべき乗和で表わされ、当該第2の距離
は、複数の成分に分解された各テクスチャ特徴成分に関
する所定の重み付きべき乗和で表わされるエネルギ値に
ついての当該基準点での値と当該着目点での値の差分値
及び当該差分の絶対値の何れか一方に関する所定の関数
値で表わされる請求項13に記載の画像抽出方法。
19. The first distance relates to one of a difference value between a value at the reference point and a value at the target point for each color component separated into a plurality of components, and an absolute value of the difference. The second distance is represented by a weighted sum of powers, and the second distance is a value at the reference point of an energy value represented by a predetermined weighted sum of powers for each texture feature component decomposed into a plurality of components, and 14. The image extraction method according to claim 13, wherein the image extraction method is represented by a predetermined function value regarding one of a difference value of a value at a point and an absolute value of the difference.
【請求項20】 当該第1の距離と当該第2の距離を重
み付け加算する際の重み係数は、当該基準点近傍での濃
淡値に関する分散の値に基づいて決定される請求項13
に記載の画像抽出方法。
20. A weighting coefficient for weighting and adding the first distance and the second distance is determined based on a variance value regarding a gray value near the reference point.
2. The image extraction method according to 1.
【請求項21】 抽出すべき対象物の内部又は外部のい
ずれかに存在する初期輪郭を設定する初期輪郭設定ステ
ップと、 当該初期輪郭上に設定された所定の複数個の代表点を基
準点とする基準点設定ステップと、 所定の方法で与えられた着目点と当該基準点について色
成分の特徴量に基づく特徴空間内での2点間の第1の距
離とテクスチャ特徴量に基づく特徴空間内の当該2点間
の第2の距離とを重み付け加算して得られる特徴量距離
に基づき当該基準点の近傍領域画像と当該着目点の近傍
領域画像との類似度を求める類似度算出ステップと、 当該該類似度が所定の閾値より大きい場合に当該着目点
又はその近傍領域を当該基準点を含む所定の抽出領域に
併合し、当該閾値以下でかつ当該着目点が当該抽出領域
に含まれる場合に当該抽出領域から削除することにより
当該抽出領域の境界線を所定回数更新する抽出領域更新
ステップと、 当該初期輪郭の全体が当該対象物の外部にあるときは、
更新された当該抽出領域の内側境界線上のエッジ割合に
基づき当該閾値を決定し、当該初期輪郭の全体が当該対
象物の内部にあるときは、更新された当該抽出領域の外
側境界線上のエッジ割合に基づき当該閾値を決定する閾
値設定ステップとからなることを特徴とする画像抽出方
法。
21. An initial contour setting step of setting an initial contour existing inside or outside of an object to be extracted, and a plurality of predetermined representative points set on the initial contour as reference points. A reference point setting step, and a first distance between two points in the feature space based on the feature amount of the color component with respect to the point of interest given by the predetermined method and the feature point in the feature space based on the texture feature amount A similarity calculating step of calculating a similarity between the neighboring area image of the reference point and the neighboring area image of the target point based on the feature distance obtained by weighting and adding the second distance between the two points; When the similarity is larger than a predetermined threshold, the point of interest or its neighboring area is merged into a predetermined extraction area including the reference point, and when the similarity is equal to or less than the threshold and the point of interest is included in the extraction area, The extraction area An extraction area updating step of updating the boundary line of the extraction area by a predetermined number of times by deleting the initial contour from the object, and when the entire initial contour is outside the object,
The threshold is determined based on the updated edge ratio on the inner boundary line of the extracted region, and the edge ratio on the outer boundary line of the updated extracted region is determined when the entire initial contour is inside the object. A threshold setting step of determining the threshold based on the threshold value.
【請求項22】 当該類似度算出ステップは、当該第1
の距離と当該第2の距離の一方を選択して当該特徴量距
離とする請求項21に記載の画像抽出方法。
22. The method according to claim 21, wherein the similarity calculating step includes:
22. The image extraction method according to claim 21, wherein one of the distance and the second distance is selected and set as the feature amount distance.
【請求項23】 当該第1の距離は、複数の成分に分解
された各色成分についての当該基準点での値と当該着目
点での値の差分値及び当該差分の絶対値のいずれか一方
に関する重み付きべき乗和で表わされ、当該第2の距離
は、複数の成分に分解された各テクスチャ特徴成分につ
いての当該基準点での値と当該着目点での値の差分値及
び当該差分の絶対値のいずれ一方に関する重み付きべき
乗和で表わされる請求項21に記載の画像抽出方法。
23. The first distance relates to one of a difference value between a value at the reference point and a value at the point of interest for each color component separated into a plurality of components, and an absolute value of the difference. The second distance is represented by a weighted power sum, and the second distance is a difference value between the value at the reference point and the value at the point of interest for each texture feature component decomposed into a plurality of components, and the absolute value of the difference. 22. The image extraction method according to claim 21, wherein the image extraction method is represented by a weighted sum of powers concerning one of the values.
【請求項24】 当該第1の距離は、複数の成分に分解
された各色成分についての当該基準点での値と当該着目
点での値の差分値及び当該差分の絶対値の何れか一方に
関する重み付きべき乗和で表わされ、当該第2の距離
は、複数の成分に分解された各テクスチャ特徴成分に関
する所定の重み付きべき乗和で表わされるエネルギ値に
ついての当該基準点での値と当該着目点での値の差分値
及び当該差分の絶対値の何れか一方に関する所定の関数
値で表わされる請求項21に記載の画像抽出方法。
24. The first distance relates to any one of a difference value between a value at the reference point and a value at the point of interest for each color component separated into a plurality of components, and an absolute value of the difference. The second distance is represented by a weighted sum of powers, and the second distance is a value at the reference point of an energy value represented by a predetermined weighted sum of powers for each texture feature component decomposed into a plurality of components, and 22. The image extraction method according to claim 21, wherein the image extraction method is represented by a predetermined function value regarding one of a difference value of a value at a point and an absolute value of the difference.
【請求項25】 当該第1の距離と当該第2の距離を重
み付け加算する際の重み係数は、当該基準点近傍での濃
淡値に関する分散の値に基づいて決定される請求項21
に記載の画像抽出方法。
25. A weighting coefficient for weighting and adding the first distance and the second distance is determined based on a variance value relating to a gray value near the reference point.
2. The image extraction method according to 1.
【請求項26】 画像中に所定の点、線分及び領域の少
なくとも1つによって指定される核を設定する設定手段
と、 当該核を構成する少なくとも1つの基準点からなる局所
領域において色成分の特徴量とテクスチャ特徴量の少な
くとも一方を含む所定の評価関数の関数値を求める評価
関数算出手段と、 当該評価関数の関数値に基づき当該核の形状を更新する
ことにより画像中の所定領域の境界線を定める境界線更
新手段とを具備することを特徴とする画像抽出装置。
26. A setting means for setting a nucleus specified by at least one of a predetermined point, a line segment and an area in an image, and a color component of a local area comprising at least one reference point constituting the nucleus. Evaluation function calculation means for obtaining a function value of a predetermined evaluation function including at least one of a feature amount and a texture feature amount; and a boundary of a predetermined region in the image by updating the shape of the nucleus based on the function value of the evaluation function. An image extracting apparatus comprising: a boundary updating unit that determines a line.
【請求項27】 当該評価関数は、所定の方法で与えら
れた着目点と当該核を構成する基準点について色成分の
特徴量に基づく特徴空間内での2点間の第1の距離とテ
クスチャ特徴量に基づく特徴空間内での当該2点間の第
2の距離とを所定の方法で重み付け加算し、又はいずれ
かを所定の基準に基づき選択して得られるものであり、
当該境界線更新手段は、当該評価関数の関数値に基づき
当該基準点の近傍領域画像と当該着目点の近傍領域画像
との類似度を求め、当該類似度が所定の閾値より大きい
場合には当該着目点又はその近傍領域を当該基準点を含
む所定の抽出領域に併合し、当該類似度が当該閾値以下
でかつ当該着目点が当該抽出領域に含まれる場合に当該
抽出領域から削除することにより当該核の形状を更新す
る請求項26に記載の画像抽出装置。
27. The evaluation function includes a first distance and a texture between two points in a feature space based on a feature amount of a color component for a point of interest given by a predetermined method and a reference point constituting the nucleus. A weighted addition of the second distance between the two points in the feature space based on the feature amount by a predetermined method, or one of them is selected based on a predetermined criterion, and is obtained.
The boundary line updating unit obtains the similarity between the neighboring area image of the reference point and the neighboring area image of the target point based on the function value of the evaluation function. If the similarity is greater than a predetermined threshold, The point of interest or its neighboring area is merged with a predetermined extraction area including the reference point, and when the similarity is equal to or less than the threshold and the point of interest is included in the extraction area, the point is deleted from the extraction area. The image extraction device according to claim 26, wherein the shape of the nucleus is updated.
【請求項28】 当該第1の距離は、複数の成分に分解
された各色成分についての当該基準点での値と当該着目
点での値の差分値及び当該差分の絶対値のいずれか一方
に関する重み付きべき乗和で表わされ、当該第2の距離
は、複数の成分に分解された各テクスチャ特徴成分につ
いての当該基準点での値と当該着目点での値の差分値及
び当該差分の絶対値のいずれ一方に関する重み付きべき
乗和で表わされる請求項26に記載の画像抽出装置。
28. The first distance relates to one of a difference value between a value at the reference point and a value at the point of interest for each color component separated into a plurality of components, and an absolute value of the difference. The second distance is represented by a weighted power sum, and the second distance is a difference value between the value at the reference point and the value at the point of interest for each texture feature component decomposed into a plurality of components, and the absolute value of the difference. 27. The image extraction device according to claim 26, wherein the image extraction device is represented by a weighted sum of powers concerning one of the values.
【請求項29】 当該第1の距離は、複数の成分に分解
された各色成分についての当該基準点での値と当該着目
点での値の差分値及び当該差分の絶対値の何れか一方に
関する重み付きべき乗和で表わされ、当該第2の距離
は、複数の成分に分解された各テクスチャ特徴成分に関
する所定の重み付きべき乗和で表わされるエネルギ値に
ついての当該基準点での値と当該着目点での値の差分値
及び当該差分の絶対値の何れか一方に関する所定の関数
値で表わされる請求項26に記載の画像抽出装置。
29. The first distance relates to one of a difference value between a value at the reference point and a value at the target point for each color component separated into a plurality of components, and an absolute value of the difference. The second distance is represented by a weighted sum of powers, and the second distance is a value at the reference point of an energy value represented by a predetermined weighted sum of powers for each texture feature component decomposed into a plurality of components, and 27. The image extraction device according to claim 26, wherein the image extraction device is represented by a predetermined function value regarding one of a difference value of a value at a point and an absolute value of the difference.
【請求項30】 当該第1の距離と当該第2の距離を重
み付け加算する際の重み係数は、当該基準点近傍での濃
淡値に関する分散の値に基づいて決定される請求項26
に記載の画像抽出装置。
30. A weighting coefficient for weighting and adding the first distance and the second distance is determined based on a variance value regarding a gray value near the reference point.
An image extraction device according to claim 1.
【請求項31】 画像中に所定の抽出核を設定する設定
手段と、 当該画像中に所定の方法で与えられた着目点と当該抽出
核を構成する基準点について色成分の特徴量に基づく特
徴空間内での2点間の第1の距離とテクスチャ特徴量に
基づく特徴空間内での当該2点間の第2の距離とを所定
の方法で重み付け加算して得られる所定の特徴量距離に
基づき当該基準点の近傍領域画像と当該着目点の近傍領
域画像との類似度を求める類似度算出手段と、 当該類似度が所定の閾値より大きい場合に当該着目点又
はその近傍領域を所定の抽出領域に併合する併合手段と
を備えることを特徴とする画像抽出装置。
31. A setting means for setting a predetermined extraction nucleus in an image, and a feature based on a color component feature amount for a point of interest given by a predetermined method in the image and a reference point constituting the extraction nucleus. A predetermined feature amount distance obtained by weighting and adding a first distance between two points in the space and a second distance between the two points in the feature space based on the texture feature amount by a predetermined method. A similarity calculating means for calculating a similarity between the neighboring area image of the reference point and the neighboring area image of the point of interest, and extracting the point of interest or its neighboring area when the similarity is greater than a predetermined threshold value An image extracting apparatus, comprising: merging means for merging into an area.
【請求項32】 当該類似度算出手段は、当該第1の距
離と当該第2の距離の一方を選択して当該特徴量距離と
する請求項31に記載の画像抽出装置。
32. The image extraction device according to claim 31, wherein the similarity calculation means selects one of the first distance and the second distance and sets the selected distance as the feature amount distance.
【請求項33】 当該第1の距離は、複数の成分に分解
された各色成分についての当該基準点での値と当該着目
点での値の差分値及び当該差分の絶対値のいずれか一方
に関する重み付きべき乗和で表わされ、当該第2の距離
は、複数の成分に分解された各テクスチャ特徴成分につ
いての当該基準点での値と当該着目点での値の差分値及
び当該差分の絶対値のいずれ一方に関する重み付きべき
乗和で表わされる請求項31に記載の画像抽出装置。
33. The first distance relates to one of a difference value between a value at the reference point and a value at the target point for each color component separated into a plurality of components, and an absolute value of the difference. The second distance is represented by a weighted power sum, and the second distance is a difference value between the value at the reference point and the value at the point of interest for each texture feature component decomposed into a plurality of components, and the absolute value of the difference. 32. The image extraction device according to claim 31, wherein the image extraction device is represented by a weighted power sum regarding one of the values.
【請求項34】 当該第1の距離は、複数の成分に分解
された各色成分についての当該基準点での値と当該着目
点での値の差分値及び当該差分の絶対値の何れか一方に
関する重み付きべき乗和で表わされ、当該第2の距離
は、複数の成分に分解された各テクスチャ特徴成分に関
する所定の重み付きべき乗和で表わされるエネルギ値に
ついての当該基準点での値と当該着目点での値の差分値
及び当該差分の絶対値の何れか一方に関する所定の関数
値で表わされる請求項31に記載の画像抽出装置。
34. The first distance relates to any one of a difference value between a value at the reference point and a value at the point of interest for each color component separated into a plurality of components, and an absolute value of the difference. The second distance is represented by a weighted sum of powers, and the second distance is a value at the reference point of an energy value represented by a predetermined weighted sum of powers for each texture feature component decomposed into a plurality of components, and The image extraction device according to claim 31, wherein the image extraction device is represented by a predetermined function value regarding one of a difference value of a value at a point and an absolute value of the difference.
【請求項35】 当該第1の距離と当該第2の距離を重
み付け加算する際の重み係数は、当該基準点近傍での濃
淡値に関する分散の値に基づいて決定される請求項31
に記載の画像抽出装置。
35. A weighting coefficient for weighting and adding the first distance and the second distance is determined based on a variance value relating to a gray value near the reference point.
An image extraction device according to claim 1.
【請求項36】 画像中に所定の点、線分及び領域の少
なくとも1つによって指定される核を設定する核設定手
段と、 当該核上に設定された所定の代表点を基準点とする基準
点設定手段と、 所定の方法で与えられた着目点と当該基準点について色
成分の特徴量に基づく特徴空間内での2点間の第1の距
離とテクスチャ特徴量に基づく特徴空間内の当該2点間
の第2の距離とを所定の方法で重み付け加算して得られ
る特徴量距離に基づき当該基準点の近傍領域画像と当該
着目点の近傍領域画像との類似度を求める類似度算出手
段と、 当該類似度が所定の閾値より大きい場合に当該着目点又
はその近傍領域を当該基準点を含む所定の抽出領域に併
合し、当該閾値以下でかつ当該着目点が当該抽出領域に
含まれる場合に当該抽出領域から削除することにより当
該抽出領域の境界線を所定回数更新する抽出領域更新手
段とを備えることを特徴とする画像抽出装置。
36. A nucleus setting means for setting a nucleus specified by at least one of a predetermined point, a line segment, and a region in an image, and a reference using a predetermined representative point set on the nucleus as a reference point. A point setting means, a first distance between two points in a feature space based on a feature amount of a color component and a corresponding point in a feature space based on a texture feature amount for a point of interest given by a predetermined method and the reference point. A similarity calculating means for calculating a similarity between a neighboring area image of the reference point and a neighboring area image of the target point based on a feature distance obtained by weighting and adding a second distance between the two points by a predetermined method; And if the similarity is greater than a predetermined threshold, the point of interest or a nearby area is merged with a predetermined extraction area including the reference point, and the point of interest is equal to or less than the threshold and the point of interest is included in the extraction area. Must be deleted from the extraction area. And an extraction area updating means for updating a boundary line of the extraction area by a predetermined number of times.
【請求項37】 当該類似度算出手段は、当該第1の距
離と当該第2の距離の一方を選択して当該特徴量距離と
する請求項36に記載の画像抽出装置。
37. The image extraction apparatus according to claim 36, wherein the similarity calculation means selects one of the first distance and the second distance and sets the selected distance as the feature amount distance.
【請求項38】 当該第1の距離は、複数の成分に分解
された各色成分についての当該基準点での値と当該着目
点での値の差分値及び当該差分の絶対値のいずれか一方
に関する重み付きべき乗和で表わされ、当該第2の距離
は、複数の成分に分解された各テクスチャ特徴成分につ
いての当該基準点での値と当該着目点での値の差分値及
び当該差分の絶対値のいずれ一方に関する重み付きべき
乗和で表わされる請求項36に記載の画像抽出装置。
38. The first distance relates to one of a difference value between a value at the reference point and a value at the point of interest for each color component separated into a plurality of components, and an absolute value of the difference. The second distance is represented by a weighted power sum, and the second distance is a difference value between the value at the reference point and the value at the point of interest for each texture feature component decomposed into a plurality of components, and the absolute value of the difference. 37. The image extraction device according to claim 36, wherein the image extraction device is represented by a weighted sum of powers regarding one of the values.
【請求項39】 当該第1の距離は、複数の成分に分解
された各色成分についての当該基準点での値と当該着目
点での値の差分値及び当該差分の絶対値の何れか一方に
関する重み付きべき乗和で表わされ、当該第2の距離
は、複数の成分に分解された各テクスチャ特徴成分に関
する所定の重み付きべき乗和で表わされるエネルギ値に
ついての当該基準点での値と当該着目点での値の差分値
及び当該差分の絶対値の何れか一方に関する所定の関数
値で表わされる請求項36に記載の画像抽出装置。
39. The first distance relates to any one of a difference value between a value at the reference point and a value at the point of interest for each color component separated into a plurality of components, and an absolute value of the difference. The second distance is represented by a weighted sum of powers, and the second distance is a value at the reference point of an energy value represented by a predetermined weighted sum of powers for each texture feature component decomposed into a plurality of components, and 37. The image extraction device according to claim 36, wherein the image extraction device is represented by a predetermined function value relating to one of a difference value of a value at a point and an absolute value of the difference.
【請求項40】 当該第1の距離と当該第2の距離を重
み付け加算する際の重み係数は、当該基準点近傍での濃
淡値に関する分散の値に基づいて決定される請求項36
に記載の画像抽出装置。
40. A weighting coefficient for weighting and adding the first distance and the second distance is determined based on a variance value relating to a gray value near the reference point.
An image extraction device according to claim 1.
【請求項41】 請求項1乃至25の何れか1つに記載
の画像抽出方法のプログラム・ソフトウエアを記憶する
ことを特徴とする記憶媒体。
41. A storage medium storing the program software of the image extraction method according to claim 1. Description:
JP11014680A 1999-01-22 1999-01-22 Image extraction method and device and storage medium Withdrawn JP2000216979A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP11014680A JP2000216979A (en) 1999-01-22 1999-01-22 Image extraction method and device and storage medium
US09/488,792 US6674905B1 (en) 1999-01-22 2000-01-21 Image processing method, image processing apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11014680A JP2000216979A (en) 1999-01-22 1999-01-22 Image extraction method and device and storage medium

Publications (1)

Publication Number Publication Date
JP2000216979A true JP2000216979A (en) 2000-08-04

Family

ID=11867936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11014680A Withdrawn JP2000216979A (en) 1999-01-22 1999-01-22 Image extraction method and device and storage medium

Country Status (1)

Country Link
JP (1) JP2000216979A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7046865B2 (en) 2001-10-30 2006-05-16 Nec Corporation Determination of similarity using weighting value depending on the type of characteristic
US7062083B2 (en) 2001-01-09 2006-06-13 Samsung Electronics Co., Ltd. Image retrieval method based on combination of color and texture features
JP2006211513A (en) * 2005-01-31 2006-08-10 Ricoh Co Ltd Encoding processor, encoding processing method, program and information recording medium
JP2008059329A (en) * 2006-08-31 2008-03-13 Canon Inc Apparatus and method of closed loop automatic recognition
JP2008204479A (en) * 2001-12-03 2008-09-04 Microsoft Corp Method for automatic detection and tracking of multiple individuals using multiple cues and computer readable storage medium
JP2013109691A (en) * 2011-11-24 2013-06-06 Canon Inc Image processing device, image processing method, and image processing program
WO2013088665A1 (en) * 2011-12-16 2013-06-20 パナソニック株式会社 Image region extraction device, image region extraction method, and image region extraction program
CN103914840A (en) * 2014-04-01 2014-07-09 山东大学 Automatic human body contour extracting method for non-simple background
US9830530B2 (en) 2014-07-31 2017-11-28 International Business Machines Corporation High speed searching method for large-scale image databases
JP2018097414A (en) * 2016-12-08 2018-06-21 富士ゼロックス株式会社 Image processing apparatus, image processing method, image processing system and program
JP2021022764A (en) * 2019-07-24 2021-02-18 京セラドキュメントソリューションズ株式会社 Image processing device
CN112581536A (en) * 2019-09-30 2021-03-30 华中科技大学 OLED mobile phone screen pixel positioning method based on region growing

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7062083B2 (en) 2001-01-09 2006-06-13 Samsung Electronics Co., Ltd. Image retrieval method based on combination of color and texture features
US7046865B2 (en) 2001-10-30 2006-05-16 Nec Corporation Determination of similarity using weighting value depending on the type of characteristic
JP2008204479A (en) * 2001-12-03 2008-09-04 Microsoft Corp Method for automatic detection and tracking of multiple individuals using multiple cues and computer readable storage medium
JP4607984B2 (en) * 2001-12-03 2011-01-05 マイクロソフト コーポレーション Method and computer-readable storage medium for automatic detection and tracking of multiple individuals using multiple cues
JP2006211513A (en) * 2005-01-31 2006-08-10 Ricoh Co Ltd Encoding processor, encoding processing method, program and information recording medium
JP4726040B2 (en) * 2005-01-31 2011-07-20 株式会社リコー Encoding processing device, decoding processing device, encoding processing method, decoding processing method, program, and information recording medium
JP2008059329A (en) * 2006-08-31 2008-03-13 Canon Inc Apparatus and method of closed loop automatic recognition
JP2013109691A (en) * 2011-11-24 2013-06-06 Canon Inc Image processing device, image processing method, and image processing program
US9292929B2 (en) 2011-12-16 2016-03-22 Panasonic Intellectual Property Corporation Of America Image region extraction device, image region extraction method, and image region extraction program
WO2013088665A1 (en) * 2011-12-16 2013-06-20 パナソニック株式会社 Image region extraction device, image region extraction method, and image region extraction program
JP2013125529A (en) * 2011-12-16 2013-06-24 Panasonic Corp Image region extraction device, image region extraction method, and image region extraction program
CN103914840A (en) * 2014-04-01 2014-07-09 山东大学 Automatic human body contour extracting method for non-simple background
CN103914840B (en) * 2014-04-01 2016-08-17 山东大学 A kind of human body contour outline extraction method for non-simple background
US9830530B2 (en) 2014-07-31 2017-11-28 International Business Machines Corporation High speed searching method for large-scale image databases
US9836666B2 (en) 2014-07-31 2017-12-05 International Business Machines Corporation High speed searching for large-scale image databases
JP2018097414A (en) * 2016-12-08 2018-06-21 富士ゼロックス株式会社 Image processing apparatus, image processing method, image processing system and program
JP2021022764A (en) * 2019-07-24 2021-02-18 京セラドキュメントソリューションズ株式会社 Image processing device
JP7298363B2 (en) 2019-07-24 2023-06-27 京セラドキュメントソリューションズ株式会社 Image processing device
CN112581536A (en) * 2019-09-30 2021-03-30 华中科技大学 OLED mobile phone screen pixel positioning method based on region growing
CN112581536B (en) * 2019-09-30 2022-06-17 华中科技大学 OLED mobile phone screen pixel positioning method based on region growing

Similar Documents

Publication Publication Date Title
US6674905B1 (en) Image processing method, image processing apparatus, and storage medium
JP4392886B2 (en) Image extraction method and apparatus
US6404936B1 (en) Subject image extraction method and apparatus
US6728400B1 (en) Apparatus, method, and storage medium for setting an extraction area in an image
EP0977151B1 (en) Image processing apparatus, image processing method, and storage medium
US8644609B2 (en) Up-sampling binary images for segmentation
US8270696B2 (en) Image slice segmentation using midpoints of contour anchor points
JP4879028B2 (en) Image processing method, image analysis method, and program storage medium
JP2856229B2 (en) Image clipping point detection method
US7245766B2 (en) Method and apparatus for determining a region in an image based on a user input
US8155473B2 (en) Method for deciding image data reduction ratio in image processing, pattern model positioning method in image processing, pattern model creating method in image processing, image processing apparatus, image processing program, and computer readable recording medium
JP2001109895A (en) Processing method for digital images
JP2000216979A (en) Image extraction method and device and storage medium
US20090003698A1 (en) Segmentaton of digital images
JP2004105737A (en) Integrated image recording method for heart magnetism resonance perfusion data
Schenk et al. Local-cost computation for efficient segmentation of 3D objects with live wire
Delgado-Gonzalo et al. Spline-based framework for interactive segmentation in biomedical imaging
US6621924B1 (en) Contour extraction apparatus, a method thereof, and a program recording medium
JP5055115B2 (en) Identification method, computer program, and computer program device
JP2001092980A (en) Method and device for extracting contour
JP2002230549A (en) Image processing method and device
US6542639B2 (en) Region extraction apparatus, region extraction method and computer readable recording medium
JP2008503294A6 (en) Identification method, computer program, and computer program device
CN108447066B (en) Biliary tract image segmentation method, terminal and storage medium
JP2000339452A (en) Method and device for extracting picture and storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060404