JP4586103B2 - Image extraction method and apparatus - Google Patents

Image extraction method and apparatus Download PDF

Info

Publication number
JP4586103B2
JP4586103B2 JP2009209145A JP2009209145A JP4586103B2 JP 4586103 B2 JP4586103 B2 JP 4586103B2 JP 2009209145 A JP2009209145 A JP 2009209145A JP 2009209145 A JP2009209145 A JP 2009209145A JP 4586103 B2 JP4586103 B2 JP 4586103B2
Authority
JP
Japan
Prior art keywords
template
image
local
matching
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009209145A
Other languages
Japanese (ja)
Other versions
JP2009289295A (en
Inventor
優和 真継
俊明 近藤
史明 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009209145A priority Critical patent/JP4586103B2/en
Publication of JP2009289295A publication Critical patent/JP2009289295A/en
Application granted granted Critical
Publication of JP4586103B2 publication Critical patent/JP4586103B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、画像抽出方法及び装置に関し、より具体的には、画像中から特定カテゴリーの対象を抽出する画像抽出方法及び装置並びに記憶媒体に関する。   The present invention relates to an image extraction method and apparatus, and more specifically to an image extraction method and apparatus that extract a target of a specific category from an image, and a storage medium.

特開平8−7107号公報JP-A-8-7107 特開平8−16779号公報JP-A-8-16779 特開平7−334675号公報JP 7-334675 A 特公平7−34219号公報Japanese Patent Publication No. 7-34219 特開平3−240884号公報JP-A-3-240884 特開平7−225847号公報JP 7-225847 A 特開平6−251149号公報JP-A-6-251149 特開平7−107266号公報JP-A-7-107266 特開平8−7075号公報JP-A-8-7075 特開平8−77336号公報JP-A-8-77336 特公平6−42068号公報Japanese Examined Patent Publication No. 6-4068 特公平8−20725号公報Japanese Patent Publication No. 8-20725 特許2642368号公報Japanese Patent No. 2642368 特開平9−50532号公報Japanese Patent Laid-Open No. 9-50532 特開平6−168331号公報JP-A-6-168331 特開平5−242160号公報JP-A-5-242160

M.Kass, A.Witkin, D.Terzopoulos, Snakes, "Active Contour Models,International Journal of Computer Vision, pp.321-331, 1988M. Kass, A. Witkin, D. Terzopoulos, Snakes, "Active Contour Models, International Journal of Computer Vision, pp.321-331, 1988 A.De Bimbo and P.Pa1a, "Visua1 Image Retrieval by Elastic Matching of User Sketches", IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 19,pp. 121-132, 1997A.De Bimbo and P.Pa1a, "Visua1 Image Retrieval by Elastic Matching of User Sketches", IEEE Trans. On Pattern Analysis and Machine Intelligence, vol. 19, pp. 121-132, 1997 L.H.Steib and J.S.Duncan, "Boundary Finding with Parametrically Deformable Mode1s", IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 14, pp. 1061-1075, 1992L.H.Steib and J.S.Duncan, "Boundary Finding with Parametrically Deformable Mode1s", IEEE Trans. On Pattern Analysis and Machine Intelligence, vol. 14, pp. 1061-1075, 1992 F. S. Cohen, Z. Huang, Z. Yang, "Invariant Matching and Identification of Curves Using B-Splines curve Representation", IEEE Trans. on Image Processing, vo1. 4, pp. 1-10, 1995F. S. Cohen, Z. Huang, Z. Yang, "Invariant Matching and Identification of Curves Using B-Splines curve Representation", IEEE Trans. On Image Processing, vo1. 4, pp. 1-10, 1995 G. C. H. Chuang and C. C. J. Kuo, "Wave1et Descriptor of Planar Curves:Theory and App1ications", IEEE Trans. on Image Processing, vol. 5, pp. 56-70, 1996G. C. H. Chuang and C. C. J. Kuo, "Wave1et Descriptor of Planar Curves: Theory and App1ications", IEEE Trans. On Image Processing, vol. 5, pp. 56-70, 1996

従来、画像から特定の被写体又は対象を切り出す処理として、種々の方式が知られている。第1の方式は、ユーザが指定した物体又は背景上の点の画素値を含む所定範囲の色成分値(又は濃淡値)を有する領域を選択しながら、背景の除去又は抽出被写体の領域指定を繰り返す方法(特開平8−7107号公報、特開平8−16779号公報、特開平7−334675号公報及び特公平7−34219号公報等)、及び、抽出対象の輪郭線を含む大まかな粗輪郭線領域又は局所領域を指定し、その指定領域内で細線化又はクラスタリングなどの処理により対象の境界輪郭線を求めて切り出す方法(特開平3−240884号公報、特開平7−225847号公報、特開平6−251149号公報、特開平7−107266号公報、特開平8−7075号公報、特開平8−77336号公報、特公平6−42068号公報及び特公平8−20725号公報など)がある。   Conventionally, various methods are known as processing for extracting a specific subject or object from an image. The first method is to select a region having a predetermined range of color component values (or shade values) including pixel values of an object specified by the user or a point on the background, or specify the region of the extracted subject. A method of repeating (JP-A-8-7107, JP-A-8-16779, JP-A-7-334675, JP-B-7-34219, etc.), and a rough rough contour including an outline to be extracted A method of specifying a line region or a local region and obtaining and cutting out a target boundary contour line by processing such as thinning or clustering within the specified region (Japanese Patent Laid-Open Nos. 3-240884 and 7-225847, JP-A-6-251149, JP-A-7-107266, JP-A-8-7075, JP-A-8-77336, JP-B-6-4068 and JP-B-8. 20,725 JP, etc.) there is.

第2の方式として、切り出し対象の画像部分を大まかに囲むように閉曲線(又は多角形の境界線)を設定し、色成分の情報のみを用いて対象物の形状にほぼ近い切り出しマスク画像を生成する方法(特許2642368号公報など)がある。   As a second method, a closed curve (or polygonal boundary) is set so as to roughly surround the image portion to be cut out, and a cutout mask image that is almost similar to the shape of the target object is generated using only color component information. There is a method (Japanese Patent No. 2642368).

第3の方式として、画像から対象物体を検出し、その輪郭を抽出する構成(特開平9−50532号公報など)において、多重解像度を利用した粗密探索により入力濃淡画像をモザイク化した画像辞書データを参照しながら対象物体の位置とサイズを求め、それらに基づいて初期輪郭を設定する動的輪郭法(M.Kass, A.Witkin, D.Terzopoulos, Snakes, "Active Contour Models,International Journal of Computer Vision, pp.321−331, 1988)を用いて輪郭を抽出する方法がある。   As a third method, image dictionary data obtained by mosaicing an input grayscale image by a coarse / fine search using multiple resolutions in a configuration (such as Japanese Patent Laid-Open No. 9-50532) that detects a target object from an image and extracts its contour A dynamic contour method (M. Kass, A. Witkin, D. Terapoulos, Snakes, "Active Control Models, International Journal of Computer" that obtains the position and size of a target object with reference to FIG. There is a method of extracting a contour using Vision, pp.321-331, 1988).

その他、画像中の特定の物体の有無の判定、又は特定の物体が存在する画像をデータベースから検索して抽出することに利用可能な技術として、予め用意したテンプレートを画像上でスキャンし、各位置でのマッチング度を算出し、そのマッチング度が所定の閾値以上となる位置を探索する方法(特開平6−168331号公報)、画像データベース作成時に画像中の構成要素の領域と構成要素名を入力しておき、所定の特徴を有する画像を高速に検索する方法(特開平5−242160号公報)、ユーザにより与えられた例(スケッチ及び画像等)との類似度を求め、その類似度が高い画像を検索する方法(文献1:A.De Bimbo and P.Pa1a, "Visua1 Image Retrieval by Elastic Matching of User Sketches", IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 19,pp. 121−132, 1997など)、及び、形状モデルを用いて境界線を検出する方法(文献2:L.H.Steib and J.S.Duncan, "Boundary Finding with Parametrically Deformable Mode1s", IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 14, pp. 1061−1075, 1992)などがある。   In addition, as a technique that can be used to determine the presence or absence of a specific object in an image, or to search and extract an image in which a specific object exists from a database, a template prepared in advance is scanned on the image, and each position A method of calculating a matching level in the image, and searching for a position where the matching level is equal to or higher than a predetermined threshold (Japanese Patent Laid-Open No. 6-168331), inputting a region and a component name of a component in an image when creating an image database In addition, a method of searching for an image having a predetermined feature at a high speed (Japanese Patent Laid-Open No. 5-242160), a degree of similarity with an example given by a user (such as a sketch and an image) is obtained, and the degree of similarity is high. Image retrieval method (Reference 1: A. De Bimbo and P. Pa1a, “Visua1 Image Retrieval by Elastic M atching of User Sketches ", IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. Steib and JS Duncan, “Boundary Finding with Parametrically Deformable Mode 1s”, IEEE Trans. On Pattern Analysis and Machine Int.

曲線をパラメトリックにモデル化する一手法として、スプライン曲線を用いる方法(F. S. Cohen, Z. Huang, Z. Yang, ”Invariant Matching and Identification of Curves Using B−Splines curve Representation”, IEEE Trans. on Image Processing, vo1. 4, pp. 1−10, 1995)、フーリエ記述子を用いる手法(文献2)、及びウーブレット記述子を用いる方法(G. C. H. Chuang and C. C. J. Kuo, ”Wave1et Descriptor of Planar Curves:Theory and App1ications”, IEEE Trans. on Image Processing, vol. 5, pp. 56−70, 1996)などがある。 As a method for modeling a curve parametrically, a method using a spline curve (FS Cohen, Z. Huang, Z. Yang, “Invariant Matching and Identification of B. Spins Elevation E.” Image Processing, vo1. 4, pp . 1-10, 1995), method (Document 2 using the Fourier descriptors), and c methods using E over Brett descriptor (G. C. H. Chuang and C. C. J Kuo, “Wave1 Descriptor of Planar Curves: Theory and Applications,” IEEE Trans. n Image Processing, vol. 5, pp. 56-70, 1996) and the like.

しかしながら、上述の第1の方式による画像抽出法は、ユーザの比較的詳細な指示による操作を必要とするので、特定の形状を有する対象物を画像から探索して抽出(切り出し)する処理を自動化できない。   However, since the image extraction method according to the first method described above requires an operation based on a relatively detailed instruction from the user, the process of searching for and extracting (cutting out) an object having a specific shape from the image is automated. Can not.

切り出し対象の画像部分を大まかに囲む閉曲線等を指定する方法(特許2642368号公報)に代表される第2の方式では、閉曲線内に含まれる同じ色成分を有する領域の面積の割合を用いるので、閉曲線内の背景中に被写体と同色となる領域がある場合、及び閉曲線領域が切り出し対象領域と比べて2倍以上の面積を有する場合などでは、背景部分が抽出されるなどの誤抽出を生じ易いという問題があり、汎用性に欠ける。   In the second method typified by a method of specifying a closed curve or the like that roughly encloses an image part to be cut out (Japanese Patent No. 2642368), the ratio of the area of the region having the same color component included in the closed curve is used. If there is an area in the background within the closed curve that has the same color as the subject, or if the closed curve area has an area that is twice or more the area to be cut out, erroneous extraction such as extraction of the background portion is likely to occur. There is a problem and lacks versatility.

第3の方法を示す特開平9−50532号公報に記載される輪郭検出装置では、いわゆる動的輪郭法を用いるので、入力画像の背景部分(抽出対象以外の部分)が複雑なテクスチャパターンを有する場合などでその影響を受けて、抽出すべき輪郭線の複雑さを反映することが困難な場合が多い。すなわち、本来の輪郭線形状から外れた不自然な凹凸形状が抽出されるという問題があった。   In the contour detection apparatus described in Japanese Patent Laid-Open No. 9-50532 showing the third method, the so-called dynamic contour method is used, so that the background portion (portion other than the extraction target) of the input image has a complex texture pattern. In many cases, it is difficult to reflect the complexity of the contour line to be extracted. That is, there is a problem that an unnatural uneven shape deviating from the original contour shape is extracted.

文献2に記載される輪郭抽出法では、輪郭モデルのパラメータ及び輪郭モデルの誤差をガウシアン分布と仮定する確率モデルを前提とするので、実際にそれらの分布が非ガウシアンとなる場合には、正しい輪郭を効率よく抽出することが困難であり、輪郭モデルと抽出対象の形状の差異に関する許容度が低い。   The contour extraction method described in Document 2 assumes a probabilistic model in which the contour model parameters and the contour model error are assumed to be Gaussian distributions. Therefore, when those distributions are actually non-Gaussian, the correct contours are assumed. Is difficult to extract efficiently, and the tolerance for the difference between the contour model and the shape of the extraction target is low.

本発明は、このような問題点を解決する画像抽出方法及び装置を提示することを目的とする。   It is an object of the present invention to provide an image extraction method and apparatus that solves such problems.

本発明はまた、より高速に所望の画像を精度良く抽出できる画像抽出方法及び装置を提示することを目的とする。   It is another object of the present invention to provide an image extraction method and apparatus that can extract a desired image with higher accuracy at a higher speed.

本発明に係る画像抽出方法は、第1のマッチング手段が入力画像と局所的な図形要素を含むテンプレートとの所定の特徴量の値に関す所定の評価関数値を求める第1のマッチング処理を行う第1のマッチングステップと、局所変換手段が前記テンプレート上の所定の代表点の近傍領域について局所的な幾何学的変換を行う局所変換ステップと、変換パラメータ算出手段が前記局所変換ステップの変換パラメータを前記第1のマッチング処理結果、および、所定の変形モードまたは確率分布の少なくとも一方、に基づいて求める変換パラメータ算出ステップと、第2のマッチング手段が前記局所変換ステップにより得られるテンプレートと前記入力画像との第2のマッチング処理を行う第2のマッチングステップと、画像領域抽出手段が前記第2のマッチング処理の結果に基づき記輪郭線を含む画像領域を抽出する画像領域抽出ステップとを具備することを特徴とする。 Image extracting method according to the present invention, the first matching processing first matching means obtains a predetermined evaluation function value related to the value of the predetermined feature quantity of a template including the input image and the local graphic element A first matching step to be performed; a local transformation step in which the local transformation means performs local geometric transformation on a region near a predetermined representative point on the template; and a transformation parameter calculation means to obtain a transformation parameter of the local transformation step. A conversion parameter calculation step for obtaining the first matching processing result and at least one of a predetermined deformation mode or a probability distribution, a template obtained by the second matching means by the local conversion step, and the input image a second second matching step of performing matching processing between an image region extracting means is the Characterized by comprising an image region extraction step of extracting an image region including a pre-Symbol contour based on 2 of the matching process result.

本発明に係る画像抽出装置は、入力画像と局所的な図形要素を含むテンプレートとの所定の特徴量の値に関す所定の評価関数値を求める第1のマッチング処理を行う第1のマッチング手段と、前記テンプレート上の所定の代表点の近傍領域について局所的な幾何学的変換を行う局所変換手段と、前記局所変換手段の変換パラメータを前記第1のマッチング処理結果、および、所定の変形モードまたは確率分布の少なくとも一方、に基づいて求める変換パラメータ算出手段と、前記局所変換手段により得られるテンプレートと前記入力画像との第2のマッチング処理を行う第2のマッチング手段と、前記第2のマッチング処理の結果に基づき記輪郭線を含む画像領域を抽出する画像領域抽出手段とを具備することを特徴とする。 Image extracting apparatus according to the present invention, first matching means for performing a first matching processing for obtaining the predetermined evaluation function value related to the value of the predetermined feature quantity of a template including the input image and the local graphic element A local transformation means for performing a local geometric transformation on a region near a predetermined representative point on the template, a transformation parameter of the local transformation means, the first matching processing result, and a predetermined deformation mode. Alternatively, conversion parameter calculation means obtained based on at least one of probability distributions, second matching means for performing a second matching process between the template obtained by the local conversion means and the input image, and the second matching by comprising an image region extracting means for extracting an image region including a pre-Symbol contour based on the result of the process, characterized in.

本発明によれば、テンプレートデータの走査及びその形状に関する適合度評価、並びに拘束条件を与えた変形(移動範囲、形状拘束条件及び局所幾何学的変換など)を実行することにより、形状に関する予め与えられた情報に適合する対象物を画像から自動的に探索することができる。また、適合する範囲において変形の許容度が高く、ノイズに強い輪郭抽出及び画像抽出が可能になる。   According to the present invention, the template data is preliminarily given by executing the template data scanning and the conformity evaluation on the shape, and the deformation (movement range, shape constraint condition, local geometric transformation, etc.) given the constraint condition. It is possible to automatically search for an object that matches the given information from the image. In addition, the tolerance of deformation is high in a suitable range, and contour extraction and image extraction resistant to noise can be performed.

テンプレートの変形に際して、変形(代表点の移動)に関する拘束条件の全体的なセットが与えられ、又は幾何学的位相を保存するような局所幾何学的変換の推定を行うので、大域的な形状情報が常に保持され、局所的なノイズ等の影響を受けにくい。従って、背景が複雑なパターンを有していても、不自然な輪郭の抽出が効果的に防止される。   When deforming a template, an overall set of constraints on deformation (movement of representative points) is given, or a local geometric transformation is estimated that preserves the geometric phase, so global shape information Are always maintained and are not easily affected by local noise. Therefore, even if the background has a complicated pattern, extraction of an unnatural contour is effectively prevented.

本発明の一実施例の概略構成ブロック図である。It is a schematic block diagram of one Example of this invention. 画像処理装置16の概略構成ブロック図である。2 is a schematic block diagram of an image processing device 16. FIG. テンプレートデータの一例と移動範囲を示す模式図である。It is a schematic diagram which shows an example of template data, and a movement range. テンプレートデータの例を示す表である。It is a table | surface which shows the example of template data. 本実施例の動作フローチャートである。It is an operation | movement flowchart of a present Example. 画像表示装置14の表示画面例である。3 is a display screen example of the image display device 14. 太線上でのエッジ割合の説明例の模式図である。It is a schematic diagram of the example of description of the edge ratio on a thick line. 更新テンプレート生成処理過程におけるテンプレート図形の変形の様子を示す模式図である。It is a schematic diagram which shows the mode of the deformation | transformation of the template figure in the update template production | generation process process. P5がP5’に移動したことに伴う、代表点P6,P7の移動の様子を示す模式図である。It is a schematic diagram which shows the mode of the movement of the representative points P6 and P7 accompanying P5 having moved to P5 '. 更新テンプレート生成処理(図5のS7)を変更した実施例の変更部分の動作フローチャートである。It is an operation | movement flowchart of the change part of the Example which changed the update template production | generation process (S7 of FIG. 5). 人体のテンプレートモデルの例である。It is an example of a human body template model. 幾何学的(アフィン)変換パラメータの推定手順を示すフローチャートである。It is a flowchart which shows the estimation procedure of a geometric (affine) transformation parameter. 不定部分を有するテンプレートモデルの輪郭推定手順を説明する模式図である。It is a schematic diagram explaining the outline estimation procedure of the template model which has an indefinite part. 第3実施例におけるテンプレート更新処理のフローチャートである。It is a flowchart of the template update process in 3rd Example. 図14の説明例である。It is an example of FIG.

以下、図面を参照して、本発明の実施例を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施例の概略構成ブロック図を示す。10は画像入力装置、12は画像データ及びテンプレートモデルータを記憶する画像記憶装置、14は画像表示装置、16は画像処理装置、18はマウスなどのポインティング・デバイスからなる指示選択装置である。画像入力装置10は、イメージ・スキャナ、ディジタル・カメラなどの撮像装置、又は、画像データベースに接続する画像データ転送装置からなる。 FIG. 1 shows a schematic block diagram of an embodiment of the present invention. 10 image input device, 12 is an image memory for storing image data and the template model data, 14 an image display device, 16 is an image processing apparatus, 18 is a pointing selection apparatus comprising a pointing device such as a mouse . The image input device 10 includes an imaging device such as an image scanner or a digital camera, or an image data transfer device connected to an image database.

本実施例では、画像入力装置10から、背景から分離抽出されるべき対象を含む画像データが入力し、画像記憶装置12に記憶される。画像記憶装置12に記憶される画像データは、画像表示装置14の画面上の所定位置に所定の形式で表示される。   In this embodiment, image data including an object to be separated and extracted from the background is input from the image input device 10 and stored in the image storage device 12. The image data stored in the image storage device 12 is displayed in a predetermined format at a predetermined position on the screen of the image display device 14.

画像処理装置16の概略構成を図2に示す。20は入力画像の特徴量を抽出する特徴量抽出装置、22は、テンプレートモデル選択装置、24は、複数解像度のテンプレートデータを生成するテンプレートデータ生成装置、26は、テンプレートの走査及び入力画像の特徴量との第1のマッチング評価を実行するテンプレート走査装置、28は、テンプレート上の各代表点の移動範囲・条件を更新及び設定する移動範囲・条件更新設定装置、30は更新テンプレート生成装置、32は変形後の形状適合度の評価を画像特徴量との第2のマッチング処理により変形後の形状適合度を評価する形状適合度評価装置、34は、更新テンプレートの代表点間を滑らかにつなぐスプライン補間曲線によりその図形要素の境界線を生成する境界線生成装置、36は更新テンプレートの境界線を画像表示装置14の画面上で入力画像に重畳して表示する境界線表示装置、38は更新テンプレートの境界線内部の領域を示すマスクデータを生成するマスクデータ生成装置である。図示していないが、更に、更新テンプレートの境界線及び/又はマスクデータを記憶する記憶装置を具備する。   A schematic configuration of the image processing apparatus 16 is shown in FIG. 20 is a feature quantity extraction device that extracts the feature quantity of the input image, 22 is a template model selection apparatus, 24 is a template data generation apparatus that generates template data of multiple resolutions, and 26 is a template scan and a feature of the input image. A template scanning device that executes a first matching evaluation with a quantity; 28, a moving range / condition update setting device that updates and sets the moving range / condition of each representative point on the template; 30, an update template generation device; Is a shape matching degree evaluation apparatus that evaluates the shape matching degree after deformation by evaluating the shape fitting degree after deformation by the second matching process with the image feature amount, and 34 is a spline that smoothly connects the representative points of the update template A boundary line generating device that generates a boundary line of the graphic element by using an interpolation curve, and 36 represents the boundary line of the update template as an image table. Border display device which displays superimposed on the input image on the screen of the device 14, 38 is a mask data generation device for generating mask data indicating a boundary inside region of updating template. Although not shown, a storage device for storing boundary lines and / or mask data of the update template is further provided.

先ず、本実施例で用いるテンプレートモデル及びパラメトリックな曲線表現方法を説明する。   First, a template model and a parametric curve expression method used in this embodiment will be described.

テンプレートデータは、抽出カテゴリ(人物、自動車、魚及び飛行機など)を代表する抽象化された図形要素又は代表的な画像(図形)パターンを主たる構成要素とし、典型的にはそれらを構成する輪郭線データ若しくはその輪郭線を含む背景が無地の濃淡画像又はカラー画像等により与えられる。この輪郭線データは、該当するカテゴリーの外形を表わすものに限らず、そのカテゴリーを構成する主要な形状データ(例えば、人物の顔を構成する目、鼻及び口など)を含んでよいことはいうまでもない。 Template data is extracted category (person, car, fish and the like airplanes) and abstracted graphical elements or representative image (graphic) patterns main components a representative, typically constituting them contour The background including the line data or its outline is given by a solid gray image or color image. The contour line data is not limited to representing the outer shape of the corresponding category, but may include main shape data constituting the category (for example, eyes, nose and mouth constituting a human face). Not too long.

各カテゴリーに属する図形要素の輪郭線は、代表点間を通る曲線又は線分で構成され、予めスプライン曲線、フーリエ記述子及びウェーブレット記述子などにより、パラメトリックに表現されているものとする。   The contour lines of the graphic elements belonging to each category are composed of curves or line segments that pass between the representative points, and are preliminarily expressed parametrically by spline curves, Fourier descriptors, wavelet descriptors, and the like.

例えば、輪郭線モデルの全体はJ個のスプライン曲線から構成され、j番目のスプライン曲線   For example, the entire contour model is composed of J spline curves, and the jth spline curve

rj(t) = [ xj(y), yj(t)]
は、n+1個の制御点を有するm次のBスプラインであるとすると、

Figure 0004586103
ここに、j=0,1,・・・,Jである。また、QN,m+1(t)は、
Figure 0004586103
のように表わされる。C=[Cx,N,Cy,N]は、N番目の制御点位置を示すベクトルである。 r j (t) = [x j (y), y j (t)]
Is an m j -th order B-spline with n j +1 control points,
Figure 0004586103
Here, j = 0, 1,..., J. Q N, m + 1 (t) is
Figure 0004586103
It is expressed as C N = [C x, N , C y, N ] is a vector indicating the Nth control point position.

フーリエ記述子を用いる場合には、

Figure 0004586103
と表現される。但し、
Figure 0004586103
である。tは、弧長sと全周長Sを用いて、t=2πs/Sのように表わされる。フーリエ記述子を用いて曲線の一部を表現する場合には、その両端点で When using a Fourier descriptor,
Figure 0004586103
It is expressed. However,
Figure 0004586103
It is. t is expressed as t = 2πs / S using the arc length s and the total circumference S. When expressing a part of a curve using a Fourier descriptor,

x(t) = x(2π−t)   x (t) = x (2π−t)

y(t) = y(2π一t)
とし、従って、b=d=0とすればよい。
y (t) = y (2πone t)
Therefore, b k = d k = 0.

ウェーブレット記述子を用いる場合は、

Figure 0004586103
ここで、
Figure 0004586103
である。 When using wavelet descriptors,
Figure 0004586103
here,
Figure 0004586103
It is.

ウェーブレット関数はそれぞれ周期性を有し、以下のように定義される。すなわち、

Figure 0004586103
ここに、k,m,nは、0又は正の整数であり、関数φ,ψは、双直交3次スプライン関数等が用いられる。 Each wavelet function has periodicity and is defined as follows. That is,
Figure 0004586103
Here, k, m, and n are 0 or a positive integer, and a bi-orthogonal cubic spline function or the like is used for the functions φ and ψ.

テンプレートを構成する輪郭線は、抽出対象の形状を表わす輪郭線を一つの閉曲線として表わすのではなく、抽出対象のカテゴリーを表わす形状の部分的輪郭線からなる構成(例えば、本出願と同じ出願人による特開平7−320086号公報に記載されたモデル)を用いてもよい。   Contour lines constituting the template do not represent the contour line representing the shape of the extraction target as a single closed curve, but are composed of partial contour lines of the shape representing the extraction target category (for example, the same applicant as the present application). (Japanese Patent Laid-Open No. 7-320086) may be used.

代表点の粗密分布及びこれら曲線のパラメータ(例えば、Bスプライン関数の次数及び制御点の数など)は、抽出すべき対象の形状に関する複雑さ及び滑らかさなどを表現し、反映するものである。図3(a)は、テンプレートを構成する図形要素の一例を示す。テンプレートデータ生成装置24が、画像データから輪郭線抽出などによりこの図形要素を生成してもよい。   The density distribution of the representative points and the parameters of these curves (for example, the order of the B-spline function and the number of control points) express and reflect the complexity and smoothness of the shape of the object to be extracted. FIG. 3A shows an example of graphic elements constituting the template. The template data generation device 24 may generate this graphic element by extracting contour lines from the image data.

図3(b)及び図4(a),(b)に例示するように、テンプレートデータには、代表点位置とスプライン曲線などのパラメータに関するデータ(曲線の次数及び種別)の他に、各代表点の移動範囲データ又は後述の形状拘束条件が与えられる。   As exemplified in FIGS. 3B and 4A and 4B, the template data includes data on parameters (degree and type of curve) related to parameters such as representative point positions and spline curves. Point movement range data or shape constraint conditions described later are given.

移動範囲を各代表点で明示的に表わすのではなく、単に代表点近傍での形状の凹又は凸が保持されること、若しくは、曲率が保持されること及び新たなループが生成しないことなどの局所形状条件を与えて、それらを移動条件データとして各代表点ごとに与えてもよい。この場合、そのようにして定められる局所形状条件が破られないことと、移動後の更新テンプレートの形状に関する後述する適合度が基準値を満たさないことといいう2つの条件の下で代表点の移動範囲を徐々に拡大して探索し、適合度が基準値以上となった位置で代表点の移動を停止する。   Rather than explicitly representing the movement range at each representative point, the concave or convex shape of the shape in the vicinity of the representative point is simply retained, or the curvature is retained and no new loop is generated. Local shape conditions may be given and given as movement condition data for each representative point. In this case, the movement of the representative point is performed under the two conditions that the local shape condition thus determined is not violated and that the later-described degree of conformity regarding the shape of the updated template after the movement does not satisfy the reference value. The range is gradually expanded to search, and the movement of the representative point is stopped at a position where the fitness level is equal to or higher than the reference value.

形状拘束条件としては、例えば、図4(a)の4行目に記載されるように、

Figure 0004586103
とする。(x,y)は、j番目の代表点位置を示す。数8は、代表点(x,y)の近傍の形状に関する凹凸及び曲率の保持されるべき範囲の概算値を示す。 As the shape constraint condition, for example, as described in the fourth line of FIG.
Figure 0004586103
And (X j , y j ) indicates the j-th representative point position. Expression 8 shows an approximate value of the range in which the unevenness and curvature of the shape in the vicinity of the representative point (x j , y j ) should be maintained.

サイズに関する拘束条件として、例えば、

Figure 0004586103
とする。これと形状拘束条件により、(xj−1,yj−1),(x,y)が定まれば、(xj+1,yj+1)は、数8及び数9を満たす範囲の平均値として求めることが出来る。数9でdは、点(x,yj)と(xj+1,yj+1)とを結ぶ線分長の基準値、μはその許容する変化幅の基準値をそれぞれ示す。 As a constraint on size, for example,
Figure 0004586103
And If (x j−1 , y j−1 ) and (x j , y j ) are determined by this and the shape constraint condition, (x j + 1 , y j + 1 ) is the average of the range satisfying Equation 8 and Equation 9. It can be obtained as a value. In Equation 9, d j represents a reference value of the length of the line segment connecting the points (x j , yj) and (x j + 1 , y j + 1 ), and μ represents a reference value of the allowable change width.

図3には、j−1,j,j+1番目の各代表点とそれらを連結するパラメトリックに表現された曲線及び各移動範囲が、図示されている。移動範囲データは、テンプレートを構成する代表点の移動に伴う元のテンプレート形状からの変形許容度を与えるものとして予め与えられている。各移動範囲は、抽出対象の各部分の非剛性度(弾性度及び関節の有無など)及びアプリオリな形状に関する知識によって一般的に異なり、また、テンプレートの変形更新過程においても適宜に変化しうる。   FIG. 3 shows the j−1, j, and j + 1th representative points, the parametric curves connecting them, and the movement ranges. The movement range data is given in advance as giving a deformation tolerance from the original template shape accompanying the movement of the representative points constituting the template. Each movement range generally differs depending on knowledge about the non-rigidity (elasticity, presence / absence of joints, etc.) and a priori shape of each part to be extracted, and can also be changed appropriately in the process of template deformation and update.

例えば、人物の頭部は、通常、2次曲線(楕円形状)関数で近似される凸形状であるが、この頭部を構成する代表点の移動範囲は、移動により新たな凹部が発生しないことを条件に定められる。頭部を構成する外形の曲線を輪郭線に沿った弧長の関数として表わした時、凹部の発生は、2階微分値(又はこれに相当する近似値)が正となることにより検出される。   For example, the head of a person usually has a convex shape approximated by a quadratic curve (elliptical shape) function, but the movement range of the representative points constituting this head does not generate a new concave portion due to the movement. It is determined on the condition. When the contour curve forming the head is expressed as a function of the arc length along the contour line, the occurrence of a recess is detected by the second-order differential value (or an approximate value corresponding thereto) being positive. .

従って、ある代表点の移動範囲の大きさ及び形状は、その点に隣接する代表点を固定したときに、代表点間を結ぶ曲線が移動後の代表点の近傍において2階微分値(又はその近似値)が正とならない範囲となるように決定される。この範囲は、厳密には、当該代表点を除く他の代表点の移動とともに相対的に変化するが、変形量が大きくなく且つ形状の類似性が保たれる範囲として、予め各代表点ごとに固定(代表点ごとにその範囲の大きさ及び形状が異なっても良い)して、設定されている。   Therefore, the size and shape of the movement range of a certain representative point is such that when a representative point adjacent to that point is fixed, the curve connecting the representative points is in the vicinity of the representative point after the movement. (Approximate value) is determined to be in a non-positive range. Strictly speaking, this range changes relatively with the movement of the other representative points excluding the representative point. However, as the range in which the deformation amount is not large and the similarity of the shape is maintained, it is previously determined for each representative point. It is fixed and set (the size and shape of the range may be different for each representative point).

本実施例における画像抽出手順を説明する。図5は、その動作フローチャートを示す。撮影手段などの画像入力装置10から画像データ入力される、画像記憶装置12に格納され、図6に例示するように画像表示装置14の画面上に表示される(S1)。図6で、40は画像表示装置14の画面、42は入力画像、44はテンプレートモデル画像データ、46は目標位置確認インディケータ、48は抽出指示ボタン、50はテンプレートスクロールボタンである。   An image extraction procedure in this embodiment will be described. FIG. 5 shows a flowchart of the operation. Image data is input from the image input device 10 such as a photographing unit, is stored in the image storage device 12, and is displayed on the screen of the image display device 14 as illustrated in FIG. 6 (S1). In FIG. 6, 40 is a screen of the image display device 14, 42 is an input image, 44 is template model image data, 46 is a target position confirmation indicator, 48 is an extraction instruction button, and 50 is a template scroll button.

特徴量抽出装置20は、入力画像の特徴量分布(エッジ強度分布又は各点での局所空間周波数に関する情報など)を求め、所定の閾値で2値化する(S2)。   The feature quantity extraction device 20 obtains a feature quantity distribution (such as edge intensity distribution or information on the local spatial frequency at each point) of the input image, and binarizes it with a predetermined threshold (S2).

テンプレート選択装置22は、テンプレートモデル画像データ44を画像表示装置14の表示画面40上に表示する。ユーザが、抽出カテゴリーのテンプレートデータを選択すると、選択されたテンプレートデータの情報(例えば、図4に例示されるデータ)が読み込まれる(S3)。テンプレートモデル画像データ44に表示される一覧からスクロールボタン50によりテンプレートモデル画像データ44の表示内容をスクロールして所望のものを表示させ、指示選択装置18により選択することにより、希望する1つのテンプレートモデル画像データを選択できる。抽出カテゴリーは、例えば、マイクなどの音声入力装置及び音声認識装置により口頭で抽出カテゴリーの名称を指示入力してもよい。ユーザにより所望のテンプレートデータが選択されると、テンプレートデータ生成装置22は、選択されたテンプレートータから互いに大きさが異なる複数(通常は10未満)のテンプレートセットを自動生成する(S4)。 The template selection device 22 displays the template model image data 44 on the display screen 40 of the image display device 14. When the user selects template data in the extracted category, information on the selected template data (for example, data illustrated in FIG. 4) is read (S3). By scrolling the display contents of the template model image data 44 from the list displayed in the template model image data 44 with the scroll button 50 to display a desired one and selecting it with the instruction selection device 18, one desired template model is displayed. Image data can be selected. For the extraction category, for example, the name of the extraction category may be verbally input by a voice input device such as a microphone and a voice recognition device. When the desired template data is selected by the user, the template data generating apparatus 22 automatically generates a set of templates plurality each other size from the selected template data different (typically less than 10) (S4).

テンプレート走査装置26は、各テンプレートをそれぞれ画像上でその大きさに応じた所定のサンプリングピッチ(例えば、テンプレート図形の横幅の10分の1など)でラスタースキャンし(S5)、各場所で第1の形状適合度を求める(S6)。具体的には、形状の適合度を表わすパラメータとして、テンプレート上の図形要素の輪郭線上又はその輪郭線を所定幅(典型的には、5画素程度)に太線化して得られる太線上で、エッジである点の割合及びエッジ点でのエッジ強度勾配の向きの揃い具合(又はそれらの距離)を表わす勾配ベクトルの内積(の絶対値)の総和(又はエッジ点であって上記内積値が基準値以上の点の割合)を求める。   The template scanning device 26 raster-scans each template on the image at a predetermined sampling pitch (for example, one tenth of the width of the template figure) according to the size (S5), and the first scanning is performed at each location. The shape matching degree is obtained (S6). Specifically, as a parameter representing the degree of conformity of the shape, an edge on the outline of the graphic element on the template or on the bold line obtained by thickening the outline to a predetermined width (typically about 5 pixels) The sum of the inner products (absolute values) of the gradient vectors indicating the ratio of the points and the direction of the edge intensity gradient at the edge points (or their distance) The ratio of the above points) is obtained.

太線上でのエッジ割合とは、図7に例示するように、太線の中心線上のサンプリング点とそのサンプリング点を含む微小領域(太線領域セル)においてエッジが存在する場合にそのサンプリング点をエッジ点としてカウントする要領で総サンプリング点数に対するエッジ点数の割合である。第1の形状適合度は、画像中の抽出対象とテンプレートとの全体的な形状類似度を表わす。   As illustrated in FIG. 7, the edge ratio on the thick line refers to the sampling point on the center line of the thick line and the minute point (thick line region cell) including the sampling point when the edge exists. Is the ratio of the number of edge points to the total number of sampling points. The first shape matching degree represents the overall shape similarity between the extraction target in the image and the template.

適合度パラメータとしては、本出願と同じ出願人による特開平9−185719号公報に示されるように、テンプレートモデルの輪郭線近傍の画像データ(色成分の情輝度分布など)に関する誤差の逆数等を適合度の尺度として用いてもよい。   As the fitness parameter, as shown in Japanese Patent Laid-Open No. 9-185719 filed by the same applicant as the present application, the reciprocal of an error relating to image data (such as color intensity distribution of color components) in the vicinity of the contour line of the template model. It may be used as a measure of goodness of fit.

複数の大きさの異なるテンプレートの走査及び適合度評価の過程において、あるテンプレートの適合度パラメータが所定の基準値以上となったとき、そのテンプレートの走査を停止し、ユーザに対しては目標対象確認インディケータ46(図6)が表示される。この段階で、対象の位置と大きさに関する情報が抽出されたことになる。ユーザが抽出ボタン48を押して抽出実行処理の開始を指示すると、次の更新テンプレート生成処理(S7)が実行される。   In the process of scanning of multiple templates with different sizes and fitness evaluation, when the fitness parameter of a certain template exceeds a predetermined reference value, scanning of the template is stopped and the target object is confirmed for the user. Indicator 46 (FIG. 6) is displayed. At this stage, information on the position and size of the target is extracted. When the user presses the extraction button 48 to instruct the start of the extraction execution process, the next update template generation process (S7) is executed.

図8は、更新テンプレート生成処理過程におけるテンプレート図形の変形の様子を示す。図8(a)では、テンプレート図形の初期形状と入力画像の対象物形状とのマッチングの程度(補間曲線上のエッジ割合など)が、小さい部分の代表点P1,P2,・・・,P7のように表示されている。これら以外の代表点は、比較的マッチングが良好な点であり、図3(b)に示すような各移動範囲内で最適な移動先が検出される。   FIG. 8 shows a state of deformation of the template figure in the update template generation process. In FIG. 8A, the degree of matching between the initial shape of the template figure and the object shape of the input image (such as the edge ratio on the interpolation curve) of the representative points P1, P2,. Is displayed. Representative points other than these are points with relatively good matching, and an optimal destination is detected within each movement range as shown in FIG.

更新テンププレート生成処理(S7)では、テンプレート図形要素変形装置30が、テンプレート図形を構成するある図形要素(曲線セグメント)の代表点を移動範囲内で(又は数8及び数9などの移動条件に従って)移動し(S7a)、テンプレート図形要素変形装置30が移動後の代表点間を結ぶ新たな曲線セグメントを生成し(S7b)、形状適合度評価装置32が各部分で第2の形状適合度を評価することにより(S7c)、第2の形状適合度が所定の基準値以上又は最大となるように代表点が移動され、最終的に、境界線生成装置34が、代表点間を結ぶ曲線(又は線分)を生成する。これらの処理を実行する過程で、移動条件の緩和等(S7d)が必要に応じて行われ、最終的に、移動条件を満足するようにテンプレート全体が変形される(S7e)。   In the update template generation process (S7), the template graphic element transformation device 30 moves the representative point of a certain graphic element (curve segment) constituting the template graphic within the movement range (or according to the movement conditions such as Equation 8 and Equation 9). ) Moved (S7a), the template graphic element deforming device 30 generates a new curved segment connecting the representative points after the movement (S7b), and the shape conformity evaluation device 32 determines the second shape conformance at each portion. By evaluating (S7c), the representative points are moved so that the second shape conformity is equal to or greater than a predetermined reference value, and finally, the boundary line generating device 34 is a curve ( Or a line segment). In the course of executing these processes, movement conditions are relaxed as necessary (S7d), and finally the entire template is deformed to satisfy the movement conditions (S7e).

境界線表示装置36が、画像表示装置14の画面上にその境界線を入力画像に重畳して表示する。更新テンプレートデータはその境界線データ又はその領域を示す2値のマスクデータとして生成される。   The boundary line display device 36 displays the boundary line superimposed on the input image on the screen of the image display device 14. The update template data is generated as binary mask data indicating the boundary line data or the area.

移動と適合度評価は、各代表点を同時に移動しながら実行するのではなく、エッジ割合の高いセグメントの端点をなす代表点に隣接するエッジ割合の低いセグメントを中継する代表点の移動を優先して行うと効率的である。図8(b)は、そのようにして移動した後の代表点間を結ぶ曲線を表わす更新テンプレートの形状を示す。図8(b)で、図8(a)のPiは、図8(b)では、Pi’に移動している。例えば、図8(a)において、エッジ割合の高いセグメントの端点である代表点Qに隣接する代表点P5について、点Qを中心とする所定の半径(例えば、QからP5までの弧長)の円弧上でP5の移動先を初めに探索する。   Movement and fitness evaluation are not performed while moving each representative point at the same time. Instead, priority is given to moving a representative point that relays a segment with a low edge ratio that is adjacent to a representative point that is an end point of a segment with a high edge ratio. Is efficient. FIG. 8B shows the shape of the update template representing the curve connecting the representative points after moving in such a manner. In FIG. 8B, Pi in FIG. 8A has moved to Pi ′ in FIG. 8B. For example, in FIG. 8A, for a representative point P5 adjacent to the representative point Q that is an end point of a segment with a high edge ratio, a predetermined radius (for example, an arc length from Q to P5) centered on the point Q is used. First, the destination of P5 is searched on the arc.

代表点位置の移動先探索では、上述した移動範囲を所定の確率分布(特に、移動範囲の外で値が0となるようなもの)により表わし、その分布により与えられる代表点位置を確率的に生成し、その代表点を含む曲線セグメントの形状適合度をその都度評価することにより、値が所定基準値以上(又は量大)となる位置を推定してもよい。   In the search for the destination of the representative point position, the above-mentioned movement range is represented by a predetermined probability distribution (particularly, a value having a value of 0 outside the movement range), and the representative point position given by the distribution is stochastically The position where the value is greater than or equal to a predetermined reference value (or large amount) may be estimated by generating and evaluating the shape adaptability of the curve segment including the representative point each time.

代表点の移動先は、第2の形状適合度の評価結果に基づいて決定される。第2の形状適合度は各代表点について定義され、その代表点に隣接する代表点(通常、2つ)との間を結ぶ曲線(又は線分)上のエッジ割合とその曲線(又は線分)上の特徴量勾配(エッジ強度分布の勾配など)の許容範囲内での一致度(許容範囲内で一致している点の割合)の線形和で表わされる。   The movement destination of the representative point is determined based on the evaluation result of the second shape suitability. The second shape fitness is defined for each representative point, and the edge ratio on the curve (or line segment) connecting the representative points (usually two) adjacent to the representative point and the curve (or line segment). ) It is represented by a linear sum of the degree of coincidence (the proportion of points that coincide within the allowable range) within the allowable range of the above feature amount gradient (such as the gradient of the edge intensity distribution).

移動範囲・条件更新設定装置28は、この第2の形状適合度の値に応じて当該代表点の移動範囲を拡大し、又は移動条件を緩和して(S7d)、未だ探索されていない領域から最適な代表点位置、即ち第2の形状適合度が最大となる代表点位置を探索して移動してもよい。即ち、第2の形状適合度に基づいて上述したテンプレートの図形要素を変形することにより、抽出カテゴリーに属するテンプレートの輪郭線形状データと多少異なる輪郭線を有する対象であっても、非適合部分についての代表点移動範囲の拡大又は移動条件の緩和がなされる結果、全体の輪郭抽出が可能となる。   The movement range / condition update setting device 28 expands the movement range of the representative point according to the second shape suitability value or relaxes the movement condition (S7d), and from the area that has not been searched yet. An optimum representative point position, that is, a representative point position that maximizes the second shape suitability may be searched and moved. That is, by deforming the template graphic element described above based on the second shape conformance, even if the target has a slightly different contour from the contour shape data of the template belonging to the extraction category, As a result of the expansion of the representative point movement range or the relaxation of the movement conditions, the entire contour can be extracted.

図8に示す例では、P5がP5’に移動したことに伴い、残りの連続して存在する代表点の移動範囲は、P5’の位置に基づいて更新される。その様子を図9に示す。具体的には、例えば、P5’,P6’,P7’を通る曲線の形状が凸であることと、その曲線の長さと同程度のサイズを維持することの少なくとも一方を拘束条件に移動範囲を設定し、探索を実行する。何れの条件又は両方の条件を用いるかは、抽出対象の非剛性度及び関節の有無などにより異なるが、予めテンプレートデータに定義されているものとする。   In the example shown in FIG. 8, as P5 moves to P5 ', the movement range of the remaining representative points that are present continuously is updated based on the position of P5'. This is shown in FIG. Specifically, for example, the movement range is set with the constraint condition that at least one of the shape of the curve passing through P5 ′, P6 ′, and P7 ′ is convex and the size of the curve is maintained at the same level. Set and run the search. Which condition or both conditions are used depends on the degree of non-rigidity to be extracted and the presence or absence of a joint, but is defined in the template data in advance.

図9では、P6とP6’及びP7とP7’の探索範囲の大きさは同程度であり、各探索範囲の配置は、形状が凸であることの拘束条件(例えば、数8及び数9に示す条件)を当てはめて設定されている。新たに設定される移動範囲は、図9(b)に示すように、元の移動範囲と全く重なり合わないような離れた所になる場合もある。   In FIG. 9, the sizes of the search ranges of P6 and P6 ′ and P7 and P7 ′ are approximately the same, and the arrangement of each search range is a constraint condition that the shape is convex (for example, in Equations 8 and 9). (Conditions shown) are applied. As shown in FIG. 9 (b), the newly set movement range may be far away from the original movement range.

移動範囲を明示的に設定せずに移動の拘束条件のみを与えて代表点を移動する場合には、P5’,P6’,P7’を通る曲線の接線方向の変化率が正であること(数8及び数9参照)等を条件として課せばよい。   When the representative point is moved by giving only the movement constraint condition without explicitly setting the movement range, the rate of change in the tangential direction of the curve passing through P5 ′, P6 ′, and P7 ′ is positive ( (See Equation 8 and Equation 9).

移動後の代表点間を結ぶ曲線は、元のテンプレートを構成する曲線と同種の曲線を用いるのが望ましい。但し、パラメータの次数等は、抽出対象の形状に最も適合するように変更可能とする。例えば、Bスプライン曲線を用いる場合、次数及び制御点の数等は変更しても構わない。   As the curve connecting the representative points after movement, it is desirable to use the same type of curve as the curve constituting the original template. However, the order of the parameters and the like can be changed to best suit the shape to be extracted. For example, when using a B-spline curve, the order and the number of control points may be changed.

更新後のテンプレートを構成する曲線パラメータの決定法の一例を説明する。或る曲線セグメントv(s)=(x(s),y(s))がn階のBスプライン関数を用いてモデル化されているとする。代表点移動後のパラメータの最適値は、例えば、以下のように推定される。即ち、

Figure 0004586103
ここで、Tは転置行列を示し、B(s)はBスプライン行列、tは曲線セグメントの長さ、QはBスプラインパラメータをそれぞれ示す。 An example of a method for determining a curve parameter constituting the updated template will be described. It is assumed that a certain curve segment v (s) = (x (s), y (s)) T is modeled using an nth-order B-spline function. The optimum value of the parameter after the representative point movement is estimated as follows, for example. That is,
Figure 0004586103
Here, T represents a transposed matrix, B (s) represents a B spline matrix, t represents a length of a curve segment, and Q represents a B spline parameter.

曲線セグメントに対応する抽出対象の輪郭線をv’(s)=(x’(s),y’(s))とし、各点での特徴量(エッジ強度値など)をE’(s)とおき、E’(s)がE(s)に対して正規分布をなすとすると、その確率分布密度関数は、

Figure 0004586103
となる。ここで、(σ,(σは、E’(s)=(Ex’(s),Ey’(s))に対する分散を示す。 The contour to be extracted corresponding to the curve segment is set to v ′ (s) = (x ′ (s), y ′ (s)) T, and the feature value (edge intensity value, etc.) at each point is E v ′ ( s), and E v ′ (s) is normally distributed with respect to E v (s), the probability distribution density function is
Figure 0004586103
It becomes. Here, (σ x ) 2 and (σ y ) 2 indicate variances with respect to E v ′ (s) = (E x ′ (s) , E y ′ (s) ).

本実施例では説明を簡単化して理解を容易にするため、E(s)は2値(0又は1)とし、テンプレート図形の輪郭モデルデータは、E(s)=1となる点の集合として与えられるものとする。このとき、最ゆう推定値は、

Figure 0004586103
で与えられる。Qの階数等は、以下に示す情報量基準AIC(Q)が最小となるnなどのようにして求められる。具体的には、
Figure 0004586103
である。Number(Q)は、Qの要素数である。 In this embodiment, in order to simplify the explanation and make it easy to understand, E v (s) is binary (0 or 1), and the contour model data of the template figure is E v (s) = 1. It shall be given as a set. At this time, the most likely estimate is
Figure 0004586103
Given in. The rank of Q and the like are obtained in the following manner, such as n that minimizes the information criterion AIC (Q) shown below. In particular,
Figure 0004586103
It is. Number (Q) is the number of elements of Q.

移動範囲の拡大は、典型的には、元の移動範囲の形状を単純に所定の倍率で拡大する。しかし、テンプレート図形要素の当該代表点を含む曲線の接線方向を大きくとるような非等方的な拡大でもよい。このとき、前述した移動条件を満たす範囲で探索することはいうまでもない。   The expansion of the movement range typically involves simply expanding the shape of the original movement range at a predetermined magnification. However, it may be an anisotropic expansion in which the tangent direction of the curve including the representative point of the template graphic element is increased. At this time, it goes without saying that the search is performed in a range satisfying the above-mentioned movement condition.

移動に関する拘束条件の緩和によっても第2の形状適合度が所定の基準値(例えば0.3)未満である代表点の数がその全体の一定数以下(例えば、過半数)ならば、当該テンプレートの変形を停止し、大きさ等の異なる他のテンプレートに切り替えて上述した処理を実行しても良い。   If the number of representative points whose second shape conformance is less than a predetermined reference value (for example, 0.3) is less than or equal to a certain number (for example, a majority) of the template even after the restriction on movement is relaxed, The above-described processing may be executed by stopping the deformation and switching to another template having a different size.

当該代表点の近傍にある代表点間を結ぶテンプレートの曲線セグメント上でエッジ割合が極めて高い場合(例えば、0.9以上)、当該代表点の上述したような移動先の探索を行わなくてもよい。   When the edge ratio is very high (for example, 0.9 or more) on the curve segment of the template connecting the representative points in the vicinity of the representative point, it is not necessary to search for the movement destination of the representative point as described above. Good.

図8(c)に示すように、代表点間を結ぶ曲線(又は線分)上において、先に抽出された特徴量の非エッジ点がある場合、その非エッジ点を付加代表点として追加し(そのような非エッジ点が連続している場合にはその連続した非エッジ線分上の中点を新たな代表点とする)、その代表点について同様に移動範囲を設定して(又は移動条件を満たすように移動探索を行って)拘束条件を満たす位置へ移動させ、その代表点に隣接する代表点との間を結ぶ曲線を生成してもよい。この代表点の付加は、自動的に行うことができるが、ユーザの指示により実行しても良い。適切な代表点位置が検出されない場合には、同様にして、移動範囲の拡大又は移動条件の緩和を実行する。   As shown in FIG. 8C, when there is a non-edge point of the feature amount extracted previously on the curve (or line segment) connecting the representative points, the non-edge point is added as an additional representative point. (If such non-edge points are continuous, the midpoint on the continuous non-edge line segment is set as a new representative point), and the movement range is similarly set (or moved) for the representative point. It is also possible to perform a movement search so as to satisfy the condition) and move to a position satisfying the constraint condition to generate a curve connecting the representative point adjacent to the representative point. The addition of the representative point can be automatically performed, but may be executed according to a user instruction. If an appropriate representative point position is not detected, the movement range is expanded or the movement condition is relaxed in the same manner.

最後に、更新後のテンプレート輪郭線を表示し(S8)、輪郭線データからマスクデータを生成し(S9)、必要に応じて輪郭線又はマスクデータを記憶装置に記録して(S10)、処理を終了する。   Finally, the updated template contour line is displayed (S8), mask data is generated from the contour line data (S9), and the contour line or mask data is recorded in the storage device as necessary (S10), and the processing is performed. Exit.

以上の各処理は、コンピュータで実行可能な所定のプログラム形式により形成されていても良いし、各部の処理を所定のゲートアレイ(FPGA及びASlC等)などのハードウェア、又は所定のコンピュータプログラムと図1に示す一部の要素を実現する部分的ハードウェアジュールとが混在する形式でも実現できることは明らかである。ハードウェアモジュールが含まれる場合、必ずしも各構成要素が図1に示す構成と同一でなくてもよく、その機能が実質的に同一であるもの、又は、一つの要素が図1の複数の要素の機能を備えるものなどは、本発明の技術的範囲に含まれることはいうまでもない。この点は、以下の実施例において同様である。 Each of the above processes may be formed in a predetermined program format that can be executed by a computer, and each part of the processing may be performed by hardware such as a predetermined gate array (FPGA, ASLC, etc.) or a predetermined computer program. it is obvious that can be realized in a form partially hardware module that implements part of the elements shown in 1 are mixed. When a hardware module is included, each component does not necessarily have the same configuration as that illustrated in FIG. 1, and the function is substantially the same, or one component is a plurality of components in FIG. 1. Needless to say, those having functions are included in the technical scope of the present invention. This point is the same in the following embodiments.

更新テンプレート生成処理(図5のS7)を変更した実施例を説明する。この変更実施例(第2実施例)では、テンプレートの走査と適合度評価を実行して、抽出対象の位置と適切なテンプレートモデルを選択した後、本実施例に特有の更新テンプレート生成処理を実行する。その具体的処理手順のフローチャートを図10に示す。   An embodiment in which the update template generation process (S7 in FIG. 5) is changed will be described. In this modified embodiment (second embodiment), the template scan and the fitness evaluation are executed, the position of the extraction target and an appropriate template model are selected, and then the update template generation process specific to this embodiment is executed. To do. A flowchart of the specific processing procedure is shown in FIG.

先ず、更新前のテンプレートデータから形状適合度の低いセグメントを含む代表点を自動抽出し(S11)、テンプレートデータをその代表点を含むように局所領域に分割する(S12)。予めまとまった形状要素ごとに領域分割されたテンプレートを使う場合には、この領域分割処理は、不要である。   First, representative points including a segment having a low shape matching degree are automatically extracted from the template data before update (S11), and the template data is divided into local regions so as to include the representative points (S12). In the case of using a template that has been divided into regions for each shape element that has been collected in advance, this region division processing is unnecessary.

代表点を含む局所領域で、以下に説明するような幾何学的変換パラメータの推定と変換を実行する(S13)。本実施例では、所定の代表点の近傍領域について局所的な幾何学的変形(局所アフィン変換、局所双線形変換及び局所透視変換など)によりテンプレートを更新するが、ここでは、そのためのテンプレートの局所幾何学的変換パラメータを、曲線パラメータに関する確率過程のベイズの推定手法に基づき入力画像中の対象に最も適合するようなパラメータとして求める。   In the local region including the representative point, estimation and conversion of geometric conversion parameters as described below are executed (S13). In the present embodiment, the template is updated by local geometric deformation (such as local affine transformation, local bilinear transformation, and local perspective transformation) in the vicinity region of a predetermined representative point. The geometric transformation parameter is obtained as a parameter that best fits the object in the input image based on the Bayesian estimation method of the stochastic process regarding the curve parameter.

更に、必要に応じて輪郭モデル形状を微調整するために、上述の実施例と同様に、変換後の代表点間を結ぶ曲線セグメントを生成し(S14)、第2の形状適合度を評価し(S15)、テンプレート形状を変形し、更新する(S16)。   Further, in order to finely adjust the contour model shape as necessary, a curved segment connecting the converted representative points is generated (S14), and the second shape conformance is evaluated, as in the above-described embodiment. (S15) The template shape is deformed and updated (S16).

この実施例で局所的な幾何学的変形と適合度評価を行う意義は、代表点間の相対的な位置関係(即ち、幾何学的位相及び凹又は凸形状など)を概ね保持しながら、局所的な領域において複数の代表点の位置を一括して所与の変形モードと合致するように変換することにより、抽出対象に適合する輪郭モデルの探索を効率化することにある。   The significance of performing local geometric deformation and fitness evaluation in this embodiment is that the relative positional relationship between representative points (ie, geometric phase and concave or convex shape) is generally maintained, By converting the positions of a plurality of representative points in a specific region so as to match a given deformation mode, it is possible to improve the efficiency of searching for a contour model that matches the extraction target.

アフィン変換、透視変換及び双線形変換はそれぞれ、下記式で与えられる。すなわち、

Figure 0004586103
Figure 0004586103
Figure 0004586103
x’=xw’、y’=yw’、[uv]は変換前の座標、[xy]は変換後の座標、{aij}{a}{b}及びwは変換パラメータである。 The affine transformation, perspective transformation, and bilinear transformation are each given by the following equations. That is,
Figure 0004586103
Figure 0004586103
Figure 0004586103
x ′ = xw ′, y ′ = yw ′, [uv] is a coordinate before conversion, [xy] is a coordinate after conversion, {a ij } {a i } {b i }, and w are conversion parameters.

近傍領域としては、複数の代表点を含む所定サイズの矩形領域とするか、又は、予めテンプレートを所定のブロックごとに分割しておき、変形を各ブロックごとに行なうようにしてもよい。例えば、人体を表わすテンプレートでは、頭部、胴部、胸部及び脚部などのように、意味のある形状ごとにブロック分割したものを近傍領域としてもよい。図11は、人体の各部を予め分割しておき、元のデータ図11(a)に対して各部に所定の幾何学的変換を行なった結果図11(b),(c),(d)を例示する。実際に用いる輪郭線データは、図11の各図形の最外郭輪郭線であることはいうまでもない。   The neighborhood area may be a rectangular area having a predetermined size including a plurality of representative points, or the template may be divided in advance for each predetermined block, and the deformation may be performed for each block. For example, in a template representing a human body, a region divided into blocks for each meaningful shape, such as a head, a torso, a chest, and a leg, may be used as a neighborhood region. FIG. 11 shows the result of dividing each part of the human body in advance and performing a predetermined geometric transformation on each part of the original data FIG. 11A. FIG. 11B, FIG. 11C, and FIG. Is illustrated. Needless to say, the contour data actually used is the outermost contour of each figure in FIG.

近傍領域内の各点(又は代表点)位置を上述の幾何学変換により移動することにより、テンプレートが変形される。アフィン変換を例に、最適な変換パラメータを求める手順を説明する。変換パラメータセット{aij}の事前確率をP(a)、画像データの事前確率をP(b)、変換パラメータが与えられたときに、その変換によって得られるテンプレート図形要素が入力画像の特徴量と一致する事後確率をP(b|a)、画像の特徴量bが与えられたときに、それに対応するテンプレートの変換パラメータセットが{aij}である事後確率をP(a|b)、求めるべき変換パラメータを{aopt}とする。{aopt}は、ベイズの法則に従い、最大事後確率max[P(a|b)]を与えるパラメータとして下記式により与えられる。即ち、

Figure 0004586103
上式の最右辺の対数をとり、またP(b)が定数であることを考慮すると、結局、
Figure 0004586103
となる。 The template is deformed by moving the position of each point (or representative point) in the vicinity region by the above-described geometric transformation. Taking affine transformation as an example, a procedure for obtaining an optimum transformation parameter will be described. When the prior probability of the transformation parameter set {a ij } is P (a), the prior probability of the image data is P (b), and a transformation parameter is given, the template figure element obtained by the transformation is the feature quantity of the input image. And P (b | a), which is a feature quantity b of the image, and P (a | b), the posterior probability that the conversion parameter set of the corresponding template is {a ij } Let the conversion parameter to be obtained be {a opt }. {A opt } is given by the following equation as a parameter that gives the maximum posterior probability max [P (a | b)] according to Bayes' law. That is,
Figure 0004586103
Taking the logarithm of the rightmost side of the above equation and considering that P (b) is a constant, after all,
Figure 0004586103
It becomes.

次に、図12を参照して、幾何学的(アフィン)変換パラメータの推定手順を具体的に説明する。幾何学的変換パラメータの事前確率分布P(a)及び変換によって得られるテンプレート図形要素が入力画像の特徴量と一致する事後確率P(b|a)を下記式に示すようにして求め(S21)、それらを数18の右辺に代入して最大事後確率評価関数を求める(S22)。求めた関数の値が最大となるようなパラメータ{aopt}を、連続勾配山登り法などによる最適化法により求める(S23)。 Next, a procedure for estimating a geometric (affine) transformation parameter will be specifically described with reference to FIG. The prior probability distribution P (a) of the geometric transformation parameter and the posterior probability P (b | a) that the template figure element obtained by the transformation matches the feature quantity of the input image are obtained as shown in the following equation (S21). These are substituted into the right side of Equation 18 to obtain the maximum posterior probability evaluation function (S22). A parameter {a opt } that maximizes the value of the obtained function is obtained by an optimization method such as a continuous gradient hill climbing method (S23).

テンプレートデータが線図形からなるものとし、ある代表点を含むテンプレートの図形要素を構成する局所線分(曲線要素)上の点の集合Nにおいて2値のテンプレートデータt(u,v)にアフィン変換{a}を行った結果の誤差がガウシアン分布となると仮定する。この仮定の下では、事後確率P(b|a)は下記式で与えられる。即ち、

Figure 0004586103
ここで、σは分散、a(u,v)はアフィン変換により点(u,v)が移される座標、bは入力画像の2値のエッジマップ(エッジ強度分布を所定の閾値で2値化したもの)をそれぞれ示す。テンプレートデータが濃淡画像の場合、Nは当該代表点を含む局所領域又は予め分割された当該代表点を含む領域上の点の集合となり、bはエッジ強度分布を示す。 Assume that the template data consists of line figures, and affine transformation into binary template data t (u, v) in a set N of points on a local line segment (curve element) constituting a graphic element of a template including a representative point Assume that the error resulting from performing {a} is Gaussian. Under this assumption, the posterior probability P (b | a) is given by the following equation. That is,
Figure 0004586103
Where σ is the variance, a (u, v) is the coordinate to which the point (u, v) is moved by affine transformation, b is the binary edge map of the input image (the edge intensity distribution is binarized with a predetermined threshold value) Each). When the template data is a grayscale image, N is a set of points on a local region including the representative point or a region including the representative point divided in advance, and b indicates an edge intensity distribution.

事前確率分布P(a)は、水平又は垂直方向への変倍、回転又はシフトを与える変形モードで高い値をとるものとし、

Figure 0004586103
Figure 0004586103
ここで、mij,σijはそれぞれaijの平均及び分散を示し、
Figure 0004586103
である。mode={回転、回転、・・・、倍率、倍率2、・・・、シフト、・・・、その他}のように表わされ、各変形モードごとに、mij及びσijのパラメータ値が与えられる。‘その他’のモードは、特定の名称が与えられない任意の変換モードである。 The prior probability distribution P (a) is assumed to take a high value in a deformation mode that gives scaling, rotation or shift in the horizontal or vertical direction,
Figure 0004586103
Figure 0004586103
Here, m ij and σ ij indicate the mean and variance of a ij , respectively.
Figure 0004586103
It is. mode = {rotation 1 , rotation 2 ,..., magnification 1 , magnification 2, ..., shift 1 ,..., etc.}, and m ij and σ ij for each deformation mode. Parameter values are given. 'Other' mode is any conversion mode that is not given a specific name.

最適な変換パラメータは、数19、数20、数21及び数22を数18に代入し、Vmode及び{aij}について連続勾配山登り法(continuous gradient ascent)又はPowel法などを用いることにより求められる。以上は、最適な変換パラメータを求める手法の一例であり、他の最適化手法(EMアルゴリズム、動的計画法及び遺伝的アルゴリズムなど)を用いてもよいことはいうまでもない。 The optimum transformation parameters are obtained by substituting Equations 19, 20, 21, and 22 into Equation 18 and using a continuous gradient hill climbing method or the Powel method for V mode and {a ij }. It is done. The above is an example of a method for obtaining an optimum conversion parameter, and it goes without saying that other optimization methods (EM algorithm, dynamic programming, genetic algorithm, etc.) may be used.

上述した方法で求めた変換パラメータにより変換されたテンプレートデータを初期値として、更に第1の実施例に示した第2の形状適合度評価に基づく代表点の移動と代表点間を結ぶ曲線の生成処理を行ってもよい。   Using the template data converted by the conversion parameter obtained by the method described above as an initial value, generation of a curve connecting the movement of the representative points and the representative points based on the second shape fitness evaluation shown in the first embodiment Processing may be performed.

上述した方法により抽出対象の輪郭線(閉曲線)が求まったら、その閉曲線データを画像表示装置14の画面上に表示し、必要があれば、閉曲線内部の領域データとしてマスクデータを生成し、その何れかを所定の記憶手段に記録する。   When the contour line (closed curve) to be extracted is obtained by the above-described method, the closed curve data is displayed on the screen of the image display device 14, and if necessary, mask data is generated as area data inside the closed curve. Is recorded in a predetermined storage means.

不定部分を一部に有する図形要素からなる可変形状テンプレートを用いてもよい。不定部分とは変形の自由度が大きい部分であり、変形に伴い新たなループ形状が発生しないこと、及び、不定部分に対応する形状が凹か凸かが予め分かっていることを拘束条件として、それ以外の特定の拘束条件が課されない部分をいう。   You may use the variable shape template which consists of a graphic element which has an indefinite part in part. The indeterminate part is a part with a large degree of freedom of deformation, and it is a constraint that the new loop shape does not occur with the deformation and that the shape corresponding to the indeterminate part is known in advance as concave or convex. A part where no other specific constraint is imposed.

抽出対象として、例えば人物の胸部及び脚部のように関節を有する部分は、変形の自由度が他の部分に比べて大きいことが予め分かっているから、これらの部分を不定部分として予めテンプレートデータ上で定義しておく。   As an extraction target, for example, portions having joints such as a person's chest and legs are known in advance to have a greater degree of freedom of deformation than other portions. Define it above.

第1実施例と同様に、テンプレートの走査と適合度評価を実行し、抽出対象の位置と適切なテンプレートモデルを選択する。次に、テンプレートを構成する図形要素の変形と形状適合度評価によるテンプレート更新を実行する。その際に、先ず、不定部分を除いた部分で第1実施例又は第2実施例に示した方法によりテンプレートを変形し、その後、不定部分の輪郭線を推定する。   As in the first embodiment, template scanning and fitness evaluation are executed, and the position to be extracted and an appropriate template model are selected. Next, template update is executed by deformation of the graphic elements constituting the template and shape suitability evaluation. At that time, first, the template is deformed by the method shown in the first embodiment or the second embodiment except for the indefinite portion, and then the contour of the indefinite portion is estimated.

不定部分の輪郭線を推定する方法として2つの方法を説明する。第1の方法では、不定部分の一方の端点を始点とし、他方を終点とする輪郭追跡を不定部分ごとに実行する。その結果得られる不定部分の輪郭線を近似する曲線を生成してもよい。図13(a),(b)は、第1の方法による不定部分の輪郭形状抽出過程の一例を示す。   Two methods will be described as methods for estimating the contour of the indefinite portion. In the first method, contour tracking with one end point of the indefinite portion as the start point and the other end point is executed for each indefinite portion. A curve that approximates the contour of the indefinite portion obtained as a result may be generated. FIGS. 13A and 13B show an example of the contour shape extraction process of the indefinite portion by the first method.

第2の方法では、図13(c)に示すように、不定部分の両端点を結ぶ線分を直径とするプローブ円をその不定部分の形状が凸なら外側に、凹なら内側方向に移動させながら、各場所でその円の半径と位置を微少量ずつ変化させて、抽出対象の輪郭がその円と2箇所(p,q)で接するような円の位置と半径を求める。これにより、順次、輪郭線の座標を確定していく。この方法は、分岐のない形状の輪郭線を抽出するのに適している。この方法で概略の形状を抽出してから、抽出された部分を初輪郭モデルとして用い、第1実施例又は第2実施例で説明した手法で細部の形状を抽出してもよい。 In the second method, as shown in FIG. 13 (c), the probe circle whose diameter is a line segment connecting both end points of the indeterminate part is moved outward if the indeterminate part is convex, and inward if it is concave. However, the radius and the position of the circle are changed little by little at each place, and the position and radius of the circle where the contour to be extracted is in contact with the circle at two locations (p j , q j ) are obtained. Thereby, the coordinates of the contour line are determined sequentially. This method is suitable for extracting a contour line having no branch. After extracting the approximate shape by this method, the extracted shape may be used as the initial contour model, and the detailed shape may be extracted by the method described in the first embodiment or the second embodiment.

図14は、第3実施例におけるテンプレート更新処理のフローチャートを示す。図14に示す処理は、図5のS7に相当する。   FIG. 14 shows a flowchart of the template update process in the third embodiment. The process shown in FIG. 14 corresponds to S7 in FIG.

先ず、端点を有する曲線セグメントペアを選択し(S31)、不定部分以外のテンプレート図形要素の形状を先の実施例で説明した方法により更新する(S32)。次に、更新後の隣接する図形要素の相対する端点から始点及び終点を設定し(S33)、上述した方法、即ち始点及び終点間を結ぶ輪郭追跡(第1の方法)、又はプローブ円による輪郭位置確定(第2の方法)を実行する(S34)。以上の処理を全ての端点がなくなるまで繰り返し(S35)、テンプレートの図形要素により1つの閉曲線が形成されたら(S35)、更新後のテンプレートデータとして出力する(S36)。   First, a curve segment pair having end points is selected (S31), and the shape of the template graphic element other than the indefinite portion is updated by the method described in the previous embodiment (S32). Next, the start point and the end point are set from the opposite end points of the adjacent graphic elements after the update (S33), and the above-described method, that is, the contour tracking connecting the start point and the end point (first method), or the contour by the probe circle Position determination (second method) is executed (S34). The above processing is repeated until all the end points are eliminated (S35). When one closed curve is formed by the graphic elements of the template (S35), it is output as updated template data (S36).

このような構成では、特定部分について形状の不確定性(自由度)が高いことが予め分かっている抽出対象の輪郭を安定して抽出することが出来る。すなわち、与えられたテンプレートの形状とは大きく異なる部分を有する対象が画像中に存在しても、その異なる部分の輪郭について残りの確定した部分形状のギャップを補完するような最も確からしい曲線(例えば、端点での形状連続性又は画像特徴量の連続性の条件を満たすものとして輪郭追跡により求まる曲線)として求めることができる。   With such a configuration, it is possible to stably extract the contour of the extraction target that is known in advance to have high shape uncertainty (degree of freedom) for a specific portion. That is, even if there is an object in the image that has a part that differs greatly from the shape of the given template, the most probable curve that complements the remaining defined part shape gap for the outline of the different part (e.g. , A curve obtained by contour tracing as a condition satisfying the continuity of the shape at the end points or the continuity of the image feature amount.

第4の実施例として、テンプレート更新処理(図5のS7)に相当する処理として、代表点間を通るテンプレートを構成する図形要素の曲線(又は線分)に沿った(又はその曲線を中心線とする)所定幅の太線を図15に示すように生成し、太線の両側の特徴量(色成分値及び局所空間周波数代表値など)に基づき太線内部の境界位置を推定するようにしてもよい。この場合、テンプレート更新処理の前には、先の実施例と同様の処理が施される。   As a fourth embodiment, as a process corresponding to the template update process (S7 in FIG. 5), a curve along a graphic element (or line segment) constituting a template passing between representative points (or a center line of the curve). A thick line having a predetermined width may be generated as shown in FIG. 15, and the boundary position inside the thick line may be estimated based on the feature values (color component values, local spatial frequency representative values, etc.) on both sides of the thick line. . In this case, the same process as in the previous embodiment is performed before the template update process.

具体的には、図15に示すように太線化した領域の輪郭線1又は輪郭線2の少なくとも一方の上に、領域成長のための核を設定する。領域成長処理では、その核での画像特徴量の差が所定の閾値より小さい核の近傍領域を核に併合し、その結果得られる輪郭線1からの成長結果と輪郭線2からの成長結果を統合する。又は、いずれかの輪郭線からの成長結果に基づいて1つの境界線を推定する。   Specifically, as shown in FIG. 15, a nucleus for region growth is set on at least one of the contour line 1 or the contour line 2 of the thickened region. In the region growing process, a region near the nucleus whose image feature value difference at the nucleus is smaller than a predetermined threshold is merged with the nucleus, and the resulting growth result from the contour line 1 and the growth result from the contour line 2 are obtained. Integrate. Alternatively, one boundary line is estimated based on the growth result from any one of the contour lines.

境界位置は例えば、太線の方向に略直交するライン上での特徴量の最大エッジ強度位置として、又は、太線の両側の所定サンプリング点からの特徴量(例えば、色成分)の類似度に基づく領域成長による境界位置などとして決定される。   The boundary position is, for example, a region based on the maximum edge strength position of the feature amount on a line substantially orthogonal to the direction of the thick line, or the similarity of feature amounts (for example, color components) from predetermined sampling points on both sides of the thick line. It is determined as the boundary position by growth.

本実施例では、最終的に抽出される輪郭線は必ずしもパラメトリックな曲線で表現されなくても良い。   In this embodiment, the contour line finally extracted does not necessarily have to be expressed by a parametric curve.

10:画像入力装置
12:画像記憶装置
14:画像表示装置
16:画像処理装置
18:指示選択装置
20:特徴量抽出装置
22:テンプレートモデル選択装置
24:テンプレートデータ生成装置
26:テンプレート走査装置
28:移動範囲・条件更新設定装置
30:更新テンプレート生成装置
32:形状適合度評価装置
34:境界線生成装置
36:境界線表示装置
38:マスクデータ生成装置
40:画像表示装置14の画面
42:入力画像
44:テンプレートモデル画像データ
46:目標位置確認インディケータ
48:抽出指示ボタン
50:テンプレートスクロールボタン
10: image input device 12: image storage device 14: image display device 16: image processing device 18: instruction selection device 20: feature quantity extraction device 22: template model selection device 24: template data generation device 26: template scanning device 28: Movement range / condition update setting device 30: update template generation device 32: shape conformity evaluation device 34: boundary line generation device 36: boundary line display device 38: mask data generation device 40: screen 42 of image display device 14: input image 44: Template model image data 46: Target position confirmation indicator 48: Extraction instruction button 50: Template scroll button

Claims (2)

第1のマッチング手段が入力画像と局所的な図形要素を含むテンプレートとの所定の特徴量の値に関す所定の評価関数値を求める第1のマッチング処理を行う第1のマッチングステップと、
局所変換手段が前記テンプレート上の所定の代表点の近傍領域について局所的な幾何学的変換を行う局所変換ステップと、
変換パラメータ算出手段が前記局所変換ステップの変換パラメータを前記第1のマッチング処理結果、および、所定の変形モードまたは確率分布の少なくとも一方、に基づいて求める変換パラメータ算出ステップと、
第2のマッチング手段が前記局所変換ステップにより得られるテンプレートと前記入力画像との第2のマッチング処理を行う第2のマッチングステップと、
画像領域抽出手段が前記第2のマッチング処理の結果に基づき記輪郭線を含む画像領域を抽出する画像領域抽出ステップ
とを具備することを特徴とする画像抽出方法。
A first matching step of the first matching means performs a first matching processing for obtaining the predetermined evaluation function value related to the value of the predetermined feature quantity of a template including the input image and the local graphic element,
A local transformation step in which a local transformation means performs a local geometric transformation on a region near a predetermined representative point on the template;
A conversion parameter calculation step in which a conversion parameter calculation means obtains a conversion parameter of the local conversion step based on the first matching processing result and at least one of a predetermined deformation mode and a probability distribution;
A second matching step in which a second matching means performs a second matching process between the template obtained by the local conversion step and the input image ;
Image extraction method, wherein the image region extracting means comprises an image region extraction step of extracting an image region including a pre-Symbol contour based on the result of said second matching processing.
入力画像と局所的な図形要素を含むテンプレートとの所定の特徴量の値に関す所定の評価関数値を求める第1のマッチング処理を行う第1のマッチング手段と、
前記テンプレート上の所定の代表点の近傍領域について局所的な幾何学的変換を行う局所変換手段と、
前記局所変換手段の変換パラメータを前記第1のマッチング処理結果、および、所定の変形モードまたは確率分布の少なくとも一方、に基づいて求める変換パラメータ算出手段と、
前記局所変換手段により得られるテンプレートと前記入力画像との第2のマッチング処理を行う第2のマッチング手段と、
前記第2のマッチング処理の結果に基づき記輪郭線を含む画像領域を抽出する画像領域抽出手段
とを具備することを特徴とする画像抽出装置。
A first matching means for performing a first matching processing for obtaining the predetermined evaluation function value related to the value of the predetermined feature quantity of a template including the input image and the local graphic element,
Local transformation means for performing a local geometric transformation on a region near a predetermined representative point on the template;
Conversion parameter calculation means for obtaining a conversion parameter of the local conversion means based on the first matching processing result and at least one of a predetermined deformation mode and a probability distribution;
A second matching means for performing a second matching process between the template obtained by the local conversion means and the input image ;
Image extracting apparatus characterized by comprising an image region extracting means for extracting an image region including a pre-Symbol contour based on the result of said second matching processing.
JP2009209145A 2009-09-10 2009-09-10 Image extraction method and apparatus Expired - Fee Related JP4586103B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009209145A JP4586103B2 (en) 2009-09-10 2009-09-10 Image extraction method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009209145A JP4586103B2 (en) 2009-09-10 2009-09-10 Image extraction method and apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP01468199A Division JP4392886B2 (en) 1999-01-22 1999-01-22 Image extraction method and apparatus

Publications (2)

Publication Number Publication Date
JP2009289295A JP2009289295A (en) 2009-12-10
JP4586103B2 true JP4586103B2 (en) 2010-11-24

Family

ID=41458390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009209145A Expired - Fee Related JP4586103B2 (en) 2009-09-10 2009-09-10 Image extraction method and apparatus

Country Status (1)

Country Link
JP (1) JP4586103B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5663283B2 (en) * 2010-12-02 2015-02-04 オリンパス株式会社 Endoscopic image processing apparatus and program
CN112926695A (en) * 2021-04-16 2021-06-08 动员(北京)人工智能技术研究院有限公司 Image recognition method and system based on template matching

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3557659B2 (en) * 1994-08-22 2004-08-25 コニカミノルタホールディングス株式会社 Face extraction method
JPH0950532A (en) * 1995-08-09 1997-02-18 Nippon Telegr & Teleph Corp <Ntt> Contour detector
GB9625661D0 (en) * 1996-12-11 1997-01-29 Hewlett Packard Co A method and apparatus for compression of electronic ink
JPH10191020A (en) * 1996-12-20 1998-07-21 Canon Inc Object image segmenting method and device

Also Published As

Publication number Publication date
JP2009289295A (en) 2009-12-10

Similar Documents

Publication Publication Date Title
JP4392886B2 (en) Image extraction method and apparatus
Noris et al. Topology-driven vectorization of clean line drawings
Kim et al. Feature detection of triangular meshes based on tensor voting theory
Enokiya et al. Automatic liver segmentation using U-Net with Wasserstein GANs
Wei et al. Tensor voting guided mesh denoising
JP6612822B2 (en) System and method for modifying a model
Shang et al. Region competition based active contour for medical object extraction
Tagliasacchi Skeletal representations and applications
Ma et al. Kinematic skeleton extraction from 3D articulated models
Chan et al. Two and three dimensional image registration based on B-spline composition and level sets
Amit Graphical shape templates for automatic anatomy detection with applications to MRI brain scans
Wei et al. GeoDualCNN: Geometry-supporting dual convolutional neural network for noisy point clouds
Wu et al. Regulated morphology approach to fuzzy shape analysis with application to blood vessel extraction in thoracic CT scans
JP4586103B2 (en) Image extraction method and apparatus
JP2000216979A (en) Image extraction method and device and storage medium
Garrido et al. Image segmentation with cage active contours
Kwon et al. Rolled fingerprint construction using MRF-based nonrigid image registration
CN113962957A (en) Medical image processing method, bone image processing method, device and equipment
Yang et al. Scale-aware auto-context-guided Fetal US segmentation with structured random forests
JP2000048212A (en) Device and method for picture processing and recording medium
CN112837420A (en) Method and system for completing shape of terracotta warriors point cloud based on multi-scale and folding structure
Xu et al. Group mean differences of voxel and surface objects via nonlinear averaging
JP7364959B2 (en) Feature point separation device for each subject, feature point separation method for each subject, and computer program
Wilson et al. Bias–Variance Analysis for Controlling Adaptive Surface Meshes
Wang et al. A divide and conquer deformable contour method with a model based searching algorithm

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100615

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100906

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees