JP4114966B2 - Outline extracting apparatus and outline extracting method - Google Patents

Outline extracting apparatus and outline extracting method Download PDF

Info

Publication number
JP4114966B2
JP4114966B2 JP31274096A JP31274096A JP4114966B2 JP 4114966 B2 JP4114966 B2 JP 4114966B2 JP 31274096 A JP31274096 A JP 31274096A JP 31274096 A JP31274096 A JP 31274096A JP 4114966 B2 JP4114966 B2 JP 4114966B2
Authority
JP
Japan
Prior art keywords
contour
point
edge
relay
curve
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP31274096A
Other languages
Japanese (ja)
Other versions
JPH10143654A (en
Inventor
知生 光永
琢 横山
卓志 戸塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP31274096A priority Critical patent/JP4114966B2/en
Publication of JPH10143654A publication Critical patent/JPH10143654A/en
Application granted granted Critical
Publication of JP4114966B2 publication Critical patent/JP4114966B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【目次】
以下の順序で本発明を説明する。
発明の属する技術分野
従来の技術
発明が解決しようとする課題
課題を解決するための手段
発明の実施の形態
(1)全体構成(図1)
(2)実施例(図2〜図18)
(2−1)輪郭曲線生成部の基本構成(図2)
(2−1−1)輪郭座標リスト生成部の構成(図3及び図4)
(2−1−1−1)中継点抽出部の構成(図5〜図7)
(2−1−1−2)中継点連結部の構成(図8〜図13)
(2−1−2)曲線生成部の構成(図14及び図15)
(2−2)実施例の動作及び効果(図16)
(3)他の実施例(図17及び図18)
発明の効果
【0002】
【発明の属する技術分野】
本発明は輪郭抽出装置及び輪郭抽出方法に関し、特にテレビジヨンや映画等の映像制作における特殊効果処理において、画像中から対象物の輪郭を抽出する輪郭抽出装置及び輪郭抽出方法に適用して好適なものである。
【0003】
【従来の技術】
従来、この種の特殊効果処理においては、画像から任意の部分画像を抽出する際の精度が重要となる。この抽出作業においては、エツジ検出、領域検出及び既知物体との対応付け等の処理が必要であり、特に画像中の背景や対象物が複雑である場合には、対象物の輪郭を構成するエツジを精度良く検出して追跡する必要がある。
【0004】
ここで画像中から対象物の輪郭を抽出する第1の輪郭抽出方法として、文献「画像合成のための対象物抽出法」(井上誠喜、電子情報通信学会論文誌、vol.J74-D-II、No.10 、pp1411-1418 、1991)や「領域抽出方法」(特開平3-17680 号)がある。この第1の輪郭抽出方法は、太線で対象物の輪郭をなぞることによつて対象物のおおよその輪郭を情報として与え、この太線領域内に対してエツジ強度(画素値の変化の度合い)の大きい画素を残した輪郭線図形2値画像を得るものである。
【0005】
また画像中から対象物の輪郭を抽出する第2の輪郭抽出方法として、文献「Intelligent Scissors for Image Composition」(Eric N.Mortensen and William A.Barrett、Computer Graphics Proceedings 、Annual Conference Series、1995、ACM SIGGRAPH、pp.191-198)に記載されている方法がある。
【0006】
この第2の輪郭抽出方法は、インタラクテイブに輪郭の任意の2点を指定すると、その2点間の輪郭線図形2値画像を算出するものであり、この操作を繰り返すことよつて対象物の輪郭を得る。与えられた2点間の輪郭は、エツジの強度とエツジの方向を用いた経路評価関数を設定することにより、最短路探査問題を解くことによつて算出する。文献「離散最適化法とアルゴリズム」(茨木俊秀、岩波書店、1993年)によれば、最短路探査問題を高速に解くアルゴリズムが提案されており、この輪郭抽出方法においてもこれを利用している。
【0007】
さらに画像中から対象物の輪郭を抽出する第3の輪郭抽出方法として、「SNAKES: Active Contour models 」(Kass M. 、Witikin A.、Terzopoulos D.、Proc.1st ICCV 、pp259-268 、1987)がある。この「snakes」と呼ばれる動的輪郭モデルは、画像中の輪郭に収束するように移動するコントロールポイントを、拘束条件によつて鎖状に連結したものである。この動的輪郭モデルの応用例としては、「領域分割に基づく複雑物体の自動切り出し」(栄藤稔、白井良明、NICOGRAPH ’92論文集、pp. 8-17、1992)、「領域抽出装置」(特開平5-61977 )、「弾性輪郭モデルとエネルギー最小化原理による輪郭追跡手法」(上田修功、間瀬健二、末永康仁、信学誌、vol.J-75-D-II 、No.1 、pp.111-120、1992)、「動物体の輪郭追跡方法」(特開平5-12443 号)がある。
【0008】
この「snakes」と呼ばれる動的輪郭モデルを用いる輪郭抽出方法は、第1に、動的輪郭モデルは、複数のコントロールポイントをスプライン曲線などを用いて連結したもので、線図形2値画像でない常に滑らかな輪郭を得ることができるという特徴、第2に、動的輪郭モデルの収束はコントロールポイントを少しずつ動かしながら、モデルのもつ評価関数の更新を反復処理するという局所探査と呼ばれる方法によつて解を求めるという特徴をもつている。
【0009】
【発明が解決しようとする課題】
ところで画像中の対象物の輪郭を抽出する方法において、抽出された輪郭が最終的に曲線で得られると、輪郭における様々な特徴量の算出が容易になることや、サブピクセル精度の形状をもつことによりアンチアイリアス等が可能になり画像合成処理等に有利になるなど、後続の画像処理が容易になる。従つて対象物の輪郭形状は曲線で得られることが望ましい。
ところが上述の第1及び第2の輪郭抽出方法は、対象物の輪郭を線図形2値画像として算出し、輪郭形状を最終的に曲線で得ないため、抽出した輪郭を最終的に曲線で得た場合に得られる上述の利点を得ることができない問題があつた。
【0010】
また第2の輪郭抽出方法は、第1の輪郭抽出方法と比較して、問題を解くためのソート処理などの処理時間の増大を抑えることができるが、輪郭上の種々の点をオペレータが与える必要があるため、輪郭抽出作業が煩雑になる問題があつた。また第2の輪郭抽出方法は、最短経路探査問題を解くために用いる経路評価関数に画像の2次微分を用いており、この画像の2次微分の項は評価関数中最も重要な項であるが、画像の2次微分はノイズに弱く、輪郭曲線を精度良く抽出し得ない問題があつた。
【0011】
一方、動的輪郭モデルを用いる第3及び第4の輪郭抽出方法は、輪郭をスプライン曲線として得ることができる。しかしながら、動的輪郭モデルの原理上、コントロールポイントの数は予め定められており、スプライン曲線の形状の自由度は、コントロールポイントの数によつて制限されるため、輪郭全体の形状の次数よりスプライン曲線の次数が小さくならないようにコントロールポイントの数を設定しなければならない。ところが輪郭の形状の次数を輪郭抽出を行うことなく画像から直接調べることは困難であり、輪郭の形状の次数に一致した輪郭曲線を得ることができなかつた。
【0012】
また第3及び第4の輪郭抽出方法の場合、エツジ強度勾配を指標とした評価関数により動的輪郭モデルを駆動するため、エツジ強度の勾配のノイズや、求めたい輪郭と判別しにくい他物体の輪郭に起因するエツジ強度の勾配などに影響され易く、輪郭曲線を精度良く抽出することができなかつた。
さらに第3及び第4の輪郭抽出方法は、局所探査を基本としたアルゴリズムであるため、動的輪郭モデルの初期位置によつては最適解を得ることができないおそれがあつた。
【0013】
本発明は以上の点を考慮してなされたもので、画像中から対象物の輪郭の形状の次数に一致した輪郭曲線を得ることのできる輪郭抽出装置及び輪郭抽出方法を提案しようとするものである。
【0014】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、対象物の輪郭が存在すると考えられる輪郭候補領域において検出した複数のエツジ点のうち、エツジ強度が所定のしきい値よりも大きいエツジ点を中継点として抽出し、当該中継点に対して当該輪郭に沿つた順序付けを行い、局所的な経路毎に設定された通過コストの総和を表す評価関数が最小となるよう、順序が連続する中継点間の最短経路を決定して各中継点を結ぶ経路を探査し、当該経路を順次連結することにより輪郭を表す線図形を生成して、当該線図形によつて表される形状を近似する曲線を生成するようにした。
経路探査を用いることにより中継点間を結ぶ経路をそれぞれ高精度に探査でき、また探索した経路を順次連結した線図形が曲線に近似されるので、輪郭形状を最終的に曲線で得ることができる。
【0015】
【発明の実施の形態】
以下、図面について本発明の一実施例を詳述する。
【0016】
(1)全体構成
図1において、1は全体として本発明を適用したキー信号生成装置を示し、連続した複数の画像中に存在する対象物のソフトキーを生成する。
キー信号生成装置1は、輪郭抽出部2及びキー算出部3により構成されており、輪郭抽出部2において算出した対象物の輪郭曲線と、対象物の輪郭のグラデイエントベクトルとに基づいて、キー算出部3において対象物のソフトキーを生成する。
【0017】
キー信号生成装置1は、入力手段として例えばマウス4を用いてオペレータによつて入力された、輪郭のおおまかな形状を示す線分情報、折れ線情報、曲線情報、又は太い筆でなぞつたようなマスク画像情報S1を、輪郭抽出部2の推定輪郭算出部5で受ける。推定輪郭算出部5は、線分情報、折れ線情報、曲線情報又はマスク画像情報S1に基づいて対象物の輪郭の推定形状(以下、これを推定輪郭と呼ぶ)に応じた推定輪郭情報S2を得、当該推定輪郭情報S2を輪郭候補領域決定部6に送出する。
【0018】
輪郭候補領域決定部6は、推定輪郭情報S2に基づいて、輪郭が存在すると考えられる領域(以下、これを輪郭候補領域と呼ぶ)を算出し、当該輪郭候補領域に応じた輪郭候補領域情報Ii を輪郭曲線生成部7に送出する。
輪郭曲線生成部7は、輪郭候補領域情報Ii に基づいて輪郭候補領域におけるグラデイエントベクトルを算出して当該グラデイエントベクトルを規格化すると共に、輪郭の中心を通過する画素のリスト(以下、これを輪郭座標リストと呼ぶ)Pを生成した後、当該輪郭座標リストPによつて表される形状を近似する曲線を生成し、当該曲線に応じた輪郭曲線情報C及び規格化されたグラデイエントベクトルGSをキー算出部3に送出する。
【0019】
ここでこのキー信号生成装置1においては、折れ線情報、曲線情報又はマスク画像情報S1より推定輪郭情報S2を得る方法とは別に、1つ前のフレームである画像i−1の輪郭曲線情報S4を用い、動きベクトル推定処理によつて画像i−1の輪郭が現画像iにおいてどこに移動したかを推定することより、現画像iにおける推定輪郭情報S2を得ることができるようになされている。
【0020】
すなわち動きベクトル推定部8は、1フレーム前の画像i−1について、輪郭候補領域決定部6及び輪郭曲線生成部7を介して得られる輪郭曲線情報Cを用いて、当該輪郭曲線情報Cに応じた輪郭曲線が現画像iにおいてどこに移動したかを推定し、この結果を推定輪郭情報S2として輪郭候補領域決定部6に送出する。この場合、輪郭候補領域決定部6及び輪郭曲線生成部7での処理は、上述と同様の方法で行われる。
従つて推定輪郭情報S2を得る方法として動きベクトル推定部8が選択された場合、輪郭曲線生成部7は、輪郭曲線情報Cを遅延回路9を介して動きベクトル推定部8にフイードバツクするようになされている。
【0021】
キー算出部3は、グラデイエントベクトルGS及び輪郭曲線情報Cを両端曲線算出部10で受ける。両端曲線算出部10は、グラデイエントベクトルGS及び輪郭曲線情報Cに基づいて、輪郭の両端を表す2本の曲線(以下、これを両端曲線と呼ぶ)間の幅を算出し、当該両端曲線間の幅に応じた両端曲線情報S3をソフトキー生成部11に送出する。ソフトキー生成部11は、両端曲線情報S3に基づいて、2本の両端曲線間に高さが「0」から「1」まで滑らかに変化する曲面を生成し、この曲面の高さをソフトキーの値として画像に書き込む処理を行つてソフトキーを算出し出力する。
【0022】
かくしてこのキー信号生成装置1は、画像中に存在する対象物のソフトキーを生成することができるようになされている。
【0023】
(2)実施例
(2−1)輪郭曲線生成部の基本構成
本発明の実施例による輪郭曲線生成部7の構成を図2に示す。輪郭曲線生成部7は、輪郭候補領域決定部6から供給される輪郭候補領域情報Ii を輪郭座標リスト生成部20で受ける。
【0024】
輪郭座標リスト生成部20は、輪郭座標情報生成手段として、輪郭候補領域情報Ii に基づいて、対象物の輪郭を複数の離散的な座標データでなる輪郭座標リストPとして生成し、当該輪郭座標リストPを曲線生成部21に送出する。曲線生成部21は、輪郭座標リストPによつて表される形状を近似する曲線Cを生成し、当該曲線Cを輪郭曲線情報Cとしてキー算出部3に送出する。
以下、この実施例における輪郭座標リスト生成部20及び曲線生成部21の具体的な構成を順に説明する。
【0025】
(2−1−1)輪郭座標リスト生成部の構成
輪郭座標リスト生成部20の具体的な構成を図3に示し、輪郭座標リスト生成部20における輪郭座標リスト生成処理について図4に示すフローチヤートを用いて説明する。
輪郭座標リスト生成部20は、ステツプSP1より輪郭座標リスト生成処理を開始し、ステツプSP2において、輪郭候補領域情報Ii (x、y)を中継点抽出部22及び中継点連結部23において受ける。
【0026】
次いでステツプSP3において、輪郭座標リスト生成部20は、中継点抽出手段としての中継点抽出部22において、輪郭候補領域情報Ii 中から対象物の輪郭を検出した後、当該検出した輪郭から複数の点を中継点qi として輪郭に沿つて抽出し、これら中継点qi でなる中継点座標リストQを中継点連結部23に送出する。この実施例の場合、中継点抽出部22は、後述するように、エツジの強度が近傍に比して明らかに大きい点を中継点qi として抽出する。
【0027】
続いてステツプSP4において、輪郭座標リスト生成部20は、中継点連結手段としての中継点連結部23において、輪郭候補領域情報Ii 及び中継点座標リストQに基づいて、各中継点qi を順次連結して8近傍線図形を作成し、ステツプSP5において、当該8近傍線図形を表す輪郭座標リストPを曲線生成部21に送出し、ステツプSP6において輪郭座標リスト生成処理を終了する。
【0028】
(2−1−1−1)中継点抽出部の構成
中継点抽出部22の具体的な構成を図5に示し、中継点抽出部22における中継点抽出処理について図6に示すフローチヤートを用いて説明する。
中継点抽出部22は、ステツプSP1より中継点抽出処理を開始し、ステツプSP2において、輪郭候補領域情報Ii をエツジ強度算出部22A及びエツジ検出部22Bで受ける。
【0029】
次いでステツプSP3において、中継点抽出部22は、エツジ強度算出手段としてのエツジ強度算出部22Aにおいて、輪郭候補領域情報Ii に基づいて輪郭候補領域におけるエツジ強度を算出して当該エツジ強度に応じたエツジ強度画像G(x、y)を生成し、当該エツジ強度画像Gを強エツジ点抽出部22Cに送出する。ここでエツジ強度算出部22Aは、例えば「画像解析ハンドブツク」(高木幹雄、下田陽久、東京大学出版界、1991)に記載されている方法によつてエツジ強度を算出する。
【0030】
続いてステツプSP4において、中継点抽出部22は、エツジ検出手段としてのエツジ検出部22Bにおいて、輪郭候補領域情報Ii よりエツジ点を検出して当該エツジ点の位置を指定するエツジ点2値画像E(x、y)を生成し、当該エツジ点2値画像Eを強エツジ点抽出部22Cに送出する。ここでエツジ点2値画像とは、エツジ位置に相当する画素の値が「1」で表され、それ以外の画素の値が「0」で表される画像である。エツジ検出部22Bは、例えば上述の「画像解析ハンドブツク」に記載されている方法によつてエツジ点を検出する。
【0031】
次いでステツプSP5において、中継点抽出部22は、強エツジ点抽出手段としての強エツジ点抽出部22Cにおいて、エツジ強度画像G及びエツジ点2値画像Eに基づいて、エツジ点のうち、エツジ強度が予め定められたしきい値Tより大きいエツジ点に相当する位置の画素を中継点qi として抽出し、当該抽出した中継点qi を輪郭に沿つて順序付けすることにより、中継点座標リストQを生成する。中継点抽出部22は、ステツプSP6において、中継点座標リストQを中継点連結部23に送出し、ステツプSP7において中継点抽出処理を終了する。
【0032】
ここで強エツジ点抽出部22Cにおける中継点qi の順序付け処理について図7を用いて説明する。
中継点qi が輪郭に沿つてそれほど大きくない間隔で得られている場合、中継点qi をたどる経路(折れ線)がループを作らないようにしながら(物体輪郭はループにならない)、近傍の中継点qi をたどる順序付けをすることにより輪郭に沿つた順序付けを行うことができる。すなわち中継点qi をたどる経路のうち最短で1周する経路を選択すればループが生じない。
【0033】
ここで図7(A)に示すように、ループのある経路では必ず経路のどこかで交差が発生し、このような経路が最短の経路でないことは、図7(B)に示すような交差を修正した経路が図7(A)に示すような経路より明らかに短いことから証明できる。すなわち図7(A)における線分[qi 、qi+1 ]と線分[qj 、qj+1 ]の長さの和と、図7(B)における線分[qi 、qi+1 ]と線分[qj 、qj+1 ]の長さの和には、三角形の一辺と他の2辺の和の関係が成立し、交差がある経路には必ずこれよりも短い経路が存在することが分かるので、最短経路はループをもたない。
【0034】
従つて強エツジ点抽出部22Cにおける中継点qi の順序付け処理は、全ての中継点qi をたどる最短の経路を求める問題に置き換えることができる。この問題は、「離散最適化法とアルゴリズム」(茨木俊秀、岩波書店、1993)によれば、巡回セールスマン問題の1種であり、この問題を解くことによつて全ての中継点qi をたどる最短の経路を求めることができる。
【0035】
(2−1−1−2)中継点連結部の構成
中継点連結部23の具体的な構成を図8に示す。中継点連結部23は、中継点連結手段として、輪郭候補領域決定部6から供給される輪郭候補領域情報Iをグラデイエントベクトル算出部24で受ける。グラデイエントベクトル算出部24は、後述するように、輪郭候補領域情報IからグラデイエントベクトルGを生成した後、当該グラデイエントベクトルGを規格化することにより、入力画像における色差の大小に依存しない規格化されたグラデイエントベクトルGSを生成し、当該グラデイエントベクトルGSをエツジ検出部25、経路探査部26及びキー算出部3に送出する。
【0036】
ここでこの実施例における輪郭候補領域決定部6及びグラデイエントベクトル算出部24の構成を図9に示す。この実施例の場合、入力手段4から、検出したい輪郭のおおまかな位置及び方向を指定する情報として、輪郭に沿つて連続した曲線情報S1が入力されるものとする。
【0037】
輪郭候補領域決定部6は、推定輪郭算出部5から供給される曲線でなる推定輪郭情報S2を特徴点抽出回路6A及び曲線分割回路6Bで受ける。特徴点抽出回路6Aは、推定輪郭情報S2に応じた曲線より特徴点を抽出し、当該特徴点に応じた特徴点情報CRを曲線分割回路6Bに送出する。ここで特徴点とは、曲線上で特異な点を示す点であり、例えば曲線の形状が屈曲する屈曲点や曲線の軌跡上で画像の色が変化する色変化点などである。
【0038】
曲線分割回路6Bは、推定輪郭情報S2に応じた曲線を、各特徴点を頂点とするエツジに沿つて連続した折れ線Lに近似し、当該折れ線Lを領域分割回路6Cに送出する。領域分割回路6Cは、曲線分割回路6Bから供給される折れ線Lに基づいて、折れ線Lの各線分lj の近傍画素を指定するマスク画像Imjを各線分lj 毎に生成し、それぞれ対応する線分lj とマスク画像Imjとの対を輪郭の方向及び位置の情報としてグラデイエントベクトル算出部24に送出する。
【0039】
グラデイエントベクトル算出部24は、グラデイエントベクトル算出手段として、輪郭候補領域情報Ii として供給される線分lj とマスク画像Imjとの対を、当該対の数だけ設けられたエツジ強度規格化回路24Aで受けると共に、各マスク画像Imjを画像合成部24Bで受ける。各エツジ強度規格回路24Aは、線分lj とマスク画像Imjに基づいてグラデイエントベクトルGj を生成した後、当該グラデイエントベクトルGj 、線分lj 及びマスク画像Imjに基づいて、色差の大きさを「1」にするような規格化処理を行うことにより、規格化したグラデイエントベクトルGsjを生成し、当該規格化された各グラデイエントベクトルGsjを画像合成部24Bに送出する。
画像合成部24Bは、対応するグラデイエントベクトルGsjとマスク画像Imjとの対を用いて、規格化されたグラデイエントベクトルGSを生成し、当該グラデイエントベクトルGSをエツジ検出部25、経路探査部26及びキー算出部3に送出する。
【0040】
ここでエツジ強度画像規格化回路24Aにおける規格化処理の具体的な内容について説明する。
エツジ強度規格化回路24Aは、エツジの位置及びエツジの方向についての情報として与えられるマスク画像及び線分の対に基づいて、エツジを垂直に横切る横断直線を算出し、当該横断直線上でエツジ強度が最大となるエツジ強度最大点を算出した後、横断直線上のエツジ強度最大点を始点とする一方の側の半直線上において、エツジ強度がエツジ強度最大点におけるエツジ強度より小さく、かつ所定のしきい値以下となる点P0を検出すると共に、横断直線上のエツジ強度最大点を始点とする上述の半直線とは正反対の半直線上において、エツジ強度がエツジ強度最大点におけるエツジ強度より小さく、かつ所定のしきい値以下となる点P1を検出し、点P0及び点P1間を結ぶ直線を積分経路PIとする。
【0041】
続いてエツジ強度規格化回路24Aは、積分経路PI上の端点P0から端点P1までの任意の複数の点におけるエツジ強度値を求め、これら各点におけるエツジ強度値の総和を規格化係数Sとして算出した後、当該規格化係数SでグラデイエントベクトルGj を除算することにより、規格化されたグラデイエントベクトルGSj を生成する。
【0042】
次にこの実施例におけるエツジ検出部25の構成を図10に示す。エツジ検出部25は、エツジ検出手段として、グラデイエントベクトル算出部24から規格化係数S及び積分経路PIをしきい値算出回路25Aで受けると共に、規格化されたグラデイエントベクトルGSをエツジ点検出回路25Bで受ける。
しきい値算出回路25Aは、規格化係数Sを積分経路PIの長さ(すなわち点P0及び点P1間の距離)で除算することにより得られる値をしきい値Hとしてエツジ点検出回路25Bに送出する。
【0043】
エツジ点検出回路25Bは、しきい値Hを用いて、規格化されたグラデイエントベクトルGSに対してしきい値処理を行うことにより、エツジ強度がピークとなるエツジ点を検出し、エツジ強度のピークを表すエツジ点2値画像EPを経路探査部26に送出する。
かくして経路探査部26には、規格化されたグラデイエントベクトルGS及びエツジ点2値画像EPが入力される。
【0044】
経路探査部26における経路探査処理について図11に示すフローチヤートを用いて説明する。
経路探査部26は、経路探査手段として、ステツプSP1より経路探査処理を開始し、ステツプSP2、ステツプSP3及びステツプSP4において、それぞれ中継点座標リストQ、グラデイエントベクトルGS及びエツジ点2値画像EPを受ける。次いで経路探査部26は、ステツプSP5において、出力する輪郭座標リストPを初期化し、第1の座標にq0 を入力する。
【0045】
続いて経路探査部26は、ステツプSP6において、後述するように、グラデイエントベクトルGS及びエツジ点2値画像EPを用いた局所評価関数dを用いて、中継点qi 及び中継点qi+1 間の最短経路Ptを算出した後、最短経路Ptと終点qi+1 を、輪郭座標リストPに入力し、このようにして輪郭座標リストPが完成すると、ステツプSP7において輪郭座標リストPを曲線生成部21に送出し、ステツプSP8において経路探査処理を終了する。最短経路Ptは8近傍線図形を表す座標リストである。
【0046】
ここで経路探査部26のステツプSP6における処理について説明する。最短経路探査は種々の方法で求めることができるが、あらゆる局所的な経路の通過コストは一意に決まり、経路全体のコストがこれら局所的な通過コストの総和となるような経路評価関数、すなわち一意に決まる通過コストの大きさを表す経路評価関数を設定することにより、例えば上述した「離散最適化法とアルゴリズム」や「Intelligent Scissors for Image Composition」のような高速なアルゴリズムを用いることができる。この「Intelligent Scissors for Image Composition」における最短経路探査アルゴリズムを図12及び図13に示す。
【0047】
しかしながら局所的な通過コストを決定する局所評価関数は、適用する具体的な問題に合わせて設定する必要がある。ここでは本発明の目的に適した局所評価関数について説明する。
【0048】
(A)進行方向の評価関数
グラデイエントは、色の勾配が上昇する方向に向くので、場所によつて輪郭の色差が変化する場合では、輪郭上でグラデイエントの向きが不連続に変化するところが生ずる。しかしこの実施例においては中継点連結部23は、検出したい輪郭の大まかな位置と方向、すなわちエツジの位置とエツジの方向とを用いて、検出したい輪郭上でグラデイエントベクトルの向きが常に滑らかに変化するようにグラデイエントを算出している。これにより輪郭に沿つて常に時計回り又は反時計回りに沿つて進むような経路のコストを、輪郭の途中で後戻りするような経路よりも低く評価する局所評価関数を作成することができる。
【0049】
このような局所評価関数は、経路探査中の8近傍において、隣接する中継点間に存在する隣接する2画素の位置座標p、qを入力とし、座標p、qにおけるグラデイエントの方向を示すベクトルG(p)、G(q)と座標p、qとの関数gを、次式(1)
【数1】

Figure 0004114966
で表されるように構成する。ここでHは、グラデイエントベクトルG(q)の方向より+π/2ずれた方向を示す単位ベクトルであり、acos((q−p)/|q−p|・H)は、輪郭の進む方向と、pからqへ進む局所経路の方向のなす角度を表す。
【0050】
ここで上述のようにグラデイエントベクトルG(q)の方向は連続なので、輪郭に沿つて一方向に進む経路ほどコストが低く、逆に輪郭に沿つていても途中で逆方向に方向が変化する経路はコストが悪くなる。
従つて経路探査部26は、局所関数gを用いることにより、常に輪郭に沿つて一方向に進むような経路探査を行うことができる。
【0051】
(B)エツジピーク通過の評価関数
経路が輪郭の中央をなるべく通過するようにする評価関数は本発明に有効である。同様の機能をもつ評価関数が上述の「Intelligent Scissors for Image Composition」においては画像のラプラシアンを用いて実現されている。ラプラシアンはエツジの中心を検出する能力は高いが、ノイズに敏感であるので、平滑化フイルタと組み合わせて使用される。しかしながらどんなサイズの平滑化フイルタを用いるかは、得たい輪郭に合わせてその都度決定しなければならない。
【0052】
この実施例における中継点連結部23は、検出したい輪郭の大まかな位置と方向、すなわちエツジの位置とエツジの方向とを用いて、エツジ強度がピークとなるエツジ点を検出するエツジ点検出処理を行つており、これによりエツジ強度を用いたエツジ点検出でもエツジ中心の検出能力を向上させることができるので、評価関数の信頼性を向上させることができる。またラプラシアンのように平滑化フイルタを用いる必要がないので、その分中継点連結部23の構成を簡略化することができる。
【0053】
このような局所評価関数は、経路探査中の8近傍において、隣接する中継点間に存在する隣接する2画素の位置座標p、qを入力とし、エツジ点2値画像EPにおける座標p、qでの画素値E(p)、E(q)と、座標p、qとの関数eを、次式(2)
【数2】
Figure 0004114966
で表されるように構成する。ここでE=0又は1である。すなわちこの局所評価関数eは、エツジ強度がピークとなる位置を通過する画素を評価する関数である。従つて経路探査部23は、局所関数eを用いることにより、エツジ強度がピークとなる位置を評価する経路探査を行うことができる。
【0054】
(C)評価関数の組み合わせと8近傍距離の補正
この実施例では上述の評価関数g及び評価関数e(すなわちグラデイエントベクトルGS及びエツジ2値画像EP)を以下のように組み合わせて用いる。
評価関数dは、評価関数gと評価関数eとを評価項とし、その係数付き線形和に、隣接する中継点間に存在する隣接する2画素の座標p、q間の距離(|q−p|)を乗ずることによつて、各評価項がそれぞれ8近傍距離による評価補正を受ける次式(3)
【数3】
Figure 0004114966
となるdで表されるように構成する。ここで係数c1とc2は予め適当に定められた係数である。
【0055】
またこの局所関数dを一般的に表したものを次式(4)
【数4】
Figure 0004114966
で表す。この場合、fi はi番目の評価項を表し、ci は番目の係数を表す。
従つて経路探査部23は、複数の評価項がそれぞれ8近傍距離による評価補正を受けることができる。
【0056】
かくして輪郭座標リスト生成部20は、連続値をもつ画像を2値化して対象物の輪郭を中継点でなる輪郭座標リストPとして生成することにより輪郭の形状の次数を調べやすいようにし、各中継点を順次連結して輪郭形状を一本の経路として抽出することにより他の輪郭などの不要な情報を削除し得るようになされている。
【0057】
(2−1−2)曲線生成部の構成
曲線生成部21の構成を図14に示す。曲線生成部21は、曲線生成手段として、輪郭座標リスト生成部20から供給される輪郭座標リストPを、それぞれ入力座標分割回路21A、連結条件算出回路21B及び曲線近似回路21Cで受ける。入力座標分割回路21Aは、輪郭座標リストPによつて表される形状を分割する分割点の座標のリスト(以下、これを分割点座標リストと呼ぶ)Fを生成し、これを連結条件算出回路21B及び曲線近似回路21Cに送出する。
【0058】
すなわち入力座標分割回路21Aは、輪郭座標リストPの離散的な並びから、求める形状の次数を局所的に推定する。この場合、輪郭座標リストPは分割された各セグメントにおける形状の次数が大きくならないように分割する。例えば各分割点を曲率の大きさに基づいて決定することより、座標データ数に依存せずに各セグメントにおける次数を決定することができので、各セグメントにおける次数が大きくなることを防止することができる。
【0059】
連結条件算出回路21Bは、輪郭座標リストP及び分割点座標リストFに基づいて、各分割点における連結条件、すなわちG1連続性を満たす連結条件を算出し、連結条件リストRVとして曲線近似回路21Cに送出する。すなわち連結条件算出回路21Bは、各分割点の連結位置を一致させるための連結位置の座標ri と、連結位置ri における速度方向を一致させるための速度ベクトルvi との対(すなわち接線)を連結条件リストRVとして算出する。この場合、連結位置の座標と分割点の座標とは必ずしも一致しない。
【0060】
曲線近似回路21Cは、隣接する分割点で区切られる各セグメントを、両端点における連結条件を満たすように最小2乗法を用いて曲線近似することにより、隣接する分割点間における近似曲線ci を算出し、近似曲線ci でなる近似曲線群Cを輪郭曲線情報Cとしてキー算出部3に送出する。
【0061】
曲線生成部21における曲線生成処理について図15に示すフローチヤートを用いて説明する。
曲線生成部21は、ステツプSP1より曲線生成処理を開始し、ステツプSP2において、輪郭座標リスト生成部20から輪郭座標リストPを受け、ステツプSP3において、輪郭座標リストPを基に分割点座標リストFを作成する。
【0062】
続いて曲線生成部21は、ステツプSP4において、各分割点近傍における形状に近似した近似曲線を算出し、当該近似曲線における分割点近傍での接線ri 、vi を各セグメントを曲線近似するための連結条件RVとして算出する。次いで曲線生成部21は、ステツプSP5において、隣接する分割点で区切られる各セグメントを、両端点における連結条件を満たすように最小2乗法を用いて曲線近似することにより近似曲線ci を算出し、ステツプSP6において、近似曲線ci でなる近似曲線群を輪郭曲線情報Cとして出力し、ステツプSP7において曲線生成処理を終了する。
【0063】
(2−2)実施例の動作及び効果
以上の構成において、輪郭曲線生成部7は、図16に示すステツプSP1より輪郭曲線生成処理を開始し、ステツプSP2において、輪郭候補領域決定部6から輪郭候補領域情報Ii を受けた後、ステツプSP3において、輪郭候補領域情報Ii からエツジ強度が最大となるエツジ点を中継点として算出し、当該各中継点を順次連結することにより、対象物の輪郭として8近傍線図形を表す輪郭座標リストPを生成する。
【0064】
次いで輪郭曲線生成部7は、ステツプSP4において、輪郭座標リストPで表される形状を複数のセグメントに分割した後、各セグメントを連結する連結条件を算出して当該連結条件を満たすように各セグメントを曲線近似することにより近似曲線を生成し、ステツプSP5において、当該近似曲線群を輪郭曲線情報Cとしてキー算出部3に送出し、ステツプSP6において輪郭曲線生成処理を終了する。
【0065】
従つてこの輪郭曲線生成部7は、連続値でなる画像から対象物の輪郭を、複数の離散的な座標データでなる輪郭座標リストPとして生成しているので、対象物の輪郭の形状の次数を容易に調べることができる。
またこの輪郭曲線生成部7は、対象物の輪郭を一本の経路として抽出しているので、抽出したい輪郭以外の他の輪郭などの不要な情報を削除することができ、これにより対象物の輪郭を精度良く抽出することができる。
【0066】
またこの輪郭曲線生成部7は、画像から対象物の輪郭を曲線として抽出する問題を、曲線近似で解きやすい問題にすることができるので、対象物の輪郭を曲線として容易に抽出することができる。
【0067】
以上の構成によれば、輪郭候補領域情報Ii からエツジ強度が最大となるエツジ点を中継点として算出し、当該各中継点を順次連結することにより、対象物の輪郭として8近傍線図形を表す輪郭座標リストPを生成した後、輪郭座標リストPで表される形状を複数のセグメントに分割すると共に、各セグメントを連結する連結条件を算出し、当該連結条件を満たすように各セグメントを曲線近似して近似曲線を生成したことにより、対象物の輪郭の形状の次数を容易に調べることができると共に、抽出したい輪郭以外の他の輪郭などの不要な情報を削除することができる。
かくして画像中から対象物の輪郭の形状の次数に一致した輪郭曲線を精度良く抽出することのできる輪郭抽出部7及び輪郭抽出方法を実現することができる。
【0068】
また上述の構成によれば、対象物の輪郭の特徴点を基準に輪郭座標リストPによつて表される形状を分割して各セグメントの次数を決定すると共に、各近似曲線における分割点近傍での接線を連結条件として算出し、当該連結条件を維持するように各近似曲線を曲線近似したので、輪郭座標リストPによつて表される形状の次数と一致し、かつ滑らかに連続する輪郭曲線を生成することができる。
【0069】
さらに上述の構成によれば、輪郭上から複数の中継点qi を抽出し、各中継点qi を経路探査処理によつて連結することにより8近傍線図形を生成したので、曲線生成部21における曲線近似処理の近似精度を向上させることができる。また輪郭上から複数の中継点qi を抽出したので、高速な経路探査処理を行うことができる。
【0070】
さらに上述の構成によれば、隣接する中継点間の経路を、輪郭の各小部分における最短経路探査問題に帰着させることができるので、輪郭8近傍線図形2画像を生成することができ、これにより輪郭を一本の経路として抽出することができる。従つて対象物の輪郭を精度良く抽出することができる。
【0071】
さらに上述の構成によれば、画像のグラデイエントと、エツジ強度の極値位置情報とを用いた局所評価関数を用いて経路探査処理を行うようにしたので、ノイズの影響を回避することができる。また隣接する2画素間の局所評価値を算出するための局所評価関数を用いたので、高速な最短経路探査アルゴリズムを適用することができる。
【0072】
さらに上述の構成によれば、グラデイエントベクトルGS及びエツジ点2値画像EPに基づいて、エツジ点のうちエツジ強度が最大となるエツジ点を中継点qi として抽出したので、輪郭の探査処理を行う際にオペレータが探査に必要な点を与える必要がなく、その分輪郭抽出作業を簡略化することができ、また輪郭上の点を確実に抽出することができる。
【0073】
さらに上述の構成によれば、局所評価関数dを用いているので、エツジ強度の勾配や、他の物体の輪郭に起因するエツジ強度の勾配の影響を回避することができるので、画像中から対象物の輪郭を輪郭曲線として精度良く抽出することができる。
【0074】
さらに上述の構成によれば、色差の大小に依存しない規格化されたグラデイエントベクトルGSを用いてエツジ点を検出したので、輪郭全周に亘つて均等に中継点を検出することができ、これにより対象物の輪郭を精度良く抽出することができる。
【0075】
(3)他の実施例
なお上述の実施例においては、中継点抽出手段として中継点抽出部22を用いた場合について述べたが、本発明はこれに限らず、図5及び図8との対応部分に同一符号を付した図17に示すような中継点抽出部30を中継点抽出手段として用いてもよい。
【0076】
中継点抽出部30における中継点抽出処理について図18に示すフローチヤートを用いて説明する。
中継点抽出部30は、ステツプSP1より中継点抽出処理を開始し、ステツプSP2において、対応する線分lj 及びマスク画像Imjの各対でなる輪郭候補領域情報Ii をグラデイエントベクトル算出部24及びエツジ検出部22Bで受ける。
【0077】
次いでステツプSP3において、中継点抽出部30は、グラデイエントベクトル算出部24において、規格化されたグラデイエントベクトルGSを算出した後、ステツプSP4において、エツジ点2値画像Eをエツジ検出部22Bにおいて生成し、グラデイエントベクトルGS及びエツジ点2値画像Eを強エツジ点抽出部22Cに送出する。この場合、グラデイエントベクトル算出部24は、算出したグラデイエントベクトルGを規格化せずに、当該グラデイエントベクトルGを強エツジ点抽出部22Cに送出するようにしてもよい。
【0078】
続いてステツプSP5において、中継点抽出部30は、強エツジ点抽出部22Cにおいて、グラデイエントベクトルGS及びエツジ点2値画像Eに基づいて、中継点座標リストQを生成した後、ステツプSP6において、当該中継点座標リストQを中継点連結部23に送出し、ステツプSP7において中継点抽出処理を終了する。ここで強エツジ点抽出部22Cは、グラデイエントベクトルGS及びエツジ点2値画像Eに基づいて、エツジ点のうちエツジ強度が最大となるエツジ点を中継点として算出し、当該中継点でなる中継点座標リストQを生成するようにしてもよい。
【0079】
この場合、入力画像における色差の大小に依存せずにエツジ強度を均一に検出することができるので、中継点を対象物の輪郭全周に亘つてほぼ均等に抽出することができ、これにより最終的に得られる輪郭曲線の精度を一段と向上させることができる。またこの場合、入力手段4から対象物の輪郭の大まかな形状を指定する曲線情報を入力したので、輪郭上の中継点の信頼性を向上させることができる。
【0080】
また上述の実施例においては、中継点連結手段として中継点連結部23を用いた場合について述べたが、本発明はこれに限らず、図5及び図8との対応部分に同一符号を付して示す図19に示すような中継点連結部40を用いてもよい。
この中継点連結部40は、折れ線又は曲線でなる輪郭候補領域情報Ii をグラデイエントベクトル算出部41及びエツジ検出部22Bで受ける。
グラデイエントベクトル算出部41は、一般に知られているグラデイエントベクトル算出方法を用いて、輪郭候補領域情報Ii に応じた輪郭候補領域におけるグラデイエントベクトルGを算出し、当該グラデイエントベクトルGを経路探査部26に送出する。
【0081】
さらに上述の実施例においては、中継点連結手段として中継点連結部23を用いた場合について述べたが、本発明はこれに限らず、経路探査処理を行わずに上述の「画像合成のための対象物抽出方法」及び「領域抽出方法」に記載されている細線化処理を用いて中継点を連結するようにしてもよい。
【0082】
さらに上述の実施例においては、経路評価方法として局所評価関数g及び局所評価関数dを組み合わせた局所評価関数dを用いた場合について述べたが、本発明はこれに限らず、要は一意に決まる通過コストの大きさを表す評価関数であれば、経路評価方法としてこの他種々の評価関数を用いてもよい。この場合、この評価関数が最小となるように、隣接する中間点間の経路を決定する。また経路評価方法として画像のラプラシアンを用いてもよく、探査方法として「Intelligent Scissors for Image Composition」や「離散最適化法とアルゴリズム」を用いてよい。
【0083】
さらに上述の実施例においては、局所評価関数gとして(1)式で構成される局所評価関数gを用いた場合について述べたが、本発明はこれに限らず、次式(5)
【数5】
Figure 0004114966
に示すように、要は経路探査中の8近傍において、隣接する中継点間に存在する隣接する2画素の位置座標におけるグラデイエントベクトルG(p)、G(q)と、2画素の位置座標p、qとの関数で表される評価項をもつ局所評価関数gを経路探査部26にもたせるようにしてもよい。これによりエツジの進む方向を考慮した経路探査を行うことができる。
【0084】
さらに上述の実施例においては、局所評価関数eとして(2)式で構成される局所評価関数eを用いた場合について述べたが、本発明はこれに限らず、次式(6)
【数6】
Figure 0004114966
に示すように、要は、経路探査中の8近傍において、隣接する中継点間に存在する隣接する2画素の位置座標における画素値(エツジ点2値画像EPにおける画素値)E(p)、E(q)と、2画素の位置座標p、qとの関数で表される評価項をもつ局所評価関数eを経路探査部26にもたせるようにしてもよい。これによりエツジのピーク位置を考慮した経路探査を実現することができる。
【0085】
さらに上述の実施例においては、局所評価関数g及び局所評価関数dを組み合わせた局所評価関数dを用いた場合について述べたが、本発明はこれに限らず、局所評価関数g又は局所評価関数eを用いるようにしてもよく、要は状況に応じて局所評価関数を用いればよい。
【0086】
さらに上述の実施例においては、オペレータが入力手段4を用いて線分、折れ線又は曲線を入力した場合について述べたが、本発明はこれに限らず、上述したように、現画像iと、既に輪郭曲線情報Cとして輪郭曲線が得られている1フレーム前の画像i−1と、当該画像i−1の輪郭曲線情報Cとに基づいて現画像iの推定輪郭情報S2を得るようにしてもよい(図1)。これにより、作業効率を格段的に向上させることができる。
【0087】
さらに上述の実施例においては、推定輪郭情報S2に応じた曲線を各特徴点を頂点とする折れ線に近似し、折れ線の各線分li をエツジ強度規格回路24Aに送出したた場合について述べたが、本発明はこれに限らず、推定輪郭情報S2に応じた曲線を各特徴点で分割し、各特徴点で分割した曲線でなるセグメントをエツジ強度規格化回路24Aに送出するようにしてもよい。
【0088】
【発明の効果】
上述のように本発明によれば、対象物の輪郭が含まれる輪郭候補領域情報Iiからエツジ強度を基に中継点q を抽出し、各中継点q を結ぶ経路を探査し順次連結することにより複数の離散的な座標データでなる線図形として生成し、線図形によつて表される形状を近似する曲線を生成することにより、輪郭の形状の次数を容易に調べることができると共に、輪郭形状を最終的に曲線で得ることができる。
かくして対象物の輪郭の形状に一致した輪郭曲線を得ることのできる輪郭抽出装置及び輪郭抽出方法を実現することができる。
【図面の簡単な説明】
【図1】本発明を適用したキー信号生成装置の全体構成を示すブロツク図である。
【図2】輪郭曲線生成部の構成を示すブロツク図である。
【図3】輪郭座標リスト生成部の構成を示すブロツク図である。
【図4】輪郭座標リスト生成処理の処理手順の説明に供するフローチヤートである。
【図5】中継点抽出部の構成を示すブロツク図である。
【図6】中継点抽出処理の処理手順の説明に供するフローチヤートである。
【図7】中継点の順序付け処理の説明に供する略線図である。
【図8】中継点連結部の構成を示すブロツク図である。
【図9】グラデイエントベクトル算出部及び輪郭候補領域決定部の構成を示すブロツク図である。
【図10】エツジ検出部の構成を示すブロツク図である。
【図11】経路探査処理の処理手順の説明に供するフローチヤートである。
【図12】最短経路探査アルゴリズムを示す図表である。
【図13】最短経路探査アルゴリズムを示す図表である。
【図14】曲線生成部の構成を示すブロツク図である。
【図15】曲線生成処理の処理手順の説明に供するフローチヤートである。
【図16】輪郭曲線生成処理の処理手順の説明に供するフローチヤートである。
【図17】他の実施例による中継点抽出部の構成を示すブロツク図である。
【図18】他の実施例による中継点抽出部における中継点抽出処理の処理手順の説明に供するフローチヤートである。
【図19】他の実施例による中継点連結部の構成を示すブロツク図である。
【符号の説明】
1……キー信号生成装置、2……輪郭抽出部、3……キー算出部、4……入力手段、5……推定輪郭算出部、6……輪郭候補領域決定部、6A……特徴点抽出回路、6B……曲線分割回路、6C……領域分割回路、7……輪郭曲線生成部、8……動きベクトル推定部、9……遅延回路、10……両端曲線算出部、11……ソフトキー生成部、20……輪郭座標リスト生成部、21……曲線生成部、21A……入力座標分割回路、21B……連結条件算出回路、21C……曲線近似回路、22、30……中継点抽出部、22A……エツジ強度算出部、22B、25……エツジ検出部、22C……強エツジ点抽出部、23、40……中継点連結部、24、41……グラデイエントベクトル算出部、24A……エツジ強度規格化回路、24B……画像合成部、25A……しきい値算出回路、25B……エツジ点検出回路。26……経路探査部。[0001]
【table of contents】
The present invention will be described in the following order.
TECHNICAL FIELD OF THE INVENTION
Conventional technology
Problems to be solved by the invention
Means for solving the problem
BEST MODE FOR CARRYING OUT THE INVENTION
(1) Overall configuration (Fig. 1)
(2) Example (FIGS. 2 to 18)
(2-1) Basic configuration of contour curve generator (FIG. 2)
(2-1-1) Configuration of Outline Coordinate List Generation Unit (FIGS. 3 and 4)
(2-1-1-1) Configuration of relay point extraction unit (FIGS. 5 to 7)
(2-1-1-2) Configuration of relay point connecting portion (FIGS. 8 to 13)
(2-1-2) Configuration of Curve Generation Unit (FIGS. 14 and 15)
(2-2) Operation and effect of the embodiment (FIG. 16)
(3) Other embodiments (FIGS. 17 and 18)
The invention's effect
[0002]
BACKGROUND OF THE INVENTION
The present invention relates to a contour extraction apparatus and a contour extraction method, and is particularly suitable for application to a contour extraction apparatus and a contour extraction method for extracting a contour of an object from an image in special effect processing in video production such as television and movies. Is.
[0003]
[Prior art]
Conventionally, in this type of special effect processing, accuracy in extracting an arbitrary partial image from an image is important. In this extraction work, processing such as edge detection, area detection, and association with a known object is necessary. Especially when the background and the object in the image are complicated, the edges constituting the contour of the object are detected. Must be detected and tracked with high accuracy.
[0004]
Here, as a first contour extraction method for extracting the contour of an object from an image, the document “Object Extraction Method for Image Synthesis” (Seiki Inoue, IEICE Transactions, vol.J74-D-II). No. 10, pp 1411-1418, 1991) and “region extraction method” (Japanese Patent Laid-Open No. 3-17680). In this first contour extraction method, an approximate contour of an object is given as information by tracing the contour of the object with a thick line, and the edge intensity (degree of change in pixel value) of this thick line region is indicated. An outline figure binary image in which large pixels are left is obtained.
[0005]
As a second contour extraction method for extracting the contour of an object from an image, the document “Intelligent Scissors for Image Composition” (Eric N. Mortensen and William A. Barrett, Computer Graphics Proceedings, Annual Conference Series, 1995, ACM SIGGRAPH Pp.191-198).
[0006]
In this second contour extraction method, when two arbitrary points of the contour are designated interactively, a contour line figure binary image between the two points is calculated. By repeating this operation, the object is extracted. Get the contour. The contour between two given points is calculated by solving the shortest path search problem by setting a route evaluation function using the strength of the edge and the direction of the edge. According to the document "Discrete Optimization Method and Algorithm" (Toshihide Ibaraki, Iwanami Shoten, 1993), an algorithm that solves the shortest path exploration problem at high speed has been proposed, which is also used in this contour extraction method. .
[0007]
Furthermore, as a third contour extraction method for extracting the contour of an object from an image, “SNAKES: Active Contour models” (Kass M., Witikin A., Terzopoulos D., Proc. 1st ICCV, pp259-268, 1987) There is. This active contour model called “snakes” is a chain of control points that move so as to converge to a contour in an image, depending on constraint conditions. Examples of applications of this active contour model include "Automatic extraction of complex objects based on region segmentation" (Eizo Satoshi, Shirai Yoshiaki, NICOGRAPH '92 papers, pp. 8-17, 1992), "Region extraction device" ( Japanese Patent Laid-Open No. 5-61977), “Contour Tracking Method Based on Elastic Contour Model and Energy Minimization Principle” (Nobue Ueda, Kenji Mase, Yasuhito Suenaga, Journal of Science, vol.J-75-D-II, No. 1, pp 111-120, 1992), and “contour tracking method of moving object” (Japanese Patent Laid-Open No. 5-12443).
[0008]
The contour extraction method using an active contour model called “snakes” is as follows. First, the active contour model is obtained by connecting a plurality of control points using a spline curve or the like, and is not always a line figure binary image. The feature is that a smooth contour can be obtained. Second, the convergence of the dynamic contour model is performed by a method called local exploration in which the update of the evaluation function of the model is iteratively processed while moving the control points little by little. It has the feature of finding a solution.
[0009]
[Problems to be solved by the invention]
By the way, in the method of extracting the contour of the object in the image, when the extracted contour is finally obtained as a curve, various feature amounts in the contour can be easily calculated, and the shape has subpixel accuracy. As a result, anti-aliasing or the like becomes possible, which is advantageous for image composition processing or the like, and subsequent image processing becomes easy. Therefore, it is desirable that the contour shape of the object is obtained as a curve.
However, in the first and second contour extraction methods described above, the contour of the object is calculated as a line figure binary image, and the contour shape is not finally obtained with a curve. Therefore, the extracted contour is finally obtained with a curve. There is a problem that the above-mentioned advantages obtained in the case of the above cannot be obtained.
[0010]
In addition, the second contour extraction method can suppress an increase in processing time such as sort processing for solving the problem as compared with the first contour extraction method, but the operator gives various points on the contour. As a result, there is a problem that the contour extraction work becomes complicated. In the second contour extraction method, the second derivative of the image is used for the path evaluation function used to solve the shortest path search problem, and the term of the second derivative of the image is the most important term in the evaluation function. However, the second derivative of the image is vulnerable to noise, and the contour curve cannot be accurately extracted.
[0011]
On the other hand, the third and fourth contour extraction methods using the dynamic contour model can obtain the contour as a spline curve. However, the number of control points is determined in advance based on the principle of the active contour model, and the degree of freedom of the shape of the spline curve is limited by the number of control points. The number of control points must be set so that the order of the curve does not decrease. However, it is difficult to directly examine the order of the contour shape from the image without performing contour extraction, and a contour curve that matches the order of the contour shape cannot be obtained.
[0012]
In the case of the third and fourth contour extraction methods, the dynamic contour model is driven by an evaluation function using the edge strength gradient as an index. Therefore, noise of the gradient of the edge strength and other objects that are difficult to distinguish from the desired contour are obtained. It is easy to be influenced by the gradient of the edge intensity caused by the contour, and the contour curve cannot be extracted with high accuracy.
Further, since the third and fourth contour extraction methods are algorithms based on local search, there is a possibility that an optimal solution cannot be obtained depending on the initial position of the active contour model.
[0013]
The present invention has been made in consideration of the above points, and intends to propose a contour extraction apparatus and a contour extraction method capable of obtaining a contour curve that matches the order of the contour shape of an object from an image. is there.
[0014]
[Means for Solving the Problems]
  In order to solve such a problem, in the present invention, among a plurality of edge points detected in a contour candidate region where the contour of an object is considered to exist, an edge point whose edge intensity is greater than a predetermined threshold is used as a relay point. Extract andThe relay points are ordered along the contours, and the shortest path between relay points in order is determined so that the evaluation function representing the sum of the passing costs set for each local path is minimized. do itA route connecting each relay point is searched, a line figure representing an outline is generated by sequentially connecting the routes, and a curve approximating the shape represented by the line figure is generated.
  By using route search, each route connecting relay points can be searched with high accuracy, and the line figure connecting the searched routes in order is approximated by a curve, so that the contour shape can finally be obtained as a curve. .
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0016]
(1) Overall configuration
In FIG. 1, reference numeral 1 denotes a key signal generating apparatus to which the present invention is applied as a whole, and generates soft keys for objects existing in a plurality of consecutive images.
The key signal generation device 1 includes a contour extraction unit 2 and a key calculation unit 3, and based on the contour curve of the object calculated by the contour extraction unit 2 and the gradient vector of the contour of the object, The calculation unit 3 generates a soft key for the object.
[0017]
The key signal generating device 1 is a mask that is input by an operator using, for example, the mouse 4 as input means, and shows a rough shape of a contour, line information, curve information, or a mask drawn with a thick brush. The image information S1 is received by the estimated contour calculation unit 5 of the contour extraction unit 2. The estimated contour calculation unit 5 obtains estimated contour information S2 corresponding to the estimated shape of the contour of the object (hereinafter referred to as the estimated contour) based on the line segment information, the broken line information, the curve information, or the mask image information S1. The estimated contour information S2 is sent to the contour candidate region determination unit 6.
[0018]
The contour candidate region determination unit 6 calculates a region where a contour is considered to exist (hereinafter referred to as a contour candidate region) based on the estimated contour information S2, and contour candidate region information I corresponding to the contour candidate region.iIs sent to the contour curve generator 7.
The contour curve generator 7 generates contour candidate area information IiAfter calculating the gradient vector in the contour candidate region based on the above and normalizing the gradient vector, and generating a list P of pixels passing through the center of the contour (hereinafter referred to as a contour coordinate list) P, A curve that approximates the shape represented by the contour coordinate list P is generated, and the contour curve information C and the standardized gradient vector GS corresponding to the curve are sent to the key calculation unit 3.
[0019]
Here, in this key signal generation device 1, the contour curve information S4 of the image i-1 which is the previous frame is obtained separately from the method of obtaining the estimated contour information S2 from the polygonal line information, the curve information or the mask image information S1. The estimated contour information S2 in the current image i can be obtained by estimating where the contour of the image i-1 has moved in the current image i by using the motion vector estimation process.
[0020]
That is, the motion vector estimation unit 8 responds to the contour curve information C using the contour curve information C obtained via the contour candidate region determination unit 6 and the contour curve generation unit 7 for the image i-1 one frame before. It is estimated where the contour curve has moved in the current image i, and the result is sent to the contour candidate region determination unit 6 as estimated contour information S2. In this case, the processing in the contour candidate region determination unit 6 and the contour curve generation unit 7 is performed by the same method as described above.
Therefore, when the motion vector estimation unit 8 is selected as a method for obtaining the estimated contour information S2, the contour curve generation unit 7 feeds back the contour curve information C to the motion vector estimation unit 8 via the delay circuit 9. ing.
[0021]
The key calculation unit 3 receives the gradient vector GS and the contour curve information C at the both-end curve calculation unit 10. Based on the gradient vector GS and the contour curve information C, the both-end curve calculation unit 10 calculates the width between two curves representing both ends of the contour (hereinafter referred to as “end-end curves”), Both-end curve information S3 corresponding to the width of the key is sent to the soft key generation unit 11. The soft key generation unit 11 generates a curved surface in which the height smoothly changes from “0” to “1” between the two end curves based on the both end curve information S3. A process for writing to the image as the value of is performed and a soft key is calculated and output.
[0022]
Thus, the key signal generating apparatus 1 can generate soft keys for objects existing in the image.
[0023]
(2) Examples
(2-1) Basic configuration of contour curve generator
The configuration of the contour curve generator 7 according to the embodiment of the present invention is shown in FIG. The contour curve generation unit 7 includes contour candidate region information I supplied from the contour candidate region determination unit 6.iIs received by the contour coordinate list generation unit 20.
[0024]
The contour coordinate list generation unit 20 serves as contour coordinate information generation means, as candidate contour region information I.iThe contour of the object is generated as a contour coordinate list P composed of a plurality of discrete coordinate data, and the contour coordinate list P is sent to the curve generation unit 21. The curve generation unit 21 generates a curve C that approximates the shape represented by the contour coordinate list P, and sends the curve C to the key calculation unit 3 as the contour curve information C.
Hereinafter, specific configurations of the contour coordinate list generation unit 20 and the curve generation unit 21 in this embodiment will be described in order.
[0025]
(2-1-1) Configuration of outline coordinate list generation unit
A specific configuration of the contour coordinate list generation unit 20 is shown in FIG. 3, and the contour coordinate list generation processing in the contour coordinate list generation unit 20 will be described using the flowchart shown in FIG.
The contour coordinate list generation unit 20 starts the contour coordinate list generation processing from step SP1, and in step SP2, the contour candidate area information Ii(X, y) is received by the relay point extracting unit 22 and the relay point connecting unit 23.
[0026]
Next, in step SP3, the contour coordinate list generation unit 20 uses the contour candidate area information I in the relay point extraction unit 22 as relay point extraction means.iAfter detecting the contour of the object from inside, a plurality of points are relayed from the detected contour qiAre extracted along the contour asiThe relay point coordinate list Q consisting of is sent to the relay point connecting unit 23. In the case of this embodiment, the relay point extraction unit 22 determines a point where the edge strength is clearly larger than the vicinity as will be described later.iExtract as
[0027]
Subsequently, in step SP4, the contour coordinate list generation unit 20 uses the contour candidate area information I in the relay point connection unit 23 as a relay point connection unit.iAnd each relay point q based on the relay point coordinate list QiAre sequentially connected to create an 8-neighbor line figure, and at step SP5, the contour coordinate list P representing the 8-neighbor line figure is sent to the curve generation unit 21, and at step SP6, the outline coordinate list generation process ends.
[0028]
(2-1-1-1) Configuration of relay point extraction unit
A specific configuration of the relay point extraction unit 22 is shown in FIG. 5, and relay point extraction processing in the relay point extraction unit 22 will be described using the flowchart shown in FIG.
The relay point extraction unit 22 starts the relay point extraction process from step SP1, and in step SP2, the contour candidate area information IiIs received by the edge strength calculation unit 22A and the edge detection unit 22B.
[0029]
Next, at step SP3, the relay point extracting unit 22 uses the edge candidate area information I in the edge intensity calculating unit 22A as the edge intensity calculating means.iThe edge strength image G (x, y) corresponding to the edge strength is generated based on the edge strength region, and the edge strength image G is sent to the strong edge point extraction unit 22C. Here, the edge strength calculation unit 22A calculates the edge strength by a method described in, for example, “Image Analysis Handbook” (Mikio Takagi, Yoshihisa Shimoda, University of Tokyo Press, 1991).
[0030]
Subsequently, at step SP4, the relay point extraction unit 22 uses the edge candidate region information I at the edge detection unit 22B as the edge detection means.iThen, an edge point is detected to generate an edge point binary image E (x, y) for designating the position of the edge point, and the edge point binary image E is sent to the strong edge point extraction unit 22C. Here, the edge point binary image is an image in which the value of the pixel corresponding to the edge position is represented by “1” and the values of the other pixels are represented by “0”. The edge detection unit 22B detects edge points by the method described in, for example, the “image analysis handbook” described above.
[0031]
Next, at step SP5, the relay point extracting unit 22 determines that the edge strength of the edge points is based on the edge intensity image G and the edge point binary image E in the strong edge point extracting unit 22C as the strong edge point extracting means. A pixel at a position corresponding to an edge point greater than a predetermined threshold value T is represented as a relay point q.iAnd the extracted relay point qiThe relay point coordinate list Q is generated by ordering along the contours. The relay point extracting unit 22 sends the relay point coordinate list Q to the relay point connecting unit 23 at step SP6, and ends the relay point extracting process at step SP7.
[0032]
Here, the relay point q in the strong edge point extraction unit 22C.iWill be described with reference to FIG.
Relay point qiIs obtained at intervals not so large along the contour,iWhile avoiding the path (polygonal line) that follows the loop (the object contour does not become a loop), a nearby relay point qiCan be ordered along the contours. That is, the relay point qiIf a route that makes one round at the shortest is selected from among the routes that follow, a loop does not occur.
[0033]
Here, as shown in FIG. 7A, in a route with a loop, an intersection always occurs somewhere in the route, and such a route is not the shortest route, as shown in FIG. 7B. It can be proved that the route obtained by correcting is clearly shorter than the route shown in FIG. That is, the line segment [q in FIG.i, Qi + 1] And line [qj, Qj + 1] And the line segment [q in FIG.i, Qi + 1] And line [qj, Qj + 1], The relationship of the sum of one side of the triangle and the other two sides is established, and it can be seen that there is always a shorter route in the route where there is an intersection. There is no waste.
[0034]
Therefore, the relay point q in the strong edge point extraction unit 22C.iThe ordering process of all relay points qiCan be replaced with the problem of finding the shortest path to follow. According to “Discrete Optimization Method and Algorithm” (Toshihide Ibaraki, Iwanami Shoten, 1993), this problem is a kind of traveling salesman problem. By solving this problem, all relay points qiThe shortest route to follow can be obtained.
[0035]
(2-1-1-2) Configuration of junction point connecting part
  A specific configuration of the relay point connecting portion 23 is shown in FIG. The relay point connecting unit 23 functions as a relay point connecting unit, which is the contour candidate area information I supplied from the contour candidate area determining unit 6.iIs received by the gradient vector calculation unit 24. The gradient vector calculation unit 24, as will be described later, contour candidate region information IiAfter the gradient vector G is generated from the input image, the gradient vector G is normalized to generate a normalized gradient vector GS that does not depend on the magnitude of the color difference in the input image, and the gradient vector GS is Detection unit 25, route search unit26And to the key calculation unit 3.
[0036]
FIG. 9 shows the configuration of the contour candidate region determination unit 6 and the gradient vector calculation unit 24 in this embodiment. In the case of this embodiment, it is assumed that continuous curve information S1 along the contour is input from the input means 4 as information specifying the approximate position and direction of the contour to be detected.
[0037]
The contour candidate region determination unit 6 receives the estimated contour information S2 including the curve supplied from the estimated contour calculation unit 5 in the feature point extraction circuit 6A and the curve division circuit 6B. The feature point extraction circuit 6A extracts feature points from the curve corresponding to the estimated contour information S2, and sends the feature point information CR corresponding to the feature points to the curve dividing circuit 6B. Here, the feature point is a point indicating a unique point on the curve, for example, a bending point where the shape of the curve is bent or a color change point where the color of the image changes on the locus of the curve.
[0038]
The curve dividing circuit 6B approximates a curve according to the estimated contour information S2 to a continuous broken line L along an edge having each feature point as a vertex, and sends the bent line L to the area dividing circuit 6C. The area dividing circuit 6C is configured so that each line segment l of the broken line L is based on the broken line L supplied from the curved line dividing circuit 6B.jMask image I that specifies neighboring pixels ofmjFor each line segment ljGenerated for each line segment corresponding to eachjAnd mask image ImjAre sent to the gradient vector calculation unit 24 as information on the direction and position of the contour.
[0039]
The gradient vector calculation unit 24 serves as the gradient vector calculation means as contour candidate region information IiLine segment supplied asjAnd mask image ImjAre received by the edge intensity normalization circuit 24A provided by the number of the pairs, and each mask image ImjIs received by the image composition unit 24B. Each edge strength standard circuit 24A has a line segment ljAnd mask image ImjBased on the gradient vector GjIs generated, and the gradient vector Gj, Line segment ljAnd mask image ImjBased on the above, the normalized gradient vector G is obtained by performing a normalization process for setting the magnitude of the color difference to “1”.sjAnd each normalized gradient vector GsjIs sent to the image composition unit 24B.
The image composition unit 24B uses the corresponding gradient vector GsjAnd mask image ImjIs used to generate a standardized gradient vector GS and send the gradient vector GS to the edge detection unit 25, the route search unit 26, and the key calculation unit 3.
[0040]
Here, the specific contents of the normalization processing in the edge intensity image normalization circuit 24A will be described.
The edge strength normalization circuit 24A calculates a transverse line that vertically crosses the edge based on a mask image and a line segment pair given as information on the edge position and edge direction, and the edge strength on the transverse line is calculated. After calculating the edge strength maximum point at which the maximum is the edge strength, the edge strength is smaller than the edge strength at the edge strength maximum point on the half line on one side starting from the edge strength maximum point on the transverse line and The point P0 that is less than or equal to the threshold value is detected, and the edge intensity is smaller than the edge intensity at the edge intensity maximum point on the half line opposite to the above half line starting from the edge intensity maximum point on the transverse line. A point P1 that is equal to or less than a predetermined threshold is detected, and a straight line connecting the points P0 and P1 is defined as an integration path PI.
[0041]
Subsequently, the edge intensity normalization circuit 24A obtains edge intensity values at a plurality of arbitrary points from the end point P0 to the end point P1 on the integration path PI, and calculates the sum of the edge intensity values at these points as a normalization coefficient S. After that, the gradient vector G with the normalization factor SjBy dividing the normalized gradient vector GSjIs generated.
[0042]
Next, the configuration of the edge detection unit 25 in this embodiment is shown in FIG. The edge detection unit 25 receives, as an edge detection means, the normalized coefficient S and the integration path PI from the gradient vector calculation unit 24 by the threshold value calculation circuit 25A, and receives the normalized gradient vector GS from the edge point detection circuit. Receive at 25B.
The threshold value calculation circuit 25A sets the value obtained by dividing the normalization coefficient S by the length of the integration path PI (that is, the distance between the points P0 and P1) as a threshold value H to the edge point detection circuit 25B. Send it out.
[0043]
The edge point detection circuit 25B performs threshold value processing on the standardized gradient vector GS using the threshold value H, thereby detecting an edge point at which the edge intensity reaches a peak, and The edge point binary image EP representing the peak is sent to the route search unit 26.
Thus, the standardized gradient vector GS and edge point binary image EP are input to the route search unit 26.
[0044]
The route searching process in the route searching unit 26 will be described using the flowchart shown in FIG.
The route search unit 26 starts route search processing from step SP1 as route search means. In step SP2, step SP3, and step SP4, the relay point coordinate list Q, the gradient vector GS, and the edge point binary image EP are respectively obtained. receive. Next, in step SP5, the route search unit 26 initializes the contour coordinate list P to be output, and sets q to the first coordinate.0Enter.
[0045]
Subsequently, in step SP6, the route searching unit 26 uses the local evaluation function d using the gradient vector GS and the edge point binary image EP, as will be described later, and the relay point q.iAnd relay point qi + 1After calculating the shortest path Pt between the shortest path Pt and the end point qi + 1Is input to the contour coordinate list P. When the contour coordinate list P is completed in this way, the contour coordinate list P is sent to the curve generation unit 21 at step SP7, and the route search process is terminated at step SP8. The shortest path Pt is a coordinate list representing eight neighboring line figures.
[0046]
Here, the process in step SP6 of the route search unit 26 will be described. Although the shortest path search can be obtained by various methods, the path cost function of every local path is uniquely determined, and the total cost of the entire path is the sum of these local path costs, i.e., unique. By setting a path evaluation function that represents the magnitude of the passage cost determined by the above, a high-speed algorithm such as “discrete optimization method and algorithm” or “Intelligent Scissors for Image Composition” described above can be used. The shortest path search algorithm in this “Intelligent Scissors for Image Composition” is shown in FIGS.
[0047]
However, the local evaluation function that determines the local passage cost needs to be set according to the specific problem to be applied. Here, a local evaluation function suitable for the purpose of the present invention will be described.
[0048]
(A) Evaluation function for the direction of travel
Since the gradient is directed in the direction in which the color gradient increases, when the color difference of the contour changes depending on the location, the gradient direction changes discontinuously on the contour. However, in this embodiment, the relay point connecting unit 23 uses the rough position and direction of the contour to be detected, that is, the edge position and the edge direction, so that the direction of the gradient vector is always smooth on the contour to be detected. The gradient is calculated to change. This makes it possible to create a local evaluation function that evaluates the cost of a route that always travels clockwise or counterclockwise along a contour lower than a route that goes back in the middle of the contour.
[0049]
Such a local evaluation function receives, as an input, the position coordinates p and q of two adjacent pixels existing between adjacent relay points in the vicinity of 8 during the route search, and a vector G indicating the direction of the gradient at the coordinates p and q. A function g between (p) and G (q) and coordinates p and q is expressed by the following equation (1).
[Expression 1]
Figure 0004114966
It is configured to be represented by Here, H is a unit vector indicating a direction deviated by + π / 2 from the direction of the gradient vector G (q), and acos ((qp) / | q−p | · H) is a direction in which the contour advances. And the angle formed by the direction of the local route going from p to q.
[0050]
Here, since the direction of the gradient vector G (q) is continuous as described above, the cost of a route traveling in one direction along the contour is lower, and conversely the direction changes in the opposite direction even along the contour. The cost of the route is worse.
Therefore, the route search unit 26 can perform route search that always proceeds in one direction along the contour by using the local function g.
[0051]
(B) Edge peak passing evaluation function
An evaluation function that makes the path pass through the center of the contour as much as possible is effective for the present invention. An evaluation function having the same function is realized by using the Laplacian of the image in the “Intelligent Scissors for Image Composition” described above. Laplacian has a high ability to detect the center of an edge, but is sensitive to noise and is used in combination with a smoothing filter. However, the size of the smoothing filter to be used must be determined each time according to the contour to be obtained.
[0052]
In this embodiment, the relay point connecting unit 23 performs edge point detection processing for detecting an edge point at which the edge intensity reaches a peak using the rough position and direction of the contour to be detected, that is, the edge position and the edge direction. As a result, the edge center detection capability using the edge intensity can be improved, so that the reliability of the evaluation function can be improved. Further, since it is not necessary to use a smoothing filter as in Laplacian, the configuration of the relay point connecting portion 23 can be simplified accordingly.
[0053]
Such a local evaluation function receives, as inputs, the position coordinates p and q of two adjacent pixels existing between adjacent relay points in the vicinity of 8 during the route search, and is based on the coordinates p and q in the edge point binary image EP. A function e of the pixel values E (p) and E (q) and the coordinates p and q is expressed by the following equation (2).
[Expression 2]
Figure 0004114966
It is configured to be represented by Here, E = 0 or 1. That is, the local evaluation function e is a function for evaluating a pixel passing through a position where the edge intensity reaches a peak. Therefore, the route search unit 23 can perform route search for evaluating the position where the edge intensity reaches a peak by using the local function e.
[0054]
(C) Evaluation function combination and 8-neighbor distance correction
In this embodiment, the above-described evaluation function g and evaluation function e (that is, the gradient vector GS and the edge binary image EP) are used in combination as follows.
The evaluation function d uses the evaluation function g and the evaluation function e as evaluation terms, and the distance between the coordinates p and q of two adjacent pixels existing between adjacent relay points (| q−p) By multiplying |), each evaluation term is subjected to an evaluation correction by 8 neighborhood distances (3)
[Equation 3]
Figure 0004114966
To be represented by d. Here, the coefficients c1 and c2 are coefficients appropriately determined in advance.
[0055]
A general representation of this local function d is given by the following equation (4)
[Expression 4]
Figure 0004114966
Represented by In this case, fiRepresents the i-th evaluation term and ciRepresents the th coefficient.
Accordingly, the route searching unit 23 can receive an evaluation correction for each of the plurality of evaluation terms based on the 8-neighbor distance.
[0056]
Thus, the contour coordinate list generation unit 20 binarizes an image having continuous values and generates the contour of the object as a contour coordinate list P composed of relay points, thereby making it easy to check the order of the shape of the contour. By connecting the points sequentially and extracting the contour shape as one path, unnecessary information such as other contours can be deleted.
[0057]
(2-1-2) Configuration of curve generation unit
The configuration of the curve generation unit 21 is shown in FIG. The curve generation unit 21 receives the contour coordinate list P supplied from the contour coordinate list generation unit 20 as a curve generation unit by the input coordinate division circuit 21A, the connection condition calculation circuit 21B, and the curve approximation circuit 21C, respectively. The input coordinate dividing circuit 21A generates a list of coordinates of division points (hereinafter referred to as a division point coordinate list) F that divides the shape represented by the outline coordinate list P, and uses this as a connection condition calculation circuit. 21B and the curve approximation circuit 21C.
[0058]
That is, the input coordinate dividing circuit 21A locally estimates the order of the shape to be obtained from the discrete arrangement of the contour coordinate list P. In this case, the outline coordinate list P is divided so that the order of the shape in each divided segment does not increase. For example, by determining each division point based on the magnitude of the curvature, it is possible to determine the order in each segment without depending on the number of coordinate data, thereby preventing the order in each segment from increasing. it can.
[0059]
Based on the contour coordinate list P and the division point coordinate list F, the connection condition calculation circuit 21B calculates a connection condition at each division point, that is, a connection condition that satisfies G1 continuity, and supplies the connection condition list RV to the curve approximation circuit 21C. Send it out. That is, the connection condition calculation circuit 21B has a connection position coordinate r for matching the connection positions of the respective dividing points.iAnd connecting position riVelocity vector v for matching the velocity direction atiAnd a pair (that is, a tangent line) is calculated as a connection condition list RV. In this case, the coordinates of the connection position and the coordinates of the dividing points do not necessarily match.
[0060]
The curve approximating circuit 21C approximates each segment delimited by adjacent dividing points using the least square method so as to satisfy the connection condition at both end points, thereby approximating an approximate curve c between adjacent dividing points.iAnd approximate curve ciIs sent to the key calculation unit 3 as contour curve information C.
[0061]
The curve generation processing in the curve generation unit 21 will be described using the flowchart shown in FIG.
The curve generation unit 21 starts the curve generation process from step SP1, receives the contour coordinate list P from the contour coordinate list generation unit 20 in step SP2, and in step SP3, based on the contour coordinate list P, the division point coordinate list F Create
[0062]
Subsequently, in step SP4, the curve generation unit 21 calculates an approximate curve that approximates the shape in the vicinity of each division point, and the tangent r in the vicinity of the division point in the approximate curve.i, ViIs calculated as a connection condition RV for curve approximation of each segment. Next, in step SP5, the curve generation unit 21 approximates each segment delimited by the adjacent division points using the least square method so as to satisfy the connection condition at both end points, thereby approximating the approximate curve c.iAnd the approximate curve c is calculated at step SP6.iIs output as contour curve information C, and the curve generation process is terminated at step SP7.
[0063]
(2-2) Operation and effect of the embodiment
In the above configuration, the contour curve generation unit 7 starts the contour curve generation processing from step SP1 shown in FIG. 16, and the contour candidate region information I is received from the contour candidate region determination unit 6 in step SP2.iIn step SP3, the contour candidate area information I is received.iThen, the edge point having the maximum edge strength is calculated as a relay point, and the relay points are sequentially connected to generate a contour coordinate list P representing eight neighboring line figures as the contour of the object.
[0064]
Next, in step SP4, the contour curve generation unit 7 divides the shape represented by the contour coordinate list P into a plurality of segments, calculates a connection condition for connecting the segments, and satisfies each connection condition. Are approximated to generate an approximate curve, and in step SP5, the approximate curve group is sent to the key calculation unit 3 as contour curve information C, and the contour curve generation process is terminated in step SP6.
[0065]
Accordingly, the contour curve generation unit 7 generates the contour of the object as an outline coordinate list P composed of a plurality of discrete coordinate data from an image composed of continuous values, so the order of the shape of the contour of the object Can be easily examined.
Further, since the contour curve generation unit 7 extracts the contour of the target object as a single route, unnecessary information such as other contours other than the contour to be extracted can be deleted. The contour can be extracted with high accuracy.
[0066]
Further, the contour curve generation unit 7 can make the problem of extracting the contour of the object from the image as a curve easy to solve by curve approximation, so that the contour of the object can be easily extracted as a curve. .
[0067]
According to the above configuration, the contour candidate area information IiThen, an edge point having the maximum edge strength is calculated as a relay point, and each of the relay points is sequentially connected to generate a contour coordinate list P representing eight neighboring line figures as the contour of the object. The object represented by dividing the shape represented by P into a plurality of segments, calculating a connection condition for connecting the segments, and approximating each segment so as to satisfy the connection condition and generating an approximate curve. It is possible to easily check the order of the shape of the contour, and it is possible to delete unnecessary information such as a contour other than the contour to be extracted.
Thus, it is possible to realize the contour extracting unit 7 and the contour extracting method that can accurately extract the contour curve that matches the order of the shape of the contour of the object from the image.
[0068]
In addition, according to the above-described configuration, the shape represented by the contour coordinate list P is determined based on the feature points of the contour of the object, and the order of each segment is determined. Is calculated as a connection condition, and each approximate curve is approximated so as to maintain the connection condition. Therefore, a contour curve that matches the order of the shape represented by the contour coordinate list P and that is smoothly continuous Can be generated.
[0069]
Furthermore, according to the above-described configuration, a plurality of relay points q from the contour.i, And each relay point qiSince the eight neighboring line figures are generated by connecting the two by the route search process, the approximation accuracy of the curve approximation process in the curve generation unit 21 can be improved. A plurality of relay points q from the contouriTherefore, high-speed route search processing can be performed.
[0070]
Furthermore, according to the above-described configuration, the route between adjacent relay points can be reduced to the shortest route search problem in each small portion of the contour, so that the contour 8 neighboring line figure 2 image can be generated. Thus, the contour can be extracted as a single route. Therefore, the contour of the object can be extracted with high accuracy.
[0071]
Furthermore, according to the above configuration, the route search process is performed using the local evaluation function using the gradient of the image and the extreme value position information of the edge intensity, so that the influence of noise can be avoided. In addition, since a local evaluation function for calculating a local evaluation value between two adjacent pixels is used, a fast shortest path search algorithm can be applied.
[0072]
Further, according to the above-described configuration, the edge point having the maximum edge strength among the edge points is determined as the relay point q based on the gradient vector GS and the edge point binary image EP.iAs a result, it is not necessary for the operator to give points necessary for exploration when performing contour exploration processing, and the contour extraction work can be simplified accordingly, and points on the contour can be extracted reliably. Can do.
[0073]
Further, according to the above configuration, since the local evaluation function d is used, it is possible to avoid the influence of the gradient of the edge strength and the gradient of the edge strength caused by the contour of another object. The contour of an object can be accurately extracted as a contour curve.
[0074]
  Furthermore, according to the above-described configuration, since the edge point is detected using the standardized gradient vector GS that does not depend on the magnitude of the color difference, it is evenly distributed over the entire contour.Relay pointThus, the contour of the object can be extracted with high accuracy.
[0075]
(3) Other embodiments
In the above-described embodiment, the case where the relay point extracting unit 22 is used as the relay point extracting unit has been described. However, the present invention is not limited to this, and the same reference numerals are given to the corresponding parts in FIGS. You may use the relay point extraction part 30 as shown in FIG. 17 as a relay point extraction means.
[0076]
The relay point extraction processing in the relay point extraction unit 30 will be described with reference to the flowchart shown in FIG.
The relay point extraction unit 30 starts the relay point extraction process from step SP1, and in step SP2, the corresponding line segment ljAnd mask image ImjContour candidate area information I consisting of each pair ofiIs received by the gradient vector calculation unit 24 and the edge detection unit 22B.
[0077]
Next, at step SP3, the relay point extraction unit 30 calculates a normalized gradient vector GS at the gradient vector calculation unit 24, and then generates an edge point binary image E at the edge detection unit 22B at step SP4. Then, the gradient vector GS and the edge point binary image E are sent to the strong edge point extraction unit 22C. In this case, the gradient vector calculation unit 24 may send the gradient vector G to the strong edge point extraction unit 22C without normalizing the calculated gradient vector G.
[0078]
Subsequently, in step SP5, the relay point extraction unit 30 generates a relay point coordinate list Q based on the gradient vector GS and the edge point binary image E in the strong edge point extraction unit 22C, and then in step SP6. The relay point coordinate list Q is sent to the relay point coupling unit 23, and the relay point extraction process is terminated at step SP7. Here, based on the gradient vector GS and the edge point binary image E, the strong edge point extraction unit 22C calculates, as a relay point, an edge point having the maximum edge intensity among the edge points, and relays at the relay point. The point coordinate list Q may be generated.
[0079]
In this case, since the edge intensity can be detected uniformly without depending on the magnitude of the color difference in the input image, the relay points can be extracted almost evenly over the entire contour of the object. Therefore, the accuracy of the contour curve obtained can be further improved. In this case, since the curve information for specifying the rough shape of the contour of the object is input from the input unit 4, the reliability of the relay point on the contour can be improved.
[0080]
In the above-described embodiment, the case where the relay point connecting unit 23 is used as the relay point connecting means has been described. However, the present invention is not limited to this, and the same reference numerals are given to the corresponding parts in FIGS. A relay point connecting part 40 as shown in FIG. 19 may be used.
This relay point connecting part 40 is contour candidate area information I consisting of a polygonal line or a curve.iIs received by the gradient vector calculation unit 41 and the edge detection unit 22B.
The gradient vector calculation unit 41 uses the generally known gradient vector calculation method to use the contour candidate area information I.iThe gradient vector G in the contour candidate region corresponding to the above is calculated, and the gradient vector G is sent to the route search unit 26.
[0081]
Further, in the above-described embodiment, the case where the relay point connecting unit 23 is used as the relay point connecting means has been described. However, the present invention is not limited to this, and the above-described “for image composition” is performed without performing the route search processing. You may make it connect a relay point using the thinning process described in the "object extraction method" and the "area | region extraction method."
[0082]
Furthermore, in the above-described embodiment, the case where the local evaluation function d combining the local evaluation function g and the local evaluation function d is used as the route evaluation method has been described. However, the present invention is not limited to this, and the point is uniquely determined. Any other evaluation function may be used as the route evaluation method as long as the evaluation function represents the magnitude of the passing cost. In this case, a path between adjacent intermediate points is determined so that this evaluation function is minimized. Further, an image Laplacian may be used as a route evaluation method, and “Intelligent Scissors for Image Composition” or “Discrete Optimization Method and Algorithm” may be used as a search method.
[0083]
Further, in the above-described embodiment, the case where the local evaluation function g configured by the expression (1) is used as the local evaluation function g has been described, but the present invention is not limited to this, and the following expression (5)
[Equation 5]
Figure 0004114966
As shown, the gradient vectors G (p) and G (q) in the position coordinates of two adjacent pixels existing between adjacent relay points and the position coordinates of the two pixels in the vicinity of 8 during the route search You may make it give the route search part 26 the local evaluation function g which has the evaluation term represented by the function with p and q. As a result, a route search can be performed in consideration of the direction in which the edge travels.
[0084]
Furthermore, in the above-described embodiment, the case where the local evaluation function e configured by the expression (2) is used as the local evaluation function e has been described, but the present invention is not limited to this, and the following expression (6)
[Formula 6]
Figure 0004114966
As shown in the figure, the point is that in the vicinity of 8 during the route search, the pixel value (pixel value in the edge point binary image EP) E (p) in the position coordinates of two adjacent pixels existing between adjacent relay points, The route search unit 26 may be provided with a local evaluation function e having an evaluation term represented by a function of E (q) and the position coordinates p and q of two pixels. This makes it possible to realize a route search in consideration of the peak position of the edge.
[0085]
Furthermore, in the above-described embodiment, the case where the local evaluation function d obtained by combining the local evaluation function g and the local evaluation function d is described. However, the present invention is not limited to this, and the local evaluation function g or the local evaluation function e is used. In short, a local evaluation function may be used depending on the situation.
[0086]
Furthermore, in the above-described embodiment, the case where the operator inputs a line segment, a broken line, or a curve using the input unit 4 has been described. However, the present invention is not limited to this, and as described above, the current image i is already The estimated contour information S2 of the current image i may be obtained on the basis of the image i-1 one frame before the contour curve obtained as the contour curve information C and the contour curve information C of the image i-1. Good (Figure 1). Thereby, work efficiency can be improved markedly.
[0087]
Further, in the above-described embodiment, the curve corresponding to the estimated contour information S2 is approximated to a polygonal line having each feature point as a vertex, and each line segment l of the polygonal line is obtained.iIs sent to the edge strength standard circuit 24A, but the present invention is not limited to this, and a segment is formed by dividing a curve corresponding to the estimated contour information S2 at each feature point and dividing the curve at each feature point. May be sent to the edge strength normalization circuit 24A.
[0088]
【The invention's effect】
  As described above, according to the present invention, the contour of an objectRelay point q based on edge strength from contour candidate area information Ii containing i , And each relay point q i By exploring and connecting the routes connectingBy generating a line figure consisting of multiple discrete coordinate data and generating a curve that approximates the shape represented by the line figure, the contour shape order can be easily examined and the contour shape Can finally be obtained as a curve.
  Thus, it is possible to realize a contour extraction apparatus and a contour extraction method that can obtain a contour curve that matches the contour shape of the object.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an overall configuration of a key signal generation apparatus to which the present invention is applied.
FIG. 2 is a block diagram showing a configuration of a contour curve generation unit.
FIG. 3 is a block diagram showing a configuration of a contour coordinate list generation unit.
FIG. 4 is a flowchart for explaining a processing procedure of contour coordinate list generation processing;
FIG. 5 is a block diagram showing a configuration of a relay point extraction unit.
FIG. 6 is a flowchart for explaining a processing procedure of a relay point extraction process.
FIG. 7 is a schematic diagram for explaining relay point ordering processing;
FIG. 8 is a block diagram showing a configuration of a relay point connecting portion.
FIG. 9 is a block diagram showing a configuration of a gradient vector calculation unit and a contour candidate region determination unit.
FIG. 10 is a block diagram showing a configuration of an edge detection unit.
FIG. 11 is a flowchart for explaining a processing procedure of route search processing;
FIG. 12 is a chart showing a shortest path search algorithm.
FIG. 13 is a chart showing a shortest path search algorithm.
FIG. 14 is a block diagram showing a configuration of a curve generation unit.
FIG. 15 is a flowchart for explaining a processing procedure of curve generation processing;
FIG. 16 is a flowchart for explaining the processing procedure of the contour curve generation processing;
FIG. 17 is a block diagram showing a configuration of a relay point extraction unit according to another embodiment.
FIG. 18 is a flowchart for explaining a processing procedure of a relay point extraction process in a relay point extraction unit according to another embodiment.
FIG. 19 is a block diagram illustrating a configuration of a relay point coupling unit according to another embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Key signal generation apparatus, 2 ... Contour extraction part, 3 ... Key calculation part, 4 ... Input means, 5 ... Estimated outline calculation part, 6 ... Contour candidate area | region determination part, 6A ... Feature point Extraction circuit, 6B... Curve division circuit, 6C... Area division circuit, 7... Contour curve generation unit, 8... Motion vector estimation unit, 9. Soft key generation unit, 20 ... contour coordinate list generation unit, 21 ... curve generation unit, 21A ... input coordinate division circuit, 21B ... connection condition calculation circuit, 21C ... curve approximation circuit, 22, 30 ... relay Point extraction unit, 22A... Edge strength calculation unit, 22B, 25... Edge detection unit, 22C. , 24A ... Edge strength normalization circuit, 24B ... Image Combining unit, 25A ...... threshold calculation circuit, 25B ...... edge point detection circuit. 26 …… Route search section.

Claims (9)

経路探査を利用して画像中から対象物の輪郭を抽出する輪郭抽出装置において、
上記対象物の輪郭が存在すると考えられる輪郭候補領域において当該輪郭に沿つた複数の点を中継点として抽出し、当該中継点に対して当該輪郭に沿つた順序付けを行う中継点抽出手段と、
局所的な経路毎に設定された通過コストの総和を表す評価関数が最小となるよう、上記順序が連続する上記中継点間の最短経路を決定することにより上記中継点同士を結ぶ経路を探査し、当該経路を順次連結することにより上記輪郭を表す線図形を生成する中継点連結手段と、
上記線図形によつて表される形状を近似する曲線を生成する曲線生成手段と
を具え、
上記中継点抽出手段は、上記輪郭候補領域において検出した複数のエツジ点のうち、エツジ強度が所定のしきい値よりも大きい上記エツジ点を上記中継点として抽出する強エツジ点抽出手段を具える
ことを特徴とする輪郭抽出装置。
In a contour extraction device that extracts the contour of an object from an image using route search,
A relay point extracting means for extracting a plurality of points along the contour in the contour candidate region where the contour of the object is considered to exist as a relay point, and ordering the relay points along the contour ;
The route connecting the relay points is searched by determining the shortest route between the relay points in the above sequence so that the evaluation function representing the sum of the passing costs set for each local route is minimized. , a relay point connecting means for generating a line figure more representative of the contour to sequentially connecting the route,
Curve generating means for generating a curve approximating the shape represented by the line figure,
The relay point extracting means includes strong edge point extracting means for extracting, as the relay point, the edge point having an edge strength greater than a predetermined threshold value among a plurality of edge points detected in the contour candidate region. A contour extraction apparatus characterized by the above.
上記中継点抽出手段は、
上記画像からエツジ強度を算出して出力するエツジ強度算出手段と、
上記画像からエツジ点を検出し、当該エツジ点の位置を指定するエツジ点2値画像を生成して出力するエツジ検出手段と
を具え、
上記強エツジ点抽出手段は、上記エツジ強度算出手段及び上記エツジ検出手段の出力に基づいて、上記エツジ点のうち上記エツジ強度が所定のしきい値より大きい上記エツジ点を上記中継点として抽出する
ことを特徴とする請求項1に記載の輪郭抽出装置。
The relay point extracting means is
Edge strength calculating means for calculating and outputting the edge strength from the image,
Edge detection means for detecting an edge point from the image and generating and outputting an edge point binary image for designating the position of the edge point;
The strong edge point extracting means extracts, as the relay point, the edge point having the edge intensity greater than a predetermined threshold among the edge points based on the outputs of the edge intensity calculating means and the edge detecting means. The contour extracting apparatus according to claim 1, wherein:
上記中継点抽出手段は、
上記対象物の輪郭をおおまかに示す推定輪郭曲線に沿つて連続した折れ線又は曲線でなる輪郭候補領域情報を用いて、上記画像からグラデイエントベクトルを算出して出力するグラデイエントベクトル算出手段と、
上記輪郭候補領域における上記画像からエツジ点を検出し、当該エツジ点の位置を指定するエツジ点2値画像を生成して出力するエツジ検出手段と、
を具え、
上記強エツジ点抽出手段は、上記グラデイエントベクトル算出手段及び上記エツジ検出手段の出力に基づいて、上記折れ線の各線分、上記曲線を分割して得られる各セグメントを近似する各線分、又は上記曲線を分割して得られる各セグメントの近傍毎に、上記エツジ点のうち上記エツジ強度が最大となる上記エツジ点を上記中継点として抽出する
ことを特徴とする請求項1に記載の輪郭抽出装置。
The relay point extracting means is
Gradient vector calculation means for calculating and outputting a gradient vector from the image using contour candidate area information consisting of a continuous polygonal line or curve along an estimated contour curve roughly showing the contour of the object;
Edge detection means for detecting an edge point from the image in the contour candidate region, and generating and outputting an edge point binary image designating the position of the edge point;
With
The strong edge point extracting means is based on the output of the gradient vector calculating means and the edge detecting means, each line segment of the broken line, each line segment that approximates each segment obtained by dividing the curve, or the curve. 2. The contour extracting apparatus according to claim 1, wherein the edge point having the maximum edge strength among the edge points is extracted as the relay point for each neighborhood of each segment obtained by dividing the segment.
上記経路探査手段は、
上記画像からグラデイエントベクトルを算出するグラデイエントベクトル算出手段と、
上記グラデイエントベクトルに基づいて、経路探査中の8近傍において、上記順序が連続する中継点間に存在し互いに隣接する2画素の位置座標におけるグラデイエントベクトルを算出し、上記2画素の位置座標における上記グラデイエントベクトルと上記2画素の位置座標との関数で表される評価項をもつ局所評価関数を用いて、上記順序が連続する中継点間の経路を決定する
ことを特徴とする請求項1に記載の輪郭抽出装置。
The route exploration means is
A gradient vector calculating means for calculating a gradient vector from the image;
Based on the gradient vector, the gradient vector at the position coordinates of the two pixels adjacent to each other existing between the relay points in the above sequence in the vicinity of 8 in the route search is calculated. 2. The route between relay points in which the order is continuous is determined using a local evaluation function having an evaluation term expressed by a function of the gradient vector and the position coordinates of the two pixels. The contour extracting device according to claim 1.
上記経路探査手段は、
上記順序が連続する上記中継点間に存在し互いに隣接する2画素間の局所評価値を算出するための局所評価関数を有し、当該局所評価関数を用いて上記順序が連続する上記中継点間の経路を決定する
ことを特徴とする請求項に記載の輪郭抽出装置。
The route exploration means is
Between the relay points having a local evaluation function for calculating a local evaluation value between two adjacent pixels that exist between the relay points in which the order is continuous, and in which the order is continuous using the local evaluation function The contour extracting apparatus according to claim 1 , wherein the path is determined.
上記曲線生成手段は、
上記線図形によつて表される形状を複数のセグメントに分割する分割点を算出して出力する分割点算出手段と、
上記線図形及び上記各分割点に基づいて、上記各セグメントを連結するための連結条件を上記各分割点毎に算出して出力する連結条件算出手段と、
上記線図形、上記各分割点及び上記各連結条件に基づいて、上記各分割点における上記連結条件を満たすように上記各セグメントを曲線近似する曲線近似手段と
を具えることを特徴とする請求項1に記載の輪郭抽出装置。
The curve generation means includes
A dividing point calculating means for calculating and outputting a dividing point for dividing the shape represented by the line figure into a plurality of segments;
Based on the line figure and each division point, a connection condition calculation means for calculating and outputting a connection condition for connecting the segments for each division point;
A curve approximating means for approximating each segment in a curve so as to satisfy the connection condition at each division point based on the line figure, each division point, and each connection condition. The contour extracting apparatus according to 1.
オペレータにより指定された輪郭の大まかな形状を基に、対象物の輪郭を推定輪郭として推定する輪郭推定手段
を具え、上記中継点抽出手段は、上記輪郭推定手段により推定された上記推定輪郭に基づき上記輪郭候補領域を算出し上記中継点を抽出する
ことを特徴とする請求項1に記載の輪郭抽出装置。
Contour estimation means for estimating the contour of the object as the estimated contour based on the rough shape of the contour specified by the operator, and the relay point extracting means is based on the estimated contour estimated by the contour estimation means. The contour extracting apparatus according to claim 1, wherein the contour candidate region is calculated and the relay point is extracted.
上記曲線生成手段の出力に基づいて、現画像中における対象物の輪郭を推定輪郭として推定する輪郭推定手段
を具え、上記中継点抽出手段は、上記輪郭推定手段により推定された上記推定輪郭に基づき上記現画像中における上記輪郭候補領域を算出して上記中継点を抽出し、
上記中継点連結手段は、上記中継点同士を結ぶ経路を探査し順次連結することにより、上記現画像中における上記対象物の輪郭を上記線図形として生成する
ことを特徴とする請求項1に記載の輪郭抽出装置。
Contour estimation means for estimating the contour of the object in the current image as an estimated contour based on the output of the curve generation means, and the relay point extraction means is based on the estimated contour estimated by the contour estimation means. Calculating the contour candidate area in the current image and extracting the relay point;
The said relay point connection means produces | generates the outline of the said target object in the said current image as the said line figure by exploring the path | route which connects the said relay points, and connecting sequentially. Contour extractor.
経路探査を利用して画像中から対象物の輪郭を抽出する輪郭抽出方法において、
上記対象物の輪郭が存在すると考えられる輪郭候補領域において当該輪郭に沿つた複数の点を中継点として抽出し、当該中継点に対して当該輪郭に沿つた順序付けを行う中継点抽出ステツプと、
上記中継点同士を結ぶ経路を探査し順次連結することにより、上記輪郭を表す線図形を生成する中継点連結ステツプと、
上記線図形によつて表される形状を近似する曲線を生成する曲線生成ステツプと
を具え、
上記中継点抽出ステツプは、上記輪郭候補領域において検出した複数のエツジ点のうち、エツジ強度が所定のしきい値よりも大きい上記エツジ点を上記中継点として抽出する強エツジ点抽出ステツプを具え、
上記中継点連結ステツプは、局所的な経路毎に設定された通過コストの総和を表す評価関数を有し、上記評価関数が最小となるように、上記順序が連続する上記中継点間の最短経路を決定する経路探査ステツプを具える
ことを特徴とする輪郭抽出方法。
In a contour extraction method for extracting a contour of an object from an image using route search,
A relay point extraction step for extracting a plurality of points along the contour in the contour candidate area where the contour of the object is considered to exist as relay points and ordering the relay points along the contour ;
A relay point connection step for generating a line figure representing the outline by exploring and sequentially connecting routes connecting the relay points;
A curve generation step for generating a curve approximating the shape represented by the line figure,
The relay point extraction step includes a strong edge point extraction step for extracting, as the relay point, the edge point having an edge strength greater than a predetermined threshold among a plurality of edge points detected in the contour candidate region,
The relay point connection step has an evaluation function that represents a sum of passage costs set for each local route, and the shortest path between the relay points in the order is continuous so that the evaluation function is minimized. A contour extraction method comprising a route search step for determining a path .
JP31274096A 1996-11-08 1996-11-08 Outline extracting apparatus and outline extracting method Expired - Fee Related JP4114966B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31274096A JP4114966B2 (en) 1996-11-08 1996-11-08 Outline extracting apparatus and outline extracting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31274096A JP4114966B2 (en) 1996-11-08 1996-11-08 Outline extracting apparatus and outline extracting method

Publications (2)

Publication Number Publication Date
JPH10143654A JPH10143654A (en) 1998-05-29
JP4114966B2 true JP4114966B2 (en) 2008-07-09

Family

ID=18032855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31274096A Expired - Fee Related JP4114966B2 (en) 1996-11-08 1996-11-08 Outline extracting apparatus and outline extracting method

Country Status (1)

Country Link
JP (1) JP4114966B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012025613A2 (en) 2010-08-27 2012-03-01 Element Six Abrasives S.A. Method of making polycrystalline diamond material
WO2012052501A2 (en) 2010-10-22 2012-04-26 Element Six Abrasives S.A Polycrystalline diamond material
WO2012052500A2 (en) 2010-10-22 2012-04-26 Element Six Abrasives S.A. Polycrystalline diamond material
DE202015009584U1 (en) 2014-05-08 2018-06-07 Sumitomo Electric Industries, Ltd. Polycrystalline diamond body, cutting tool, wear-resistant tool and grinding tool

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4582204B2 (en) * 2008-06-11 2010-11-17 コニカミノルタビジネステクノロジーズ株式会社 Image processing apparatus, image conversion method, and computer program
JP6007762B2 (en) 2012-12-06 2016-10-12 住友電気工業株式会社 Polycrystalline diamond, method for producing the same, and tool
CN109299665B (en) * 2018-08-29 2023-04-14 上海悠络客电子科技股份有限公司 Human-shaped contour description method based on LSD algorithm
CN112927288B (en) * 2019-11-21 2024-03-29 北京配天技术有限公司 Image coordinate extraction method, image processing device and storage device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012025613A2 (en) 2010-08-27 2012-03-01 Element Six Abrasives S.A. Method of making polycrystalline diamond material
US9114504B2 (en) 2010-08-27 2015-08-25 Element Six Abrasives S.A. Method of making polycrystalline diamond material
WO2012052501A2 (en) 2010-10-22 2012-04-26 Element Six Abrasives S.A Polycrystalline diamond material
WO2012052500A2 (en) 2010-10-22 2012-04-26 Element Six Abrasives S.A. Polycrystalline diamond material
DE202015009584U1 (en) 2014-05-08 2018-06-07 Sumitomo Electric Industries, Ltd. Polycrystalline diamond body, cutting tool, wear-resistant tool and grinding tool

Also Published As

Publication number Publication date
JPH10143654A (en) 1998-05-29

Similar Documents

Publication Publication Date Title
US6826292B1 (en) Method and apparatus for tracking moving objects in a sequence of two-dimensional images using a dynamic layered representation
US6393142B1 (en) Method and apparatus for adaptive stripe based patch matching for depth estimation
JP2951814B2 (en) Image extraction method
JP3812763B2 (en) Key signal generating apparatus and method
EP2265023B1 (en) Subject tracking device and subject tracking method
JP2915894B2 (en) Target tracking method and device
US20030190060A1 (en) Method for locating face landmarks in an image
JP4114966B2 (en) Outline extracting apparatus and outline extracting method
CN113435240A (en) End-to-end table detection and structure identification method and system
JP3006338B2 (en) Motion area contour detection device
JP3333721B2 (en) Area detection device
EP3043315B1 (en) Method and apparatus for generating superpixels for multi-view images
JP2004508641A (en) Digital image segmentation
JP3716455B2 (en) Region extraction method and region extraction device
Badenas et al. Motion and intensity-based segmentation and its application to traffice monitoring
JP2000132692A (en) Method for extracting feature point of curve and recording medium recording the method
JP3217475B2 (en) Line figure feature extraction method
JP2000155841A (en) Graphic recognition method, device therefor and recording medium recorded with graphic recognition program
JPH06282652A (en) Picture contour extraction device
Shi et al. Parallel mesh algorithms for grid graph shortest paths with application to separation of touching chromosomes
JP4194309B2 (en) Document direction estimation method and document direction estimation program
JP3758229B2 (en) Line segment extraction method, line segment extraction apparatus, and line segment extraction processing program
JP3022330B2 (en) Moving image recognition device and moving image recognition method
JP2001243479A (en) Method and device for image processing and recording medium having image processing program recorded thereon
CN115311690B (en) End-to-end pedestrian structural information and dependency relationship detection method thereof

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050916

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060426

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060515

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080415

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110425

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120425

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees