JP2940317B2 - 画像処理装置 - Google Patents

画像処理装置

Info

Publication number
JP2940317B2
JP2940317B2 JP4246319A JP24631992A JP2940317B2 JP 2940317 B2 JP2940317 B2 JP 2940317B2 JP 4246319 A JP4246319 A JP 4246319A JP 24631992 A JP24631992 A JP 24631992A JP 2940317 B2 JP2940317 B2 JP 2940317B2
Authority
JP
Japan
Prior art keywords
image
threshold
contour
label
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP4246319A
Other languages
English (en)
Other versions
JPH0676062A (ja
Inventor
和彦 鷲見
橋本  学
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP4246319A priority Critical patent/JP2940317B2/ja
Priority to US08/081,463 priority patent/US5625717A/en
Publication of JPH0676062A publication Critical patent/JPH0676062A/ja
Application granted granted Critical
Publication of JP2940317B2 publication Critical patent/JP2940317B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、例えば自動化された
製造ラインなどで用いられる画像処理装置に於いて、2
値化しにくい濃淡画像に対して、良好にテンプレートマ
ッチングを行い、画像の位置合わせや特定パターンの抽
出をおこない得る画像処理装置に関するものである。
【0002】また、この発明は、例えば自動化された製
造ラインなどで用いられる画像処理装置に於いて、画像
中の物体を構成する領域をセグメント化する際に、2値
化ではセグメント化しにくいような濃淡画像に対して、
良好にかつ安定にセグメント化を行い得る画像処理装置
に関するものである。この発明は、例えば自動化された
製造ラインなどで用いられる画像処理装置に於いて、画
像中の物体の輪郭を構成する画素をセグメント化する際
に、良好にかつ安定にセグメント化を行い得る画像処理
装置に関するものである。
【0003】また、この発明は、例えば自動化された製
造ラインなどで用いられる画像処理装置に於いて、ベル
トコンベヤー上に置かれて動いている認識対象物体の動
きを計測する際に、物体を高速に、かつ信頼性良く計測
を行い得る画像処理装置に関するものである。この発明
は、例えば自動化された製造ラインなどで用いられる画
像処理装置に於いて、ステレオ視の原理で対象物体の3
次元情報を得る画像処理装置に於いて、視野内に複数の
物体が存在し得るような状況で安定して3次元情報を抽
出する画像処理装置に関するものである。
【0004】さらに、この発明は、たとえば、自動化さ
れた製造ラインなどで用いられる画像処理装置におい
て、自動的に画像中の対象物の位置、姿勢を計測または
物体の種類を判別する際に、物体の表面状態が若干不均
一であったり、照明条件が不安定であるような場合で
も、良好に、かつ安定に対象物の認識を行い得る画像処
理装置に関するものである。
【0005】
【従来の技術】本発明に関係する従来技術について、例
えば手塚慶一、北橋忠宏、小川秀夫著、昭和60年6月
15日日刊工業新聞社発行の「ディジタル画像処理工
学」(以下、「文献A」という。)の内容をもとに説明
する。従来の技術に関しては第5章2節「テンプレート
マッチング」中の「相互相関によるマッチング」(10
7頁)に述べられている。本従来技術は、濃淡画像の相
互相関を利用しているため、2値化画像によるテンプレ
ートマッチングと異なり、2値化しにくい画像に対して
も良好にマッチングが可能なことが一つの利点である。
図31は、本従来例に記述された技術を用いた相互相関
によるテンプレートマッチング装置の構成を示すブロッ
ク図である。装置は参照パターン格納手段81、目的画
像格納手段82、類似度計算手段83、スコアマップ8
4、制御手段85から構成されている。また図32は、
前記テンプレートマッチング装置における処理の流れを
フローチャートに表現したものである。以下、この図の
流れに従って、従来の技術を説明する。
【0006】処理が開始されると(ST91)、まず目
的画像がカメラ等から入力され、目的画像格納手段82
に格納される。参照パターンは予め装置内の参照パター
ン格納手段81に格納されているとする。参照パターン
は目的画像に重ね合わされるが、その時のずれ量をまず
設定する(ST92)。あるずれ量が決まると、参照パ
ターンは目的画像にそのずれ量だけずらされて重ね合わ
され、類似度計算手段83によって類似度が画像間の相
関値として計算される(ST93)。この時の相関計算
は前記従来技術を説明した文献Aに記載されているが、
次式のようになる。
【0007】 M(a,b)={ΣΣI(i,j)R(i-a,i-b)}/{(ΣΣI2(i,j))1/2(ΣΣR2(i-a,i-b))1/2} (式1)
【0008】ここで、Mは類似度、a,bはそれぞれ
i,j方向の画像の前記ずれ量、Iは目的画像、Rは参
照パターンである。この類似度がずれ量(a,b)にお
けるスコアとしてスコアマップ84に格納される(ST
94)。ずれ量a,bが予め設定された全範囲にわたっ
て調べられたら(ST95)処理を終了(ST96)す
るが、未調査のa,bが存在するのならもう一度(ST
92)に戻って処理を繰り返す。以上のようにして2次
元のスコアマップ84が類似度で埋められると、制御手
段85がスコアマップ84を探索し、スコアが最大にな
る位置(a,b)を見付けると、それが目的画像中の最
も参照パターンとよく一致する位置を示していることに
なる。
【0009】また、請求項2及び3に関係する従来技術
について、例えば文献Aの内容をもとに説明する。従来
の技術に関しては第4章3節「領域の分割」中の「モー
ド法」(79頁)に述べられている。図33は、本従来
例に記述された技術を用いた画像領域セグメント化装置
の構成を示すブロック図である。装置は原画像格納手段
2141、濃度ヒストグラム生成手段2142、しきい
値決定手段2143、2値化手段2144、領域セグメ
ント化手段2145より構成されている。
【0010】図34は、前記画像領域セグメント化装置
における処理の流れをフローチャートに表現したもので
ある。以下、この図の流れに従って、従来の技術を説明
する。処理対象となる画像は予めメモリに格納されてい
ると仮定する。処理がスタートすると(ST215
1)、まず原画像をもとに濃度ヒストグラム生成手段2
142によって画像の濃度ヒストグラムが生成される
(ST2152)。濃度ヒストグラムとは、画像上の画
素値のとる濃度がどのくらいの頻度で出現しているかを
表すもので、図35に一例を示している。ST2153
では濃度ヒストグラムからしきい値決定手段2143に
より、しきい値を決定する。図35のような双峰性のヒ
ストグラムの場合はその分かれ目となる濃度付近がしき
い値として設定される。次の画像はそのしきい値をもと
に、2値化手段2144によって2値化され(ST21
54)、最終的に2値化画像を領域セグメント化手段2
145によってセグメント化し(ST2155)、処理
を終了する(ST2156)。
【0011】請求項4に関係する従来技術について、例
えば文献Aの内容をもとに説明する。従来の技術に関し
ては第8章3節「線画の解釈」中の「多面体とその線
画」に述べられている(176頁)。図36は、本従来
例に記述された技術を用いた画像輪郭セグメント化装置
の構成を示すブロック図である。装置は原画像格納手段
2171、輪郭抽出手段2172、直線近似手段217
3、輪郭セグメント化手段2174、頂点辞書2176
から構成されている。
【0012】図37は本従来例による装置の動作を表現
したフローチャートであり、以下、これを用いて従来の
技術を説明する。まず最初に原画像がカメラ等から入力
され(ST2181)、原画像格納手段2171に格納
される。次いで該原画像は輪郭抽出手段2172によっ
て画像中の物体の輪郭部分が抽出される(ST218
2)。ここで輪郭とは、必ずしも部分のアウトラインと
いう意味ではなく、例えば多面体の稜線など面と面との
まじわりとして定義される線や、その他の理由で生じた
画像中の濃度変化の急峻な部分をも表すとする。さて、
抽出された輪郭部分は直線近似手段2173により、近
似的に直線に分割され、直線要素の集合として格納され
る(ST2183)。
【0013】次に、輪郭セグメント化手段2174の動
作についてより詳細に記述する。これら直線のうち、ま
ず既知輪郭にマークがつけられる(ST2184)。マ
ークとは一連の番号などのIDの意味で、全部の直線要
素にマークをつけることが輪郭セグメント化装置として
の前記装置の役割である。さて、続く処理で画像中から
任意の頂点が選ばれることによってひとつの実形状を仮
定する(ST2185)。ここでは頂点辞書2176が
参照される。頂点辞書とは、図38に示したようなもの
で、頂点とそれから延びる稜線について現実の3次元世
界に存在し得る組み合わせを予めすべての場合について
書き出したものである。図中の稜線についている符号
は、+なら凸稜線、−なら凹稜線であることを示してい
る。前記輪郭とはこの頂点辞書中の稜線に相当する。さ
て、任意に選ばれた頂点につながる稜の形状を決定す
る。稜の形状は稜の他端にまで保存されるという原則に
基づき、これらの稜の他端にある頂点形状の決定の前提
条件とする。稜の決定とは前記の凹凸符号のことであ
る。このようにして全ての頂点が調べられるまで処理を
繰り返す(ST2186)。もし頂点の選び方に矛盾が
生じていたら矛盾が生じた段階まで戻って頂点の選択を
やり直し(ST2187)、矛盾無く全部の頂点が定義
できるかどうかを試みる。もしできたなら、直線要素に
矛盾無くマークがつけられたことになり、即ち輪郭のセ
グメント化が終了したことになる(ST2188)。本
装置の出力はラベル(マーク)付けされた輪郭(あるい
は直線要素記述)2175である。
【0014】さらに、請求項5及び6に関する従来技術
の一例について、谷内政彦著1990年10月30日株
式会社昭晃堂発行の「ロボットビジョン」(以下、「文
献B」という。)の内容をもとに説明する。従来の技術
に関しては、同書中、8.3.「画面間の対応付け」
(212頁)に述べられている。図39は、本従来例に
記述された技術を用いて構成した画像処理装置のブロッ
ク図である。装置は、2つの原画像メモリ3101,3
102、輪郭抽出手段3103,3104、セグメント
抽出手段3105,3106、短線分化手段3107,
3108、セグメント照合手段3109、短線分照合手
段310A、及び、動きベクトル計算手段310Bより
構成されている。
【0015】図40は、前記従来の画像処理装置の動作
を示すフローチャートである。以下、このフローチャー
トに沿って処理を説明する。従来の画像処理装置の目的
は2枚の連続した画像から動いている物体の動きを検出
することである。図41は連続した画像を模式的に表現
した一例であり、画像F2(3122)は画像F1(3
121)の後にカメラで撮像したものである。図41は
前記文献Bから引用した。本従来例では画像中の背景と
しての樹木(3123,3124,3125,312
6)は静止しており、中央部の動物体(3127,31
28)のみが動いている。
【0016】さて、図41の画像F1が原画像メモリ
(F1)3101に、画像F2が原画像メモリ(F2)
3102に格納されてるとする。従来の装置が起動する
と(ST3111),(ST3112)で最初に2枚の
前記原画像から移動領域が抽出される。これは画像全体
を小領域に分割し、明るさの似ている部分の対応を調べ
る相関法などにより行われる。この例では、図41中の
河馬様の動物の部分が抽出される。続いて(ST311
3)では、輪郭抽出手段3103により原画像F1の輪
郭部分が抽出されたのちにセグメント抽出手段3105
により、セグメンテーションされる。同様に、(ST3
114)では原画像F2に対応する移動領域の輪郭が、
輪郭抽出手段3104により抽出され、さらにセグメン
ト抽出手段3106によりセグメンテーションされる。
【0017】ここで、セグメンテーションについて説明
する。従来技術における輪郭のセグメンテーションと
は、ある領域の境界を、端点、T接合などでセグメン
ト、すなわちある長さをもった輪郭線の一部分として切
り出し、それらの集合として輪郭を記述することであ
る。(ST3115)では上記セグメント抽出手段31
05、3106によってセグメント化された移動領域の
照合が、セグメント照合手段3109によって行われ
る。図42は前述の文献Bから引用した図であるが、セ
グメント照合を説明するための図である。図中、313
1は画像F1の移動物体の輪郭の一部、3132は画像
F2の移動物体の輪郭の一部であり、ほぼ対応する部分
を並べて描いている。同図で、四角いマーク(□)で両
端に挟まれた輪郭部分がセグメントである。本例ではF
1側セグメントAk と、F2側セグメントA’m が対応
することを示している。
【0018】次いで(ST3116)および(ST31
17)では、前記セグメント抽出手段の出力を使って輪
郭を短い線分で記述する短線分化処理が、短線分化手段
3107,3108によって施される。得られたF1,
F2それぞれに対応した短線分データは(ST311
8)において短線分照合手段310Aによって照合さ
れ、短線分レベルでの2画面間の照合が行われたことに
なる。この様子は、図42においては画像F1側の短線
分L1 ,L2 ,L3 がそれぞれ画像F2側の短線分
1 ′,L2 ′,L3 ′に対応した例として表現されて
いる。最後に、(ST3119)において動きベクトル
計算手段310Bによって画像F1,F2中の動物体
(3127,3128)の動きベクトルが計算され、処
理は終了する(ST311A)。
【0019】次に請求項7に関係する従来例について、
谷内田正彦著,1990年10月30日株式会社昭光堂
発行の「ロボットビジョン」の内容に基づき説明する。
同書中、4.3.2「領域分割法」(79頁)、4.
3.3「エッジ検出と領域法」(82頁)、5.1.1
「いくつかの基本的な特徴」(91頁1)、6.1.3
「大局的特徴を用いたパターン認識」(109頁)、
6.2「領域間の関係も利用した認識」(117頁)に
述べられている。
【0020】まず、最初に上記著書に述べられている従
来の画像認識処理技術の流れの概略について説明し、引
き続いて上記著書で使用される従来の画像領域分割技術
について詳細に説明する。
【0021】図43は上記文献に記述された技術を用い
た画像処理装置の一例としての画像認識装置の構成を示
すブロック図である。この図43の画像処理装置は、対
象物4072を撮像するテレビジョン(以下、テレビと
いう)カメラ4071、このテレビカメラ4071で撮
像された対象物4072の画像に対して所定の領域を抽
出する領域抽出手段4073、この領域抽出手段407
3で抽出された領域の中から特徴量を計算する特徴抽出
手段4074、この特徴量を記憶する特徴空間メモリ4
075、この特徴空間メモリ4075上での対応するク
ラス代表値4076と特徴量からクラスの分類をして、
その結果4078を決定するクラス分類手段4077か
ら構成されている。
【0022】図44は図43の画像処理装置の動作の流
れを示すフローチャートである。以下に、この図44の
フローチャートに沿って動作について説明する。この図
43の画像処理装置の目的は画像中の物体が何であるか
を判定し、分類することである。このための動作の流れ
は、図44のように、大きく、二つの部分、すなわち、
「準備段階」と、「実行段階」とに分けられる。
【0023】まず、準備段階では、認識したい対象物4
072自体あるいは対象物4072と同一範ちゅうに分
けられる対象物4072をテレビカメラ4071で撮像
する(ST4081)。次に、このテレビカメラ407
1で撮像して得られた対象物4072の画像に対して、
領域抽出手段4073が領域の抽出を行うとともに(S
T4082)、この抽出された領域中の何らかの特徴を
特徴抽出手段4074で抽出して、特徴量を計算し、そ
の特徴空間メモリ4075上での対応する位置に点をプ
ロットする(ST4083)。
【0024】図45はこの特徴空間メモリ4075の説
明図である。この従来例では、特徴の種類として、「領
域の面積(X1)」と、「領域の円らしさ(X2)」の
2種類を用いている。これらの2種類の特徴量は、とも
にスカラ量で表現されるので、ある領域一つについて、
領域の面積X1と円らしさX2の組が1組計算される。
したがって、図45のような2次元の特徴空間にプロッ
トすることができる。三つ以上の特徴を用いる場合も同
様であり、特徴の数と同じ次元の特徴空間を使用すれば
よい。図44の(ST4081)〜(ST4083)の
処理を対象物4072の位置を動かしたり、他の対象物
と取り替えたりしながら繰り返すと、特徴空間メモリ4
075には、多数の点がプロットされる。
【0025】次に、(ST4084)では、特徴空間か
らクラスタの抽出が行われる。たとえば、図45の例で
は、プロットされた多数の点は、特徴空間では、ほぼ三
つの塊を形成している。これらをクラス1(C1)、ク
ラス2(C2)、クラス3(C3)とする。これらのク
ラス1(C1)〜クラス3(C3)を代表する点を各ク
ラスごとに一つ決定する。この従来例では、各クラスに
属する点の重心の位置をクラスの代表点として採用して
いる。これがクラス代表値4076である(ST408
5)。以上の処理が準備段階の処理である。
【0026】次に、実行段階の処理について説明する。
実行段階では、テレビカメラ4071の前に置かれた未
知の対象物の種類を判定する段階である。まず、(ST
4086)で未知の対象物4072をテレビカメラ40
71で撮像する。このテレビカメラ4071で撮像され
た画像信号は、(ST4087)において、領域抽出手
段4073で領域が抽出される。さらに、特徴抽出手段
4074でその抽出された領域の特徴が抽出される。特
徴の種類は準備段階における特徴と同様のものが使用さ
れる。すなわち、面積(X1′とする)、円らしさ(X
2′とする)である。
【0027】次に、(ST4088)で、クラス分類手
段4077により、この未知の対象物4072の特徴点
が特徴空間上のクラスに属するかを判定する。すなわ
ち、準備段階で得られた各クラス代表値{図45におけ
るクラス1(C1)、クラス2(C2)、クラス3(C
3)と、面積X1′、円らしさX2′}の距離を計算し
(図45におけるd1 ,d2 ,d3 に対応)、次の(S
T4089)で最も近いクラスを未知の対象物のクラス
であると決定し、処理を終了する(ST408A)。
【0028】次に、上記の従来の画像処理装置の一例と
しての画像認識装置の動作について説明する。図46は
グラフマッチング方式と呼ばれている従来の画像処理装
置の処理の流れを示すフローチャートである。この図4
6において、まず、(ST4101)で計算機内部に認
識に用いるモデルをグラフ表現したモデルグラフを生成
しておく。図47はモデルグラフの一例を示す。対象物
は領域分割され、各領域の相互関係がグラフ表現されて
いる。図47のノードA4111、ノードB4112、
ノードC4113はある対象物の領域を表しており、相
互に連結する矢印が領域間の関係を表現している。
【0029】次に、(ST4102)で認識対象物の画
像が入力され、続いて、(ST4103)で画像から適
当な領域抽出手段によって、いくつかの領域が抽出され
る。次の(ST4104)では、それらの領域の相互関
係がグラフ表現される。図47において、ノードa41
14、ノードb4115、ノードc4116が対象物の
複数の領域を表し、また、各ノードを連結する矢印が領
域間の関係を表している。対象物の認識は(ST410
5)でグラフ同士の照合により行われる。すなわち、図
47の例では、モデルグラフのノードを連結する矢印群
と、認識対象物である入力グラフのノードを連結する矢
印群が照合され、対応を示す矢印4117,4118,
4119のように表わされている。この対応付けの確か
さを何らかの評価指標で評価し、もっと確らしい対応を
もって、対象物を認識して、処理を終了する(ST41
06)。
【0030】以上で請求項7に関係する2種類の従来の
画像処理装置の動作の概略を説明したが、この説明から
も明らかなように、従来の画像処理装置では、画像の領
域を抽出し、認識過程に供する。したがって、次に、従
来の領域抽出手段の動作について説明する。図48は従
来の領域抽出手段を説明するためのフローチャートであ
る。まず、(ST4121)では、領域を抽出すべき画
像内のある画素Pi に注目する。図49はこの従来例で
画像から領域が抽出される様子を表現した図であり、図
49(a)は領域を抽出すべき画像平面4131を示
す。この例では、画像平面4131は3種類の画素、す
なわち、図中の「○」印、「△」印、「×」印で表現さ
れた画素から成っている。
【0031】次いで、(ST4122)では、注目画素
i を、注目画素P1i のもつ3種類の特徴量(Xi ,Y
i ,Zi )に応じて3次元の特徴空間にプロットする。
この場合の使用する特徴量は必ずしも3種類である必要
はないが、特徴空間の次元は特徴量の数に一致する。画
像平面4131上の全画素に対して、プロットしたか否
かを調べて(ST4123)、全画素に対してプロット
していなければ、(ST4124)で別の注目画素P1i
を選んで、再び(ST4122)の処理を行うが、上記
(ST4123)において、全画素に対してプロットし
終わって図49(b)に示すように写像すれば、(ST
4125)の処理を行う。
【0032】この(ST4125)では、特徴空間内の
多数の点をクラスタ分割する。図49(b)は図49
(a)で示した画像平面4131内のすべての画素が特
徴空間4132内にプロットされ、破線で包囲された三
つのクラスタに分割された様子を示している。図49
(a)の画像平面4131内の「○」印の画素群は特徴
空間4132では、破線で囲まれた部分4134にプロ
ットされている。同様に、画像平面4131内の「△」
印の画素群は部分4135にプロットされ、画像平面4
131内の「×」印の画素群は部分4136にプロット
されている。
【0033】この3種類の破線で囲まれた部分413
4,4135,4136を基に、(ST4126)で
は、画素を画像平面に図49(c)に示すように、逆写
像する。この図49(c)は逆写像された画像平面41
33を示している。すなわち、図49(b)に示した特
徴空間4132上で部分4134にプロットされた画素
は値「1」として画像平面4133に記録し、部分41
35にプロットされた画素は値「2」として画像平面4
133に記録し、部分4136にプロットされた画素は
値「3」として画像平面4133に記録して処理を終了
する(ST4127)。この時点で画像平面4133に
は、3種類の異なる値からなる画像が生成されており、
画像が領域に分かれている。従来の技術では、以上のよ
うに、領域抽出が行われる。
【0034】
【発明が解決しようとする課題】上記従来の画像処理装
置は、画像の類似度を計算するのに、(式1)のような
相互相関を求めることが必要なために、計算が複雑で処
理時間がかかるという問題点があった。また、(式1)
に表されているような演算をハードウェアで実現しよう
としても、回路が複雑で大規模になるという問題点があ
った。
【0035】また、上記請求項2及び3に関係する従来
の画像処理装置では、濃度ヒストグラムから2値化しき
い値を決定するため、濃度ヒストグラムが双峰性をもつ
ことが必要であり、無峰性、単峰性あるいは3つ以上の
ピークが存在するようなヒストグラムを生成する画像に
対しては良好なしきい値を決定することができず、2値
化によって領域をセグメント化しにくいという問題点が
あった。
【0036】上記請求項4に関係する従来の画像処理装
置では、頂点辞書をもとに輪郭点あるいは輪郭点から生
成した直線要素セグメント化するため、頂点辞書や、頂
点辞書との整合性を判断する手段が必要であり、通常そ
れらは複雑な手続きによるために処理時間がかかった
り、処理を電子回路で実現する場合には回路規模が大き
くなるという問題点があった。
【0037】さらに、上記請求項5及び6に関係する従
来の画像処理装置では、動きを抽出する前に移動領域が
抽出されていることが前提になっているが、例えば相関
法による移動領域抽出では、画面間での明るさや形状が
あまり変化しない場合以外は適用が困難であるという問
題点があった。動きベクトルを輪郭情報をもとに計算す
るのには時間がかかり、3枚以上の連続画像から逐次移
動領域の動きを抽出するような目的には不向きであると
いう問題点があった。
【0038】従来の技術では、輪郭線を使用して動きを
みつけているので、画面内に目的の物体以外の物体が複
数存在する場合には不要な輪郭線が発生し、正確な短線
分照合が困難になるという問題点もあった。
【0039】また、上記請求項第7項に関係する従来の
画像処理装置では、画像を領域に分割し、領域ごとに得
られた情報(特徴量)を基に認識を行うため、認識対象
物の領域分割が計算機モデルの領域情報と同じでない場
合には、認識の信頼性が著しく低下するという問題点が
あった。前述のグラフマッチングについては、前記文献
117頁にも「画像から完全な記述が得られれば、比較
的容易である」と解説されている。すなわち、領域分割
の信頼性が劣化し、結果が不安定な場合には、認識が困
難になるという問題点があった。
【0040】また、領域分割技術については、従来の技
術では、一つの面上ではよく似た特徴量をもつ画素が多
いという仮定のもとに、明るさ、色などの特徴量を使っ
て画像を領域に分割している。装置規模などの制約から
色情報が使用できない場合には、画素ごとの明るさ情報
が領域分割の重要な特徴量となる。したがって、面内で
明るさが変化する場合や、照明むらなどによって画像全
体に明るさ変化が生じている場合には、領域分割の結果
が不安定になり、結果的に上記従来例において、物体の
認識が困難になるという問題点があった。
【0041】この発明は上記のような問題点を解消する
ためになされたもので、原画像を空間的バンドパスフィ
ルタリング処理し、この処理値をしきい値処理して得た
データに基づいて画像処理を行う画像処理装置を得るこ
とを目的とする。
【0042】
【課題を解決するための手段】請求項1に係る発明は、
以上のような課題を解決するためになされたもので、
つのガウス関数の差を算出する空間的バンドパスフィル
タを参照パターンおよび目的画像のそれぞれに作用させ
る空間的バンドパスフィルタリング手段と、該空間的バ
ンドパスフィルタリング手段の出力を輪郭画素に対応す
る値よりも小さな第1のしきい値及び前記輪郭画素に対
応する値よりも大きな第2のしきい値を用いてしきい値
処理し3値画像を得る3値化処理手段と、該3値化処理
手段の出力をもとに画像の類似度を決定する類似度計算
手段とを設けた。
【0043】また、請求項2に係る発明は、上記課題を
解決するためになされたもので、2つのガウス関数の差
を算出する空間的バンドパスフィルタを原画像に作用さ
せる空間的バンドパスフィルタリング手段と、前記空間
的バンドパスフィルタリング手段の出力を輪郭画素に対
応する値よりも小さな第1のしきい値および前記輪郭画
素に対応する値よりも大きな第2のしきい値を用いて
きい値処理する3値化処理手段と、第1のしきい値と第
2のしきい値の間の値を持つ画素のみを用いて画像をセ
グメント化するような領域セグメント化手段を持つよう
にした。
【0044】また、請求項3に係る発明は、上記課題を
解決するためになされたもので、2つのガウス関数の差
を算出する空間的バンドパスフィルタを原画像に作用さ
せる空間的バンドパスフィルタリング手段と、前記空間
的バンドパスフィルタリング手段の出力を輪郭画素に対
応する値よりも小さな第1のしきい値及び前記輪郭画素
に対応する値よりも大きな第2のしきい値を用いて各画
素が3種類の値のどれかひとつを持つように変換する3
値化処理手段と、前記3値化処理手段の出力から前記3
種類の値ごとに領域をセグメント化する領域セグメント
化手段と、前記領域セグメント化手段の出力を必要に応
じて合成するセグメント合成手段をもつようにした。
【0045】また、請求項4に係る発明は、上記課題を
解決するためになされたもので、2つのガウス関数の差
を算出する空間的バンドパスフィルタを原画像に作用さ
せる空間的バンドパスフィルタリング手段と、前記空間
的バンドパスフィルタリング手段の出力を輪郭画素に対
応する値よりも小さな第1のしきい値及び前記輪郭画素
に対応する値よりも大きな第2のしきい値を用いてしき
い値処理する3値化処理手段と、第1のしきい値と第2
のしきい値の間の値を持つ画素のみを用いて画像をセグ
メント化するような領域セグメント化手段と、画像から
輪郭画素を抽出する輪郭抽出手段と、前記輪郭抽出手段
の出力である輪郭画素毎に該画素に最も近い領域セグメ
ントを求めることによって該画素のセグメント化を行な
う輪郭セグメント化手段を持つようにした。
【0046】また、請求項5に係る発明は、上記課題を
解決するためになされたもので、2つのガウス関数の差
を算出する空間的バンドパスフィルタを原画像に作用さ
せる空間的バンドパスフィルタ手段と、前記空間的バン
ドパスフィルタリング手段の出力を輪郭画素に対応する
値よりも小さな第1のしきい値及び前記輪郭画素に対応
する値よりも大きな第2のしきい値を用いてしきい値処
理するしきい値処理手段と、前記しきい値処理手段の出
力をもとに画像中の領域をラベル付けするラベリング手
と、前記ラベルの画像中の位置を検出するラベル位置
検出手段と、連続画像中の2つの異なった画像に対して
前記空間的バンドパスフィルタ手段、前記しきい値処理
手段、前記ラベリング手段、及び前記ラベル位置検出手
段をそれぞれ作用させて得られた2つのラベル位置の画
像上の位置関係から動いている物体の動きベクトルを抽
出する動きベクトル抽出手段をもつようにした。
【0047】また、請求項6に係る発明は、上記課題を
解決するためになされたもので、2つのガウス関数の差
を算出する空間的バンドパスフィルタを原画像に作用さ
せる空間的バンドパスフィルタ手段と、前記空間的バン
ドパスフィルタリング手段の出力を輪郭画素に対応する
値よりも小さな第1のしきい値及び前記輪郭画素に対応
する値よりも大きな第2のしきい値を用いてしきい値処
理するしきい値処理手段と、前記しきい値処理手段の出
力をもとに画像中の領域をラベル付けするラベリング手
と、前記ラベルの画像中の位置を検出するラベル位置
検出手段と、複数の原画像をもとに得られた複数のラベ
ル位置検出手段から前記複数の原画像上で動く注目物体
のラベルの画面間の対応付けを計算するラベル対応計算
手段と、前記連続画像の最初及び最後の画像から輪郭部
分を抽出する輪郭抽出手段と、前記ラベル対応計算手段
の出力及び前記輪郭抽出手段の出力をもとに前記連続画
像の最初と最後の画像間の注目する物体に関する視差を
計算する視差計算手段をもつようにした。
【0048】さらに、請求項7に係る発明は、上記課題
を解決するためになされたもので、認識すべき対象物の
原画像を得る原画像入力手段と、2つのガウス関数の差
を算出する空間的バンドパスフィルタを画像に作用させ
る空間的バンドパスフィルタ手段と、この空間的バンド
パスフィルタ手段の出力を輪郭画素に対応する値よりも
小さな第1のしきい値及び前記輪郭画素に対応する値よ
りも大きな第2のしきい値を用いてしきい値処理するし
きい値処理手段と、このしきい値処理した値から画像領
域を抽出するラベリング手段と、原画像から明るさをも
とにした濃度情報を抽出するための濃度情報抽出手段
と、ラベリング結果と濃度情報を合成して濃度情報付き
領域ラベル情報を生成する濃度情報付きラベル生成手段
と、濃度情報付きラベルをモデルデータと照合するマッ
チング手段をもつようにした。
【0049】
【作用】請求項1に係る発明は、参照パターンおよび目
的画像に対して、空間的バンドパスフィルタリングが施
され、さらにこの出力が2種類のしきい値によって3値
化され、3値表現された参照パターンと目的画像とをも
とに類似度を計算するように作用する。
【0050】また、請求項2に係る発明は、原画像に対
して空間的バンドパスフィルタがかけられ、その結果の
うち、予め設定された2つのしきい値にはさまれた値を
もつ画素のみを用いて領域がセグメント化されるように
作用する。
【0051】また、請求項3に係る発明は、原画像に対
して空間的バンドパスフィルタがかけられ、その結果の
うち、予め設定された2つのしきい値の大きいほうより
大きな値を持つ画素のみを用いて画像をセグメント化し
た結果、小さいほうより小さな値を持つ画素のみを用い
て画像をセグメント化した結果、および2つのしきい値
にはさまれた値をもつ画素のみを用いて画像をセグメン
ト化した結果をそれぞれ格納し、最後にそれらを合成し
て領域のセグメント化を行なうように作用する。
【0052】また、請求項4に係る発明は、予め画像に
対して空間的バンドパスフィルタがかけられ、その結果
のうち、予め設定された2つのしきい値にはさまれた値
をもつ画素のみを用いて領域がセグメント化され、原画
像から抽出された輪郭の各画素毎に該画素に最も近い前
記領域セグメント番号を調べてそれを該画素の番号とす
ることで、全ての輪郭画素をセグメント化するように作
用する。
【0053】また、請求項5に係る発明では、まず原画
像に対して空間的バンドパスフィルタがかけられ、その
結果をしきい値処理した後に特定の値をとる部分を使用
してラベリングが行われ、画像中の複数の領域が抽出さ
れ、位置が計算される。動きを抽出したい2枚の画像そ
れぞれに対して以上の処理が行われて最終的に領域の位
置関係から動きベクトルが抽出されるように作用する。
【0054】また、請求項6に係る発明では、原画像に
対して空間的バンドパスフィルタがかけられ、その結果
をしきい値処理した後に特定の値をとる部分を使用して
ラベリングが行われ、画像中の複数の領域が抽出され、
位置が計算される。さらに、連続した複数の原画像に対
して以上の処理が行われることで得られるラベル位置情
報をもとに、ラベル間の位置的対応が計算される。一
方、前記連続画像の最初と最後の原画像から輪郭部分が
抽出され、前記ラベル対応情報をもとに最終的に前記連
続画像の最初と最後の画像間の視差が計算されるように
作用する。
【0055】さらに、請求項7に係る発明では、空間的
バンドパスフィルタ手段により原画像に対して空間的バ
ンドパスフィルタをかけ、その結果をしきい値処理手段
によりしきい値処理した後、ラベリング手段により特定
のしきい値をとる部分を利用してラベリングを行って、
画像中の複数の領域を抽出する。また、原画像から前記
複数の領域に相当する部分の明るさ情報が領域ごとに濃
度情報抽出手段により取り出され、平均化されるなどの
加工処理を濃度情報付きラベル生成手段により行って濃
度情報付きラベルとして格納する。この後に、マッチン
グ手段により同様の形式であらかじめ計算機内に格納さ
れているモデルデータと照合されて、対象物を認識する
ように作用する。
【0056】
【実施例】
実施例1.以下、本発明の実施例1について添付した図
面を用いて説明する。図1は、本発明の実施例1におけ
る画像処理装置の構成を示すブロック図であり、図2は
実施例1の動作の主要部分の流れを示すフローチャート
である。以下このフローチャートにそって画像処理装置
の動作を説明する。
【0057】画像処理装置は動作を開始すると(ST2
1)、最初に予め装置内に格納されていた濃淡画像とし
ての参照パターン14に対してDOGフィルタリング手
段15によりDOGフィルタを作用させる(ST2
2)。DOGフィルタとは、Difference of Gaussianの
フィルタの意味であり、一次元のフィルタは以下のよう
な式で定義される。
【0058】 DOG(x)=[1/((2π)1/2Se)]exp(-x2/(2Se2)) -[1/((2π)1/2Si)]exp(-x2/(2Si2)) (式2)
【0059】この(式2)の右辺は、2つのガウス関数
の差になっている。Se,Siはそれぞれガウス関数の
標準偏差を決定するパラメータであり、定数である。図
3に示したのは(式2)で表現されたDOG関数の一例
である。画像処理装置では2次元の画像を扱うので、D
OG関数は以下の(式3)のようになる。
【0060】 DOG(x,y)=[1/((2π)1/2Se)]exp(-(x+y)2/(2Se2)) -[1/((2π)1/2Si)]exp(-(x+y)2/(2Si2)) (式3)
【0061】このようなDOG関数は、空間的にはバン
ドパスフィルタとしての性質を示している。画像処理装
置では、Se=1.0、Si=1.6とし、ディジタルフィ
ルタとしてのフィルタサイズを7×7画素とした。
【0062】DOGフィルタリング手段15の出力はし
きい値処理手段16によって、3値化処理される(ST
23)。図4はDOGフィルタおよび3値化処理の効果
を説明する図である。簡単のために1次元の場合を説明
する。図4(a)は原画像中の輪郭近傍における濃度パ
ターン41を示している。これに(式2)のようなDO
Gフィルタをかけると、図4(b)のような出力42が
得られる。原画像にフィルタを作用させるには、原画像
と2次元DOGフィルタ関数の畳み込み演算を行なう。
3値化のために、2種類のしきい値th1(421)お
よびth2(422)が設定されている。画像処理装置
ではth1>0、th2<0、th1=−th2となる
ように選んでいる。ここでは輪郭画素に対応する値を
0、輪郭画素に対応する値よりも小さな第1のしきい値
をth2、輪郭画素に対応する値よりも大きな第2のし
きい値をth1としたものを用いて説明する。3値化は
これら2つのしきい値により、前記DOGフィルタリン
グ手段15の出力を、th1より大きい画素は+1、t
h2とth1の間の値をもつ画素は0、th2以下の値
をもつ画素は−1となるように処理する。図4(c)は
(b)のDOG出力を3値化信号43化した様子を示し
ている。3値化された画像はメモリ#1(17)に格納
される。
【0063】(ST24)ではカメラである原画像入力
手段11から画像を取り込み、DOGフィルタリング手
段12によってDOGフィルタを作用させる。次いでそ
の出力をしきい値処理手段13によって3値化する(S
T25)。3値化された画像はメモリ#2(18)に格
納される。
【0064】(ST26)では参照パターンと目的画像
の重ね合わせ位置を示す重ね合わせずれ量(a,b)が
決定される。(ST27)で、前記ずれ量にしたがって
目的画像の上に参照パターンが重ね合わされ、メモリ#
1(17)、メモリ#2(18)からそれぞれ読み出さ
れた値をもとに、類似度計算手段19によって類似度が
計算される。類似度Mは次式によって計算される。な
お、i=0〜n、j=0〜mである。
【0065】 M(a,b)=ΣΣf(R(i,j),I(i+a,j+b)) (式4)
【0066】ここで、mは参照パターンのj方向のサイ
ズ、nはi方向のサイズ、R(i,j)は参照パター
ン、I(i,j)は目的画像である。f(α,β)は参
照パターンの値がαで、目的画像の値がβであるときの
評価値を決定する関数で、図5に示したような値をと
る。計算された類似度は(ST28)でスコアマップ2
0に格納される。ずれ量(a,b)について、予め設定
されている全範囲にわたって調べられていないなら(S
T29)、再び(ST26)に戻って新しいずれ量
(a,b)を決定して(ST27)から(ST28)ま
での処理を繰り返す。(ST29)で全範囲調べ終わっ
たならば制御手段21によってスコアマップ20が探索
され、最も大きい値をとる位置(az ,bz )が見つけ
られて(ST2A)、処理が終了する(ST2B)。こ
の位置(az ,bz )は目的画像中で最もよく参照パタ
ーンと一致する重ね合わせの位置を示しており、テンプ
レートマッチングが行われたことになる。制御手段21
は、スコアマップ処理(ST2A)の他にも図1におけ
る各手段の動作を制御しているが、本実施例ではとくに
その動作が重要ではないので記述しない。
【0067】次に、実施例1の類似度計算手段19の動
作を電子回路で構成した例について説明する。図6は類
似度計算手段19の電子回路による構成を説明するため
の回路図である。メモリ#1(17)には、目的画像に
関して、原画像にDOGフィルタを作用させた後に3値
化を行なった画像(以下、BLOB化された画像と呼
ぶ)が格納されており、メモリ#2(18)には参照パ
ターンにおけるBLOB化された画像が格納されてい
る。(式4)によれば、参照パターンを目的画像中でず
れ量を与えて重ね合わせる動作は、目的画像の一部分を
参照パターンと同じウィンドウとして使用し、参照パタ
ーンと重ね合わせる動作と等価である。図6は、あるず
れ量にしたがって目的画像上にウィンドウが設定された
ことを表している。メモリ#1(17)、メモリ#2
(18)にはそれぞれ−1,0,+1に3値化された画
像が格納されているので、メモリの出力は2ビットであ
る。2ビットそれぞれの信号は、 信号I(またはR)の値が+1のとき、MSB=0、L
SB=1であり、 信号I(またはR)の値が±0のとき、MSB=0、L
SB=0であり、 信号I(またはR)の値が−1のとき、MSB=1、L
SB=1である。 MSBとは(Most Significant Bit)で最上位ビット、
LSBとは(Least Significant Bit)で最下位ビットを
示す。図の信号R(62)と信号I(61)はそれぞれ
上記の2ビットで表現されたメモリ#1(17)、メモ
リ#2(18)の出力を示している。
【0068】ここで、(63)は信号I(61)が1の
ときに出力X0(67)を1にし、それ以外の時には出
力を0にする論理素子1であり、(64)は信号I(6
1)が−1のときに出力X1(69)を1にし、それ以
外の時には出力を0にする論理素子2であり、(65)
は信号R(62)が1のときに出力Y0(68)を1に
し、それ以外の時には出力を0にする論理素子3であ
り、(66)は信号R(62)が−1のときに出力Y1
(70)を1にし、それ以外の時には出力を0にする論
理素子4である。図7は本回路図で用いている論理素子
の機能を説明するための図であるが、信号Iと信号Rの
組み合わせが与えられたときの、これら4つの論理素子
の出力X0,X1,Y0,Y1を図7(a)に示してい
る。
【0069】論理素子(71)および(72)はそれぞ
れ2入力1出力の論理素子5、論理素子6であり、動作
論理は同一で図7(b)に示されている。素子(75)
は2つの入力の算術和を出力Mとする素子である。従っ
て信号Iと信号Rの組み合わせが与えられたときの、M
は図7(c)のようになる。このMをスコアとして、参
照パターンの全ての画素に対してスコアマップ20に累
積した結果が類似度となる。以上のような電子回路構成
にすれば、簡単な論理素子と算術和を計算する素子だけ
で類似度計算手段19を構成できる。
【0070】なお、本実施例1では参照パターンと目的
画像のDOGフィルタリング手段を別々の手段として説
明したが、同じ手段をもって共用させることが可能であ
り、回路規模を小さくできる。
【0071】また、本実施例1では参照パターンと目的
画像のしきい値処理手段を別々の手段として説明した
が、同じ手段をもって共用させることが可能であり、回
路規模を小さくできる。
【0072】また、本実施例1では原画像をカメラから
入力した後にそのままDOGフィルタを作用させたが、
ノイズ除去を行なうなどの前処理を通してからDOGフ
ィルタを作用させてもよい。
【0073】また、本実施例1では原画像をカメラから
入力した後にそのままのサイズでDOGフィルタを作用
させる場合を説明したが、前もって原画像を縮退させて
からDOGフィルタを作用させれば、見かけ上DOGフ
ィルタのサイズが大きいものを作用させたと同様の効果
がある。
【0074】また、本実施例1では、Se=1.0、Si
=1.6、フィルタサイズ7×7にしたが、目的に応じて
これらの大きさを変化させて用いてもよい。例えば、フ
ィルタサイズが大きいほど大きな濃度変化が無視され、
画像中の大まかな特徴がセグメントとして抽出されるこ
とになる。
【0075】また、本実施例1では、画素ごとの一致度
合いを示す評価値を図5のように設定した例を説明した
が、他の値を用いてもよく、目的画像の値Iと参照パタ
ーンの値Rがよく一致しているときには高い評価値を、
あまりよく一致していないときには低い評価値を与える
ことで評価の目的は達せられる。
【0076】また、本実施例1では参照パターンを予め
装置内部に格納しておく場合について説明したが、類似
度を求める度にカメラ等から入力してもよいことは言う
までもない。
【0077】実施例2.以下、本発明の実施例2につい
て添付した図面を用いて説明する。図8は、本発明の実
施例2における画像処理装置の構成を示すブロック図で
あり、図9は、実施例2の動作の流れを示すフローチャ
ートである。以下このフローチャートにそって実施例2
の動作を説明する。
【0078】画像処理装置は最初に原画像入力手段20
11により、カメラから原画像を取り込む(ST221
およびST222)。原画像は続くDOGフィルタリン
グ処理(ST223)でDOGフィルタリング手段20
12により、処理される。DOGフィルタとは、Differ
ence of Gaussianのフィルタの意味であり、一次元のフ
ィルタは前述した式2で定義される。この式2の右辺
は、2つのガウス関数の差になっている。Se,Siは
それぞれガウス関数の標準偏差を決定するパラメータで
あり、定数である。画像処理装置では2次元の画像を扱
うので、DOG関数は同じく前述した式3のようにな
る。画像処理装置では、Se=1.0、Si=1.6とし、
ディジタルフィルタとしてのフィルタサイズを7×7画
素とした。
【0079】DOGフィルタをかけられた画像はメモリ
#1(2013)に格納される。(ST224)ではメ
モリ#1(2013)の画像に対して3値化処理手段2
014が3値化処理を行なう。前述したように、図4は
DOGフィルタおよび3値化処理の効果を説明する図で
ある。簡単のために1次元の場合を説明する。図4
(a)は原画像中の輪郭近傍における濃度パターンを示
している。これに(式2)のようなDOGフィルタをか
けると、図4(b)のような出力が得られる。原画像に
フィルタを作用させるには、原画像と2次元DOGフィ
ルタ関数の畳み込み演算を行なう。3値化のために、2
種類のしきい値th1およびth2が設定されている。
画像処理装置ではth1>0、th2<0、th1=−
th2となるように選んでいる。3値化はこれら2つの
しきい値により、メモリ#1(2013)の画像をth
1より大きい画素は+1、th2とth1の間の値を持
つ画素は0、th2以下の値を持つ画素は−1となるよ
うに処理する。図4(c)は(b)のDOG出力を3値
化した様子を示している。3値化された結果はメモリ#
2(2015)に格納される。
【0080】(ST225)では、メモリ#2(201
5)の画像が領域セグメント化手段2016によりセグ
メント化され、結果がメモリ#3(2017)に格納さ
れて画像処理装置の動作が終了する(ST226)。図
10は以上の処理結果を模式的画像で示したもので、図
10(a)は原画像であり、図中の[]内の数値は画像
濃度である。図10(b)に示したのはメモリ#3(2
017)の内容であり、領域A,B,C,D,Eがセグ
メント化されている。以上の一連の動作はすべてCPU
からなる制御手段2018によって制御されている。
【0081】なお、本実施例2では、原画像やDOG出
力画像をメモリに格納したが、DOGフィルタリング処
理や3値化処理はラスター走査で処理可能なので、処理
をパイプライン結合することでメモリを不要とすること
も可能である。
【0082】また、本実施例2では3値化処理手段20
14の出力をメモリ#2(2015)に格納し、領域セ
グメント化手段2016に入力したが、DOGフィルタ
の処理結果を格納したメモリ#1(2013)を直接読
みだして領域セグメント化処理手段2016に入力し、
しきい値処理を同時に行ってもよい。
【0083】また、本実施例2では3値化処理のしきい
値として、th1=−th2となるようにしきい値を選
んだが、必ずしもそのように選ぶ必要はなく、例えばt
h1=−(2/3)th2のように設定してもよい。
【0084】また、本実施例2では原画像に直接DOG
フィルタを作用させたが、原画像にノイズ除去などのフ
ィルタをかけてからDOGフィルタ処理を行っても同様
の効果がある。
【0085】また、本実施例2では原画像に直接DOG
フィルタを作用させたが、原画像を適当な大きさに縮退
してからDOGフィルタ処理を行なう事で、見かけ上よ
り大きなサイズのDOGフィルタを作用させたようなふ
るまいをさせることもできる。
【0086】また、本実施例2では、Se=1.0、Si
=1.6、フィルタサイズ7×7にしたが、目的に応じて
これらの大きさを変化させて用いてもよい。例えば、フ
ィルタサイズが大きいほど大きな濃度変化が無視され、
画像中の大まかな特徴がセグメントとして抽出されるこ
とになる。
【0087】また、本実施例2では制御手段2018と
してCPUによる制御の場合を説明したが、DOGフィ
ルタリング手段2012、3値化処理手段2014、領
域セグメント化手段2016の3つの部分をパイプライ
ンでつなぎ、制御を簡略化してCPUを用いない制御形
式にすることもできることは容易に想像できるとおりで
ある。
【0088】実施例3.以下、本発明の実施例3につい
て添付した図面を用いて説明する。図11は、本発明の
実施例3における画像処理装置の構成を示すブロック図
であり、図12は実施例3の動作の1部の流れを示すフ
ローチャートである。以下このフローチャートにそって
実施例3の動作を説明する。
【0089】画像処理装置は、まず最初に原画像入力手
段2011によってカメラから画像入力され、原画像が
DOGフィルタリング手段2012によってDOGフィ
ルタを施され、その結果がメモリ#1(2013)に格
納される。DOGフィルタの定義およびその基本的なふ
るまいについては前に説明した内容と同様であるので省
略する。メモリ#1(2013)の内容は3値化処理手
段2014により、3値化されメモリ#2(2015)
に格納される。ここまでの画像処理装置の動作は実施例
2における動作の流れと同一であり、図9の(ST22
1),(ST222),(ST223),(ST22
4)の各ステップに相当する。
【0090】(ST271)で3値化画像が読み出さ
れ、(ST272)で0領域セグメント化手段2061
により、3値化画像の値が0である画素のみがセグメン
ト化され、一時内部画像メモリ格納される。続いて(S
T273)で+領域セグメント化手段2062により、
3値化画像の値が+1である画素のみがセグメント化さ
れ、その結果が前記内部画像メモリに格納される。同様
に(ST274)で−領域セグメント化手段2063に
より、3値化画像の値が−1である画素のみがセグメン
ト化され、その結果が前記内部画像メモリに格納され
る。図13はこれら3種類の領域セグメント化手段によ
る処理結果を示した模式的画像である。図13(a)は
原画像を表現しており、図中[]内の数値は画素値(濃
度)である。図13(b)は前記内部画像メモリの内容
を示しており、R00,R10,R20,R30,R4
0,R50の各領域は0領域セグメント化手段2061
によりセグメント化された領域を示しており、R1+,
R2+,R3+,R4+の各領域は+領域セグメント化
手段2062によりセグメント化された領域を示してお
り、R1−,R2−,R3−,R4−の各領域は−領域
セグメント化手段2063によりセグメント化された領
域を示している。図中の点線部分は、参考までに図4
(c)のゼロクロス点を示している。ゼロクロス点は領
域の1つの境界を示していると言える。
【0091】次に、セグメント合成手段2064につい
て説明する。(ST275)では前記内部メモリからセ
グメント化された0領域を一つ選び、それを領域Aとす
る。(ST276)で領域Aの面積を予め設定しておい
たしきい値thと比較し、しきい値より大きければ再び
(ST275)に戻って別の0領域を選ぶ。しきい値よ
り小さければ、(ST277)で領域Aと隣接するセグ
メントを前記内部画像メモリより選択し、それを領域B
とする。図14のように、例えば、周囲より濃度の明る
い領域は、いちばん内側に0領域を有し、その周りを取
り囲むようにして+領域が存在し、さらに周りに−領域
が存在する。即ち、例えば選んだ0領域(A)が領域R
10なら、領域Bは領域R1+である。(ST278)
で、領域AとBの論理和領域をとり、合成セグメントと
してメモリ#3(2017)に書き込む。(ST27
9)で全ての0領域について(ST275)から(ST
278)までの処理を行っていないのなら、再び(ST
275)に戻って処理を繰り返し、全ての0領域につい
て処理を行なったのなら、画像処理装置の動作は全て終
了する(ST27A)。図14は、最終的にメモリ#3
(2017)に格納されている画像の一例であり、図1
3と対応している。図13(b)における0領域だけを
抽出した結果よりも、ゼロクロス点を輪郭としている点
で正確な領域抽出結果であると言える。
【0092】なお、本実施例3では、セグメント合成を
行なう際に、一定の面積以上の0領域についてのみそれ
に隣接するセグメントを併合したが、面積だけでなく例
えば領域の平均濃度などの属性を判断基準にし、基準に
適合する0領域だけをセグメント合成処理に供するよう
にしてもよい。
【0093】なお、本実施例3では、原画像やDOG出
力画像をメモリに格納したが、DOGフィルタリング処
理や3値化処理はラスター走査で処理可能なので、処理
をパイプライン結合することでメモリを不要とすること
も可能である。
【0094】また、本実施例3では3値化処理手段20
14の出力をメモリ#2(2105)に格納し、0,
+,−の各領域セグメント化手段に入力したが、DOG
フィルタの処理結果を格納したメモリ#1(2013)
を直接読みだして領域セグメント化処理手段に入力し、
しきい値処理を同時に行ってもよい。
【0095】また、本実施例3では原画像に直接DOG
フィルタを作用させたが、原画像にノイズ除去などのフ
ィルタをかけてからDOGフィルタ処理を行っても同様
の効果がある。
【0096】また、本実施例3では原画像に直接DOG
フィルタを作用させたが、原画像を適当な大きさに縮退
してからDOGフィルタ処理を行なう事で、見かけ上よ
り大きなサイズのDOGフィルタを作用させたようなふ
るまいをさせることもできる。
【0097】また、本実施例3では図11の各手段を統
括的に制御する制御手段の存在しない場合について説明
したが、各手段の処理タイミングなどを制御する制御手
段をCPUなどを用いて構成してもよい。
【0098】また、本実施例3では0領域に隣接する領
域を1つだけ合成した例を示したが、0領域に隣接する
領域にさらに隣接する領域をも合成するようにすれば物
体のゼロクロスを内包する領域がセグメント化され、目
的によってはこのほうが好ましい場合もある。
【0099】実施例4.以下、本発明の実施例4につい
て添付した図面を用いて説明する。図15は、本発明の
実施例4における画像処理装置の構成を示すブロック図
であり、図16は実施例4の動作の流れを示すフローチ
ャートである。以下このフローチャートにそって実施例
4の動作を説明する。
【0100】画像処理装置は、動作を開始すると(ST
2111)、まず最初に原画像入力手段2011によっ
てカメラから画像が入力され(ST2112)、さらに
DOGフィルタリング手段2012によってDOGフィ
ルタリング処理が行われ(ST2113)、その結果が
メモリ#1(2013)に格納される。DOGフィルタ
の定義およびその基本的なふるまいについては前に説明
した内容と同様であるので省略する。また、DOGフィ
ルタの諸定数Se,Si、およびフィルタサイズは実施
例2のものと同様のものを用いた。メモリ#1(201
3)の内容は3値化処理手段2014により、3値化さ
れ(ST2114)、メモリ#2(2015)に格納さ
れる。メモリ#2(2015)の内容は領域セグメント
化手段2016によって3値化しきい値th1,th2
の間の値を持つ画素だけがセグメント化され(ST21
15)、その結果はメモリ#3(2017)に格納され
る。
【0101】また、メモリ#1(2013)の内容であ
るDOGフィルタ出力は、ゼロクロス検出手段2101
によってゼロクロス点が抽出され(ST2116)、そ
の結果はメモリ#2′(2102)に格納される。ここ
で、ゼロクロス点とは、DOGフィルタ出力が0になる
点(画素)のことであり、図4(c)に図示されている
位置に相当する。図17は、ある画像例にするメモリ#
3(2017)とメモリ#2′(2102)の内容を重
ねて模式的に表現した画像であり、このようにいくつか
のセグメント化された領域(A,B,C,D)と領域の
境界にも相当する物体の輪郭がいくぶん離れて存在して
いる。
【0102】次に、輪郭セグメント処理(ST211
7)について説明する。ここではメモリ#2′(210
2)に格納されたゼロクロス画素ひとつひとつごとに、
その画素をもっとも近い位置にある領域セグメントをメ
モリ#3(2017)から抽出し、そのセグメント番号
をゼロクロス画素のセグメント番号とする。図18はこ
の処理の様子を説明するための模式図であるが、ゼロク
ロス画素のひとつである点P(2134)に注目してい
るところである。点Pを中心として予め設定された大き
さの円形の探索エリア(2131)内を探索し、最もP
に近い領域を求める。図18では探索エリア(213
1)内に、領域A(2132)と領域B(2133)の
一部が存在するが、P(2134)に近いのは領域B
(2133)である。そこで点P(2134)のセグメ
ント番号は領域B(2133)のセグメント番号と同じ
番号が割り当てられることになる。その結果はメモリ#
4(2104)に格納される。このようにして、すべて
のメモリ#2′(2101)内のゼロクロス点について
セグメント番号が割り当てられたら、処理を終了する
(ST2118)。
【0103】なお、本実施例4では、原画像やDOG出
力画像をメモリに格納したが、DOGフィルタリング処
理や3値化処理はラスター走査で処理可能なので、処理
パイプライン結合することでメモリを不要にすることも
可能である。
【0104】また、本実施例4では3値化処理手段の出
力をメモリ#2に格納したが、DOGフィルタの処理結
果を格納したメモリ#1を直接読みだして領域セグメン
ト化処理手段に入力し、しきい値処理を同時に行っても
よい。
【0105】また、本実施例4では原画像に直接DOG
フィルタを作用させたが、原画像にノイズ除去などのフ
ィルタをかけてからDOGフィルタ処理を行っても同様
の効果がある。
【0106】また、本実施例4では原画像に直接DOG
フィルタを作用させたが、原画像を適当な大きさに縮退
してからDOGフィルタ処理を行なう事で、みかけ上よ
り大きなサイズのDOGフィルタを作用させたようなふ
るまいをさせることもできる。
【0107】また、本実施例4では図15の各手段を統
括的に制御する制御手段の存在しない場合について説明
したが、各手段の処理タイミングなどを制御する制御手
段をCPUなどに用いて構成してもよい。
【0108】また、本実施例4では輪郭抽出手段とし
て、DOGフィルタ出力からゼロクロス部分を取り出す
ことで実現したが、SOBELやLAPIACIANな
どのエッジ検出フィルタなどを用いて輪郭を抽出しても
よい。
【0109】また、本実施例4では輪郭セグメント化処
理として、ゼロクロス上の画素ひとつひとつについてセ
グメント化を行なったが、ゼロクロス点を予め線分要素
に再構成しておき、線分要素ごとに領域セグメントとの
距離を調べてセグメント化することもできる。
【0110】また、本実施例4ではゼロクロス点につい
て最も近い領域セグメントのみを選んでそのゼロクロス
点のセグメント番号としたが、最も近い領域セグメント
番号だけでなく、2番目に近い領域セグメント番号をも
調べてそのゼロクロス点のセグメント第2候補として保
存させることにより、該ゼロクロス点がどの2つの領域
の境界であるかを格納する効果があると思われる。
【0111】さて、以上3つの実施例2、実施例3及び
実施例4を独立に説明したが、実施例4における領域セ
グメント化手段に実施例2や実施例3を応用することも
可能である。
【0112】また、原画像が3次元の物体であるときに
は実施例2を用い、原画像が2次元のパターンであるこ
とが既知の場合には実施例3を用いるというように、場
合によって使い分けることも可能であり、効果が大き
い。
【0113】実施例5.以下、本発明の実施例5につい
て、添付した図面を用いて説明する。図19は、本発明
の実施例5における画像処理装置の構成を示すブロック
図であり、図20は画像処理装置の動作の流れを示すフ
ローチャートである。以下このフローチャートにそって
画像処理装置の動作を説明する。
【0114】画像処理装置は起動(ST3021)後、
(ST3022)で、原画像が外部から入力され、画像
F1が原画像メモリF1(3011)に格納される。同
様に(ST3023)では画像F2が原画像メモリF2
(3016)に格納される。画像F2は画像F1から3
3ミリ秒後の画像である。図22は連続した画像を模式
的に表現したものである。図22(a)は画像F1(3
051)を、(b)は画像F2(3052)を示してい
る。画像には2つの円柱状の積み木が映っており、両方
ともF1からF2に至る間に画面上を右側に移動してい
る。(ST3024)では前記原画像に対してDOGフ
ィルタ手段3012,3017によってDOGフィルタ
がかけられる。DOGフィルタとは、Difference of Ga
ussianフィルタの意味であり、一次元のフィルタは前述
した(式2)で定義される。
【0115】この(式2)の右辺は、2つのガウス関数
の差になっている。Se,Siはそれぞれガウス関数の
標準偏差を決定するパラメータであり、定数である。図
21に示したのは(式2)で表現されたDOG関数(3
031)の一例である。同時に(式2)の右辺第1項で
表現された関数(3032)、および同右辺第2項で表
現された関数(3033)も示した。画像処理装置では
2次元の画像を扱うので、DOG関数は同様に前述した
(式3)のようになる。画像処理装置では、Se=1.
0、Si=1.6とし、ディジタルフィルタとしてのフィ
ルタサイズを7×7画素とした。
【0116】(ST3025)では、前記DOGフィル
タ手段の出力に対してしきい値処理手段3013,30
18により、しきい値処理が行われる。図4はDOGフ
ィルタおよびしきい値処理の効果を説明する図である。
簡単のために1次元の場合を説明する。(a)は原画像
中の輪郭近傍における濃度パターンを示している。これ
に(式2)のようなDOGフィルタをかけると、図4
(b)のような出力がえられる。原画像にフィルタを作
用させるには、原画像と2次元DOGフィルタ関数の畳
み込み演算を行なう。本実施例5ではしきい値処理とし
て、2種類のしきい値th1およびth2による画像信
号の3値化を用いている。th1,th2の例は図4
(b)に示されている。画像処理装置ではth1>0、
th2<0、th1=−th2となるように選んでい
る。しきい値処理手段はこれら2つのしきい値により、
前記DOGフィルタ手段の出力を、th1より大きい画
素は+1、th2とth1の間の値を持つ画素0、th
2以下の値を持つ画素は−1となるように処理する。図
4(c)は同図(b)のDOG出力を3値化した様子を
示している。
【0117】(ST3026)では、前記しきい値処理
手段による出力画像が、ラベリング手段3015,30
19により処理され、画像中の複数の領域が抽出され
る。本実施例5では、図4(c)の値0の部分のみをラ
ベリングに使用している。図23(a)および(b)は
本実施例5におけるラベリング結果の例を示している。
図中の斜線を施した部分がラベルであり、図23(a)
は画像F1(3051)に対応しており、(b)は画像
F2(3052)に対応している。同図で、A(306
1)、B(3062)、C(3063)、D(306
4)は画像F1から抽出されたラベルであり、A′(3
066)、B′(3067)、C′(3068)、D′
(3069)は画像F2から抽出されたラベルである。
図4(c)からもわかるように、画像信号の中で濃度変
化の小さい部分が主に取り出されて領域として抽出され
る。
【0118】(ST3027)では、前記ラベリング手
段3014,3019の各出力に対して、ラベル位置検
出手段3015,301Aによって各画像中のラベル位
置が検出される。本実施例5ではラベル領域の重心の位
置が検出されている。図23において、Gk (306
5)およびGk+1 (306A)はそれぞれラベルD(3
064)、ラベルD′(3069)に対応する重心位置
である。
【0119】最後に(ST3028)で、動きベクトル
抽出手段301Bによって前記ラベル位置情報(306
4,3069)から物体の動きベクトルが抽出される。
動きベクトルは2枚の画像から得られた、対応する領域
重心を結ぶベクトルである。図23では(c)に抽出さ
れた動きベクトルが表されている。画像F1中のラベル
D(3064)の位置Gk (3065)の、移動後の位
置が、画像F2のどのラベル位置に対応するのかについ
ては、画面上のGk の位置に最も近い画像F2上のラベ
ル位置を選択することで決定される。本実施例5では説
明のために、図22および図23において連続する2枚
の画像中の円柱上積み木の移動を誇張して描いたが、実
際には画面寸法の1/100程度の動きであるから、こ
のような簡単な処理で、対応付けが可能である。
【0120】なお、本実施例5では、原画像を一旦メモ
リに格納したが、TVカメラからの信号を直接DOGフ
ィルタ手段や濃度情報抽出手段に入力してもよい。
【0121】また、本実施例5では原画像に直接DOG
フィルタを作用させたが、原画像にノイズ除去などのフ
ィルタをかけてからDOGフィルタ処理を行っても同様
の効果がある。
【0122】また、本実施例5では原画像に直接DOG
フィルタを作用させたが、原画像を適当な大きさに縮退
してからDOGフィルタ処理を行なう事で、見かけ上よ
り大きなサイズのDOGフィルタを作用させたようなふ
るまいをさせることもできる。
【0123】また、本実施例5では、DOGフィルタの
形状を決める係数として、式2におけるSe=1.0、S
i=1.6、サイズ7×7にしたが、この値は自由に決め
ても差し支えなく、本発明の効果に特に影響を与えな
い。
【0124】また、本実施例5では、しきい値処理での
2つのしきい値、th1とth2について、th1=−
th2であるような値を使用したが、他の値を用いてし
きい値処理してもよく、また3値化処理である必要もな
い。
【0125】また、本実施例5では、ラベル位置検出手
段として、ラベル領域の重心を検出する手段を用いた
が、ラベルの位置を定義する他の手法を用いてもよく、
同様の効果を奏する。
【0126】また、本実施例5では、33ミリ秒離れた
2枚の連続画像を処理する場合について説明したが、も
っと近い間隔で入力された画像、あるいはもっと離れた
間隔で入力された画像を扱う場合でも同様の装置構成で
処理が可能である。
【0127】また、本実施例5では、原画像メモリ、D
OGフィルタ手段、しきい値処理手段、ラベリング手
段、ラベル位置検出手段を、それぞれ2つづつ持つ構成
を示したが、処理時間をずらせて同一の手段で処理を行
なうことも可能であり、装置規模が半分になるという利
点がある。
【0128】実施例6.以下、本発明の実施例6につい
て、添付した図面を用いて説明する。図24は、本発明
の実施例6における画像処理装置の構成を示すブロック
図であり、図25は実施例6の動作の流れを示すフロー
チャートである。以下このフローチャートにそって実施
例6の動作を説明する。
【0129】本実施例6では、第1フレームから第nフ
レームまでの連続するn枚の画像を扱う。nは10〜2
0程度である。画像はそれぞれ33ミリ秒間隔で入力さ
れたもので、第1フレームと第nフレームの画像から視
差を計算してステレオ視の原理により画像中の物体の奥
行きを計算することが処理の目的である。さて、最初
に、画像処理装置が起動すると(ST3081)、内部
カウンタkの値が1にセットされる(ST3082)。
次いで(ST3083)で画像入力手段から第1フレー
ムの画像が入力され、原画像メモリF1(3071A)
に格納される。原画像F1は、(ST3084)でDO
Gフィルタ手段3072AによってDOGフィルタが施
される。DOGフィルタとは、前述した各実施例でも述
べたように、Difference of Gaussianフィルタの意味で
あり、一次元のフィルタは前述した(式2)で定義され
る。画像処理装置では2次元の画像を扱うので、DOG
関数は前述した(式3)のようになる。この画像処理装
置では、Se=1.0、Si=1.6とし、ディジタルフィ
ルタとしてのフィルタサイズを7×7画素とした。
【0130】(ST3085)では、前記DOGフィル
タ手段の出力に対してしきい値処理手段3073Aによ
り、しきい値処理が行われる。DOGフィルタおよびし
きい値処理の効果については前述したので説明を省略す
る。
【0131】(ST3086)では、前記しきい値処理
手段3073Aによる出力画像が、ラベリング手段30
74Aにより処理され、画像中の複数の領域が抽出され
る。本実施例6では、図4(c)の値0の部分のみをラ
ベリングに使用している。図26は本実施例6の処理画
像の様子を模式的に表した図である。第1フレームの画
像に対応するラベルの例は図26中で、L1(309
5)で表されている。図4(c)からもわかるように、
画像信号の中で濃度変化の小さい部分が主に取り出され
領域として抽出される。
【0132】(ST3087)では、前記ラベリング手
段の出力に対して、ラベル位置検出手段3075Aによ
って各画像中のラベル位置が検出される。本実施例6で
はラベル領域の重心の位置が検出されている。図26に
おいて、第1フレームの領域ラベルL1(3095)の
重心はG1(3099)で表されている。
【0133】次に、(ST3088)で、ラベル対応計
算手段3077によって、前記ラベル位置検出手段の出
力が、ひとつ前のフレームにおけるラベル位置との位置
関係が計算され、ラベル間の対応が記録される。例え
ば、第2フレームの領域ラベルL2(3096)の重心
G2(309A)の位置は、ひとつ前のフレームの領域
ラベルL1(3095)の重心G1(3099)と最も
近いため、これらの間に対応があると認識され、その結
果が記録される。
【0134】(ST3089)では、もし現在のカウン
タkの値が1ならば、輪郭抽出手段3076Aによって
第1フレームのDOGフィルタ手段3072Aの出力を
もとに画像の輪郭部分が抽出され(ST308A)、さ
らにカウンタkの値が1だけ増やされて(ST308
B)、その後(ST3083)から(ST3088)ま
での処理を繰り返すことになる。この際、原画像メモ
リ、DOGフィルタ手段、しきい値処理手段、ラベリン
グ手段、及びラベル位置検出手段は図24の該当する部
分で行われる。(ST3089)でkの値が1でないな
ら、処理は次のステップにすすむ。
【0135】(ST308C)では、さらにカウンタk
の値がnであれば、処理(ST308E)に進むが、k
がnでなければ、kの値が1だけ増やされて(ST30
8D)、その後(ST3083)から(ST3088)
までの処理を繰り返すことになる。この際、原画像メモ
リ、DOGフィルタ手段、しきい値処理手段、ラベリン
グ手段、及びラベル位置検出手段は図24の該当する部
分で行われる。
【0136】(ST308E)では、輪郭抽出手段30
76Dによって、第nフレームのDOGフィルタ手段3
072Dの出力をもとに画像の輪郭が抽出される。最後
に、(ST308F)において、視差計算手段3078
によって、前記第1フレームの輪郭抽出手段3076
A、前記第nフレームの輪郭抽出手段3076D、およ
び前記ラベル対応計算手段3077の各出力をもとにし
て画像中の物体の視差が計算される。図26では、30
94が第nフレームの画像である。ラベル対応計算によ
り、領域ラベルL1(3095)、L2(3096)、
L3(3097)・・・・Ln(3098)それぞれの
重心G1(3099)、G2(309A)、G3(30
9B)・・・・Gn(309C)が対応づけられ、また
第1フレームと、第nフレームの画像については輪郭画
像(309D,309E)が生成される。視差計算手段
3078では、前記の輪郭画像をもとに輪郭線分の折れ
曲がり点を検出して、2つの輪郭画像間のそれら折れ曲
がり点のつながりから視差を得る。図26では、輪郭画
像(309D)中の折れ曲がり点P1(309F),Q
1,R1,S1が、それぞれ輪郭画像(309E)中の
折れ曲がり点Pn(309G),Qn,Rn,Snに対
応することが計算される。画像(309H)は、以上の
処理で得られた折れ曲がり点の対応を示す視差ベクトル
を画面上に表示したものである。
【0137】なお、本実施例6では、原画像を一旦メモ
リに格納したが、TVカメラからの信号を直接DOGフ
ィルタ手段に入力してもよい。
【0138】また、本実施例6では、原画像に直接DO
Gフィルタを作用させたが、原画像にノイズ除去などの
フィルタをかけてからDOGフィルタ処理を行っても同
様の効果がある。
【0139】また、本実施例6では、原画像に直接DO
Gフィルタを作用させたが、原画像を適当な大きさに縮
退してからDOGフィルタ処理を行なう事で、見かけ上
より大きなサイズのDOGフィルタを作用させたような
ふるまいをさせることもできる。
【0140】また、本実施例6では、DOGフィルタの
形状を決める係数として、式2におけるSe=1.0、S
i=1.6、サイズ7×7としたが、この値は自由に決め
ても差し支えなく、本実施例6の効果に特に影響を与え
ない。
【0141】また、本実施例6では、しきい値処理での
2つのしきい値、th1とth2について、th1=−
th2であるような値を使用したが、他の値を用いてし
きい値処理してもよく、また3値化処理である必要もな
い。
【0142】また、本実施例6では、輪郭抽出手段とし
て、DOGフィルタ手段の出力を使用する手段を用いた
が、原画像から直接輪郭を抽出するなどの方法を用いて
もよく、最終的に輪郭が得られさえすればよい。
【0143】また、本実施例6では、n枚の画像を処理
するために、原画像メモリ、DOGフィルタ手段、しき
い値処理手段、ラベリング手段、ラベル位置検出手段を
それぞれn個持つ構成を示したが、時間をずらせて処理
するなどして、各々1つづつ持たせるだけでもよく、装
置規模を大幅に小さくすることが可能である。
【0144】また、本実施例6では、ラベル位置検出手
段として、ラベル領域の重心を検出する手段を用いた
が、ラベルの位置を定義する他の手法を用いてもよく、
同様の効果を奏する。
【0145】また、本実施例6では、33ミリ秒の撮像
間隔で撮像されたn枚の連続画像を処理する場合に付い
て説明したが、もっと近い間隔で入力された画像、ある
いはもっと離れた間隔で入力された画像を扱う場合でも
同様の装置構成で処理が可能である。
【0146】実施例7.図27はこの発明の一実施例を
示すブロック図であり、図27において、4011はテ
レビカメラであり、認識すべき対象物4012を撮像
し、この対象物4012の画像を画像メモリ4013に
格納するようになっている。テレビカメラ4011は原
画像入力手段として使用されている。この画像メモリ4
013に格納された原画像はDOGフィルタ手段401
4に送出されるようになっているとともに、濃度情報抽
出手段4017に送出され、この濃度情報抽出手段40
17により、原画像から明るさを基にした濃度情報を抽
出するようになっている。
【0147】前記DOGフィルタ手段4014は画像メ
モリ4013に格納されている原画像のデータのDOG
フィルタリング処理を行って、しきい値処理手段401
5に出力するようになっている。DOGフィルタ手段4
014の詳述は動作の説明の欄で述べることにする。し
きい値処理手段4015は、DOGフィルタ手段401
4の出力をしきい値処理して、ラベリング手段4016
に出力するようになっている。ラベリング手段4016
は、しきい値処理された画像から領域を抽出するもので
あり、その出力は前記濃度情報抽出手段4017と濃度
情報付きラベル生成手段4018に出力するようになっ
ている。
【0148】濃度情報抽出手段4017は、ラベリング
手段4016によるラベリングを利用して、前述したよ
うに、画像メモリ4013に格納されている原画像から
濃度情報を抽出して、前記濃度情報付きラベル生成手段
4018に出力するようになっている。この濃度情報付
きラベル生成手段4018は、ラベリング手段4016
によるラベリング結果と、濃度情報抽出手段4017で
抽出された濃度情報とを合成して、濃度情報付き領域ラ
ベル情報を生成して、マッチング手段401Aに出力す
るようになっている。
【0149】一方、モデルデータ4019は、計算機
(図示せず)の濃度情報付きラベルテーブルがあらかじ
め用意されたデータであり、このモデルデータ4019
と濃度情報付きラベル生成手段4018で生成された濃
度情報付き領域ラベルとを照合して、対象物4012の
認識結果401Bを出力するようになっている。
【0150】前記のように構成された画像処理装置の動
作について、図28のフローチャートに沿って説明す
る。この図28のフローチャートは動作の流れを示すも
のであり、処理がスタートすると(ST4021)、ま
ず、(ST4022)で、原画像入力手段であるテレビ
カメラ4011で認識すべき対象物4012を撮像し
て、対象物4012の画像を得て、画像メモリ4013
に格納する(ST4022)。
【0151】この原画像は(ST4023)でDOGフ
ィルタ手段4014によりDOGフィルタリング処理さ
れる。DOGフィルタとは、Difference of Gaussianフ
ィルタの意味であり、1次元のフィルタは前述の(式
2)のように定義される。図21に示したのは、(式
2)で表現されたDOG関数の一例である。この実施例
7の装置は2次元の画像を扱うので、DOG関数は前述
の(式3)のようになる。この実施例7の装置では、S
e=1.0、Si=1.6とし、ディジタルフィルタとして
のフィルタサイズを7×7画素とした。
【0152】次の(ST4024)では、DOGフィル
タ手段4014の出力に対して、しきい値処理手段40
15により、しきい値処理が行われる。DOGフィルタ
およびしきい値処理の効果については図4を用いて前述
したので説明を省略する。しきい値処理手段4015
は、これらの二つのしきい値th1,th2により、D
OGフィルタ手段4014の出力を3値化するように処
理する。
【0153】次の(ST4025)では、しきい値処理
手段4015によるしきい値処理した出力画像がラベリ
ング手段4016により処理され、画像中の複数の領域
が抽出される。この実施例では、図4(c)の値「0」
の部分のみをラベリングに使用している。図29はこの
実施例におけるラベリング結果の例を示している。図中
の番号はラベルの番号であり、抽出された画像領域の一
部である。図4(c)からもわかるように、画像信号の
中で濃度変化の小さい部分が主に取り出されて、領域と
して抽出されているのがわかる。
【0154】次に、濃度情報抽出手段4017は、原画
像を格納した画像メモリ4013から濃度情報を抽出す
る(ST4026)。この実施例では、ラベリング結果
が利用されている。すなわち、ラベリング手段4016
により抽出された複数の領域ラベルそれぞれについて、
その画像領域に対応する部分の原画像の濃度情報を読み
出し、平均値を求める。続いて、(ST4027)で
は、濃度情報付きラベル生成手段4018がラベリング
手段4016の出力である領域ごとにラベル付けされた
画像と、濃度情報抽出手段4017の出力である各領域
ラベルごとの濃度平均値を合成して、濃度情報付きラベ
ルを生成する。次の「表1」は前記ラベルの一例を示
す。
【0155】
【表1】
【0156】この「表1」は図29と対応している。濃
度情報付きラベル生成手段4018は、このように、領
域ごとの濃度平均値だけでなく、領域ごとに面積モーメ
ント量などの形状特徴量を同時に計算し、濃度情報付き
ラベルテーブルとして、図示しない計算機のメモリに格
納する。次に、(ST4028)において、マッチング
手段401Aによって、前記ラベルテーブルがあらかじ
め用意されたモデルデータ4019と照合され、その認
識結果401Bを得て、一連の処理を終了する(ST4
029)。このマッチング処理について、図30に詳細
な内容をフローチャートとして示している。
【0157】次に、この図30のフローチャートに沿っ
て説明を行う。マッチング処理では、テレビカメラ40
11によって撮像された認識すべき対象物4012に関
して、上記「表1」に相当するようなラベルテーブルが
得られていることが前提となる。また、同時に、同じ形
式で認識したい物体に関するデータがモデルデータ40
19内に格納されている。濃度情報付きラベルテーブル
には、画像中に存在する領域の番号と、その領域に対応
する面積、モーメントといった形状特徴量、および平均
濃度値が書き込まれている。ここで、(ST4061)
でまず処理がスタートして、(ST4062)では、撮
像した画像中のラベルの一つに注目する。
【0158】さらに、(ST4063)で、モデルデー
タから一つの領域が選ばれる。その選び方は、領域番号
順に順次注目していく方式を採る。(ST4064)は
必ずしも必要な処理ではなく、あらかじめモデルデータ
として、認識対象物の領域特徴量が完全に記述されてい
る場合には、不必要である。そうでない場合には、(S
T4064)において選んだモデルの領域に関する特徴
量を計算しなければならない。(ST4065)では、
あらかじめモデルとして用意されたラベルデータと、新
しくテレビカメラ4011から入力された対象物401
2に関するラベルデータとの間の類似度を評価する。た
とえば、類似度Sは次の(式5)で定義される。
【0159】 S=1-{(p(A1-A2)/A2)+(q(M1-M2)/M2)+(r(B1-B2)/B2)} (式5) ここで、Sは類似度、A1,M1,B1はそれぞれテレ
ビカメラ4011から取り込んだ画像中のある領域ラベ
ルに関する面積、モーメント、平均濃度であり、A2,
M2,B2はそれぞれ濃度情報付きラベルテーブルから
選ばれたある領域に関する面積,モーメント,平均濃度
である。また、p,q,rは定数とする。
【0160】前記(式5)で求められた類似度Sが一定
の値以下であれば(ST4066のNO)、類似度不十
分としてモデルデータ4019から別のラベルが選ば
れ、(ST4066)から(ST4063)の処理に戻
り、再び(ST4063)、(ST4064)、(ST
4065)の処理が実行されるが、類似度Sが一定の値
より大きければ(ST4066のYES)、類似度十分
として、その注目領域の対応付けが完了したと考え、次
の領域に注目する(ST4067)。(ST4062)
から(ST4067)に至る一連の処理を認識したい画
像中のすべてのラベルについて行うと、マッチング処理
が終了する(ST4068)。以上の処理により、認識
したい画像中のラベルがすべてモデルラベルと対応付け
られ、対象物4012が認識されたことになる。認識結
果401Bはこのラベル間の対応を記述したものであ
る。
【0161】なお、本実施例7では、原画像を一旦画像
メモリ4013に格納した場合について説明したが、テ
レビカメラ4011からの信号を直接DOGフィルタ手
段4014や濃度情報抽出手段4017に入力するよう
にしてもよい。
【0162】また、本実施例7では、原画像に直接DO
Gフィルタを作用させたが、原画像にノイズ除去などの
フィルタをかけてから、DOGフィルタ処理を行って
も、同様の効果がある。
【0163】さらに、本実施例7では、直接DOGフィ
ルタを作用させたが、原画像を適当な大きさに縮退して
からDOGフィルタ処理を行うことで、見かけ上より大
きなサイズのDOGフィルタを作用させるような動作を
させることもできる。
【0164】また、本実施例7では、DOGフィルタの
形状を決める係数として、前述の(式2)におけるSe
=1.0、Si=1.6、サイズを7×7としたが、この値
は自由に決めてもよく、この発明の効果に特に影響を与
えない。
【0165】加えて、本実施例7では、しきい値処理手
段4015でしきい値処理された二つのしきい値th1
とth2について、th1=−th2であるような値を
使用したが、他の値を用いて、しきい値処理してもよ
く、また、3値化処理である必要もない。
【0166】さらに、上記実施例では、領域ごとの形状
特徴量として、面積とモーメントを用いた例を示した
が、周囲長,円らしさなどの特徴量を使用してもよく、
同様の効果が得られる。
【0167】また、領域ごとの濃度情報として、本実施
例7では、平均濃度値を使用したが、濃度の分散値など
の統計量や領域重心画素の濃度などの濃度情報関連情報
を用いてもよく、同様の効果が得られる。
【0168】上記二つのラベルの類似度を計算するの
に、(式5)で示した定義式を用いたが、濃度情報を加
味して、二つのラベル間の類似性を表現した量であれば
よく、この発明にとっては、同様の効果を実現できるこ
とはいうまでもない。
【0169】さらに、本実施例7では、マッチング処理
として、認識対象画像中のラベル,モデルラベル一つず
つの類似度を評価して照合を行い、認識を実現する例に
ついて説明したが、近傍のラベル間の相対位置関係を用
いて照合してもよく、同様の効果を奏する。
【0170】なお、これまでに説明した実施例1〜7ま
でにおいて、空間的バンドパスフィルタとしてDOG
(Difference of Gaussian)関数を用いたが、他の同様
の特性を示す関数を用いても同様の効果がある。
【0171】
【発明の効果】本発明により、単一のしきい値では2値
化しにくく、2値のテンプレートマッチングが行えない
画像に対しても、相関演算のような複雑かつ処理時間の
かかる処理することなく、良好に画像のテンプレートマ
ッチングができるという効果を奏する。
【0172】また、本発明により、単一のしきい値では
2値化しにくい画像に対して良好に領域のセグメント化
を可能とすることができるという効果を奏する。本発明
により、単一のしきい値では2値化しにくい画像に対し
て良好に領域のセグメント化が可能で、特に画像が2次
元のパターンである場合にはゼロクロスを境界とする領
域を生成することができるという効果を奏する。本発明
により、画像上の物体に関する3次元モデル、または頂
点辞書を必要としないで輪郭をセグメント化することが
できるという効果を奏する。
【0173】また、本発明により、連続画像間で面の明
るさや形状が変化する場合でも安定して動きが抽出で
き、また、高速に処理することができるという効果を奏
する。本発明により、連続画像間の物体の視差を検出し
てステレオ視の原理で物体の奥行きを求める場合に、高
速に処理が可能で、かつ画面内に目的以外の物体が複数
存在する場合にも不要な輪郭線による誤対応は低減する
ことが可能で、信頼性よく視差を検出することができる
という効果を奏する。
【0174】さらに、本発明により、面内の濃度が変化
していたり、画像全体に濃度むらが生じているなど、従
来では領域分割が不安定な結果を生じる場合でも、安定
して領域分割が可能になり、分割された領域ラベルを用
いて信頼性の高い対象物の認識が可能になる効果を奏す
る。
【図面の簡単な説明】
【図1】本発明の実施例1を示すブロック図である。
【図2】本発明の実施例1の動作の流れを示すフローチ
ャートである。
【図3】本発明の実施例1の1次元DOGフィルタの形
状を示す模式図である。
【図4】本発明の実施例1の1次元の場合のDOGフィ
ルタの効果を説明するための模式図である。
【図5】本発明の実施例1における目的画像の値と参照
パターンの値の画素としての一致度合いを示す評価値を
説明するための図である。
【図6】本発明の実施例1における類似度計算手段を電
子回路で構成した一例を説明するための模式図である。
【図7】本発明の実施例1における類似度計算手段を電
子回路で構成した一例を説明するための模式図におい
て、信号Iと信号Rの組み合わせから決定される信号X
0,X1,Y0,Y1の値、論理素子(73および7
4)の入力と出力信号の関係、および信号Iと信号Rの
組み合わせから決定される信号Mの値をそれぞれ説明す
る図である。
【図8】本発明の実施例2を示すブロック図である。
【図9】本発明の実施例2の動作の流れを示すフローチ
ャートである。
【図10】本発明の実施例2の動作の結果の一例を示し
た模式図である。
【図11】本発明の実施例3を示すブロック図である。
【図12】本発明の実施例3の動作の流れを示すフロー
チャートである。
【図13】本発明の実施例3による0,+,−領域セグ
メント化処理結果を示す模式図である。
【図14】本発明の実施例3によるセグメント合成処理
の結果を示す模式図である。
【図15】本発明の実施例4を示すブロック図である。
【図16】本発明の実施例4の動作の流れを示すフロー
チャートである。
【図17】本発明の実施例4における領域セグメント化
処理結果および輪郭セグメント化処理結果の例を説明す
る模式図である。
【図18】本発明の実施例4における輪郭セグメント化
処理を説明するための模式図である。
【図19】本発明の実施例5を示すブロック図である。
【図20】本発明の実施例5の動作の流れを示すフロー
チャートである。
【図21】本発明の実施例5の1次元DOGフィルタの
形状を示す模式図である。
【図22】本発明の実施例5で用いる連続画像の例を模
式的に示した図である。
【図23】本発明の実施例5で用いる連続画像から抽出
した領域ラベルを模式的に表現した図である。
【図24】本発明の実施例6を示すブロック図である。
【図25】本発明の実施例6の動作の流れを示すフロー
チャートである。
【図26】本発明の実施例6の動作を説明するために使
用するn枚の連続画像を模式的に表した図である。
【図27】本発明の実施例7を示すブロック図である。
【図28】本発明の実施例7の動作の流れを示すフロー
チャートである。
【図29】本発明の実施例7における画像の領域分割結
果を模式的に示した説明図である。
【図30】本発明の実施例7におけるマッチング手段の
マッチング処理の流れを示すフローチャートである。
【図31】本発明の実施例1に関係する従来の画像処理
装置を示すブロック図である。
【図32】本発明の実施例1に関係する従来の画像処理
装置の動作を示すフローチャートである。
【図33】本発明の実施例2及び実施例3に関係する従
来の画像処理装置を示すブロック図である。
【図34】本発明の実施例2及び実施例3に関係する従
来の画像処理装置の動作を示すフローチャートである。
【図35】本発明の実施例2及び実施例3に関係する従
来の画像処理装置における濃度ヒストグラム生成処理の
処理結果の例を示す模式図である。
【図36】本発明の実施例4に関係する従来の画像処理
装置を示すブロック図である。
【図37】本発明の実施例4に関係する従来の画像処理
装置の動作を示すフローチャートである。
【図38】本発明の実施例4に関係する従来の画像処理
装置における頂点辞書の内容を説明するための図であ
る。
【図39】本発明の実施例5及び実施例6に関係する従
来の画像処理装置を示すブロック図である。
【図40】本発明の実施例5及び実施例6に関係する従
来の画像処理装置の動作を説明するためのフローチャー
トである。
【図41】本発明の実施例5及び実施例6に関係する従
来の画像処理装置の動作を説明するために用いた、連続
画像の例を模式的に表した図である。
【図42】本発明の実施例5及び実施例6に関係する従
来の画像処理装置で用いられる、輪郭セグメントの照合
を説明するための図である。
【図43】本発明の実施例7に関係する従来の画像処理
装置のブロック図である。
【図44】本発明の実施例7に関係する従来の画像処理
装置の動作の流れを示すフローチャートである。
【図45】本発明の実施例7に関係する従来の画像処理
装置に用いられている特徴空間の模式図である。
【図46】本発明の実施例7に関係する従来の画像処理
装置の他の例を説明するためのフローチャートである。
【図47】本発明の実施例7に関係する従来の画像処理
装置で使用されるグラフマッチング処理の様子を模式的
に示した説明図である。
【図48】本発明の実施例7に関係する従来の画像処理
装置で用いられている画像の領域分割方法を説明するた
めのフローチャートである。
【図49】本発明の実施例7に関係する従来の画像処理
装置における画像から領域を抽出する様子を示す説明図
である。
【符号の説明】
11 原画像入力手段 12 DOGフィルタリング手段 13 しきい値処理手段 14 参照パターン 15 DOGフィルタリング手段 16 しきい値処理手段 17 メモリ#1 18 メモリ#2 19 類似度計算手段 20 スコアマップ 21 制御手段 2011 原画像入力手段 2012 DOGフィルタリング手段 2013 メモリ#1 2014 3値化処理手段 2015 メモリ#2 2016 領域セグメント化手段 2017 メモリ#3 2018 CPU(制御手段) 2061 0領域セグメント化手段 2062 +領域セグメント化手段 2063 −領域セグメント化手段 2064 セグメント合成手段 2101 ゼロクロス検出手段 2102 メモリ#2′ 2103 輪郭セグメント化手段 2104 メモリ#4 3011 原画像メモリ 3012 DOGフィルタ手段 3013 しきい値処理手段 3014 ラベリング手段 3015 ラベル位置検出手段 3016 原画像メモリ 3017 DOGフィルタ手段 3018 しきい値処理手段 3019 ラベリング手段 301A ラベル位置検出手段 301B 動きベクトル抽出手段 4011 テレビカメラ 4012 対象物 4013 画像メモリ 4014 DOGフィルタ手段 4015 しきい値処理手段 4016 ラベリング手段 4017 濃度情報抽出手段 4018 濃度情報付きラベル生成手段 4019 モデルデータ 401A マッチング手段 401B 認識結果
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭61−115175(JP,A) 特開 昭60−217472(JP,A) 特開 昭58−130030(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 7/00

Claims (7)

    (57)【特許請求の範囲】
  1. 【請求項1】 2次元の参照パターンを有し、前記参照
    パターンを目的の画像の一部分と比較し、画像の類似度
    を調べることによって最も類似している部分を決定する
    機能を有する画像処理装置において、2つのガウス関数
    の差を算出する空間的バンドパスフィルタを前記参照パ
    ターン及び前記目的画像のそれぞれに作用させる空間的
    バンドパスフィルタリング手段と、前記空間的バンドパ
    スフィルタリング手段の出力を輪郭画素に対応する値よ
    りも小さな第1のしきい値及び前記輪郭画素に対応する
    値よりも大きな第2のしきい値を用いてしきい値処理し
    3値画像を得る3値化処理手段と、前記3値化処理手段
    の出力をもとに画像の類似度を決定する類似度計算手段
    とを備えたことを特徴とする画像処理装置。
  2. 【請求項2】 画像中の領域をセグメント化する機能を
    有する画像処理装置において、2つのガウス関数の差を
    算出する空間的バンドパスフィルタを原画像に作用させ
    る空間的バンドパスフィルタリング手段と、前記空間的
    バンドパスフィルタリング手段の出力を輪郭画素に対応
    する値よりも小さな第1のしきい値および前記輪郭画素
    に対応する値よりも大きな第2のしきい値を用いてしき
    い値処理する3値化処理手段と、前記第1のしきい値と
    前記第2のしきい値の間の値を持つ画素のみを用いて画
    像をセグメント化する領域セグメント化手段とを備えた
    ことを特徴とする画像処理装置。
  3. 【請求項3】 画像中の領域をセグメント化する機能を
    有する画像処理装置において、2つのガウス関数の差を
    算出する空間的バンドパスフィルタを原画像に作用させ
    る空間的バンドパスフィルタリング手段と、前記空間的
    バンドパスフィルタリング手段の出力を輪郭画素に対応
    する値よりも小さな第1のしきい値及び前記輪郭画素に
    対応する値よりも大きな第2のしきい値を用いて各画素
    が3種類の値のどれかひとつを持つように変換する3値
    化処理手段と、前記3値化処理手段の出力から前記3種
    類の値ごとに領域をセグメント化する領域セグメント化
    手段と、前記領域セグメント化手段の出力を必要に応じ
    て合成するセグメント合成手段とを備えたことを特徴と
    する画像処理装置。
  4. 【請求項4】 画像中の輪郭画素をセグメント化する機
    能を有する画像処理装置において、2つのガウス関数の
    差を算出する空間的バンドパスフィルタを原 画像に作用
    させる空間的バンドパスフィルタリング手段と、前記空
    間的バンドパスフィルタリング手段の出力を輪郭画素に
    対応する値よりも小さな第1のしきい値及び前記輪郭画
    素に対応する値よりも大きな第2のしきい値を用いて
    きい値処理する3値化処理手段と、前記第1のしきい値
    と前記第2のしきい値の間の値を持つ画素のみを用いて
    画像をセグメント化する領域セグメント化手段と、画像
    から輪郭画素を抽出する輪郭抽出手段と、前記輪郭抽出
    手段の出力である輪郭画素毎に該画素に最も近い領域セ
    グメントを求めることによって該画素のセグメント化を
    行なう輪郭セグメント化手段とを備えたことを特徴とす
    る画像処理装置。
  5. 【請求項5】 連続する画像から動いている物体の動き
    を抽出する画像処理装置において、2つのガウス関数の
    差を算出する空間的バンドパスフィルタを原画像に作用
    させる空間的バンドパスフィルタ手段と、前記空間的バ
    ンドパスフィルタリング手段の出力を輪郭画素に対応す
    る値よりも小さな第1のしきい値及び前記輪郭画素に対
    応する値よりも大きな第2のしきい値を用いてしきい値
    処理するしきい値処理手段と、前記しきい値処理手段の
    出力をもとに画像中の領域をラベル付けするラベリング
    手段と、前記ラベルの画像中の位置を検出するラベル位
    置検出手段と、連続画像中の2つの異なった画像に対し
    て前記空間的バンドパスフィルタ手段、前記しきい値処
    理手段、前記ラベリング手段、及び前記ラベル位置検出
    手段をそれぞれ作用させて得られた2つのラベル位置の
    画像上の位置関係から動いている物体の動きベクトルを
    抽出する動きベクトル抽出手段とを備えたことを特徴と
    する画像処理装置。
  6. 【請求項6】 連続する複数の画像から注目する物体の
    画像上の動きを順次検出することによって前記連続画像
    上での物体の視差を計算する画像処理装置において、
    つのガウス関数の差を算出する空間的バンドパスフィル
    タを原画像に作用させる空間的バンドパスフィルタ手段
    と、前記空間的バンドパスフィルタリング手段の出力を
    輪郭画素に対応する値よりも小さな第1のしきい値及び
    前記輪郭画素に対応する値よりも大きな第2のしきい値
    を用いてしきい値処理するしきい値処理手段と、前記し
    きい値処理手段の出力をもとに画像中の領域をラベル付
    けするラベリング手段と、前記ラベルの画像中の位置を
    検出するラベル位置検出手段と、複数の原画像をもとに
    得られた複数のラベル位置検出手段から前記複数の原画
    像上で動く注目物体のラベルの画面間の対応付けを計算
    するラベル対応計算手段と、前記連続画像の最初及び最
    後の画像から輪郭部分を抽出する輪郭抽出手段と、前記
    ラベル対応計算手段の出力及び前記輪郭抽出手段の出力
    をもとに前記連続画像の最初と最後の画像間の注目する
    物体に関する視差を計算する視差計算手段とを備えたこ
    とを特徴とする画像処理装置。
  7. 【請求項7】 認識すべき対象物の原画像を得る原画像
    入力手段と、2つのガウス関数の差を算出する空間的バ
    ンドパスフィルタを前記原画像に作用させる空間的バン
    ドパスフィルタ手段と、前記空間的バンドパスフィルタ
    リング手段の出力を輪郭画素に対応する値よりも小さな
    第1のしきい値及び前記輪郭画素に対応する値よりも大
    きな第2のしきい値を用いてしきい値処理するしきい値
    処理手段と、前記しきい値処理手段でしきい値処理され
    た画像から複数の領域を抽出するラベリング手段と、前
    記原画像から前記複数の領域のそれぞれに対して明るさ
    に関する情報を抽出する濃度情報抽出手段と、前記ラベ
    リング手段によりラベリングされたラベリング結果に前
    記濃度情報抽出手段で抽出された明るさに関する情報を
    付加したラベルを生成する濃度情報付きラベル生成手段
    と、前記濃度情報付きラベル生成手段で生成された濃度
    情報付きラベルを計算機内部のモデルデータと照合して
    前記認識すべき対象物を認識するマッチング手段とを備
    えたことを特徴とする画像処理装置。
JP4246319A 1992-06-24 1992-09-16 画像処理装置 Expired - Fee Related JP2940317B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP4246319A JP2940317B2 (ja) 1992-06-24 1992-09-16 画像処理装置
US08/081,463 US5625717A (en) 1992-06-24 1993-06-22 Image processing device for processing grey level images

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP4-165967 1992-06-24
JP16596792 1992-06-24
JP4246319A JP2940317B2 (ja) 1992-06-24 1992-09-16 画像処理装置

Publications (2)

Publication Number Publication Date
JPH0676062A JPH0676062A (ja) 1994-03-18
JP2940317B2 true JP2940317B2 (ja) 1999-08-25

Family

ID=26490507

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4246319A Expired - Fee Related JP2940317B2 (ja) 1992-06-24 1992-09-16 画像処理装置

Country Status (2)

Country Link
US (1) US5625717A (ja)
JP (1) JP2940317B2 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222939B1 (en) 1996-06-25 2001-04-24 Eyematic Interfaces, Inc. Labeled bunch graphs for image analysis
US5999658A (en) * 1996-06-28 1999-12-07 Dainippon Screen Mfg. Co., Ltd. Image tone interpolation method and apparatus therefor
US7181047B2 (en) * 1996-07-26 2007-02-20 Patrick Pirim Methods and apparatus for identifying and localizing an area of relative movement in a scene
US7650015B2 (en) 1997-07-22 2010-01-19 Image Processing Technologies. LLC Image processing method
FR2751772B1 (fr) 1996-07-26 1998-10-16 Bev Bureau Etude Vision Soc Procede et dispositif fonctionnant en temps reel, pour le reperage et la localisation d'une zone en mouvement relatif dans une scene, ainsi que pour la determination de la vitesse et la direction du deplacement
US6137898A (en) * 1997-08-28 2000-10-24 Qualia Computing, Inc. Gabor filtering for improved microcalcification detection in digital mammograms
US5999639A (en) * 1997-09-04 1999-12-07 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
US7308126B2 (en) 1997-08-28 2007-12-11 Icad, Inc. Use of computer-aided detection system outputs in clinical practice
US6970587B1 (en) 1997-08-28 2005-11-29 Icad, Inc. Use of computer-aided detection system outputs in clinical practice
US6996549B2 (en) 1998-05-01 2006-02-07 Health Discovery Corporation Computer-aided image analysis
GB2341965A (en) * 1998-09-24 2000-03-29 Secr Defence Pattern recognition
US6788829B1 (en) 1999-03-31 2004-09-07 Minolta Co., Ltd. Image processing apparatus and method for recognizing specific pattern and recording medium having image processing program recorded thereon
US6643400B1 (en) 1999-03-31 2003-11-04 Minolta Co., Ltd. Image processing apparatus and method for recognizing specific pattern and recording medium having image processing program recorded thereon
US6355922B1 (en) * 1999-06-14 2002-03-12 Raytheon Company Imaging system and method for hardbody detection and sensor fixed artifact rejection
US6801645B1 (en) 1999-06-23 2004-10-05 Icad, Inc. Computer aided detection of masses and clustered microcalcifications with single and multiple input image context classification strategies
JP2001101415A (ja) * 1999-09-29 2001-04-13 Fujitsu Ten Ltd 画像認識装置および画像処理装置
US7043465B2 (en) * 2000-02-24 2006-05-09 Holding B.E.V.S.A. Method and device for perception of an object by its shape, its size and/or its orientation
US7136842B2 (en) * 2000-02-24 2006-11-14 Holding B.E.V. S.A. Method and device for adapting a signal for the detection of the movement of an object
FR2805629B1 (fr) * 2000-02-24 2002-08-30 Holding Bev Sa Procede et dispositif de perception automatique
WO2002021443A1 (en) * 2000-09-07 2002-03-14 Koninklijke Philips Electronics N.V. Segmentation of digital images
US7392287B2 (en) * 2001-03-27 2008-06-24 Hemisphere Ii Investment Lp Method and apparatus for sharing information using a handheld device
FR2828613B1 (fr) 2001-08-10 2003-11-07 Holding Bev Sa Dispositif et procede de traitement pour systeme de perception automatique
EP1306805A1 (en) * 2001-10-25 2003-05-02 Mitsubishi Electric Information Technology Centre Europe B.V. Image Analysis
JP2005293334A (ja) * 2004-04-01 2005-10-20 Nikon Corp テンプレートマッチング装置
US7991242B2 (en) 2005-05-11 2011-08-02 Optosecurity Inc. Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality
US20070041613A1 (en) * 2005-05-11 2007-02-22 Luc Perron Database of target objects suitable for use in screening receptacles or people and method and apparatus for generating same
EP1886257A1 (en) 2005-05-11 2008-02-13 Optosecurity Inc. Method and system for screening luggage items, cargo containers or persons
DE102005022696A1 (de) * 2005-05-18 2006-11-23 Benecke-Kaliko Ag Verfahren zur Herstellung von dreidimensional strukturierten Oberflächen
DE602006019481D1 (de) * 2005-11-29 2011-02-17 Nec Corp Mustererkennungsvorrichtung, mustererkennungsverfahren und mustererkennungsprogramm
US7899232B2 (en) 2006-05-11 2011-03-01 Optosecurity Inc. Method and apparatus for providing threat image projection (TIP) in a luggage screening system, and luggage screening system implementing same
US8494210B2 (en) 2007-03-30 2013-07-23 Optosecurity Inc. User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same
US8094937B2 (en) * 2007-04-17 2012-01-10 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. System and method for labeling feature clusters in frames of image data for optical navigation
US8184910B2 (en) * 2008-03-18 2012-05-22 Toshiba Tec Kabushiki Kaisha Image recognition device, image recognition method, and image scanning apparatus having image recognition device
US7995854B2 (en) * 2008-03-28 2011-08-09 Tandent Vision Science, Inc. System and method for identifying complex tokens in an image
JP5429614B2 (ja) * 2009-04-16 2014-02-26 株式会社Ihi 箱状ワーク認識装置および方法
CN101888469B (zh) * 2009-05-13 2013-03-13 富士通株式会社 图像处理方法和图像处理设备
JP5569130B2 (ja) * 2010-04-30 2014-08-13 セイコーエプソン株式会社 画像処理装置、画像処理方法、把持ロボットおよびプログラム
CN103917862A (zh) 2011-09-07 2014-07-09 拉皮斯坎系统股份有限公司 整合舱单数据和成像/检测处理的x射线检查系统
US8971637B1 (en) 2012-07-16 2015-03-03 Matrox Electronic Systems Ltd. Method and system for identifying an edge in an image
CN104077770B (zh) * 2014-06-17 2017-03-15 中国科学院合肥物质科学研究院 一种植物叶片图像局部自适应树形结构特征匹配方法
GB2564038B (en) 2016-02-22 2021-11-10 Rapiscan Systems Inc Systems and methods for detecting threats and contraband in cargo
US10380739B2 (en) * 2017-08-15 2019-08-13 International Business Machines Corporation Breast cancer detection
CN109276217B (zh) * 2018-12-05 2021-12-24 济宁市龙浩钢管制造有限公司 过滤器实时驱动平台
US10922824B1 (en) * 2019-08-13 2021-02-16 Volkswagen Ag Object tracking using contour filters and scalers
CN112801980B (zh) * 2021-01-28 2023-08-08 浙江聚视信息技术有限公司 一种图像的角点检测方法及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4472786A (en) * 1982-04-23 1984-09-18 The United States Of America As Represented By The Secretary Of The Navy Analog Gaussian convolver
US4736448A (en) * 1984-03-31 1988-04-05 Kabushiki Kaisha Toshiba Spatial filter
US4811408A (en) * 1987-11-13 1989-03-07 Light Signatures, Inc. Image dissecting document verification system
US5109435A (en) * 1988-08-08 1992-04-28 Hughes Aircraft Company Segmentation method for use against moving objects
US4918739A (en) * 1988-08-12 1990-04-17 Maraven, S.A. Process and system for digital analysis of images applied to stratigraphic data
US5173949A (en) * 1988-08-29 1992-12-22 Raytheon Company Confirmed boundary pattern matching
JP3009149B2 (ja) * 1988-09-22 2000-02-14 株式会社日立製作所 パターンデータ処理装置及びプロセス計測情報処理装置及び画像処理装置及び画像認識装置
US5109425A (en) * 1988-09-30 1992-04-28 The United States Of America As Represented By The United States National Aeronautics And Space Administration Method and apparatus for predicting the direction of movement in machine vision
US5054097A (en) * 1988-11-23 1991-10-01 Schlumberger Technologies, Inc. Methods and apparatus for alignment of images
US5034986A (en) * 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
US5063448A (en) * 1989-07-31 1991-11-05 Imageware Research And Development Inc. Apparatus and method for transforming a digitized signal of an image
KR940007346B1 (ko) * 1991-03-28 1994-08-13 삼성전자 주식회사 화상 처리 시스템의 엣지 검출 장치
US5168531A (en) * 1991-06-27 1992-12-01 Digital Equipment Corporation Real-time recognition of pointing information from video

Also Published As

Publication number Publication date
US5625717A (en) 1997-04-29
JPH0676062A (ja) 1994-03-18

Similar Documents

Publication Publication Date Title
JP2940317B2 (ja) 画像処理装置
US8929602B2 (en) Component based correspondence matching for reconstructing cables
US9177404B2 (en) Systems and methods of merging multiple maps for computer vision based tracking
KR100413679B1 (ko) 형상 기술자 추출방법
JP4429298B2 (ja) 対象個数検出装置および対象個数検出方法
JP5713790B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
CN108648194B (zh) 基于cad模型三维目标识别分割和位姿测量方法及装置
CN112836734A (zh) 一种异源数据融合方法及装置、存储介质
JP4946878B2 (ja) 画像識別装置及びプログラム
JP2001043376A (ja) 画像抽出方法及び装置並びに記憶媒体
CN110751097B (zh) 一种半监督的三维点云手势关键点检测方法
Yogeswaran et al. 3d surface analysis for automated detection of deformations on automotive body panels
CN111783722B (zh) 一种激光点云的车道线提取方法和电子设备
WO2018219227A1 (zh) 结构光解码的方法和设备
US5974170A (en) Method of detecting relief contours in a pair of stereoscopic images
CN112712066B (zh) 图像识别方法、装置、计算机设备和存储介质
JP2002133413A (ja) 画像処理を用いる3次元物体の識別方法および装置
CN110458177B (zh) 图像深度信息的获取方法、图像处理装置以及存储介质
CN116843829A (zh) 基于双目视频的混凝土结构裂缝三维重建与长度量化方法
Agarwal et al. The advent of deep learning-based image forgery detection techniques
JP2002117409A (ja) 画像処理方法及びその装置
JPH08329110A (ja) 画像処理方法
JP2009205695A (ja) 対象個数検出装置および対象個数検出方法
Quach et al. Low-level track finding and completion using random fields

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080618

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090618

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100618

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110618

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees