JPH0676062A - 画像処理装置 - Google Patents
画像処理装置Info
- Publication number
- JPH0676062A JPH0676062A JP4246319A JP24631992A JPH0676062A JP H0676062 A JPH0676062 A JP H0676062A JP 4246319 A JP4246319 A JP 4246319A JP 24631992 A JP24631992 A JP 24631992A JP H0676062 A JPH0676062 A JP H0676062A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- output
- label
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
理装置を得る。 【構成】 装置全体を統括する制御手段21に対して、
原画像入力手段11、参照パターン14、DOGフィル
タリング手段12,15、しきい値処理手段13,1
6、および類似度計算手段19を接続した構成をとる。 【効果】 2値化しにくい画像に対しても、相関演算の
ような複雑かつ処理時間のかかる処理をすることなく、
良好に画像のテンプレートマッチングができる。
Description
製造ラインなどで用いられる画像処理装置に於いて、2
値化しにくい濃淡画像に対して、良好にテンプレートマ
ッチングを行い、画像の位置合わせや特定パターンの抽
出をおこない得る画像処理装置に関するものである。
造ラインなどで用いられる画像処理装置に於いて、画像
中の物体を構成する領域をセグメント化する際に、2値
化ではセグメント化しにくいような濃淡画像に対して、
良好にかつ安定にセグメント化を行い得る画像処理装置
に関するものである。この発明は、例えば自動化された
製造ラインなどで用いられる画像処理装置に於いて、画
像中の物体の輪郭を構成する画素をセグメント化する際
に、良好にかつ安定にセグメント化を行い得る画像処理
装置に関するものである。
造ラインなどで用いられる画像処理装置に於いて、ベル
トコンベヤー上に置かれて動いている認識対象物体の動
きを計測する際に、物体を高速に、かつ信頼性良く計測
を行い得る画像処理装置に関するものである。この発明
は、例えば自動化された製造ラインなどで用いられる画
像処理装置に於いて、ステレオ視の原理で対象物体の3
次元情報を得る画像処理装置に於いて、視野内に複数の
物体が存在し得るような状況で安定して3次元情報を抽
出する画像処理装置に関するものである。
れた製造ラインなどで用いられる画像処理装置におい
て、自動的に画像中の対象物の位置、姿勢を計測または
物体の種類を判別する際に、物体の表面状態が若干不均
一であったり、照明条件が不安定であるような場合で
も、良好に、かつ安定に対象物の認識を行い得る画像処
理装置に関するものである。
えば手塚慶一、北橋忠宏、小川秀夫著、昭和60年6月
15日日刊工業新聞社発行の「ディジタル画像処理工
学」(以下、「文献A」という。)の内容をもとに説明
する。従来の技術に関しては第5章2節「テンプレート
マッチング」中の「相互相関によるマッチング」(10
7頁)に述べられている。本従来技術は、濃淡画像の相
互相関を利用しているため、2値化画像によるテンプレ
ートマッチングと異なり、2値化しにくい画像に対して
も良好にマッチングが可能なことが一つの利点である。
図31は、本従来例に記述された技術を用いた相互相関
によるテンプレートマッチング装置の構成を示すブロッ
ク図である。装置は参照パターン格納手段81、目的画
像格納手段82、類似度計算手段83、スコアマップ8
4、制御手段85から構成されている。また図32は、
前記テンプレートマッチング装置における処理の流れを
フローチャートに表現したものである。以下、この図の
流れに従って、従来の技術を説明する。
的画像がカメラ等から入力され、目的画像格納手段82
に格納される。参照パターンは予め装置内の参照パター
ン格納手段81に格納されているとする。参照パターン
は目的画像に重ね合わされるが、その時のずれ量をまず
設定する(ST92)。あるずれ量が決まると、参照パ
ターンは目的画像にそのずれ量だけずらされて重ね合わ
され、類似度計算手段83によって類似度が画像間の相
関値として計算される(ST93)。この時の相関計算
は前記従来技術を説明した文献Aに記載されているが、
次式のようになる。
i,j方向の画像の前記ずれ量、Iは目的画像、Rは参
照パターンである。この類似度がずれ量(a,b)にお
けるスコアとしてスコアマップ84に格納される(ST
94)。ずれ量a,bが予め設定された全範囲にわたっ
て調べられたら(ST95)処理を終了(ST96)す
るが、未調査のa,bが存在するのならもう一度(ST
92)に戻って処理を繰り返す。以上のようにして2次
元のスコアマップ84が類似度で埋められると、制御手
段85がスコアマップ84を探索し、スコアが最大にな
る位置(a,b)を見付けると、それが目的画像中の最
も参照パターンとよく一致する位置を示していることに
なる。
について、例えば文献Aの内容をもとに説明する。従来
の技術に関しては第4章3節「領域の分割」中の「モー
ド法」(79頁)に述べられている。図33は、本従来
例に記述された技術を用いた画像領域セグメント化装置
の構成を示すブロック図である。装置は原画像格納手段
2141、濃度ヒストグラム生成手段2142、しきい
値決定手段2143、2値化手段2144、領域セグメ
ント化手段2145より構成されている。
における処理の流れをフローチャートに表現したもので
ある。以下、この図の流れに従って、従来の技術を説明
する。処理対象となる画像は予めメモリに格納されてい
ると仮定する。処理がスタートすると(ST215
1)、まず原画像をもとに濃度ヒストグラム生成手段2
142によって画像の濃度ヒストグラムが生成される
(ST2152)。濃度ヒストグラムとは、画像上の画
素値のとる濃度がどのくらいの頻度で出現しているかを
表すもので、図35に一例を示している。ST2153
では濃度ヒストグラムからしきい値決定手段2143に
より、しきい値を決定する。図35のような双峰性のヒ
ストグラムの場合はその分かれ目となる濃度付近がしき
い値として設定される。次の画像はそのしきい値をもと
に、2値化手段2144によって2値化され(ST21
54)、最終的に2値化画像を領域セグメント化手段2
145によってセグメント化し(ST2155)、処理
を終了する(ST2156)。
えば文献Aの内容をもとに説明する。従来の技術に関し
ては第8章3節「線画の解釈」中の「多面体とその線
画」に述べられている(176頁)。図36は、本従来
例に記述された技術を用いた画像輪郭セグメント化装置
の構成を示すブロック図である。装置は原画像格納手段
2171、輪郭抽出手段2172、直線近似手段217
3、輪郭セグメント化手段2174、頂点辞書2176
から構成されている。
したフローチャートであり、以下、これを用いて従来の
技術を説明する。まず最初に原画像がカメラ等から入力
され(ST2181)、原画像格納手段2171に格納
される。次いで該原画像は輪郭抽出手段2172によっ
て画像中の物体の輪郭部分が抽出される(ST218
2)。ここで輪郭とは、必ずしも部分のアウトラインと
いう意味ではなく、例えば多面体の稜線など面と面との
まじわりとして定義される線や、その他の理由で生じた
画像中の濃度変化の急峻な部分をも表すとする。さて、
抽出された輪郭部分は直線近似手段2173により、近
似的に直線に分割され、直線要素の集合として格納され
る(ST2183)。
作についてより詳細に記述する。これら直線のうち、ま
ず既知輪郭にマークがつけられる(ST2184)。マ
ークとは一連の番号などのIDの意味で、全部の直線要
素にマークをつけることが輪郭セグメント化装置として
の前記装置の役割である。さて、続く処理で画像中から
任意の頂点が選ばれることによってひとつの実形状を仮
定する(ST2185)。ここでは頂点辞書2176が
参照される。頂点辞書とは、図38に示したようなもの
で、頂点とそれから延びる稜線について現実の3次元世
界に存在し得る組み合わせを予めすべての場合について
書き出したものである。図中の稜線についている符号
は、+なら凸稜線、−なら凹稜線であることを示してい
る。前記輪郭とはこの頂点辞書中の稜線に相当する。さ
て、任意に選ばれた頂点につながる稜の形状を決定す
る。稜の形状は稜の他端にまで保存されるという原則に
基づき、これらの稜の他端にある頂点形状の決定の前提
条件とする。稜の決定とは前記の凹凸符号のことであ
る。このようにして全ての頂点が調べられるまで処理を
繰り返す(ST2186)。もし頂点の選び方に矛盾が
生じていたら矛盾が生じた段階まで戻って頂点の選択を
やり直し(ST2187)、矛盾無く全部の頂点が定義
できるかどうかを試みる。もしできたなら、直線要素に
矛盾無くマークがつけられたことになり、即ち輪郭のセ
グメント化が終了したことになる(ST2188)。本
装置の出力はラベル(マーク)付けされた輪郭(あるい
は直線要素記述)2175である。
の一例について、谷内政彦著1990年10月30日株
式会社昭晃堂発行の「ロボットビジョン」(以下、「文
献B」という。)の内容をもとに説明する。従来の技術
に関しては、同書中、8.3.「画面間の対応付け」
(212頁)に述べられている。図39は、本従来例に
記述された技術を用いて構成した画像処理装置のブロッ
ク図である。装置は、2つの原画像メモリ3101,3
102、輪郭抽出手段3103,3104、セグメント
抽出手段3105,3106、短線分化手段3107,
3108、セグメント照合手段3109、短線分照合手
段310A、及び、動きベクトル計算手段310Bより
構成されている。
を示すフローチャートである。以下、このフローチャー
トに沿って処理を説明する。従来の画像処理装置の目的
は2枚の連続した画像から動いている物体の動きを検出
することである。図41は連続した画像を模式的に表現
した一例であり、画像F2(3122)は画像F1(3
121)の後にカメラで撮像したものである。図41は
前記文献Bから引用した。本従来例では画像中の背景と
しての樹木(3123,3124,3125,312
6)は静止しており、中央部の動物体(3127,31
28)のみが動いている。
(F1)3101に、画像F2が原画像メモリ(F2)
3102に格納されてるとする。従来の装置が起動する
と(ST3111),(ST3112)で最初に2枚の
前記原画像から移動領域が抽出される。これは画像全体
を小領域に分割し、明るさの似ている部分の対応を調べ
る相関法などにより行われる。この例では、図41中の
河馬様の動物の部分が抽出される。続いて(ST311
3)では、輪郭抽出手段3103により原画像F1の輪
郭部分が抽出されたのちにセグメント抽出手段3105
により、セグメンテーションされる。同様に、(ST3
114)では原画像F2に対応する移動領域の輪郭が、
輪郭抽出手段3104により抽出され、さらにセグメン
ト抽出手段3106によりセグメンテーションされる。
する。従来技術における輪郭のセグメンテーションと
は、ある領域の境界を、端点、T接合などでセグメン
ト、すなわちある長さをもった輪郭線の一部分として切
り出し、それらの集合として輪郭を記述することであ
る。(ST3115)では上記セグメント抽出手段31
05、3106によってセグメント化された移動領域の
照合が、セグメント照合手段3109によって行われ
る。図42は前述の文献Bから引用した図であるが、セ
グメント照合を説明するための図である。図中、313
1は画像F1の移動物体の輪郭の一部、3132は画像
F2の移動物体の輪郭の一部であり、ほぼ対応する部分
を並べて描いている。同図で、四角いマーク(□)で両
端に挟まれた輪郭部分がセグメントである。本例ではF
1側セグメントAk と、F2側セグメントA’m が対応
することを示している。
17)では、前記セグメント抽出手段の出力を使って輪
郭を短い線分で記述する短線分化処理が、短線分化手段
3107,3108によって施される。得られたF1,
F2それぞれに対応した短線分データは(ST311
8)において短線分照合手段310Aによって照合さ
れ、短線分レベルでの2画面間の照合が行われたことに
なる。この様子は、図42においては画像F1側の短線
分L1 ,L2 ,L3 がそれぞれ画像F2側の短線分
L1 ′,L2 ′,L3 ′に対応した例として表現されて
いる。最後に、(ST3119)において動きベクトル
計算手段310Bによって画像F1,F2中の動物体
(3127,3128)の動きベクトルが計算され、処
理は終了する(ST311A)。
谷内田正彦著,1990年10月30日株式会社昭光堂
発行の「ロボットビジョン」の内容に基づき説明する。
同書中、4.3.2「領域分割法」(79頁)、4.
3.3「エッジ検出と領域法」(82頁)、5.1.1
「いくつかの基本的な特徴」(91頁1)、6.1.3
「大局的特徴を用いたパターン認識」(109頁)、
6.2「領域間の関係も利用した認識」(117頁)に
述べられている。
来の画像認識処理技術の流れの概略について説明し、引
き続いて上記著書で使用される従来の画像領域分割技術
について詳細に説明する。
た画像処理装置の一例としての画像認識装置の構成を示
すブロック図である。この図43の画像処理装置は、対
象物4072を撮像するテレビジョン(以下、テレビと
いう)カメラ4071、このテレビカメラ4071で撮
像された対象物4072の画像に対して所定の領域を抽
出する領域抽出手段4073、この領域抽出手段407
3で抽出された領域の中から特徴量を計算する特徴抽出
手段4074、この特徴量を記憶する特徴空間メモリ4
075、この特徴空間メモリ4075上での対応するク
ラス代表値4076と特徴量からクラスの分類をして、
その結果4078を決定するクラス分類手段4077か
ら構成されている。
れを示すフローチャートである。以下に、この図44の
フローチャートに沿って動作について説明する。この図
43の画像処理装置の目的は画像中の物体が何であるか
を判定し、分類することである。このための動作の流れ
は、図44のように、大きく、二つの部分、すなわち、
「準備段階」と、「実行段階」とに分けられる。
072自体あるいは対象物4072と同一範ちゅうに分
けられる対象物4072をテレビカメラ4071で撮像
する(ST4081)。次に、このテレビカメラ407
1で撮像して得られた対象物4072の画像に対して、
領域抽出手段4073が領域の抽出を行うとともに(S
T4082)、この抽出された領域中の何らかの特徴を
特徴抽出手段4074で抽出して、特徴量を計算し、そ
の特徴空間メモリ4075上での対応する位置に点をプ
ロットする(ST4083)。
明図である。この従来例では、特徴の種類として、「領
域の面積(X1)」と、「領域の円らしさ(X2)」の
2種類を用いている。これらの2種類の特徴量は、とも
にスカラ量で表現されるので、ある領域一つについて、
領域の面積X1と円らしさX2の組が1組計算される。
したがって、図45のような2次元の特徴空間にプロッ
トすることができる。三つ以上の特徴を用いる場合も同
様であり、特徴の数と同じ次元の特徴空間を使用すれば
よい。図44の(ST4081)〜(ST4083)の
処理を対象物4072の位置を動かしたり、他の対象物
と取り替えたりしながら繰り返すと、特徴空間メモリ4
075には、多数の点がプロットされる。
らクラスタの抽出が行われる。たとえば、図45の例で
は、プロットされた多数の点は、特徴空間では、ほぼ三
つの塊を形成している。これらをクラス1(C1)、ク
ラス2(C2)、クラス3(C3)とする。これらのク
ラス1(C1)〜クラス3(C3)を代表する点を各ク
ラスごとに一つ決定する。この従来例では、各クラスに
属する点の重心の位置をクラスの代表点として採用して
いる。これがクラス代表値4076である(ST408
5)。以上の処理が準備段階の処理である。
実行段階では、テレビカメラ4071の前に置かれた未
知の対象物の種類を判定する段階である。まず、(ST
4086)で未知の対象物4072をテレビカメラ40
71で撮像する。このテレビカメラ4071で撮像され
た画像信号は、(ST4087)において、領域抽出手
段4073で領域が抽出される。さらに、特徴抽出手段
4074でその抽出された領域の特徴が抽出される。特
徴の種類は準備段階における特徴と同様のものが使用さ
れる。すなわち、面積(X1′とする)、円らしさ(X
2′とする)である。
段4077により、この未知の対象物4072の特徴点
が特徴空間上のクラスに属するかを判定する。すなわ
ち、準備段階で得られた各クラス代表値{図45におけ
るクラス1(C1)、クラス2(C2)、クラス3(C
3)と、面積X1′、円らしさX2′}の距離を計算し
(図45におけるd1 ,d2 ,d3 に対応)、次の(S
T4089)で最も近いクラスを未知の対象物のクラス
であると決定し、処理を終了する(ST408A)。
しての画像認識装置の動作について説明する。図46は
グラフマッチング方式と呼ばれている従来の画像処理装
置の処理の流れを示すフローチャートである。この図4
6において、まず、(ST4101)で計算機内部に認
識に用いるモデルをグラフ表現したモデルグラフを生成
しておく。図47はモデルグラフの一例を示す。対象物
は領域分割され、各領域の相互関係がグラフ表現されて
いる。図47のノードA4111、ノードB4112、
ノードC4113はある対象物の領域を表しており、相
互に連結する矢印が領域間の関係を表現している。
像が入力され、続いて、(ST4103)で画像から適
当な領域抽出手段によって、いくつかの領域が抽出され
る。次の(ST4104)では、それらの領域の相互関
係がグラフ表現される。図47において、ノードa41
14、ノードb4115、ノードc4116が対象物の
複数の領域を表し、また、各ノードを連結する矢印が領
域間の関係を表している。対象物の認識は(ST410
5)でグラフ同士の照合により行われる。すなわち、図
47の例では、モデルグラフのノードを連結する矢印群
と、認識対象物である入力グラフのノードを連結する矢
印群が照合され、対応を示す矢印4117,4118,
4119のように表わされている。この対応付けの確か
さを何らかの評価指標で評価し、もっと確らしい対応を
もって、対象物を認識して、処理を終了する(ST41
06)。
画像処理装置の動作の概略を説明したが、この説明から
も明らかなように、従来の画像処理装置では、画像の領
域を抽出し、認識過程に供する。したがって、次に、従
来の領域抽出手段の動作について説明する。図48は従
来の領域抽出手段を説明するためのフローチャートであ
る。まず、(ST4121)では、領域を抽出すべき画
像内のある画素Pi に注目する。図49はこの従来例で
画像から領域が抽出される様子を表現した図であり、図
49(a)は領域を抽出すべき画像平面4131を示
す。この例では、画像平面4131は3種類の画素、す
なわち、図中の「○」印、「△」印、「×」印で表現さ
れた画素から成っている。
Pi を、注目画素P1i のもつ3種類の特徴量(Xi ,Y
i ,Zi )に応じて3次元の特徴空間にプロットする。
この場合の使用する特徴量は必ずしも3種類である必要
はないが、特徴空間の次元は特徴量の数に一致する。画
像平面4131上の全画素に対して、プロットしたか否
かを調べて(ST4123)、全画素に対してプロット
していなければ、(ST4124)で別の注目画素P1i
を選んで、再び(ST4122)の処理を行うが、上記
(ST4123)において、全画素に対してプロットし
終わって図49(b)に示すように写像すれば、(ST
4125)の処理を行う。
多数の点をクラスタ分割する。図49(b)は図49
(a)で示した画像平面4131内のすべての画素が特
徴空間4132内にプロットされ、破線で包囲された三
つのクラスタに分割された様子を示している。図49
(a)の画像平面4131内の「○」印の画素群は特徴
空間4132では、破線で囲まれた部分4134にプロ
ットされている。同様に、画像平面4131内の「△」
印の画素群は部分4135にプロットされ、画像平面4
131内の「×」印の画素群は部分4136にプロット
されている。
4,4135,4136を基に、(ST4126)で
は、画素を画像平面に図49(c)に示すように、逆写
像する。この図49(c)は逆写像された画像平面41
33を示している。すなわち、図49(b)に示した特
徴空間4132上で部分4134にプロットされた画素
は値「1」として画像平面4133に記録し、部分41
35にプロットされた画素は値「2」として画像平面4
133に記録し、部分4136にプロットされた画素は
値「3」として画像平面4133に記録して処理を終了
する(ST4127)。この時点で画像平面4133に
は、3種類の異なる値からなる画像が生成されており、
画像が領域に分かれている。従来の技術では、以上のよ
うに、領域抽出が行われる。
置は、画像の類似度を計算するのに、(式1)のような
相互相関を求めることが必要なために、計算が複雑で処
理時間がかかるという問題点があった。また、(式1)
に表されているような演算をハードウェアで実現しよう
としても、回路が複雑で大規模になるという問題点があ
った。
の画像処理装置では、濃度ヒストグラムから2値化しき
い値を決定するため、濃度ヒストグラムが双峰性をもつ
ことが必要であり、無峰性、単峰性あるいは3つ以上の
ピークが存在するようなヒストグラムを生成する画像に
対しては良好なしきい値を決定することができず、2値
化によって領域をセグメント化しにくいという問題点が
あった。
置では、頂点辞書をもとに輪郭点あるいは輪郭点から生
成した直線要素セグメント化するため、頂点辞書や、頂
点辞書との整合性を判断する手段が必要であり、通常そ
れらは複雑な手続きによるために処理時間がかかった
り、処理を電子回路で実現する場合には回路規模が大き
くなるという問題点があった。
来の画像処理装置では、動きを抽出する前に移動領域が
抽出されていることが前提になっているが、例えば相関
法による移動領域抽出では、画面間での明るさや形状が
あまり変化しない場合以外は適用が困難であるという問
題点があった。動きベクトルを輪郭情報をもとに計算す
るのには時間がかかり、3枚以上の連続画像から逐次移
動領域の動きを抽出するような目的には不向きであると
いう問題点があった。
みつけているので、画面内に目的の物体以外の物体が複
数存在する場合には不要な輪郭線が発生し、正確な短線
分照合が困難になるという問題点もあった。
画像処理装置では、画像を領域に分割し、領域ごとに得
られた情報(特徴量)を基に認識を行うため、認識対象
物の領域分割が計算機モデルの領域情報と同じでない場
合には、認識の信頼性が著しく低下するという問題点が
あった。前述のグラフマッチングについては、前記文献
117頁にも「画像から完全な記述が得られれば、比較
的容易である」と解説されている。すなわち、領域分割
の信頼性が劣化し、結果が不安定な場合には、認識が困
難になるという問題点があった。
術では、一つの面上ではよく似た特徴量をもつ画素が多
いという仮定のもとに、明るさ、色などの特徴量を使っ
て画像を領域に分割している。装置規模などの制約から
色情報が使用できない場合には、画素ごとの明るさ情報
が領域分割の重要な特徴量となる。したがって、面内で
明るさが変化する場合や、照明むらなどによって画像全
体に明るさ変化が生じている場合には、領域分割の結果
が不安定になり、結果的に上記従来例において、物体の
認識が困難になるという問題点があった。
ためになされたもので、原画像を空間的バンドパスフィ
ルタリング処理し、この処理値をしきい値処理して得た
データに基づいて画像処理を行う画像処理装置を得るこ
とを目的とする。
以上のような課題を解決するためになされたもので、参
照パターンおよび目的画像にそれぞれ空間的バンドパス
フィルタを作用させる空間的バンドパスフィルタリング
手段と、該空間的バンドパスフィルタリング手段の出力
を2種類のしきい値でしきい値処理し3値画像を得る3
値化処理手段と、該3値化処理手段の出力をもとに画像
の類似度を決定する類似度計算手段とを設けた。
解決するためになされたもので、原画像に空間的バンド
パスフィルタを作用させる空間的バンドパスフィルタリ
ング手段と、前記空間的バンドパスフィルタリング手段
の出力を第1のしきい値および第1のしきい値より大き
い値の第2のしきい値でしきい値処理し、第1のしきい
値と第2のしきい値の間の値を持つ画素のみを用いて画
像をセグメント化するような領域セグメント化手段を持
つようにした。
解決するためになされたもので、原画像に空間的バンド
パスフィルタを作用させる空間的バンドパスフィルタリ
ング手段と、前記空間的バンドパスフィルタリング手段
の出力を第1のしきい値および第2のしきい値によって
各画素が3種類の値のどれかひとつを持つように変換す
る3値化処理手段と、前記3値化処理手段の出力から前
記3種類の値ごとに領域をセグメント化する領域セグメ
ント化手段と、前記領域セグメント化手段の出力を必要
に応じて合成するセグメント合成手段をもつようにし
た。
解決するためになされたもので、原画像に空間的バンド
パスフィルタを作用させる空間的バンドパスフィルタリ
ング手段と、前記空間的バンドパスフィルタリング手段
の出力を第1のしきい値および第1のしきい値より大き
い値の第2のしきい値でしきい値処理し、第1のしきい
値と第2のしきい値の間の値を持つ画素のみを用いて画
像をセグメント化するような領域セグメント化手段と、
画像から輪郭画素を抽出する輪郭抽出手段と、前記輪郭
抽出手段の出力である輪郭画素毎に該画素に最も近い領
域セグメントを求めることによって該画素のセグメント
化を行なう輪郭セグメント化手段を持つようにした。
解決するためになされたもので、空間的バンドパスフィ
ルタ手段、しきい値処理手段、ラベリング手段、ラベル
位置検出手段、及び動きベクトル抽出手段をもつように
した。
解決するためになされたもので、空間的バンドパスフィ
ルタ手段、しきい値処理手段、ラベリング手段、ラベリ
ング位置検出手段、ラベル対応計算手段、輪郭抽出手
段、及び視差計算手段をもつようにした。
を解決するためになされたもので、画像に空間的バンド
パスフィルタを作用させる空間的バンドパスフィルタ手
段と、この空間的バンドパスフィルタ手段の出力をしき
い値処理するしきい値処理手段と、このしきい値処理し
た値から画像領域を抽出するラベリング手段と、原画像
から明るさをもとにした濃度情報を抽出するための濃度
情報抽出手段と、ラベリング結果と濃度情報を合成して
濃度情報付き領域ラベル情報を生成する濃度情報付きラ
ベル生成手段と、濃度情報付きラベルをモデルデータと
照合するマッチング手段をもつようにした。
的画像に対して、空間的バンドパスフィルタリングが施
され、さらにこの出力が2種類のしきい値によって3値
化され、3値表現された参照パターンと目的画像とをも
とに類似度を計算するように作用する。
して空間的バンドパスフィルタがかけられ、その結果の
うち、予め設定された2つのしきい値にはさまれた値を
もつ画素のみを用いて領域がセグメント化されるように
作用する。
して空間的バンドパスフィルタがかけられ、その結果の
うち、予め設定された2つのしきい値の大きいほうより
大きな値を持つ画素のみを用いて画像をセグメント化し
た結果、小さいほうより小さな値を持つ画素のみを用い
て画像をセグメント化した結果、および2つのしきい値
にはさまれた値をもつ画素のみを用いて画像をセグメン
ト化した結果をそれぞれ格納し、最後にそれらを合成し
て領域のセグメント化を行なうように作用する。
対して空間的バンドパスフィルタがかけられ、その結果
のうち、予め設定された2つのしきい値にはさまれた値
をもつ画素のみを用いて領域がセグメント化され、原画
像から抽出された輪郭の各画素毎に該画素に最も近い前
記領域セグメント番号を調べてそれを該画素の番号とす
ることで、全ての輪郭画素をセグメント化するように作
用する。
像に対して空間的バンドパスフィルタがかけられ、その
結果をしきい値処理した後に特定の値をとる部分を使用
してラベリングが行われ、画像中の複数の領域が抽出さ
れ、位置が計算される。動きを抽出したい2枚の画像そ
れぞれに対して以上の処理が行われて最終的に領域の位
置関係から動きベクトルが抽出されるように作用する。
対して空間的バンドパスフィルタがかけられ、その結果
をしきい値処理した後に特定の値をとる部分を使用して
ラベリングが行われ、画像中の複数の領域が抽出され、
位置が計算される。さらに、連続した複数の原画像に対
して以上の処理が行われることで得られるラベル位置情
報をもとに、ラベル間の位置的対応が計算される。一
方、前記連続画像の最初と最後の原画像から輪郭部分が
抽出され、前記ラベル対応情報をもとに最終的に前記連
続画像の最初と最後の画像間の視差が計算されるように
作用する。
バンドパスフィルタ手段により原画像に対して空間的バ
ンドパスフィルタをかけ、その結果をしきい値処理手段
によりしきい値処理した後、ラベリング手段により特定
のしきい値をとる部分を利用してラベリングを行って、
画像中の複数の領域を抽出する。また、原画像から前記
複数の領域に相当する部分の明るさ情報が領域ごとに濃
度情報抽出手段により取り出され、平均化されるなどの
加工処理を濃度情報付きラベル生成手段により行って濃
度情報付きラベルとして格納する。この後に、マッチン
グ手段により同様の形式であらかじめ計算機内に格納さ
れているモデルデータと照合されて、対象物を認識する
ように作用する。
面を用いて説明する。図1は、本発明の実施例1におけ
る画像処理装置の構成を示すブロック図であり、図2は
実施例1の動作の主要部分の流れを示すフローチャート
である。以下このフローチャートにそって画像処理装置
の動作を説明する。
1)、最初に予め装置内に格納されていた濃淡画像とし
ての参照パターン14に対してDOGフィルタリング手
段15によりDOGフィルタを作用させる(ST2
2)。DOGフィルタとは、Difference of Gaussianの
フィルタの意味であり、一次元のフィルタは以下のよう
な式で定義される。
の差になっている。Se,Siはそれぞれガウス関数の
標準偏差を決定するパラメータであり、定数である。図
3に示したのは(式2)で表現されたDOG関数の一例
である。画像処理装置では2次元の画像を扱うので、D
OG関数は以下の(式3)のようになる。
ドパスフィルタとしての性質を示している。画像処理装
置では、Se=1.0、Si=1.6とし、ディジタルフィ
ルタとしてのフィルタサイズを7×7画素とした。
きい値処理手段16によって、3値化処理される(ST
23)。図4はDOGフィルタおよび3値化処理の効果
を説明する図である。簡単のために1次元の場合を説明
する。図4(a)は原画像中の輪郭近傍における濃度パ
ターン41を示している。これに(式2)のようなDO
Gフィルタをかけると、図4(b)のような出力42が
得られる。原画像にフィルタを作用させるには、原画像
と2次元DOGフィルタ関数の畳み込み演算を行なう。
3値化のために、2種類のしきい値th1(421)お
よびth2(422)が設定されている。画像処理装置
ではth1>0、th2<0、th1=−th2となる
ように選んでいる。3値化はこれら2つのしきい値によ
り、前記DOGフィルタリング手段15の出力を、th
1より大きい画素は+1、th2とth1の間の値をも
つ画素は0、th2以下の値をもつ画素は−1となるよ
うに処理する。図4(c)は(b)のDOG出力を3値
化信号43化した様子を示している。3値化された画像
はメモリ#1(17)に格納される。
手段11から画像を取り込み、DOGフィルタリング手
段12によってDOGフィルタを作用させる。次いでそ
の出力をしきい値処理手段13によって3値化する(S
T25)。3値化された画像はメモリ#2(18)に格
納される。
の重ね合わせ位置を示す重ね合わせずれ量(a,b)が
決定される。(ST27)で、前記ずれ量にしたがって
目的画像の上に参照パターンが重ね合わされ、メモリ#
1(17)、メモリ#2(18)からそれぞれ読み出さ
れた値をもとに、類似度計算手段19によって類似度が
計算される。類似度Mは次式によって計算される。な
お、i=0〜n、j=0〜mである。
ズ、nはi方向のサイズ、R(i,j)は参照パター
ン、I(i,j)は目的画像である。f(α,β)は参
照パターンの値がαで、目的画像の値がβであるときの
評価値を決定する関数で、図5に示したような値をと
る。計算された類似度は(ST28)でスコアマップ2
0に格納される。ずれ量(a,b)について、予め設定
されている全範囲にわたって調べられていないなら(S
T29)、再び(ST26)に戻って新しいずれ量
(a,b)を決定して(ST27)から(ST28)ま
での処理を繰り返す。(ST29)で全範囲調べ終わっ
たならば制御手段21によってスコアマップ20が探索
され、最も大きい値をとる位置(az ,bz )が見つけ
られて(ST2A)、処理が終了する(ST2B)。こ
の位置(az ,bz )は目的画像中で最もよく参照パタ
ーンと一致する重ね合わせの位置を示しており、テンプ
レートマッチングが行われたことになる。制御手段21
は、スコアマップ処理(ST2A)の他にも図1におけ
る各手段の動作を制御しているが、本実施例ではとくに
その動作が重要ではないので記述しない。
作を電子回路で構成した例について説明する。図6は類
似度計算手段19の電子回路による構成を説明するため
の回路図である。メモリ#1(17)には、目的画像に
関して、原画像にDOGフィルタを作用させた後に3値
化を行なった画像(以下、BLOB化された画像と呼
ぶ)が格納されており、メモリ#2(18)には参照パ
ターンにおけるBLOB化された画像が格納されてい
る。(式4)によれば、参照パターンを目的画像中でず
れ量を与えて重ね合わせる動作は、目的画像の一部分を
参照パターンと同じウィンドウとして使用し、参照パタ
ーンと重ね合わせる動作と等価である。図6は、あるず
れ量にしたがって目的画像上にウィンドウが設定された
ことを表している。メモリ#1(17)、メモリ#2
(18)にはそれぞれ−1,0,+1に3値化された画
像が格納されているので、メモリの出力は2ビットであ
る。2ビットそれぞれの信号は、 信号I(またはR)の値が+1のとき、MSB=0、L
SB=1であり、 信号I(またはR)の値が±0のとき、MSB=0、L
SB=0であり、 信号I(またはR)の値が−1のとき、MSB=1、L
SB=1である。 MSBとは(Most Significant Bit)で最上位ビット、
LSBとは(Least Significant Bit)で最下位ビットを
示す。図の信号R(62)と信号I(61)はそれぞれ
上記の2ビットで表現されたメモリ#1(17)、メモ
リ#2(18)の出力を示している。
ときに出力X0(67)を1にし、それ以外の時には出
力を0にする論理素子1であり、(64)は信号I(6
1)が−1のときに出力X1(69)を1にし、それ以
外の時には出力を0にする論理素子2であり、(65)
は信号R(62)が1のときに出力Y0(68)を1に
し、それ以外の時には出力を0にする論理素子3であ
り、(66)は信号R(62)が−1のときに出力Y1
(70)を1にし、それ以外の時には出力を0にする論
理素子4である。図7は本回路図で用いている論理素子
の機能を説明するための図であるが、信号Iと信号Rの
組み合わせが与えられたときの、これら4つの論理素子
の出力X0,X1,Y0,Y1を図7(a)に示してい
る。
れ2入力1出力の論理素子5、論理素子6であり、動作
論理は同一で図7(b)に示されている。素子(75)
は2つの入力の算術和を出力Mとする素子である。従っ
て信号Iと信号Rの組み合わせが与えられたときの、M
は図7(c)のようになる。このMをスコアとして、参
照パターンの全ての画素に対してスコアマップ20に累
積した結果が類似度となる。以上のような電子回路構成
にすれば、簡単な論理素子と算術和を計算する素子だけ
で類似度計算手段19を構成できる。
画像のDOGフィルタリング手段を別々の手段として説
明したが、同じ手段をもって共用させることが可能であ
り、回路規模を小さくできる。
画像のしきい値処理手段を別々の手段として説明した
が、同じ手段をもって共用させることが可能であり、回
路規模を小さくできる。
入力した後にそのままDOGフィルタを作用させたが、
ノイズ除去を行なうなどの前処理を通してからDOGフ
ィルタを作用させてもよい。
入力した後にそのままのサイズでDOGフィルタを作用
させる場合を説明したが、前もって原画像を縮退させて
からDOGフィルタを作用させれば、見かけ上DOGフ
ィルタのサイズが大きいものを作用させたと同様の効果
がある。
=1.6、フィルタサイズ7×7にしたが、目的に応じて
これらの大きさを変化させて用いてもよい。例えば、フ
ィルタサイズが大きいほど大きな濃度変化が無視され、
画像中の大まかな特徴がセグメントとして抽出されるこ
とになる。
合いを示す評価値を図5のように設定した例を説明した
が、他の値を用いてもよく、目的画像の値Iと参照パタ
ーンの値Rがよく一致しているときには高い評価値を、
あまりよく一致していないときには低い評価値を与える
ことで評価の目的は達せられる。
装置内部に格納しておく場合について説明したが、類似
度を求める度にカメラ等から入力してもよいことは言う
までもない。
て添付した図面を用いて説明する。図8は、本発明の実
施例2における画像処理装置の構成を示すブロック図で
あり、図9は、実施例2の動作の流れを示すフローチャ
ートである。以下このフローチャートにそって実施例2
の動作を説明する。
11により、カメラから原画像を取り込む(ST221
およびST222)。原画像は続くDOGフィルタリン
グ処理(ST223)でDOGフィルタリング手段20
12により、処理される。DOGフィルタとは、Differ
ence of Gaussianのフィルタの意味であり、一次元のフ
ィルタは前述した式2で定義される。この式2の右辺
は、2つのガウス関数の差になっている。Se,Siは
それぞれガウス関数の標準偏差を決定するパラメータで
あり、定数である。画像処理装置では2次元の画像を扱
うので、DOG関数は同じく前述した式3のようにな
る。画像処理装置では、Se=1.0、Si=1.6とし、
ディジタルフィルタとしてのフィルタサイズを7×7画
素とした。
#1(2013)に格納される。(ST224)ではメ
モリ#1(2013)の画像に対して3値化処理手段2
014が3値化処理を行なう。前述したように、図4は
DOGフィルタおよび3値化処理の効果を説明する図で
ある。簡単のために1次元の場合を説明する。図4
(a)は原画像中の輪郭近傍における濃度パターンを示
している。これに(式2)のようなDOGフィルタをか
けると、図4(b)のような出力が得られる。原画像に
フィルタを作用させるには、原画像と2次元DOGフィ
ルタ関数の畳み込み演算を行なう。3値化のために、2
種類のしきい値th1およびth2が設定されている。
画像処理装置ではth1>0、th2<0、th1=−
th2となるように選んでいる。3値化はこれら2つの
しきい値により、メモリ#1(2013)の画像をth
1より大きい画素は+1、th2とth1の間の値を持
つ画素は0、th2以下の値を持つ画素は−1となるよ
うに処理する。図4(c)は(b)のDOG出力を3値
化した様子を示している。3値化された結果はメモリ#
2(2015)に格納される。
5)の画像が領域セグメント化手段2016によりセグ
メント化され、結果がメモリ#3(2017)に格納さ
れて画像処理装置の動作が終了する(ST226)。図
10は以上の処理結果を模式的画像で示したもので、図
10(a)は原画像であり、図中の[]内の数値は画像
濃度である。図10(b)に示したのはメモリ#3(2
017)の内容であり、領域A,B,C,D,Eがセグ
メント化されている。以上の一連の動作はすべてCPU
からなる制御手段2018によって制御されている。
力画像をメモリに格納したが、DOGフィルタリング処
理や3値化処理はラスター走査で処理可能なので、処理
をパイプライン結合することでメモリを不要とすること
も可能である。
14の出力をメモリ#2(2015)に格納し、領域セ
グメント化手段2016に入力したが、DOGフィルタ
の処理結果を格納したメモリ#1(2013)を直接読
みだして領域セグメント化処理手段2016に入力し、
しきい値処理を同時に行ってもよい。
値として、th1=−th2となるようにしきい値を選
んだが、必ずしもそのように選ぶ必要はなく、例えばt
h1=−(2/3)th2のように設定してもよい。
フィルタを作用させたが、原画像にノイズ除去などのフ
ィルタをかけてからDOGフィルタ処理を行っても同様
の効果がある。
フィルタを作用させたが、原画像を適当な大きさに縮退
してからDOGフィルタ処理を行なう事で、見かけ上よ
り大きなサイズのDOGフィルタを作用させたようなふ
るまいをさせることもできる。
=1.6、フィルタサイズ7×7にしたが、目的に応じて
これらの大きさを変化させて用いてもよい。例えば、フ
ィルタサイズが大きいほど大きな濃度変化が無視され、
画像中の大まかな特徴がセグメントとして抽出されるこ
とになる。
してCPUによる制御の場合を説明したが、DOGフィ
ルタリング手段2012、3値化処理手段2014、領
域セグメント化手段2016の3つの部分をパイプライ
ンでつなぎ、制御を簡略化してCPUを用いない制御形
式にすることもできることは容易に想像できるとおりで
ある。
て添付した図面を用いて説明する。図11は、本発明の
実施例3における画像処理装置の構成を示すブロック図
であり、図12は実施例3の動作の1部の流れを示すフ
ローチャートである。以下このフローチャートにそって
実施例3の動作を説明する。
段2011によってカメラから画像入力され、原画像が
DOGフィルタリング手段2012によってDOGフィ
ルタを施され、その結果がメモリ#1(2013)に格
納される。DOGフィルタの定義およびその基本的なふ
るまいについては前に説明した内容と同様であるので省
略する。メモリ#1(2013)の内容は3値化処理手
段2014により、3値化されメモリ#2(2015)
に格納される。ここまでの画像処理装置の動作は実施例
2における動作の流れと同一であり、図9の(ST22
1),(ST222),(ST223),(ST22
4)の各ステップに相当する。
れ、(ST272)で0領域セグメント化手段2061
により、3値化画像の値が0である画素のみがセグメン
ト化され、一時内部画像メモリ格納される。続いて(S
T273)で+領域セグメント化手段2062により、
3値化画像の値が+1である画素のみがセグメント化さ
れ、その結果が前記内部画像メモリに格納される。同様
に(ST274)で−領域セグメント化手段2063に
より、3値化画像の値が−1である画素のみがセグメン
ト化され、その結果が前記内部画像メモリに格納され
る。図13はこれら3種類の領域セグメント化手段によ
る処理結果を示した模式的画像である。図13(a)は
原画像を表現しており、図中[]内の数値は画素値(濃
度)である。図13(b)は前記内部画像メモリの内容
を示しており、R00,R10,R20,R30,R4
0,R50の各領域は0領域セグメント化手段2061
によりセグメント化された領域を示しており、R1+,
R2+,R3+,R4+の各領域は+領域セグメント化
手段2062によりセグメント化された領域を示してお
り、R1−,R2−,R3−,R4−の各領域は−領域
セグメント化手段2063によりセグメント化された領
域を示している。図中の点線部分は、参考までに図4
(c)のゼロクロス点を示している。ゼロクロス点は領
域の1つの境界を示していると言える。
て説明する。(ST275)では前記内部メモリからセ
グメント化された0領域を一つ選び、それを領域Aとす
る。(ST276)で領域Aの面積を予め設定しておい
たしきい値thと比較し、しきい値より大きければ再び
(ST275)に戻って別の0領域を選ぶ。しきい値よ
り小さければ、(ST277)で領域Aと隣接するセグ
メントを前記内部画像メモリより選択し、それを領域B
とする。図14のように、例えば、周囲より濃度の明る
い領域は、いちばん内側に0領域を有し、その周りを取
り囲むようにして+領域が存在し、さらに周りに−領域
が存在する。即ち、例えば選んだ0領域(A)が領域R
10なら、領域Bは領域R1+である。(ST278)
で、領域AとBの論理和領域をとり、合成セグメントと
してメモリ#3(2017)に書き込む。(ST27
9)で全ての0領域について(ST275)から(ST
278)までの処理を行っていないのなら、再び(ST
275)に戻って処理を繰り返し、全ての0領域につい
て処理を行なったのなら、画像処理装置の動作は全て終
了する(ST27A)。図14は、最終的にメモリ#3
(2017)に格納されている画像の一例であり、図1
3と対応している。図13(b)における0領域だけを
抽出した結果よりも、ゼロクロス点を輪郭としている点
で正確な領域抽出結果であると言える。
行なう際に、一定の面積以上の0領域についてのみそれ
に隣接するセグメントを併合したが、面積だけでなく例
えば領域の平均濃度などの属性を判断基準にし、基準に
適合する0領域だけをセグメント合成処理に供するよう
にしてもよい。
力画像をメモリに格納したが、DOGフィルタリング処
理や3値化処理はラスター走査で処理可能なので、処理
をパイプライン結合することでメモリを不要とすること
も可能である。
14の出力をメモリ#2(2105)に格納し、0,
+,−の各領域セグメント化手段に入力したが、DOG
フィルタの処理結果を格納したメモリ#1(2013)
を直接読みだして領域セグメント化処理手段に入力し、
しきい値処理を同時に行ってもよい。
フィルタを作用させたが、原画像にノイズ除去などのフ
ィルタをかけてからDOGフィルタ処理を行っても同様
の効果がある。
フィルタを作用させたが、原画像を適当な大きさに縮退
してからDOGフィルタ処理を行なう事で、見かけ上よ
り大きなサイズのDOGフィルタを作用させたようなふ
るまいをさせることもできる。
括的に制御する制御手段の存在しない場合について説明
したが、各手段の処理タイミングなどを制御する制御手
段をCPUなどを用いて構成してもよい。
域を1つだけ合成した例を示したが、0領域に隣接する
領域にさらに隣接する領域をも合成するようにすれば物
体のゼロクロスを内包する領域がセグメント化され、目
的によってはこのほうが好ましい場合もある。
て添付した図面を用いて説明する。図15は、本発明の
実施例4における画像処理装置の構成を示すブロック図
であり、図16は実施例4の動作の流れを示すフローチ
ャートである。以下このフローチャートにそって実施例
4の動作を説明する。
2111)、まず最初に原画像入力手段2011によっ
てカメラから画像が入力され(ST2112)、さらに
DOGフィルタリング手段2012によってDOGフィ
ルタリング処理が行われ(ST2113)、その結果が
メモリ#1(2013)に格納される。DOGフィルタ
の定義およびその基本的なふるまいについては前に説明
した内容と同様であるので省略する。また、DOGフィ
ルタの諸定数Se,Si、およびフィルタサイズは実施
例2のものと同様のものを用いた。メモリ#1(201
3)の内容は3値化処理手段2014により、3値化さ
れ(ST2114)、メモリ#2(2015)に格納さ
れる。メモリ#2(2015)の内容は領域セグメント
化手段2016によって3値化しきい値th1,th2
の間の値を持つ画素だけがセグメント化され(ST21
15)、その結果はメモリ#3(2017)に格納され
る。
るDOGフィルタ出力は、ゼロクロス検出手段2101
によってゼロクロス点が抽出され(ST2116)、そ
の結果はメモリ#2′(2102)に格納される。ここ
で、ゼロクロス点とは、DOGフィルタ出力が0になる
点(画素)のことであり、図4(c)に図示されている
位置に相当する。図17は、ある画像例にするメモリ#
3(2017)とメモリ#2′(2102)の内容を重
ねて模式的に表現した画像であり、このようにいくつか
のセグメント化された領域(A,B,C,D)と領域の
境界にも相当する物体の輪郭がいくぶん離れて存在して
いる。
7)について説明する。ここではメモリ#2′(210
2)に格納されたゼロクロス画素ひとつひとつごとに、
その画素をもっとも近い位置にある領域セグメントをメ
モリ#3(2017)から抽出し、そのセグメント番号
をゼロクロス画素のセグメント番号とする。図18はこ
の処理の様子を説明するための模式図であるが、ゼロク
ロス画素のひとつである点P(2134)に注目してい
るところである。点Pを中心として予め設定された大き
さの円形の探索エリア(2131)内を探索し、最もP
に近い領域を求める。図18では探索エリア(213
1)内に、領域A(2132)と領域B(2133)の
一部が存在するが、P(2134)に近いのは領域B
(2133)である。そこで点P(2134)のセグメ
ント番号は領域B(2133)のセグメント番号と同じ
番号が割り当てられることになる。その結果はメモリ#
4(2104)に格納される。このようにして、すべて
のメモリ#2′(2101)内のゼロクロス点について
セグメント番号が割り当てられたら、処理を終了する
(ST2118)。
力画像をメモリに格納したが、DOGフィルタリング処
理や3値化処理はラスター走査で処理可能なので、処理
パイプライン結合することでメモリを不要にすることも
可能である。
力をメモリ#2に格納したが、DOGフィルタの処理結
果を格納したメモリ#1を直接読みだして領域セグメン
ト化処理手段に入力し、しきい値処理を同時に行っても
よい。
フィルタを作用させたが、原画像にノイズ除去などのフ
ィルタをかけてからDOGフィルタ処理を行っても同様
の効果がある。
フィルタを作用させたが、原画像を適当な大きさに縮退
してからDOGフィルタ処理を行なう事で、みかけ上よ
り大きなサイズのDOGフィルタを作用させたようなふ
るまいをさせることもできる。
括的に制御する制御手段の存在しない場合について説明
したが、各手段の処理タイミングなどを制御する制御手
段をCPUなどに用いて構成してもよい。
て、DOGフィルタ出力からゼロクロス部分を取り出す
ことで実現したが、SOBELやLAPIACIANな
どのエッジ検出フィルタなどを用いて輪郭を抽出しても
よい。
理として、ゼロクロス上の画素ひとつひとつについてセ
グメント化を行なったが、ゼロクロス点を予め線分要素
に再構成しておき、線分要素ごとに領域セグメントとの
距離を調べてセグメント化することもできる。
て最も近い領域セグメントのみを選んでそのゼロクロス
点のセグメント番号としたが、最も近い領域セグメント
番号だけでなく、2番目に近い領域セグメント番号をも
調べてそのゼロクロス点のセグメント第2候補として保
存させることにより、該ゼロクロス点がどの2つの領域
の境界であるかを格納する効果があると思われる。
実施例4を独立に説明したが、実施例4における領域セ
グメント化手段に実施例2や実施例3を応用することも
可能である。
は実施例2を用い、原画像が2次元のパターンであるこ
とが既知の場合には実施例3を用いるというように、場
合によって使い分けることも可能であり、効果が大き
い。
て、添付した図面を用いて説明する。図19は、本発明
の実施例5における画像処理装置の構成を示すブロック
図であり、図20は画像処理装置の動作の流れを示すフ
ローチャートである。以下このフローチャートにそって
画像処理装置の動作を説明する。
(ST3022)で、原画像が外部から入力され、画像
F1が原画像メモリF1(3011)に格納される。同
様に(ST3023)では画像F2が原画像メモリF2
(3016)に格納される。画像F2は画像F1から3
3ミリ秒後の画像である。図22は連続した画像を模式
的に表現したものである。図22(a)は画像F1(3
051)を、(b)は画像F2(3052)を示してい
る。画像には2つの円柱状の積み木が映っており、両方
ともF1からF2に至る間に画面上を右側に移動してい
る。(ST3024)では前記原画像に対してDOGフ
ィルタ手段3012,3017によってDOGフィルタ
がかけられる。DOGフィルタとは、Difference of Ga
ussianフィルタの意味であり、一次元のフィルタは前述
した(式2)で定義される。
の差になっている。Se,Siはそれぞれガウス関数の
標準偏差を決定するパラメータであり、定数である。図
21に示したのは(式2)で表現されたDOG関数(3
031)の一例である。同時に(式2)の右辺第1項で
表現された関数(3032)、および同右辺第2項で表
現された関数(3033)も示した。画像処理装置では
2次元の画像を扱うので、DOG関数は同様に前述した
(式3)のようになる。画像処理装置では、Se=1.
0、Si=1.6とし、ディジタルフィルタとしてのフィ
ルタサイズを7×7画素とした。
タ手段の出力に対してしきい値処理手段3013,30
18により、しきい値処理が行われる。図4はDOGフ
ィルタおよびしきい値処理の効果を説明する図である。
簡単のために1次元の場合を説明する。(a)は原画像
中の輪郭近傍における濃度パターンを示している。これ
に(式2)のようなDOGフィルタをかけると、図4
(b)のような出力がえられる。原画像にフィルタを作
用させるには、原画像と2次元DOGフィルタ関数の畳
み込み演算を行なう。本実施例5ではしきい値処理とし
て、2種類のしきい値th1およびth2による画像信
号の3値化を用いている。th1,th2の例は図4
(b)に示されている。画像処理装置ではth1>0、
th2<0、th1=−th2となるように選んでい
る。しきい値処理手段はこれら2つのしきい値により、
前記DOGフィルタ手段の出力を、th1より大きい画
素は+1、th2とth1の間の値を持つ画素0、th
2以下の値を持つ画素は−1となるように処理する。図
4(c)は同図(b)のDOG出力を3値化した様子を
示している。
手段による出力画像が、ラベリング手段3015,30
19により処理され、画像中の複数の領域が抽出され
る。本実施例5では、図4(c)の値0の部分のみをラ
ベリングに使用している。図23(a)および(b)は
本実施例5におけるラベリング結果の例を示している。
図中の斜線を施した部分がラベルであり、図23(a)
は画像F1(3051)に対応しており、(b)は画像
F2(3052)に対応している。同図で、A(306
1)、B(3062)、C(3063)、D(306
4)は画像F1から抽出されたラベルであり、A′(3
066)、B′(3067)、C′(3068)、D′
(3069)は画像F2から抽出されたラベルである。
図4(c)からもわかるように、画像信号の中で濃度変
化の小さい部分が主に取り出されて領域として抽出され
る。
段3014,3019の各出力に対して、ラベル位置検
出手段3015,301Aによって各画像中のラベル位
置が検出される。本実施例5ではラベル領域の重心の位
置が検出されている。図23において、Gk (306
5)およびGk+1 (306A)はそれぞれラベルD(3
064)、ラベルD′(3069)に対応する重心位置
である。
抽出手段301Bによって前記ラベル位置情報(306
4,3069)から物体の動きベクトルが抽出される。
動きベクトルは2枚の画像から得られた、対応する領域
重心を結ぶベクトルである。図23では(c)に抽出さ
れた動きベクトルが表されている。画像F1中のラベル
D(3064)の位置Gk (3065)の、移動後の位
置が、画像F2のどのラベル位置に対応するのかについ
ては、画面上のGk の位置に最も近い画像F2上のラベ
ル位置を選択することで決定される。本実施例5では説
明のために、図22および図23において連続する2枚
の画像中の円柱上積み木の移動を誇張して描いたが、実
際には画面寸法の1/100程度の動きであるから、こ
のような簡単な処理で、対応付けが可能である。
リに格納したが、TVカメラからの信号を直接DOGフ
ィルタ手段や濃度情報抽出手段に入力してもよい。
フィルタを作用させたが、原画像にノイズ除去などのフ
ィルタをかけてからDOGフィルタ処理を行っても同様
の効果がある。
フィルタを作用させたが、原画像を適当な大きさに縮退
してからDOGフィルタ処理を行なう事で、見かけ上よ
り大きなサイズのDOGフィルタを作用させたようなふ
るまいをさせることもできる。
形状を決める係数として、式2におけるSe=1.0、S
i=1.6、サイズ7×7にしたが、この値は自由に決め
ても差し支えなく、本発明の効果に特に影響を与えな
い。
2つのしきい値、th1とth2について、th1=−
th2であるような値を使用したが、他の値を用いてし
きい値処理してもよく、また3値化処理である必要もな
い。
段として、ラベル領域の重心を検出する手段を用いた
が、ラベルの位置を定義する他の手法を用いてもよく、
同様の効果を奏する。
2枚の連続画像を処理する場合について説明したが、も
っと近い間隔で入力された画像、あるいはもっと離れた
間隔で入力された画像を扱う場合でも同様の装置構成で
処理が可能である。
OGフィルタ手段、しきい値処理手段、ラベリング手
段、ラベル位置検出手段を、それぞれ2つづつ持つ構成
を示したが、処理時間をずらせて同一の手段で処理を行
なうことも可能であり、装置規模が半分になるという利
点がある。
て、添付した図面を用いて説明する。図24は、本発明
の実施例6における画像処理装置の構成を示すブロック
図であり、図25は実施例6の動作の流れを示すフロー
チャートである。以下このフローチャートにそって実施
例6の動作を説明する。
レームまでの連続するn枚の画像を扱う。nは10〜2
0程度である。画像はそれぞれ33ミリ秒間隔で入力さ
れたもので、第1フレームと第nフレームの画像から視
差を計算してステレオ視の原理により画像中の物体の奥
行きを計算することが処理の目的である。さて、最初
に、画像処理装置が起動すると(ST3081)、内部
カウンタkの値が1にセットされる(ST3082)。
次いで(ST3083)で画像入力手段から第1フレー
ムの画像が入力され、原画像メモリF1(3071A)
に格納される。原画像F1は、(ST3084)でDO
Gフィルタ手段3072AによってDOGフィルタが施
される。DOGフィルタとは、前述した各実施例でも述
べたように、Difference of Gaussianフィルタの意味で
あり、一次元のフィルタは前述した(式2)で定義され
る。画像処理装置では2次元の画像を扱うので、DOG
関数は前述した(式3)のようになる。この画像処理装
置では、Se=1.0、Si=1.6とし、ディジタルフィ
ルタとしてのフィルタサイズを7×7画素とした。
タ手段の出力に対してしきい値処理手段3073Aによ
り、しきい値処理が行われる。DOGフィルタおよびし
きい値処理の効果については前述したので説明を省略す
る。
手段3073Aによる出力画像が、ラベリング手段30
74Aにより処理され、画像中の複数の領域が抽出され
る。本実施例6では、図4(c)の値0の部分のみをラ
ベリングに使用している。図26は本実施例6の処理画
像の様子を模式的に表した図である。第1フレームの画
像に対応するラベルの例は図26中で、L1(309
5)で表されている。図4(c)からもわかるように、
画像信号の中で濃度変化の小さい部分が主に取り出され
領域として抽出される。
段の出力に対して、ラベル位置検出手段3075Aによ
って各画像中のラベル位置が検出される。本実施例6で
はラベル領域の重心の位置が検出されている。図26に
おいて、第1フレームの領域ラベルL1(3095)の
重心はG1(3099)で表されている。
算手段3077によって、前記ラベル位置検出手段の出
力が、ひとつ前のフレームにおけるラベル位置との位置
関係が計算され、ラベル間の対応が記録される。例え
ば、第2フレームの領域ラベルL2(3096)の重心
G2(309A)の位置は、ひとつ前のフレームの領域
ラベルL1(3095)の重心G1(3099)と最も
近いため、これらの間に対応があると認識され、その結
果が記録される。
タkの値が1ならば、輪郭抽出手段3076Aによって
第1フレームのDOGフィルタ手段3072Aの出力を
もとに画像の輪郭部分が抽出され(ST308A)、さ
らにカウンタkの値が1だけ増やされて(ST308
B)、その後(ST3083)から(ST3088)ま
での処理を繰り返すことになる。この際、原画像メモ
リ、DOGフィルタ手段、しきい値処理手段、ラベリン
グ手段、及びラベル位置検出手段は図24の該当する部
分で行われる。(ST3089)でkの値が1でないな
ら、処理は次のステップにすすむ。
の値がnであれば、処理(ST308E)に進むが、k
がnでなければ、kの値が1だけ増やされて(ST30
8D)、その後(ST3083)から(ST3088)
までの処理を繰り返すことになる。この際、原画像メモ
リ、DOGフィルタ手段、しきい値処理手段、ラベリン
グ手段、及びラベル位置検出手段は図24の該当する部
分で行われる。
76Dによって、第nフレームのDOGフィルタ手段3
072Dの出力をもとに画像の輪郭が抽出される。最後
に、(ST308F)において、視差計算手段3078
によって、前記第1フレームの輪郭抽出手段3076
A、前記第nフレームの輪郭抽出手段3076D、およ
び前記ラベル対応計算手段3077の各出力をもとにし
て画像中の物体の視差が計算される。図26では、30
94が第nフレームの画像である。ラベル対応計算によ
り、領域ラベルL1(3095)、L2(3096)、
L3(3097)・・・・Ln(3098)それぞれの
重心G1(3099)、G2(309A)、G3(30
9B)・・・・Gn(309C)が対応づけられ、また
第1フレームと、第nフレームの画像については輪郭画
像(309D,309E)が生成される。視差計算手段
3078では、前記の輪郭画像をもとに輪郭線分の折れ
曲がり点を検出して、2つの輪郭画像間のそれら折れ曲
がり点のつながりから視差を得る。図26では、輪郭画
像(309D)中の折れ曲がり点P1(309F),Q
1,R1,S1が、それぞれ輪郭画像(309E)中の
折れ曲がり点Pn(309G),Qn,Rn,Snに対
応することが計算される。画像(309H)は、以上の
処理で得られた折れ曲がり点の対応を示す視差ベクトル
を画面上に表示したものである。
リに格納したが、TVカメラからの信号を直接DOGフ
ィルタ手段に入力してもよい。
Gフィルタを作用させたが、原画像にノイズ除去などの
フィルタをかけてからDOGフィルタ処理を行っても同
様の効果がある。
Gフィルタを作用させたが、原画像を適当な大きさに縮
退してからDOGフィルタ処理を行なう事で、見かけ上
より大きなサイズのDOGフィルタを作用させたような
ふるまいをさせることもできる。
形状を決める係数として、式2におけるSe=1.0、S
i=1.6、サイズ7×7としたが、この値は自由に決め
ても差し支えなく、本実施例6の効果に特に影響を与え
ない。
2つのしきい値、th1とth2について、th1=−
th2であるような値を使用したが、他の値を用いてし
きい値処理してもよく、また3値化処理である必要もな
い。
て、DOGフィルタ手段の出力を使用する手段を用いた
が、原画像から直接輪郭を抽出するなどの方法を用いて
もよく、最終的に輪郭が得られさえすればよい。
するために、原画像メモリ、DOGフィルタ手段、しき
い値処理手段、ラベリング手段、ラベル位置検出手段を
それぞれn個持つ構成を示したが、時間をずらせて処理
するなどして、各々1つづつ持たせるだけでもよく、装
置規模を大幅に小さくすることが可能である。
段として、ラベル領域の重心を検出する手段を用いた
が、ラベルの位置を定義する他の手法を用いてもよく、
同様の効果を奏する。
間隔で撮像されたn枚の連続画像を処理する場合に付い
て説明したが、もっと近い間隔で入力された画像、ある
いはもっと離れた間隔で入力された画像を扱う場合でも
同様の装置構成で処理が可能である。
示すブロック図であり、図27において、4011はテ
レビカメラであり、認識すべき対象物4012を撮像
し、この対象物4012の画像を画像メモリ4013に
格納するようになっている。テレビカメラ4011は原
画像入力手段として使用されている。この画像メモリ4
013に格納された原画像はDOGフィルタ手段401
4に送出されるようになっているとともに、濃度情報抽
出手段4017に送出され、この濃度情報抽出手段40
17により、原画像から明るさを基にした濃度情報を抽
出するようになっている。
モリ4013に格納されている原画像のデータのDOG
フィルタリング処理を行って、しきい値処理手段401
5に出力するようになっている。DOGフィルタ手段4
014の詳述は動作の説明の欄で述べることにする。し
きい値処理手段4015は、DOGフィルタ手段401
4の出力をしきい値処理して、ラベリング手段4016
に出力するようになっている。ラベリング手段4016
は、しきい値処理された画像から領域を抽出するもので
あり、その出力は前記濃度情報抽出手段4017と濃度
情報付きラベル生成手段4018に出力するようになっ
ている。
手段4016によるラベリングを利用して、前述したよ
うに、画像メモリ4013に格納されている原画像から
濃度情報を抽出して、前記濃度情報付きラベル生成手段
4018に出力するようになっている。この濃度情報付
きラベル生成手段4018は、ラベリング手段4016
によるラベリング結果と、濃度情報抽出手段4017で
抽出された濃度情報とを合成して、濃度情報付き領域ラ
ベル情報を生成して、マッチング手段401Aに出力す
るようになっている。
(図示せず)の濃度情報付きラベルテーブルがあらかじ
め用意されたデータであり、このモデルデータ4019
と濃度情報付きラベル生成手段4018で生成された濃
度情報付き領域ラベルとを照合して、対象物4012の
認識結果401Bを出力するようになっている。
作について、図28のフローチャートに沿って説明す
る。この図28のフローチャートは動作の流れを示すも
のであり、処理がスタートすると(ST4021)、ま
ず、(ST4022)で、原画像入力手段であるテレビ
カメラ4011で認識すべき対象物4012を撮像し
て、対象物4012の画像を得て、画像メモリ4013
に格納する(ST4022)。
ィルタ手段4014によりDOGフィルタリング処理さ
れる。DOGフィルタとは、Difference of Gaussianフ
ィルタの意味であり、1次元のフィルタは前述の(式
2)のように定義される。図21に示したのは、(式
2)で表現されたDOG関数の一例である。この実施例
7の装置は2次元の画像を扱うので、DOG関数は前述
の(式3)のようになる。この実施例7の装置では、S
e=1.0、Si=1.6とし、ディジタルフィルタとして
のフィルタサイズを7×7画素とした。
タ手段4014の出力に対して、しきい値処理手段40
15により、しきい値処理が行われる。DOGフィルタ
およびしきい値処理の効果については図4を用いて前述
したので説明を省略する。しきい値処理手段4015
は、これらの二つのしきい値th1,th2により、D
OGフィルタ手段4014の出力を3値化するように処
理する。
手段4015によるしきい値処理した出力画像がラベリ
ング手段4016により処理され、画像中の複数の領域
が抽出される。この実施例では、図4(c)の値「0」
の部分のみをラベリングに使用している。図29はこの
実施例におけるラベリング結果の例を示している。図中
の番号はラベルの番号であり、抽出された画像領域の一
部である。図4(c)からもわかるように、画像信号の
中で濃度変化の小さい部分が主に取り出されて、領域と
して抽出されているのがわかる。
像を格納した画像メモリ4013から濃度情報を抽出す
る(ST4026)。この実施例では、ラベリング結果
が利用されている。すなわち、ラベリング手段4016
により抽出された複数の領域ラベルそれぞれについて、
その画像領域に対応する部分の原画像の濃度情報を読み
出し、平均値を求める。続いて、(ST4027)で
は、濃度情報付きラベル生成手段4018がラベリング
手段4016の出力である領域ごとにラベル付けされた
画像と、濃度情報抽出手段4017の出力である各領域
ラベルごとの濃度平均値を合成して、濃度情報付きラベ
ルを生成する。次の「表1」は前記ラベルの一例を示
す。
度情報付きラベル生成手段4018は、このように、領
域ごとの濃度平均値だけでなく、領域ごとに面積モーメ
ント量などの形状特徴量を同時に計算し、濃度情報付き
ラベルテーブルとして、図示しない計算機のメモリに格
納する。次に、(ST4028)において、マッチング
手段401Aによって、前記ラベルテーブルがあらかじ
め用意されたモデルデータ4019と照合され、その認
識結果401Bを得て、一連の処理を終了する(ST4
029)。このマッチング処理について、図30に詳細
な内容をフローチャートとして示している。
て説明を行う。マッチング処理では、テレビカメラ40
11によって撮像された認識すべき対象物4012に関
して、上記「表1」に相当するようなラベルテーブルが
得られていることが前提となる。また、同時に、同じ形
式で認識したい物体に関するデータがモデルデータ40
19内に格納されている。濃度情報付きラベルテーブル
には、画像中に存在する領域の番号と、その領域に対応
する面積、モーメントといった形状特徴量、および平均
濃度値が書き込まれている。ここで、(ST4061)
でまず処理がスタートして、(ST4062)では、撮
像した画像中のラベルの一つに注目する。
タから一つの領域が選ばれる。その選び方は、領域番号
順に順次注目していく方式を採る。(ST4064)は
必ずしも必要な処理ではなく、あらかじめモデルデータ
として、認識対象物の領域特徴量が完全に記述されてい
る場合には、不必要である。そうでない場合には、(S
T4064)において選んだモデルの領域に関する特徴
量を計算しなければならない。(ST4065)では、
あらかじめモデルとして用意されたラベルデータと、新
しくテレビカメラ4011から入力された対象物401
2に関するラベルデータとの間の類似度を評価する。た
とえば、類似度Sは次の(式5)で定義される。
ビカメラ4011から取り込んだ画像中のある領域ラベ
ルに関する面積、モーメント、平均濃度であり、A2,
M2,B2はそれぞれ濃度情報付きラベルテーブルから
選ばれたある領域に関する面積,モーメント,平均濃度
である。また、p,q,rは定数とする。
の値以下であれば(ST4066のNO)、類似度不十
分としてモデルデータ4019から別のラベルが選ば
れ、(ST4066)から(ST4063)の処理に戻
り、再び(ST4063)、(ST4064)、(ST
4065)の処理が実行されるが、類似度Sが一定の値
より大きければ(ST4066のYES)、類似度十分
として、その注目領域の対応付けが完了したと考え、次
の領域に注目する(ST4067)。(ST4062)
から(ST4067)に至る一連の処理を認識したい画
像中のすべてのラベルについて行うと、マッチング処理
が終了する(ST4068)。以上の処理により、認識
したい画像中のラベルがすべてモデルラベルと対応付け
られ、対象物4012が認識されたことになる。認識結
果401Bはこのラベル間の対応を記述したものであ
る。
メモリ4013に格納した場合について説明したが、テ
レビカメラ4011からの信号を直接DOGフィルタ手
段4014や濃度情報抽出手段4017に入力するよう
にしてもよい。
Gフィルタを作用させたが、原画像にノイズ除去などの
フィルタをかけてから、DOGフィルタ処理を行って
も、同様の効果がある。
ルタを作用させたが、原画像を適当な大きさに縮退して
からDOGフィルタ処理を行うことで、見かけ上より大
きなサイズのDOGフィルタを作用させるような動作を
させることもできる。
形状を決める係数として、前述の(式2)におけるSe
=1.0、Si=1.6、サイズを7×7としたが、この値
は自由に決めてもよく、この発明の効果に特に影響を与
えない。
段4015でしきい値処理された二つのしきい値th1
とth2について、th1=−th2であるような値を
使用したが、他の値を用いて、しきい値処理してもよ
く、また、3値化処理である必要もない。
特徴量として、面積とモーメントを用いた例を示した
が、周囲長,円らしさなどの特徴量を使用してもよく、
同様の効果が得られる。
例7では、平均濃度値を使用したが、濃度の分散値など
の統計量や領域重心画素の濃度などの濃度情報関連情報
を用いてもよく、同様の効果が得られる。
に、(式5)で示した定義式を用いたが、濃度情報を加
味して、二つのラベル間の類似性を表現した量であれば
よく、この発明にとっては、同様の効果を実現できるこ
とはいうまでもない。
として、認識対象画像中のラベル,モデルラベル一つず
つの類似度を評価して照合を行い、認識を実現する例に
ついて説明したが、近傍のラベル間の相対位置関係を用
いて照合してもよく、同様の効果を奏する。
でにおいて、空間的バンドパスフィルタとしてDOG
(Difference of Gaussian)関数を用いたが、他の同様
の特性を示す関数を用いても同様の効果がある。
化しにくく、2値のテンプレートマッチングが行えない
画像に対しても、相関演算のような複雑かつ処理時間の
かかる処理することなく、良好に画像のテンプレートマ
ッチングができるという効果を奏する。
2値化しにくい画像に対して良好に領域のセグメント化
を可能とすることができるという効果を奏する。本発明
により、単一のしきい値では2値化しにくい画像に対し
て良好に領域のセグメント化が可能で、特に画像が2次
元のパターンである場合にはゼロクロスを境界とする領
域を生成することができるという効果を奏する。本発明
により、画像上の物体に関する3次元モデル、または頂
点辞書を必要としないで輪郭をセグメント化することが
できるという効果を奏する。
るさや形状が変化する場合でも安定して動きが抽出で
き、また、高速に処理することができるという効果を奏
する。本発明により、連続画像間の物体の視差を検出し
てステレオ視の原理で物体の奥行きを求める場合に、高
速に処理が可能で、かつ画面内に目的以外の物体が複数
存在する場合にも不要な輪郭線による誤対応は低減する
ことが可能で、信頼性よく視差を検出することができる
という効果を奏する。
していたり、画像全体に濃度むらが生じているなど、従
来では領域分割が不安定な結果を生じる場合でも、安定
して領域分割が可能になり、分割された領域ラベルを用
いて信頼性の高い対象物の認識が可能になる効果を奏す
る。
ャートである。
状を示す模式図である。
ルタの効果を説明するための模式図である。
パターンの値の画素としての一致度合いを示す評価値を
説明するための図である。
子回路で構成した一例を説明するための模式図である。
子回路で構成した一例を説明するための模式図におい
て、信号Iと信号Rの組み合わせから決定される信号X
0,X1,Y0,Y1の値、論理素子(73および7
4)の入力と出力信号の関係、および信号Iと信号Rの
組み合わせから決定される信号Mの値をそれぞれ説明す
る図である。
ャートである。
た模式図である。
チャートである。
メント化処理結果を示す模式図である。
の結果を示す模式図である。
チャートである。
処理結果および輪郭セグメント化処理結果の例を説明す
る模式図である。
処理を説明するための模式図である。
チャートである。
形状を示す模式図である。
式的に示した図である。
した領域ラベルを模式的に表現した図である。
チャートである。
用するn枚の連続画像を模式的に表した図である。
チャートである。
果を模式的に示した説明図である。
マッチング処理の流れを示すフローチャートである。
装置を示すブロック図である。
装置の動作を示すフローチャートである。
来の画像処理装置を示すブロック図である。
来の画像処理装置の動作を示すフローチャートである。
来の画像処理装置における濃度ヒストグラム生成処理の
処理結果の例を示す模式図である。
装置を示すブロック図である。
装置の動作を示すフローチャートである。
装置における頂点辞書の内容を説明するための図であ
る。
来の画像処理装置を示すブロック図である。
来の画像処理装置の動作を説明するためのフローチャー
トである。
来の画像処理装置の動作を説明するために用いた、連続
画像の例を模式的に表した図である。
来の画像処理装置で用いられる、輪郭セグメントの照合
を説明するための図である。
装置のブロック図である。
装置の動作の流れを示すフローチャートである。
装置に用いられている特徴空間の模式図である。
装置の他の例を説明するためのフローチャートである。
装置で使用されるグラフマッチング処理の様子を模式的
に示した説明図である。
装置で用いられている画像の領域分割方法を説明するた
めのフローチャートである。
装置における画像から領域を抽出する様子を示す説明図
である。
Claims (7)
- 【請求項1】 2次元の参照パターンを有し、前記参照
パターンを目的の画像の一部分と比較し、画像の類似度
を調べることによって最も類似している部分を決定する
機能を有する画像処理装置において、前記参照パターン
及び前記目的画像にそれぞれ空間的バンドパスフィルタ
を作用させる空間的バンドパスフィルタリング手段と、
前記空間的バンドパスフィルタリング手段の出力を2種
類のしきい値でしきい値処理し3値画像を得る3値化処
理手段と、前記3値化処理手段の出力をもとに画像の類
似度を決定する類似度計算手段とを備えたことを特徴と
する画像処理装置。 - 【請求項2】 画像中の領域をセグメント化する機能を
有する画像処理装置において、原画像に空間的バンドパ
スフィルタを作用させる空間的バンドパスフィルタリン
グ手段と、前記空間的バンドパスフィルタリング手段の
出力を第1のしきい値及び第1のしきい値より大きい値
の第2のしきい値でしきい値処理し、前記第1のしきい
値と前記第2のしきい値の間の値を持つ画素のみを用い
て画像をセグメント化する領域セグメント化手段とを備
えたことを特徴とする画像処理装置。 - 【請求項3】 画像中の領域をセグメント化する機能を
有する画像処理装置において、原画像に空間的バンドパ
スフィルタを作用させる空間的バンドパスフィルタリン
グ手段と、前記空間的バンドパスフィルタリング手段の
出力を第1のしきい値及び第2のしきい値によって各画
素が3種類の値のどれかひとつを持つように変換する3
値化処理手段と、前記3値化処理手段の出力から前記3
種類の値ごとに領域をセグメント化する領域セグメント
化手段と、前記領域セグメント化手段の出力を必要に応
じて合成するセグメント合成手段とを備えたことを特徴
とする画像処理装置。 - 【請求項4】 画像中の輪郭画素をセグメント化する機
能を有する画像処理装置において、原画像に空間的バン
ドパスフィルタを作用させる空間的バンドパスフィルタ
リング手段と、前記空間的バンドパスフィルタリング手
段の出力を第1のしきい値及び第1のしきい値より大き
い値の第2のしきい値でしきい値処理し、前記第1のし
きい値と前記第2のしきい値の間の値を持つ画素のみを
用いて画像をセグメント化する領域セグメント化手段
と、画像から輪郭画素を抽出する輪郭抽出手段と、前記
輪郭抽出手段の出力である輪郭画素毎に該画素に最も近
い領域セグメントを求めることによって該画素のセグメ
ント化を行なう輪郭セグメント化手段とを備えたことを
特徴とする画像処理装置。 - 【請求項5】 連続する画像から動いている物体の動き
を抽出する画像処理装置において、原画像に空間的バン
ドパスフィルタを作用させる空間的バンドパスフィルタ
手段と、前記空間的バンドパスフィルタ手段の出力をも
とに画像中の出力信号をしきい値処理するしきい値処理
手段と、前記しきい値処理手段の出力をもとに画像中の
領域をラベル付けするラベリング手段と、前記ラベルの
画像中の位置を検出するラベル位置検出手段と、連続画
像中の2つの異なった画像に対して前記空間的バンドパ
スフィルタ手段、前記しきい値処理手段、前記ラベリン
グ手段、及び前記ラベル位置検出手段をそれぞれ作用さ
せて得られた2つのラベル位置の画像上の位置関係から
動いている物体の動きベクトルを抽出する動きベクトル
抽出手段とを備えたことを特徴とする画像処理装置。 - 【請求項6】 連続する複数の画像から注目する物体の
画像上の動きを順次検出することによって前記連続画像
上での物体の視差を計算する画像処理装置において、原
画像に空間的バンドパスフィルタを作用させる空間的バ
ンドパスフィルタ手段と、前記空間的バンドパスフィル
タ手段の出力信号をしきい値処理するしきい値処理手段
と、前記しきい値処理手段の出力をもとに画像中の領域
をラベル付けするラベリング手段と、前記ラベルの画像
中の位置を検出するラベル位置検出手段と、複数の原画
像をもとに得られた複数のラベル位置検出手段から前記
複数の原画像上で動く注目物体のラベルの画面間の対応
付けを計算するラベル対応計算手段と、前記連続画像の
最初及び最後の画像から輪郭部分を抽出する輪郭抽出手
段と、前記ラベル対応計算手段の出力及び前記輪郭抽出
手段の出力をもとに前記連続画像の最初と最後の画像間
の注目する物体に関する視差を計算する視差計算手段と
を備えたことを特徴とする画像処理装置。 - 【請求項7】 認識すべき対象物の原画像を得る原画像
入力手段と、前記原画像に空間的バンドパスフィルタリ
ング処理を施す空間的バンドパスフィルタ手段と、前記
空間的バンドパスフィルタ手段の出力をしきい値処理す
るしきい値処理手段と、前記しきい値処理手段でしきい
値処理された画像から複数の領域を抽出するラベリング
手段と、前記原画像から前記複数の領域のそれぞれに対
して明るさに関する情報を抽出する濃度情報抽出手段
と、前記ラベリング手段によりラベリングされたラベリ
ング結果に前記濃度情報抽出手段で抽出された明るさに
関する情報を付加したラベルを生成する濃度情報付きラ
ベル生成手段と、前記濃度情報付きラベル生成手段で生
成された濃度情報付きラベルを計算機内部のモデルデー
タと照合して前記認識すべき対象物を認識するマッチン
グ手段とを備えたことを特徴とする画像処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4246319A JP2940317B2 (ja) | 1992-06-24 | 1992-09-16 | 画像処理装置 |
US08/081,463 US5625717A (en) | 1992-06-24 | 1993-06-22 | Image processing device for processing grey level images |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4-165967 | 1992-06-24 | ||
JP16596792 | 1992-06-24 | ||
JP4246319A JP2940317B2 (ja) | 1992-06-24 | 1992-09-16 | 画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0676062A true JPH0676062A (ja) | 1994-03-18 |
JP2940317B2 JP2940317B2 (ja) | 1999-08-25 |
Family
ID=26490507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4246319A Expired - Fee Related JP2940317B2 (ja) | 1992-06-24 | 1992-09-16 | 画像処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5625717A (ja) |
JP (1) | JP2940317B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005293334A (ja) * | 2004-04-01 | 2005-10-20 | Nikon Corp | テンプレートマッチング装置 |
JP2009093612A (ja) * | 2007-04-17 | 2009-04-30 | Avago Technologies Ecbu Ip (Singapore) Pte Ltd | 光学ナビゲーションのために画像データのフレーム内の特徴クラスタにラベル付けするシステムおよび方法 |
JP2010247959A (ja) * | 2009-04-16 | 2010-11-04 | Ihi Corp | 箱状ワーク認識装置および方法 |
JP2010267252A (ja) * | 2009-05-13 | 2010-11-25 | Fujitsu Ltd | 画像処理方法及び画像処理装置 |
JP2011233059A (ja) * | 2010-04-30 | 2011-11-17 | Seiko Epson Corp | 画像処理装置、画像処理方法、把持ロボットおよびプログラム |
CN110996772B (zh) * | 2017-08-15 | 2024-04-02 | 玛雷迪夫美国公司 | 乳腺癌检测 |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222939B1 (en) | 1996-06-25 | 2001-04-24 | Eyematic Interfaces, Inc. | Labeled bunch graphs for image analysis |
US5999658A (en) * | 1996-06-28 | 1999-12-07 | Dainippon Screen Mfg. Co., Ltd. | Image tone interpolation method and apparatus therefor |
US7650015B2 (en) * | 1997-07-22 | 2010-01-19 | Image Processing Technologies. LLC | Image processing method |
US7181047B2 (en) * | 1996-07-26 | 2007-02-20 | Patrick Pirim | Methods and apparatus for identifying and localizing an area of relative movement in a scene |
FR2751772B1 (fr) | 1996-07-26 | 1998-10-16 | Bev Bureau Etude Vision Soc | Procede et dispositif fonctionnant en temps reel, pour le reperage et la localisation d'une zone en mouvement relatif dans une scene, ainsi que pour la determination de la vitesse et la direction du deplacement |
US7308126B2 (en) | 1997-08-28 | 2007-12-11 | Icad, Inc. | Use of computer-aided detection system outputs in clinical practice |
US6137898A (en) * | 1997-08-28 | 2000-10-24 | Qualia Computing, Inc. | Gabor filtering for improved microcalcification detection in digital mammograms |
US5999639A (en) * | 1997-09-04 | 1999-12-07 | Qualia Computing, Inc. | Method and system for automated detection of clustered microcalcifications from digital mammograms |
US6970587B1 (en) | 1997-08-28 | 2005-11-29 | Icad, Inc. | Use of computer-aided detection system outputs in clinical practice |
US6996549B2 (en) | 1998-05-01 | 2006-02-07 | Health Discovery Corporation | Computer-aided image analysis |
GB2341965A (en) * | 1998-09-24 | 2000-03-29 | Secr Defence | Pattern recognition |
US6788829B1 (en) | 1999-03-31 | 2004-09-07 | Minolta Co., Ltd. | Image processing apparatus and method for recognizing specific pattern and recording medium having image processing program recorded thereon |
US6643400B1 (en) | 1999-03-31 | 2003-11-04 | Minolta Co., Ltd. | Image processing apparatus and method for recognizing specific pattern and recording medium having image processing program recorded thereon |
US6355922B1 (en) * | 1999-06-14 | 2002-03-12 | Raytheon Company | Imaging system and method for hardbody detection and sensor fixed artifact rejection |
US6801645B1 (en) | 1999-06-23 | 2004-10-05 | Icad, Inc. | Computer aided detection of masses and clustered microcalcifications with single and multiple input image context classification strategies |
JP2001101415A (ja) * | 1999-09-29 | 2001-04-13 | Fujitsu Ten Ltd | 画像認識装置および画像処理装置 |
FR2805629B1 (fr) * | 2000-02-24 | 2002-08-30 | Holding Bev Sa | Procede et dispositif de perception automatique |
US7043465B2 (en) * | 2000-02-24 | 2006-05-09 | Holding B.E.V.S.A. | Method and device for perception of an object by its shape, its size and/or its orientation |
US7136842B2 (en) * | 2000-02-24 | 2006-11-14 | Holding B.E.V. S.A. | Method and device for adapting a signal for the detection of the movement of an object |
KR20020064897A (ko) * | 2000-09-07 | 2002-08-10 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 디지털 이미지들의 세그멘테이션 |
US7392287B2 (en) * | 2001-03-27 | 2008-06-24 | Hemisphere Ii Investment Lp | Method and apparatus for sharing information using a handheld device |
FR2828613B1 (fr) | 2001-08-10 | 2003-11-07 | Holding Bev Sa | Dispositif et procede de traitement pour systeme de perception automatique |
EP1306805A1 (en) * | 2001-10-25 | 2003-05-02 | Mitsubishi Electric Information Technology Centre Europe B.V. | Image Analysis |
US20090174554A1 (en) | 2005-05-11 | 2009-07-09 | Eric Bergeron | Method and system for screening luggage items, cargo containers or persons |
US20070041613A1 (en) * | 2005-05-11 | 2007-02-22 | Luc Perron | Database of target objects suitable for use in screening receptacles or people and method and apparatus for generating same |
US7991242B2 (en) | 2005-05-11 | 2011-08-02 | Optosecurity Inc. | Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality |
DE102005022696A1 (de) * | 2005-05-18 | 2006-11-23 | Benecke-Kaliko Ag | Verfahren zur Herstellung von dreidimensional strukturierten Oberflächen |
US8014601B2 (en) * | 2005-11-29 | 2011-09-06 | Nec Corporation | Pattern recognizing apparatus, pattern recognizing method and pattern recognizing program |
US7899232B2 (en) | 2006-05-11 | 2011-03-01 | Optosecurity Inc. | Method and apparatus for providing threat image projection (TIP) in a luggage screening system, and luggage screening system implementing same |
US8494210B2 (en) | 2007-03-30 | 2013-07-23 | Optosecurity Inc. | User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same |
US8184910B2 (en) * | 2008-03-18 | 2012-05-22 | Toshiba Tec Kabushiki Kaisha | Image recognition device, image recognition method, and image scanning apparatus having image recognition device |
US7995854B2 (en) * | 2008-03-28 | 2011-08-09 | Tandent Vision Science, Inc. | System and method for identifying complex tokens in an image |
AU2012304490B2 (en) | 2011-09-07 | 2015-06-25 | Rapiscan Systems, Inc. | X-ray inspection system that integrates manifest data with imaging/detection processing |
US8971637B1 (en) | 2012-07-16 | 2015-03-03 | Matrox Electronic Systems Ltd. | Method and system for identifying an edge in an image |
CN104077770B (zh) * | 2014-06-17 | 2017-03-15 | 中国科学院合肥物质科学研究院 | 一种植物叶片图像局部自适应树形结构特征匹配方法 |
US10302807B2 (en) | 2016-02-22 | 2019-05-28 | Rapiscan Systems, Inc. | Systems and methods for detecting threats and contraband in cargo |
CN109276217B (zh) * | 2018-12-05 | 2021-12-24 | 济宁市龙浩钢管制造有限公司 | 过滤器实时驱动平台 |
US10922824B1 (en) * | 2019-08-13 | 2021-02-16 | Volkswagen Ag | Object tracking using contour filters and scalers |
CN112801980B (zh) * | 2021-01-28 | 2023-08-08 | 浙江聚视信息技术有限公司 | 一种图像的角点检测方法及装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4472786A (en) * | 1982-04-23 | 1984-09-18 | The United States Of America As Represented By The Secretary Of The Navy | Analog Gaussian convolver |
US4736448A (en) * | 1984-03-31 | 1988-04-05 | Kabushiki Kaisha Toshiba | Spatial filter |
US4811408A (en) * | 1987-11-13 | 1989-03-07 | Light Signatures, Inc. | Image dissecting document verification system |
US5109435A (en) * | 1988-08-08 | 1992-04-28 | Hughes Aircraft Company | Segmentation method for use against moving objects |
US4918739A (en) * | 1988-08-12 | 1990-04-17 | Maraven, S.A. | Process and system for digital analysis of images applied to stratigraphic data |
US5173949A (en) * | 1988-08-29 | 1992-12-22 | Raytheon Company | Confirmed boundary pattern matching |
JP3009149B2 (ja) * | 1988-09-22 | 2000-02-14 | 株式会社日立製作所 | パターンデータ処理装置及びプロセス計測情報処理装置及び画像処理装置及び画像認識装置 |
US5109425A (en) * | 1988-09-30 | 1992-04-28 | The United States Of America As Represented By The United States National Aeronautics And Space Administration | Method and apparatus for predicting the direction of movement in machine vision |
US5054097A (en) * | 1988-11-23 | 1991-10-01 | Schlumberger Technologies, Inc. | Methods and apparatus for alignment of images |
US5034986A (en) * | 1989-03-01 | 1991-07-23 | Siemens Aktiengesellschaft | Method for detecting and tracking moving objects in a digital image sequence having a stationary background |
US5063448A (en) * | 1989-07-31 | 1991-11-05 | Imageware Research And Development Inc. | Apparatus and method for transforming a digitized signal of an image |
KR940007346B1 (ko) * | 1991-03-28 | 1994-08-13 | 삼성전자 주식회사 | 화상 처리 시스템의 엣지 검출 장치 |
US5168531A (en) * | 1991-06-27 | 1992-12-01 | Digital Equipment Corporation | Real-time recognition of pointing information from video |
-
1992
- 1992-09-16 JP JP4246319A patent/JP2940317B2/ja not_active Expired - Fee Related
-
1993
- 1993-06-22 US US08/081,463 patent/US5625717A/en not_active Expired - Lifetime
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005293334A (ja) * | 2004-04-01 | 2005-10-20 | Nikon Corp | テンプレートマッチング装置 |
JP2009093612A (ja) * | 2007-04-17 | 2009-04-30 | Avago Technologies Ecbu Ip (Singapore) Pte Ltd | 光学ナビゲーションのために画像データのフレーム内の特徴クラスタにラベル付けするシステムおよび方法 |
US8094937B2 (en) | 2007-04-17 | 2012-01-10 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | System and method for labeling feature clusters in frames of image data for optical navigation |
JP2010247959A (ja) * | 2009-04-16 | 2010-11-04 | Ihi Corp | 箱状ワーク認識装置および方法 |
JP2010267252A (ja) * | 2009-05-13 | 2010-11-25 | Fujitsu Ltd | 画像処理方法及び画像処理装置 |
JP2011233059A (ja) * | 2010-04-30 | 2011-11-17 | Seiko Epson Corp | 画像処理装置、画像処理方法、把持ロボットおよびプログラム |
CN110996772B (zh) * | 2017-08-15 | 2024-04-02 | 玛雷迪夫美国公司 | 乳腺癌检测 |
Also Published As
Publication number | Publication date |
---|---|
JP2940317B2 (ja) | 1999-08-25 |
US5625717A (en) | 1997-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2940317B2 (ja) | 画像処理装置 | |
US11080932B2 (en) | Method and apparatus for representing a virtual object in a real environment | |
US8929602B2 (en) | Component based correspondence matching for reconstructing cables | |
US10109055B2 (en) | Multiple hypotheses segmentation-guided 3D object detection and pose estimation | |
US7822264B2 (en) | Computer-vision system for classification and spatial localization of bounded 3D-objects | |
CN112132897A (zh) | 一种基于深度学习之语义分割的视觉slam方法 | |
US7340089B2 (en) | Geometric pattern matching using dynamic feature combinations | |
JPH07129770A (ja) | 画像処理装置 | |
JP2008046903A (ja) | 対象個数検出装置および対象個数検出方法 | |
JP2001043376A (ja) | 画像抽出方法及び装置並びに記憶媒体 | |
JP4946878B2 (ja) | 画像識別装置及びプログラム | |
Priya et al. | Object recognition and 3D reconstruction of occluded objects using binocular stereo | |
CN113435319B (zh) | 一种联合多目标跟踪和行人角度识别的分类方法 | |
Yogeswaran et al. | 3d surface analysis for automated detection of deformations on automotive body panels | |
WO2004084138A2 (en) | A method for contour extraction for object representation | |
CN115830359A (zh) | 复杂场景下基于目标检测和模板匹配的工件识别计数方法 | |
CN112364709A (zh) | 基于编码识别的机柜智能资产盘点方法 | |
US5974170A (en) | Method of detecting relief contours in a pair of stereoscopic images | |
CN117593548A (zh) | 基于加权注意力机制去除动态特征点的视觉slam方法 | |
JP2002133413A (ja) | 画像処理を用いる3次元物体の識別方法および装置 | |
Di Mauro et al. | Active Shape Model Search using Pairwise Geometric Histograms. | |
JPH05314244A (ja) | 3次元情報抽出方法 | |
CN113658089A (zh) | 一种基于深度相机的双数据流融合物体识别方法 | |
Stevens et al. | Integrating graphics and vision for object recognition | |
JPH05141930A (ja) | 3次元形状計測装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080618 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080618 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090618 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100618 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100618 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110618 Year of fee payment: 12 |
|
LAPS | Cancellation because of no payment of annual fees |