JP2881193B1 - 3次元物体認識装置および方法 - Google Patents

3次元物体認識装置および方法

Info

Publication number
JP2881193B1
JP2881193B1 JP10049520A JP4952098A JP2881193B1 JP 2881193 B1 JP2881193 B1 JP 2881193B1 JP 10049520 A JP10049520 A JP 10049520A JP 4952098 A JP4952098 A JP 4952098A JP 2881193 B1 JP2881193 B1 JP 2881193B1
Authority
JP
Japan
Prior art keywords
image
similarity
information
selected pixel
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP10049520A
Other languages
English (en)
Other versions
JPH11250252A (ja
Inventor
茂 木村
勝之 中野
博義 山口
哲也 新保
英二 川村
正人 緒方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Mitsubishi Precision Co Ltd
Original Assignee
Komatsu Ltd
Mitsubishi Precision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd, Mitsubishi Precision Co Ltd filed Critical Komatsu Ltd
Priority to JP10049520A priority Critical patent/JP2881193B1/ja
Application granted granted Critical
Publication of JP2881193B1 publication Critical patent/JP2881193B1/ja
Publication of JPH11250252A publication Critical patent/JPH11250252A/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【要約】 【課題】画像センサの配設位置、姿勢によって一義的に
定まる作業視野に限定されることなく、作業状況に応じ
た作業視野を取得できるようにする。 【解決手段】所望の位置で、所望の視野をもって物体5
0を撮像したときの仮想画像センサ21による仮想画像
#21が、一の撮像手段1の画像#1の代わりに、設定
される。そして、設定された仮想画像#21中の位置
(i、j)で特定される選択画素P21に対応する複数の
撮像手段1〜Nの画像#1〜#N中の対応候補点Pk
位置座標(Xk、Yk)(k=1、…、N)が、仮想画像
センサ21から選択画素P21に対応する物体50上の点
50aまでの仮定距離znの大きさ毎に発生される。そ
して、発生された対応候補点Pkの位置座標(Xk
k)(k=1、…、N)の画像情報同士の類似度が算
出される。そして、上記算出された類似度が最も大きく
なるときの仮定距離znxが、仮想画像センサ21から選
択画素P21に対応する物体50上の点50aまでの距離
とされ、この距離znxが各選択画素毎に求められる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、物体の認識装置お
よびその方法に関し、異なる位置に配置された複数の撮
像手段による画像情報から三角測量の原理を利用して認
識対象物体までの距離情報など、認識対象物体の3次元
情報を算出して、この3次元情報を用いて物体を認識す
るような場合に適用して好適な装置および方法に関す
る。
【0002】
【従来の技術】従来より、撮像手段たる画像センサの撮
像結果に基づき認識対象物体までの距離を計測する方法
として、ステレオビジョン(ステレオ視)による計測方
法が広く知られている。
【0003】この計測方法は2次元画像から、距離、深
度、奥行きといった3次元情報を得るために有用な方法
である。
【0004】すなわち、2台の画像センサを例えば左右
に配置し、これら2台の画像センサで同一の認識対象物
を撮像したときに生じる視差から、三角測量の原理で対
象物までの距離を測定するという方法である。このとき
の左右の画像センサの対はステレオ対と呼ばれており、
2台で計測を行うことから2眼ステレオ視と呼ばれてい
る。
【0005】図20は、こうした2眼ステレオ視の原理
を示したものである。
【0006】同図に示すように、2眼ステレオ視では、
左右の画像センサ1、2の画像#1(撮像面1a上で得
られる)、画像#2(撮像面2a上で得られる)中の、
対応する点P1、P2の位置の差である視差(ディスパリ
ティ)dを計測する必要がある。一般に視差dは、3次
元空間中の点50a(認識対象物体50上の点)までの
距離zとの間に、次式で示す関係が成立する。
【0007】z=F・B/ d …(1) ここに、Bは左右の画像センサ1、2間の距離(基線
長)であり、Fは画像センサ1のレンズ31、画像セン
サ2のレンズ32の焦点距離である。通常、基線長Bと
焦点距離Fは既知であるので、視差dが分かれば、距離
zは一義的に求められることになる。この視差dは、両
画像#1、#2間で、どの点がどの点に対応するかを逐
一探索することにより算出することができる。このとき
の一方の画像#1上の点P1に対応する他方の画像#2
上の点P2のことを「対応点」と以下呼ぶこととし、対
応点を探索することを、以下「対応点探索」と呼ぶこと
にする。物体50までの距離を仮定したとき、この仮定
距離をもって探索される一方の画像#1上の点P1に対
応する他方の画像#2上の点のことを以下「対応候補
点」と呼ぶことにする。2眼ステレオ視による計測を行
う場合、上記対応点探索を行った結果、真の距離zに対
応する真の対応点P2を検出することができれば、真の
視差dを算出することができたことになり、このとき対
象物50上の点50aまでの真の距離zが計測できたと
いえる。
【0008】こうした処理を、一方の画像#1の全画素
について実行することにより、画像#1の全選択画素に
距離情報を付与した画像(距離画像)が生成されること
になる。上記対応点を探索して真の距離を求める処理
を、図21、図22、図23を用いて詳述する。
【0009】図23は、従来の2眼ステレオ視による距
離計測装置(物体認識装置)の構成を示すブロック図で
ある。
【0010】基準画像入力部101には、視差d (距
離z)を算出する際に基準となる画像センサ1で撮像さ
れた基準画像#1が取り込まれる。一方、画像入力部1
02には、基準画像#1上の点に対応する対応点が存在
する画像である画像センサ2の画像#2が取り込まれ
る。
【0011】つぎに、対応候補点座標発生部103、局
所情報抽出部104、類似度算出部105、距離推定部
106における処理を図21を用いて説明すると、ま
ず、対応候補点座標発生部103では、基準画像#1の
各画素に対して、仮定した距離zn毎に、画像センサ2
の画像#2の対応候補点の位置座標が記憶、格納されて
おり、これを読み出すことにより対応候補点の位置座標
を発生する。
【0012】すなわち、基準画像センサ1の基準画像#
1の中から位置(i,j)で特定される画素P1が選択
されるとともに、認識対象物体50までの距離znが仮
定される。そして、この仮定距離znに対応する他方の
画像センサ2の画像#2内の対応候補点P2の位置座標
(X2,Y2)が読み出される。
【0013】つぎに、局所情報抽出部104では、この
ようにして対応候補点座標発生部103によって発生さ
れた対応候補点の位置座標に基づき局所情報を抽出する
処理が実行される。ここで、局所情報とは、対応候補点
の近傍の画素を考慮して得られる対応候補点の画像情報
のことである。
【0014】さらに、類似度算出部105では、上記局
所情報抽出部104で得られた対応候補点P2の局所情
報F2と基準画像の選択画素P1の画像情報との類似度が
算出される。
【0015】具体的には、基準画像#1の選択された画
素の周囲の領域と、画像センサ2の画像#2の対応候補
点の周囲の領域とのパターンマッチングにより、両画像
の領域同士が比較されて、類似度が算出される。つま
り、類似度の安定化処理が行われる。
【0016】すなわち、図21に示すように、基準画像
#1の選択画素P1の位置座標を中心とするウインドウ
WD1が切り出されるとともに、画像センサ2の画像#
2の対応候補点P2の位置座標を中心とするウインドウ
WD2が切り出され、これらウインドウWD1、 WD2
士についてパターンマッチングを行うことにより、これ
らの類似度が算出される。このパターンマッチングは各
仮定距離zn毎に行われる。そして同様のパターンマッ
チングが、基準画像#1の各選択画素毎に全画素につい
て行われる。
【0017】図22は、仮定距離znと類似度逆数Qsと
の対応関係を示すグラフである。図21のウインドウW
1と、仮定距離がz'nのときの対応候補点の位置を中
心とするウインドウWD' 2とのマッチングを行った結
果は、図22に示すように類似度の逆数Qsとして大き
な値が得られている(類似度は小さくなっている)が、
図21のウインドウWD1と、仮定距離がznxのときの
対応候補点の位置を中心とするウインドウWD2とのマ
ッチングを行った結果は、図22に示すように類似度の
逆数Qsは小さくなっている(類似度は大きくなってい
る)のがわかる。
【0018】なお、類似度は、一般に比較すべき選択画
素と対応候補点の画像情報の差の絶対値や、差の2乗和
として求められる。このようにして仮定距離znと類似
度の逆数Qsとの対応関係から、最も類似度が高くなる
点(類似度の逆数Qsが最小値となる点)を判別し、こ
の最も類似度が高くなっている点に対応する仮定距離z
nxを最終的に、認識対象物体50上の点50aまでの真
の距離(最も確からしい距離)と推定する。
【0019】つまり、図21における仮定距離znxに対
応する対応候補点P2が選択画素P1に対する対応点であ
るとされる。このように、距離推定部106では、基準
画像#1の選択画素について仮定距離znを順次変化さ
せて得られた各類似度の中から、最も類似度の高くなる
ものが判別され、最も類似度が高くなる仮定距離znx
真の距離と推定され、出力される。
【0020】以上、2眼ステレオ視による場合を説明し
たが、3台以上の画像センサを用いてもよい。3台以上
の画像センサを用いて距離計測(物体認識)を行うこと
を、多眼ステレオ視による距離計測(物体認識)と称す
ることにする。
【0021】多眼ステレオ視は対応点のあいまいさを低
減できるため格段に信頼性を向上できるので最近良く用
いられている。この多眼ステレオ視による距離計測装置
(物体認識装置)では、複数の画像センサを、2台の画
像センサからなるステレオ対に分割し、それぞれのステ
レオ対に対し、前述した2眼ステレオ視の原理を繰り返
し適用する方式をとっている。
【0022】すなわち、複数ある画像センサの中から基
準となる画像センサを選択し、この基準画像センサと他
の画像センサとの間で、ステレオ対を構成する。そし
て、各ステレオ対に対して2眼ステレオ視の場合の処理
を適用していく。この結果、基準画像センサから基準画
像センサの視野内に存在する認識対象物までの距離が計
測されることになる。
【0023】従来の多眼ステレオにおけるステレオ対の
関係を図24を参照して説明すると、図21に示す2眼
ステレオでは、基準画像#1と対をなす対応画像は#2
の1つであったが、多眼ステレオでは、基準画像#1と
画像センサ2の画像#2の対、基準画像#1と画像セン
サ3の画像#3の対、…、基準画像#1と画像センサN
の画像#Nの対という具合に複数のステレオ対が存在す
る。
【0024】こうした対応画像と基準画像の各ステレオ
対に基づく処理を行う前には、画像センサたるカメラの
取付け歪みなどを考慮する必要があり、通常はキャリブ
レーションによる補正処理を前もって行うようにしてい
る。多眼ステレオによって対応点を探索して真の距離を
求める処理を、前述した2眼ステレオの図21、図23
に対応する図24、図25を用いて詳述する。
【0025】図24は、従来の多眼ステレオ視による距
離計測装置(物体認識装置)の構成を説明する図であ
る。なお、各画像センサ1、2、3、…、Nは、水平、
垂直あるいは斜め方向に所定の間隔で配置されているも
のとする(説明の便宜上、図24では一定間隔で左右に
配置されている場合を示している)。
【0026】図26の基準画像入力部201には、視差
d(距離z)を算出する際に基準となる画像センサ1で
撮像された基準画像#1が取り込まれる。一方、画像入
力部202には、基準画像#1上の点に対応する対応点
が存在する画像である画像センサ2の画像#2が取り込
まれる。他の画像入力部203、204においても、基
準画像#1に対応する画像センサ3の画像#3が、基準
画像#1に対応する画像センサNの画像#Nがそれぞれ
取り込まれる。
【0027】対応候補点座標発生部205では、基準画
像#1の各選択画素P1に対して、仮定した距離zn
に、画像センサ2の画像#2の対応候補点P2の位置座
標、画像センサ3の画像#3の対応候補点P3の位置座
標、画像センサNの画像#Nの対応候補点PNの位置座
標がそれぞれ記憶、格納されており、これらを読み出す
ことにより各対応候補点の位置座標を発生する。
【0028】すなわち、基準画像センサ1の基準画像#
1の中から位置(i,j)で特定される画素P1が選択
されるとともに、認識対象物体50までの距離znが仮
定される。そして、この仮定距離znに対応する画像セ
ンサ2の画像#2内の対応候補点P2の位置座標(X2
2)が読み出される。
【0029】同様にして、基準画像#1の選択画素
1、仮定距離znに対応する画像センサ3の画像#3の
対応候補点P3の位置座標(X3,Y3)が読み出され、
基準画像#1の選択画素P1、仮定距離znに対応する画
像センサNの画像#Nの対応候補点PNの位置座標
(XN,YN)が読み出される。そして、仮定距離zn
順次変化させて同様の読み出しが行われる。また、選択
画素を順次変化させることによって同様の読み出しが行
われる。こうして対応候補点P2の位置座標(X2
2)、対応候補点P3の位置座標(X3,Y3)、対応候
補点PNの位置座標(XN,YN)が対応候補点座標発生
部205から出力される。
【0030】つぎに、局所情報抽出部206では、この
ようにして対応候補点座標発生部205によって発生さ
れた対応候補点P2の位置座標(X2,Y2)に基づき局
所情報を抽出する処理が実行される。同様にして、局所
情報抽出部207では、対応候補点座標発生部205で
発生された画像センサ3の画像#3の対応候補点P3
位置座標(X3,Y3)に基づいて、対応候補点P3の局
所情報が、局所情報抽出部208では、対応候補点座標
発生部205で発生された画像センサNの画像#Nの対
応候補点PNの位置座標(XN,YN)に基づいて、対応
候補点PNの局所情報がそれぞれ求められる。
【0031】さらに、類似度算出部209では、上記局
所情報抽出部206で得られた対応候補点P2の局所情
報F2と基準画像#1の選択画素P1の画像情報との類似
度が算出される。具体的には、基準画像#1の選択され
た画素の周囲の領域と、画像センサ2の画像#2の対応
候補点の周囲の領域とのパターンマッチングにより、両
画像の領域同士が比較されて、類似度が算出される。
【0032】すなわち、図24に示すように、基準画像
#1の選択画素P1の位置座標を中心とするウインドウ
WD1が切り出されるとともに、画像センサ2の画像#
2の対応候補点P2の位置座標を中心とするウインドウ
WD2が切り出され、これらウインドウWD1、 WD2
士についてパターンマッチングを行うことにより、これ
らの類似度が算出される。このパターンマッチングは各
仮定距離zn毎に行われる。
【0033】図2(1)は、仮定距離znとステレオ対
(基準画像センサ1と画像センサ2)の類似度の逆数Q
s1との対応関係を示すグラフである。
【0034】図24のウインドウWD1と、仮定距離が
z'nのときの対応候補点の位置座標を中心とするウイン
ドウWD'2とのマッチングを行った結果は、図2(1)
に示すように類似度の逆数Qsとして大きな値が得られ
ている(類似度は小さくなっている)が、図24のウイ
ンドウWD1と、仮定距離がznxのときの対応候補点の
位置座標を中心とするウインドウWD2とのマッチング
を行った結果は、図2(1)に示すように類似度の逆数
Qsは小さくなっている(類似度は大きくなっている)
のがわかる。
【0035】同様にして類似度算出部210では、基準
画像#1の選択画素P1の位置座標を中心とするウイン
ドウWD1と、画像センサ3の画像#3の対応候補点P3
の位置座標を中心とするウインドウWD3とのパターン
マッチングが実行され、これらの類似度が算出される。
そして、パターンマッチングが各仮定距離zn毎に行わ
れることによって、このステレオ対(画像センサ1と画
像センサ3)についても図2(2)に示すような仮定距
離znと類似度の逆数Qs2との対応関係が求められる。
【0036】同様にして類似度算出部211では、基準
画像#1の選択画素P1の位置座標を中心とするウイン
ドウWD1と、画像センサNの画像#Nの対応候補点PN
の位置座標を中心とするウインドウWDNとのパターン
マッチングが実行され、これらの類似度が算出される。
そして、パターンマッチングが各仮定距離zn毎に行わ
れることによって、このステレオ対(画像センサ1と画
像センサN)についても図2(N)に示すような仮定距
離znと類似度の逆数QsNとの対応関係が求められる。
【0037】最後に、各ステレオ対毎に得られた仮定距
離znと類似度の逆数との対応関係を仮定距離毎に加算
する。さらに図2(融合結果)に示すように仮定距離z
nと類似度の逆数の加算値との対応関係から、最も類似
度が高くなる点(類似度の逆数の加算値が最小値となる
点)を判別し、この最も類似度が高くなっている点に対
応する仮定距離znxを最終的に、認識対象物体50上の
点50aまでの真の距離(最も確からしい距離)と推定
する。かかる処理は、基準画像#1の各選択画素毎に全
画素について行われる。
【0038】以上のようにして、距離推定部212で
は、仮定距離znを順次変化させて得られた類似度の加
算値の中から、最も類似度の加算値が高くなるものが判
別され、最も類似度の加算値が高くなる仮定距離znx
真の距離と推定され、出力される。 そして、かかる距
離推定が基準画像#1の全画素について行われることか
ら、基準画像#1の全選択画素に距離情報を付与した画
像(距離画像)が生成されることになる。
【0039】
【発明が解決しようとする課題】本発明は、以下に列挙
する課題を解決しようとするものである。
【0040】(1)作業視野が固定で、所望の作業視野
に設定することができない。
【0041】上述したように従来の計測方法では、2眼
ステレオであれ、多眼ステレオであれ、基準となるべき
画像を得るための基準画像センサを用意し、この基準画
像に基づいて距離計測を行うようにしているため、この
基準画像センサの配設位置、取付時の傾きによって定ま
る観測視野(実際の画像センサから得られる視野のこと
をいう)でみた距離画像しか生成することができない。
【0042】すなわち、ひとたび画像センサが固定され
たならば、観測視野は一義的に定まってしまい、所望の
観測視野からみた距離画像を生成することはできなかっ
た。しかし、実際には、物体を認識する際に、作業状況
に応じて観測視野を変えてやり、所望の作業視野(作業
にとって必要な視野)をもって作業を行いたいとの要請
がある。
【0043】たとえば、図26に示すように、車両60
に画像センサ群11を搭載して作業を行う場合であれ
ば、車両60に固定した画像センサからみた車両60前
方の作業視野だけではなく、状況によっては、車両60
前方の障害物を俯瞰するような作業視野をもって障害物
を観測しつつ作業を行いたいとの要請がある。
【0044】本発明の第1発明はこうした実状に鑑みて
なされたものであり、画像センサの配設位置、姿勢によ
って定まる作業視野に限定されることなく、作業状況に
応じた作業視野を取得できるようにすることを第1の解
決課題とするものである。
【0045】(2)画像センサの光学系の種類に制約が
ある。
【0046】従来の多眼ステレオ視による計測は、2眼
ステレオの原理を前提にしており、各ステレオ対すべて
について同一の基準で類似度の比較を行うことが必要で
あることから、多眼ステレオを構成する各画像センサ
は、正確に同一な光学的特性を有している必要がある。
【0047】したがって、異なるレンズ特性を有した画
像センサを同時に使用したり、異なる感度の画像センサ
を同時に使用することはできない。
【0048】ここに、一般に野外などで距離計測を行う
場合には、測定する距離に応じて、広角レンズと望遠レ
ンズを同時に使用して計測能力の向上を図ったり、外光
の状況に応じて、感度の異なる2種類の画像センサ、つ
まり、通常の感度のモノクロ画像センサと赤外線画像セ
ンサを併用したいとの要請がある。
【0049】しかし、従来の多眼ステレオシステムで
は、画像センサの光学的特性を正確に同一に揃える必要
があることから、かかる光学的特性の異なる2種類の画
像センサを同時に使用することができなかった。
【0050】この場合、通常の感度のモノクロ画像セン
サ群と、赤外線画像センサ群の2種類の画像センサ群を
用意して、各画像センサ群ごとに基準画像センサを設定
して、計測を行うことも可能であろうが、それぞれの基
準画像センサの配設位置が異なることから、これら2種
類の画像センサ群の計測結果をそれぞれ突き合わせて総
合的な判断を行うことはできないことになっていた。ま
た、それぞれの基準画像センサの配設位置を物理的に全
く同一にすることは不可能である。
【0051】本発明の第2発明はこうした実状に鑑みて
なされたものであり、多眼ステレオによる計測におい
て、共通の仮想視野を設定することによって、2種類以
上の撮像条件の異なる画像センサ群それぞれの計測結果
を総合して判断できるようにして、計測の精度を向上さ
せることを第2の解決課題としている。
【0052】(3)画像センサの組合せに制約がある。
【0053】従来の多眼ステレオ視による計測は、2眼
ステレオの原理を前提にしており、各ステレオ対すべて
について同一の基準画像センサを基準に類似度の比較を
行うことが必要であることから、ひとたび基準画像セン
サが定まれば、複数のステレオ対は固定されてしまう。
そして、各ステレオ対すべてについて同一の基準で類似
度の比較を行なうことが必要である。したがって、状況
に応じて、それぞれ基準の異なるステレオ対を順次選択
したり、特定のステレオ対からの類似度に関する情報を
修正したり、異なる類似度算出の仕方を採用することは
できない。
【0054】ここに、刻々と変化する作業視野に応じ
て、特定の画像センサの対(あるいは3以上の組合せ)
を順次選択していき、状況変化に応じたきめの細かい計
測を行いたいとの要請があるが、これに対処することは
できない。
【0055】本発明の第3発明はこうした実状に鑑みて
なされたものであり、多眼ステレオによる計測におい
て、ステレオ対を固定して計測を行うのではなく、刻々
と変化する作業視野に応じて、特定のステレオ対の画像
センサ(あるいは3以上の画像センサの組合せ)を順次
選択していき、状況変化に対応したきめの細かい計測を
行うようにすることを第3の解決課題とするものであ
る。
【0056】(4)距離の計測結果を用いて物体を認識
することによる非効率。
【0057】従来の物体認識の一般的な方法は、まず全
空間について物体までの距離計測を行い、その後で、こ
れらの距離情報を解析して障害物までの距離、形状、大
きさなどの特徴を認識するものである。
【0058】しかし、図26に示すように車両60が道
路61を走行している場合のように、視野の状況が一様
のものであれば、全空間について距離計測を行うこと
は、非効率的である。
【0059】すなわち、道路61の存在する場所が予め
だいたい分かっていて、また車両60にとっての障害物
が道路61の直上に存在することが予想できるような場
合に、空中や道路の下の領域についても距離計測を実施
することは、演算処理上無駄が多く、演算処理が膨大な
ものとなってしまう。また、距離計測の処理の後で物体
の認識のための処理が必要となるが、これは単純な平面
上の障害物を認識するような場合でも複雑な処理にな
る。以上のように従来の計測方法では、効率のよい物体
の判別ができないばかりか、認識に誤りが発生する可能
性がある。
【0060】本発明の第4発明は、こうした実状に鑑み
てなされたものであり、認識対象の物体の形状などが予
め特定されている場合に、より効率よく、誤認識するこ
となく、計測を行えるようにすることを第4の解決課題
とするものである。
【0061】
【課題を解決するための手段および効果】そこで、第1
発明の主たる発明では、第1の解決課題を達成するため
に、複数の撮像手段を所定間隔をもって配置し、これら
複数の撮像手段のうちの一の撮像手段で対象物体を撮像
したときの当該一の撮像手段の撮像画像中の選択画素に
対応する他の撮像手段の撮像画像中の対応候補点の情報
を、前記一の撮像手段から前記選択画素に対応する前記
物体上の点までの仮定距離の大きさ毎に抽出し、前記選
択画素の画像情報と前記対応候補点の画像情報の類似度
を算出し、この算出された類似度が最も大きくなるとき
の前記仮定距離を、前記一の撮像手段から前記選択画素
に対応する前記物体上の点までの距離とし、この各選択
画素毎に求められた距離に基づき前記物体を認識するよ
うにした物体の認識装置において、所望の位置で、所望
の視野をもって前記物体を撮像したときの仮想の撮像手
段による仮想の撮像画像を、前記一の撮像手段の撮像画
像の代わりに、設定する仮想視野情報設定手段と、前記
仮想視野情報設定手段で設定された仮想画像中の選択画
素に対応する前記複数の撮像手段の撮像画像中の対応候
補点の情報を、前記仮想視野情報設定手段で設定された
視点から前記選択画素に対応する前記物体上の点までの
仮定距離の大きさ毎に抽出する対応候補点情報抽出手段
と、前記対応候補点情報抽出手段で抽出された対応候補
点の画像情報同士の類似度を算出する類似度算出手段
と、前記類似度算出手段で算出された類似度が最も大き
くなるときの前記仮定距離を、前記仮想視野情報設定手
段で設定された視点から前記選択画素に対応する前記物
体上の点までの距離とし、この距離を各選択画素毎に求
める距離推定手段とを具えるようにしている。
【0062】かかる構成によれば、図1と図4に示すよ
うに、仮想視野情報設定部305において、所望の位置
で、所望の視野をもって物体50を撮像したときの仮想
の撮像手段21による仮想画像#21が、一の撮像手段
1の画像#1の代わりに、設定される。
【0063】そして、対応候補点座標発生部306にお
いて、設定された仮想画像#21中の位置(i,j)で
特定される選択画素P21に対応する複数の撮像手段1〜
Nの画像#1〜#N中の対応候補点Pkの位置座標
(Xk,Yk)(k=1、…、N)を、仮定距離zn毎に
発生する。
【0064】そして、類似度算出手段311〜313に
おいて、発生された対応候補点Pkの位置座標(Xk,Y
k)(k=1、…、N)の画像情報同士の類似度が算出
される。
【0065】そして、距離推定手段314において、上
記算出された類似度の加算値が最も大きくなるときの仮
定距離znxが、仮想撮像手段21の選択画素P21に対応
する物体50上の点50aまでの距離として求められ
る。
【0066】このように、本発明によれば、基準画像セ
ンサたる一の撮像手段1の代わりに、所望の観測視野を
有した仮想の撮像手段21を任意に設定できるようにな
ったので、画像センサ1〜Nの配設位置、姿勢によって
定まる作業視野に限定されることなく、作業状況に応じ
た作業視野を取得することができる。とりわけ、物理的
に画像センサを配置することが困難であったり、画像セ
ンサの使用が困難な環境の良くない場所であっても、そ
の場所に実際の基準画像センサを配置したのと同じ視野
の距離画像を得ることができる。
【0067】さらに、以下の種々の効果がもたらされ
る。
【0068】すなわち、本発明によれば、空間認識、物
体認識を行うための基準となる観測視野を自由に変更で
きるため、後段の処理を効率よく行うことができる。
【0069】この点、従来の計測方法では、実際に得ら
れる作業視野は、実際の画像センサ1〜Nの何れかで得
られる観測視野に限定される。このため、取得された観
測視野に応じて対象物の認識や判断を行おうとすると、
その目的に応じた作業視野を取得する必要があり、この
ため座標変換を行ったり、画像センサの向きを物理的に
変更する必要があった。また、認識のためのアルゴリズ
ムも複雑になる場合があった。
【0070】本発明によれば、認識、判断などの後段の
処理に合わせて、自由に作業視野を変更することができ
るため、画像センサの向きを物理的に変更することなど
の複雑な後段の処理を要することなく、簡易に、効率よ
く、後段の認識、判断などの処理を行うことが可能にな
る。
【0071】また、本発明によれば、仮想画像#21、
つまり仮想視野に基づいて、各画像センサからの局所情
報を抽出するときに、それぞれの画像センサのキャリブ
レーションを同時に行っていることになる。このため、
キャリブレーションのためだけに新たに処理を追加する
必要がなく、かつ効率よくキャリブレーションを実行す
ることが可能である。
【0072】また、本発明によれば、実際に画像センサ
の配設位置を変化させることなく、仮想画像#21、つ
まり仮想視野を演算処理の上で任意に変更することがで
き、いわば「電子的な首振り」が可能であるので、機械
的に画像センサの位置、姿勢を変化させる機構を設けな
いで済む。このため、機械的故障などのない信頼性の高
いシステムを構築することが可能となる。よって、こう
した「電子的な首振り」を応用して、人の目線の動きに
合わせて、仮想視野を変更することも可能である。この
ようなシステムを構築することにより、遠隔地に居なが
らも、あたかも観測地点に居て自在に視線を向けた場合
の画像を生成することができる。
【0073】また、第2発明の主たる発明では、第2の
解決課題達成のために、複数の撮像手段を所定間隔をも
って配置し、これら複数の撮像手段のうちの一の撮像手
段で対象物体を撮像したときの当該一の撮像手段の撮像
画像中の選択画素に対応する他の撮像手段の撮像画像中
の対応候補点の情報を、前記一の撮像手段から前記選択
画素に対応する前記物体上の点までの仮定距離の大きさ
毎に抽出し、前記選択画素の画像情報と前記対応候補点
の画像情報の類似度を算出し、この算出された類似度が
最も大きくなるときの前記仮定距離を、前記一の撮像手
段から前記選択画素に対応する前記物体上の点までの距
離とし、この各選択画素毎に求められた距離に基づき前
記物体を認識するようにした物体の認識装置において、
前記複数の撮像手段は、前記物体を撮像する条件の異な
る少なくとも2種類の撮像手段群に分類されるものであ
り、所望の位置で、所望の視野をもって前記物体を撮像
したときの仮想の撮像手段による仮想の撮像画像を、前
記一の撮像手段の撮像画像の代わりに、設定する仮想視
野情報設定手段と、前記仮想視野情報設定手段で設定さ
れた仮想画像中の選択画素に対応するそれぞれの前記撮
像手段群の撮像画像中の対応候補点の情報を、前記仮想
視野情報設定手段で設定された視点から前記選択画素に
対応する前記物体上の点までの仮定距離の大きさ毎に抽
出する対応候補点情報抽出手段と、前記対応候補点情報
抽出手段で抽出された対応候補点の画像情報同士の類似
度を、それぞれの前記撮像手段群毎に算出する類似度算
出手段と、前記類似度算出手段で算出されたそれぞれの
前記撮像手段群についての類似度に基づいて融合類似度
を求め、この融合類似度が最も大きくなるときの前記仮
定距離を、前記仮想視野情報設定手段で設定された視点
から前記選択画素に対応する前記物体上の点までの距離
とし、この距離を各選択画素毎に求める距離推定手段と
を具えるようにしている。
【0074】かかる構成によれば、例えば2つの撮像手
段群で説明した場合、図7(b)に示すように、複数の
撮像手段11″が、物体50を撮像する条件の異なる2
種類の第1の撮像手段群141、142、…と第2の撮
像手段群151、152、…とに分類される。
【0075】そして、図1と図9に示すように、仮想視
野情報設定手段505において、所望の位置で、所望の
視野をもって物体50を撮像したときの仮想の撮像手段
21による仮想画像#21が、一の撮像手段141、1
51の画像#141、#151の代わりに、設定され
る。
【0076】そして、対応候補点座標発生部506にお
いて、設定された仮想画像#21中の位置(i,j)で
特定される選択画素P21に対応する第1の撮像手段群1
41、142、…の画像#141、#142、…中の対
応候補点および第2の撮像手段群151、152…の画
像#151、#152、…中の対応候補点Pkの位置座
標(Xk,Yk)が仮定距離znの大きさ毎に発生され
る。
【0077】そして、類似度算出手段511、512に
おいて、発生された対応候補点Pkの位置座標(Xk,Y
k)の画像情報同士の類似度が、第1の撮像手段群14
1、142、…、第2の撮像手段群151、152、
…、それぞれ毎に算出される。そして、距離推定手段5
15において、図10(a)、(b)、(c)に示すよ
うに、上記算出された第1の撮像手段群141、14
2、…についての類似度(類似度の逆数Qs1)と第2の
撮像手段群151、152、…についての類似度(類似
度の逆数Qs2)とを融合した融合類似度(類似度の逆数
の加算値Qs12)が最も大きくなるときの仮定距離znx
が各選択画素毎に求められる。
【0078】このように、多眼ステレオによる計測にお
いて、仮想撮像手段(仮想画像センサ)21を設定し
て、これを第1の撮像手段群(第1の画像センサ群)と
第2の撮像手段群(第2の画像センサ群)に共通の基準
画像センサとしたので(撮像手段群毎に別々に基準画像
センサを設定することを要しないので)、明視野用画像
センサ群と暗視野用画像センサ群、あるいは通常の感度
のモノクロ画像センサ群と、赤外線画像センサ群のよう
に、光学的特性の異なる画像センサ群同士であっても、
これら2種類の画像センサ群の計測結果をそれぞれ融合
して総合的な判断を行うことが可能となる。2種類の撮
像条件の異なる画像センサ群それぞれの計測結果を総合
して判断できるようになった結果、計測の精度を飛躍的
に向上させることができる。
【0079】以上は2種類の撮像手段群の場合で説明し
たが、3種類以上の撮像手段群の場合にも同様に適用さ
れる。
【0080】また、第3発明の主たる発明では、第3の
解決課題達成のために、複数の撮像手段を所定間隔をも
って配置し、これら複数の撮像手段のうちの一の撮像手
段で対象物体を撮像したときの当該一の撮像手段の撮像
画像中の選択画素に対応する他の撮像手段の撮像画像中
の対応候補点の情報を、前記一の撮像手段から前記選択
画素に対応する前記物体上の点までの仮定距離の大きさ
毎に抽出し、前記選択画素の画像情報と前記対応候補点
の画像情報の類似度を算出し、この算出された類似度が
最も大きくなるときの前記仮定距離を、前記一の撮像手
段から前記選択画素に対応する前記物体上の点までの距
離とし、この各選択画素毎に求められた距離に基づき前
記物体を認識するようにした物体の認識装置において、
前記複数の撮像手段は、前記物体を撮像する条件の異な
る少なくとも2種類の撮像手段群に分類されるものであ
り、前記物体の撮像条件に応じて、前記撮像手段群の中
から少なくとも一つの撮像手段群を、実際に使用すべき
撮像手段群として選択する撮像手段群選択手段と、所望
の位置で、所望の視野をもって前記物体を撮像したとき
の仮想の撮像手段による仮想の撮像画像を、前記一の撮
像手段の撮像画像の代わりに、設定する仮想視野情報設
定手段と、前記仮想視野情報設定手段で設定された仮想
画像中の選択画素に対応する前記選択された撮像手段群
の撮像画像中の対応候補点の情報を、前記仮想視野情報
設定手段で設定された視点から前記選択画素に対応する
前記物体上の点までの仮定距離の大きさ毎に抽出する対
応候補点情報抽出手段と、前記対応候補点情報抽出手段
で抽出された対応候補点の画像情報同士の類似度を、前
記選択された撮像手段群について算出する類似度算出手
段と、前記類似度算出手段で算出された前記選択撮像手
段群についての類似度が最も大きくなるときの前記仮定
距離を、前記仮想視野情報設定手段で設定された視点か
ら前記選択画素に対応する前記物体上の点までの距離と
し、この距離を各選択画素毎に求める距離推定手段とを
具えるようにしている。
【0081】かかる構成によれば、図8に示すように、
作業視野Arの撮像条件(車両60の速度V、進行方向
φ)に応じて、複数の撮像手段群である画像センサ群1
1の中から実際に使用すべき少なくとも2つの撮像手段
である画像センサ2、3が選択される。
【0082】そして、道路61の撮像条件に応じた所望
の位置で、所望の視野をもって道路61を撮像したとき
の図1に示す仮想画像センサ21による仮想画像#21
が、一の撮像手段1の画像#1の代わりに設定される。
そして、設定された仮想画像#21中の位置(i,j)
で特定される選択画素P21に対応する前記選択された少
なくとも2つの撮像手段2、3の画像中の対応候補点P
kの位置座標(Xk,Yk)を仮定距離znの大きさ毎に発
生する。
【0083】そして、発生された対応候補点Pkの位置
座標(Xk,Yk)の画像情報同士の類似度が算出され
る。
【0084】そして、上記算出された類似度が最も大き
くなるときの仮定距離znxが作業視野Ar中の物体上の
点までの距離とされ各選択画素毎に求められる。
【0085】このように、本発明によれば、多眼ステレ
オによる計測において、ステレオ対を固定して計測を行
うのではなく、刻々と変化する作業視野Arに応じて、
特定のステレオ対の画像センサ2、3を順次選択してい
くことができるので、状況変化(車両60の速度V、進
行方向φの変化など)に対応したきめの細かい計測を行
うことができる。
【0086】また、第4発明では、第4の解決課題達成
のために、所定間隔をもって配置され、認識対象物体を
撮像する複数の撮像手段と、前記認識対象物体に応じた
モデル群を仮定するとともに、当該モデル群の各モデル
上の各点の位置座標を設定する仮定モデル情報設定手段
と、前記複数の撮像手段のうちの一の撮像手段で前記認
識対象物体を撮像したときの当該一の撮像手段の撮像画
像中の選択画素に対応する他の撮像手段の撮像画像中の
対応候補点の情報を、前記モデル群の中から選択された
仮定モデル毎に、当該仮定モデルの位置座標を用いて抽
出する対応候補点情報抽出手段と、前記選択画素の画像
情報と前記対応候補点情報抽出手段で抽出された対応候
補点の画像情報の類似度を算出する類似度算出手段と、
前記類似度算出手段で算出された類似度が最も大きくな
るときの前記仮定モデルを、前記選択画素に対応する点
のモデルとし、このモデルを各選択画素毎に求めるモデ
ル推定手段とを具えるようにしている。
【0087】かかる構成によれば、図13に示すよう
に、車両60上の画像センサ群11を用いて道路61を
認識するような問題の場合に、以下のように効率的に処
理を実施することができる。
【0088】すなわち、図27に示すように、基準画像
入力部801およびその他の画像入力部802〜804
から認識対象である道路61の基準画像および対応画像
を複数取り込み、仮定モデル情報設定部805では道路
61に応じたモデルM1、M2、M3、M4をパラメータθ
の値θ1、θ2、θ3、θ4毎に生成する。
【0089】そして、対応候補点座標発生部806で
は、図28に示すように基準画像センサ1の画像#1中
の位置(i,j)で特定される選択画素P1に対応する
他の画像センサkの画像#k中の対応候補点Pkの位置
座標(Xk,Yk)を、選択された仮定モデルMi(i=
1〜4)毎に発生する。
【0090】さらに、局所情報抽出部807〜810で
はそれぞれの局所情報を抽出し、類似度算出部811〜
813では基準画像の局所情報と比較することにより各
類似度が算出される。
【0091】そして、モデル推定部814では、図14
に例を示すように、上記算出された類似度の逆数の加算
値が最も大きくなるモデル( ここでは、M3とM4の間
のモデルM2.6[θ=3度]のように計測のきざみ幅よ
り細かい値を求めることもできる。)が、選択画素P1
に対応するモデルとして推定される。このモデルが各選
択画素毎に求められ、この各選択画素毎に求められたモ
デルの中で最も頻度の高いモデル(M3)が、道路61
を示すモデルと認識される。
【0092】このように、認識対象の物体の形状などが
予め特定されている場合に、これをモデル化して、認識
対象を判別するようにしたので、従来のように全空間の
各点ごとに距離計測を行ったり、距離計測結果から物体
を特定、抽出したりする複雑な処理を要しないので、よ
り効率よく、誤認識することなく、計測を行えるように
なる。
【0093】
【発明の実施の形態】以下、図面を参照して本発明の実
施形態について説明する。
【0094】・第1の実施形態 本実施形態は、所望の作業視野を取得することができる
実施形態である。
【0095】以下、関連する図を参照して説明する。
【0096】図4は、本実施形態の多眼ステレオ視によ
る物体認識装置の構成を示すブロック図であり、図23
に示す従来装置に対応している。また、図3は、本実施
形態の仮想画像センサを含む各画像センサの構成図であ
り、図24に示す従来の画像センサの構成図に対応して
いる。なお、本実施形態では、多眼ステレオに適用され
る場合を想定しているが、2眼ステレオに適用してもよ
い。
【0097】多眼ステレオを構成する基準画像センサ1
と各画像センサ2、3、…、Nは、水平、垂直あるいは
斜め方向に所定の間隔で配置されているものとする。な
お、説明の便宜上、図3では一定間隔で左右に配置され
ている場合を示している。
【0098】基準画像入力部301および各画像入力部
302、303、…、304には、それぞれ基準画像#
1および各画像#2、#3、…、#Nが取り込まれる。
【0099】仮想視野情報設定部305では、図1に示
すように、所望の位置で、所望の視野をもって物体50
を撮像したときの仮想画像センサ21による仮想画像#
21に関する情報が設定される。つまり、作業視野とな
るべき仮想視野が設定される。 この仮想画像センサ2
1には、実際の画像センサと同じように、画像センサの
配設位置、向き(姿勢)、焦点距離、解像度などのパラ
メータが定義される。また、目的に応じて仮想画像セン
サ21のパラメータを自由に変更してもよい。なお、図
1において41は仮想画像センサ21を構成する仮想的
なレンズを示している。
【0100】対応候補点座標発生部306では、仮想画
像#21の各選択画素に対して、仮定した距離zn
に、基準画像#1の対応候補点の位置座標、画像センサ
2の画像#2の対応候補点の位置座標、画像センサ3の
画像#3の対応候補点の位置座標、画像センサNの画像
#Nの対応候補点の位置座標がそれぞれ記憶、格納され
ており、これらを読み出すことにより各対応候補点の位
置座標を発生する。ここでは簡単のために位置座標を記
憶格納した例で説明するが、位置座標を演算によって求
めても良い。
【0101】仮想画像#21の選択画素P21と、仮定距
離znにおける各画像センサk(k=1、2、…、N:
以下、kは同じ意味として使用する)の対応候補点Pk
の位置座標(Xk,Yk)との関係を図1に示す。
【0102】図1の物体50上の位置座標(x,y,
z)は、全体座標系x−y−zで表され、画像上の位置
座標(X,Y)は各画像毎に設定された局所座標系X−
Yで表されるものとする。同図に示すように、仮想画像
センサ21の仮想画像#21の中の(i,j)で特定さ
れる選択画素P21が選択されるとともに、認識対象物体
50上の点50a(x,y,z)までの距離znが仮定
される。そして、この仮定距離znに対応する実際の各
画像センサkの画像#k内の対応候補点Pkの位置座標
(Xk,Yk)が読み出される。
【0103】つぎに、局所情報抽出部307〜310で
は、このようにして対応候補点座標発生部306によっ
て発生された対応候補点Pkの位置座標に基づき局所情
報を抽出する処理がそれぞれ実行される。
【0104】そして、画像#1、#2、#3、・・・、#
Nの対応候補点P1、 P2、 P3、・・・、 PNの画像情報
1、 F2、 F3、・・・、 FNがそれぞれ得られると、基
準画像#1の対応候補点P1の画像情報F1を基準とする
類似度が各類似度算出部311〜313で算出される。
【0105】すなわち、類似度算出部311では、画像
センサ2の画像#2の対応候補点P2の画像情報F2と基
準画像#1の対応候補点P1の画像情報F1との比較によ
り、これらの画像情報の類似度が、また、類似度算出部
312では、画像センサ3の画像#3の対応候補点P3
の画像情報F3と基準画像#1の対応候補点P1の画像情
報F1との比較により、これらの画像情報の類似度が、
また、類似度算出部313では、画像センサNの画像#
Nの対応候補点PNの画像情報FNと基準画像#1の対応
候補点P1の画像情報F1との比較により、これらの画像
情報の類似度がそれぞれ算出される。
【0106】つまり、本実施形態では、基準画像#1
を、類似度算出の際の基準となる画像としている点で、
図25の従来の類似度算出部209〜211と共通して
いる。たとえば、基準画像#1の画像情報と対応画像
(たとえば#2)の画像情報との差の2乗が、類似度と
して求められる。具体的には、類似度算出部311で
は、基準画像#1の対応候補点P1の周囲の領域と、画
像センサ2の画像#2の対応候補点の周囲の領域とのパ
ターンマッチングにより、両画像の領域同士が比較され
て、類似度が算出される。
【0107】すなわち、図3に示すように、基準画像#
1の対応候補点P1の位置座標を中心とするウインドウ
WD1が切り出されるとともに、画像センサ2の画像#
2の対応候補点P2の位置座標を中心とするウインドウ
WD2が切り出され、これらウインドウWD1、 WD2
士についてパターンマッチングを行うことにより、これ
らの類似度が算出される。このパターンマッチングは各
仮定距離zn毎に行われる。
【0108】図2(1)は、このステレオ対(基準画像
センサ1と画像センサ2)について得られた、仮定距離
nと類似度の逆数Qsとの対応関係を示すグラフであ
る。同図に示すように、仮定距離がz'nのときの対応候
補点の位置を中心とする基準画像センサのウインドウW
D'1と画像センサ2のウインドウWD'2とのマッチング
を行った結果は、類似度の逆数Qsとして大きな値が得
られている(類似度は小さくなっている)が、ウインド
ウWD1と、仮定距離がznxのときの対応候補点の位置
座標を中心とするウインドウWD2とのマッチングを行
った結果は、類似度の逆数Qsは小さくなっている(類
似度は大きくなっている)のがわかる。同様にして類似
度算出部312では、基準画像#1の対応候補点P1
位置座標を中心とするウインドウWD1と、画像センサ
3の画像#3の対応候補点P3の位置座標を中心とする
ウインドウWD3とのパターンマッチングが実行され、
これらの類似度が算出される。そして、パターンマッチ
ングが各仮定距離zn毎に行われることによって、この
ステレオ対(画像センサ1と画像センサ3)についても
図2(2)に示すような仮定距離znと類似度の逆数Qs
との対応関係が求められる。
【0109】同様にして類似度算出部313では、基準
画像#1の対応候補点P1の位置座標を中心とするウイ
ンドウWD1と、画像センサNの画像#Nの対応候補点
Nの位置座標を中心とするウインドウWDNとのパター
ンマッチングが実行され、これらの類似度が算出され
る。そして、パターンマッチングが各仮定距離zn毎に
行われることによって、このステレオ対(画像センサ1
と画像センサN)についても図2(N)に示す仮定距離
nと類似度の逆数Qsとの対応関係が求められる。
【0110】最後に、各ステレオ対毎に得られた仮定距
離znと類似度の逆数との対応関係を加算し、仮定距離
nと類似度の逆数の加算値との図2(融合した結果)
のような対応関係が求められる。
【0111】このようにして仮定距離znと類似度の逆
数の加算値との対応関係から、最も類似度が高くなる点
(類似度の逆数の加算値が最小値となる点)を判別し、
この最も類似度が高くなっている点に対応する仮定距離
nxを最終的に、認識対象物体50上の点50aまでの
真の距離(最も確からしい距離)と推定する。かかる処
理は、仮想画像#21の各選択画素毎に全画素について
行われる。
【0112】以上のようにして、距離推定部314で
は、仮定距離znを順次変化させて得られた類似度の加
算値の中から、最も類似度の加算値が高くなるものが判
別され、最も類似度の加算値が高くなる仮定距離znx
真の距離と推定され、出力される。
【0113】なお、仮想画像#21の各選択画素ごと
に、各画像#1〜#Nの対応点の画像情報が求められる
ので、仮想画像#21の各画素に、対応点の画像情報を
付与することで、仮想画像センサ21で物体50を撮像
したときの撮像画像を生成することができる。この場
合、仮想画像#21の各画素に付与される対応点の画像
情報としては、各画像#1〜#Nの対応点の明度の平均
値、メディアン値等を用いることができる。こうして仮
想画像センサ21であたかも撮影したような画像を生成
できる。
【0114】また、加算した図2(融合した結果)に示
すように、仮想画像#21の各選択画素ごとに、類似度
の逆数Qsが最小になるときの推定距離znxが求められ
るが、この時類似度の逆数の加算値の最小値を、その推
定距離znxの信頼度を示すデータ(最小値が小さい値を
示すほど信頼度は高い)として、各推定距離znxごとに
対応づけておくような実施も可能である。また、信頼度
としては、この他に類似度の変化率または原画像の変化
率などに基づいて求めたものを利用しても良い。
【0115】以上のように、本実施形態によれば、所望
の観測視野を有した仮想画像センサ21を任意に設定し
て、この仮想画像センサ21による距離画像、撮像画像
を取得することができるので、画像センサ1〜Nの配設
位置、姿勢によって一義的に定まる作業視野に限定され
ることなく、作業状況に応じた作業視野をもって、物体
50の認識、判断などの処理をすることができるように
なる。とりわけ、物理的に画像センサを配置することが
困難であったり、画像センサの使用が困難な環境の良く
ない場所であっても、その場所に、仮想画像センサ21
を設定することで、その場所に実際の画像センサを配置
したのと同等の画像を取得することができる。
【0116】さらに、仮想画像センサ21で得られた仮
想画像#21は、機械的な首振り機構によらずに、演算
処理の上だけで任意に位置、姿勢の変更が可能であるの
で(「電子的な首振り」)、画像センサ1〜Nは固定し
たままで、自由に視点を変えた画像を得ることができ
る。これを利用して、物体をトラッキングするシステム
や、作業目的に応じて自動的に視野を変化させるシステ
ムを、機械的な首振り機構を要せずして構築することが
可能となる。
【0117】つぎに、上記実施形態の変形例について説
明する。
【0118】図5は上述した図3に対応する画像センサ
の構成図であり、図6は上述した図4に対応するブロッ
ク図である。
【0119】図3、図4の実施形態と異なるのは、類似
度を算出する際に、基準画像センサ1の基準画像#1の
対応候補点P1の画像情報F1を基準として、各ステレオ
対ごとに類似度を求めているのではなく、画像センサ1
を含む全画像センサ1〜Nの対応候補点P1〜 PNの局
所情報F1〜 FNのばらつき度合いから、これら多眼ス
テレオ全体の類似度を算出している点である。
【0120】図6において、仮想視野情報設定部40
4、対応候補点座標発生部405、局所情報抽出部40
6、407、・・・、408は、図4の仮想視野情報設定
部305、対応候補点座標発生部306、局所情報抽出
部307、308、・・・、310に相当するものであ
る。
【0121】類似度算出部409では、局所情報抽出部
406、407、・・・、408で抽出された画像#1、
#2、・・・、#Nの対応候補点P1、 P2、・・・、 PN
局所情報F1、 F2、・・・、 FNに基づき、これら局所情
報F1、 F2、・・・、 FNの「まとまり具合」を示す評価
値が類似度として算出される。この「まとまり具合」を
示す評価値は、例えば画像情報の平均値からの差の絶対
値の総和や画像情報の分散値などである。たとえば、画
像情報の分散値が小さいと、「まとまり具合」の評価と
しては高くなり、類似度は大きいとされる。
【0122】このように、図4のごとく基準画像#1の
画像情報を基準として差分をとるなどして各ステレオ対
ごとに類似度を算出し、これら各ステレオ対ごとの類似
度を加算するなどして全体の類似度を求めているのでは
なく、全画像#1〜#Nの全画像情報に基づく一括した
算出により全体の類似度を求めているので、より柔軟で
安定性が高く類似度を求めることができる。全画像#1
〜#Nについての類似度は、仮定距離znごとに求めら
れる。
【0123】距離推定部410では、仮定距離znを順
次変化させて得られた類似度の中から、最も類似度が高
くなるものが判別され、最も類似度が高くなる仮定距離
nxが真の距離と推定され、出力される。なお、仮想画
像#21の各選択画素ごとに、各画像#1〜#Nの対応
点の画像情報が求められるので、仮想画像#21の各画
素に、対応点の画像情報を付与することで、仮想画像セ
ンサ21で物体50を撮像したときの撮像画像を生成す
ることができる。
【0124】・第2の実施形態 本実施形態は、配置位置、方向、光学的特性、解像度な
どが異なる複数種類の画像センサ群を同時に使用するこ
とができ、複数種類全ての画像センサ群からの情報を用
いて信頼度の高い距離計測、物体認識を行うことができ
る実施形態である。
【0125】図7(b)は、本実施形態で想定している
画像センサ群11″を示しており、明視野用画像センサ
群141〜144と、暗視野用画像センサ群151〜1
54とから成っている。画像センサ群11″の中央位置
には、照度計16が配設されている。明視野用画像セン
サ141〜144は、照度が高い環境下で、暗視野用画
像センサ151〜154よりも感度が高い特性を示し、
暗視野用画像センサ151〜154は、照度が低い環境
下で、明視野用画像センサ141〜144よりも感度が
高い特性を示す。
【0126】図9は、上記画像センサ群11″の撮像画
像に基づき距離計測、物体認識を行う装置のブロック図
であり、図6に対応するブロック図であり、図6と同様
に本実施形態では、類似度を算出する際に、基準となる
基準画像センサを設定していない。
【0127】図6の実施形態と異なるのは、類似度を、
画像センサの種類ごと、つまり明視野用画像センサ群1
41〜144、暗視野用画像センサ群151〜154毎
に算出している点である。
【0128】画像入力部501〜502には、明視野用
画像センサ141〜144の画像#141〜#144が
取り込まれる。同様に、画像入力部503〜504に
は、暗視野用画像センサ151〜154の画像#151
〜#154が取り込まれる。
【0129】図9において、仮想視野情報設定部50
5、対応候補点座標発生部506は、図4の仮想視野情
報設定部305、対応候補点座標発生部306、あるい
は図6の仮想視野情報設定部404、対応候補点座標発
生部405に相当するものである。
【0130】仮想視野情報設定部505では、図1に示
すように、明視野用画像センサ141〜144、暗視野
用画像センサ151〜154に共通の仮想画像#21が
設定され、この仮想画像#21中の位置(i,j)で特
定される選択画素P21が選択される。
【0131】対応候補点座標発生部506では、上記設
定された仮想画像#21中の選択画素P21に対応する明
視野用画像センサ群141〜144の画像#141〜#
144中の対応候補点および暗視野用画像センサ群15
1〜154の画像#151〜#154中の対応候補点P
kの位置座標(Xk,Yk)(k=141、142、14
3、144、151、152、153、154:以下k
は同じ意味で使用する)を仮定距離znの大きさ毎に発
生する。
【0132】局所情報抽出部507〜508は、図4の
局所情報抽出部307、308、310あるいは図6の
406、407、・・・、408に相当するものであり、
明視野用画像センサ141〜144の画像#141〜#
144上の対応候補点P141〜P144の局所情報F141
144が抽出される。局所情報抽出部509〜510に
おいても同様に、暗視野用画像センサ151〜154の
画像#151〜#154上の対応候補点P151〜P154
局所情報F151〜F154が抽出される。
【0133】類似度算出部511では、局所情報抽出部
507〜508で抽出された明視野用画像センサの画像
#141、#142、#143、#144の対応候補点
14 1、P142、P143、P144の画像情報F141、F142
143、F144に基づき、これら画像情報F141、F142
143、F144の分散値(画像情報の「まとまり具合」を
示す評価値)が類似度として算出される。この類似度
は、仮定距離znごとに求められる。
【0134】この結果、類似度算出部511からは、図
10(a)に示すように、仮定距離znに各対応した類
似度の逆数Qs1が距離推定部515に出力されることに
なる。 一方、類似度算出部512では、局所情報抽出
部509〜510で抽出された暗視野用画像センサの画
像#151、#152、#153、#154の対応候補
点P151、P152、P153、P154の画像情報F151
152、F153、F154に基づき、これら画像情報F151
152、F153、F154の分散値(画像情報の「まとまり
具合」を示す評価値)が類似度として算出される。
【0135】この類似度は、仮定距離znごとに求めら
れる。この結果、類似度算出部512からは、図10
(b)に示すように、仮定距離znに各対応した類似度
の逆数Qs2が距離推定部515に出力されることにな
る。
【0136】外部情報入力部513には、上記照度計1
6の検出出力である照度を示す信号が入力され、これが
センサ群の重み係数発生部514に出力される。
【0137】重み係数発生部514からは、上記照度計
16で検出された照度の大きさに基づいて、類似度算出
部511、類似度算出部512でそれぞれ算出された類
似度の逆数Qs1とQs2に乗算すべき重み係数ω1、ω2が
演算され、距離推定部515に出力される。
【0138】この重み係数ω1、ω2は、照度計16で検
出された照度が大きな値を示す程、重み係数ω1が大き
く、重み係数ω2が小さくなるように演算される。つま
り、明視野用画像センサ141〜144の画像に基づき
演算された類似度の寄与率が大きく、暗視野用画像セン
サ151〜154の画像に基づき演算された類似度の寄
与率が小さくなるように演算される。一方、照度計16
で検出された照度が小さな値を示す程、重み係数ω1が
小さく、重み係数ω2が大きくなるように演算される。
つまり、明視野用画像センサ141〜144の画像に基
づき演算された類似度の寄与率が小さく、暗視野用画像
センサ151〜154の画像に基づき演算された類似度
の寄与率が大きくなるように演算される。
【0139】距離推定部515では、図10(a)に示
すように、明視野用画像センサ141〜144の画像に
基づき算出された類似度の逆数Qs1に対して上記重み係
数ω1が乗算されるとともに、図10(b)に示すよう
に、暗視野用画像センサ151〜154の画像に基づき
算出された類似度の逆数Qs2に対して上記重み係数ω2
が乗算される。つまり、仮定距離znと類似度の逆数Qs
1との対応関係、仮定距離znと類似度の逆数Qs2との対
応関係がそれぞれ重み係数ω1、ω2によって補正される
ことになる。そして、これら重み係数ω1、ω2によって
補正された仮定距離znと類似度の逆数Qs1との対応関
係、仮定距離znと類似度の逆数Qs2との対応関係が加
算され、図10(c)に示すように、仮定距離znと類
似度の逆数の加算値Qs12との対応関係が生成される。
【0140】このようにして、仮定距離znと類似度の
逆数の加算値Qs12との対応関係から、最も類似度が高
くなる点(類似度の逆数の加算値Qs12が最小値となる
点)が判別され、この最も類似度が高くなっている点に
対応する仮定距離znxが最終的に、認識対象物体50上
の点50aまでの真の距離(最も確からしい距離)と推
定される。かかる処理は、仮想画像#21の各選択画素
毎に全画素について行われる。
【0141】以上のようにして、距離推定部515で
は、仮定距離znを順次変化させて得られた類似度の加
算値Qs12の中から、最も類似度の加算値が高くなるも
のが判別され、最も類似度の加算値が高くなる仮定距離
nxが真の距離と推定され、出力される。
【0142】本実施形態によれば、さらに、以下のよう
な効果が得られる。
【0143】すなわち、多眼ステレオによる計測におい
て、仮想画像センサ21を設定して、これを明視野用画
像センサ群と暗視野用画像センサ群に共通の仮想視野と
して用いたので、これら光学的特性の異なる画像センサ
群同士であっても、これら2種類の画像センサ群の計測
結果をそれぞれ融合して総合的な判断を行うことが可能
となる。2種類の撮像条件の異なる画像センサ群それぞ
れの計測結果を総合して判断できるようになり、飛躍的
に計測精度を向上させることができる。
【0144】なお、本実施形態では、2種類の異なる画
像センサ群を想定しているが、3種類以上の異なる画像
センサ群に適用する実施も可能である。
【0145】また、本実施形態では、照度計16の検出
出力に応じて、明視野用センサ群141〜144による
類似度と、暗視野用センサ群151〜154による類似
度の重みを変化させ、これら2種類の画像センサから得
られる類似度を融合することで距離を推定しているが、
照度計16の検出出力に応じて、使用すべき画像センサ
の種類自体を完全に切り換える実施も可能である。
【0146】たとえば、照度計16で検出される照度の
大きさを2値的に判断するしきい値を設定して、照度計
16で検出される照度が、このしきい値以上になった場
合には、重み係数ω1を1とし、重み係数ω2を0にし
て、明視野用センサ群141〜144による類似度のみ
で、距離の推定を行うようにし、逆に、照度計16で検
出される照度が、上記しきい値よりも小さくなった場合
には、重み係数ω1を0とし、重め係数ω2を1とし、暗
視野用画像センサ151〜154による類似度のみで、
距離の推定を行うようにしてもよい。
【0147】また、使用する画像センサの種類は、任意
である。
【0148】図7(a)に示すように、通常の感度のモ
ノクロの画像センサ群121〜124と、赤外線画像セン
サ群131〜134とから成っている画像センサ群11'
に上述した本実施形態を適用してもよい。
【0149】また、画像センサの種類毎に、画像センサ
の焦点距離、絞り、シャッタースピートなどのパラメー
タを異ならせてもよく、画像センサの向きなどを条件に
応じて調整してもよい。
【0150】また、本実施形態では、照度計16を使用
しているが、画像センサの撮像条件(周囲の環境条件)
の変化を検出することができるセンサであれば、任意に
使用することができる。
【0151】また、時刻によって重み係数を変更するよ
うな実施形態も考えられる。
【0152】・第3の実施形態 本実施形態は、多眼ステレオを構成する複数の画像セン
サが配置されている場合に、これら複数の画像センサの
すべてを計測に使用するのではなくて、これら複数の画
像センサの中から計測に使用すべき少なくとも2つの画
像センサを選択することで、状況に応じたきめの細かい
計測を行うことができる実施形態である。 図8は、車
両60に、各画像センサ1、2、3、…からなる画像セ
ンサ群11を搭載して、この画像センサ群11による撮
像結果に基づき、車両60の進行方向前方、道路61上
の作業視野Arを認識、判断しつつ走行する場合を想定
している。
【0153】車両60には、車両の速度Vを検出する速
度センサ62、車両60の進行方向φを検出するジャイ
ロなどの姿勢角センサ63が搭載されている。なお、姿
勢角センサ63の代わりに、車両60の操舵角を検出す
るセンサを使用してもよい。ここで、車両60の速度
V、進行方向φが定まれば、それに応じて車両60が認
識すべき車両前方距離、認識すべき方向が定まることか
ら、上記作業視野Arが特定されることになり、この作
業視野Arを撮像するのに最も適切な少なくとも2つの
画像センサが、画像センサ群11の中から選択されるこ
とになる。
【0154】そこで、速度センサ62、姿勢角センサ6
3で検出される車速V、進行方向φに応じて、画像セン
サ群11の中から、実際に使用すべき少なくとも2つの
画像センサ、たとえば画像センサ2、3が選択される。
【0155】この結果、図6と同様に、画像入力部40
1に、画像センサ2の画像#2が取り込まれるととも
に、画像入力部402に、画像センサ3の画像#3が取
り込まれる。以下、図6と同様に、対応候補点座標発生
部405では、これら2つの画像センサ2、3の画像の
中から仮想画像#21の選択画素の対応候補点Pkの位
置座標(Xk,Yk)(k=1、2:以下kを同じ意味で
使用する)が、仮定距離znの大きさ毎に発生される。
【0156】局所情報抽出部406、407では、画像
センサ2、3の対応候補点Pkの画像情報Fkが抽出さ
れ、類似度算出部409では、これら発生された画像セ
ンサ2、3の対応候補点Pkの位置座標( Xk,Yk
の画像情報Fk同士の類似度が算出される。
【0157】そして、距離推定部410では、上記算出
された類似度が最も大きくなるときの仮定距離znxが、
仮想画像センサ21から選択画素P21に対応する作業視
野Ar中の物体上の点までの距離とされ、この距離znx
が各選択画素毎に求められる。 この結果、仮想画像セ
ンサ21から見た作業視野Arを示す距離画像、撮像画
像が、車両60の走行状況がいかに変化したとしても、
常に正確なものとして、生成されることになる。
【0158】このように、本実施形態によれば、多眼ス
テレオによる計測において、利用する画像センサを固定
して計測を行うのではなく、刻々と変化する作業視野A
rに応じて、これを撮像するのに最も適切な少なくとも
二つの画像センサを順次選択していくようにしたので、
車両60の走行状況(車両60の速度V、進行方向φの
変化)が変化したとしても、これに対応したきめの細か
い計測を行うことができる。
【0159】また、本実施形態では、車両に画像センサ
群を搭載する場合を想定しているが、搭載されるべきも
のは、これに限定されることなく、たとえば移動ロボッ
トに搭載してもよい。また、画像センサ群11の姿勢角
を、矢印A、Bに示す方向に調整できる姿勢角調整機構
を備えるようにして、作業視野Arを撮像できる方向に
画像センサが向くように、速度センサ62、姿勢角セン
サ63の検出出力に応じて車両センサ群11の姿勢角を
変化させるような実施も可能である。
【0160】また、作業視野Arまでの距離に応じて画
像センサのズームの度合いを調整してもよい。
【0161】・第4の実施形態 本実施形態は、各選択画素について全ての仮想距離に対
して探索を行うのではなく、認識対象物体を示すモデル
という概念を導入し、このモデル上の点についてだけ照
合処理を行うことによって、モデル推定の効率を向上さ
せることができる実施形態である。
【0162】まず、はじめに、モデルの概念、定義につ
いて説明する。
【0163】本明細書にいうモデルとは、空間内に定義
された、3次元構造をもった認識対象物のことである。
モデルは、絶対空間内(全体座標系x−y−z)におけ
る座標位置、形状データなどのモデル情報により、3次
元構造が規定される。各画像センサ1〜Nの観測視野あ
るいは仮想画像センサ21の仮想視野で見たモデルの位
置は、このモデル情報に基づいて算出することができ
る。モデルとしては、単純な平面、曲面ばかりではな
く、複雑な3次元の形状を有したものも使用することも
できる。モデルは、最終的に、物体の3次元構造の認識
に役立てるものなので、モデル情報の表現方法や、モデ
ル情報の内容は、この物体の3次元構造を認識するとい
う目的に合わせたものを使用できる。
【0164】また、関連するモデルを効率よく表現する
ために、目的にあわせてモデル情報をパラメタライズす
る方法もある。
【0165】例えば、ある間隔で平行に配置された一連
の平面のモデル群を、平行位置というパラメータによっ
て表現する。そして、このパラメータを変化させること
により、認識対象の表面が一連の平面のモデル群のいず
れかのモデルであるかが推定される。
【0166】以下、本実施形態について、図11〜図1
8を参照して説明する。
【0167】本実施形態では、図13に示すように、車
両60に、画像センサ群11を搭載して、この画像セン
サ群11の撮像結果に基づいて、車両進行方向前方の道
路61の傾斜θを認識、判断しつつ走行する場合を想定
している。
【0168】図12は、本実施形態の多眼ステレオ視に
よる物体認識装置の構成を示すブロック図であり、図6
のブロック図に対応するものである。
【0169】なお、本実施形態では、多眼ステレオに適
用される場合を想定しているが、2眼ステレオに適用し
てもよい。
【0170】また、本実施形態では、図6と同様に、仮
想画像センサ21による仮想画像#21を設定する場合
を想定しているが、本実施形態においては、かかる仮想
画像#21を設定することなく、図27と同等の構成で
も実現できる。
【0171】すなわち、仮想画像#21の選択画素に対
応する各画像#1〜#Nの対応点を探索する構成のもの
に、本実施形態を適用するばかりではなく、基準画像#
1の選択画素に対応する各画像#2〜#Nの対応点を探
索する構成のものに、本実施形態を適用するようにして
もよい。
【0172】多眼ステレオである画像センサ群11を構
成する各画像センサ1、2、3、…、Nは、水平、垂直
あるいは斜め方向に所定の間隔で配置されているものと
する。 図12に示す画像入力部601には、画像セン
サ1で撮像された画像#1が取り込まれ、画像入力部6
02には、画像センサ2の画像#2が取り込まれ、画像
入力部603には、画像センサNの画像#Nがそれぞれ
取り込まれる。
【0173】仮想視野情報設定部604では、図11に
示すように、所望の位置で、所望の視野をもって認識対
象物体(この場合は、道路61)を撮像したときの仮想
画像センサ21による仮想の視野に関する情報が設定さ
れる。つまり、作業視野となるべき仮想視野が設定され
る。この仮想画像センサ21では、実際の画像センサ1
〜Nと同じように、画像センサの配設位置、向き(姿
勢)、焦点距離、解像度などのパラメータが定義され
る。
【0174】また、目的に応じて仮想画像センサ21の
パラメータを自由にダイナミックに変更してもよい。
【0175】なお、図11のレンズ41は仮想画像セン
サ21を構成する仮想的なレンズを示している。
【0176】仮定モデル情報設定部605には、3次元
空間内における認識すべき物体のモデルの形状に関する
モデル情報が設定される。本実施形態では、図13に示
すように、道路61の傾斜θを認識、判断する必要があ
ることから、認識対象物体に応じたモデルM1、M2、M
3、M4を、パラメータθの値θ1、θ2、θ3、θ4毎にモ
デル情報として設定する。
【0177】このモデル情報の具体的な設定方法として
は、多くの方法が考えられる。
【0178】例えば、仮定するモデルが上記のような単
純な平面からなる道路のような場合には、その平面を特
定する方法として、その平面が通るどこか一点の空間座
標と平面の法線ベクトルを与えても良いし、その平面が
通るどこか三点の空間座標を与えても良い。また、仮定
するモデルが起伏を持つような複雑な場合には、その起
伏を十分に再現するに足る複数点の座標を多数与えて補
間しても良いし、任意の幾何モデルを組み合わせて設定
しても良い。
【0179】対応候補点座標発生部606では、図11
に示すように、仮想画像センサ21で道路61を撮像し
たときの当該仮想画像センサ21の仮想画像#21中の
位置(i,j)で特定される選択画素P21に対応する各
画像センサkの画像#k中の対応候補点Pkの位置座標
(Xk,Yk)が、モデルM1、M2、M3、M4の中から選
択された仮定モデルMi(i=1〜4)毎に発生され
る。この対応候補点Pkの位置座標(Xk,Yk)は、図
11に示すように各モデル上の点(x,y,z)に対応
して求めても良いし、最初から対応する変換テーブルを
用意しておき実際に計算しなくても良い。
【0180】つぎに、局所情報抽出部607〜609で
は、このようにして対応候補点座標発生部606によっ
て発生された対応候補点Pkの位置座標に基づき局所情
報を抽出する処理がそれぞれ実行される。
【0181】すなわち、局所情報抽出部607では、対
応候補点座標発生部606で発生された画像センサ1の
画像#1の対応候補点P1の位置座標から、周囲の画素
の画像情報に応じて補間することで、対応候補点P1
画像情報F1を抽出する。同様に、局所情報抽出部60
8では、対応候補点座標発生部606で発生された画像
センサ2の画像#2の対応候補点P2の位置座標に基づ
いて、対応候補点P2の画像情報F2が、局所情報抽出部
609では、対応候補点座標発生部606で発生された
画像センサNの画像#Nの対応候補点PNの位置座標に
基づいて、対応候補点PNの画像情報FNがそれぞれ求め
られる。なお、ここで画像情報とは明度あるいは明度の
2階微分値などのことである。
【0182】こうして画像#1、#2、…、#Nの対応
候補点P1、 P2、…、 PNの画像情報F1、 F2、…、
Nがそれぞれ得られると、類似度算出部610では、
全画像センサ1〜Nの対応候補点P1〜 PNの画像情報
1〜 FNの分散値(画像情報の「まとまり具合」を示
す評価値)が類似度として算出される。類似度が大きい
値を示す程(画像情報の分散値が小さい程)、この仮定
モデルMに近いことを意味する。類似度は、仮定モデル
1、M2、M3、M4ごとに求められる。
【0183】このようにして、図14に示すように、仮
定モデルMと類似度の逆数Qsとの対応関係が取得され
る。
【0184】つぎに、モデル推定部611では、仮定モ
デルMと類似度の逆数Qsとの対応関係から最も類似度
の高いモデルを決定する。これを各選択画素ごとの対応
関係に関して実行して、各画素毎にモデルを推定する。
【0185】また、画面の一部の領域あるいは全領域に
対してモデル推定を実行すれば、最も頻度の高いモデル
を、認識対象物体を示すモデルとして最終的に決定する
こともできる。あるいは、仮定モデルMと類似度の逆数
Qsとの対応関係から探索のきざみより細かい精度でモ
デルを推定し、このモデルを認識対象物体に近いモデル
と決定してもよい。
【0186】いま、図14が、仮定モデルMと類似度の
逆数Qsの加算値の対応関係を示しているものとする
と、この対応関係に基づいて、類似度(類似度の逆数Q
s )が最も大きくなるときの仮定モデルが、認識対象物
体を示すモデルとされる。この場合、図14の折れ線状
の対応関係に、曲線近似を適用することによって、正確
に、類似度の逆数Qsが最小値をとるM2.6を定めること
ができる。いま、モデルM2に、傾斜角θ2=0度が対応
づけられ、モデルM3に、傾斜角θ3=5度が対応づけら
れているものとすると、上記M2.6は、傾斜角θ=3度
であると推定することができる。よって、車両60前方
の道路61の傾斜角θは3度であると認識、判断するこ
とができる。
【0187】モデル群選択部612では、補助情報入力
部613から出力されるモデル群の各モデルの存在度合
いの情報と、モデル推定部611のモデル推定結果に基
づいてモデル群の中から、仮定モデルとすべきモデルを
選択する処理が実行される。すなわち、車両60には、
車両60のピッチ角を検出するピッチ角センサが搭載さ
れており、このピッチ角センサにより車両60の現在の
ピッチ角が検出される。よって、このピッチ角センサの
検出出力に基づいて車両60前方の路面の傾斜が、どの
程度であるのかを予測できる。
【0188】補助情報入力部613は、ピッチ角センサ
の検出出力をモデル群選択部612に出力する。
【0189】モデル群選択部612では、ピッチ角セン
サの検出値を所定のしきい値にて2値化して、ピッチ角
センサの検出値が、このしきい値以上である場合には、
モデルM1、M2、M3、M4の中から、傾斜の緩いモデル
1、M2が、仮定すべきモデルとして選択される。
【0190】一方、ピッチ角センサの検出値が、上記し
きい値よりも小さい場合には、モデルM1、M2、M3
4の中から、傾斜の急なピッチM3、M4が、仮定すべ
きモデルとして選択される。
【0191】このようにしてモデル群選択部612で選
択された特定のピッチのみが、仮定モデル情報設定部6
05で生成され、対応候補点座標発生部606で、実際
に使用すべきモデルとして仮定されることになる。
【0192】また、道路61を示すモデル群が、傾斜角
θが正(登り勾配)のモデル群と、傾斜角θが負(下り
勾配)のモデル群で構成されている場合には、モデル群
選択部612で、傾斜角θが正(登り勾配)のモデル群
と、傾斜角θが負(下り勾配)のモデル群のいずれかを
選択、出力するような実施も可能である。
【0193】以上のように、本実施形態では、モデル群
選択部612を備えるようにしているので、用意したモ
デル群のすべてに対して演算処理を行うのではなく、用
意したモデル群の中から特定のモデル群のみに絞り込ん
で、この特定のモデル群のみに対して演算処理を行えば
よいので、きわめて効率よく物体を認識、判断すること
が可能となる。
【0194】以上のように、この図12に示す本実施形
態によれば、道路61の形状(平面)などが予め特定さ
れている場合に、これをモデル化して、認識対象を判別
するようにしたので、従来のように各選択画素毎に全空
間について距離計測を行ったり、距離計測結果から物体
を特定、抽出したりする複雑な処理を要しないので、よ
り効率よく、誤認識することなく、計測が行えるように
なる。
【0195】つぎに、本実施形態に適用される種々の変
形例について説明する。
【0196】図15では、車両60の前方の道路61の
傾斜状態θを認識するばかりではなく、車両60前方の
障害物62を認識する場合を想定している。
【0197】この場合、図12のモデル推定部611で
は、モデルM1、M2、M3、M4の中から、モデルM2
道路61を示すものと推定された場合を示している。そ
こで、モデル推定部611では、以下の演算が実行され
る。
【0198】すなわち、モデルM2を仮定したときに、
仮想画像#21の各選択画素P21毎に、類似度の逆数Q
sが類似度算出部610で算出されているので、図16
に示すように仮想画像#21の各選択画素P21に、対応
する類似度の逆数Qsの値が対応づけられる。
【0199】そこで、この類似度の逆数の分布に基づい
て、道路61上に障害物62が存在するか否か、そして
その場所はいずれの場所であるかが判断される。
【0200】同図に示すように、仮想画像#21上の類
似度の逆数Qsの分布は、数値が低い領域26(この領
域では、類似度の逆数Qsは「2」を示している)と、
数値が高い領域25(この領域では、類似度の逆数Qs
は「3」、「4」を示している)とに分類される。これ
らの領域の識別は、類似度の逆数Qsの大きさを2値的
に判別するしきい値を設定して、このしきい値以下であ
るか否かによって行うことができる。
【0201】そこで、上記類似度の逆数Qsの数値が低
い領域26については道路61を示すものと判断し、上
記類似度の逆数Qsの数値が高い領域25については道
路61上に存在する障害物62であると判断するもので
ある。
【0202】ここで、仮想画像#21の各選択画素ごと
に、各画像#1〜#Nの対応点の画像情報が求められる
ので、仮想画像#21の各画素に、対応点の画像情報に
応じた明度を付与することで、仮想画像センサ21で認
識対象物体を撮像したときの画像を、図15に示すよう
に、生成することができる。この場合、上述した道路6
1と障害物62とを識別した結果に基づいて、画像中の
特定の領域64が障害物62を示すものと判断すること
ができる。
【0203】このように走行路上に障害物が存在するか
否かを判断するには、必ずしも走行路を示すモデルを複
数用意する必要はない。
【0204】図17は、道路61が平坦であることが既
知であり、モデルとしては平坦(傾斜角度θ=0度)な
モデルM2のみを用意して、道路61上の障害物62が
存在するか否かを認識、判断する場合を想定している。
【0205】この場合、図12のモデル推定部611で
は、以下の演算が実行される。
【0206】すなわち、モデルM2を仮定したときに、
仮想画像#21の各選択画素P21毎に、類似度の逆数Q
sが類似度算出部610で算出されているので、図18
に示すように仮想画像#21の各選択画素P21に、対応
する類似度の逆数Qsの値が対応づけられる。
【0207】そこで、この類似度の逆数の分布に基づい
て、道路61上に障害物62が存在するか否か、そして
その場所はいずれの場所であるかが判断される。
【0208】同図に示すように、仮想画像#21上の類
似度の逆数Qsの分布は、類似度の逆数Qsの大きさを2
値的に判別するしきい値によって、数値が低い領域2
6’と、数値が高い領域25’とに分類される。
【0209】そこで、上記類似度の逆数Qsの数値が低
い領域26’については道路61(モデルM2)を示す
ものと判断し、上記類似度の逆数Qsの数値が高い領域
25’については道路61上に存在する障害物62であ
ると判断するものである。
【0210】さて、以上説明した実施形態では、モデル
が単一の形状(平面)である場合を想定しているが、も
ちろん、多種多様な形状を有する複数の物体を認識する
場合にも本発明を適用することができる。
【0211】たとえば、地面上に設置されている建物を
認識、判別するにあたって、地面を示すモデル、建物の
壁面を示すモデル、建物の屋根を示すモデルなどのモデ
ル群を、図12の仮定モデル情報設定部605で生成し
て、以下、これらモデル群の各仮定モデルに対して同様
な処理を行うようにすればよい。
【0212】ここで、処理の繁雑さを避けるため、モデ
ル群の各モデル間で階層構造をもたせ、処理を効率的に
実行することができる。
【0213】すなわち、建物と地面全体のモデル群を、
まず、大きく、複数の地面のモデルからなるモデル群
と、複数の壁面のモデルからなるモデル群と、複数の屋
根のモデルからなるモデル群とに分類する。さらに、地
面のモデル群を、平坦な地面のモデル群と、傾いた地面
のモデル群とに分類する。そして、地面の高さ、水平面
に対する傾き角度などのパラメータを導入して、地面の
モデルそれぞれに対して、このパラメータをモデル情報
として付与する。建物の壁面のモデルについても、同様
にして、垂直面に対する傾斜角などのパラメータを導入
して、このパラメータをモデル情報として付与する。
【0214】そして、図12のモデル推定部611で
は、仮想画像#21を、いくつかの領域に区分して、各
領域毎にモデルを推定することができる。
【0215】いま、仮想画像#21で、ある建物が捕ら
えられており、仮想画像#21の中央の正面に、垂直な
壁面が存在し、その上に、傾斜のある屋根が存在し、正
面壁面の左に、奥行き方向に傾いているた壁面が存在し
ていたとする。
【0216】そこで、仮想画像#21の中央領域、中央
上部領域、中央より左の領域それぞれ毎に、モデル推定
処理を実行することにより、各領域に存在するであろう
物体を、確実かつ効率よく認識、判断することが可能と
なる。
【0217】さらに、一の建物だけではなく、複数の建
物を認識する実施も可能である。この場合、複数の建物
(たとえば、一戸建てとビル)それぞれを示すモデル群
が上位に存在し、建物を構成する壁面、屋根などのモデ
ルがその下位に存在する階層構造をもつモデル群とな
る。ここで、上位の構造としては、個々の建物のモデル
を個別に用意してもよく、複数の建物が存在する全体構
成(建物群)をモデルとすることも可能である。
【0218】また、上述した仮想画像#21の領域毎に
モデルを推定する場合に、各領域毎に、各モデルの存在
確率を予め情報として与えることによって、より効率よ
くモデル推定処理を行うようにしてもよい。各モデルに
対して、いずれの領域にどの程度の確率で存在している
のかという情報がモデル情報として付与されることにな
る。
【0219】そこで、このモデルに付与されたモデル情
報に基づいて、存在確率がきわめて低い領域について
は、このモデルを仮定モデルとしないで、先に処理を進
めることが可能となる。
【0220】たとえば、仮想画像#21の下側の領域
に、屋根を示すモデルが存在する確率はきわめて低いの
で、この下側の領域については、屋根を示すモデルを仮
定モデルから排除することができる。このため、処理効
率をより向上させることができる。
【0221】たとえば、特定の局所情報や、局所情報か
ら算出した特殊なパラメータ(エッジの強度や方向、位
置などの情報や、テクスチャ情報など)、仮想視野に関
連する情報、仮定したモデルに関連する情報、あるいは
他のセンサの検出結果に基づく情報に基づいて、仮想画
像#21の特定の領域では、仮定すべきモデルの種類を
変更したり、仮定すべきモデルの種類に制限を加えた
り、使用すべき画像を各画像#1〜#Nの中から選択す
るなどの特殊な操作を加えることもできる。
【0222】また、本実施形態では、前述したように、
仮想画像#21を設定することを必ずしも要しないが、
仮想画像#21を使用してモデルを推定する場合には、
仮想画像#21の視野自在性を利用して、モデルをあら
ゆる方向から観測した結果に基づきモデル推定を行うよ
うにしてもよい。
【0223】すなわち、モデル(たとえば球形のモデ
ル)の3次元構造が、通常観測される表側だけではな
く、裏側についても定義されている場合には、仮想画像
#21を、モデルの表側だけではなく、モデルの裏側か
ら観測する視野に設定することにより、モデルの推定の
柔軟性を高めることもできる。ただし、これは各画像セ
ンサ1〜Nのいずれかで、モデルの裏側が撮像され得る
ことが必要である。
【0224】なお、本実施形態では、画像(仮想画像)
中に、予め設定したモデル群の中のうちのいずれかのモ
デル、あるいは予め設定した一のモデルが存在すること
を前提として説明したが、モデルに関して得られた類似
度に基づいて、画像(仮想画像)中に、当該モデルが存
在しているか否かの判断を行うことも可能である。
【0225】たとえば、図16、図18に示すように、
推定したモデルに関する類似度の逆数Qsの分布を取得
し、この類似度の逆数Qsが所定のしきい値より高い場
合には、この推定モデルは画像中に存在しないと判断す
るようにしてもよい。
【0226】・第5の実施形態 本実施形態は、上記第4の実施形態で述べた実在の物体
の認識の考え方を利用することにより、画像上において
実際の背景と背景モデルとが一致している領域について
は擬似的な画像を表示し、不一致の領域についてはそこ
にある実在の物体を表示するという具合に、実際のもの
とは異なる内容に画像表示内容を変更するというもので
ある。
【0227】すなわち、クロマキー等の映像放送の技術
分野に関するものであり、以下のような画像処理を行う
場合に好適なものである。モデルとして、例えば模様の
あるカーテンを背景モデルとして用意する。そして、画
像センサによって、通常、模様のあるカーテンが背景と
して撮像されるものとする。この状態で、背景の前に背
景以外のもの、例えば人などの背景以外の物体が出現す
ると、その背景以外の物体が画像中で占める領域の部分
において、背景モデルとの不一致が生じる。そこで、こ
の不一致が生じた領域には、画像センサで撮像した実際
の人などの背景以外の物体の画像を表示するようにし、
一方、背景モデルと一致した領域については、予め用意
しておいた擬似背景画像、たとえば東京タワーを写した
別の画像を表示するようにするものである。
【0228】本実施形態によれば、実在の物体の複雑な
輪郭形状に合わせて背景を物体から分離するという複雑
な処理を要せずとも、きわめて簡易かつ迅速に処理を進
めることができるようになる。
【0229】また、背景モデルは、背景の特徴を形状の
みを取り出し抽出したものであり、背景の模様、明るさ
が変化したとしても、これに影響されることなく、常に
精度よく処理を進めることが可能である。
【0230】以下、図12に対応する図19に示すブロ
ック図を参照して、本実施形態の画像処理について説明
する。
【0231】まず、画像センサ1〜Nの中から、一の基
準画像センサ、たとえば画像センサ1が選択される。こ
の基準画像センサ1の基準画像#1に基づいて背景分離
処理が実行される。この基準画像センサ1により、背景
(たとえば模様のあるカーテン)と背景の前に出現する
物体(たとえば人)とが撮像される。他の画像センサ2
〜Nにおいても、背景とこの背景の前に出現する物体が
撮像される。
【0232】基準画像入力部701には、基準画像セン
サ1で撮像された基準画像#1が取り込まれる。他の画
像入力部702、703には、他の画像センサ2〜Nで
撮像された画像#2〜#Nが取り込まれる。
【0233】背景モデル情報設定部704では、図12
の仮定モデル情報設定部605と同様にして、背景の3
次元構造を示すモデル情報が設定される。
【0234】対応候補点座標発生部705では、上記背
景モデルを仮定モデルMとして、図12の対応候補点座
標発生部606と同様にして、基準画像センサ1の背景
画像#1中の選択画素P1に対応する他の画像センサk
の画像#k中の対応候補点Pkの位置座標(Xk,Yk
(k=2、…、N)を、仮定するモデルMのモデル情報
から発生する。
【0235】局所情報抽出部706では、基準画像#1
の選択画素P1の画像情報F1が局所情報として抽出され
る。局所情報抽出部707、708では、対応候補点座
標発生部705によって発生された対応候補点Pkの位
置座標に基づき局所情報Fk(k=2、…、N)を抽出
する処理がそれぞれ実行される。
【0236】類似度算出部709では、図12に示す類
似度算出部610と同様にして、全画像センサ1〜Nの
選択画素P1、対応候補点P2〜 PNの画像情報F1、 F
2〜FNの分散値(画像情報の「まとまり具合」を示す評
価値)が類似度として算出される。類似度が大きい値を
示す程(画像情報の分散値が小さい程)、画像中のその
領域は仮定モデルMと一致している可能性が高い、すな
わち背景を表している可能性が高いということになる。
【0237】背景モデル判定部710では、基準画像#
1の各選択画素毎に、各領域毎に、その選択画素、その
領域に背景が存在するか否かが判断される。具体的に
は、類似度算出部709で算出された類似度が所定のし
きい値以上になっている選択画素あるいは領域について
は、背景であると判定され、上記算出された類似度が所
定のしきい値よりも小さくなっている選択画素あるいは
領域については、背景以外の物体であると判定される。
【0238】背景が存在しているか否かの判定を行う場
合に、背景モデルに関して予め付与された補助情報を利
用してもよい。補助情報とは、背景モデルの精度、明度
などの情報である。
【0239】例えば、背景モデルの精度に応じて、判定
を緩やかにしたり、照明などの影響で、局所情報の精度
が劣化する領域については、この点を考慮するなどし
て、判定の精度を高めることができる。
【0240】また、対応候補点の探索の範囲を、補助情
報に基づき領域毎に設定してもよい。 擬似背景発生部
711では、所望の擬似背景画像、たとえば「東京タワ
ーと青空」が生成される。この擬似背景は、画像センサ
1〜Nでは、現在、撮像されていない画像であり、予め
他の画像センサで撮像しておくようにすればよい。ま
た、擬似背景は、基準画像#1で撮像された実際の背景
の代わりとなるものであるので、基準画像#1の視野の
動きにに合わせて撮像されていればよりリアルである。
画像選択部712は、基準画像#1の背景として、擬
似背景発生部711で発生した擬似背景(「東京タワー
と青空」)か実際の画像(「模様のあるカーテンの前の
人」)のいずれかを表示させるかを画素毎に選択するも
のである。
【0241】そして、画像表示部713では、背景モデ
ル判定部710の判定結果に基づいて、基準画像#1の
領域のうち、背景であると判定された領域については、
実際の画像の代わりに、画像選択部712で選択された
背景(たとえば擬似背景)が表示されるとともに、基準
画像#1の領域のうち、背景以外の物体(人など)であ
ると判定された領域については、基準画像#1の画像情
報をそのままとし、画像センサ1で撮像された背景以外
の物体がそのまま表示される。つまり、画像表示部71
3では、画像センサ1の視野でみたときの物体(人)が
擬似背景とともに表示されることになる。
【0242】なお、本実施形態では、画像表示部713
で、画像センサ1の視野でみた画像を表示しているが、
他の画像センサ2、…、Nの視野でみた画像を表示する
実施も可能である。
【0243】また、本実施形態では、図12と異なり、
仮想画像センサ21による仮想画像#21を設定しない
で処理を行う場合を例にとり説明したが、図12と同様
に仮想画像センサ21による仮想画像#21を設定し
て、この仮想画像#21を、基準画像1の代わりとする
実施も可能である。この場合、画像表示部713では、
仮想画像#21でみた画像が表示されることになる。
【0244】なお、背景モデル情報設定部704で設定
される背景モデルは、実際の背景を捕らえた距離画像に
基づき生成してもよいし、また、カメラの動きを検出す
るセンサを用意し、カメラの動きに応じてモデルを修正
してもよい。この場合、仮想画像#21からみた距離画
像を生成し、この距離画像そのものを背景モデル、モデ
ル情報として登録することができる。これにより距離画
像の信頼度などの補助情報を利用して、背景か否かの判
定の精度を高めることが可能である。
【図面の簡単な説明】
【図1】図1は第1の実施形態を説明するための仮想画
像センサの概念を示す図である。
【図2】図2は多眼ステレオの類似度の融合の仕方を説
明する図である。
【図3】図3は第1の実施形態を説明する図であり、仮
想視野を用いた多眼ステレオの距離計測の処理内容(基
準画像センサを設定する場合)を説明する図である。
【図4】図4は第1の実施形態を説明する図であり、仮
想視野を用いた多眼ステレオ距離計測システム(基準画
像センサを設定する場合)のブロック図である。
【図5】図5は第1の実施形態を説明する図であり、仮
想視野を用いた多眼ステレオの距離計測の処理内容(基
準画像センサを設定しない場合)を説明する図である。
【図6】図6は第1の実施形態を説明する図であり、仮
想視野を用いた多眼ステレオ距離計測システム(基準画
像センサを設定しない場合)のブロック図である。
【図7】図7(a)、(b)は第2の実施形態を説明す
る図であり、異なる種類の画像センサが配置された画像
センサ群を示す斜視図である。
【図8】図8は第3の実施形態で想定している車両搭載
のシステムを概念的に示す図である。
【図9】図9は第2の実施形態を説明する図であり、仮
想視野を用いて異なる種類の画像センサ群を統合する多
眼ステレオ距離計測システムのブロック図である。
【図10】図10(a)、(b)、(c)は図9に示す
距離推定部で実行される処理の内容を説明する図であ
る。
【図11】図11は第4の実施形態を説明する図であ
り、仮想視野を用いる場合のモデル上の点が画像上のど
こに写るかを示す図である。
【図12】図12は第4の実施形態を説明する図であ
り、仮想視野を用いてモデルを推定する多眼ステレオ装
置の構成ブロック図である。
【図13】図13は第4の実施形態で想定しているモデ
ルの一例を示す図である。
【図14】図14は図12に示す類似度算出部で得られ
る仮定モデルと類似度の逆数との対応関係を示すグラフ
である。
【図15】図15は第4の実施形態の変形例を説明する
図であり、走行路の上に存在する障害物を認識する場合
を説明する図である。
【図16】図16は図15に示す実施形態において走行
路と障害物とを識別する処理を説明する図である。
【図17】図17は第4の実施形態の変形例を説明する
図であり、走行路が平坦であることが既知であり、この
平面の上に存在する障害物を認識する場合を説明する図
である。
【図18】図18は図17に示す実施形態において走行
路と障害物とを識別する処理を説明する図である。
【図19】図19は第5の実施形態を説明する図であ
り、擬似背景を背景とする画像を表示するシステムを示
すブロック図である。
【図20】図20は従来の2眼ステレオの原理を示した
図である。
【図21】図21は従来の2眼ステレオの距離計測の処
理を説明する図である。
【図22】図22は仮定距離と類似度の逆数との対応関
係を示すグラフである。
【図23】図23は従来の2眼ステレオ装置の構成を示
したブロック図である。
【図24】図24は従来の多眼ステレオの距離計測の処
理内容を説明する図である。
【図25】図25は従来の多眼ステレオ装置の構成を示
したブロック図である。
【図26】図26は車両上に搭載した画像センサ群の撮
像結果に基づき距離を計測する従来技術を説明する図で
ある。
【図27】図27は第4の実施形態を説明する図であ
り、仮想視野を用いないでモデルを推定する多眼ステレ
オ装置のブロック図である。
【図28】図28は第4の実施形態を説明する図であ
り、仮想視野を用いない場合のモデル上の点が画像上の
どこに写るかを示す図である。
【符号の説明】
21 仮想画像センサ 1〜N 画像センサ 11 画像センサ群 50 認識対象物体 60 車両 61 道路 62 障害物 305 仮想視野情報設定部 314 距離情報推定部 513 外部情報入力部 605 仮定モデル情報設定部 611 モデル推定部 711 擬似背景発生部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 木村 茂 神奈川県川崎市宮前区菅生ヶ丘9−1− 403 (72)発明者 中野 勝之 東京都目黒区中目黒2−2−30 (72)発明者 山口 博義 神奈川県平塚市四之宮2597 株式会社 小松製作所 特機事業本部 研究部内 (72)発明者 新保 哲也 神奈川県平塚市四之宮2597 株式会社 小松製作所 特機事業本部 研究部内 (72)発明者 川村 英二 神奈川県川崎市宮前区有馬2丁目8番24 号 株式会社 サイヴァース内 (72)発明者 緒方 正人 神奈川県鎌倉市上町屋345番地 三菱プ レシジョン株式会社内 (56)参考文献 特開 平6−318253(JP,A) 特開 平5−143156(JP,A) 特開 平2−195486(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 7/00 - 7/60 G01B 11/00 G01B 11/24 G01C 3/06 - 3/08 G01C 11/06 - 11/28

Claims (30)

    (57)【特許請求の範囲】
  1. 【請求項1】 複数の撮像手段を所定間隔をもって
    配置し、これら複数の撮像手段のうちの一の撮像手段で
    対象物体を撮像したときの当該一の撮像手段の撮像画像
    中の選択画素に対応する他の撮像手段の撮像画像中の対
    応候補点の情報を、前記一の撮像手段から前記選択画素
    に対応する前記物体上の点までの仮定距離の大きさ毎に
    抽出し、前記選択画素の画像情報と前記対応候補点の画
    像情報の類似度を算出し、この算出された類似度が最も
    大きくなるときの前記仮定距離を、前記一の撮像手段か
    ら前記選択画素に対応する前記物体上の点までの距離と
    し、この各選択画素毎に求められた距離に基づき前記物
    体を認識するようにした物体の認識装置において、 所望の位置で、所望の視野をもって前記物体を撮像した
    ときの仮想の撮像手段による仮想の撮像画像を、前記一
    の撮像手段の撮像画像の代わりに、設定する仮想視野情
    報設定手段と、 前記仮想視野情報設定手段で設定された仮想画像中の選
    択画素に対応する前記複数の撮像手段の撮像画像中の対
    応候補点の情報を、前記仮想視野情報設定手段で設定さ
    れた視点から前記選択画素に対応する前記物体上の点ま
    での仮定距離の大きさ毎に抽出する対応候補点情報抽出
    手段と、 前記対応候補点情報抽出手段で抽出された対応候補点の
    画像情報同士の類似度を算出する類似度算出手段と、 前記類似度算出手段で算出された類似度が最も大きくな
    るときの前記仮定距離を、前記仮想視野情報設定手段で
    設定された視点から前記選択画素に対応する前記物体上
    の点までの距離とし、この距離を各選択画素毎に求める
    距離推定手段とを具えた物体の認識装置。
  2. 【請求項2】 前記類似度算出手段で算出された仮
    定距離ごとの類似度の大きさまたは類似度の変化率また
    は原画像の変化率に基づいて、前記仮想画像中の各選択
    画素毎に求められる距離の信頼度を演算する距離の信頼
    度演算手段をさらに設けるようにした請求項1記載の物
    体の認識装置。
  3. 【請求項3】 前記仮想画像中の各選択画素毎に求
    められた距離に基づいて、前記仮想視野情報設定手段で
    設定された視点から前記物体の各点までの距離あるいは
    信頼度を示す画像を生成する画像生成手段をさらに設け
    るようにした請求項1または請求項2記載の物体の認識
    装置。
  4. 【請求項4】 前記仮想画像中の各選択画素毎に求
    められた距離と、これら距離に対応する対応点の画像情
    報とに基づいて、前記仮想視野情報設定手段で設定され
    た視点で前記物体を撮像したときの画像を生成する画像
    生成手段をさらに設けるようにした請求項1記載の物体
    の認識装置。
  5. 【請求項5】 複数の撮像手段を所定間隔をもって配
    置し、これら複数の撮像手段のうちの一の撮像手段で対
    象物体を撮像したときの当該一の撮像手段の撮像画像中
    の選択画素に対応する他の撮像手段の撮像画像中の対応
    候補点の情報を、前記一の撮像手段から前記選択画素に
    対応する前記物体上の点までの仮定距離の大きさ毎に抽
    出し、前記選択画素の画像情報と前記対応候補点の画像
    情報の類似度を算出し、この算出された類似度が最も大
    きくなるときの前記仮定距離を、前記一の撮像手段から
    前記選択画素に対応する前記物体上の点までの距離と
    し、この各選択画素毎に求められた距離に基づき前記物
    体を認識するようにした物体の認識装置において、 前記複数の撮像手段は、前記物体を撮像する条件の異な
    る少なくとも2種類の撮像手段群に分類されるものであ
    り、 所望の位置で、所望の視野をもって前記物体を撮像した
    ときの仮想の撮像手段による仮想の撮像画像を、前記一
    の撮像手段の撮像画像の代わりに、設定する仮想視野情
    報設定手段と、 前記仮想視野情報設定手段で設定された仮想画像中の選
    択画素に対応するそれぞれの前記撮像手段群の撮像画像
    中の対応候補点の情報を、前記仮想視野情報設定手段で
    設定された視点から前記選択画素に対応する前記物体上
    の点までの仮定距離の大きさ毎に抽出する対応候補点情
    報抽出手段と、 前記対応候補点情報抽出手段で抽出された対応候補点の
    画像情報同士の類似度を、それぞれの前記撮像手段群毎
    に算出する類似度算出手段と、 前記類似度算出手段で算出されたそれぞれの前記撮像手
    段群についての類似度に基づいて融合類似度を求め、こ
    の融合類似度が最も大きくなるときの前記仮定距離を、
    前記仮想視野情報設定手段で設定された視点から前記選
    択画素に対応する前記物体上の点までの距離とし、この
    距離を各選択画素毎に求める距離推定手段とを具えた物
    体の認識装置。
  6. 【請求項6】 複数の撮像手段を所定間隔をもって配
    置し、これら複数の撮像手段のうちの一の撮像手段で対
    象物体を撮像したときの当該一の撮像手段の撮像画像中
    の選択画素に対応する他の撮像手段の撮像画像中の対応
    候補点の情報を、前記一の撮像手段から前記選択画素に
    対応する前記物体上の点までの仮定距離の大きさ毎に抽
    出し、前記選択画素の画像情報と前記対応候補点の画像
    情報の類似度を算出し、この算出された類似度が最も大
    きくなるときの前記仮定距離を、前記一の撮像手段から
    前記選択画素に対応する前記物体上の点までの距離と
    し、この各選択画素毎に求められた距離に基づき前記物
    体を認識するようにした物体の認識装置において、 前記複数の撮像手段は、前記物体を撮像する条件の異な
    る少なくとも2種類の撮像手段群に分類されるものであ
    り、 前記物体の撮像条件に応じて、前記撮像手段群の中から
    少なくとも一つの撮像手段群を、実際に使用すべき撮像
    手段群として選択する撮像手段群選択手段と、 所望の位置で、所望の視野をもって前記物体を撮像した
    ときの仮想の撮像手段による仮想の撮像画像を、前記一
    の撮像手段の撮像画像の代わりに、設定する仮想視野情
    報設定手段と、 前記仮想視野情報設定手段で設定された仮想画像中の選
    択画素に対応する前記選択された撮像手段群の撮像画像
    中の対応候補点の情報を、前記仮想視野情報設定手段で
    設定された視点から前記選択画素に対応する前記物体上
    の点までの仮定距離の大きさ毎に抽出する対応候補点情
    報抽出手段と、 前記対応候補点情報抽出手段で抽出された対応候補点の
    画像情報同士の類似度を、前記選択された撮像手段群に
    ついて算出する類似度算出手段と、 前記類似度算出手段で算出された前記選択撮像手段群に
    ついての類似度が最も大きくなるときの前記仮定距離
    を、前記仮想視野情報設定手段で設定された視点から前
    記選択画素に対応する前記物体上の点までの距離とし、
    この距離を各選択画素毎に求める距離推定手段とを具え
    た物体の認識装置。
  7. 【請求項7】 複数の撮像手段を所定間隔をもって
    配置し、これら複数の撮像手段のうちの一の撮像手段で
    対象物体を撮像したときの当該一の撮像手段の撮像画像
    中の選択画素に対応する他の撮像手段の撮像画像中の対
    応候補点の情報を、前記一の撮像手段から前記選択画素
    に対応する前記物体上の点までの仮定距離の大きさ毎に
    抽出し、前記選択画素の画像情報と前記対応候補点の画
    像情報の類似度を算出し、この算出された類似度が最も
    大きくなるときの前記仮定距離を、前記一の撮像手段か
    ら前記選択画素に対応する前記物体上の点までの距離と
    し、この各選択画素毎に求められた距離に基づき前記物
    体を認識するようにした物体の認識装置において、 前記物体の撮像条件に応じて、前記複数の撮像手段の中
    から実際に使用すべき少なくとも2つの撮像手段を選択
    する撮像手段選択手段と、 前記物体の撮像条件に応じた所望の位置、所望の視野を
    もって前記物体を撮像したときの仮想の撮像手段による
    仮想の撮像画像を、前記一の撮像手段の撮像画像の代わ
    りに、設定する仮想視野情報設定手段と、 前記仮想視野情報設定手段で設定された仮想画像中の選
    択画素に対応する前記選択された少なくとも2つの撮像
    手段の撮像画像中の対応候補点の情報を、前記仮想視野
    情報設定手段で設定された視点から前記選択画素に対応
    する前記物体上の点までの仮定距離の大きさ毎に抽出す
    る対応候補点情報抽出手段と、 前記対応候補点情報抽出手段で抽出された対応候補点の
    画像情報同士の類似度を算出する類似度算出手段と、 前記類似度算出手段で算出された類似度が最も大きくな
    るときの前記仮定距離を、前記仮想視野情報設定手段で
    設定された視点から前記選択画素に対応する前記物体上
    の点までの距離とし、この距離を各選択画素毎に求める
    距離推定手段とを具えた物体の認識装置。
  8. 【請求項8】 所定間隔をもって配置され、認識対
    象物体を撮像する複数の撮像手段と、 前記認識対象物体に応じたモデル群を仮定するととも
    に、当該モデル群の各モデル上の各点の位置座標を設定
    する仮定モデル情報設定手段と、 前記複数の撮像手段のうちの一の撮像手段で前記認識対
    象物体を撮像したときの当該一の撮像手段の撮像画像中
    の選択画素に対応する他の撮像手段の撮像画像中の対応
    候補点の情報を、前記モデル群の中から選択された仮定
    モデル毎に、当該仮定モデルの位置座標を用いて抽出す
    る対応候補点情報抽出手段と、 前記選択画素の画像情報と前記対応候補点情報抽出手段
    で抽出された対応候補点の画像情報の類似度を算出する
    類似度算出手段と、 前記類似度算出手段で算出された類似度が最も大きくな
    るときの前記仮定モデルを、前記選択画素に対応する点
    のモデルとし、このモデルを各選択画素毎に求めるモデ
    ル推定手段とを具えた物体の認識装置。
  9. 【請求項9】 前記類似度算出手段で算出された仮
    定モデルごとの類似度の大きさまたは類似度の変化率ま
    たは原画像の変化率に基づいて、前記複数の撮像手段の
    うちの一の撮像手段で前記認識対象物体を撮像したとき
    の当該一の撮像手段の撮像画像中の各選択画素毎に求め
    られるモデルの信頼度を演算するモデルの信頼度演算手
    段をさらに設けるようにした請求項8記載の物体の認識
    装置。
  10. 【請求項10】 前記複数の撮像手段のうちの一の
    撮像手段で前記認識対象物体を撮像したときの当該一の
    撮像手段の撮像画像中の各選択画素毎に求められたモデ
    ルに基づいて、モデルの値あるいは信頼度を示す画像を
    生成する画像生成手段をさらに設けるようにした請求項
    8または請求項9記載の物体の認識装置。
  11. 【請求項11】 所定間隔をもって配置され、空間
    内の認識対象物体を撮像する複数の撮像手段と、 前記空間内の認識対象物体に対応したモデルを生成する
    とともに、当該モデル上の各点の位置座標を設定する仮
    定モデル情報設定手段と、 前記複数の撮像手段のうちの一の撮像手段で前記認識対
    象物体を撮像したときの当該一の撮像手段の撮像画像中
    の選択画素に対応する前記モデル上の点に対応する他の
    撮像手段の撮像画像中の対応候補点の情報を、前記モデ
    ルの位置座標を用いて抽出する対応候補点情報抽出手段
    と、 前記選択画素の画像情報と前記対応候補点情報抽出手段
    で抽出された対応候補点の画像情報の類似度を算出する
    類似度算出手段と、 前記類似度算出手段で算出された類似度を、各選択画素
    毎に求め、各選択画素毎に求められた類似度を用いて、
    当該類似度が所定のしきい値以上の選択画素の領域を前
    記モデルであると判定するとともに、前記類似度が所定
    のしきい値よりも小さくなる選択画素の領域を前記モデ
    ル以外の物体であると判定する判定手段とを具えた物体
    の認識装置。
  12. 【請求項12】 所定間隔をもって配置され、空間
    内の認識対象物体と背景を撮像する複数の撮像手段と、 前記空間内の背景に対応したモデルを生成するととも
    に、当該モデル上の各点の位置座標を設定する仮定モデ
    ル情報設定手段と、 前記複数の撮像手段のうちの一の撮像手段で前記認識対
    象物体および背景を撮像したときの当該一の撮像手段の
    撮像画像中の前記背景を示す選択画素に対応する他の撮
    像手段の撮像画像中の対応候補点の情報を、前記背景の
    モデルの位置座標を用いて抽出する対応候補点情報抽出
    手段と、 前記選択画素の画像情報と前記対応候補点情報抽出手段
    で抽出された対応候補点の画像情報の類似度を算出する
    類似度算出手段と、 前記類似度算出手段で算出された類似度を、各選択画素
    毎に求め、各選択画素毎に求められた類似度を用いて、
    当該類似度が所定のしきい値以上の選択画素の領域を前
    記背景であると判定するとともに、前記類似度が所定の
    しきい値よりも小さくなる選択画素の領域を前記背景以
    外の物体であると判定する判定手段と、 所望の擬似背景画像を発生する擬似背景画像発生手段
    と、前記判定手段で背景であると判定された選択画素の
    領域については前記擬似画像背景画像発生手段で発生す
    る擬似背景画像を表示するとともに、前記判定手段で背
    景以外の物体であると判定された選択画素の領域につい
    ては当該選択画素の画像情報に基づき当該背景以外の物
    体をそのまま表示する画像表示手段とを具えた表示装
    置。
  13. 【請求項13】 前記モデル推定手段あるいは前記
    モデル信頼度演算手段で得られたモデル推定情報および
    他のセンサ情報に基づいて、当該モデル群の中から、仮
    定モデルとすべき、適切な一つのモデルあるいはモデル
    群を逐次選択するモデル群選択手段をさらに具えた請求
    項8または請求項9または請求項10または請求項11記載
    の物体の認識装置。
  14. 【請求項14】 所望の位置で、所望の視野をもっ
    て前記物体を撮像したときの仮想の撮像手段による仮想
    の撮像画像を、前記一の撮像手段の撮像画像の代わりに
    設定し、前記設定された仮想画像中の選択画素に対応す
    る前記複数の撮像手段の撮像画像中の対応候補点の情報
    を、前記モデル群の中から選択された仮定モデル毎に、
    当該仮定モデルの位置座標を用いて抽出し、前記抽出さ
    れた対応候補点の画像情報同士の類似度を算出するよう
    にした、 請求項8または請求項9または請求項10記載の物体の認
    識装置。
  15. 【請求項15】 所望の位置で、所望の視野をもっ
    て前記物体を撮像したときの仮想の撮像手段による仮想
    の撮像画像を、前記一の撮像手段の撮像画像の代わりに
    設定し、前記設定された仮想画像中の選択画素に対応す
    る前記複数の撮像手段の撮像画像中の対応候補点の情報
    を、前記モデルの位置座標を用いて抽出し、前記抽出さ
    れた対応候補点の画像情報同士の類似度を算出するよう
    にした、 請求項11または請求項12記載の物体の認識装置。
  16. 【請求項16】 複数の撮像手段を所定間隔をもって
    配置し、これら複数の撮像手段のうちの一の撮像手段で
    対象物体を撮像したときの当該一の撮像手段の撮像画像
    中の選択画素に対応する他の撮像手段の撮像画像中の対
    応候補点の情報を、前記一の撮像手段から前記選択画素
    に対応する前記物体上の点までの仮定距離の大きさ毎に
    抽出し、前記選択画素の画像情報と前記対応候補点の画
    像情報の類似度を算出し、この算出された類似度が最も
    大きくなるときの前記仮定距離を、前記一の撮像手段か
    ら前記選択画素に対応する前記物体上の点までの距離と
    し、この各選択画素毎に求められた距離に基づき前記物
    体を認識するようにした物体の認識方法において、 所望の位置で、所望の視野をもって前記物体を撮像した
    ときの仮想の撮像手段による仮想の撮像画像を、前記一
    の撮像手段の撮像画像の代わりに、設定する仮想視野情
    報設定行程と、 前記仮想視野情報設定行程で設定された仮想画像中の選
    択画素に対応する前記複数の撮像手段の撮像画像中の対
    応候補点の情報を、前記仮想視野情報設定手段で設定さ
    れた視点から前記選択画素に対応する前記物体上の点ま
    での仮定距離の大きさ毎に抽出する対応候補点情報抽出
    行程と、 前記対応候補点情報抽出行程で抽出された対応候補点の
    画像情報同士の類似度を算出する類似度算出行程と、 前記類似度算出行程で算出された類似度が最も大きくな
    るときの前記仮定距離を、前記仮想視野情報設定行程で
    設定された視点から前記選択画素に対応する前記物体上
    の点までの距離とし、この距離を各選択画素毎に求める
    距離推定行程とを具えた物体の認識方法。
  17. 【請求項17】 前記類似度算出行程で算出された
    仮定距離ごとの類似度の大きさまたは類似度の変化率ま
    たは原画像の変化率に基づいて、前記仮想画像中の各選
    択画素毎に求められる距離の信頼度を演算する距離の信
    頼度演算行程をさらに設けるようにした請求項16記載の
    物体の認識方法。
  18. 【請求項18】 前記仮想画像中の各選択画素毎に
    求められた距離に基づいて、前記仮想視野情報設定行程
    で設定された視点から前記物体の各点までの距離あるい
    は信頼度を示す画像を生成する画像生成行程をさらに設
    けるようにした請求項16または請求項17記載の物体の認
    識方法。
  19. 【請求項19】 前記仮想画像中の各選択画素毎に
    求められた距離と、これら距離に対応する対応点の画像
    情報とに基づいて、前記仮想視野情報設定行程で設定さ
    れた視点で前記物体を撮像したときの画像を生成する画
    像生成行程をさらに設けるようにした請求項16記載の物
    体の認識方法。
  20. 【請求項20】 複数の撮像手段を所定間隔をもっ
    て配置し、これら複数の撮像手段のうちの一の撮像手段
    で対象物体を撮像したときの当該一の撮像手段の撮像画
    像中の選択画素に対応する他の撮像手段の撮像画像中の
    対応候補点の情報を、前記一の撮像手段から前記選択画
    素に対応する前記物体上の点までの仮定距離の大きさ毎
    に抽出し、前記選択画素の画像情報と前記対応候補点の
    画像情報の類似度を算出し、この算出された類似度が最
    も大きくなるときの前記仮定距離を、前記一の撮像手段
    から前記選択画素に対応する前記物体上の点までの距離
    とし、この各選択画素毎に求められた距離に基づき前記
    物体を認識するようにした物体の認識方法において、 前記複数の撮像手段は、前記物体を撮像する条件の異な
    る少なくとも2種類の撮像手段群に分類されるものであ
    り、 所望の位置で、所望の視野をもって前記物体を撮像した
    ときの仮想の撮像手段による仮想の撮像画像を、前記一
    の撮像手段の撮像画像の代わりに、設定する仮想視野情
    報設定行程と、 前記仮想視野情報設定行程で設定された仮想画像中の選
    択画素に対応するそれぞれの前記撮像手段群の撮像画像
    中の対応候補点の情報を、前記仮想視野情報設定行程で
    設定された視点から前記選択画素に対応する前記物体上
    の点までの仮定距離の大きさ毎に抽出する対応候補点情
    報抽出行程と、 前記対応候補点情報抽出行程で抽出された対応候補点の
    画像情報同士の類似度を、それぞれの前記撮像手段群毎
    に算出する類似度算出行程と、 前記類似度算出行程で算出されたそれぞれの前記撮像手
    段群についての類似度に基づいて融合類似度を求め、こ
    の融合類似度が最も大きくなるときの前記仮定距離を、
    前記仮想視野情報設定行程で設定された視点から前記選
    択画素に対応する前記物体上の点までの距離とし、この
    距離を各選択画素毎に求める距離推定行程とを具えた物
    体の認識方法。
  21. 【請求項21】 複数の撮像手段を所定間隔をもって
    配置し、これら複数の撮像手段のうちの一の撮像手段で
    対象物体を撮像したときの当該一の撮像手段の撮像画像
    中の選択画素に対応する他の撮像手段の撮像画像中の対
    応候補点の情報を、前記一の撮像手段から前記選択画素
    に対応する前記物体上の点までの仮定距離の大きさ毎に
    抽出し、前記選択画素の画像情報と前記対応候補点の画
    像情報の類似度を算出し、この算出された類似度が最も
    大きくなるときの前記仮定距離を、前記一の撮像手段か
    ら前記選択画素に対応する前記物体上の点までの距離と
    し、この各選択画素毎に求められた距離に基づき前記物
    体を認識するようにした物体の認識方法において、 前記複数の撮像手段は、前記物体を撮像する条件の異な
    る少なくとも2種類の撮像手段群に分類されるものであ
    り、 前記物体の撮像条件に応じて、前記撮像手段群の中から
    少なくとも一つの撮像手段群を、実際に使用すべき撮像
    手段群として選択する撮像手段群選択行程と、 所望の位置で、所望の視野をもって前記物体を撮像した
    ときの仮想の撮像手段による仮想の撮像画像を、前記一
    の撮像手段の撮像画像の代わりに、設定する仮想視野情
    報設定行程と、 前記仮想視野情報設定行程で設定された仮想画像中の選
    択画素に対応する前記選択された撮像手段群の撮像画像
    中の対応候補点の情報を、前記仮想視野情報設定行程で
    設定された視点から前記選択画素に対応する前記物体上
    の点までの仮定距離の大きさ毎に抽出する対応候補点情
    報抽出行程と、 前記対応候補点情報抽出行程で抽出された対応候補点の
    画像情報同士の類似度を、前記選択された撮像手段群に
    ついて算出する類似度算出行程と、 前記類似度算出行程で算出された前記選択撮像手段群に
    ついての類似度が最も大きくなるときの前記仮定距離
    を、前記仮想視野情報設定行程で設定された視点から前
    記選択画素に対応する前記物体上の点までの距離とし、
    この距離を各選択画素毎に求める距離推定行程とを具え
    た物体の認識方法。
  22. 【請求項22】 複数の撮像手段を所定間隔をもっ
    て配置し、これら複数の撮像手段のうちの一の撮像手段
    で対象物体を撮像したときの当該一の撮像手段の撮像画
    像中の選択画素に対応する他の撮像手段の撮像画像中の
    対応候補点の情報を、前記一の撮像手段から前記選択画
    素に対応する前記物体上の点までの仮定距離の大きさ毎
    に抽出し、前記選択画素の画像情報と前記対応候補点の
    画像情報の類似度を算出し、この算出された類似度が最
    も大きくなるときの前記仮定距離を、前記一の撮像手段
    から前記選択画素に対応する前記物体上の点までの距離
    とし、この各選択画素毎に求められた距離に基づき前記
    物体を認識するようにした物体の認識方法において、 前記物体の撮像条件に応じて、前記複数の撮像手段の中
    から実際に使用すべき少なくとも2つの撮像手段を選択
    する撮像手段選択行程と、 前記物体の撮像条件に応じた所望の位置、所望の視野を
    もって前記物体を撮像したときの仮想の撮像手段による
    仮想の撮像画像を、前記一の撮像手段の撮像画像の代わ
    りに、設定する仮想視野情報設定手段と、 前記仮想視野情報設定行程で設定された仮想画像中の選
    択画素に対応する前記選択された少なくとも2つの撮像
    手段の撮像画像中の対応候補点の情報を、前記仮想視野
    情報設定行程で設定された視点から前記選択画素に対応
    する前記物体上の点までの仮定距離の大きさ毎に抽出す
    る対応候補点情報抽出行程と、 前記対応候補点情報抽出行程で抽出された対応候補点の
    画像情報同士の類似度を算出する類似度算出行程と、 前記類似度算出行程で算出された類似度が最も大きくな
    るときの前記仮定距離を、前記仮想視野情報設定行程で
    設定された視点から前記選択画素に対応する前記物体上
    の点までの距離とし、この距離を各選択画素毎に求める
    距離推定行程とを具えた物体の認識方法。
  23. 【請求項23】 認識対象物体を、所定間隔をもっ
    て配置された複数の撮像手段で撮像する撮像行程と、 前記認識対象物体に応じたモデル群を仮定するととも
    に、当該モデル群の各モデル上の各点の位置座標を設定
    する仮定モデル情報設定行程と、 前記複数の撮像手段のうちの一の撮像手段で前記認識対
    象物体を撮像したときの当該一の撮像手段の撮像画像中
    の選択画素に対応する他の撮像手段の撮像画像中の対応
    候補点の情報を、前記モデル群の中から選択された仮定
    モデル毎に、当該仮定モデルの位置座標を用いて抽出す
    る対応候補点情報抽出行程と、 前記選択画素の画像情報と前記対応候補点情報抽出行程
    で抽出された対応候補点の画像情報の類似度を算出する
    類似度算出行程と、 前記類似度算出行程で算出された類似度が最も大きくな
    るときの前記仮定モデルを、前記選択画素に対応する点
    のモデルとし、このモデルを各選択画素毎に求めるモデ
    ル推定行程とを具えた物体の認識方法。
  24. 【請求項24】 前記類似度算出行程で算出された
    仮定モデルごとの類似度の大きさや類似度の変化率や原
    画像の変化率等に基づいて、前記複数の撮像手段のうち
    の一の撮像手段で前記認識対象物体を撮像したときの当
    該一の撮像手段の撮像画像中の各選択画素毎に求められ
    るモデルの信頼度を演算するモデルの信頼度演算行程を
    さらに設けるようにした請求項23記載の物体の認識方
    法。
  25. 【請求項25】 前記複数の撮像手段のうちの一の
    撮像手段で前記認識対象物体を撮像したときの当該一の
    撮像手段の撮像画像中の各選択画素毎に求められたモデ
    ルに基づいて、モデルの値あるいは信頼度を示す画像を
    生成する画像生成行程をさらに設けるようにした請求項
    24または請求項25記載の物体の認識方法。
  26. 【請求項26】 空間内の一の認識対象物体を、所
    定間隔をもって配置された複数の撮像手段で撮像する撮
    像行程と、 前記空間内の一の認識対象物体に対応したモデルを生成
    するとともに、当該モデル上の各点の位置座標を設定す
    る仮定モデル情報設定行程と、 前記複数の撮像手段のうちの一の撮像手段で前記認識対
    象物体を撮像したときの当該一の撮像手段の撮像画像中
    の前記モデルを示す選択画素に対応する他の撮像手段の
    撮像画像中の対応候補点の情報を、前記モデルの位置座
    標を用いて抽出する対応候補点情報抽出行程と、 前記選択画素の画像情報と前記対応候補点情報抽出行程
    で抽出された対応候補点の画像情報の類似度を算出する
    類似度算出行程と、 前記類似度算出行程で算出された類似度を、各選択画素
    毎に求め、各選択画素毎に求められた類似度を用いて、
    当該類似度が所定のしきい値以上の選択画素の領域を前
    記認識対象物体であると判定するとともに、前記類似度
    が前記所定のしきい値よりも小さくなる選択画素の領域
    を前記認識対象物体以外の物体であると判定する判定行
    程とを具えた物体の認識方法。
  27. 【請求項27】 空間内の認識対象物体と背景を、
    所定間隔をもって配置された複数の撮像手段で撮像する
    撮像行程と、 前記空間内の背景に対応したモデルを生成するととも
    に、当該モデル上の各点の位置座標を設定する仮定モデ
    ル情報設定行程と、 前記複数の撮像手段のうちの一の撮像手段で前記認識対
    象物体および背景を撮像したときの当該一の撮像手段の
    撮像画像中の前記背景を示す選択画素に対応する他の撮
    像手段の撮像画像中の対応候補点の情報を、前記背景の
    モデルの位置座標を用いて抽出する対応候補点情報抽出
    行程と、 前記選択画素の画像情報と前記対応候補点情報抽出行程
    で抽出された対応候補点の画像情報の類似度を算出する
    類似度算出行程と、 前記類似度算出行程で算出された類似度を、各選択画素
    毎に求め、各選択画素毎に求められた類似度を用いて、
    当該類似度が所定のしきい値以上の選択画素の領域を前
    記背景であると判定するとともに、前記類似度が前記所
    定のしきい値よりも小さくなる選択画素の領域を前記背
    景以外の物体であると判定する判定行程と、 所望の擬似背景画像を発生する擬似背景画像発生行程
    と、 前記判定行程で背景であると判定された選択画素の領域
    については前記擬似画像背景画像発生行程で発生する擬
    似背景画像を表示するとともに、前記判定行程で背景以
    外の物体であると判定された選択画素の領域については
    当該選択画素の画像情報に基づき当該背景以外の物体を
    そのまま表示する画像表示行程とを具えた表示方法。
  28. 【請求項28】 前記モデル推定行程あるいは前記
    モデル信頼度演算行程で得られたモデル推定情報および
    他のセンサ情報に基づいて、当該モデル群の中から、仮
    定モデルとすべき、適切な一つのモデルあるいはモデル
    群を逐次選択するモデル群選択行程をさらに具えた請求
    項23または請求項24または請求項25または請求項26記載
    の物体の認識方法。
  29. 【請求項29】 所望の位置で、所望の視野をもっ
    て前記物体を撮像したときの仮想の撮像手段による仮想
    の撮像画像を、前記一の撮像手段の撮像画像の代わりに
    設定し、前記設定された仮想画像中の選択画素に対応す
    る前記複数の撮像手段の撮像画像中の対応候補点の情報
    を、前記モデル群の中から選択された仮定モデル毎に、
    当該仮定モデルの位置座標を用いて抽出し、前記抽出さ
    れた対応候補点の画像情報同士の類似度を算出するよう
    にした、 請求項23または請求項24または請求項25記載の物体の認
    識方法。
  30. 【請求項30】 所望の位置で、所望の視野をもっ
    て前記物体を撮像したときの仮想の撮像手段による仮想
    の撮像画像を、前記一の撮像手段の撮像画像の代わりに
    設定し、前記設定された仮想画像中の選択画素に対応す
    る前記複数の撮像手段の撮像画像中の対応候補点の情報
    を、前記モデルの位置座標を用いて抽出し、前記抽出さ
    れた対応候補点の画像情報同士の類似度を算出するよう
    にした、 請求項26または請求項27記載の物体の認識方法。
JP10049520A 1998-03-02 1998-03-02 3次元物体認識装置および方法 Expired - Lifetime JP2881193B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10049520A JP2881193B1 (ja) 1998-03-02 1998-03-02 3次元物体認識装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10049520A JP2881193B1 (ja) 1998-03-02 1998-03-02 3次元物体認識装置および方法

Publications (2)

Publication Number Publication Date
JP2881193B1 true JP2881193B1 (ja) 1999-04-12
JPH11250252A JPH11250252A (ja) 1999-09-17

Family

ID=12833422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10049520A Expired - Lifetime JP2881193B1 (ja) 1998-03-02 1998-03-02 3次元物体認識装置および方法

Country Status (1)

Country Link
JP (1) JP2881193B1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2778603A4 (en) * 2011-11-11 2015-06-03 Hitachi Automotive Systems Ltd IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
CN109934931A (zh) * 2017-12-19 2019-06-25 阿里巴巴集团控股有限公司 采集图像、建立目标物体识别模型的方法及装置
CN112334733A (zh) * 2018-06-29 2021-02-05 株式会社小松制作所 拍摄装置的校正装置、监视装置、作业机械及校正方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6868191B2 (en) * 2000-06-28 2005-03-15 Telefonaktiebolaget Lm Ericsson (Publ) System and method for median fusion of depth maps
DE102004007049A1 (de) * 2004-02-13 2005-09-01 Robert Bosch Gmbh Verfahren zur Klassifizierung eines Objekts mit einer Stereokamera
JP2006214735A (ja) * 2005-02-01 2006-08-17 Viewplus Inc 複合ステレオビジョン装置
JP2006322795A (ja) * 2005-05-18 2006-11-30 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP4984650B2 (ja) * 2006-05-30 2012-07-25 トヨタ自動車株式会社 移動装置及び移動装置の自己位置推定方法
JP5086120B2 (ja) * 2008-02-07 2012-11-28 日本電信電話株式会社 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体
CN105066962B (zh) * 2015-07-21 2017-08-25 中国航空工业集团公司北京长城航空测控技术研究所 一种多分辨率大视场角高精度摄影测量装置
JP7003628B2 (ja) 2017-12-19 2022-01-20 富士通株式会社 物体追跡プログラム、物体追跡装置、及び物体追跡方法
JP2023088593A (ja) * 2021-12-15 2023-06-27 財團法人工業技術研究院 路面データを抽出するための方法とシステム、および自動運転車を制御するための方法とシステム
US11999352B2 (en) 2021-12-15 2024-06-04 Industrial Technology Research Institute Method and system for extracting road data and method and system for controlling self-driving car

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2778603A4 (en) * 2011-11-11 2015-06-03 Hitachi Automotive Systems Ltd IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD
CN109934931A (zh) * 2017-12-19 2019-06-25 阿里巴巴集团控股有限公司 采集图像、建立目标物体识别模型的方法及装置
CN112334733A (zh) * 2018-06-29 2021-02-05 株式会社小松制作所 拍摄装置的校正装置、监视装置、作业机械及校正方法
CN112334733B (zh) * 2018-06-29 2022-09-27 株式会社小松制作所 拍摄装置的校正装置、监视装置、作业机械及校正方法

Also Published As

Publication number Publication date
JPH11250252A (ja) 1999-09-17

Similar Documents

Publication Publication Date Title
CN108406731B (zh) 一种基于深度视觉的定位装置、方法及机器人
CN112785702B (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
US10909395B2 (en) Object detection apparatus
KR100513055B1 (ko) 변이지도 및 깊이지도의 융합을 통한 3차원 장면 모델생성 장치 및 그 방법
CN103959307B (zh) 从灰度图像中检测和描述特征的方法
CN106960454B (zh) 景深避障方法、设备及无人飞行器
CN111862673B (zh) 基于顶视图的停车场车辆自定位及地图构建方法
JP2881193B1 (ja) 3次元物体認識装置および方法
JP6858415B2 (ja) 海面計測システム、海面計測方法および海面計測プログラム
US10872246B2 (en) Vehicle lane detection system
Ruotsalainen et al. Heading change detection for indoor navigation with a smartphone camera
Zhao et al. Reconstruction of textured urban 3D model by fusing ground-based laser range and CCD images
CN208323361U (zh) 一种基于深度视觉的定位装置及机器人
CN109596121A (zh) 一种机动站自动目标检测与空间定位方法
CN114114312A (zh) 一种基于多焦距相机与激光雷达融合的三维目标检测方法
CN108362205A (zh) 基于条纹投影的空间测距方法
David et al. Orientation descriptors for localization in urban environments
JP2007278871A (ja) 動き量計算装置
CN113701750A (zh) 一种井下多传感器的融合定位系统
KR102065337B1 (ko) 비조화비를 이용하여 대상체의 이동 정보를 측정하는 장치 및 방법
JP4752319B2 (ja) 画像認識装置及び画像認識方法
Chenchen et al. A camera calibration method for obstacle distance measurement based on monocular vision
CN102542563A (zh) 一种移动机器人前向单目视觉的建模方法
JP3221384B2 (ja) 三次元座標計測装置
JP2004020398A (ja) 空間情報獲得方法、空間情報獲得装置、空間情報獲得プログラム、及びそれを記録した記録媒体

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19981215

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080205

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090205

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100205

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100205

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110205

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110205

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120205

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120205

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 14

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 14

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 14

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 14

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term