JP2000065948A - 物体検知方法及び装置 - Google Patents

物体検知方法及び装置

Info

Publication number
JP2000065948A
JP2000065948A JP10231710A JP23171098A JP2000065948A JP 2000065948 A JP2000065948 A JP 2000065948A JP 10231710 A JP10231710 A JP 10231710A JP 23171098 A JP23171098 A JP 23171098A JP 2000065948 A JP2000065948 A JP 2000065948A
Authority
JP
Japan
Prior art keywords
image
video
conversion
photographing
object detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10231710A
Other languages
English (en)
Inventor
Akitoshi Tsukamoto
明利 塚本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP10231710A priority Critical patent/JP2000065948A/ja
Publication of JP2000065948A publication Critical patent/JP2000065948A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【課題】 従来のステレオ画像を用いたブロックマッチ
ングによる対応付けを行う方法ではなく、高さ情報に基
づく、経済的で高分解能の物体検知方法及び装置。 【解決手段】 それぞれ異なる位置に設置されたカメラ
10(a),10(b)により得られた映像〔12
(a),12(b)〕に基づき共通の視野領域内に存在
する物体を検知するため、カメラ10(b)からの映像
を、高さ成分を持たずに且つカメラ10(a)の設置位
置に視点変換を行った場合に得られる映像に変換し〔1
3〕、この変換した映像とカメラ10(a)からの映像
とを比較してその相違部分を検出する〔15〕。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、それぞれ異なる位
置に設置された複数の撮影手段により得られた映像に基
づき共通の視野領域内に存在する物体を検知する方法及
び装置に関するものである。
【0002】
【従来の技術】例えば、道路上に存在する落下物や車両
などの道路交通の障害となり得る物体の検知や、踏切内
に取り残された車両や人物の検知などは、交通安全の確
保のため従来から研究がなされていた。そしてこのよう
な交通障害物としての物体を検知するため、従来から画
像センサを用いた物体検知の方式は様々なものが提案さ
れている。なかでも特に高さ情報に基づく物体検知は、
例えば道路面の模様の変化や影などを誤検出しないもの
として有効なものである。
【0003】このような高さ情報に基づく物体検知方法
の公知文献として、例えば“第2回画像センシングシン
ポジウム講演論文集、pp.259−264、199
6、気賀沢他、「ステレオ画像を用いた物体検出技術の
開発」(以下文献〔1〕という)”がある。この文献
〔1〕の物体検知方法では、踏切などを2台のカメラに
より撮影して得たステレオ画像を利用して両画像間の対
応付けを行うことにより3次元情報を獲得する。この対
応付けは基本的に、一方の画像上に設定した16×8画
素のブロック領域を他方の画像上に走査させ、この走査
によって順次設定されるウインドウ領域のうち類似度が
最も高いものを求めることによって行う。このような対
応付けは一般にブロックマッチングと呼ばれる。そして
この対応付けによって得た視差情報には、映像中に写っ
ている物体の3次元的な位置に関する情報が含まれてい
るため、これに基づいて基準となる路面の推定を行い、
さらに物体検出をその路面からの高さなど3次元的な位
置を求めることにより行っている。
【0004】
【発明が解決しようとする課題】しかしながら、3次元
情報の基となる視差情報を得るためには、上記文献
〔1〕のような2つの映像間での対応付けを行う必要が
ある。これは一般に計算量の多い作業であり、高速な処
理を実現するためには、例えば“計測と制御、vol.
36、No.3、pp.190−192、1997、実
吉「ステレオ式画像認識技術」(以下文献〔2〕とい
う)”にあるような対応付けを行う専用のハードウエア
を利用する必要があり、コストアップとなるので経済的
でない。また視差情報はブロック単位に得られ、上記文
献〔1〕では48×30個のブロックについて視差を得
ているので、その密度はそれほど高くない。このため、
画像上での大きさが1〜2ブロック程度と小さい物体は
検出することができない(即ち分解能が悪い)という問
題があった。本発明は上記従来技術の有するこのような
課題に対してなされたものであり、その目的は、上記の
ブロックマッチングのような対応付けをせずに、高さ情
報に基づく物体検知を行うことにある。
【0005】
【課題を解決するための手段】本発明に係る物体検知方
法及び装置は、それぞれ異なる位置に設置された複数の
撮影手段により得られた映像に基づき共通の視野領域内
に存在する物体を検知する方法及び装置において、前記
複数のうちの一つの撮影手段により得られた映像を、高
さ成分を持たずに且つその他のいずれかの撮影手段が設
置されている位置に視点変換を行った場合に得られる映
像に変換する工程及び手段と、前記変換した映像と前記
視点変換を行った位置に設置されている撮影手段により
得られた映像とを比較してその相違部分を検出すること
により物体を検知する工程及び手段とを有するものであ
る。その結果、従来のように2つの画像間のブロックマ
ッチングによる対応づけを行うことなく、高さ情報に基
づく、経済的で高分解能の物体検知が可能となる。
【0006】
【発明の実施の形態】最初に本発明の実施形態における
物体検知方法の概要を説明する。本発明の実施形態1〜
4における物体検知方法は、2つのカメラによって得ら
れた映像を利用する物体検知方法において、一方のカメ
ラによる映像を利用して他方のカメラ位置に視点変換を
行った場合に得られる映像を合成し、この合成映像と他
方のカメラによる実際の映像とを比較して物体検知を行
うことを特徴とするものである。そしてこの映像の合成
をする際に、一方のカメラによる映像はすべての物体が
路面の模様である(即ち高さ成分を持たない)と考え
て、他方のカメラの設置場所から撮影した場合に得られ
る映像の合成を行えば、路面の模様でない物体(高さ成
分をもつもの)に関しては合成映像において歪みが発生
する。従って、この歪み成分を映像比較により検出する
ことにより、高さを用いた物体検知が可能となる。
【0007】実施形態1 図1は本発明の実施形態1に係る物体検知システムの構
成図である。図1のシステム構成における各機器の動作
の概要を説明する。2つのカメラ10(a),10
(b)は、共通の視野領域内に存在する物体を検知でき
るように、それぞれ異なる所定位置において、所定の撮
像方向に向けて設けられる。この異なる位置にそれぞれ
設置されたカメラ10(a),10(b)により得られ
た画像信号は、それぞれ逐次A/D変換装置11
(a),11(b)によりデジタル画像に変換され、フ
レームバッファ12(a),12(b)に格納される。
映像合成装置13は、フレームバッファ12(b)に格
納されたカメラ10(b)の映像を受け取り、このカメ
ラ10(b)の映像を高さ成分を持たないものとし、こ
れをカメラ10(a)が設置されている位置から撮影し
た場合に得られる映像(即ち視点変換を行った場合に得
られる変換映像)を生成する。この際、カメラパラメー
タ記憶装置14に記憶された各カメラのパラメータ(位
置、方向、焦点距離など)を参照して映像を変換する。
映像比較装置15は、映像合成装置13からの変換映像
と、フレームバッファ12(a)に格納された映像とそ
れぞれ受け取って、両映像を比較しその相違部分を検出
することにより物体の検知を行う。
【0008】図2は図1の映像合成装置の構成図であ
り、同図により、図1のシステム構成における映像合成
装置13が行う視点変換映像の生成処理を説明する。な
おこの処理ではコンピュータグラフィクス(以下CGと
書す)の手法を応用している。映像合成装置13は、図
2に示すとおり、CGモデル生成部21と視点変換映像
合成部22から構成されており、CGモデル生成部21
は、カメラパラメータ記憶装置14に記憶されているカ
メラの位置や向きなどのパラメータを参照し、視点変換
映像合成部22での処理において必要なCGモデルの生
成を行う。視点変換映像合成部22が行う視点変換処理
は、カメラ10(b)によって得られた映像はすべて道
路に描かれた模様である(高さ成分を持たない)と仮定
し、CGモデル生成部21から供給される、カメラ10
(a)の設置位置に視点の変換された路面に相当するオ
ブジェクトの3次元グラフィックモデルに対して、フレ
ームバッファ12(b)から供給されるカメラ10
(b)の映像をテクスチャ(texture,画像の濃
淡、階調の分布と変化の模様)としてマッピング処理に
より張り付け(合成して)、この平板モデルをカメラ1
0(a)の視点から眺めた映像として生成することであ
る。
【0009】なおテクスチャマッピング処理の参照文献
としては、例えば“中前,西田,「3次元コンピュータ
グラフィックス」、昭晃堂、1986,pp181〜1
83、(以下文献〔3〕という)”がある。ここでは、
カメラ10(b)の映像を、画像上の模様として、これ
を路面に相当するモデルに張り付けることをテクスチャ
マッピング処理という。そしてテクスチャマッピングさ
れた(映像の張りつけられた)モデルを別の視点から眺
めた映像として生成することが本発明の視点変換処理で
ある。
【0010】図3は道路座標系とカメラ位置・方向の一
例を示す図であり、以降の説明においては、図3に示す
ような座標系(ワールド座標系)を仮定して用いるもの
とする。図3において、カメラ10(a)はワールド座
標系の点A(Xa,Ya,Za)にあってVa(Xv
a,Yva,Zva)の方向を向くものとして、カメラ
10(b)は点B(Xb,Yb,Zb)にあってVb
(Xvb,Yvb,Zvb)の方向を向くものとする。
さらに各カメラの視線周りの回転角はそれぞれθa、θ
bであり、また縦方向の視野角をδa、δb、映像サイ
ズの縦横比(幅/高さ画素数)をそれぞれra、rbと
する。ここで、視線回りの回転角とは、図3に示すよう
に、視線を軸とした映像面の回転に関するものであり、
回転角の基準は、鉛直方向(−Z方向)が映像上で真下
に見られる角度とし、注視点(VaやVb)に向かって
時計回りの方向を正方向とする。そしてこれらのパラメ
ータ(Xa,Ya,Za,Xva,Yva,Zva,θ
a,δa,ra)および(Xb,Yb,Zb,Xvb,
Yvb,Zvb,θb,δb,rb)は計測手段などに
よって事前に求められ、「各カメラ(各撮影手段)の設
置に関するパラメータ」として、図1のカメラパラメー
タ記憶装置14に記憶されているものとする。なおこの
「各カメラの設置に関するパラメータ」は、実際に設置
されたカメラについて計測することにより求めることが
できる。
【0011】図4は図2のCG生成部の処理フローチャ
ートであり、同図により、図2のCGモデル生成部21
での処理内容を説明する。なお図のSに続く数値はステ
ップ番号を示す。図4のS41での処理は、各カメラ1
0(a),10(b)のCGモデルである変換マトリク
スを生成する部分である。例えば“「Graphics
Library Programming Guid
e(日本語版)pp.7−2,7−3,C−1〜C−
5,SiliconGraphics社刊、1991
(以下文献〔4〕という)”により、カメラのCGモデ
ルは、ワールド座標系と画面上の位置との間の変換を行
う4×4の変換マトリクスTaとして表現され、これは
モデル・ビューマトリクスと透視変換マトリクスの積で
与えられる。そしてカメラ10(a)のモデル・ビュー
マトリクスMaは、次式(1),(2)により与えられ
る。
【0012】
【数1】
【0013】ここでφa、ψaはそれぞれ光軸とY軸、
X軸とがなす角であり、次式(3)により与えられる。
【0014】
【数2】
【0015】またカメラ10(a)の透視交換マトリク
スPaは、映像の縦横比(ra)および可視範囲の奥行
きの値(na,fa)をパラメータとして与えたとき、
次式(4)として与えられる。
【0016】
【数3】
【0017】カメラ10(a)の変換マトリクスTa
は、上記モデル・ビューマトリクスMaと透視変換マト
リクスPaを用いて次式(5)により与えられる。 Ta=Ma・Pa (5) なお、これらの行列はカメラ10(b)についても同様
に求められる。このように算出されたカメラ10
(a),10(b)の変換マトリクスTa,Tbは、各
カメラの設置場所や向き、視線回りの回転角、視野角、
カメラ映像の縦横比等の情報を含むので、「撮影手段の
設置および撮影状況に関するパラメータ」という。そし
て道路モデルは、このカメラ変換マトリクスから次のS
42の式(9),(10)によって生成される。
【0018】次に図4のS42の処理において、路面に
相当する3次元グラフィックモデルの作成を行う。一般
に、ワールド座標系での座標が(X,Y,Z)である点
の映像上での位置(x,y)は、次式(6)〜(8)の
ように算出できる。
【0019】
【数4】
【0020】ここで(x′,y′,z′,w′)、
(x″,y″,z″)はそれぞれクリッピング座標系、
正規座標系と呼ばれるものであり、W、Hはそれぞれ画
面の幅及び高さ方向の画素数である。式(8)より点が
画面上に写る条件は−1≦x″≦1かつ−1≦y″≦1
である。すなわち、画面の四隅の点は正規座標で
(x″,y″)=(−1,−1)、(−1,1)、
(1,1)、(1,−1)の座標値を持つ。
【0021】ここではカメラ10(b)の変換マトリク
スTbを用いて、画面の四隅に対応する4点の正規座標
系での座標値を求める。すなわち上記4点のz″の値を
算出する。このz″の値を求めるにあたり、路面はワー
ルド座標系でZ=0で与えられる平面であると仮定す
る。このとき、正規座標(x″,y″)に写される点の
z″の値は次式(9)で算出される。 z″=−(xb02+yb12+b32)/b22 (9) ここでbijはそれぞれカメラ10(b)の変換マトリク
スTbの逆行列(次式(10)に示す)の第i行第j列
要素である。
【0022】
【数5】
【0023】上式(10)より、画面上に写っている路
面範囲に相当する3次元グラフィックモデルの座標値を
算出することが出来る。
【0024】次に図4のS43の処理において、視点変
換用のカメラモデルである変換マトリクスTcを生成す
る。これはS41の処理において生成した各カメラの変
換マトリクスを用いて次式(11)により求められる。 Tc=Tb-1・Ta=Tb-1・Ma・Pa (11) 図2のCGモデル生成部21は以上の処理を行い、視点
変換に必要な各種CGパラメータの生成を行い、得られ
たパラメータを視点変換映像合成部22へ渡す。視点変
換映像合成部22では、CGモデル生成部21で視点変
換されて生成された路面モデルへカメラ10(b)から
の映像信号をテクスチャマッピングにより張り付け(合
成して)、これを視点変換用カメラで眺めた映像(変換
映像)として出力する。
【0025】次に、図1の映像比較装置15で行う処理
の内容について説明する。同装置15はカメラ10
(a)の映像と映像合成装置13から出力される変換映
像とを受け取り、両映像を比較をした結果の映像を出力
する。カメラ10(a)からの映像および変換映像にお
いて、位置(i,j)の画素の輝度をそれぞれIa
(i,j)、Ic(i,j)とする。このとき、映像比
較装置15から出力される映像の位置(i,j)の画素
の輝度Id(i,j)は次式(12)の通りである。
【0026】
【数6】
【0027】ここではtiは輝度差に対する事前に設定
した閾値である。変換映像は、カメラ10(b)に写っ
ているものがすべて路面上の模様であると仮定した場合
に、これをカメラ10(a)で撮影した場合に得られる
映像を合成(生成)したものであるため、路面上の模様
でない物体の像は歪みを含む。このため、カメラ10
(a)からの映像のうち高さ成分を持つ物体の部分につ
いては変換映像とは異なるものとなる。映像比較装置1
5はこの映像の比較を行って異なる部位を抽出するた
め、カメラ10(a)の映像のうち物体の部分だけが抜
き出されたものとなる。これにより道路上の高さ成分を
持つ物体の存在が検知できる。
【0028】図5は本発明の実施形態1による物体検出
処理結果を示す図である。図5の(a)、(b)は、そ
れぞれカメラ10(a)、10(b)による映像の例で
あり、これらは道路上に直方体を置いて撮影したもので
ある。このカメラ10(a)、10(b)のパラメータ
は既知であり、事前にカメラパラメータ記憶装置13に
記憶されているものとする。図5の(c)は、同図の
(b)の映像に対してカメラ10(a)から見た映像へ
の変換処理を行ったものであり、路面上の線は同図
(a)のものと同一位置に変換されているが、直方体が
右方向に歪んでいることがわかる。図5の(d)は、映
像比較処理を行った結果であり、斜線の部分の映像が比
較結果として抽出された物体の部分である。前記式(1
2)より、得られる映像は斜線の部分を除いてすべて0
となり、斜線部のみ同図の(a)の映像が映されたもの
となる。これにより、カメラ10(a)の映像のうち高
さ成分を含む領域を検出することができ、物体検知を行
うことができる。
【0029】なおカメラの変換マトリクスは前記(X
a,Ya,Za,Xva,Yva,Zva,θa,δ
a,ra)以外のパラメータによっても生成可能であ
り、また例えば“信学技報IE96−13,1996−
10,Y.Nakazawa et.al.,「Cue
−Based Camera Calibration
with Its Practical Appli
cation to Digital Image P
roduction」pp.1〜6(以下文献〔5〕と
いう)”の方法を用いることにより、各カメラの向きを
事前に計測することなくモデル・ビューマトリクスM
a、Mbおよび焦点距離fa、fbを直接得ることもで
きる。この方法を利用する場合、δa、δbは各カメラ
の撮像素子の高さおよび幅をそれぞれhaおよびwa、
hbおよびwbとすると、次式(13)で与えられ、 θa=2tan-1(ha/2fa)、θb=2tan-1(hb/2fb) (13) またra=wa/ha、rb=wb/hbより透視変換
マトリクスも与えられる。
【0030】以上説明したように、本発明の実施形態1
によれば、従来技術のように左右画像間の対応付けを行
うことなく高さ情報に基づく、経済的で高分解能の物体
検知を行うことができる効果がある。
【0031】実施形態2 図6は本発明の実施形態2に係る物体検知システムの構
成図である。図6は、図1のフレームバッファ12
(a)と映像比較装置15の間にエッジ抽出装置66
(a)が挿入され、またフレームバッファ12(b)と
映像合成装置13の間にエッジ抽出装置66(b)がそ
れぞれ挿入されていることを除き、実施形態1のものと
同じである。本実施形態2では、フレームバッファに納
められた各カメラの映像に基づきエッジ抽出処理を行
い、得られたエッジを含む映像(エッジ映像)に対して
実施形態1の場合と同様に映像合成処理及び映像比較処
理を行って物体検出を行う。この方法は映像比較時に輝
度そのものを用いず輝度変化の情報を利用することで、
例えば絞りやホワイトバランスなど各カメラの設定が異
なることで生じる輝度値の違いを吸収し、安定した結果
を得るものである。
【0032】エッジ抽出処理においては、例えば“尾上
「画像処理ハンドブック」1987、昭晃堂、pp.2
80−281(以下文献〔6〕という)”に記載のSo
belフィルタを利用することができる。エッジ映像と
は、このフィルタ処理により得られるエッジ強度を各画
素の輝度として与えた映像である。図6において、カメ
ラ10(a)、10(b)により得られた画像信号は、
それぞれ逐次A/D変換装置11(a)、11(b)に
よりデジタル画像に変換され、フレームバッファ12
(a)、12(b)に格納される。エッジ抽出装置66
(a),66(b)は、フレームバッファ12(a)、
12(b)に格納されたカメラ10(a)、10(b)
の映像からそれぞれエッジを検出し、そのエッジ映像を
それぞれEa、Ebと表す。映像合成処理は、カメラ1
0(b)からのエッジ映像Ebに対して行われ、その結
果得られる変換映像Ecは、Eaと共に映像比較装置1
5に入力される。
【0033】映像比較装置15は、カメラ10(a)か
らの映像Eaおよび映像合成装置13からの変換映像E
cを受け取り、Eaにおいて閾値te以上の値を示す画
素について、Ecの同位置での画素値を調べ、これが閾
値te未満であるもののみを出力する。すなわち、映像
比較装置15から出力される映像Edは次式(14)に
示すものである。
【0034】
【数7】
【0035】本実施形態2においても、実施形態1と同
様に、変換映像Ecは映像Ebに写っているエッジ情報
がすべて路面上のものであると仮定して視点変換処理を
行ったものであるため、路面上のものでない物体による
エッジの像は歪みを持つ。このため、Ecにおいて高さ
成分を持つエッジ成分は、Eaとは異なる位置に変換さ
れる。映像比較装置15はこのようなエッジ成分のみを
検出するものであるため、これにより道路上の高さを持
つ物体の存在が検知できる。
【0036】図7に本発明の実施形態2による物体検出
処理結果を示す図である。図7の(a)、(b)は、そ
れぞれカメラ10(a)、10(b)によって撮影され
た映像の例であり、カメラ間での設定の違いにより路面
部分の明るさが異なっている。これらの映像に対しエッ
ジ抽出を行って得られたエッジ画像が同図の(c)、
(d)である。図7の(e)は、同図の(d)のエッジ
画像に対し視点変換処理を行ったものであり、路面上の
直方体が右方向に歪んでいる。また図7の(c),
(d)以降の各図は、エッジ抽出処理により路面部分の
明るさの影響がなくなっていることがわかる。図7の
(f)は、映像比較の結果出力される映像であり、点線
部分は同図の(c)と(e)に共通のエッジであるため
削除された結果、高さ成分を持つエッジ部分のみが残さ
れている。
【0037】以上説明したように、本発明の実施形態2
によれば、実施形態1で述べた効果のほかに、カメラ間
の設定の違いや照明条件の違いなどによって画面上の明
るさが異なった場合でも、その影響を受けることなく物
体検知を行うことができる効果がある。
【0038】実施形態3 図8は本発明の実施形態3に係る物体検知システムの構
成図である。図8は、図6の映像合成装置13と映像比
較装置15との間に膨張処理装置87が挿入されている
ことを除き、実施形態2のものと同じである。本実施形
態3では、映像合成装置13内の視点変換処理によって
得られた変換映像中のエッジ成分を周辺に膨張させ、こ
れを映像比較装置15へ入力することにより物体検出を
行う。これは視点変換処理をエッジ映像に対して行うこ
とによりエッジ成分の太さに違いが生じるため、これを
救済するために行うものである。
【0039】この膨張処理においては、小さなウインド
ウ領域を考え、これを変換映像上に平行移動させながら
その中心画素の輝度値をウインドウ領域内の画素の最大
輝度値に変換することで行う。すなわち膨張処理によっ
て得られる映像をEc′とすると、Ec′は次式(1
5)となる。
【0040】
【数8】
【0041】ここでWはウインドウ領域であり、左右に
カメラを配置した場合には横長の矩形領域(幅3画素程
度、高さ1画素程度)とするのが適当である。この結
果、変換映像中のエッジ部分(Ec(i,j)≧teで
ある画素位置)に掛かるウインドウが覆うすべての画素
の輝度値が閾値te以上となり、エッジ部分が膨張され
ることになる。図9は本発明の実施形態3による物体検
出処理結果を示す図である。本実施形態3では、エッジ
抽出処理まで実施形態2と同じであるため、その結果は
図7の(c)、(d)と同じである。図9の(a)は、
図7の(d)の映像に対し膨張処理を行ったものであ
り、横方向にエッジ部が伸ばされている。図9の(b)
は、映像比較の結果出力される映像であるが、カメラ1
0(a)からのエッジ映像については膨張処理は行わな
いため、図7の(f)と同じ結果が得られている。
【0042】以上説明したように、本発明の実施形態3
によれば、実施形態1、2で述べた効果のほかに、視点
変換処理の結果生じるエッジ部分の太さの違いを吸収
し、確度の高い物体検知を行うことができる効果があ
る。
【0043】実施形態4 図10は本発明の実施形態4に係る物体検知システムの
構成図である。図10は、図1の映像合成装置13及び
カメラパラメータ記憶装置14の代わりに映像変換装置
103及び変換テーブル記憶装置104が用いられてい
ることを除き図1と同じ構成である。本実施形態4で
は、前記実施形態1〜3のようにテクスチャマッピング
などコンピュータグラフィクスの技術により視点変換映
像の合成を行うのではなく、事前に視点変換のための座
標変換テーブルを算出して記憶しておき、この変換テー
ブルの内容に従って映像の変換を行うものである。この
ため映像合成時に行われるジオメトリ演算などの処理は
不必要となり、視点変換処理を高速に行うことができ
る。
【0044】まず本実施形態4における変換テーブル記
憶装置104を用いる対応付けと、従来技術におけるブ
ロックマッチングとの相違について説明する。従来技術
におけるブロックマッチングとは、入力映像間で類似す
るパターンを探索するもので、入力画像について逐次行
われる。このため物体検知のための計算量は非常に多く
なる。これに対し本実施形態4で行われる画素位置間の
対応付けは、物体検知処理を始める前に準備として行わ
れるもので、物体検知処理開始後は行わない。従って高
速に対応付けを行うことができる。
【0045】座標変換テーブルの生成にあたり、まず画
面上の各点に対応する路面のワールド座標系における座
標値を算出する。ここでは実施形態1の場合と同様に、
路面はワールド座標系でZ=0で与えられる平面である
と仮定し、各カメラの変換マトリクスを利用する。カメ
ラ10(a)の変換マトリクスTaの逆行列をAとし、
その第i行第j列の要素をaijと表す。このとき式
(8)および(9)より、カメラ10(a)の画面上の
点(xa,ya)に写っている路面の点の正規座標系の
値は次式(16)で算出できる。
【0046】
【数9】
【0047】このとき、この点のクリッピング座標系の
値は次式(17)で求められる。
【0048】
【数10】
【0049】そしてこの点のワールド座標系での位置
(X,Y)は次式(18)で与えられる。
【0050】
【数11】
【0051】この点はZ=0の路面上にあることから、
これをカメラ10(b)で眺めたときの画面上の位置は
式(6)〜(8)に従って算出できる。上記の演算によ
って得られたカメラ10(b)の画面上の点を(xb,
yb)とすると、これはカメラ10(a)の画面上の点
(xa,ya)に写されている路面のカメラ10(b)
の画像上での位置となる。従ってこの値(xb,yb)
を座標変換テーブルの(xa,ya)に対応する位置に
記録する。このようにして事前にカメラ10(a)の映
像のすべての画素位置(xa,ya)について(xb,
yb)を求めておき、これを変換テーブル記憶装置10
4に記憶しておく。
【0052】映像変換装置103の動作は、この変換テ
ーブル記憶装置104に記憶された画素位置間の対応情
報に基づき、次式(19)による映像の変換を行う。 Ic(xa,ya)=Ib(xb,yb) (19) 但し一般にxb,ybは整数ではないため、前記文献
〔6〕にある濃度補間(最近傍法、双線形補間法、3次
補間法)などによりIb(xb,yb)の値(濃淡の
値)を求めて利用する。なお、図10では、変換映像I
cをカメラ10(a)の映像Iaと比較して物体検出を
行う例を示しているが、これは本発明の実施形態2、実
施形態3の場合と同様、エッジ抽出処理や膨張処理と組
合せて物体検出を行っても良い。
【0053】以上説明したように、本発明の実施形態4
によれば、テクスチャマッピングなどのコンピュータグ
ラフィクス手法を用いずに、高速に物体検知を行うこと
ができる。
【0054】実施形態5 前記各実施形態においては、2台のカメラによって得ら
れた映像を利用する例を示したが、本実施形態では、3
台以上のカメラを利用した場合のシステム構成とその特
徴について説明する。前記各実施形態では、2台のカメ
ラを用い、一方のカメラ映像を視点変換して他方のカメ
ラ映像に重ね合わせることを特徴としているが、一方の
カメラの前方に別の物体がある場合、その別の物体によ
り隠れる領域については本手法を適用することはできな
い。従ってこのような領域は物体検知の出来ない不感領
域となる。この不感領域を異なる位置に設置された別の
カメラで撮影し、視点変換に利用することで、不感領域
のない物体検知が可能となる。
【0055】図11は本発明の実施形態5に係る3画像
以上を利用した場合の処理系統図である。図11におい
ては、まずカメラBの画像200BとカメラCの画像2
00Cは、それぞれ視点変換して、カメラAの視点から
見た視点変換映像201Aと視点変換映像201Bに変
換する。次に映像比較装置15は、視点変換映像201
A,201BをそれぞれカメラAの画像200Aと比較
し(前記式(12)による映像生成処理を行い)、この
比較結果として、比較映像202A,202Bを得る。
次にこの比較映像202A,202Bを統合して統合映
像203を得る。この統合処理としては、例えば各比較
映像で同位置にある画素の値のうち最小値を各画素の値
とする統合映像を生成する。そしてこの統合映像により
物体の存在を判別する。
【0056】以上説明したように本発明の実施形態5に
よれば、3台以上のカメラを利用したシステム構成によ
り不感領域のない物体検知が可能となる。
【0057】以上説明したように、本発明の実施形態1
〜5によれば、従来のブロックマッチングのような対応
付けを行わずに、高さ情報に基づく物体検知を行うこと
ができる。このような物体検知方法を用いた装置は、例
えば道路を監視して落下物など交通障害となる物体の自
動検知や、あるいは車両に塔載して自車前方の障害物検
知などに利用することができる。さらに、例えば移動ロ
ボットのための障害物検知や自動クレーンのための物体
検知などにも利用することが可能である。
【0058】
【発明の効果】以上のように本発明によれば、それぞれ
異なる位置に設置された複数の撮影手段により得られた
映像に基づき共通の視野領域内に存在する物体を検知す
る方法及び装置において、前記複数のうちの一つの撮影
手段により得られた映像を、高さ成分を持たずに且つそ
の他のいずれかの撮影手段が設置されている位置に視点
変換を行った場合に得られる映像に変換する工程及び手
段と、前記変換した映像と前記視点変換を行った位置に
設置されている撮影手段により得られた映像とを比較し
てその相違部分を検出することにより物体を検知する工
程及び手段とを有するようにしたもので、従来のように
2つの画像間のブロックマッチングによる対応づけを行
うことなく、高さ情報に基づく経済的で高分解能の物体
を検知が可能となる。
【図面の簡単な説明】
【図1】本発明の実施形態1に係る物体検知システムの
構成図である。
【図2】図1の映像合成装置の構成図である。
【図3】道路座標系とカメラ位置・方向の一例を示す図
である。
【図4】図2のCGモデル生成部の処理フローチャート
である。
【図5】本実施形態1による物体検出処理結果を示す図
である。
【図6】本発明の実施形態2に係る物体検知システムの
構成図である。
【図7】本実施形態2による物体検出処理結果を示す図
である。
【図8】本発明の実施形態3に係る物体検知システムの
構成図である。
【図9】本実施形態3による物体検出処理結果を示す図
である。
【図10】本発明の実施形態4に係る物体検知システム
の構成図である。
【図11】本発明の実施形態5に係る3画像以上を利用
した場合の処理系統図である。
【符号の説明】
10(a),10(b) カメラ 11(a),11(b) A/D変換装置 12(a),12(b) フレームバッファ 13 映像合成装置 14 カメラパラメータ記憶装置 15 映像比較装置 21 CGモデル生成部 22 視点変換映像合成部 66(a),66(b) エッジ抽出装置 87 膨張処理装置 103 映像変換装置 104 変換テーブル記憶装置 200A,200B,200C カメラA,B,C,
の画像 201A,201B 視点変換映像 202A,202B 比較映像 203 統合映像

Claims (16)

    【特許請求の範囲】
  1. 【請求項1】 それぞれ異なる位置に設置された複数の
    撮影手段により得られた映像に基づき共通の視野領域内
    に存在する物体を検知する方法において、 前記複数のうちの一つの撮影手段により得られた映像
    を、高さ成分を持たずに且つその他のいずれかの撮影手
    段が設置されている位置に視点変換を行った場合に得ら
    れる映像に変換し、 前記変換した映像と前記視点変換を行った位置に設置さ
    れている撮影手段により得られた映像とを比較してその
    相違部分を検出することにより物体を検知することを特
    徴とする物体検知方法。
  2. 【請求項2】 前記存在を検知する物体は道路又は線路
    あるいは床面上に存在する物体とし、 前記映像の変換において、前記道路又は線路あるいは床
    面に相当するグラフィックモデルに対して前記複数のう
    ちの一つの撮影手段により得られた映像をテクスチャと
    してマッピング処理することを特徴とする請求項1記載
    の物体検知方法。
  3. 【請求項3】 前記道路又は線路あるいは床面に相当す
    るグラフィックモデルを、前記複数の各撮影手段の設置
    及び撮影状況に関するパラメータから生成して用いるこ
    とを特徴とする請求項2記載の物体検知方法。
  4. 【請求項4】 前記映像の変換において、前記複数の各
    撮影手段の設置に関するパラメータから変換マトリック
    スを生成してこれを用いることを特徴とする請求項2又
    は3記載の物体検知方法。
  5. 【請求項5】 前記複数の各撮影手段により得られた映
    像に対してそれぞれエッジ抽出処理を行い、この抽出処
    理後の複数のうちの一つのエッジ映像に対して前記映像
    の変換を行い、この変換された映像と、前記複数のうち
    の前記視点変換を行った位置に設置されている撮影手段
    により得られた映像よりエッジ抽出処理されたエッジ映
    像とを比較してその相違部分を検出することを特徴とす
    る請求項1から4までのいずれかの請求項に記載の物体
    検知方法。
  6. 【請求項6】 前記複数の各撮影手段により得られた映
    像に対してそれぞれエッジ抽出処理を行い、この抽出処
    理後の複数のうちの一つのエッジ映像に対して前記映像
    の変換を行い、この変換された映像に対して膨張処理を
    施し、この膨張処理後の映像と、前記複数のうちの前記
    視点変換を行った位置に設置されている撮影手段により
    得られた映像よりエッジ抽出処理されたエッジ映像とを
    比較してその相違部分を検出することを特徴とする請求
    項1から4までのいずれかの請求項に記載の物体検知方
    法。
  7. 【請求項7】 前記映像の変換において、予め変換前後
    の映像の各画素位置間の対応づけを行い、その対応情報
    を記憶しておき、映像の変換時には前記記憶している各
    画素位置間の対応情報を用いて映像を変換することを特
    徴とする請求項1、5又は6記載の物体検知方法。
  8. 【請求項8】 前記変換前後の映像の各画素位置間の対
    応づけは、前記複数の各撮影手段の設置及び撮影状況に
    関するパラメータを用いて算出することを特徴とする請
    求項7記載の物体検知方法。
  9. 【請求項9】 それぞれ異なる位置に設置された複数の
    撮影手段により得られた映像に基づき共通の視野領域内
    に存在する物体を検知する装置において、 前記複数のうちの一つの撮影手段により得られた映像
    を、高さ成分を持たずに且つその他のいずれかの撮影手
    段が設置されている位置に視点変換を行った場合に得ら
    れる映像に変換する映像変換手段と、 前記映像変換手段により変換された映像と前記視点変換
    を行った位置に設置されている撮影手段により得られた
    映像とを比較してその相違部分を検出することにより物
    体の存在を検知する比較検出手段とを備えたことを特徴
    とする物体検知装置。
  10. 【請求項10】 前記存在を検知する物体は道路又は線
    路あるいは床面上に存在する物体とし、 前記映像変換手段は、前記道路又は線路のあるいは床面
    に相当するグラフィックモデルに対して前記複数のうち
    の一つの撮影手段により得られた映像をテクスチャとし
    てマッピング処理する手段を有することを特徴とする請
    求項9記載の物体検知装置。
  11. 【請求項11】 前記映像変換手段は、前記道路又は線
    路あるいは床面に相当するグラフィックモデルを、前記
    複数の各撮影手段の設置及び撮影状況に関するパラメー
    タから生成して用いる手段を有することを特徴とする請
    求項10記載の物体検知装置。
  12. 【請求項12】 前記映像変換手段は、前記複数の各撮
    影手段の設置に関するパラメータから変換マトリックス
    を生成してこれを用いる手段を有することを特徴とする
    請求項10又は11記載の物体検知装置。
  13. 【請求項13】 前記複数の各撮影手段により得られた
    映像に対してそれぞれエッジ抽出処理を行い、この抽出
    処理後の複数のうちの一つのエッジ映像を前記映像変換
    手段に供給すると共に、前記複数のうちの前記視点変換
    を行った位置に設置されている撮影手段により得られた
    映像よりエッジ抽出処理されたエッジ映像を前記比較検
    出手段に供給するエッジ抽出手段を追加して備えたこと
    を特徴とする請求項9から12までのいずれかの請求項
    に記載の物体検知装置。
  14. 【請求項14】 前記エッジ抽出手段が供給したエッジ
    映像に対して前記映像変換手段が変換した映像を入力
    し、この入力映像に対して膨張処理を施し、この膨張処
    理後の映像を前記比較検出手段に供給する膨張処理手段
    を追加して備えたことを特徴とする請求項13記載の物
    体検知装置。
  15. 【請求項15】 予め変換前後の映像の各画素位置間の
    対応づけを行い、その対応情報を記憶する記憶手段を追
    加して備え、前記映像変換手段は、映像の変換時に前記
    記憶手段に記憶された各画素位置間の対応情報を用いて
    映像を変換する手段を有することを特徴とする請求項
    9、13又は14記載の物体検知装置。
  16. 【請求項16】 前記記憶手段は、前記複数の各撮影手
    段の設置及び撮影状況に関するパラメータを用いて前記
    変換前後の映像の各画素位置間の対応づけが算出された
    対応情報を記憶するものであることを特徴とする請求項
    15記載の物体検知装置。
JP10231710A 1998-08-18 1998-08-18 物体検知方法及び装置 Pending JP2000065948A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10231710A JP2000065948A (ja) 1998-08-18 1998-08-18 物体検知方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10231710A JP2000065948A (ja) 1998-08-18 1998-08-18 物体検知方法及び装置

Publications (1)

Publication Number Publication Date
JP2000065948A true JP2000065948A (ja) 2000-03-03

Family

ID=16927806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10231710A Pending JP2000065948A (ja) 1998-08-18 1998-08-18 物体検知方法及び装置

Country Status (1)

Country Link
JP (1) JP2000065948A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112215048A (zh) * 2019-07-12 2021-01-12 中国移动通信有限公司研究院 一种3d目标检测方法、装置和计算机可读存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112215048A (zh) * 2019-07-12 2021-01-12 中国移动通信有限公司研究院 一种3d目标检测方法、装置和计算机可读存储介质
CN112215048B (zh) * 2019-07-12 2024-03-22 中国移动通信有限公司研究院 一种3d目标检测方法、装置和计算机可读存储介质

Similar Documents

Publication Publication Date Title
US10665025B2 (en) Method and apparatus for representing a virtual object in a real environment
JP4198054B2 (ja) 3dビデオ会議システム
JP4861574B2 (ja) 運転支援装置
WO2015127847A1 (zh) 一种深度图的超分辨率处理方法
JP2998791B2 (ja) 三次元構造推定装置
US7742657B2 (en) Method for synthesizing intermediate image using mesh based on multi-view square camera structure and device using the same and computer-readable medium having thereon program performing function embodying the same
JP4243767B2 (ja) 魚眼レンズカメラ装置及びその画像抽出方法
JP4828506B2 (ja) 仮想視点画像生成装置、プログラムおよび記録媒体
Zhu et al. Parallel-perspective stereo mosaics
JP2008061260A (ja) 魚眼レンズカメラ装置及びその画像歪み補正方法
CN110022459A (zh) 用于车辆的全景监控系统和全景监控校准方法
WO2018038257A1 (ja) 物体検出方法及びその装置
JP5101429B2 (ja) 画像監視装置
JP6403862B1 (ja) 3次元モデルの生成装置、生成方法及びプログラム
JPH10269362A (ja) 物体認識方法およびその装置
JP3577875B2 (ja) 移動物体抽出装置
US11043019B2 (en) Method of displaying a wide-format augmented reality object
JP2003346189A (ja) 車両用映像表示装置
JP2003233899A (ja) 路肩検出装置及び方法
JP2000065948A (ja) 物体検知方法及び装置
US20230005213A1 (en) Imaging apparatus, imaging method, and program
JP2946727B2 (ja) 車両用障害物検出装置
JP2021111302A (ja) カメラモジュールに基づいて自動的に地面を推定する方法
JPH0630336A (ja) 画像入力装置と画像合成方法
JP2019211944A (ja) 画像処理装置および画像処理方法