JP3103478B2 - 複眼撮像装置 - Google Patents
複眼撮像装置Info
- Publication number
- JP3103478B2 JP3103478B2 JP12113394A JP12113394A JP3103478B2 JP 3103478 B2 JP3103478 B2 JP 3103478B2 JP 12113394 A JP12113394 A JP 12113394A JP 12113394 A JP12113394 A JP 12113394A JP 3103478 B2 JP3103478 B2 JP 3103478B2
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- image
- extracted
- stereoscopic parallax
- parallax
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Description
像触れ補正装置に必要な動きベクトル検出手段を備えた
複眼撮像装置に関する。
れた被写体の移動量を求める動きベクトル検出方法は、
画像の符号化装置や画像触れ補正装置等に必要不可欠な
ものである。そのベクトル検出方法としては、米国特許
第3890462号明細書や特公昭60−46878号
公報に記載された時空間高勾配法、相関演算に基づく相
関法やブロックマッチング法(テンプレートマッチング
法)等が知られている。これらの手法のうち時空間高勾
配法については、B.K.P. Horn 氏らによって、Artifici
al Intelligence 17,p.185〜203(1981) で詳しく論じら
れており、また、ブロックマッチング法については、尾
上守夫氏らによって、情報処理 Vol.17,No.7,p.634〜64
0 July 1976 で詳しく論じられている。以下、これらの
動きベクトル検出方法について簡単に説明する。
刻tにおける画像上の点(x,y)の輝度をd(x,
y,t)、微小時間δt経過後のその点の位置を(x+
δx,y+δy)とすると、d(x,y,t)は、 d(x,y,t)=d(x+δx,y+δy,t+δ
t) で表される。
をテーラー展開すると
の画素の移動量に相当する。
えば、横方向の動きしかない場合)には、
例えば、上記特公昭60−46878号公報に記載され
ているように、画像の任意位置に対応する画像信号レベ
ルの勾配eを求め、さらにその任意位置に対応する画像
信号レベルの一定時間における変化dを求めることによ
って、d/eの値から一定時間における上記任意位置の
画像の移動量を求めるものがある。
する。ブロックマッチング法は、移動ベクトル抽出の対
象となる時系列に撮像された2つのフレームのうち、一
方のフレームを適当な大きさの複数のブロック(例え
ば、8画素×8ライン)に分割し、その分割されたブロ
ック毎に、各ブロックの画素と他方のフレーム(あるい
はフィールド)における一定範囲の画素とのずれを計算
し、このずれ量の絶対値の和が最小となる他方のフレー
ム(あるいはフィールド)におけるブロックの位置を探
査する方法である。すなわち、このブロックマッチング
法では、各フレームにおける各ブロックの相対的なずれ
がそのブロックの動きベクトルを表すものとなる。
クトル検出方法のいずれかが用いられて、各カメラ毎に
所定の時刻におけるフレーム間の画像の動きベクトルが
検出される。すなわち、カメラによって時系列に入力さ
れた画像信号から、所定の時刻間におけるフレーム間で
対応点が求められ、その対応点における画像の動きベク
トルが各カメラ毎に抽出される。なお、上述の各動きベ
クトル検出方法は、いずれのものも画像の動きを検出す
る画像間での対応点の存在が前提とされている。
装置では、各カメラ毎に所定のフレーム間の画像の動き
ベクトルが検出される。そのため、一方のカメラでしか
見えない部分や一方のカメラで撮像された画像信号に雑
音が混入して画像が乱れたりした場合については、正し
い動きベクトルを検出することができない。このような
検出方法に基づいて画像の符号化や画像触れ補正を行な
う従来の撮像装置には、信頼性に乏しいという問題点が
ある。
画像から、各カメラ毎に自己相関的に動きベクトルを抽
出するとともに、各画像に関して相互関係的に動きベク
トルを抽出して、それぞれ抽出した動きベクトルから最
終的な動きベクトルを決定する、装置の信頼性の向上を
図った複眼撮像装置を提供することにある。
は、所定の輻輳角に設定され、所望の被写体を撮像する
複数の撮像手段と、前記各撮像手段毎に設けられ、前記
撮像手段によって時系列的に得られる画像から所定のフ
レーム間における前記被写体の動きベクトルをそれぞれ
抽出する複数の動きベクトル抽出手段と、前記各撮像手
段によって得られる各画像から、前記所定のフレーム間
における前記被写体の立体視差を抽出する立体視差抽出
手段と、前記立体視差抽出手段によって時系列的に抽出
された立体視差から、前記所定のフレーム間における前
記被写体の立体視差動きベクトルを抽出する立体視差動
きベクトル抽出手段と、前記各動きベクトル抽出手段に
よって抽出されたそれぞれの動きベクトルおよび前記立
体視差動きベクトル抽出手段によって抽出された立体視
差動きベクトルに基づいて、前記所定のフレーム間にお
ける前記被写体の最終的な動きベクトルを決定する動き
ベクトル決定手段とを有することを特徴とする。
によって抽出された動きベクトルを第1の動きベクトル
とし、前記立体視差動きベクトル抽出手段によって抽出
された立体視差動きベクトルを、前記所定の輻輳角に基
づいて、前記各第1の動きベクトルに対応する第2の動
きベクトルに変換する変換手段をさらに有し、前記動き
ベクトル決定手段が、前記各動きベクトル抽出手段によ
って抽出された第1の動きベクトルおよび前記変換手段
によって変換された第2の動きベクトルに基づいて、前
記所定のフレーム間における前記被写体の最終的な動き
ベクトルを決定するように構成されてもよい。この場
合、前記動きベクトル決定手段は、前記各動きベクトル
抽出手段毎に設けられ、前記動きベクトル抽出手段によ
ってそれぞれ抽出された第1の動きベクトルと前記変換
手段によって変換された第2の動きベクトルが一致する
かを検討する比較検討手段と、前記各比較検討手段によ
って検討された結果に基づいて前記第1の動きベクトル
と前記第2の動きベクトルを統合する統合手段とで構成
され、前記統合手段は、前記各第1の動きベクトルと前
記第2の動きベクトルがそれぞれ一致する場合には、前
記第1および第2の動きベクトルの平均値、あるいは加
重平均を取り、前記各第1の動きベクトルのいずれか1
つと前記第2の動きベクトルが一致する場合には、該一
致した第1の動きベクトルと前記第2の動きベクトルに
ついて平均値、あるいは加重平均を取り、前記第2の動
きベクトルが前記各第1の動きベクトルのいずれとも一
致しない場合においては、前記第1の動きベクトルのい
ずれかを採用するように構成されてもよい。また、前記
立体視差動きベクトル抽出手段によって抽出された立体
視差動きベクトルを第2の動きベクトルとし、前記各動
きベクトル抽出手段によって抽出された動きベクトルを
前記第2の動きベクトルに対応する第1の動きベクトル
に変換する変換手段をさらに有し、前記動きベクトル決
定手段が、前記変換手段によって変換された第1の動き
ベクトルおよび前記立体視差動きベクトル抽出手段によ
って抽出された第2の動きベクトルに基づいて、前記所
定のフレーム間における前記被写体の最終的な動きベク
トルを決定するように構成されてもよい。さらに、前記
動きベクトル決定手段は、前記各動きベクトル抽出手段
毎に設け られ、前記第1の動きベクトルと前記第2の動
きベクトルが一致するかを検討する比較検討手段と、前
記各比較検討手段によって検討された結果に基づいて前
記第1の動きベクトルと前記第2の動きベクトルを統合
する統合手段とを有してもよい。
抽出手段、前記立体視差抽出手段および前記立体視差動
きベクトル抽出手段における前記動きベクトル、前記立
体視差および前記立体視差動きベクトルの抽出は、前記
撮像手段から時系列的に得られる画像、あるいは、前記
各撮像手段から得られる各画像から共通する領域を抽出
し、該抽出した共通する領域の相対的なずれ量を求める
ことによって行なわれてもよい。
の動きベクトルが求められていた。これに対し、上述の
如く構成される本発明の複眼撮像装置では、各撮像手段
毎に第1の動きベクトルをそれぞれ求め、さらに、各撮
像手段から得られる画像の立体視差から立体視差動きベ
クトルを求めて、その求めた立体視差動きベクトルを各
撮像手段の輻輳角に基づいて上記各第1の動きベクトル
に対応する第2の動きベクトルにそれぞれ変換し、その
第1および第2の動きベクトルから最終的な動きベクト
ルが求められるので、一方のカメラでしか見えない部分
や一方のカメラで撮像された画像信号に雑音が混入して
画像が乱れたりした場合においても、他方のカメラから
得られる第1の動きベクトルと立体視差から得られる第
2の動きベクトルから正しい動きベクトルを検出するこ
とができる。
クトル抽出手段、立体視差抽出手段および立体視差動き
ベクトル抽出手段における動きベクトル、立体視差およ
び立体視差動きベクトルの抽出は、撮像手段から時系列
的に得られる画像、あるいは各撮像手段から得られる各
画像からその共通する領域を抽出し、該抽出した共通す
る領域の相対的なずれ量を求めることによって行なわれ
る。
て説明する。
装置の動きベクトルを検出する部分の概略構成を示すブ
ロック図である。
1およびカメラ(R)2の2台のカメラから時系列に得
られる2枚の画像から、対象とする被写体の動きベクト
ルを抽出する動きベクトル検出手段が備えられたもので
ある。この複眼撮像装置では、カメラ(L)1から得ら
れる第1の画像動きベクトル、カメラ(R)2から得ら
れる第2の画像動きベクトル、および左右のカメラの立
体視差から得られる第3の画像動きベクトルのそれぞれ
から対象とする被写体の動きベクトルが求められる。
は、時間遅れ処理部30,31,32、L画像動きベク
トル抽出部4、R画像動きベクトル抽出部5、立体視差
抽出部6、比較検討部7,8、変換部9,10、立体視
差動きベクトル抽出部11、総合部12とで構成されて
いる。以下、上記各構成部について説明する。
(L)1およびカメラ(R)2から得られた時刻tにお
ける画像信号20,21についてそれぞれΔt分の時間
遅れ処理を行ない、時刻(t+Δt)にその画像信号2
0,21に関する画像信号300,310をそれぞれ送
出する。また、時間遅れ処理部32は、後述する立体視
差抽出部6から送出される距離情報60についてΔt分
の時間遅れ処理を行ない、時刻(t+Δt)にその距離
情報60に関する距離情報320を送出する。
処理部30から送出された画像信号300とカメラ
(L)1から送出された画像信号20とをそれぞれ入力
とし、時刻tから時刻(t+Δt)の間におけるカメラ
(L)1に関する画像動きベクトルを抽出し、L画像動
きベクトル40を送出する。同様に、R画像動きベクト
ル抽出部5は、時間遅れ処理部31から送出された画像
信号310とカメラ(R)2から送出された画像信号2
1とをそれぞれ入力とし、時刻tから時刻(t+Δt)
の間におけるカメラ(R)2に関する画像動きベクトル
を抽出し、R画像動きベクトル情報50を送出する。上
記各動きベクトル抽出部では、このように2入力ライン
のうちの一方に時間遅れ処理を施すことにより、処理速
度を速くし、しかも使用メモリ量を少なくしている。
ラ(L)1から送出された画像信号20およびカメラ
(R)2から送出された画像信号21をそれぞれ入力と
し、各画像信号20,21に関する立体視差を抽出して
距離情報60を送出する。この送出される距離情報60
には、立体視差から求められる距離情報はもとより、立
体視差と三角測量のパラメータや画素の輝度情報等も含
まれている。
視差抽出部6から送出された時刻tにおける距離情報6
0と時間遅れ処理部32から送出された時刻(t+Δ
t)における距離情報320を入力とし、カメラ(L)
1およびカメラ(R)2から送出された2つの画像から
相互相関的に画像動きベクトルを抽出し、立体視差動き
ベクトル110,111を送出する。
抽出部11から送出された立体視差動きベクトル11
0,111をそれぞれ入力とし、各立体視差動きベクト
ル情報110,111を各カメラの輻輳角に応じた動き
ベクトルに変換し、動きベクトル90,100をそれぞ
れ送出する。
部4から送出されたL画像動きベクトル40と変換部9
から送出された動きベクトル90とを入力とし、これら
の動きベクトルを比較して互いに等しい部分と等しくな
い部分とを区別するラベル付けを行ない、このラベル情
報を付加したL画像動きベクトル情報70を送出する。
同様に、比較検討部8は、R画像動きベクトル抽出部5
から送出されたR画像動きベクトル50と変換部10か
ら送出された動きベクトル100を入力とし、これらの
動きベクトル情報に関するラベル情報を有するR画像動
きベクトル情報80を送出する。
出されたL画像動きベクトル情報70およびR画像動き
ベクトル情報80を入力とし、最終的な動きベクトル情
報120を送出する。
は、カメラ(L)1およびカメラ(R)2から得られる
2つの画像は、その各画素が表示画面上で相対的に一致
するものである。また、左右の画像の比較、およびそれ
ぞれの画像における各時刻における画像の比較は、それ
ぞれ相対的に一致する画素間で行なわれる。
詳しく説明する。
およびカメラ(R)2がそれぞれ所定の輻輳角に設定さ
れて所望する被写体の撮像が行なわれる。カメラ(L)
1およびカメラ(R)2で被写体が撮像されると、カメ
ラ(L)1からは、時刻tにおける画像信号20が時間
遅れ処理部30、L画像動きベクトル抽出部4および立
体視差抽出部6にそれぞれ入力され、また、カメラ
(R)2からは、時刻tにおける画像信号21が時間遅
れ処理部31、R画像動きベクトル抽出部5および立体
視差抽出部6にそれぞれ入力される。
30では、この画像信号20に対してΔt分の時間遅れ
処理が行なわれて、時刻(t+Δt)にその画像信号2
0が画像信号300として送出される。同様にして、画
像信号21が入力された時間遅れ処理部31では、時刻
(t+Δt)にその画像信号21が画像信号310とし
て送出される。
ぞれ送出された各画像信号300,310は、それぞれ
L画像動きベクトル抽出部4およびR画像動きベクトル
抽出部5に入力される。このとき、L画像動きベクトル
抽出部4およびR画像動きベクトル抽出部5には、カメ
ラ(L)1およびカメラ(R)2から画像信号20およ
び画像信号21がそれぞれ入力されている。
は、時刻(t+Δt)に時間遅れ処理部30から送出さ
れた画像信号300(すなわち、時刻tにカメラ(L)
1から送出された画像信号)と時刻(t+Δt)にカメ
ラ(L)1から送出された画像信号とが同時に入力され
ており、R画像動きベクトル抽出部5には、時刻(t+
Δt)に時間遅れ処理部31から送出された画像信号3
10(すなわち、時刻tにカメラ(R)2から送出され
た画像信号)と時刻(t+Δt)にカメラ(R)2から
送出された画像信号とが同時に入力されている。
t)における画像がそれぞれ入力されたL画像動きベク
トル抽出部4およびR画像動きベクトル抽出部5では、
時刻tから時刻(t+Δt)の間の画像動きベクトルが
それぞれ抽出される。以下、このL画像動きベクトル抽
出部4およびR画像動きベクトル抽出部5における画像
動きベクトルの抽出について詳しく説明する。
るための模式図で、M×M画素の画像からN×N画素の
テンプレート画像を切り出したものである。
動きベクトル抽出部5における画像動きベクトルの抽出
は、双方同様な処理によって行なわれるので、ここでは
L画像動きベクトル抽出部4のみについて説明する。
動きベクトルの抽出は、図2に示すように、時刻tにお
けるM×M画素の画像(画像信号20)の所定位置から
N×N画素のテンプレート画像を切り出し、この切り出
したテンプレート画像を時刻(t+Δt)におけるM×
M画素の画像(画像信号300)内の探索領域範囲(M
−N+1)2 上で動かし、切り出されたテンプレート画
像の各画素と上記探索領域範囲(M−N+1)2 内の各
画素との差(絶対値)の総和が一番小さくなる位置を求
めることによって行なわれる。すなわち、以下の式によ
って与えられる残差R(a,b)が最小となるテンプレ
ート画像の位置(中心画素の位置)を求めることによっ
て行なわれる。
けるテンプレート画像の左上位置を示し、
る上記テンプレート画像の移動位置を示し、Tt(i,
j)は、時刻tの画像(画像信号20)におけるテンプ
レート画像の位置を示す。
動したものを挙げる。
際の各時刻における被写体の移動を表す図で、(A)は
時刻tにおける画像、(B)は時刻(t+Δt)におけ
る画像を示す。また、図4は、図3における被写体の移
動に基づいて抽出された画像動きベクトルを各テンプレ
ート画像毎に矢印で表した図である。
る場合、まず図3(A)に示す画像を所定の大きさで分
割し(ここでは、12分割される)、テンプレート画像
を設定する。次いで、図3(A)の画像上に形成された
各テンプレート画像のうちからまず1つを選択して切り
出し、その切り出したテンプレート画像を図3(B)の
画像上の特定の探索領域範囲上で動かし、上述した式1
の残差R(a,b)が最小となるテンプレート画像の位
置を求める。このような処理を各テンプレート画像につ
いて行なう。
b)が最小となる各テンプレート画像の位置が求まる
と、各テンプレート画像において、Tt(i,j)から
像動きベクトルを矢印で表すことができる。なお、図4
では、Tt(i,j)をテンプレート画像の中心座標と
して矢印が表示されている。
トルは、L画像動きベクトル抽出部4およびR画像動き
ベクトル抽出部5からそれぞれL画像動きベクトル40
およびR画像動きベクトル50として送出される。
ラ1,2から送出された画像信号20,21は、ともに
立体視差抽出部6にも入力される。以下、立体視差抽出
部6における立体視差の抽出について説明する。
それぞれ入力された立体視差抽出部6では、入力された
各画像信号20,21から時刻tにおける左右の2つの
画像の立体視差が抽出される。
いた手法と同じ方法で求めることができる。但し、上述
した式1を用いた手法では、一方のカメラから入力され
る画像について画像移動ベクトルが抽出されていたが、
ここでは、各カメラ1,2からそれぞれ入力される2つ
の画像から以下に示す式2を用いて立体視差が抽出され
る。
(R)2のそれぞれから画像信号20および画像信号2
1が入力されると、画像信号21から得られる画像(以
下、R画像という)からテンプレート画像を切り出し、
この切り出されたテンプレート画像を画像信号20から
得られる画像(以下、L画像という)内の探索領域範囲
上で動かし、以下の式によって与えられる残差R(a,
b)が最小となるテンプレート画像の位置(ここでは、
テンプレート画像の中心画素の位置)を求めることによ
って行なわれる。なお、ここでは基準となるテンプレー
ト画像が切り出される画像をR画像としているが、反対
にL画像を基準にしてもよい。
ト画像の中心画素の位置とL画像におけるテンプレート
画像の中心画素の位置は、R画像とL画像のそれぞれ対
応する点を表していることから、この対応する点をそれ
ぞれ(XR,YR)および(XL,YL)とすると、立体視
差(U,V)は、 (U,V)=(XR,YR)−(XL,YL) で表される。このようにして、立体視差を求めることが
できる。
下に示す式を用いて求めてもよい。
体視差抽出部6では、三角測量の原理に基づいて、求め
た立体視差から立体物の距離情報が求められ距離情報6
0が送出される。なお、このとき送出される距離情報6
0は、計算された画素間の距離情報はもとより、立体視
差と三角測量とから得られるパラメータや画素の輝度情
報等も含くまれている。
60は、時間遅れ処理部32に入力されるとともに、立
体視差動きベクトル抽出部11に入力される。
された時間遅れ処理部32では、上述した時間遅れ処理
部30,31と同様にしてΔt分の時間遅れ処理が行な
われ、時刻(t+Δt)に距離情報60が距離情報32
0として立体視差動きベクトル抽出部11へ送出され
る。
送出された立体視差動きベクトル抽出部11では、時刻
tにおける距離情報(すなわち、距離情報320)と時
刻(t+Δt)における距離情報(すなわち、立体視差
抽出部6から直接入力される時刻(t+Δt)における
距離情報60)から画像動きベクトルが抽出される。以
下、この立体視差動きベクトル抽出部11における画像
動きベクトルの抽出について説明する。
式1を用いた手法と同じ方法で求めることができる。但
し、ここでは、以下に示す式を用いて画像動きベクトル
が抽出される。
る輝度値、Qは距離情報を示すもので、画素i,jはレ
ンズ中心、あるいは何等かの原点からの距離
された距離情報60には、R画像およびL画像における
各画像間の対応する各画素間の距離(立体視差)情報お
よび各時刻の画像における各画素の輝度情報等の画像情
報が含まれており、立体視差動きベクトル抽出部11で
は、その距離情報および輝度情報によって、時刻tから
時刻(t+Δt)の間の立体情報を用いた画像動きベク
トルが抽出される。
輝度値の比較が行なわれ、第2項によって距離情報(立
体視差)の比較が行なわれ、これらの絶対値が最小とな
るR’(a,b)を求めることによって画像動きベクト
ルが抽出される。
抽出部11によってR画像とL画像の立体画像に関する
時刻tから時刻(t+Δt)における画像動きベクトル
が抽出されると、立体視差動きベクトル抽出部11から
各変換部9,10へそれぞれ立体視差画像動きベクトル
110,111が送出される。
1が各変換部9,10にそれぞれ入力されると、各変換
部9,10では、R画像とL画像の立体画像に関する立
体視差画像動きベクトルをR画像に関するものおよびL
画像に関するものに変換する処理が行なわれる。以下、
その変換部における変換処理について説明する。
を説明するための図で、図1に示すカメラの輻輳角を示
す状態図である。
カメラ(L)1およびカメラ(R)2における輻輳角か
ら変換処理を行なうものであって、その変換方法には以
下に示す2つの例が考られる。
θが小さく、基線中心から被写体までの距離Zがレンズ
の焦点距離に比べて非常に大きな場合に用いられるもの
で、単に画像動きベクトルの大きさを変換して近似する
方法である。この方法では、以下の式が用いられる。
きベクトルの大きさを変換して近似する方法で、以下の
式が用いられる。
回転角とし、
とによって近似が行なわれる。
ベクトルの変化を表す図で、上述の各手法のいずれかを
用いて画像動きベクトル110,111の大きさを変換
した際の画像動きベクトルを図4と同様に表したもので
ある。この変換部では、上述のようにして、立体画像か
ら得られた動きベクトルがR画像およびL画像のそれぞ
れに対応する動きベクトルに変換されて、図6に示すよ
うになる。
処理が行なわれると、各変換部9,10からは、L画像
およびR画像に対応する動きベクトル90および動きベ
クトル100が比較検討部7、8へそれぞれ送出され
る。
された各比較検討部では、上記各変換部で変換されたR
画像およびL画像に関する動きベクトル(相互関係的に
求めた画像動きベクトル)と、R画像およびL画像毎に
抽出された画像動きベクトル(自己相関的に求めた画像
動きベクトル)との比較が行なわれ、一致する部分およ
び一致しない部分にそれぞれ所定のラベルが付けられ
る。
像動きベクトル抽出部4から送出されたL画像動きベク
トル40と変換部9から送出された動きベクトル90の
間で各テンプレート画像毎に比較が行なわれ、上記ラベ
ル付けが行なわれる。同様にして、比較検討部8におい
ては、R画像動きベクトル50と動きベクトル100の
間で各テンプレート画像毎に比較が行なわれてラベル付
けが行なわれる。
一致しない部分にF’のラベル付けをしたもので、
(A)は比較検討部7におけるラベル付け、(B)は比
較検討部8におけるラベル付けを表す。
ラベル付けが行なわれると、比較検討部7からは、L画
像動きベクトル40および動きベクトル90とともに図
7(A)のラベル情報が統合部12へ送出され(L画像
動きベクトル情報70)、比較検討部8からは、R画像
動きベクトル50および動きベクトル100とともに図
7(B)のラベル情報が統合部12へ送出される(R画
像動きベクトル情報80)。
およびR画像動きベクトル情報80がそれぞれ送出され
ると、この統合部12では、ラベル情報に基づいて最終
的画像動きベクトルが以下のようにして求められる。
R画像動きベクトル情報80にそれぞれ付加されている
ラベル情報をそれぞれ対応するテンプレート画像毎に比
較する(ここでは、図7(A)と図7(B)のラベルを
比較する)。
像のラベルが双方共にT’の場合については、各画像動
きベクトル70,80の平均値、あるいは加重平均を取
って最終的な画像動きベクトルを求める。このとき、画
像動きベクトルから換算される画素の距離情報や輝度情
報も平均、あるいは加重平均等によって決定される。
一方のラベルがT’、他方のラベルがF’の場合につい
ては、T’のラベルが付けられた方の画像動きベクトル
を採用し、双方のラベルがF’の場合については、どち
らか一方の画像動きベクトル(例えば、画像動きベクト
ル70)を採用して最終的な画像動きベクトルを求め
る。
ルを採用する場合においては、今回は保留とし次回の時
刻における結果が得られた時点で最終画像動きベクトル
を求めることにしてもよい。
画像およびL画像から得られた立体視差に基づく画像動
きベクトルと、各R・L画像毎に抽出された画像動きベ
クトルとを所定の大きさのテンプレート画像毎に比較
し、立体視差に基づく画像動きベクトルとい一致する部
分を優先して選択することにより、最終的な画像動きベ
クトルが求めれる。
動きベクトル検出手段では、上述した各処理を所定のフ
レーム間で行なうことによって、画像動きベクトルが求
められる。
置では、R画像およびL画像の立体視差から抽出された
立体視差画像動きベクトルを、カメラの輻輳角に応じて
R画像のものとL画像のものに変換し、その変換した画
像動きベクトルと各カメラ毎に抽出されたR画像および
L画像のそれぞれの画像動きベクトルとの比較が行なわ
れているが、これとは反対に、R画像およびL画像のそ
れぞれから画像動きベクトルを抽出し、抽出された2つ
の画像動きベクトルをそれぞれカメラの輻輳角に応じて
立体視差画像動きベクトルに変換し、その変換された立
体視差画像動きベクトルと、R画像およびL画像の立体
視差から抽出された立体視差画像動きベクトルとの比較
を行なって最終的な動きベクトルを求めることもでき
る。以下に、その複眼撮像装置の実施例を説明する。
装置の動きベクトルを検出する部分の概略構成を示すブ
ロック図である。
第1の実施例の複眼撮像装置における各変換部9,10
の代わりに変換部91,92が各画像動きベクトル4
0,50のラインに対してそれぞれ設けられたものであ
る。このこと以外は、第1の実施例の複眼撮像装置と同
様のものである。なお、図8において、図1と同様の構
成部については同じ番号を付している。
例の場合と同様、L画像動きベクトル抽出部4からL画
像動きベクトル40が送出され、L画像動きベクトル抽
出部5からR画像動きベクトル50が送出され、立体視
差動きベクトル抽出部11から立体視差画像動きベクト
ル110,111が送出される。
たL画像動きベクトル40は変換部91に入力され、R
画像動きベクトル抽出部5から送出されたR画像動きベ
クトル50は変換部92に入力される。また、立体視差
動きベクトル抽出部11から送出された立体視差画像動
きベクトル110,111は、それぞれ比較検討部7,
8に入力される。
部91では、第1の実施例の変換部9における変換処理
と同様の方法によって、L画像動きベクトル40が第1
の実施例の場合とは反対に立体視差動きベクトルに変換
されて、立体視差動きベクトル41が比較検討部7へ送
出される。同様に、R画像動きベクトル50が入力され
た変換部92では、R画像動きベクトル50が第1の実
施例の場合とは反対に立体視差動きベクトルに変換され
て、立体視差動きベクトル51が比較検討部8へ送出さ
れる。
と同様に表したものである。図6および図9から分かる
ように、本実施例の変換部91,92における変換処理
では、第1の実施例の場合とは反対の変換処理が行なわ
れる。
部7に入力されると、比較検討部7では、立体視差画像
動きベクトル抽出部11から送出された立体視差動きベ
クトル110と上記立体視差動きベクトル41との比較
が第1の実施例の場合と同様に行なわれて各テンプレー
ト毎にラベルが付けられ、立体視差画像動きベクトル4
1および立体視差画像動きベクトル110にラベル情報
が付加されたもの(立体視差動きベクトル情報710)
が統合部12へ送出される。同様にして、比較検討部8
からは、立体視差動きベクトル51および立体視差動き
ベクトル111にラベル情報が付加されたもの(立体視
差動きベクトル情報720)が統合部12へ送出され
る。
ベクトル情報710および比較検討部8から送出された
立体視差動きベクトル情報720がそれぞれ統合部12
に入力されると、この統合部12では、第1の実施例の
場合と同様にして入力された立体視差画像動きベクトル
情報について処理が行なわれ、最終的な画像動きベクト
ルが求められる。
は、第1の実施例の複眼撮像装置と概略逆の変換処理が
行なわれる。
トル抽出部における2枚の画像(異なる2つの時刻にお
ける画像、あるいはR画像とL画像のこと)の対応点の
抽出にはテンプレートマッチング法が用いられている
が、この各動きベクトル抽出部では単に対応点の抽出が
できればよく、テンプレートマッチング法とは別の抽出
方法が用いられてもよい。
号公報に記載されているような複数画像の対応点抽出方
法、あるいは後述する特願平4−343994号公報に
記載されているような複数画像の対応点抽出方法が用い
られてもよい。
に記載された複数画像の対応点抽出方法を用いた場合に
は、立体視差動きベクトル抽出部において、協調法の適
用する空間を3次元的にして適用する。ただし、ここで
いう3次元は、エピポーララインにそった軸を2軸、原
点からの距離を1軸とした3次元方向を意味するもので
ある。図10に、その3次元空間と興奮性領域を示す。
載された複数画像の対応点抽出方法について、上記公報
に記載された複数画像の対応点抽出方法は、2枚の2値
画像からそれぞれ抽出した2本のエピポーララインから
形成される視差画面上の各交点で、この2枚の2値画像
の実画像に基づく興奮性結合および抑制性結合をもつ局
所演算を行なうことにより視差ラインを得て、この2枚
の2値画像の対応点を抽出する際に、各2値画像の互い
に隣り合う実画素の間に、実画素間の連続性を示す仮想
画素をそれぞれ設け、仮想画素に基づく興奮性結像およ
び抑制性結像をもつ局所演算を、実画像に基づく興奮性
結像および抑制性結像をもつ局所演算と平行して行なっ
て対応点を抽出するものである。。
載された複数画像の対応点抽出方法について、上記公報
に記載された複数画像の対応点抽出方法は、2枚の2値
画像からそれぞれ抽出した2本のエピポーララインから
形成される視差画像上の各交点で、この2枚の2値画像
の実画像に基づく興奮性結合および抑制性結合をもつ局
所演算を行なうことにより視差ラインを得て、この2枚
の2値画像の対応点を抽出する際に、複数の視差画面に
わたる実画素に基づく興奮性結合および抑制性結合をも
つ局所演算をも行なって対応点を抽出するものである。
また、複数の視差画面にわたる実画像に基づく興奮性結
合および抑制性結合をもつ局所演算では、中心とする視
差画面から遠く離れた視差画面ほど興奮性結合の範囲お
よび抑制性結合の範囲をそれぞれ小さくする。
いるので、以下に記載するような効果を奏する。
動きベクトルと、各カメラによって撮像された画像の立
体視差に基づいて抽出された立体視差動きベクトルとか
ら最終的な動きベクトルが求められるので、一方のカメ
ラでしか見えない部分や一方のカメラで撮像された画像
信号に雑音が混入して画像が乱れたりした場合において
も、他方のカメラから得られる動きベクトルと立体視差
動きベクトルから正しい動きベクトルを検出することが
できる。よって、画像の符号化や画像触れ補正をより正
確に行なうことができ、装置の信頼性が向上するという
効果がある。
視差動きベクトルの抽出が、各画像が所定の大きさの複
数の領域に分割されて行なわれるので、装置の動きベク
トルの抽出の信頼性が向上するという効果がある。
成を示すブロック図である。
図で、M×M画素の画像からN×N画素のテンプレート
画像を切り出したものである。
おける被写体の移動を表す図で、(A)は時刻tにおけ
る画像、(B)は時刻(t+Δt)における画像を示
す。
た画像動きベクトルを各テンプレート画像毎に矢印で表
した図である。
めの図で、図1に示すカメラの輻輳角を示す状態図であ
る。
化を表す図である。
分にF’のラベル付けをしたもので、(A)は比較検討
部7におけるラベル付け、(B)は比較検討部8におけ
るラベル付けを表す。
成を示すブロック図である。
よる画像動きベクトルの変化を表す図である。
Claims (6)
- 【請求項1】 所定の輻輳角に設定され、所望の被写体
を撮像する複数の撮像手段と、 前記各撮像手段毎に設けられ、前記撮像手段によって時
系列的に得られる画像から所定のフレーム間における前
記被写体の動きベクトルをそれぞれ抽出する複数の動き
ベクトル抽出手段と、 前記各撮像手段によって得られる各画像から、前記所定
のフレーム間における前記被写体の立体視差を抽出する
立体視差抽出手段と、前記立体視差抽出手段によって時系列的に抽出された立
体視差から、前記所定のフレーム間における前記被写体
の立体視差動きベクトルを抽出する立体視差動きベクト
ル抽出手段と、 前記各動きベクトル抽出手段によって抽出されたそれぞ
れの動きベクトルおよび前記立体視差動きベクトル抽出
手段によって抽出された立体視差動きベクトルに基づい
て、前記所定のフレーム間における前記被写体の最終的
な動きベクトルを決定する動きベクトル決定手段とを有
することを特徴とする複眼撮像装置。 - 【請求項2】 請求項1に記載の複眼撮像装置におい
て、前記 各動きベクトル抽出手段によって抽出された動きベ
クトルを第1の動きベクトルとし、 前記立体視差動きベクトル抽出手段によって抽出された
立体視差動きベクトルを、前記所定の輻輳角に基づい
て、前記各第1の動きベクトルに対応する第2の動きベ
クトルに変換する変換手段をさらに有し、前記動きベクトル決定手段が、 前記各動きベクトル抽出
手段によって抽出された第1の動きベクトルおよび前記
変換手段によって変換された第2の動きベクトルに基づ
いて、前記所定のフレーム間における前記被写体の最終
的な動きベクトルを決定するように構成されていること
を特徴とする複眼撮像装置。 - 【請求項3】 請求項2に記載の複眼撮像装置におい
て、前記 動きベクトル決定手段は、前記各動きベクトル抽出
手段毎に設けられ、前記動きベクトル抽出手段によって
それぞれ抽出された第1の動きベクトルと前記変換手段
によって変換された第2の動きベクトルが一致するかを
検討する比較検討手段と、前記各比較検討手段によって
検討された結果に基づいて前記第1の動きベクトルと前
記第2の動きベクトルを統合する統合手段とで構成さ
れ、 前記統合手段は、前記各第1の動きベクトルと前記第2
の動きベクトルがそれぞれ一致する場合には、前記第1
および第2の動きベクトルの平均値、あるいは加重平均
を取り、前記各第1の動きベクトルのいずれか1つと前
記第2の動きベクトルが一致する場合には、該一致した
第1の動きベクトルと前記第2の動きベクトルについて
平均値、あるいは加重平均を取り、前記第2の動きベク
トルが前記各第1の動きベクトルのいずれとも一致しな
い場合においては、前記第1の動きベクトルのいずれか
を採用することを特徴とする複眼撮像装置。 - 【請求項4】 請求項1に記載の複眼撮像装置におい
て、 前記立体視差動きベクトル抽出手段によって抽出された
立体視差動きベクトルを第2の動きベクトルとし、 前記各動きベクトル抽出手段によって抽出された動きベ
クトルを前記第2の動きベクトルに対応する第1の動き
ベクトルに変換する変換手段をさらに有し、 前記動きベクトル決定手段が、前記変換手段によって変
換された第1の動きベクトルおよび前記立体視差動きベ
クトル抽出手段によって抽出された第2の動きベクトル
に基づいて、前記所定のフレーム間における前記被写体
の最終的な動きベクトルを決定するように構成されてい
ることを特徴とする複眼撮像装置。 - 【請求項5】 請求項2または4に記載の複眼撮像装置
において、 前記動きベクトル決定手段は、前記各動きベクトル抽出
手段毎に設けられ、前記第1の動きベクトルと前記第2
の動きベクトルが一致するかを検討する比較検討手段
と、前記各比較検討手段によって検討された結果に基づ
いて前記第1の動きベクトルと前記第2の動きベクトル
を統合する統合手段とを有することを特徴とする複眼撮
像装置。 - 【請求項6】 請求項1ないし請求項5のいずれか1項
に記載の複眼撮像装置において、 前記動きベクトル抽出手段、前記立体視差抽出手段およ
び前記立体視差動きベクトル抽出手段における前記動き
ベクトル、前記立体視差および前記立体視差動きベクト
ルの抽出は、前記撮像手段から時系列的に得られる画
像、あるいは、前 記各撮像手段から得られる各画像から
共通する領域を抽出し、該抽出した共通する領域の相対
的なずれ量を求めることによって行なわれることを特徴
とする複眼撮像装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12113394A JP3103478B2 (ja) | 1994-06-02 | 1994-06-02 | 複眼撮像装置 |
US08/457,397 US6118475A (en) | 1994-06-02 | 1995-06-01 | Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12113394A JP3103478B2 (ja) | 1994-06-02 | 1994-06-02 | 複眼撮像装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07325924A JPH07325924A (ja) | 1995-12-12 |
JP3103478B2 true JP3103478B2 (ja) | 2000-10-30 |
Family
ID=14803696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12113394A Expired - Fee Related JP3103478B2 (ja) | 1994-06-02 | 1994-06-02 | 複眼撮像装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3103478B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4172554B2 (ja) * | 1998-03-12 | 2008-10-29 | 富士重工業株式会社 | ステレオカメラの調整装置 |
JP2001012946A (ja) * | 1999-06-30 | 2001-01-19 | Toshiba Corp | 動画像処理装置及び方法 |
KR100392381B1 (ko) * | 2000-11-13 | 2003-07-22 | 한국전자통신연구원 | 영상에서의 사물들간의 시차량을 조절하는 주시각 제어 장치 및 그 방법과 그를 이용한 평행축 입체 카메라 시스템 |
JP2005055931A (ja) * | 2001-07-05 | 2005-03-03 | Advantest Corp | 画像処理装置、及び画像処理方法 |
JP2011124822A (ja) * | 2009-12-11 | 2011-06-23 | Fujitsu Ltd | 半導体集積回路、符号化方法及び撮像装置 |
JP5565001B2 (ja) * | 2010-03-04 | 2014-08-06 | 株式会社Jvcケンウッド | 立体映像撮像装置、立体映像処理装置および立体映像撮像方法 |
JP2011217294A (ja) * | 2010-04-02 | 2011-10-27 | Sharp Corp | ノイズ低減処理装置 |
JP5299567B2 (ja) * | 2010-04-15 | 2013-09-25 | コニカミノルタ株式会社 | 画像処理システム、画像処理方法、およびプログラム |
JP2013165306A (ja) * | 2010-06-01 | 2013-08-22 | Panasonic Corp | 立体映像表示装置 |
WO2013072965A1 (ja) * | 2011-11-17 | 2013-05-23 | パナソニック株式会社 | 映像処理装置および映像処理方法 |
WO2015161490A1 (zh) * | 2014-04-24 | 2015-10-29 | 陈哲 | 一种基于复眼仿真的水面偏振成像的目标运动检测方法 |
WO2020105235A1 (ja) * | 2018-11-19 | 2020-05-28 | ソニー株式会社 | 動きベクトル検出装置と動きベクトル検出方法およびプログラムと画像処理装置 |
-
1994
- 1994-06-02 JP JP12113394A patent/JP3103478B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH07325924A (ja) | 1995-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6118475A (en) | Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape | |
JP4198054B2 (ja) | 3dビデオ会議システム | |
JP3054681B2 (ja) | 画像処理方法 | |
JP3728160B2 (ja) | 奥行き画像計測装置及び方法、並びに複合現実感提示システム | |
JP3745117B2 (ja) | 画像処理装置及び画像処理方法 | |
EP2328125B1 (en) | Image splicing method and device | |
US20080158340A1 (en) | Video chat apparatus and method | |
US20030012410A1 (en) | Tracking and pose estimation for augmented reality using real features | |
JP3103478B2 (ja) | 複眼撮像装置 | |
KR100560464B1 (ko) | 관찰자의 시점에 적응적인 다시점 영상 디스플레이 시스템을 구성하는 방법 | |
US6809771B1 (en) | Data input apparatus having multiple lens unit | |
TW201004818A (en) | The asynchronous photography automobile-detecting apparatus | |
KR20080002409A (ko) | 2차원 영상의 3차원 영상 변환 장치 및 방법 | |
JPH0719832A (ja) | 複数画像の対応点抽出方法 | |
JP3450792B2 (ja) | 奥行き画像計測装置及び方法、並びに複合現実感提示システム | |
JPH0814861A (ja) | 3次元形状の計測方法及び装置 | |
JP2849313B2 (ja) | 画像記録再生装置 | |
JP2004069583A (ja) | 画像処理装置 | |
JP2000028354A (ja) | 3次元画像処理装置 | |
JPH0875454A (ja) | 測距装置 | |
JP2002077941A (ja) | 奥行き画像生成装置、奥行き画像生成方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
KR100434877B1 (ko) | 변이 움직임 벡터를 이용한 스테레오 물체 추적 방법 및장치 | |
JPH05122602A (ja) | 距離動画像入力処理方法 | |
JPH0624000B2 (ja) | 複合立体視装置 | |
JP2000331160A (ja) | 画像マッチング装置、画像マッチング方法及び画像マッチング用プログラムを記録した記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070825 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080825 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080825 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090825 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090825 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100825 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110825 Year of fee payment: 11 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120825 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120825 Year of fee payment: 12 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130825 Year of fee payment: 13 |
|
LAPS | Cancellation because of no payment of annual fees |