JPH10122838A - 三次元構造推定方法及び装置 - Google Patents

三次元構造推定方法及び装置

Info

Publication number
JPH10122838A
JPH10122838A JP8272676A JP27267696A JPH10122838A JP H10122838 A JPH10122838 A JP H10122838A JP 8272676 A JP8272676 A JP 8272676A JP 27267696 A JP27267696 A JP 27267696A JP H10122838 A JPH10122838 A JP H10122838A
Authority
JP
Japan
Prior art keywords
viewpoint
pixel
signal
depth
small area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8272676A
Other languages
English (en)
Other versions
JP2910698B2 (ja
Inventor
Shizuo Sakamoto
静生 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP8272676A priority Critical patent/JP2910698B2/ja
Priority to US08/950,599 priority patent/US6049625A/en
Publication of JPH10122838A publication Critical patent/JPH10122838A/ja
Application granted granted Critical
Publication of JP2910698B2 publication Critical patent/JP2910698B2/ja
Priority to US09/487,875 priority patent/US6480620B1/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

(57)【要約】 【課題】 複数の位置から撮影された画像群を利用し
て、画像上の物体の3次元構造を高精度に推定する。 【解決手段】 第1の対応小領域抽出手段14が画像中
から小領域を抽出し、第1の近傍小領域平均計算手段1
6が小領域の平均を各視点位置毎に計算し、第1の差分
計算手段18が前記一つの視点における前記対応小領域
と、前記平均値との差分を、各視点位置毎に計算し、総
和計算手段60が前記複数視点全ての前記差分の和であ
る差分総和を計算し、最小コスト奥行き選択手段62が
前記直線から奥行きと推定される点までの距離を変化さ
せて前記差分総和が最も小さくなる距離を奥行きとして
求める。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は画像から画像上の物
体の構造を得る三次元構造推定方法及び装置に関し、特
に複数の視点から撮影された画像群を利用して、三角測
量の原理に基づき画像上の物体の三次元構造を推定する
三次元構造推定方法及び装置に関する。
【0002】
【従来の技術】複数の位置から撮影された画像群を利用
して、三角測量の原理に基づき画像上の物体の三次元構
造を推定する、いわゆるステレオ法と呼ばれる画像処理
の手法がある。
【0003】従来の三次元構造推定装置の一例として、
‘A Multiple-Baseline Stereo’(IEEE Transactions o
n Pattern Analysis and Machinne Intelligence,pp.35
3-363,Vol.15,No.4,April 1993)で詳述された複数位置
から撮影された画像から三次元構造を推定する装置につ
いて説明する。
【0004】図6を参照してステレオ法の基本原理を説
明する。焦点距離Fを持つ第1のカメラ10のレンズ中
心位置をX1に置き、本地点X1を第1のカメラの視点
位置と呼ぶ。同じく焦点距離Fを持つ第2のカメラ20
のレンズ中心位置をX2に置き、本地点X2を第2のカ
メラの視点位置と呼ぶ。それぞれの視点位置間の距離と
して定義される光軸間距離B(以下、ベースラインと呼
ぶ。)は、B=X2−X1で与えられ、あるBの値を持
つ位置にレンズを置いて物体1を撮影するとする。物体
表面のある位置Pが、二つのカメラで撮影され、撮像面
上でそれぞれx1、x2である位置に対応することがわ
かったとき、これらそれぞれの位置の差分d(以下、デ
ィスパリティと呼ぶ。)は、d=x2−x1で与えら
れ、物体上の該地点の奥行きzに以下に示す式(1)の
ように依存している。
【0005】
【数1】
【0006】即ち第1のカメラ10で撮影された画像上
の各点が、第2のカメラ20で撮影された画像上でどの
点に対応するのかが推測できれば、画像上の三次元構造
が推測できることになる。
【0007】通常ステレオ法のアルゴリズムとしては、
例えば第1のカメラ10で撮影された画像上の一点につ
いてまず注目し、第2のカメラ20で撮影された画像上
において該点と対応する画像点を探索して、該点につい
ての奥行きを推測する。この手続きを、第1のカメラ1
0で撮影された画像上のすべての点について繰り返すこ
とにより、各点の奥行きを推測する。
【0008】対応する点であるか否かの判定は、輝度値
の差分や小領域の差分の和が最も小さい等の条件を用い
て判定することが多い。探索するディスパリティの範囲
は、調べる奥行きの範囲をzmin からzmax までとする
と、式(1)よりdmax =BF/zmax からdmax =B
F/zmin までとなり、本範囲内から上記判定条件を最
も満たす点を選択する。
【0009】また前記判定条件だけで対応点を決定せず
に、差分などが十分小さな複数の対応点を候補として残
しておいた後、奥行きのラインが滑らかになるような対
応の組を最終的に決定する手法も多く取られる。また図
7に示したように前面の物体2があると推定される場合
には、遮られている箇所で判定条件を満たしていても物
理的にはあり得ない解であるとして除去する手法もよく
取られる。
【0010】物体の該地点の奥行きzが一定であるとす
ると、ディスパリティdはベースラインBに比例して大
きくなる。画像上での精度は画素位置レベルで制限され
ていることから、ディスパリティdが大きければ大きい
ほど推定精度は高くなると言える。式(1)からディス
パリティdを大きくするためには、ベースラインBを大
きくすれば良いことがわかる。しかしながら、ベースラ
インBを大きくとると、調べるディスパリティdの範囲
が広がるため誤対応の起こる確率が大きくなってしま
う。即ち推定精度と誤対応頻度との間にはトレード・オ
フがある。
【0011】誤対応を防ぎつつ推定精度をあげる方法と
して大まかに二つの方法がある。一つは最低解像度画像
により大まかな対応をつけた後、高解像度画像で精度を
あげて対応づけする方法である。もう一つは複数視点に
置いたカメラで撮影した複数の画像を用いることで、対
応する場合としない場合とで、判定に用いる値の差が十
分大きくなるようにする方法(以下、マルチベースライ
ン・ステレオ法と呼ぶ。)である。
【0012】前記文献では、後者のマルチベースライン
・ステレオ法を用いている。図8を参照して前記文献に
記載されたマルチベースライン・ステレオ法の説明を行
なう。
【0013】焦点距離Fを持つ第1のカメラ10、第2
のカメラ20、第3のカメラ30、第4のカメラ40、
・・・、第nのカメラ50(但し、nは自然数とす
る。)のレンズ中心位置をそれぞれX1、X2、X3、
X4、・・・、Xnに置き、各地点を各カメラの視点位
置と呼び、これらのカメラにより物体1を撮影したとす
る。また第1のカメラ10と第2のカメラ20との間、
第1のカメラ10と第3のカメラ30との間、第1のカ
メラ10と第4のカメラ40との間、第1のカメラ10
と第nのカメラ50との間の各ベースラインをB1,2
X2−X1、B1,3=X3−X1、B1,4 =X4−X
1、B1,n =Xn−X1、とする。物体1上の奥行きz
である地点P’が、第1のカメラ10でx1、第2のカ
メラ20でx2、第3のカメラ30でx3、第4のカメ
ラ40でx4、・・・、第nのカメラ50でxnなる位
置に対応しているとき、第1のカメラ10と第2のカメ
ラ20との間、第1のカメラ10と第3のカメラ30と
の間、第1のカメラ10と第4のカメラ40との間、第
1のカメラ10と第nのカメラ50との間のディスパリ
ティd1,2 、d1,3 、d1,4 、・・・、d1,n は、式
(2)の通りとなる。
【0014】
【数2】
【0015】即ち一つの奥行きzに対して、式(2)の
関係で結ばれた複数のカメラで撮影された画像地点によ
り対応関係の判定を行なうため、誤対応を減らしつつベ
ースラインBを大きくして推定精度を向上させることが
可能となる。
【0016】マルチベースライン・ステレオ法は前記二
眼式のステレオ法と同様に、第2のカメラ20〜第nの
カメラ50で撮影された画像上において、第1のカメラ
10で撮影された画像上におけるある一点と対応する画
像点を探索するという手続きを、第1のカメラ10で撮
影された画像上のすべての点について繰り返すことにな
る。前記二眼式のステレオ法ではディスパリティを変化
させながら探索していたが、マルチベースライン・ステ
レオ法においてはカメラによりそれぞれディスパリティ
が異なるため、本文献では奥行きの逆数1/zを、調べ
る奥行きの逆数の範囲1/zmin から1/zmax の間で
値を変えながら、式(2)に基づき各カメラで撮影され
た画像上の画素位置を計算して対応するか否かを調べて
ゆくとしている。
【0017】図9に直方体3をマルチベースライン・ス
テレオ法で撮影し、左上隅の角に対応する小領域を各カ
メラで撮影した画像から取り出す模式図を示す。対応小
領域抽出は第1のカメラ10で撮影された画像から第1
の小領域116を、第2のカメラ20から第2の小領域
126を、第3のカメラ30から第3の小領域136
を、第4のカメラ40から第4の小領域146を、第n
のカメラ50から第nの小領域156を、それぞれ取り
出している。
【0018】対応するか否かの判定は、本文献ではまず
第1の小領域116と第2の小領域126、第1の小領
域116と第3の小領域136、第1の小領域116と
第4の小領域146、・・・、第1の小領域116と第
nの小領域156の間でそれぞれ差分二乗和を計算した
後、該差分の二乗和を更に総和し、調べる奥行きの範囲
内で該値が最も小さいことを条件としている。通常本操
作を、第1のカメラ10で撮影された画像上の全ての画
素について繰り返すことになる。
【0019】次に特開平4−329481で開示されて
いる「3次元データ獲得方法及び装置」について説明す
る。本手法はディスパリティが大きな場合に相関計算を
正しく行なうものである。ディスパリティが大きいとい
うことは、対象物体を見るカメラから見る角度が大きく
異なるということになる。例えば図9において、第1の
小領域116は第nの小領域156とは直方体3上の同
一の角を撮影しているが、小画像の内容は大きく異な
る。この場合、単純な相関では相関値を正しく求めるこ
とができず精度が落ちてしまう。よって該発明では相関
を計算する小領域の大きさや代表点位置を修正すること
により、より精度の高い奥行きを求めることができると
している。
【0020】以上説明してきた従来の技術では同一点起
源の判定条件として差分の二乗和や相関等を用いていた
が、その他にもエッジやテクスチャ情報の差分を利用す
る方法もよく用いられている。
【0021】
【発明が解決しようとする課題】従来技術で取り上げら
れていた問題点として、大きなベースラインを持つカメ
ラペアで撮影された対象物体において、視点位置が大き
く離れているために見え方が異なり、領域相関が正しく
計算出来ないという問題点があった。従来技術では小領
域の大きさや代表点位置を修正することで対応していた
が、図9に示すように第1の小領域116と第nの小領
域156の小画像の内容が大きく異なることから明らか
なように、該修正方法はアドホックなものであり根本的
な解決方法とはなっていない。即ち小領域を基にして従
来手法で対応関係を調べる方法では、ベースラインを大
きくするカメラ設定が基本的に困難であった。
【0022】また物体を異なる視点から撮影したとき、
通常物体は向きにより反射率が異なるために輝度値は視
点毎に異なるのが普通である。
【0023】例えば図10で示したように、ライト7で
物体1が照射されているとき、ちょうど鏡面反射となる
矢印方向へ光が大きく反射される。その他の方向への反
射光量も角度により異なるために、ベースラインを大き
くするカメラ配置では輝度値は大きく変化してしまう。
即ち推定精度が低くなる原因として従来文献で取り上げ
られてきたものの他に、本視点位置による輝度値変化の
効果を考慮する必要がある。
【0024】従来用いられてきた複数視点画像から物体
の三次元構造を取得する装置では、複数の画像上での点
が同じ物体表面位置からの起源であるかどうかの判定
を、小領域の二乗和が小さいという条件により行なって
いる。このような単純な差分では、上記輝度値変化の効
果の影響をそのまま受けてしまい本来対応しているはず
の画素位置で二乗和が十分小さくならず、推定誤差増加
の原因となっていた。
【0025】輝度値を直接用いる代わりにエッジやテク
スチャ情報などを利用したり、差分ではなく相関を用い
ることなどにより、輝度値の違いの影響を少なくするこ
とができる。しかしこれらは小領域により対応付けを行
なう方法であるため、前述の視点による見え方の違いを
吸収することはできず、大きなベースラインとなるカメ
ラ設定を取り推定精度を向上させることに対して根本的
な問題点を抱えたままであった。
【0026】
【課題を解決するための手段】請求項1記載の発明は、
カメラで物体を撮影する位置である直線上に並んだ複数
の視点において撮影されたそれぞれの画像から、カメラ
の焦点距離と、前記複数の視点の内の一つの視点である
基準視点において撮影された画像の画素位置と、前記直
線からの距離とで定まる基準視点以外の各視点の基準視
点において撮影された画像の画素位置に対応する対応画
素あるいは該画素位置を含む対応小領域を取り出す工程
と、前記各視点での対応画素を該視点の近傍視点におけ
る対応画素と比較するかあるいは前記対応小領域を該視
点の近傍視点における対応小領域と該視点毎に比較する
工程と、前記視点毎の比較情報を総和して総和値を計算
する工程と、所定の範囲内の前記直線からの距離におい
て、前記総和値が最も小さくなる直線からの距離を前記
基準視点における画素の奥行きとする工程と、以上の工
程を全画素について繰り返す工程とを有することを特徴
とする。
【0027】請求項2記載の発明は、請求項1記載の発
明において、前記直線上に並んだ複数の視点は、カメラ
を直線上で移動させることにより形成されることを特徴
とする。
【0028】請求項3記載の発明は、請求項1記載の発
明において、前記直線上に並んだ複数の視点は、視点の
位置にカメラを配置させることにより形成されることを
特徴とする。
【0029】請求項4記載の発明は、請求項1から3の
いずれかに記載の発明において、前記各視点での対応画
素を該視点の近傍視点における対応画素と比較するかあ
るいは前記対応小領域を該視点の近傍視点における対応
小領域と該視点毎に比較する工程は、前記複数の視点の
内の一つの視点における対応画素あるいは前記対応小領
域と、前記一つの視点の近傍にある視点における前記対
応画素あるいは前記対応小領域とを用いてこれらの画素
値あるいは小領域の平均を各視点位置毎に計算し、前記
一つの視点における前記対応画素あるいは対応小領域
と、前記平均値との差分を、各視点位置毎に計算する工
程であることを特徴とする。
【0030】請求項5記載の発明は、請求項1から3の
いずれかに記載の発明において、前記各視点での対応画
素を該視点の近傍視点における対応画素と比較するかあ
るいは前記対応小領域を該視点の近傍視点における対応
小領域と該視点毎に比較する工程は、前記複数の視点の
内の一つの視点における対応画素あるいは前記対応小領
域と、前記一つの視点の近傍にある視点における前記対
応画素あるいは前記対応小領域とを用いて各視点位置毎
に各対応画素毎あるいは対応小領域毎の分散の和を計算
する工程であることを特徴とする。
【0031】請求項6記載の発明は、直線上に並んだ複
数の視点の内の一つである基準視点において撮影された
画像上の画素位置と、前記基準視点における視点位置と
基準視点以外の視点における視点位置との間のそれぞれ
の距離と、カメラの焦点距離と、前記直線から奥行きと
推定される点までの距離とにより決定される基準視点以
外の視点において撮影されたそれぞれの画像上の前記画
素位置に対応する位置にある画素を含む小領域を抽出す
る第1の対応小領域抽出手段と、前記複数の視点の内の
一つの視点における前記対応小領域と、前記一つの視点
の近傍にある視点における前記対応小領域とを用いてこ
れらの小領域の平均値を各視点位置毎に計算する第1の
近傍小領域平均計算手段と、前記一つの視点における前
記対応小領域と、前記平均値との差分を、各視点位置毎
に計算する第1の差分計算手段と、前記複数視点全ての
前記差分の和である差分総和を計算する第1の総和計算
手段と、前記直線から奥行きと推定される点までの距離
を変化させて前記差分総和が最も小さくなる距離を奥行
きとして求めた後、画素位置を更新するための移動指令
を出力する第1の最小コスト奥行き選択手段と、前記基
準視点において撮影された画像上の画素位置を更新する
第1の基準画素位置カウンタ手段と、前記基準視点にお
ける画素位置を入力して、該画素位置が更新されると、
調査範囲内の奥行きを順次出力する第1の奥行きカウン
タ手段とを有することを特徴とする。
【0032】即ち請求項6の発明では、基準視点となる
カメラからの画像信号上の一点についてまず注目し、直
線からの距離である奥行きを変化させながら最もよく対
応する奥行きを探索するときに、視点が近傍にあるカメ
ラで撮影された小領域を束ねて利用することに特徴があ
る。
【0033】請求項6の発明では、ある視点から得られ
た小領域と比較する小領域画像を、近傍視点で撮影され
た小領域群から近傍小領域平均計算手段が行なう平均操
作により求めている。本操作は、例えば第i番目のカメ
ラ(i=1,2,3,4,・・・,n)の視点位置Xi
から距離C内にあるカメラからの小領域の各地点(x,
y)での平均値を以下に示す式(3)で求めることであ
る。なお第iの小領域の座標(x,y)地点における輝
度値をg(i) x,y 、argj |Xi−Xj|<Cとは視
点位置Xiから距離C内にあるカメラの番号を指してい
る。
【0034】
【数3】
【0035】図5に一つの小領域の近傍の小領域により
平均する動作の例を示す。第2の小領域126は、近傍
で撮影された第1の小領域116、第2の小領域12
6、第3の小領域136の平均である第2の平均小領域
128と、差分計算手段により比較される。この差分操
作とは、以下の式で示される小領域中の各地点(x,
y)での平均値との差分の二乗和
【0036】
【数4】
【0037】を指している。図5から明らかなように、
従来問題であった大きく異なる視点からの小領域を比較
する際に未解決であった(i)見え方の違いによる小領
域の違いや、更に前節で図10を用いて説明したように
(ii)物体表面反射率の角度依存性による輝度値の違
いを大きく低減することが可能となり、三次元構造の推
定精度を向上することができる。しかも従来よりもさら
にベースラインを広げることも可能となり、より精度の
高い三次元構造推定装置が実現できる。
【0038】本請求項6記載の発明での各カメラ毎の近
傍平均計算手段が行なう平均処理の意味は、担当してい
るカメラからの小領域がとるであろう値を、近傍のカメ
ラからの小領域で推定することにある。同様に、各カメ
ラ毎の差分計算手段が行なう差分処理の意味は、担当し
ているカメラからの小領域と、取るであろうと推定され
た小領域との差を計算するものである。従って、以上の
説明では平均処理を式(3)としたが、担当しているカ
メラからの小領域が取るであろう値を推測する方法であ
れば何でも良い。また差分処理も、以上の説明では式
(4)と説明したが、画素(小領域)間の距離として用
いることが可能なものであれば何でも良い。また複数の
視点にカメラが複数置かれている図8を基に説明した
が、実際には視点が複数でありさえすればよく、一つの
カメラを移動させながら撮影するなど、カメラは複数で
なくとも構わない。
【0039】請求項7記載の発明は、直線上に並んだ複
数の視点の内の一つである基準視点において撮影された
画像上の画素位置と、前記基準視点における視点位置と
基準視点以外の視点における視点位置との間のそれぞれ
の距離と、カメラの焦点距離と、前記直線から奥行きと
推定される点までの距離とにより決定される基準視点以
外の視点において撮影されたそれぞれの画像上の前記画
素位置に対応する位置にある画素を対応画素として抽出
する第1の対応画素抽出手段と、前記複数の視点の内の
一つの視点における前記対応画素と、該視点の近傍の視
点における前記対応画素とを用いてこれらの画素値の平
均値を各視点位置毎に計算する第1の近傍画素平均計算
手段と、前記一つの視点における前記対応画素の画素値
と、前記平均値との差分を、各視点位置毎に計算する第
2の差分計算手段と、前記複数視点全ての前記差分の和
である差分総和を計算する第2の総和計算手段と、前記
直線から奥行きと推定される点までの距離を変化させて
前記差分総和が最も小さくなる距離を奥行きとして求め
た後、画素位置を更新するための移動指令を出力する第
2の最小コスト奥行き選択手段と、前記基準視点におい
て撮影された画像上の画素位置を更新する第2の基準画
素位置カウンタ手段と、前記基準視点における画素位置
を入力して、該画素位置が更新されると、調査範囲内の
奥行きを順次出力する第2の奥行きカウンタ手段とを有
することを特徴とする。
【0040】請求項6記載の発明では、基準視点となる
カメラからの画像信号上の一点についてまず注目し、奥
行きを変化させながら最も良く対応する奥行きを探索す
るときに、小領域単位で比較していた。しかし請求項7
記載の発明では単位を画素とすることで、小領域の大き
さの設定に煩わされずに、従来よりも精度の高い三次元
構造推定装置を実現している。
【0041】本請求項7記載の発明での各カメラ毎の近
傍画素値平均計算手段が行なう平均処理の意味は、担当
しているカメラからの画素値が取るであろう値を、近傍
のカメラからの画素値で推定することにある。同様に、
各カメラ毎の差分計算手段が行なう差分処理の意味は、
担当しているカメラからの画素値と、取るであろうと推
定された画素値との差を計算するものである。従って、
以上の説明では平均処理を式(3)としたが、担当して
いるカメラからの画素値が取るであろう値を推測する方
法であれば何でも良い。また差分処理も、以上の説明で
は式(4)と説明したが、画素(小領域)間の距離とし
て用いることが可能なものであれば何でも良い。また複
数の視点にカメラが複数置かれている図8を基に説明し
たが、実際には視点が複数でありさえすればよく、一つ
のカメラを移動させながら撮影するなど、カメラは複数
でなくとも構わない。
【0042】請求項8記載の発明は、直線上に並んだ複
数の視点の内の一つである基準視点において撮影された
画像上の画素位置と、前記基準視点における視点位置
と、基準視点以外の視点における視点位置との間のそれ
ぞれの距離と、カメラの焦点距離と、前記直線から奥行
きと推定される点までの距離とにより決定される基準視
点以外の視点において撮影されたそれぞれの画像上の前
記画素位置に対応する位置にある画素を含む小領域を抽
出する第2の対応小領域抽出手段と、前記複数の視点の
内の一つの視点における前記対応小領域と、前記一つの
視点の近傍にある視点における前記対応小領域とを用い
て各視点位置毎に各画素位置毎の分散を計算する第1の
近傍分散計算手段と、前記複数視点全ての前記分散の和
である分散総和を計算する第3の総和計算手段と、前記
直線から奥行きと推定される点までの距離を変化させて
前記分散総和が最も小さくなる距離を奥行きとして求め
た後、画素位置を更新するための移動指令を出力する第
3の最小コスト奥行き選択手段と、前記基準視点におい
て撮影された画像上の画素位置を更新する第3の基準画
素位置カウンタ手段と、前記基準視点における画素位置
を入力して、該画素位置が更新されると、調査範囲内の
奥行きを順次出力する第3の奥行きカウンタ手段とを有
することを特徴とする。
【0043】すなわち本請求項8記載の発明では、基準
視点となるカメラからの画像信号上の一点についてまず
注目し、奥行きを変化させながら最も良く対応する奥行
きを探索する際に、近傍視点からの小領域の分散を近傍
分散計算手段により以下の式に基づき求める。
【0044】
【数5】
【0045】上式で求めた分散、すなわち、ばらつきが
最も小さいものを対応点であると判定している点を特徴
としている。これにより従来よりも精度の高い三次元構
造推定装置を実現している。
【0046】本請求項8記載の発明での各カメラ毎の近
傍分散計算手段が行なう分散計算処理の意味は、担当し
ているカメラの近傍で、小領域がどの程度ばらついてい
るかを推定することにある。従って、以上の説明では分
散計算処理を式(5)としたが、担当しているカメラ近
傍での小領域のばらつきを推測する方法であれば何でも
良い。また複数の視点にカメラが複数置かれていなくと
も、実際には視点が複数でありさえすればよく、一つの
カメラを移動させながら撮影するなど、カメラは複数で
なくとも構わない。
【0047】請求項9記載の発明は、直線上に並んだ複
数の視点の内の一つである基準視点において撮影された
画像上の画素位置と、前記基準視点における視点位置
と、基準視点以外の視点における視点位置との間のそれ
ぞれの距離と、カメラの焦点距離と、前記直線から奥行
きと推定される点までの距離とにより決定される基準視
点以外の視点において撮影されたそれぞれの画像上の前
記画素位置に対応する位置にある画素を抽出する第2の
対応画素抽出手段と、前記複数の視点の内の一つの視点
における前記対応画素と、該視点の近傍にある視点にお
ける前記対応画素とを用いて各視点位置毎に各画素毎の
分散を計算する第2の近傍分散計算手段と、前記複数視
点全ての前記分散の和である分散総和を計算する第4の
総和計算手段と、前記直線から奥行きと推定される点ま
での距離を変化させて前記分散総和が最も小さくなる距
離を奥行きとして求めた後、画素位置を更新するための
移動指令を出力する第4の最小コスト奥行き選択手段
と、前記基準視点において撮影された画像上の画素位置
を更新する第4の基準画素位置カウンタ手段と、前記基
準視点における画素位置を入力して、該画素位置が更新
されると、調査範囲内の奥行きを順次出力する第4の奥
行きカウンタ手段とを有することを特徴とする。
【0048】請求項9記載の発明では、基準視点となる
カメラからの画像信号上の一点についてまず注目し、奥
行きを変化させながら最も良く対応する奥行きを探索す
るときに、小領域単位で比較していた。しかし請求項4
記載の発明では単位を画素とすることで、小領域の大き
さ設定に煩わされずに、従来よりも精度の高い三次元構
造推定装置を実現している。
【0049】本請求項9記載の発明での各カメラ毎の近
傍分散計算手段が行なう分散計算処理の意味は、担当し
ているカメラの近傍で、画素値がどの程度ばらついてい
るかを推定することにある。従って本処理は、担当して
いるカメラ近傍での画素値のばらつきを推測する方法で
あれば良く、上記の処理に限定されない。また複数の視
点にカメラが複数おかれてないくとも、実際には視点が
複数でありさえすれば良く、一つのカメラを移動させな
がら撮影するなど、カメラは複数でなくとも構わない。
【0050】請求項10記載の発明は、請求項6から9
のいずれかに記載の発明において、前記直線上に並んだ
複数の視点は、カメラを直線上で移動させることにより
形成されることを特徴とする。
【0051】請求項11記載の発明は、請求項6から9
のいずれかに記載の発明において、前記直線上に並んだ
複数の視点は、視点の位置にカメラを配置させることに
より形成されることを特徴とする。
【0052】請求項12記載の発明は、請求項6から9
のいずれかに記載の発明において、前記近傍の視点は、
前記複数の視点の内の一つの視点の両隣の視点あること
を特徴とする。
【0053】
【発明の実施の形態】以下実施例に基づき本発明を詳細
に説明する。
【0054】図1は本発明に係る三次元構造推定装置の
第1の実施例の構成を示すブロック図である。図8に示
したように、n個の視点を有するようにカメラが複数配
置されている。
【0055】第1の対応小領域抽出手段14には第1の
画像信号11を伝送する配線と、第1の視点位置信号1
2を伝送する配線と、第1の焦点距離信号13を伝送す
る配線と、第1の対応小領域信号15を伝送する配線
と、基準画素位置信号68を伝送する配線とが接続され
ている。
【0056】第2の対応小領域抽出手段24には第2の
画像信号21を伝送する配線と、第2の視点位置信号2
2を伝送する配線と、第2の焦点距離信号23を伝送す
る配線と、第2の対応小領域信号25を伝送する配線
と、基準画素位置信号68を伝送する配線と、奥行き信
号68を伝送する配線とが接続されている。
【0057】第3の対応小領域抽出手段34には第3の
画像信号31を伝送する配線と、第3の視点位置信号3
2を伝送する配線と、第3の焦点距離信号33を伝送す
る配線と、第3の対応小領域信号35を伝送する配線
と、基準画素位置信号68を伝送する配線と、奥行き信
号68を伝送する配線とが接続されている。
【0058】第4の対応小領域抽出手段44には第4の
画像信号41を伝送する配線と、第4の視点位置信号4
2を伝送する配線と、第4の焦点距離信号43を伝送す
る配線と、第4の対応小領域信号45を伝送する配線
と、基準画素位置信号68を伝送する配線と、奥行き信
号68を伝送する配線とが接続されている。
【0059】第nの対応小領域抽出手段54には第nの
画像信号51を伝送する配線と、第nの視点位置信号5
2を伝送する配線と、第nの焦点距離信号53を伝送す
る配線と、第nの対応小領域信号55を伝送する配線
と、基準画素位置信号68を伝送する配線と、奥行き信
号68を伝送する配線とが接続されている。
【0060】前記第1の視点位置信号12を伝送する配
線、第2の視点位置信号22を伝送する配線、第3の視
点位置信号32を伝送する配線、第4の視点位置信号4
2を伝送する配線、・・・、第nの視点位置信号52を
伝送する配線のそれぞれは、それぞれの対応小領域抽出
手段に接続する他に途中で枝分かれし、視点位置信号群
5を伝送する配線に接続する。この視点位置信号群5を
伝送する配線は第1から第nの近傍小領域平均計算手段
に接続する。
【0061】前記第1の対応小領域信号15を伝送する
配線、第2の対応小領域信号25を伝送する配線、第3
の対応小領域信号35を伝送する配線、第4の対応小領
域信号45を伝送する配線、・・・、第nの対応小領域
信号55を伝送する配線のそれぞれは、小領域信号群4
を伝送する配線に接続する他に、途中で枝分かれし、そ
れぞれに対応する差分計算手段に接続する。前記小領域
信号群4を伝送する配線は第1から第nの近傍小領域平
均計算手段に接続している。
【0062】第1の近傍小領域平均計算手段16には前
記視点位置信号群5を伝送する配線と小領域信号群4を
伝送する配線との他に、第1の小領域平均信号17を伝
送する配線が接続している。
【0063】第2の近傍小領域平均計算手段26には前
記視点位置信号群5を伝送する配線と小領域信号群4を
伝送する配線との他に、第2の小領域平均信号27を伝
送する配線が接続している。
【0064】第3の近傍小領域平均計算手段36には前
記視点位置信号群5を伝送する配線と小領域信号群4を
伝送する配線との他に、第3の小領域平均信号37を伝
送する配線が接続している。
【0065】第4の近傍小領域平均計算手段46には前
記視点位置信号群5を伝送する配線と小領域信号群4を
伝送する配線との他に、第4の小領域平均信号47を伝
送する配線が接続している。
【0066】第nの近傍小領域平均計算手段56には前
記視点位置信号群5を伝送する配線と小領域信号群4を
伝送する配線との他に、第nの小領域平均信号57を伝
送する配線が接続している。
【0067】第1の差分計算手段18には前記途中で枝
分かれした第1の対応小領域信号15が接続される他
に、前記第1の小領域平均信号17を伝送する配線と差
分信号を伝送する配線とが接続している。
【0068】第2の差分計算手段28には前記途中で枝
分かれした第2の対応小領域信号25が接続される他
に、前記第2の小領域平均信号27を伝送する配線と差
分信号を伝送する配線とが接続している。
【0069】第3の差分計算手段38には前記途中で枝
分かれした第3の対応小領域信号35が接続される他
に、前記第3の小領域平均信号37を伝送する配線と差
分信号を伝送する配線とが接続している。
【0070】第4の差分計算手段48には前記途中で枝
分かれした第4の対応小領域信号45が接続される他
に、前記第4の小領域平均信号47を伝送する配線と差
分信号を伝送する配線とが接続している。
【0071】第nの差分計算手段58には前記途中で枝
分かれした第nの対応小領域信号55が接続される他
に、前記第5の小領域平均信号57を伝送する配線と差
分信号を伝送する配線とが接続している。
【0072】総和計算手段60は、前記第1から第nの
差分計算手段から出力された差分信号を伝送するそれぞ
れの配線と差分総和信号61を伝送する配線とが接続さ
れている。
【0073】最小コスト奥行き選択手段62には、前記
差分総和信号61を伝送する配線と、三次元構造推定信
号63を伝送する配線と、カウント指令信号64を伝送
する配線と、基準画素位置信号66を伝送する配線と、
奥行き信号68を伝送する配線とが接続されている。
【0074】基準画素位置カウンタ手段65にはカウン
ト指令信号64を伝送する配線と、義俊画素位置信号6
6を伝送する配線とが接続されている。
【0075】奥行きカウンタ手段67には基準画素位置
信号66を伝送する配線と、奥行き信号68を伝送する
配線とが接続されている。
【0076】前記カメラ群のうちの1つである第1のカ
メラ10で撮影した第1の画像信号11、第1の視点位
置信号12及び第1の焦点距離信号13は、後述する基
準画素位置カウンタ65から出力される第1のカメラ1
0における基準画素位置信号66と共に対応小領域抽出
手段14に入力される。この対応小領域抽出手段14は
画像から基準画素位置x1を中心に5×5画素の大きさ
の小領域を切り出し、この小領域を第1の対応小領域信
号15として出力する。
【0077】前記カメラ群のうちの1つである第2のカ
メラ20で撮影した第2の画像信号21、第2の視点位
置信号22及び第2の焦点距離信号23は、後述する奥
行きカウンタ手段67から出力される奥行き信号68
と、前記第1のカメラ10における基準画素位置信号6
6と共に、第2の対応小領域抽出手段24に入力され
る。第2の対応小領域抽出手段24は、前記x1、F及
びzを式(2)に代入することにより得られる座標位置
x2を中心として5×5画素の大きさの小領域を切り出
し、第2の対応小領域信号25として出力する。
【0078】同様に第3の対応小領域抽出手段34、第
4の対応小領域抽出手段44、・・・、第nの対応小領
域抽出手段54は、それぞれ第3のカメラ30、第4の
カメラ40、・・・、第nのカメラ50で撮影した第3
の画像信号31、第4の画像信号41、・・・、第nの
画像信号51、第3の視点位置信号32、第4の視点位
置信号42、・・・、第nの視点位置信号52、第3の
焦点距離信号33、第4の焦点距離信号43、・・・、
第nの焦点距離信号53、基準画素位置信号66、奥行
き信号68を式(2)に代入することにより得られる座
標位置x3、x4、・・・、xnを中心とした5×5画
素の大きさの小領域を切り出し、第3の対応小領域信号
35、第4の対応小領域信号45、・・・、第nの対応
小領域信号55を出力する。
【0079】前記切り出された第1の対応小領域信号1
5、第2の対応小領域信号25、第3の対応小領域信号
35、第4の対応小領域信号45、・・・、第nの対応
小領域信号55をまとめて小領域信号群4とし、この信
号を伝送する配線を図1中で薄くハッチングして示し
す。同様に前記第1の視点位置信号12、第2の視点位
置信号22、第3の視点位置信号32、第4の視点位置
信号42、・・・、第nの視点位置信号52をまとめて
視点位置信号群5とし、この信号を伝送する配線を図1
中で濃くハッチングして示す。
【0080】前記小領域信号群4と前記視点位置信号群
5とは第1の近傍小領域平均計算手段16に入力する。
第1の近傍小領域平均計算手段16は第1のカメラ10
の視点X1からあらかじめ指定した距離C内の視点を持
つカメラで撮影された小領域信号を選択し、式(3)に
基づいて平均を計算し、第1の小領域平均信号17を出
力する。同様に第2の近傍小領域平均計算手段26、第
3の近傍小領域平均計算手段36、第4の近傍小領域平
均計算手段46、・・・、第nの近傍小領域平均計算手
段56は、前記小領域信号群4と前記視点位置信号群5
とを入力し、それぞれ第2のカメラ20、第3のカメラ
30、第4のカメラ40、・・・、第nのカメラ50の
各視点X2、X3、X4、・・・、Xnからあらかじめ
指定した距離C内の視点を持つカメラで撮影された小領
域信号を選択し、式(3)に基づいて平均を計算し、第
2の小領域平均信号27、第3の小領域平均信号37、
第4の小領域平均信号47、・・・、第nの小領域平均
信号57を出力する。
【0081】前記第1の対応小領域信号15と前記第1
の小領域平均信号17は第1の差分計算手段18に入力
する。第1の差分計算手段18は、式(4)に基づき両
信号の差分の二乗和を計算し、差分信号群70のうちの
一つとして出力する。同様に第2の差分計算手段28、
第3の差分計算手段38、第4の差分計算手段48、・
・・、第5の差分計算手段58はそれぞれ前記第2の小
領域平均信号27、第3の小領域平均信号37、第4の
小領域平均信号47、・・・、第nの小領域平均信号5
7と、前記第2の対応小領域信号25、第3の対応小領
域信号35、第4の対応小領域信号45、・・・、第5
の対応小領域信号55を入力し、差分二乗和をそれぞれ
計算し差分信号群70の一つ一つを出力する。前記差分
信号群70は総和計算手段60に入力される。総和計算
手段60は差分の総和を計算し、差分総和信号61を出
力する。
【0082】前記差分総和信号61、前記基準画素位置
信号66及び前記奥行き信号68は最少コスト奥行き選
択手段62へと入力する。最少コスト奥行き選択手段6
2は調べる奥行きの範囲zmin からzmax においても最
も差分総和が小さくなる奥行きzを選択し、三次元構造
推定信号63を出力する。同時にカウント指令信号64
を出力し、基準画素位置x1の更新を指令する。
【0083】前記カウント指令信号64が入力した基準
画素位置カウンタ手段65は、調べる奥行きの範囲内で
最も差分総和が小さな奥行きが決定される度毎に、基準
となる前記カメラ10での画素位置x1を更新し、基準
画素位置信号66を出力する。前記基準画素位置信号6
6は奥行きカウンタ手段67に入力する。奥行きカウン
タ手段67は基準となる画素位置x1が更新される毎
に、奥行きzを、調べる奥行き範囲内zmin からzmax
にスキャンしながら、奥行き信号68として出力する。
【0084】この第1の実施例では、小領域の大きさと
して5×5画素の大きさを用いたが、別の大きさでも構
わない。また基準となる画素位置を定めるカメラとして
第1のカメラ10と記したが、どのカメラを基準として
も構わない。前記近傍小領域平均計算手段として式
(3)に基づいた単純平均処理を行なうとしたが、注目
している視点からの小領域を推定する処理であればどの
ような処理でも構わない。また前記差分計算手段は、前
記対応小領域信号と前記小領域平均信号との差分の二乗
和を出力するとしたが、画素間の距離として用いること
が可能なものであれば二乗和を用いることに限定されな
い。また図8に例示したような複数の視点にカメラが複
数置かれているとしたが、実際には視点が複数でありさ
えすればよく、一つのカメラを移動させながら撮影する
など、カメラは複数でなくとも構わない。
【0085】図2は本発明に係る三次元構造推定装置の
第2の実施例の構成を示すブロック図である。
【0086】回路構成としては、第1の実施例で説明し
た回路構成において、第1から第nの対応小領域抽出信
号のそれぞれを第1から第nの対応画素抽出手段に、第
1から第nの近傍小領域平均計算手段のそれぞれを第1
から第nの近傍画素平均計算手段に置き換えたものとな
っている。ただし、第1から第nの対応小領域信号のそ
れぞれは第1から第nの対応画素信号に、第1から第n
の小領域平均信号は第1から第nの画素平均信号に置き
換わる。
【0087】第1のカメラ10で撮影した第1の画像信
号11、第1の視点位置信号12、第1の焦点距離信号
13は、後述する基準画素位置カウンタ手段65から出
力される第1のカメラ10における基準画素位置信号6
6と共に、第1の対応画素抽出手段111に入力す。第
1の対応画素抽出手段111は基準画素位置x1の画素
値を取り出し、第1の対応画素信号112を出力する。
【0088】第2のカメラ20で撮影した第2の画像信
号21、第2の視点位置信号22及び第2の焦点距離信
号23は、前記基準画素位置信号66と、後述する奥行
きカウンタ手段67から出力される奥行き信号68と共
に、第2の対応画素抽出手段121に入力す。第2の対
応画素抽出手段121は式(2)にx1、F及びzを代
入することにより得られる座標位置x2の画素値を取り
出し、第2の対応画素信号122として出力する。同様
に第3の対応画素抽出手段131、第4の対応画素抽出
手段141、・・・、第nの対応画素抽出手段151
は、それぞれ第3のカメラ30、第4のカメラ40、・
・・、第nのカメラ50で撮影した第3の画像信号3
1、第4の画像信号41、・・・、第nの画像信号5
1、第3の視点位置信号32、第4の視点位置信号4
2、・・・、第nの視点位置信号52、第3の焦点距離
信号33、第4の焦点距離信号43、・・・、第nの焦
点距離信号53、前記奥行き信号68を入力として、第
3の対応画素信号132、第4の対応画素信号142、
・・・、第nの対応画素信号152を出力する。
【0089】前記第1の対応画素信号112、第2の対
応画素信号122、第3の対応画素信号132、第4の
対応画素信号142、・・・、第nの対応画素信号15
2をまとめて画素信号群6とし、この信号を伝送する配
線を図2中で薄くハッチングして示す。同様に前記切り
出された第1の視点位置信号12、第2の視点位置信号
22、第3の視点位置信号32、第4の視点位置信号4
2、・・・、第nの視点位置信号52をまとめて視点位
置信号群5とし、この信号を伝送する配線を図2中で濃
くハッチングして示す。
【0090】前記画素信号群6と前記視点位置信号群5
は、第1の近傍画素平均計算手段113に入力する。第
1の近傍画素平均計算手段113は第1のカメラ10の
視点からあらかじめ指定した距離C内の視点を持つカメ
ラで撮影された画素信号を選択して平均を計算し、第1
の画素値平均信号114を出力する。同様に第2の近傍
画素平均計算手段123、第3の近傍画素平均計算手段
133、第4の近傍画素平均計算手段143、・・・、
第nの近傍画素平均計算手段153は、前記画素信号群
6と前記視点位置信号群5とが入力され、それぞれ第2
のカメラ20、第3のカメラ30、第4のカメラ40、
・・・、第nのカメラ50の視点からあらかじめ指定し
た距離C内の視点を持つカメラで撮影された画素信号を
選択して平均を計算し、第2の画素平均信号124、第
3の画素平均信号134、第4の画素平均信号144、
・・・、第nの画素平均信号154を出力する。
【0091】前記第1の対応画素信号112と前記第1
の画素平均信号114は第1の差分計算手段18に入力
する。第1の差分計算手段18は式(4)に基づき両信
号の差分の二乗和を計算し、差分信号群70のうちの一
つとして出力する。同様に第2の差分計算手段28、第
3の差分計算手段38、第4の差分計算手段48、・・
・、第nの差分計算手段58はそれぞれ前記第2の画素
平均信号122、第3の画素平均信号132、第4の画
素平均信号142、・・・、第nの画素平均信号152
と前記第2の対応画素信号124、第3の対応画素信号
134、第4の対応画素信号144、・・・、第nの対
応画素信号154を入力とし、差分信号群70の一つ一
つを出力する。前記差分信号群70は総和計算手段60
に入力される。総和計算手段60は差分の総和を計算
し、差分総和信号61を出力する。
【0092】前記差分総和信号61、前記基準画素位置
信号66及び前記奥行き信号68は最少コスト奥行き選
択手段62へと入力される。最少コスト奥行き選択手段
62は、調べる奥行きの範囲zmin からzmax において
も最も差分総和が小さな奥行きを選択し、三次元構造推
定信号63として出力すると同時にカウント指令信号6
4を出力し、基準画素位置x1の更新を指令する。
【0093】前記カウント指令信号64は基準画素位置
カウンタ手段65に入力する。基準画素位置カウンタ手
段65は調べる奥行きの範囲内で最も差分総和が小さな
奥行きが決定される度毎に、基準となる前記カメラ10
での画素位置x1を更新し、基準画素位置信号66を出
力する。前記基準画素位置信号66は奥行きカウンタ手
段67へと入力されて、基準となる画素位置x1が更新
されるたびに、奥行きzを、調べる奥行き範囲内zmin
からzmax をスキャンしながら、奥行き信号68を出力
する。
【0094】この第2の実施例では、前記近傍画素平均
計算手段として式(3)に基づいた単純平均処理を行な
うとしたが、注目している視点からの画素を推定する処
理であればこれに限定されず他の処理でも構わない。ま
た前記差分計算手段は、前記対応画素信号と前記画素平
均信号との差分の二乗和を出力すると記したが、画素間
の距離として用いることが可能なものであれば二乗和で
なくても構わない。また図8に例示したように複数の視
点にカメラが複数置かれているとしたが、実際には視点
が複数でありさえすればよく、一つのカメラを移動させ
ながら撮影するなど、カメラは複数でなくとも構わな
い。
【0095】図3は本発明に係る三次元構造推定装置の
第3の実施例の構成を示すブロック図である。
【0096】第1の対応小領域抽出手段14には第1の
画像信号11を伝送する配線と、第1の視点位置信号1
2を伝送する配線と、第1の焦点距離信号13を伝送す
る配線と、第1の対応小領域信号15を伝送する配線
と、基準画素位置信号68を伝送する配線とが接続され
ている。
【0097】第2の対応小領域抽出手段24には第2の
画像信号21を伝送する配線と、第2の視点位置信号2
2を伝送する配線と、第2の焦点距離信号23を伝送す
る配線と、第2の対応小領域信号25を伝送する配線
と、基準画素位置信号68を伝送する配線と、奥行き信
号68を伝送する配線とが接続されている。
【0098】第3の対応小領域抽出手段34には第3の
画像信号31を伝送する配線と、第3の視点位置信号3
2を伝送する配線と、第3の焦点距離信号33を伝送す
る配線と、第3の対応小領域信号35を伝送する配線
と、基準画素位置信号68を伝送する配線と、奥行き信
号68を伝送する配線とが接続されている。
【0099】第4の対応小領域抽出手段44には第4の
画像信号41を伝送する配線と、第4の視点位置信号4
2を伝送する配線と、第4の焦点距離信号43を伝送す
る配線と、第4の対応小領域信号45を伝送する配線
と、基準画素位置信号68を伝送する配線と、奥行き信
号68を伝送する配線とが接続されている。
【0100】第nの対応小領域抽出手段54には第nの
画像信号51を伝送する配線と、第nの視点位置信号5
2を伝送する配線と、第nの焦点距離信号53を伝送す
る配線と、第nの対応小領域信号55を伝送する配線
と、基準画素位置信号68を伝送する配線と、奥行き信
号68を伝送する配線とが接続されている。
【0101】前記第1の視点位置信号12を伝送する配
線、第2の視点位置信号22を伝送する配線、第3の視
点位置信号32を伝送する配線、第4の視点位置信号4
2を伝送する配線、・・・、第nの視点位置信号52を
伝送する配線のそれぞれは、それぞれの対応小領域抽出
手段に接続する他に途中で枝分かれし、視点位置信号群
5を伝送する配線に接続する。この視点位置信号群5を
伝送する配線は第1から第nの近傍小領域分散計算手段
に接続している。
【0102】前記第1の対応小領域信号15を伝送する
配線、第2の対応小領域信号25を伝送する配線、第3
の対応小領域信号35を伝送する配線、第4の対応小領
域信号45を伝送する配線、・・・、第nの対応小領域
信号55を伝送する配線のそれぞれは小領域信号群4を
伝送する配線に接続する。この小領域信号群4を伝送す
る配線は第1から第nの近傍小領域分散計算手段に接続
している。
【0103】第1から第nの近傍小領域分散計算手段の
それぞれには前記視点位置信号群5を伝送する配線、小
領域信号群4を伝送する配線の他に、分散信号を伝送す
る配線が接続している。
【0104】総和計算手段60は、前記第1から第nの
分散計算手段から出力された分散信号を伝送するそれぞ
れの配線と分散総和信号69を伝送する配線とが接続さ
れている。
【0105】最小コスト奥行き選択手段62には、三次
元構造推定信号63を伝送する配線と、カウント指令信
号64を伝送する配線と、基準画素位置信号66を伝送
する配線と、奥行き信号68を伝送する配線と、前記分
散総和信号69を伝送する配線とが接続されている。
【0106】基準画素位置カウンタ手段65にはカウン
ト指令信号64を伝送する配線と、基準画素位置信号6
6を伝送する配線とが接続されている。
【0107】奥行きカウンタ手段67には基準画素位置
信号66を伝送する配線と、奥行き信号68を伝送する
配線とが接続されている。
【0108】第1のカメラ10で撮影した第1の画像信
号11、第1の視点位置信号12及び第1の焦点距離信
号13は、後述する基準画素位置カウンタ手段65から
出力される第1のカメラ10における基準画素位置信号
66と共に、第1の対応小領域抽出手段14に入力す
る。第1の対応小領域抽出手段14は基準画素位置x1
の画素値を取り出し、この画素を中心に5×5画素の大
きさの小領域を切り出し、第1の対応小領域信号15と
して出力する。
【0109】第2のカメラ20で撮影した第2の画像信
号21、第2の視点位置信号22及び第2の焦点距離信
号23は、後述する奥行きカウンタ手段67から出力さ
れる奥行き信号68と共に、第2の対応小領域抽出手段
24に入力する。第2の対応小領域抽出手段24は式
(2)によりx1、F及びzから計算した対応する座標
位置x2を中心とした5×5画素の大きさの小領域を切
り出し、これを第2の対応小領域信号25として出力す
る。同様に第3の対応小領域抽出手段34、第4の対応
小領域抽出手段44、・・・、第nの対応小領域抽出手
段54は、それぞれ第3のカメラ30、第4のカメラ4
0、・・・、第nのカメラ50で撮影した第3の画像信
号31、第4の画像信号41、・・・、第nの画像信号
51、第3の視点位置信号32、第4の視点位置信号4
2、・・・、第nの視点位置信号52、第3の焦点距離
信号33、第4の焦点距離信号43、・・・、第nの焦
点距離信号53、前記奥行き信号68を入力として、第
3の対応小領域信号35、第4の対応小領域信号45、
・・・、第nの対応小領域信号55を出力する。
【0110】前記切り出された第1の対応小領域信号1
5、第2の対応小領域信号25、第3の対応小領域信号
35、第4の対応小領域信号45、・・・、第nの対応
小領域信号55をまとめて小領域信号群4とし、この信
号を伝送する配線を図3中で薄くハッチングして示す。
同様に前記切り出された第1の視点位置信号12、第2
の視点位置信号22、第3の視点位置信号32、第4の
視点位置信号42、・・・、第nの視点位置信号52を
まとめて視点位置信号群5とし、この信号を伝送する配
線を図3中で濃くハッチングして示す。
【0111】前記小領域信号群4と前記視点位置信号群
5は、第1の近傍小領域分散計算手段115に入力され
る。第1の近傍小領域分散計算手段115は第1のカメ
ラ10の視点からあらかじめ指定した距離C内の視点を
持つカメラで撮影された小領域信号を選択し、式(5)
に基づいて分散を計算し、分散信号群71のうちの1つ
を出力する。同様に第2の近傍小領域分散計算手段12
5、第3の近傍小領域分散計算手段135、第4の近傍
小領域分散計算手段145、・・・、第nの近傍小領域
分散計算手段155は、前記小領域信号群4と前記視点
位置信号群5を入力し、それぞれ第2のカメラ20、第
3のカメラ30、第4のカメラ40、・・・、第nのカ
メラ50の視点からあらかじめ指定した距離C内の視点
を持つカメラで撮影された小領域信号を選択し、式
(5)に基づいて分散を計算し、分散信号群71の1つ
1つを出力する。
【0112】前記分散信号群71は、総和計算手段60
に入力される。総和計算手段60は分散の総和を計算
し、分散総和信号69を出力する。
【0113】前記分散総和信号69、前記基準画素位置
信号66及び前記奥行き信号68は最少コスト奥行き選
択手段62へと入力される。最少コスト奥行き選択手段
62は調べる奥行きの範囲zmin からzmax においても
最も分散総和が小さな奥行きを選択し、三次元構造推定
信号63として出力する。同時にカウント指令信号64
を出力し、基準画素位置x1の更新を指令する。
【0114】前記カウント指令信号64は基準画素位置
カウンタ手段65に入力される。基準画素位置カウンタ
手段65は調べる奥行きの範囲内で最も分散総和が小さ
な奥行きが決定される度毎に、基準となる前記カメラ1
0での小領域位置x1を更新し、基準画素位置信号66
を出力する。前記画素位置信号66は奥行きカウンタ手
段67へと入力する。奥行きカウンタ手段67は基準と
なる小領域位置x1が更新されるたびに、奥行きzを、
調べる奥行き範囲内zmin からzmax をスキャンしなが
ら、奥行き信号68を出力する。
【0115】この第3の実施例では、小領域の大きさと
して5×5画素の大きさを用いたが、別の大きさでも構
わない。また基準となる画素位置を定めるカメラとして
第1のカメラ10と記したが、どのカメラを基準として
も構わない。前記近傍小領域分散計算手段として式
(5)に基づいた単純分散処理を行なうと記したが、注
目している視点からの小領域を推定する処理であれば他
の処理でも構わない。また前記分散計算手段は、前記対
応小領域信号と前記小領域分散信号との分散の二乗和を
出力するとしたが、画素間の距離として用いることが可
能なものであればどれを用いても構わない。また図8に
例示したように複数の視点にカメラが複数置かれている
としたが、実際には視点が複数でありさえすればよく、
一つのカメラを移動させながら撮影するなど、カメラは
複数でなくとも構わない。
【0116】図4は本発明に係る三次元構造推定装置の
第4の実施例の構成を示したブロック図である。
【0117】回路構成としては、第3の実施例において
説明した回路構成において、第1から第nの対応小領域
抽出手段のそれぞれを第1から第nの対応画素抽出手段
に、第1から第nの近傍小領域分散計算手段を第1から
第nの近傍画素分散計算手段に置き換えたものとなって
いる。ただし、第1から第nの対応小領域信号のそれぞ
れが第1から第nの対応画素信号に置き換わる。
【0118】第1のカメラ10で撮影した第1の画像信
号11、第1の視点位置信号12及び第1の焦点距離信
号13は、後述する基準画素位置カウンタ手段65から
出力される第1のカメラ10における基準画素位置信号
66と共に、第1の対応画素抽出手段111に入力す
る。第1の対応画素抽出手段111は基準画素位置x1
の画素値を取り出し、第1の対応画素信号112を出力
する。
【0119】第2のカメラ20で撮影した第2の画像信
号21、第2の視点位置信号22及び第2の焦点距離信
号23は、後述する奥行きカウンタ手段67から出力さ
れる奥行き信号68と共に、第2の対応画素抽出手段1
21に入力する。第2の対応画素抽出手段121は式
(2)にx1、F及びz代入することにより得られる座
標位置x2における画素値を取り出し、第2の対応画素
信号122として出力する。同様に第3の対応画素抽出
手段131、第4の対応画素抽出手段141、・・・、
第nの対応画素抽出手段151は、それぞれ第3のカメ
ラ30、第4のカメラ40、・・・、第nのカメラ50
で撮影した第3の画像信号31、第4の画像信号41、
・・・、第nの画像信号51、第3の視点位置信号3
2、第4の視点位置信号42、・・・、第nの視点位置
信号52、第3の焦点距離信号33、第4の焦点距離信
号43、・・・、第nの焦点距離信号53、前記奥行き
信号68を入力として、第3の対応画素信号132、第
4の対応画素信号142、・・・、第nの対応画素信号
152を出力する。
【0120】前記切り出された第1の対応画素信号11
2、第2の対応画素信号122、第3の対応画素信号1
32、第4の対応画素信号142、・・・、第nの対応
画素信号152をまとめて画素信号群6とし、この信号
を伝送する配線を図4中で薄くハッチングして示す。同
様に前記切り出された第1の視点位置信号12、第2の
視点位置信号22、第3の視点位置信号32、第4の視
点位置信号42、・・・、第nの視点位置信号52をま
とめて視点位置信号群5とし、この信号を伝送する配線
を図4中で濃くハッチングして示す。
【0121】前記視点位置信号群5と前記画素信号群6
とは、第1の近傍画素分散計算手段117に入力する。
第1の近傍画素分散計算手段117は第1のカメラ10
の視点からあらかじめ指定した距離C内の視点を持つカ
メラで撮影された小領域信号を選択し、式(5)に基づ
いて分散を計算し、分散信号群71のうちの1つを出力
する。同様に第2の近傍画素分散計算手段127、第3
の近傍画素分散計算手段137、第4の近傍画素分散計
算手段147、・・・、第nの近傍画素分散計算手段1
57は、前記画素信号群6と前記視点位置信号群5を入
力し、それぞれ第2のカメラ20、第3のカメラ30、
第4のカメラ40、・・・、第nのカメラ50の視点か
らあらかじめ指定した距離C内の視点を持つカメラで撮
影された画素信号を選択し、式(5)に基づいて分散を
計算し、分散信号群71の1つ1つを出力する。
【0122】前記分散信号群71は、総和計算手段60
に入力される。総和計算手段60は分散の総和を計算
し、分散総和信号69を出力する。
【0123】前記分散総和信号69、前記基準画素位置
信号66及び前記奥行き信号68は最少コスト奥行き選
択手段62へと入力される。最少コスト奥行き選択手段
62は、調べる奥行きの範囲zmin からzmax において
も最も分散総和が小さな奥行きを選択し、三次元構造推
定信号63として出力する。同時にカウント指令信号6
4を出力し、基準画素位置x1の更新を指令する。
【0124】前記カウント指令信号64は基準画素位置
カウンタ手段65に入力される。基準画素位置カウンタ
65は調べる奥行きの範囲zmin からzmax 内で最も分
散総和が小さな奥行きが決定される度毎に、基準となる
前記カメラ10での画素位置x1を更新し、基準画素位
置信号66を出力する。
【0125】前記基準画素位置信号66は奥行きカウン
タ手段67へと入力される。奥行きカウンタ手段67は
基準となる画素位置が更新される毎に、奥行きzを、調
べるべき奥行き範囲zmin からzmax 内をスキャンしな
がら、奥行き信号68として出力する。
【0126】この第4の実施例では、基準となる画素位
置を定めるカメラとして第1のカメラ10と記したが、
どのカメラを基準としても構わない。前記近傍画素分散
計算手段として単純分散処理を行なうと記したが、注目
している視点からの画素を推定する方法であればなんで
も構わない。また図8に例示したような複数の視点にカ
メラが複数置かれているとしたが、実際には視点が複数
でありさえすればよく、一つのカメラを移動させながら
撮影するなど、カメラは複数でなくとも構わない。
【0127】
【発明の効果】以上の説明から明らかなように、本発明
の三次元構造推定方法及び装置によれば、基準視点にお
いて撮影した画像上の画素を含む小領域と、その近傍の
前記小領域に対応する対応小領域とを用いて平均を計算
し、各視点での小領域と前記平均との差分が最も小さく
なる奥行きを選択するので、精度の良い三次元構造推定
することができる。
【0128】また、基準視点において撮影した画像上の
画素と、その近傍の前記画素に対応する対応小画素とを
用いて平均画素を計算し、各視点での画素と前記平均画
素との差分が最も小さくなる奥行きを選択するので、精
度の良い三次元構造推定することができる。
【0129】また、基準視点において撮影した画像上の
画素を含む小領域と、その近傍の前記小領域に対応する
対応小領域とを用いて平均を計算し、各視点での小領域
の前記平均からのバラツキの和、つまり分散の和が最も
小さくなる奥行きを選択するので、精度の良い三次元構
造推定することができる。
【0130】さらに、基準視点において撮影した画像上
の画素と、その近傍の前記画素に対応する対応画素とを
用いて平均を計算し、各視点での画素の前記平均からの
バラツキの和、つまり分散の和が最も小さくなる奥行き
を選択するので、精度の良い三次元構造推定することが
できる。
【図面の簡単な説明】
【図1】本発明に係る三次元構造推定装置の構成を示す
ブロック図である。
【図2】本発明に係る三次元構造推定装置の構成を示す
ブロック図である。
【図3】本発明に係る三次元構造推定装置の構成を示す
ブロック図である。
【図4】本発明に係る三次元構造推定装置の構成を示す
ブロック図である。
【図5】本発明に係る小領域の平均を取る動作を示す図
である。
【図6】ステレオ法を行なう際の物体と視点の位置関係
を示す図である。
【図7】ステレオ法における物理的制約条件を示す図で
ある。
【図8】マルチベースラインステレオ法を行なう際の物
体と視点の位置関係を示す図である。
【図9】マルチベースラインステレオ法による小領域の
抽出を示す図である。
【図10】物体の表面に当たった光の反射を示す図であ
る。
【符号の説明】 10 第一のカメラ 11 第一の画像信号 12 第一の視点位置信号 13 第一の焦点距離信号 14 第一の対応小領域抽出手段 15 第一の対応小領域信号 16 第一の近傍小領域平均計算手段 17 第一の小領域平均信号 18 第一の差分計算手段 60 総和計算手段 61 差分総和信号 62 最小コスト奥行き選択手段 63 三次元構造推定信号 64 カウント指令信号 65 基準画素位置カウンタ手段 66 基準画素位置信号 67 奥行きカウンタ手段 68 奥行き信号 70 差分信号群 100 第一の三次元構造推定装置

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】 カメラで物体を撮影する位置である直線
    上に並んだ複数の視点において撮影されたそれぞれの画
    像から、カメラの焦点距離と、前記複数の視点の内の一
    つの視点である基準視点において撮影された画像の画素
    位置と、前記直線からの距離とで定まる基準視点以外の
    各視点の基準視点において撮影された画像の画素位置に
    対応する対応画素あるいは該画素位置を含む対応小領域
    を取り出す工程と、 前記各視点での対応画素を該視点の近傍視点における対
    応画素と比較するかあるいは前記対応小領域を該視点の
    近傍視点における対応小領域と該視点毎に比較する工程
    と、 前記視点毎の比較情報を総和して総和値を計算する工程
    と、 所定の範囲内の前記直線からの距離において、前記総和
    値が最も小さくなる直線からの距離を前記基準視点にお
    ける画素の奥行きとする工程と、 以上の工程を全画素について繰り返す工程とを有するこ
    とを特徴とする三次元構造推定方法。
  2. 【請求項2】 前記直線上に並んだ複数の視点は、カメ
    ラを直線上で移動させることにより形成されることを特
    徴とする請求項1記載の三次元構造推定方法。
  3. 【請求項3】 前記直線上に並んだ複数の視点は、視点
    の位置にカメラを配置させることにより形成されること
    を特徴とする請求項1記載の三次元構造推定方法。
  4. 【請求項4】 前記各視点での対応画素を該視点の近傍
    視点における対応画素と比較するかあるいは前記対応小
    領域を該視点の近傍視点における対応小領域と該視点毎
    に比較する工程は、 前記複数の視点の内の一つの視点における対応画素ある
    いは前記対応小領域と、前記一つの視点の近傍にある視
    点における前記対応画素あるいは前記対応小領域とを用
    いてこれらの画素値あるいは小領域の平均を各視点位置
    毎に計算し、前記一つの視点における前記対応画素ある
    いは対応小領域と、前記平均値との差分を、各視点位置
    毎に計算する工程であることを特徴とする請求項1から
    3のいずれかに記載の三次元構造推定方法。
  5. 【請求項5】 前記各視点での対応画素を該視点の近傍
    視点における対応画素と比較するかあるいは前記対応小
    領域を該視点の近傍視点における対応小領域と該視点毎
    に比較する工程は、 前記複数の視点の内の一つの視点における対応画素ある
    いは前記対応小領域と、前記一つの視点の近傍にある視
    点における前記対応画素あるいは前記対応小領域とを用
    いて各視点位置毎に各対応画素毎あるいは対応小領域毎
    の分散の和を計算する工程であることを特徴とする請求
    項1から3のいずれかに記載の三次元構造推定方法。
  6. 【請求項6】 直線上に並んだ複数の視点の内の一つで
    ある基準視点において撮影された画像上の画素位置と、
    前記基準視点における視点位置と基準視点以外の視点に
    おける視点位置との間のそれぞれの距離と、カメラの焦
    点距離と、前記直線から奥行きと推定される点までの距
    離とにより決定される基準視点以外の視点において撮影
    されたそれぞれの画像上の前記画素位置に対応する位置
    にある画素を含む小領域を抽出する第1の対応小領域抽
    出手段と、 前記複数の視点の内の一つの視点における前記対応小領
    域と、前記一つの視点の近傍にある視点における前記対
    応小領域とを用いてこれらの小領域の平均値を各視点位
    置毎に計算する第1の近傍小領域平均計算手段と、 前記一つの視点における前記対応小領域と、前記平均値
    との差分を、各視点位置毎に計算する第1の差分計算手
    段と、 前記複数視点全ての前記差分の和である差分総和を計算
    する第1の総和計算手段と、 前記直線から奥行きと推定される点までの距離を変化さ
    せて前記差分総和が最も小さくなる距離を奥行きとして
    求めた後、画素位置を更新するための移動指令を出力す
    る第1の最小コスト奥行き選択手段と、 前記基準視点において撮影された画像上の画素位置を更
    新する第1の基準画素位置カウンタ手段と、 前記基準視点における画素位置を入力して、該画素位置
    が更新されると、調査範囲内の奥行きを順次出力する第
    1の奥行きカウンタ手段とを有することを特徴とする三
    次元構造推定装置。
  7. 【請求項7】 直線上に並んだ複数の視点の内の一つで
    ある基準視点において撮影された画像上の画素位置と、
    前記基準視点における視点位置と基準視点以外の視点に
    おける視点位置との間のそれぞれの距離と、カメラの焦
    点距離と、前記直線から奥行きと推定される点までの距
    離とにより決定される基準視点以外の視点において撮影
    されたそれぞれの画像上の前記画素位置に対応する位置
    にある画素を対応画素として抽出する第1の対応画素抽
    出手段と、 前記複数の視点の内の一つの視点における前記対応画素
    と、該視点の近傍の視点における前記対応画素とを用い
    てこれらの画素値の平均値を各視点位置毎に計算する第
    1の近傍画素平均計算手段と、 前記一つの視点における前記対応画素の画素値と、前記
    平均値との差分を、各視点位置毎に計算する第2の差分
    計算手段と、 前記複数視点全ての前記差分の和である差分総和を計算
    する第2の総和計算手段と、 前記直線から奥行きと推定される点までの距離を変化さ
    せて前記差分総和が最も小さくなる距離を奥行きとして
    求めた後、画素位置を更新するための移動指令を出力す
    る第2の最小コスト奥行き選択手段と、 前記基準視点において撮影された画像上の画素位置を更
    新する第2の基準画素位置カウンタ手段と、 前記基準視点における画素位置を入力して、該画素位置
    が更新されると、調査範囲内の奥行きを順次出力する第
    2の奥行きカウンタ手段とを有することを特徴とする三
    次元構造推定装置。
  8. 【請求項8】 直線上に並んだ複数の視点の内の一つで
    ある基準視点において撮影された画像上の画素位置と、
    前記基準視点における視点位置と、基準視点以外の視点
    における視点位置との間のそれぞれの距離と、カメラの
    焦点距離と、前記直線から奥行きと推定される点までの
    距離とにより決定される基準視点以外の視点において撮
    影されたそれぞれの画像上の前記画素位置に対応する位
    置にある画素を含む小領域を抽出する第2の対応小領域
    抽出手段と、 前記複数の視点の内の一つの視点における前記対応小領
    域と、前記一つの視点の近傍にある視点における前記対
    応小領域とを用いて各視点位置毎に各画素位置毎の分散
    を計算する第1の近傍分散計算手段と、 前記複数視点全ての前記分散の和である分散総和を計算
    する第3の総和計算手段と、 前記直線から奥行きと推定される点までの距離を変化さ
    せて前記分散総和が最も小さくなる距離を奥行きとして
    求めた後、画素位置を更新するための移動指令を出力す
    る第3の最小コスト奥行き選択手段と、 前記基準視点において撮影された画像上の画素位置を更
    新する第3の基準画素位置カウンタ手段と、 前記基準視点における画素位置を入力して、該画素位置
    が更新されると、調査範囲内の奥行きを順次出力する第
    3の奥行きカウンタ手段とを有することを特徴とする三
    次元構造推定装置。
  9. 【請求項9】 直線上に並んだ複数の視点の内の一つで
    ある基準視点において撮影された画像上の画素位置と、
    前記基準視点における視点位置と、基準視点以外の視点
    における視点位置との間のそれぞれの距離と、カメラの
    焦点距離と、前記直線から奥行きと推定される点までの
    距離とにより決定される基準視点以外の視点において撮
    影されたそれぞれの画像上の前記画素位置に対応する位
    置にある画素を抽出する第2の対応画素抽出手段と、 前記複数の視点の内の一つの視点における前記対応画素
    と、該視点の近傍にある視点における前記対応画素とを
    用いて各視点位置毎に各画素毎の分散を計算する第2の
    近傍分散計算手段と、 前記複数視点全ての前記分散の和である分散総和を計算
    する第4の総和計算手段と、 前記直線から奥行きと推定される点までの距離を変化さ
    せて前記分散総和が最も小さくなる距離を奥行きとして
    求めた後、画素位置を更新するための移動指令を出力す
    る第4の最小コスト奥行き選択手段と、 前記基準視点において撮影された画像上の画素位置を更
    新する第4の基準画素位置カウンタ手段と、 前記基準視点における画素位置を入力して、該画素位置
    が更新されると、調査範囲内の奥行きを順次出力する第
    4の奥行きカウンタ手段とを有することを特徴とする三
    次元構造推定装置。
  10. 【請求項10】 前記直線上に並んだ複数の視点は、カ
    メラを直線上で移動させることにより形成されることを
    特徴とする請求項6から9のいずれかに記載の三次元構
    造推定装置。
  11. 【請求項11】 前記直線上に並んだ複数の視点は、視
    点の位置にカメラを配置させることにより形成されるこ
    とを特徴とする請求項6から9のいずれかに記載の三次
    元構造推定装置。
  12. 【請求項12】 前記近傍の視点は、前記複数の視点の
    内の一つの視点の両隣の視点あることを特徴とする請求
    項6から9のいずれかに記載の三次元構造推定装置。
JP8272676A 1996-10-15 1996-10-15 三次元構造推定方法及び装置 Expired - Fee Related JP2910698B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP8272676A JP2910698B2 (ja) 1996-10-15 1996-10-15 三次元構造推定方法及び装置
US08/950,599 US6049625A (en) 1996-10-15 1997-10-15 Method of and an apparatus for 3-dimensional structure estimation
US09/487,875 US6480620B1 (en) 1996-10-15 2000-01-20 Method of and an apparatus for 3-dimensional structure estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8272676A JP2910698B2 (ja) 1996-10-15 1996-10-15 三次元構造推定方法及び装置

Publications (2)

Publication Number Publication Date
JPH10122838A true JPH10122838A (ja) 1998-05-15
JP2910698B2 JP2910698B2 (ja) 1999-06-23

Family

ID=17517246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8272676A Expired - Fee Related JP2910698B2 (ja) 1996-10-15 1996-10-15 三次元構造推定方法及び装置

Country Status (2)

Country Link
US (2) US6049625A (ja)
JP (1) JP2910698B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246261A1 (ja) * 2019-06-05 2020-12-10 ソニー株式会社 移動体、位置推定方法、およびプログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2910698B2 (ja) * 1996-10-15 1999-06-23 日本電気株式会社 三次元構造推定方法及び装置
US6169549B1 (en) * 1998-01-07 2001-01-02 Iengineer.Com, Inc. Method and apparatus for providing continuous level of detail
US6184889B1 (en) * 1998-10-13 2001-02-06 International Business Machines Corporation Method and apparatus for supporting non-power-two texture sizes for volume rendering
JP3518465B2 (ja) * 2000-02-18 2004-04-12 日本電気株式会社 被写体抽出装置、被写体抽出方法、及び被写体抽出プログラムを記録した記録媒体
JP3844989B2 (ja) * 2001-10-15 2006-11-15 浜松ホトニクス株式会社 ストローク情報測定装置及びストローク情報測定方法
US7489812B2 (en) * 2002-06-07 2009-02-10 Dynamic Digital Depth Research Pty Ltd. Conversion and encoding techniques
AUPS283602A0 (en) * 2002-06-07 2002-06-27 Dynamic Digital Depth Research Pty Ltd Improved conversion and encoding techniques
US7190826B2 (en) * 2003-09-16 2007-03-13 Electrical Geodesics, Inc. Measuring the location of objects arranged on a surface, using multi-camera photogrammetry
JP2007526457A (ja) * 2004-03-01 2007-09-13 イアティア イメージング プロプライアタリー リミティド 深度情報を含む画像の生成方法と装置
US7760962B2 (en) * 2005-03-30 2010-07-20 Casio Computer Co., Ltd. Image capture apparatus which synthesizes a plurality of images obtained by shooting a subject from different directions, to produce an image in which the influence of glare from a light is reduced
WO2006120690A2 (en) * 2005-05-13 2006-11-16 G.I. View Ltd. Endoscopic measurement techniques
US8917901B2 (en) * 2007-07-18 2014-12-23 Iatia Imaging Pty Ltd. Method and apparatus for determining the surface profile of an object
TR201811449T4 (tr) * 2012-11-07 2018-09-21 Artec Europe S A R L Üç boyutlu nesnelerin doğrusal boyutlarını gözetlemek için yöntem.
US8896747B2 (en) * 2012-11-13 2014-11-25 Qualcomm Technologies, Inc. Depth estimation based on interpolation of inverse focus statistics
US10554881B2 (en) * 2016-12-06 2020-02-04 Microsoft Technology Licensing, Llc Passive and active stereo vision 3D sensors with variable focal length lenses

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59182688A (ja) * 1983-03-31 1984-10-17 Toshiba Corp ステレオ視処理装置
US4875097A (en) * 1986-10-24 1989-10-17 The Grass Valley Group, Inc. Perspective processing of a video signal
US4873651A (en) * 1987-04-21 1989-10-10 Case Western Reserve University Method and apparatus for reconstructing three-dimensional surfaces from two-dimensional images
US4982438A (en) * 1987-06-02 1991-01-01 Hitachi, Ltd. Apparatus and method for recognizing three-dimensional shape of object
US5077608A (en) * 1990-09-19 1991-12-31 Dubner Computer Systems, Inc. Video effects system able to intersect a 3-D image with a 2-D image
JPH04329481A (ja) 1991-05-01 1992-11-18 Matsushita Electric Ind Co Ltd 3次元データ獲得方法及び3次元データ獲得装置
US5577130A (en) * 1991-08-05 1996-11-19 Philips Electronics North America Method and apparatus for determining the distance between an image and an object
JP3513219B2 (ja) * 1994-07-12 2004-03-31 キヤノン株式会社 対応点マッチング方法および装置
JP3539788B2 (ja) * 1995-04-21 2004-07-07 パナソニック モバイルコミュニケーションズ株式会社 画像間対応付け方法
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
US5768415A (en) * 1995-09-08 1998-06-16 Lucent Technologies Inc. Apparatus and methods for performing electronic scene analysis and enhancement
US5818959A (en) * 1995-10-04 1998-10-06 Visual Interface, Inc. Method of producing a three-dimensional image from two-dimensional images
JPH1062154A (ja) * 1996-08-15 1998-03-06 Oki Electric Ind Co Ltd 測定値処理方法、形状の再構成方法および形状の再構成装置
JP2910698B2 (ja) * 1996-10-15 1999-06-23 日本電気株式会社 三次元構造推定方法及び装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020246261A1 (ja) * 2019-06-05 2020-12-10 ソニー株式会社 移動体、位置推定方法、およびプログラム
US11989910B2 (en) 2019-06-05 2024-05-21 Sony Group Corporation Moving body and position estimation method

Also Published As

Publication number Publication date
JP2910698B2 (ja) 1999-06-23
US6049625A (en) 2000-04-11
US6480620B1 (en) 2002-11-12

Similar Documents

Publication Publication Date Title
JP2910698B2 (ja) 三次元構造推定方法及び装置
EP1343332B1 (en) Stereoscopic image characteristics examination system
KR100513055B1 (ko) 변이지도 및 깊이지도의 융합을 통한 3차원 장면 모델생성 장치 및 그 방법
US5383013A (en) Stereoscopic computer vision system
US6856314B2 (en) Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
US6847392B1 (en) Three-dimensional structure estimation apparatus
US7471809B2 (en) Method, apparatus, and program for processing stereo image
US7015951B1 (en) Picture generating apparatus and picture generating method
US7260243B2 (en) Intruding-object detection apparatus
EP2132707A2 (en) Calibrating a camera system
US6519358B1 (en) Parallax calculating apparatus, distance calculating apparatus, methods of the same, and information providing media
JP3008875B2 (ja) 被写体抽出装置
JP4394487B2 (ja) ステレオ画像処理装置
JP2000121319A (ja) 画像処理装置および画像処理方法、並びに提供媒体
JP3516118B2 (ja) 物体認識方法および物体認識装置
JPH05215547A (ja) ステレオ画像間対応点決定方法
JP2001153633A (ja) 立体形状検出方法および装置
JP2807137B2 (ja) 立体形状検出方法
JP3728460B2 (ja) ステレオカメラの最適配置決定方法とそのシステム
US6141439A (en) Apparatus for image measurement
JP3525712B2 (ja) 三次元画像撮像方法及び三次元画像撮像装置
JP2961140B2 (ja) 画像処理方法
JP2004117049A (ja) ステレオ画像処理装置およびステレオ画像処理方法
JPH11223516A (ja) 3次元画像撮像装置
JP2001319224A (ja) 3次元物体検出装置と3次元物体検出方法及び記録媒体

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990309

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080409

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090409

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100409

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110409

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120409

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120409

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130409

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140409

Year of fee payment: 15

LAPS Cancellation because of no payment of annual fees