JPH1021401A - 三次元情報処理装置 - Google Patents
三次元情報処理装置Info
- Publication number
- JPH1021401A JPH1021401A JP8192727A JP19272796A JPH1021401A JP H1021401 A JPH1021401 A JP H1021401A JP 8192727 A JP8192727 A JP 8192727A JP 19272796 A JP19272796 A JP 19272796A JP H1021401 A JPH1021401 A JP H1021401A
- Authority
- JP
- Japan
- Prior art keywords
- reliability
- subject
- imaging
- unit
- dimensional shape
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 三次元情報処理における信頼性の向上を図る
ことが可能な三次元情報処理装置を提供する。 【解決手段】 立体形状を有する被写体2から三次元の
情報を得て所定の情報処理を行う三次元情報処理装置に
おいて、所定の撮像系により被写体2を撮像する撮像ヘ
ッド部1と、この撮像ヘッド部1で撮像された撮像情報
から被写体2の立体形状を抽出するとともに、抽出され
た立体形状情報の信頼性を判定する撮像処理部13とを
有し、前記信頼性の結果を表示部8に表示する。これに
より、三次元情報処理における信頼性の向上を図る。
ことが可能な三次元情報処理装置を提供する。 【解決手段】 立体形状を有する被写体2から三次元の
情報を得て所定の情報処理を行う三次元情報処理装置に
おいて、所定の撮像系により被写体2を撮像する撮像ヘ
ッド部1と、この撮像ヘッド部1で撮像された撮像情報
から被写体2の立体形状を抽出するとともに、抽出され
た立体形状情報の信頼性を判定する撮像処理部13とを
有し、前記信頼性の結果を表示部8に表示する。これに
より、三次元情報処理における信頼性の向上を図る。
Description
【0001】
【発明の属する技術分野】本発明は、視差のある複数の
被写体を撮像し、その画像からCGやCAD等において
利用する事が可能な三次元情報を抽出する三次元情報処
理装置に関する。
被写体を撮像し、その画像からCGやCAD等において
利用する事が可能な三次元情報を抽出する三次元情報処
理装置に関する。
【0002】
【従来の技術】従来の物体の三次元形状を求める技術と
しては、大別して受動的手法と能動的手法がある。
しては、大別して受動的手法と能動的手法がある。
【0003】受動的手法の代表的なものがステレオ画像
法であり、これは2台のカメラを用いた三角測量を利用
するものである。この方法では、カメラで撮像された左
右の画像から同じものが写っている場所を探索し、その
位置のずれ量から被写体の三次元位置を計測するように
なっている。
法であり、これは2台のカメラを用いた三角測量を利用
するものである。この方法では、カメラで撮像された左
右の画像から同じものが写っている場所を探索し、その
位置のずれ量から被写体の三次元位置を計測するように
なっている。
【0004】また、能動的手法の代表的なものとして
は、光を投影して反射して帰ってくるまでの時間を計測
して距離を求める光レーダ型のレンジファインダやスリ
ット状の光パターンを投影して被写体に写るパターン形
状の変位等から三次元形状を測定するスリット状の光投
影法などがある。
は、光を投影して反射して帰ってくるまでの時間を計測
して距離を求める光レーダ型のレンジファインダやスリ
ット状の光パターンを投影して被写体に写るパターン形
状の変位等から三次元形状を測定するスリット状の光投
影法などがある。
【0005】また、2つの画像だけでなく、さらに多く
の画像を用いて、それらから求められる形状情報を統合
し三次元形状を形成するものもある。
の画像を用いて、それらから求められる形状情報を統合
し三次元形状を形成するものもある。
【0006】また、得られた三次元形状の信頼性判断に
関しては、例えば上記ステレオ画像法では、位置ズレ量
を輝度値の対応点抽出により求める場合の残差の大小や
相関を信頼性判断の代わりとしている。
関しては、例えば上記ステレオ画像法では、位置ズレ量
を輝度値の対応点抽出により求める場合の残差の大小や
相関を信頼性判断の代わりとしている。
【0007】
【発明が解決しようとする課題】しかしながら、上記従
来の技術においては、例えば上記ステレオ画像法の場合
では、残差が大きい場合、又は相関係数が小さい場合で
も撮像面に対する被写体の角度が大きかったり、装置か
ら被写体までの距離が大きかった場合に、対応点抽出結
果の最小誤差に起因する算出結果誤差が大きく、得られ
る三次元形状の信頼性が低かった。また、得られた立体
形状をその信頼性を踏まえた上で表示するということは
なされていなかった。
来の技術においては、例えば上記ステレオ画像法の場合
では、残差が大きい場合、又は相関係数が小さい場合で
も撮像面に対する被写体の角度が大きかったり、装置か
ら被写体までの距離が大きかった場合に、対応点抽出結
果の最小誤差に起因する算出結果誤差が大きく、得られ
る三次元形状の信頼性が低かった。また、得られた立体
形状をその信頼性を踏まえた上で表示するということは
なされていなかった。
【0008】そこで、本発明は上記事情に鑑みてなされ
たものであり、三次元情報処理における信頼性の向上を
図ることが可能な三次元情報処理装置を提供することを
目的とする。
たものであり、三次元情報処理における信頼性の向上を
図ることが可能な三次元情報処理装置を提供することを
目的とする。
【0009】
【課題を解決するための手段】上記課題を解決するため
に本発明は、立体形状を有する被写体から三次元の情報
を得て所定の情報処理を行う三次元情報処理装置におい
て、単数又は複数の光学系からなる撮像系により前記被
写体を撮像する撮像手段と、この撮像手段で撮像された
撮像情報から前記被写体の立体形状情報を抽出する立体
形状抽出手段と、この立体形状抽出手段により抽出され
た立体形状情報の信頼性を判定する信頼性判定手段とを
有することを特徴とする。
に本発明は、立体形状を有する被写体から三次元の情報
を得て所定の情報処理を行う三次元情報処理装置におい
て、単数又は複数の光学系からなる撮像系により前記被
写体を撮像する撮像手段と、この撮像手段で撮像された
撮像情報から前記被写体の立体形状情報を抽出する立体
形状抽出手段と、この立体形状抽出手段により抽出され
た立体形状情報の信頼性を判定する信頼性判定手段とを
有することを特徴とする。
【0010】また、上記課題を解決するために本発明
は、立体形状を有する被写体から三次元の情報を得て所
定の情報処理を行う三次元情報処理装置において、単数
又は複数の光学系からなる撮像系により前記被写体を撮
像する撮像手段と、この撮像手段で撮像された撮像情報
から前記被写体の立体形状情報を抽出する立体形状抽出
手段と、この立体形状抽出手段により抽出された立体形
状情報の信頼性を判定する信頼性判定手段と、この信頼
性判定手段の信頼性の判定結果に応じて前記立体形状情
報を加工表示する表示手段とを有することを特徴とす
る。
は、立体形状を有する被写体から三次元の情報を得て所
定の情報処理を行う三次元情報処理装置において、単数
又は複数の光学系からなる撮像系により前記被写体を撮
像する撮像手段と、この撮像手段で撮像された撮像情報
から前記被写体の立体形状情報を抽出する立体形状抽出
手段と、この立体形状抽出手段により抽出された立体形
状情報の信頼性を判定する信頼性判定手段と、この信頼
性判定手段の信頼性の判定結果に応じて前記立体形状情
報を加工表示する表示手段とを有することを特徴とす
る。
【0011】
【発明の実施の形態】以下、本発明の実施の形態を図面
を用いて詳細に説明する。
を用いて詳細に説明する。
【0012】(第1実施形態)まず、本発明の第1実施
形態について説明する。
形態について説明する。
【0013】図1は、本発明の第1実施形態に係る三次
元情報処理装置の概略の構成を示す構成図である。
元情報処理装置の概略の構成を示す構成図である。
【0014】図1に示したように、本実施形態における
三次元情報処理装置は、背面3の前面に存在する立体形
状を有した被写体2を撮像する撮像ヘッド部(カメラヘ
ッド)1とこの撮像ヘッド部1で撮像された画像に対し
各種画像処理を行う撮像処理部13とを備えた立体形状
抽出部12と、テキスト等の文章データを作成する文章
データ作成手段1001と、この文章データ作成手段1
001で作成された文章データと後述の2次元画像デー
タ演算部7から得られた被写体データとの合成、編集加
工が可能なデータ合成手段1000と、被写体2の2次
元画像データや文章データを表示するためのモニタ8
と、被写体2の2次元画像データや文章データを紙等に
プリントするプリンタ9と、被写体2を見る視点を移動
させたり被写体2の表示形態を変更したりデータ合成手
段1000による各データの合成及び編集作業をするた
めの操作手段11とを有して構成される。尚、本実施形
態において、使用者は操作手段11により、被写体2の
表示形態等を数種類選択可能であり、例えば自然画、被
写体2のエッジを線で表した線画又は被写体2の表面を
所定の大きさの平面の連続として表すポリゴン画等の画
像形態の中から選択可能である。
三次元情報処理装置は、背面3の前面に存在する立体形
状を有した被写体2を撮像する撮像ヘッド部(カメラヘ
ッド)1とこの撮像ヘッド部1で撮像された画像に対し
各種画像処理を行う撮像処理部13とを備えた立体形状
抽出部12と、テキスト等の文章データを作成する文章
データ作成手段1001と、この文章データ作成手段1
001で作成された文章データと後述の2次元画像デー
タ演算部7から得られた被写体データとの合成、編集加
工が可能なデータ合成手段1000と、被写体2の2次
元画像データや文章データを表示するためのモニタ8
と、被写体2の2次元画像データや文章データを紙等に
プリントするプリンタ9と、被写体2を見る視点を移動
させたり被写体2の表示形態を変更したりデータ合成手
段1000による各データの合成及び編集作業をするた
めの操作手段11とを有して構成される。尚、本実施形
態において、使用者は操作手段11により、被写体2の
表示形態等を数種類選択可能であり、例えば自然画、被
写体2のエッジを線で表した線画又は被写体2の表面を
所定の大きさの平面の連続として表すポリゴン画等の画
像形態の中から選択可能である。
【0015】ここで、上記撮像ヘッド部1は、装置から
みて右側に位置する撮像レンズ100Rと、左側に位置
する撮像レンズ100Lと、撮像環境に応じて照明光を
照射する照明部200とを備えている。尚、図1におい
て、10Lは、右側の撮像レンズ100Rの撮像範囲を
表し、10Rは、左側の撮像レンズ100Lの撮像範囲
を表す。また、撮像ヘッド部1は、撮像開始位置A0よ
り撮像終了位置Anまで任意の位置を移動しながら被写
体2を撮像するようになっている。尚、このときのA0
−An間の各撮像地点における撮像ヘッド部1の位置情
報は後述のカメラ姿勢位置検知部4に送出される。
みて右側に位置する撮像レンズ100Rと、左側に位置
する撮像レンズ100Lと、撮像環境に応じて照明光を
照射する照明部200とを備えている。尚、図1におい
て、10Lは、右側の撮像レンズ100Rの撮像範囲を
表し、10Rは、左側の撮像レンズ100Lの撮像範囲
を表す。また、撮像ヘッド部1は、撮像開始位置A0よ
り撮像終了位置Anまで任意の位置を移動しながら被写
体2を撮像するようになっている。尚、このときのA0
−An間の各撮像地点における撮像ヘッド部1の位置情
報は後述のカメラ姿勢位置検知部4に送出される。
【0016】また、上記撮像処理部13は、カメラ姿勢
位置検知部4と、画像メモリ5と、3次元画像データ演
算部6と、2次元画像データ演算部7とを備えている。
位置検知部4と、画像メモリ5と、3次元画像データ演
算部6と、2次元画像データ演算部7とを備えている。
【0017】上記撮像処理部13のカメラ姿勢位置検知
部4は、背面3から得られる情報を基に画像処理で撮像
ヘッド部1の位置情報を算出する手段とジャイロ等のセ
ンサにより撮像ヘッド部1の位置情報を算出する手段と
を具備した位置検出部を装着している。これにより、撮
像ヘッド部1の背面3に対する位置関係が分かるように
なっている。
部4は、背面3から得られる情報を基に画像処理で撮像
ヘッド部1の位置情報を算出する手段とジャイロ等のセ
ンサにより撮像ヘッド部1の位置情報を算出する手段と
を具備した位置検出部を装着している。これにより、撮
像ヘッド部1の背面3に対する位置関係が分かるように
なっている。
【0018】上記画像メモリ5は、撮像ヘッド1で得ら
れた画像データとカメラ姿勢位置検知部4で得られた撮
像ヘッド部1の位置情報とを記憶するメモリであり、右
側画像用の画像メモリ5Rと左側画像用の画像メモリ5
Lとで構成される。
れた画像データとカメラ姿勢位置検知部4で得られた撮
像ヘッド部1の位置情報とを記憶するメモリであり、右
側画像用の画像メモリ5Rと左側画像用の画像メモリ5
Lとで構成される。
【0019】上記3次元画像データ演算部6は、画像メ
モリ5に記憶された画像データ及びそれに対応する撮像
ヘッド部1の位置情報を基に被写体2の立体形状を演算
する演算部である。
モリ5に記憶された画像データ及びそれに対応する撮像
ヘッド部1の位置情報を基に被写体2の立体形状を演算
する演算部である。
【0020】上記2次元画像データ演算部7は、3次元
画像データ演算部6で得られた被写体2の3次元画像デ
ータから使用者の指定する画像形態での任意の視点から
見たときの被写体2の2次元画像データを演算する2次
元画像データの演算部である。
画像データ演算部6で得られた被写体2の3次元画像デ
ータから使用者の指定する画像形態での任意の視点から
見たときの被写体2の2次元画像データを演算する2次
元画像データの演算部である。
【0021】上記のような各構成の三次元情報処理装置
により、使用者がカメラヘツド1を被写体2に向け、図
示しないレリーズボタンを操作すると被写体2の撮像が
行われるとともに、最初の画像データが画像メモリ5に
記憶される。そして次に、使用者が撮像ヘッド部1を被
写体2を中心に任意の位置A0からAnへ移動させる
と、位置A0からAnへ移動している最中に、まず姿勢
位置検知部4が最初の撮像ヘッド部1の位置A0に対し
て位置および方向が所定量変化したことを検知する。こ
の姿勢位置検知部4による検知がなされると、位置A1
において2度目の撮像が行われ、以下順々にn度目まで
撮像が行われていく。
により、使用者がカメラヘツド1を被写体2に向け、図
示しないレリーズボタンを操作すると被写体2の撮像が
行われるとともに、最初の画像データが画像メモリ5に
記憶される。そして次に、使用者が撮像ヘッド部1を被
写体2を中心に任意の位置A0からAnへ移動させる
と、位置A0からAnへ移動している最中に、まず姿勢
位置検知部4が最初の撮像ヘッド部1の位置A0に対し
て位置および方向が所定量変化したことを検知する。こ
の姿勢位置検知部4による検知がなされると、位置A1
において2度目の撮像が行われ、以下順々にn度目まで
撮像が行われていく。
【0022】この時、画像データと姿勢位置検知部4に
より得られた撮像ヘッド部1の最初に撮像した位置およ
び方向に対する変位量は、画像メモリ5に記録される。
また、このとき姿勢位置検知部4によって撮像ヘッド部
1の位置および方向の少なくとも一方が所定位置より大
きく移動していた場合には後述する警告手段により警告
を行う。以下この動作を数回繰り返し、被写体2の距離
情報データを演算するのに十分な画像データが得られる
と図示しない撮像終了報知手段でその旨を使用者に知ら
せて撮像処理が終了する。
より得られた撮像ヘッド部1の最初に撮像した位置およ
び方向に対する変位量は、画像メモリ5に記録される。
また、このとき姿勢位置検知部4によって撮像ヘッド部
1の位置および方向の少なくとも一方が所定位置より大
きく移動していた場合には後述する警告手段により警告
を行う。以下この動作を数回繰り返し、被写体2の距離
情報データを演算するのに十分な画像データが得られる
と図示しない撮像終了報知手段でその旨を使用者に知ら
せて撮像処理が終了する。
【0023】撮像処理が終了すると、次に、3次元画像
データ演算部6では画像メモリ5に記憶された画像デー
タとこの画像データに対応する撮像ヘッド部1の位置情
報とに基づいて撮像した被写体2の3次元画像データを
演算する。また、2次元画像データ演算部7は被写体2
の3次元画像データから操作手段11によって選択され
た画像形態で、かつ被写体2を最初に撮像した位置から
見た2次元画像データを演算し、モニタ8に表示する。
このとき使用者が操作手段11を操作すると2次元画像
データ演算部7はそれに応じて演算を行い、任意の視点
から見た被写体像に変更して表示することができる。ま
た操作手段11を操作することによってモニタ8に表示
された被写体2の画像形態を種々の形態(自然画、ポリ
ゴン画等)に変更することもできる。
データ演算部6では画像メモリ5に記憶された画像デー
タとこの画像データに対応する撮像ヘッド部1の位置情
報とに基づいて撮像した被写体2の3次元画像データを
演算する。また、2次元画像データ演算部7は被写体2
の3次元画像データから操作手段11によって選択され
た画像形態で、かつ被写体2を最初に撮像した位置から
見た2次元画像データを演算し、モニタ8に表示する。
このとき使用者が操作手段11を操作すると2次元画像
データ演算部7はそれに応じて演算を行い、任意の視点
から見た被写体像に変更して表示することができる。ま
た操作手段11を操作することによってモニタ8に表示
された被写体2の画像形態を種々の形態(自然画、ポリ
ゴン画等)に変更することもできる。
【0024】そして、使用者は、撮像した被写体2を目
的に応じて視点、画像形態を変更した後、プリンタ9に
出力することができる。また、使用者は、データ合成手
段1000によってあらかじめ作成した文章データと、
2次元画像データ演算部7によって演算された被写体デ
ータとをモニタ8に表示しながら合成及び編集作業も可
能である。またこのときも被写体2の画像形態や視点を
変更したい場合は、操作手段11を操作することにより
可能である。
的に応じて視点、画像形態を変更した後、プリンタ9に
出力することができる。また、使用者は、データ合成手
段1000によってあらかじめ作成した文章データと、
2次元画像データ演算部7によって演算された被写体デ
ータとをモニタ8に表示しながら合成及び編集作業も可
能である。またこのときも被写体2の画像形態や視点を
変更したい場合は、操作手段11を操作することにより
可能である。
【0025】次に、上記立体形状抽出部12のより詳細
な構成を説明する。
な構成を説明する。
【0026】図2は、立体形状抽出部12の詳細、すな
わち撮像ヘッド部1及び撮像処理部13の詳細な構成を
示すブロック図である。
わち撮像ヘッド部1及び撮像処理部13の詳細な構成を
示すブロック図である。
【0027】立体形状抽出部12の詳細な構成は、図2
に示したように、前述のカメラ姿勢位置検出部4と、現
在撮像されている画像を格納する画像メモリ73,83
と、直近に撮像された画像を格納する画像メモリ75,
85と、撮像された画像のオーバーラップ部分を検出す
るオーバーラップ検出部92と、露光条件等の各種撮像
パラメータの設定状況等を音声で知らせる発音体97
と、ズームレンズからなる撮像レンズ100R,100
Lと、この撮像レンズ100R及び100Lからの光量
を調節する絞り101R,101Lと、CCD等で構成
されるイメージセンサ102R,102Lと、このイメ
ージセンサ102R,102Lからの信号をアナログ/
デジタル変換するA/D変換部103R,103Lと、
イメージセンサ102R,102Lからの信号を映像信
号に変換する映像信号処理部104R,104Lと、立
体情報(距離情報)を抽出したい物体と背面3とを分離
する被写体分離部105R,105Lと、撮像レンズ1
00R,100Lの焦点距離の調整を行うズーム制御部
106R,106Lと、焦点位置の調整を行うフォーカ
ス制御部107R,107Lと、絞り量の調整を行う絞
り制御部108R,108Lと、立体形状抽出部12全
体の制御を行うシステムコントローラ210と、図1で
示した画像メモリ5、3次元画像データ演算部6及び2
次元画像データ演算部7を含む画像処理部220と、撮
像開始時に操作されるレリーズボタン230と、露光条
件等の各種撮像パラメータの設定状況等を表示する表示
部240と、画像処理部220に接続されて所定の画像
データ等を記録する記録部250と、左右差補正に必要
な信号を検出する左右差検出部260と、合焦状態の検
出を行う合焦検出部270と、イメージセンサ102
R,102Lを駆動制御するイメージセンサドライバ2
80R,280Lと、外部機器との接続を可能とする外
部入力I/F760とを具備したものとなっている。
に示したように、前述のカメラ姿勢位置検出部4と、現
在撮像されている画像を格納する画像メモリ73,83
と、直近に撮像された画像を格納する画像メモリ75,
85と、撮像された画像のオーバーラップ部分を検出す
るオーバーラップ検出部92と、露光条件等の各種撮像
パラメータの設定状況等を音声で知らせる発音体97
と、ズームレンズからなる撮像レンズ100R,100
Lと、この撮像レンズ100R及び100Lからの光量
を調節する絞り101R,101Lと、CCD等で構成
されるイメージセンサ102R,102Lと、このイメ
ージセンサ102R,102Lからの信号をアナログ/
デジタル変換するA/D変換部103R,103Lと、
イメージセンサ102R,102Lからの信号を映像信
号に変換する映像信号処理部104R,104Lと、立
体情報(距離情報)を抽出したい物体と背面3とを分離
する被写体分離部105R,105Lと、撮像レンズ1
00R,100Lの焦点距離の調整を行うズーム制御部
106R,106Lと、焦点位置の調整を行うフォーカ
ス制御部107R,107Lと、絞り量の調整を行う絞
り制御部108R,108Lと、立体形状抽出部12全
体の制御を行うシステムコントローラ210と、図1で
示した画像メモリ5、3次元画像データ演算部6及び2
次元画像データ演算部7を含む画像処理部220と、撮
像開始時に操作されるレリーズボタン230と、露光条
件等の各種撮像パラメータの設定状況等を表示する表示
部240と、画像処理部220に接続されて所定の画像
データ等を記録する記録部250と、左右差補正に必要
な信号を検出する左右差検出部260と、合焦状態の検
出を行う合焦検出部270と、イメージセンサ102
R,102Lを駆動制御するイメージセンサドライバ2
80R,280Lと、外部機器との接続を可能とする外
部入力I/F760とを具備したものとなっている。
【0028】ここで、上記システムコントローラ210
は、図3に示すように主に全体制御を司るマイクロコン
ピユーター900と、全体制御に必要なプログラムや撮
像された画像データ等を記憶するメモリ910と、この
メモリ910等に記憶された画像データ等に対し所定の
演算処理を行う画像演算処理部920とから構成されて
いる。
は、図3に示すように主に全体制御を司るマイクロコン
ピユーター900と、全体制御に必要なプログラムや撮
像された画像データ等を記憶するメモリ910と、この
メモリ910等に記憶された画像データ等に対し所定の
演算処理を行う画像演算処理部920とから構成されて
いる。
【0029】また、上記画像処理部220は、撮像レン
ズ100R及び100Lの各々より得られる映像信号か
ら被写体2の立体情報を抽出すると共に、抽出した各撮
像地点における被写体2の立体情報(距離情報)をカメ
ラ姿勢位置検出部4により得られる各撮像地点の姿勢に
関する情報に基づき統合し出力するものである。
ズ100R及び100Lの各々より得られる映像信号か
ら被写体2の立体情報を抽出すると共に、抽出した各撮
像地点における被写体2の立体情報(距離情報)をカメ
ラ姿勢位置検出部4により得られる各撮像地点の姿勢に
関する情報に基づき統合し出力するものである。
【0030】図4は、上記画像処理部220のより詳細
な構成を示したブロック図であり、主に画像処理部22
0における距離情報の抽出及び信頼性評価に係る構成部
分を示したものである。
な構成を示したブロック図であり、主に画像処理部22
0における距離情報の抽出及び信頼性評価に係る構成部
分を示したものである。
【0031】上記画像処理部220は、所定の画像メモ
リに蓄えられた左画像(L画像)と右画像(R画像)と
で構成されるステレオ画像110から距離情報を抽出す
るものであり、図4に示したように、ステレオ画像11
0からエッジを抽出した画像を生成するエッジ抽出処理
部111(111R,111L)と、ステレオ画像11
0のそれぞれの画素がどういう対応関係になっているか
を抽出するステレオ画像対応点抽出処理部112と、エ
ッジ抽出処理部111にてエッジ画像にされた2つの画
像中のそれぞれの画素がどういう対応関係になっている
かを抽出するエッジ画像対応点抽出処理部113と、ス
テレオ画像対応点抽出処理部112及びエッジ画像対応
点抽出処理部113のそれぞれで導出された対応関係に
矛盾する事はないかを判別し、その矛盾箇所は除去する
矛盾等排除処理部114と、導出された対応点箇所と対
応点を求める途中で使用している相関の程度を表す指
数、例えば残差でオクルージョン領域を判断するオクル
ージョン領域判定処理部115と、対応点の関係から三
角測量の原理で距離情報分布を算出する距離情報分布算
出処理部116と、背面部の特徴点を同定する特徴点抽
出部117(117R,117L)と、背面部の特徴点
を利用して撮像パラメータや姿勢や移動関係を取得する
補正データ算出処理部118と、信頼性を判定する信頼
性判定部130とを有して構成される。
リに蓄えられた左画像(L画像)と右画像(R画像)と
で構成されるステレオ画像110から距離情報を抽出す
るものであり、図4に示したように、ステレオ画像11
0からエッジを抽出した画像を生成するエッジ抽出処理
部111(111R,111L)と、ステレオ画像11
0のそれぞれの画素がどういう対応関係になっているか
を抽出するステレオ画像対応点抽出処理部112と、エ
ッジ抽出処理部111にてエッジ画像にされた2つの画
像中のそれぞれの画素がどういう対応関係になっている
かを抽出するエッジ画像対応点抽出処理部113と、ス
テレオ画像対応点抽出処理部112及びエッジ画像対応
点抽出処理部113のそれぞれで導出された対応関係に
矛盾する事はないかを判別し、その矛盾箇所は除去する
矛盾等排除処理部114と、導出された対応点箇所と対
応点を求める途中で使用している相関の程度を表す指
数、例えば残差でオクルージョン領域を判断するオクル
ージョン領域判定処理部115と、対応点の関係から三
角測量の原理で距離情報分布を算出する距離情報分布算
出処理部116と、背面部の特徴点を同定する特徴点抽
出部117(117R,117L)と、背面部の特徴点
を利用して撮像パラメータや姿勢や移動関係を取得する
補正データ算出処理部118と、信頼性を判定する信頼
性判定部130とを有して構成される。
【0032】ここで、上記信頼性判定部130は、オク
ルージョン領域判定処理部115からの出力や距離情報
分布算出処理部116の処理結果、並びに補正データ算
出処理部118からの撮像パラメータ及び位置情報を基
に、その導出された距離情報がどの程度の信頼性がある
かを判定し、その信頼度のレベルに応じた信頼性情報を
導出された距離情報に付加するものである。
ルージョン領域判定処理部115からの出力や距離情報
分布算出処理部116の処理結果、並びに補正データ算
出処理部118からの撮像パラメータ及び位置情報を基
に、その導出された距離情報がどの程度の信頼性がある
かを判定し、その信頼度のレベルに応じた信頼性情報を
導出された距離情報に付加するものである。
【0033】図5は、上記画像処理部220のより詳細
な構成を示したブロック図であり、主に画像処理部22
0における被写体2の距離情報の統合に係る構成部分を
示したものである。
な構成を示したブロック図であり、主に画像処理部22
0における被写体2の距離情報の統合に係る構成部分を
示したものである。
【0034】上記画像処理部220は、被写体2の距離
情報の統合処理を行うために、図5に示したように、上
記各手段で導出された一対のステレオ画像110からの
距離情報(Zt ij)120を各々統一された座標系に変
換する座標系変換部121と、この統一された座標系に
変換されたそれぞれの距離情報を統合していく距離情報
統合部122と、統合された距離情報を表示する表示部
124とを有している。また、上記画像処理部220
は、オクルージョン領域情報を統合部122及び表示部
124に送出する手段と、撮像ヘッド部1の移動量や方
向等を検知する手段をも備えている。
情報の統合処理を行うために、図5に示したように、上
記各手段で導出された一対のステレオ画像110からの
距離情報(Zt ij)120を各々統一された座標系に変
換する座標系変換部121と、この統一された座標系に
変換されたそれぞれの距離情報を統合していく距離情報
統合部122と、統合された距離情報を表示する表示部
124とを有している。また、上記画像処理部220
は、オクルージョン領域情報を統合部122及び表示部
124に送出する手段と、撮像ヘッド部1の移動量や方
向等を検知する手段をも備えている。
【0035】尚、上記でいう「統合」とは、少なくとも
2つ以上の任意の位置から得られた被写体2の距離情報
120のずれ情報に基づいて、各距離情報120を同一
座標系からみた距離情報にするように同一点は同一とす
る事である。また、上記でいう「統合」とは、後述の座
標の補間処理をする事、距離情報の信頼性情報からの信
頼係数を元に点又はエリアの座標の信頼性判断をする事
等の意味をも含むものである。
2つ以上の任意の位置から得られた被写体2の距離情報
120のずれ情報に基づいて、各距離情報120を同一
座標系からみた距離情報にするように同一点は同一とす
る事である。また、上記でいう「統合」とは、後述の座
標の補間処理をする事、距離情報の信頼性情報からの信
頼係数を元に点又はエリアの座標の信頼性判断をする事
等の意味をも含むものである。
【0036】次に、上記構成の三次元情報処理装置の動
作の説明を行う。
作の説明を行う。
【0037】まず、図2を参照して立体形状抽出部12
の詳細な動作について説明する。
の詳細な動作について説明する。
【0038】立体形状抽出部12において、被写体2の
画像は撮像レンズ100R及び100Lを通して入力さ
れる。この入力された被写体像はイメージセンサ102
R及び102Lにおいて電気信号に変換される。さら
に、この変換された信号は、A/D変換部103R及び
103Lにおいてアナログからデジタルの信号に変換さ
れて映像信号処理部104R及び104Lに供給され
る。
画像は撮像レンズ100R及び100Lを通して入力さ
れる。この入力された被写体像はイメージセンサ102
R及び102Lにおいて電気信号に変換される。さら
に、この変換された信号は、A/D変換部103R及び
103Lにおいてアナログからデジタルの信号に変換さ
れて映像信号処理部104R及び104Lに供給され
る。
【0039】映像信号処理部104R及び104Lで
は、デジタル化された被写体2の信号を、適切な形態の
輝度信号及び色信号に変換処理する。そして、被写体分
離部105R及び105Lでは、映像信号処理部104
R及び104Lより得られる信号をもとに、撮像される
被写体において、距離情報を計測して主被写体2と背面
3とを分離する。
は、デジタル化された被写体2の信号を、適切な形態の
輝度信号及び色信号に変換処理する。そして、被写体分
離部105R及び105Lでは、映像信号処理部104
R及び104Lより得られる信号をもとに、撮像される
被写体において、距離情報を計測して主被写体2と背面
3とを分離する。
【0040】この分離の方法としては、例えば予め背面
3の映像を撮像しておき、その画像を所定のメモリに保
持しその後測定したい主被写体2を置いて撮像を行い、
この撮像した映像と予めメモリに保持している背面3の
映像とにマッチング及び差分処理を施し、これにより背
面領域を分離する等の方法を用いる。尚、分離の方法は
これに限るものではなく色あるいはテクスチャの情報を
基に分離してもよい。
3の映像を撮像しておき、その画像を所定のメモリに保
持しその後測定したい主被写体2を置いて撮像を行い、
この撮像した映像と予めメモリに保持している背面3の
映像とにマッチング及び差分処理を施し、これにより背
面領域を分離する等の方法を用いる。尚、分離の方法は
これに限るものではなく色あるいはテクスチャの情報を
基に分離してもよい。
【0041】このように分離された主被写体2の映像
は、画像処理部220に与えられ、次にこの画像処理部
220において撮像時の各種撮像パラメータを基に立体
形状の抽出処理が施される。
は、画像処理部220に与えられ、次にこの画像処理部
220において撮像時の各種撮像パラメータを基に立体
形状の抽出処理が施される。
【0042】次に、図6のフローチャートにより、本発
明に係る三次元情報処理装置の撮像ヘッド部1の処理シ
ーケンスについて説明する。
明に係る三次元情報処理装置の撮像ヘッド部1の処理シ
ーケンスについて説明する。
【0043】まず、電源がONとなり(S1)、映像信
号が入力されるとコントローラ210は、各々の被写体
分離部105R及び105Lにより得られる映像信号を
画像演算処理部920により積分処理して図1に示す主
被写体2の輝度レベルを算出し(S2)、立体形状抽出
には不十分であると判断した場合には、照明部200を
点灯する(S3)。このとき、照明強度レベルは算出さ
れた輝度レベルに応じて可変としてもよい。
号が入力されるとコントローラ210は、各々の被写体
分離部105R及び105Lにより得られる映像信号を
画像演算処理部920により積分処理して図1に示す主
被写体2の輝度レベルを算出し(S2)、立体形状抽出
には不十分であると判断した場合には、照明部200を
点灯する(S3)。このとき、照明強度レベルは算出さ
れた輝度レベルに応じて可変としてもよい。
【0044】適切な輝度レベルに設定された各々の映像
信号を用いて次に焦点位置の調整を行う(S5)。この
とき、焦点位置が主被写体2と背面3の両方にピントが
合うようレンズ100R,100Lを移動させ、絞り1
08R,108Lを調節する。この時輝度レベルがある
程度以上に変化した場合には、照明200の強度を変化
させて対応する。あるいは、AGC(オートゲインコン
トロール)回路を組み込み電気的にレベル補正を行って
もよい。合焦状態の検出は、合焦検出部270において
行う。検出の方式としては、エッジの鮮鋭度あるいはボ
ケ量を検知するなどの方式が利用できる。
信号を用いて次に焦点位置の調整を行う(S5)。この
とき、焦点位置が主被写体2と背面3の両方にピントが
合うようレンズ100R,100Lを移動させ、絞り1
08R,108Lを調節する。この時輝度レベルがある
程度以上に変化した場合には、照明200の強度を変化
させて対応する。あるいは、AGC(オートゲインコン
トロール)回路を組み込み電気的にレベル補正を行って
もよい。合焦状態の検出は、合焦検出部270において
行う。検出の方式としては、エッジの鮮鋭度あるいはボ
ケ量を検知するなどの方式が利用できる。
【0045】焦点位置合わせを実行した後は、ズームの
調整を行う(S6)。
調整を行う(S6)。
【0046】図7は、ズーム調整の概略を示したもので
ある。主被写体2がほぼ焦点深度内に収まった状態で、
各々の撮像系100R及び100Lから得られる映像を
コントローラ210のメモリ910に保持すると共に、
画像演算処理部920においてオーバーラップ領域の検
出を行う。検出の方式は相関演算処理やテンプレートマ
ッチング処理等を利用する。
ある。主被写体2がほぼ焦点深度内に収まった状態で、
各々の撮像系100R及び100Lから得られる映像を
コントローラ210のメモリ910に保持すると共に、
画像演算処理部920においてオーバーラップ領域の検
出を行う。検出の方式は相関演算処理やテンプレートマ
ッチング処理等を利用する。
【0047】図7に示すように最初の状態でオーバーラ
ップ領域500を検出し、次にこの領域の面積が画面内
で大きくなる方向にコントローラ210はズーム値を設
定し、各々のズーム制御部106R及び106Lに制御
信号を出力する。
ップ領域500を検出し、次にこの領域の面積が画面内
で大きくなる方向にコントローラ210はズーム値を設
定し、各々のズーム制御部106R及び106Lに制御
信号を出力する。
【0048】図8に一連のズーム調整による画面内のオ
ーバーラップ領域の変化の概略を示す。図8においてオ
ーバーラップ領域の面積Pがピークとなるfをコントロ
ーラ210の画像演算処理部920が算出し、各々のズ
ーム制御部106R及び106Lに制御信号が与えられ
る。
ーバーラップ領域の変化の概略を示す。図8においてオ
ーバーラップ領域の面積Pがピークとなるfをコントロ
ーラ210の画像演算処理部920が算出し、各々のズ
ーム制御部106R及び106Lに制御信号が与えられ
る。
【0049】なお、この操作により焦点距離fが変換
し、その結果焦点深度の範囲がある程度以上に変化した
場合には、図6のパラメータ再調整のステップS200
(S1〜S5)に従い、絞り制御部108R及び108
Lに制御信号を与える。
し、その結果焦点深度の範囲がある程度以上に変化した
場合には、図6のパラメータ再調整のステップS200
(S1〜S5)に従い、絞り制御部108R及び108
Lに制御信号を与える。
【0050】また、以上の一連の調整ステップS100
(S1〜S7)後に、パラメータ再調整及び左右差補正
のステップS200の処理を施す。左右差補正は左右差
検出部260において露光量、焦点位置及びズーム値を
映像信号より検出する。検出された信号に基づきコント
ローラ210は各々のズーム制御部106R及び106
L、フォーカス制御部107R及び107L、絞り制御
部108R及び108Lに制御信号を与える。
(S1〜S7)後に、パラメータ再調整及び左右差補正
のステップS200の処理を施す。左右差補正は左右差
検出部260において露光量、焦点位置及びズーム値を
映像信号より検出する。検出された信号に基づきコント
ローラ210は各々のズーム制御部106R及び106
L、フォーカス制御部107R及び107L、絞り制御
部108R及び108Lに制御信号を与える。
【0051】尚、撮像時の各種撮像パラメータとして
は、例えば、焦点距離の設定があり、この焦点距離の設
定は、以下の方法により設定できる。
は、例えば、焦点距離の設定があり、この焦点距離の設
定は、以下の方法により設定できる。
【0052】まず、距離情報は以下の式1により表すこ
とができるので、 Z=fb/d (式1) (ここで、Z:距離、f:焦点距離、b:基線長、d:
視差を示す。) 従って、焦点距離は視差によりきまる距離分解能をパラ
メータとして以下のようになる。
とができるので、 Z=fb/d (式1) (ここで、Z:距離、f:焦点距離、b:基線長、d:
視差を示す。) 従って、焦点距離は視差によりきまる距離分解能をパラ
メータとして以下のようになる。
【0053】
【数1】
【0054】
【数2】 従って、外部入力1/F760を通してコンピユータ等
から分解能を設定し、この値を基に焦点距離を設定する
ことも可能である。
から分解能を設定し、この値を基に焦点距離を設定する
ことも可能である。
【0055】次に、S100及びS200のステップに
より、撮像パラメータが調整されると、コントローラ2
10は、表示部240に信号を与えパラメータ設定の終
了を使用者に知らせる(S8)。尚、表示部240は、
CRT、LCD等のディスプレイでもいいし、LED等
による簡易表示でもよい。また、表示と合わせて音を発
生してもよいことはいうまでもない。
より、撮像パラメータが調整されると、コントローラ2
10は、表示部240に信号を与えパラメータ設定の終
了を使用者に知らせる(S8)。尚、表示部240は、
CRT、LCD等のディスプレイでもいいし、LED等
による簡易表示でもよい。また、表示と合わせて音を発
生してもよいことはいうまでもない。
【0056】パラメータ設定の終了が終わると、使用者
は、撮像ヘッド部1を移動させながら適当な間隔でシャ
ッターをきり、映像を入力する(S9〜S11)。尚、
この際、移動速度の検出や、撮像ヘッド部1の検出等も
行われている(S12〜S14)。
は、撮像ヘッド部1を移動させながら適当な間隔でシャ
ッターをきり、映像を入力する(S9〜S11)。尚、
この際、移動速度の検出や、撮像ヘッド部1の検出等も
行われている(S12〜S14)。
【0057】次に、画像処理部220によりステレオ画
像110から距離情報を抽出する方法を図4を参照して
説明する。
像110から距離情報を抽出する方法を図4を参照して
説明する。
【0058】まず、所定の画像メモリに蓄えられたステ
レオ画像110に対して2つの処理が行なわれる。
レオ画像110に対して2つの処理が行なわれる。
【0059】1つ目の処理は、後述する処理方法を用い
てステレオ画像対応点抽出処理部112で、ステレオ画
像110の輝度値からそれぞれの画素がどういう対応関
係になっているかを抽出する処理である。
てステレオ画像対応点抽出処理部112で、ステレオ画
像110の輝度値からそれぞれの画素がどういう対応関
係になっているかを抽出する処理である。
【0060】もう1つの処理は、後述する処理方法を用
いて、エッジ画像対応点抽出処理部113で、エッジ抽
出処理部111にてエッジ画像にされた2つの画像中の
それぞれの画素がどういう対応関係になっているかを抽
出する処理である。尚、エッジ画像の生成に関しては、
後述する処理方法を用いてエッジ抽出処理部111を経
て生成されるものとする。
いて、エッジ画像対応点抽出処理部113で、エッジ抽
出処理部111にてエッジ画像にされた2つの画像中の
それぞれの画素がどういう対応関係になっているかを抽
出する処理である。尚、エッジ画像の生成に関しては、
後述する処理方法を用いてエッジ抽出処理部111を経
て生成されるものとする。
【0061】矛盾等排除処理部114では、それぞれの
対応点処理部からの出力より対応関係の矛盾等を判断す
る。輝度部からの対応関係とエッジ部からの対応関係が
一致しない時は、信頼性が低いとしてその対応関係は排
除するので適当である。或いはそれぞれの関係に重み付
けをして判断する事も可能である。
対応点処理部からの出力より対応関係の矛盾等を判断す
る。輝度部からの対応関係とエッジ部からの対応関係が
一致しない時は、信頼性が低いとしてその対応関係は排
除するので適当である。或いはそれぞれの関係に重み付
けをして判断する事も可能である。
【0062】次に、前述のステレオ画像対応点抽出処理
部112による対応点抽出方法の代表としてテンプレー
トマッチング法による手法を説明する。
部112による対応点抽出方法の代表としてテンプレー
トマッチング法による手法を説明する。
【0063】テンプレートマッチング法では、図9に示
された様にN*N画素のテンプレート画像Tを例えば左
の撮像系から得られた画像から切り出す。これを右の撮
像系から得られた画像M*M画素の入力画像内の探索領
域範囲(M−N+1)2上で動かし、
された様にN*N画素のテンプレート画像Tを例えば左
の撮像系から得られた画像から切り出す。これを右の撮
像系から得られた画像M*M画素の入力画像内の探索領
域範囲(M−N+1)2上で動かし、
【0064】
【数3】 の残差R(a,b)が最小になる様なテンプレート画像
の位置を求めて、N*Nのテンプレート画像Tの中心画
素を一致箇所として求める。
の位置を求めて、N*Nのテンプレート画像Tの中心画
素を一致箇所として求める。
【0065】但し上記において、(a,b)は画像内に
おけるテンプレート画像の左上位置を示し、I
R(a,b)(i,j)は右画像の部分画像、TL(i,j)
は左画像から切りだしたテンプレート画像である。
おけるテンプレート画像の左上位置を示し、I
R(a,b)(i,j)は右画像の部分画像、TL(i,j)
は左画像から切りだしたテンプレート画像である。
【0066】また、前述のエッジ画像対応点抽出処理部
113によるエッジ抽出方法としては、例えばロバート
フィルタ等の手法が用いられる。
113によるエッジ抽出方法としては、例えばロバート
フィルタ等の手法が用いられる。
【0067】ロバートフィルタは、入力画像f(i,j)、
出力画像g(i,j)とすると g(i,j)=sqrt[{f(i,j)−f(i+1,j+1)}2+{f(i+1,j)−f(i,j+1)}2] (式5) 或いは g(i,j)=abs{f(i,j) −f(i+1,j+1)}+abs{f(i+1,j)−f(i,j+1)} (式6) で求まる。
出力画像g(i,j)とすると g(i,j)=sqrt[{f(i,j)−f(i+1,j+1)}2+{f(i+1,j)−f(i,j+1)}2] (式5) 或いは g(i,j)=abs{f(i,j) −f(i+1,j+1)}+abs{f(i+1,j)−f(i,j+1)} (式6) で求まる。
【0068】この様にしてエッジ部が強調された画像に
対して2値化処理を行ってエッジ成分を抽出する。尚、
2値化は適当な閾値を用いて行う。
対して2値化処理を行ってエッジ成分を抽出する。尚、
2値化は適当な閾値を用いて行う。
【0069】次の画像抽出処理のステップは、オクルー
ジョン領域判定処理部115に基づく求まった対応点箇
所と、対応点を求める途中で使用している相関の程度を
表す指数、例えば残差でオクルージョン領域を判断する
処理である。
ジョン領域判定処理部115に基づく求まった対応点箇
所と、対応点を求める途中で使用している相関の程度を
表す指数、例えば残差でオクルージョン領域を判断する
処理である。
【0070】これは対応点処理が一応の結果を出すもの
のその信頼性を付加しようとする処理である。相関の程
度を現す指数として、相関係数或いは残差を用いて、信
頼性情報を付加する。その残差が非常に大きい時、或い
は相関係数が低い時は対応関係の信頼性が低いとする。
この低い所をオクルージョン領域或いは対応がない領域
として扱う。
のその信頼性を付加しようとする処理である。相関の程
度を現す指数として、相関係数或いは残差を用いて、信
頼性情報を付加する。その残差が非常に大きい時、或い
は相関係数が低い時は対応関係の信頼性が低いとする。
この低い所をオクルージョン領域或いは対応がない領域
として扱う。
【0071】具体的には、図10に示されるように、残
差であれば1画素あたり残差が0〜2であれば信頼性係
数は3、2〜4であれば2、4以上であれば0と言うよ
うに決め、信頼係数が0の場合は削除する。
差であれば1画素あたり残差が0〜2であれば信頼性係
数は3、2〜4であれば2、4以上であれば0と言うよ
うに決め、信頼係数が0の場合は削除する。
【0072】上記処理ステップを経て、求められた対応
関係を用いて三角測量の原理を用いて被写体の距離情報
を算出する。三角測量は式1で説明した通りである。
関係を用いて三角測量の原理を用いて被写体の距離情報
を算出する。三角測量は式1で説明した通りである。
【0073】続いて、撮像時の撮像ヘッド部1の位置や
撮像方向は補正データ算出処理部118の出力によりわ
かるから、その結果を踏まえて距離情報の信頼性判定部
130により判定する。算出された距離情報は背面3の
データから決まる座標系上の点群として表される。この
時エッジ抽出処理部111の出力であるエッジ部の間の
領域に急激な距離の変化があった場合は、その距離情報
を削除する。これは距離の急激な変化があった場合はエ
ッジ部として認識される可能性が非常に高いからであ
る。
撮像方向は補正データ算出処理部118の出力によりわ
かるから、その結果を踏まえて距離情報の信頼性判定部
130により判定する。算出された距離情報は背面3の
データから決まる座標系上の点群として表される。この
時エッジ抽出処理部111の出力であるエッジ部の間の
領域に急激な距離の変化があった場合は、その距離情報
を削除する。これは距離の急激な変化があった場合はエ
ッジ部として認識される可能性が非常に高いからであ
る。
【0074】そして、それぞれの点の撮像面からの距離
が算出され、かつ隣り合う3点で構成されるエリアの撮
像面に対する傾きが計算される。そして、隣接するエリ
アの傾きを調べてほとんど同一と判断されるほど差がな
ければ、エリアを拡大していき、同じ傾きの領域がなく
なるまで行なう。そしてこのエリアそれぞれに信頼性の
情報を付加する。ただ、オクルージョン部や距離情報が
削除された部分にはエリアは拡大されない。この時、点
群としての情報は持ったままでもよいが、情報量を圧縮
するうえで削除するほうがよい。
が算出され、かつ隣り合う3点で構成されるエリアの撮
像面に対する傾きが計算される。そして、隣接するエリ
アの傾きを調べてほとんど同一と判断されるほど差がな
ければ、エリアを拡大していき、同じ傾きの領域がなく
なるまで行なう。そしてこのエリアそれぞれに信頼性の
情報を付加する。ただ、オクルージョン部や距離情報が
削除された部分にはエリアは拡大されない。この時、点
群としての情報は持ったままでもよいが、情報量を圧縮
するうえで削除するほうがよい。
【0075】信頼性情報の付加の仕方は、撮像面に対す
る角度と上記残差に応じて図11に示されるように決め
られ付加される。
る角度と上記残差に応じて図11に示されるように決め
られ付加される。
【0076】図11の場合では、撮像面に対する角度が
0°〜30°でかつ残差が0〜2の場合は信頼係数3で
一番信頼性が高いことを示している。一方撮像面に対す
る角度が80°〜90°でかつ残差が2〜4の場合は信
頼係数0で一番信頼性が低いことを示している。そして
信頼係数が0の領域は信頼できないとしてデータを削除
することも可能である。このようにそれぞれのエリアに
対して、その角度に応じて信頼係数を3,2,1,0と
いうように信頼性のデータを2ビットの情報として付加
している。そしてこの立体形状情報は記録部250に適
切なフォーマットに変換されて記録される。
0°〜30°でかつ残差が0〜2の場合は信頼係数3で
一番信頼性が高いことを示している。一方撮像面に対す
る角度が80°〜90°でかつ残差が2〜4の場合は信
頼係数0で一番信頼性が低いことを示している。そして
信頼係数が0の領域は信頼できないとしてデータを削除
することも可能である。このようにそれぞれのエリアに
対して、その角度に応じて信頼係数を3,2,1,0と
いうように信頼性のデータを2ビットの情報として付加
している。そしてこの立体形状情報は記録部250に適
切なフォーマットに変換されて記録される。
【0077】尚、上述のように撮像は位置A0〜Anと
言うように複数の場所で行われるので、すべての撮像に
背面3が特徴点を精度よく求められるだけ撮像されてい
るとは限らない。そこで背面3の撮像領域に対する割合
に応じて信頼性情報を付加する。背面3の場合は、被写
体分離手段105により検出できる。その一例として、
例えば100〜30%の場合が信頼係数が3、30〜1
5%の場合が2、15%以下の場合が1とする。ここで
背面3のパッドが撮像領域にほとんど写っていない場合
などは、基準となる座標系がわからないのでテクスチャ
情報などを利用して距離情報の統合をしなければなら
ず、信頼性が低下する可能性があるから信頼係数を低く
設定する。そしてこの信頼係数に応じて上記撮像面に対
する角度と残差によって決定された信頼係数を変更し
て、新たな信頼係数として距離情報に付加する。
言うように複数の場所で行われるので、すべての撮像に
背面3が特徴点を精度よく求められるだけ撮像されてい
るとは限らない。そこで背面3の撮像領域に対する割合
に応じて信頼性情報を付加する。背面3の場合は、被写
体分離手段105により検出できる。その一例として、
例えば100〜30%の場合が信頼係数が3、30〜1
5%の場合が2、15%以下の場合が1とする。ここで
背面3のパッドが撮像領域にほとんど写っていない場合
などは、基準となる座標系がわからないのでテクスチャ
情報などを利用して距離情報の統合をしなければなら
ず、信頼性が低下する可能性があるから信頼係数を低く
設定する。そしてこの信頼係数に応じて上記撮像面に対
する角度と残差によって決定された信頼係数を変更し
て、新たな信頼係数として距離情報に付加する。
【0078】また、左右の画像から得られる距離画像を
モニタ8で表示することが可能である。この時の表示画
像は、上述のごとく自然画,線画,ポリゴン画のうち選
択できるが、どの表示の場合でも信頼性情報を同時に表
示することができる。自然画の場合は輝度を信頼係数に
応じて対応する領域を変更して表示する。線画の場合
は、線の太さとか線の種類例えば、実線,破線,一点鎖
線と入った具合に。ポリゴン画の場合はポリゴンの色を
変えるなどして信頼性情報を同時に表示することができ
る。
モニタ8で表示することが可能である。この時の表示画
像は、上述のごとく自然画,線画,ポリゴン画のうち選
択できるが、どの表示の場合でも信頼性情報を同時に表
示することができる。自然画の場合は輝度を信頼係数に
応じて対応する領域を変更して表示する。線画の場合
は、線の太さとか線の種類例えば、実線,破線,一点鎖
線と入った具合に。ポリゴン画の場合はポリゴンの色を
変えるなどして信頼性情報を同時に表示することができ
る。
【0079】次に、上記の様にして得られた距離情報の
時系列的統合処理を図5を参照して説明する。
時系列的統合処理を図5を参照して説明する。
【0080】まず、上記において得られたステレオ画像
110からの距離情報120が時々刻々生成される一方
で、撮像ヘッド部1の移動量や方向等を検知する手段か
らはその情報が送出されてくる。これらを用いて後述す
る処理方法で、座標系変換部121が距離情報を統一さ
れた座標系に変換する。変換する事により時々刻々得ら
れた情報を統合し易くするのである。
110からの距離情報120が時々刻々生成される一方
で、撮像ヘッド部1の移動量や方向等を検知する手段か
らはその情報が送出されてくる。これらを用いて後述す
る処理方法で、座標系変換部121が距離情報を統一さ
れた座標系に変換する。変換する事により時々刻々得ら
れた情報を統合し易くするのである。
【0081】次に、同一の座標系に変換された距離情報
を統合していく。
を統合していく。
【0082】この統合時に信頼性情報が利用される。例
えば2つの距離情報が得られたとし、その重複部分にお
いて信頼性が異なる場合、信頼係数の高い方が選択され
る。または、信頼係数に応じた重み付けを行って統合し
てもかまわない。また、重複領域のデータが3つ以上存
在するときも、同様にして信頼係数に応じた統合がなさ
れる。そして、統合された距離情報に対して再度信頼係
数の付加がなされる。統合時に信頼性の高い方のデータ
を選択するので統合時の距離情報も信頼性が向上してい
く。
えば2つの距離情報が得られたとし、その重複部分にお
いて信頼性が異なる場合、信頼係数の高い方が選択され
る。または、信頼係数に応じた重み付けを行って統合し
てもかまわない。また、重複領域のデータが3つ以上存
在するときも、同様にして信頼係数に応じた統合がなさ
れる。そして、統合された距離情報に対して再度信頼係
数の付加がなされる。統合時に信頼性の高い方のデータ
を選択するので統合時の距離情報も信頼性が向上してい
く。
【0083】次に、それぞれの距離情報中、同一の点を
示す場合、情報量を削減する意味でも、どちらかひとつ
だけを用いる。同一点の判断の基準としては、 (x0−x1)2 + (y0−y1)2 + (z0−z1)2 < ε1 (式7) 又は a(x0−x1)2 + b(y0−y1)2 + c(z0−z1)2 < ε2 (式8) 等の計算式7,8が用いられる。
示す場合、情報量を削減する意味でも、どちらかひとつ
だけを用いる。同一点の判断の基準としては、 (x0−x1)2 + (y0−y1)2 + (z0−z1)2 < ε1 (式7) 又は a(x0−x1)2 + b(y0−y1)2 + c(z0−z1)2 < ε2 (式8) 等の計算式7,8が用いられる。
【0084】但し、上記式7,8においてε1 ,ε2 は
基準値、a、b、c、dは適当な係数である。
基準値、a、b、c、dは適当な係数である。
【0085】上記の計算式例えば(式7)によれば、a=
b=1、 c=2 とすることで距離の違いに対してより敏感
に同一点の判定をする事も可能である。
b=1、 c=2 とすることで距離の違いに対してより敏感
に同一点の判定をする事も可能である。
【0086】また次に、求められた点の座標から補間を
行う。この補間としては、例えば図12に示すように中
間点を求めていく方法がある。
行う。この補間としては、例えば図12に示すように中
間点を求めていく方法がある。
【0087】この図12において、グラフ上の点A
(○)は、抽出された距離情報データZt (i,j) を示
し、点B(●)は、Z′t+δt(i,j)を(i0、j0)だけシ
フトしたZ′t+δt(i+i0,j+j0)を示し、点C(□)は、
中間点補間で求められたデータであり、新しい距離情報
Znewを示している。ここでの補間方法としては、例え
ば線形補間、スプライン補間等の方法が採られる。
(○)は、抽出された距離情報データZt (i,j) を示
し、点B(●)は、Z′t+δt(i,j)を(i0、j0)だけシ
フトしたZ′t+δt(i+i0,j+j0)を示し、点C(□)は、
中間点補間で求められたデータであり、新しい距離情報
Znewを示している。ここでの補間方法としては、例え
ば線形補間、スプライン補間等の方法が採られる。
【0088】次に、以上のような統合処理で用いられる
「統一された座標系」について図13,14を参照して
説明する。
「統一された座標系」について図13,14を参照して
説明する。
【0089】尚、図13において2は被写体、3はパッ
ドによる背面、1800〜1804は距離情報を登録す
る為の仮想的な投影面である。また、1810〜181
4は仮想的な投影面の中心軸(光軸)である。
ドによる背面、1800〜1804は距離情報を登録す
る為の仮想的な投影面である。また、1810〜181
4は仮想的な投影面の中心軸(光軸)である。
【0090】本実施形態で用いられる「統一された座標
系」とは、例えば5セットの基準座標(x、y、z軸) の
事である。すなわち、例えば図13に示すように仮想的
な投影面1800〜1804を形成する為の軸、x、
y、z軸といったものが5つあることを示している。
系」とは、例えば5セットの基準座標(x、y、z軸) の
事である。すなわち、例えば図13に示すように仮想的
な投影面1800〜1804を形成する為の軸、x、
y、z軸といったものが5つあることを示している。
【0091】上記において求められた距離情報Zti jを
各投影面(5面)に投影する。投影の際には各基準座標
に沿う様、回転、並進等の変換が行われる。その様子が
図14に示されている。
各投影面(5面)に投影する。投影の際には各基準座標
に沿う様、回転、並進等の変換が行われる。その様子が
図14に示されている。
【0092】すなわち、光軸1813上にある中心点O
と被写体上の各点Sとを結んだ直線と、投影面1803
との交点が変換された後の点Pである。
と被写体上の各点Sとを結んだ直線と、投影面1803
との交点が変換された後の点Pである。
【0093】尚、図14の例は投影面1803に関して
の模式図であるがその他の投影面に関しても同様であ
る。また、次の距離情報Zt+δt ijに関しても同様に行
うのであるが、投影する際は先に書かれた時点の物に順
に上書きしていく。
の模式図であるがその他の投影面に関しても同様であ
る。また、次の距離情報Zt+δt ijに関しても同様に行
うのであるが、投影する際は先に書かれた時点の物に順
に上書きしていく。
【0094】従ってある被写体に対して5つの基準軸に
沿った距離情報が得られる。例えば一つの点が投影面1
800〜1804上の各点(x0、y0、z0)、(x1、y1、
z1)(x2、y2、z2)、(x3、y3、z3)、(x4、y4、z4)の
5つで表現される。
沿った距離情報が得られる。例えば一つの点が投影面1
800〜1804上の各点(x0、y0、z0)、(x1、y1、
z1)(x2、y2、z2)、(x3、y3、z3)、(x4、y4、z4)の
5つで表現される。
【0095】このようにして統合された距離情報はモニ
タ8上で表示することが可能である。そして操作部11
により任意の視点から見た被写体の三次元形状が観察で
きるのである。この時も左右の画像から得られた距離情
報を表示したときと同様に、信頼性情報を同時に表示す
ることができる。これにより信頼性の低い領域がどこで
あるかが一目瞭然にわかるので、追加してどの領域を撮
像する必要があるかが使用者に認識され、追加撮像が可
能となる。
タ8上で表示することが可能である。そして操作部11
により任意の視点から見た被写体の三次元形状が観察で
きるのである。この時も左右の画像から得られた距離情
報を表示したときと同様に、信頼性情報を同時に表示す
ることができる。これにより信頼性の低い領域がどこで
あるかが一目瞭然にわかるので、追加してどの領域を撮
像する必要があるかが使用者に認識され、追加撮像が可
能となる。
【0096】(第2実施形態)次に、本発明に係る第2
実施形態について説明する。
実施形態について説明する。
【0097】図15は、本発明に係る三次元情報処理装
置の第2の実施形態の概略を示したものである。
置の第2の実施形態の概略を示したものである。
【0098】図15において、2101は主被写体で、
2100は三次元情報処理装置の立体形状抽出部であ
り、100は撮像レンズ、200は照明部である。また
2102は、キャリブレーションパッドであり立体抽出
装置はこのパッドの映像を基に姿勢の検出を行う。尚、
パッド2102上の文字A,B,C,Dは装置2100
の姿勢検出のための特徴部であり、これら特徴部の方
向、歪み等から姿勢の算出を行うことができる。
2100は三次元情報処理装置の立体形状抽出部であ
り、100は撮像レンズ、200は照明部である。また
2102は、キャリブレーションパッドであり立体抽出
装置はこのパッドの映像を基に姿勢の検出を行う。尚、
パッド2102上の文字A,B,C,Dは装置2100
の姿勢検出のための特徴部であり、これら特徴部の方
向、歪み等から姿勢の算出を行うことができる。
【0099】図16は、本実施形態に係る立体形状抽出
部2100の詳細なブロック図である。尚、図16にお
いて上記第1実施形態とL及びRの記号部を除いて同様
の番号を付するものは、機能及び動作が同じであるので
説明を省略する。
部2100の詳細なブロック図である。尚、図16にお
いて上記第1実施形態とL及びRの記号部を除いて同様
の番号を付するものは、機能及び動作が同じであるので
説明を省略する。
【0100】図16に示したように、本実施形態に係る
立体形状抽出部2100は、単眼であることを除いて、
機能及び動作は第1実施形態とほぼ同様である。
立体形状抽出部2100は、単眼であることを除いて、
機能及び動作は第1実施形態とほぼ同様である。
【0101】次に、本実施形態における動作を説明す
る。
る。
【0102】本実施形態が上記第1実施形態と異なる点
は、ズームの調整法である。本実施形態の装置は、パッ
ド2102との組み合わせにより姿勢検出を行うため、
撮像の際にパッド2102が適切な範囲で得られること
が必要となる。そこで、まず被写体分離部105は、予
め保持しているパッド2102の特徴部(図15の四隅
のA,B,C,D)と現在得られている映像との間で演
算あるいはテンプレートマッチング処理を施し、検出信
号をシステムコントローラ210に出力する。システム
コントローラ210は、パッド2102が視野内に適切
な範囲で収まるように焦点距離を設定する。同時に焦点
距離の情報をシステムコントローラ210内のメモリ9
10に保持する。
は、ズームの調整法である。本実施形態の装置は、パッ
ド2102との組み合わせにより姿勢検出を行うため、
撮像の際にパッド2102が適切な範囲で得られること
が必要となる。そこで、まず被写体分離部105は、予
め保持しているパッド2102の特徴部(図15の四隅
のA,B,C,D)と現在得られている映像との間で演
算あるいはテンプレートマッチング処理を施し、検出信
号をシステムコントローラ210に出力する。システム
コントローラ210は、パッド2102が視野内に適切
な範囲で収まるように焦点距離を設定する。同時に焦点
距離の情報をシステムコントローラ210内のメモリ9
10に保持する。
【0103】これにより、パッド全体を常に視野におさ
めることができるので、特徴部の形状より常に姿勢の検
出が可能な状態となる。
めることができるので、特徴部の形状より常に姿勢の検
出が可能な状態となる。
【0104】そして、パッド全体が常に視野にはいるこ
とから、対応点抽出処理時に信頼性を向上させることが
できる。主被写体2101はパッドの手前にあることか
ら、算出された距離情報がパッドを超えた場合その結果
を削除することができる。またパッドの領域がわかるか
ら、対応点抽出の探索領域を限定でき、その結果テンプ
レートのサイズを大きくして対応点抽出の精度を向上さ
せることができる。
とから、対応点抽出処理時に信頼性を向上させることが
できる。主被写体2101はパッドの手前にあることか
ら、算出された距離情報がパッドを超えた場合その結果
を削除することができる。またパッドの領域がわかるか
ら、対応点抽出の探索領域を限定でき、その結果テンプ
レートのサイズを大きくして対応点抽出の精度を向上さ
せることができる。
【0105】図17は、本発明に係る三次元情報処理装
置の動作を示すフローチャートである。
置の動作を示すフローチャートである。
【0106】図17のフローに示すように、まず、電源
がONされ、露光条件、焦点位置調整等の光学系の各種
パラメータが設定されると(S21〜S25)、表示部
240のLEDが点灯し(S26)、使用者に入力可能
な状態であることを知らせる。使用者は、この表示をう
けて入力を開始し(S27)、装置2100を移動させ
ながら適当な間隔でシャッター230をきり、映像を入
力する(S28)。このとき、被写体分離部105の情
報を基にシステムコントローラ210は主被写体を含む
パッド2102の特徴部が常に適切な範囲で視野に収ま
るように焦点距離を設定する。同時に各撮像位置におけ
る焦点距離を含む撮像パラメータ情報をメモリ910に
保持する。これにより特徴部の状態から姿勢検出部4が
姿勢を検出する(S29)。
がONされ、露光条件、焦点位置調整等の光学系の各種
パラメータが設定されると(S21〜S25)、表示部
240のLEDが点灯し(S26)、使用者に入力可能
な状態であることを知らせる。使用者は、この表示をう
けて入力を開始し(S27)、装置2100を移動させ
ながら適当な間隔でシャッター230をきり、映像を入
力する(S28)。このとき、被写体分離部105の情
報を基にシステムコントローラ210は主被写体を含む
パッド2102の特徴部が常に適切な範囲で視野に収ま
るように焦点距離を設定する。同時に各撮像位置におけ
る焦点距離を含む撮像パラメータ情報をメモリ910に
保持する。これにより特徴部の状態から姿勢検出部4が
姿勢を検出する(S29)。
【0107】画像処理部220は、画像メモリ73,7
5に保持されている複数の映像信号を読みだし、システ
ムコントローラ内のメモリ910に保持されている撮像
パラメータ情報を基に画像を変換し、同一焦点距離の画
像に補正する。さらに、画像処理部220は、補正され
た映像信号とカメラ姿勢位置検知部4により得られる姿
勢信号から、被写体の立体形状を抽出する。
5に保持されている複数の映像信号を読みだし、システ
ムコントローラ内のメモリ910に保持されている撮像
パラメータ情報を基に画像を変換し、同一焦点距離の画
像に補正する。さらに、画像処理部220は、補正され
た映像信号とカメラ姿勢位置検知部4により得られる姿
勢信号から、被写体の立体形状を抽出する。
【0108】そして得られた立体情報に対して信頼性情
報を付加する。本第2実施形態では、信頼性情報の付加
の仕方は、撮像面に対する角度と撮像面からの距離に応
じて図18に示されるように決められ付加される。
報を付加する。本第2実施形態では、信頼性情報の付加
の仕方は、撮像面に対する角度と撮像面からの距離に応
じて図18に示されるように決められ付加される。
【0109】図18の場合、撮像面に対する角度が0°
〜30°でかつ被写体距離が10cm〜30cmである
場合は信頼係数3で一番信頼性が高いことを示してい
る。一方撮像面に対する角度が80°〜90°でかつ被
写体距離が60cmの場合は信頼係数0で一番信頼性が
低いことを示している。そして信頼係数が0の領域はそ
のデータを削除することも可能である。このようにそれ
ぞれのエリアに対して信頼性のデータを2ビットの情報
として付加している。
〜30°でかつ被写体距離が10cm〜30cmである
場合は信頼係数3で一番信頼性が高いことを示してい
る。一方撮像面に対する角度が80°〜90°でかつ被
写体距離が60cmの場合は信頼係数0で一番信頼性が
低いことを示している。そして信頼係数が0の領域はそ
のデータを削除することも可能である。このようにそれ
ぞれのエリアに対して信頼性のデータを2ビットの情報
として付加している。
【0110】そして信頼性情報を付加された立体情報
は、記録部250に与えられる。記録部250では、得
られる信号を適切なフォーマットに変換し記録する。
は、記録部250に与えられる。記録部250では、得
られる信号を適切なフォーマットに変換し記録する。
【0111】尚、上記第1及び第2実施形態では、信頼
性を判定する手段として対応点抽出時の残差や相関、そ
して被写体の撮像面に対する角度や被写体距離、さらに
はパッドの撮像領域に対する割合やパッドの位置情報を
用いて行なうものとして説明したが、そのほかにも光源
の被写体による反射やパッドの撮像面に対する角度によ
っても得られる立体形状の信頼性を判定することができ
る。
性を判定する手段として対応点抽出時の残差や相関、そ
して被写体の撮像面に対する角度や被写体距離、さらに
はパッドの撮像領域に対する割合やパッドの位置情報を
用いて行なうものとして説明したが、そのほかにも光源
の被写体による反射やパッドの撮像面に対する角度によ
っても得られる立体形状の信頼性を判定することができ
る。
【0112】まず、光源の被写体による反射を用いる場
合について説明する。
合について説明する。
【0113】被写体からの反射光は、映像信号の輝度情
報からある程度判定できる。なぜなら、被写体の反射率
が高い場合は、その反射光がレンズに入る位置では輝度
がある範囲にわたって非常に高くなる。そこでその高い
ところを反射によるものとして排除する。具体的には、
輝度レベルに応じてしきい値を定めそれに応じて信頼係
数を3〜0に定める。
報からある程度判定できる。なぜなら、被写体の反射率
が高い場合は、その反射光がレンズに入る位置では輝度
がある範囲にわたって非常に高くなる。そこでその高い
ところを反射によるものとして排除する。具体的には、
輝度レベルに応じてしきい値を定めそれに応じて信頼係
数を3〜0に定める。
【0114】次に、パッドの撮像面に対する角度を用い
る場合について説明する。
る場合について説明する。
【0115】この場合、撮像面に対する被写体の角度に
応じて信頼係数を設定したようにパッドの角度に応じて
信頼性係数を付加する。これは、パッドからは基準座標
が得られるわけであるから基準座標の信頼性が低ければ
その基準座標上の立体形状の信頼性も低くなるという点
を利用したものである。具体的な例としては0°〜60
°の場合信頼係数が3、60°〜75°の場合が2、7
5°〜85°の場合が1、85°〜90°の場合が0で
ある。尚ここで、パッドの角度の検出の方が被写体の角
度の検出に比べ信頼性を高く設定したのは、パッドは平
面としてあらかじめ認識されているため、複数のデータ
から最小二乗法などで角度を精度よく求めることができ
るからである。
応じて信頼係数を設定したようにパッドの角度に応じて
信頼性係数を付加する。これは、パッドからは基準座標
が得られるわけであるから基準座標の信頼性が低ければ
その基準座標上の立体形状の信頼性も低くなるという点
を利用したものである。具体的な例としては0°〜60
°の場合信頼係数が3、60°〜75°の場合が2、7
5°〜85°の場合が1、85°〜90°の場合が0で
ある。尚ここで、パッドの角度の検出の方が被写体の角
度の検出に比べ信頼性を高く設定したのは、パッドは平
面としてあらかじめ認識されているため、複数のデータ
から最小二乗法などで角度を精度よく求めることができ
るからである。
【0116】また、上記では信頼係数を2ビットの情報
として説明したが、必要に応じて増やすことも可能であ
る。
として説明したが、必要に応じて増やすことも可能であ
る。
【0117】
【発明の効果】以上詳述したように、本発明によれば、
抽出された立体形状情報の信頼性を例えば撮像面に対す
る被写体の角度、被写体距離及び残差や相関から判断可
能な画像対応度等に基づいて判定するので、得られる立
体形状情報の信頼性の向上が図れる。また、この信頼度
に応じて立体形状情報を加工表示することにより、信頼
性を視覚的に操作者に通知することができる。
抽出された立体形状情報の信頼性を例えば撮像面に対す
る被写体の角度、被写体距離及び残差や相関から判断可
能な画像対応度等に基づいて判定するので、得られる立
体形状情報の信頼性の向上が図れる。また、この信頼度
に応じて立体形状情報を加工表示することにより、信頼
性を視覚的に操作者に通知することができる。
【図1】本発明による三次元情報処理装置の概略構成図
である。
である。
【図2】立体形状抽出部12の詳細な構成を示すブロッ
ク図である。
ク図である。
【図3】システムコントローラ210のの詳細な構成を
示すブロック図である。
示すブロック図である。
【図4】距離情報の抽出に係る構成部分を示したブロッ
ク図である。
ク図である。
【図5】距離情報の統合に係る構成部分を示したブロッ
ク図である。
ク図である。
【図6】撮像ヘッド部1の動作を示すフローチャートで
ある。
ある。
【図7】ズーム調整の説明図である。
【図8】ズーム調整の説明図である。
【図9】テンプレートマッチングの説明図である。
【図10】信頼性判定の説明図である。
【図11】信頼性判定の説明図である。
【図12】中間点補間方法の概略を示す図である。
【図13】距離情報を統一された座標系に変換する方法
を示す図である。
を示す図である。
【図14】距離情報を統一された座標系に変換する方法
を示す図である。
を示す図である。
【図15】本発明の第2実施形態に係る三次元情報処理
装置の説明図である。
装置の説明図である。
【図16】本発明の第2実施形態に係る立体形状抽出部
12の詳細な構成を示すブロック図である。
12の詳細な構成を示すブロック図である。
【図17】本発明の第2実施形態に係る撮像ヘッド部1
の動作を示すフローチャートである。
の動作を示すフローチャートである。
【図18】本発明の第2実施形態に係る信頼性判定の説
明図である。
明図である。
1 撮像ヘッド部 2 被写体 4 カメラ姿勢位置検知部 5 画像メモリ 6 3次元画像データ演算部 7 2次元画像データ演算手段 8 モニタ 9 プリンタ 1000 データ合成手段 1001 文章データ作成手段 11 操作手段
───────────────────────────────────────────────────── フロントページの続き (72)発明者 関根 正慶 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内
Claims (10)
- 【請求項1】 立体形状を有する被写体から三次元の情
報を得て所定の情報処理を行う三次元情報処理装置にお
いて、 単数又は複数の光学系からなる撮像系により前記被写体
を撮像する撮像手段と、 この撮像手段で撮像された撮像情報から前記被写体の立
体形状情報を抽出する立体形状抽出手段と、 この立体形状抽出手段により抽出された立体形状情報の
信頼性を判定する信頼性判定手段とを有することを特徴
とする三次元情報処理装置。 - 【請求項2】 立体形状を有する被写体から三次元の情
報を得て所定の情報処理を行う三次元情報処理装置にお
いて、 単数又は複数の光学系からなる撮像系により前記被写体
を撮像する撮像手段と、 この撮像手段で撮像された撮像情報から前記被写体の立
体形状情報を抽出する立体形状抽出手段と、 この立体形状抽出手段により抽出された立体形状情報の
信頼性を判定する信頼性判定手段と、 この信頼性判定手段の信頼性の判定結果を通知する通知
手段とを有することを特徴とする三次元情報処理装置。 - 【請求項3】 立体形状を有する被写体から三次元の情
報を得て所定の情報処理を行う三次元情報処理装置にお
いて、 単数又は複数の光学系からなる撮像系により前記被写体
を撮像する撮像手段と、 この撮像手段で撮像された撮像情報から前記被写体の立
体形状情報を抽出する立体形状抽出手段と、 この立体形状抽出手段により抽出された立体形状情報の
信頼性を判定する信頼性判定手段と、 この信頼性判定手段の信頼性の判定結果に応じて前記立
体形状情報を加工表示する表示手段とを有することを特
徴とする三次元情報処理装置。 - 【請求項4】 前記信頼性判定手段は、前記撮像手段に
よる被写体の撮像面に対する被写体の角度に基づいて前
記立体形状情報の信頼度を判定することを特徴とする請
求項1,2又は3記載の三次元情報処理装置。 - 【請求項5】 前記信頼性判定手段は、前記撮像手段と
前記被写体との被写体距離に基づいて前記立体形状情報
の信頼度を判定することを特徴とする請求項1,2又は
3記載の三次元情報処理装置。 - 【請求項6】 前記信頼性判定手段は、前記被写体を載
置するパッドと前記撮像手段によるパッドの撮像面に対
する角度に基づいて前記立体形状情報の信頼度を判定す
ることを特徴とする請求項1,2又は3記載の三次元情
報処理装置。 - 【請求項7】 前記信頼性判定手段は、前記被写体を載
置するパッドの撮像領域に対する割合に基づいて前記立
体形状情報の信頼度を判定することを特徴とする請求項
1,2又は3記載の三次元情報処理装置。 - 【請求項8】 前記信頼性判定手段は、前記被写体を載
置するパッドのパッド位置に基づいて前記立体形状情報
の信頼度を判定することを特徴とする請求項1,2又は
3記載の三次元情報処理装置。 - 【請求項9】 前記信頼性判定手段は、前記被写体から
反射される反射光情報に基づいて前記立体形状情報の信
頼度を判定することを特徴とする請求項1,2又は3記
載の請求項1又は2記載の三次元情報処理装置。 - 【請求項10】 前記信頼性判定手段は、前記撮像手段
で撮像された複数の撮像データ間の画素の対応度合いに
基づいて前記立体形状情報の信頼度を判定することを特
徴とする請求項1,2又は3記載の三次元情報処理装
置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8192727A JPH1021401A (ja) | 1996-07-04 | 1996-07-04 | 三次元情報処理装置 |
US08/885,823 US6445814B2 (en) | 1996-07-01 | 1997-06-30 | Three-dimensional information processing apparatus and method |
US10/206,596 US6823080B2 (en) | 1996-07-01 | 2002-07-29 | Three-dimensional information processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8192727A JPH1021401A (ja) | 1996-07-04 | 1996-07-04 | 三次元情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH1021401A true JPH1021401A (ja) | 1998-01-23 |
Family
ID=16296068
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8192727A Pending JPH1021401A (ja) | 1996-07-01 | 1996-07-04 | 三次元情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH1021401A (ja) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6704042B2 (en) | 1998-12-10 | 2004-03-09 | Canon Kabushiki Kaisha | Video processing apparatus, control method therefor, and storage medium |
WO2005010817A1 (ja) * | 2003-07-24 | 2005-02-03 | Olympus Corporation | 画像処理装置 |
JP2007171077A (ja) * | 2005-12-26 | 2007-07-05 | Konica Minolta Sensing Inc | 3次元測定方法および装置 |
JP2008070120A (ja) * | 2006-09-12 | 2008-03-27 | Hitachi Ltd | 距離計測装置 |
JP2009076094A (ja) * | 2008-11-20 | 2009-04-09 | Panasonic Corp | 移動物体監視装置 |
JP2011123071A (ja) * | 2009-12-10 | 2011-06-23 | Honda Motor Co Ltd | 撮像装置、オクルージョン領域の探索方法、及びプログラム |
JP2015524560A (ja) * | 2012-07-18 | 2015-08-24 | クレアフォーム・インコーポレイテッドCreaform Inc. | 3d走査および位置決めのインターフェース |
US9816809B2 (en) | 2012-07-04 | 2017-11-14 | Creaform Inc. | 3-D scanning and positioning system |
WO2020017336A1 (ja) * | 2018-07-19 | 2020-01-23 | 日立オートモティブシステムズ株式会社 | 物体検知装置 |
JP2020112981A (ja) * | 2019-01-10 | 2020-07-27 | 株式会社ニコン | 検出装置、情報処理装置、検出方法、検出プログラム、及び検出システム |
US11185697B2 (en) | 2016-08-08 | 2021-11-30 | Deep Brain Stimulation Technologies Pty. Ltd. | Systems and methods for monitoring neural activity |
US11298070B2 (en) | 2017-05-22 | 2022-04-12 | Deep Brain Stimulation Technologies Pty Ltd | Systems and methods for monitoring neural activity |
WO2022244311A1 (ja) * | 2021-05-20 | 2022-11-24 | ソニーグループ株式会社 | 撮像装置、および画像処理方法、並びにプログラム |
-
1996
- 1996-07-04 JP JP8192727A patent/JPH1021401A/ja active Pending
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6704042B2 (en) | 1998-12-10 | 2004-03-09 | Canon Kabushiki Kaisha | Video processing apparatus, control method therefor, and storage medium |
WO2005010817A1 (ja) * | 2003-07-24 | 2005-02-03 | Olympus Corporation | 画像処理装置 |
CN100365654C (zh) * | 2003-07-24 | 2008-01-30 | 奥林巴斯株式会社 | 图像处理装置 |
KR100816589B1 (ko) * | 2003-07-24 | 2008-03-24 | 올림푸스 가부시키가이샤 | 화상 처리 장치 |
US7424174B2 (en) | 2003-07-24 | 2008-09-09 | Olympus Corporation | Image processing device |
JP2007171077A (ja) * | 2005-12-26 | 2007-07-05 | Konica Minolta Sensing Inc | 3次元測定方法および装置 |
JP2008070120A (ja) * | 2006-09-12 | 2008-03-27 | Hitachi Ltd | 距離計測装置 |
JP2009076094A (ja) * | 2008-11-20 | 2009-04-09 | Panasonic Corp | 移動物体監視装置 |
JP2011123071A (ja) * | 2009-12-10 | 2011-06-23 | Honda Motor Co Ltd | 撮像装置、オクルージョン領域の探索方法、及びプログラム |
US9816809B2 (en) | 2012-07-04 | 2017-11-14 | Creaform Inc. | 3-D scanning and positioning system |
JP2015524560A (ja) * | 2012-07-18 | 2015-08-24 | クレアフォーム・インコーポレイテッドCreaform Inc. | 3d走査および位置決めのインターフェース |
US10401142B2 (en) | 2012-07-18 | 2019-09-03 | Creaform Inc. | 3-D scanning and positioning interface |
US10928183B2 (en) | 2012-07-18 | 2021-02-23 | Creaform Inc. | 3-D scanning and positioning interface |
US11185697B2 (en) | 2016-08-08 | 2021-11-30 | Deep Brain Stimulation Technologies Pty. Ltd. | Systems and methods for monitoring neural activity |
US11278726B2 (en) | 2016-08-08 | 2022-03-22 | Deep Brain Stimulation Technologies Pty Ltd | Systems and methods for monitoring neural activity |
US11890478B2 (en) | 2016-08-08 | 2024-02-06 | Deep Brain Stimulation Technologies Pty Ltd | Systems and methods for monitoring neural activity |
US11298070B2 (en) | 2017-05-22 | 2022-04-12 | Deep Brain Stimulation Technologies Pty Ltd | Systems and methods for monitoring neural activity |
WO2020017336A1 (ja) * | 2018-07-19 | 2020-01-23 | 日立オートモティブシステムズ株式会社 | 物体検知装置 |
JP2020012742A (ja) * | 2018-07-19 | 2020-01-23 | 日立オートモティブシステムズ株式会社 | 物体検知装置 |
CN112400094A (zh) * | 2018-07-19 | 2021-02-23 | 日立汽车系统株式会社 | 物体探测装置 |
JP2020112981A (ja) * | 2019-01-10 | 2020-07-27 | 株式会社ニコン | 検出装置、情報処理装置、検出方法、検出プログラム、及び検出システム |
WO2022244311A1 (ja) * | 2021-05-20 | 2022-11-24 | ソニーグループ株式会社 | 撮像装置、および画像処理方法、並びにプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6445814B2 (en) | Three-dimensional information processing apparatus and method | |
JP3064928B2 (ja) | 被写体抽出方式 | |
JP4306006B2 (ja) | 3次元データ入力方法及び装置 | |
US8144974B2 (en) | Image processing apparatus, method, and program | |
US20090058878A1 (en) | Method for displaying adjustment images in multi-view imaging system, and multi-view imaging system | |
US7409152B2 (en) | Three-dimensional image processing apparatus, optical axis adjusting method, and optical axis adjustment supporting method | |
JPH1021401A (ja) | 三次元情報処理装置 | |
JP4193342B2 (ja) | 3次元データ生成装置 | |
JP3988574B2 (ja) | 画像処理装置 | |
JPH09305796A (ja) | 画像情報処理装置 | |
JPH1023311A (ja) | 画像情報入力方法及び装置 | |
JP3491029B2 (ja) | 自動監視装置 | |
JP4221808B2 (ja) | 3次元データ入力方法及び装置 | |
JPH09231370A (ja) | 画像情報入力装置 | |
JP3501841B2 (ja) | 立体物領域検出装置及び立体物領域迄の距離測定装置及びそれらの検出、測定方法 | |
JP2006031101A (ja) | 画像生成方法およびその装置 | |
JPH09231369A (ja) | 画像情報入力装置 | |
JP3912638B2 (ja) | 3次元画像処理装置 | |
JP2000028354A (ja) | 3次元画像処理装置 | |
JPH0946730A (ja) | 立体形状抽出装置 | |
JPH09145368A (ja) | ステレオ画像による物体の移動追跡方法 | |
JPH0875454A (ja) | 測距装置 | |
JP2022037337A (ja) | 3次元計測装置、3次元計測システムおよび3次元計測方法 | |
JPH09229648A (ja) | 画像情報入出力装置及び画像情報入出力方法 | |
JP2001004370A (ja) | 視差画像撮像装置、視差画像処理装置、視差画像撮像方法、及び視差画像処理方法 |