JPH1023311A - 画像情報入力方法及び装置 - Google Patents
画像情報入力方法及び装置Info
- Publication number
- JPH1023311A JPH1023311A JP8194104A JP19410496A JPH1023311A JP H1023311 A JPH1023311 A JP H1023311A JP 8194104 A JP8194104 A JP 8194104A JP 19410496 A JP19410496 A JP 19410496A JP H1023311 A JPH1023311 A JP H1023311A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- subject
- evaluation function
- obtaining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 目的に応じた画像形態にして利用可能にした
画像情報入力方法及び装置を提供する。 【解決手段】 単数の光学系からなる撮像系より、任意
の位置から被写体を撮像して該被写体の奥行き情報を得
る奥行き情報抽出手段を有する画像情報入力装置におい
て、前記奥行き情報抽出手段は、複数視点の立体画像か
らの視差情報を多数決して求める画像処理部202を備
えた。
画像情報入力方法及び装置を提供する。 【解決手段】 単数の光学系からなる撮像系より、任意
の位置から被写体を撮像して該被写体の奥行き情報を得
る奥行き情報抽出手段を有する画像情報入力装置におい
て、前記奥行き情報抽出手段は、複数視点の立体画像か
らの視差情報を多数決して求める画像処理部202を備
えた。
Description
【0001】
【発明の属する技術分野】本発明は、画像情報入力方法
及び装置に関する。
及び装置に関する。
【0002】
【従来の技術】従来より、物体の三次元形状を求める技
術とて、大別して受動的手法と能動的手法とがある。
術とて、大別して受動的手法と能動的手法とがある。
【0003】受動的手法の代表的なものが立体(ステレ
オ)画像法であり、2台のカメラを用いて三角測量を行
うものである。この方法では左右の画像から同じ物が写
っている場所を探索し、その位置のずれ量から被写体の
三次元位置を計測する。
オ)画像法であり、2台のカメラを用いて三角測量を行
うものである。この方法では左右の画像から同じ物が写
っている場所を探索し、その位置のずれ量から被写体の
三次元位置を計測する。
【0004】また、能動的手法の代表的なものとして、
光を投影して反射して帰ってくるまでの時間を計測して
距離を求める光レーダ型のレンジファインダやスリット
状の光パターンを投影して被写体に写るパターン形状の
変位から三次元形状を測定するスリット光投影法等があ
る。
光を投影して反射して帰ってくるまでの時間を計測して
距離を求める光レーダ型のレンジファインダやスリット
状の光パターンを投影して被写体に写るパターン形状の
変位から三次元形状を測定するスリット光投影法等があ
る。
【0005】そして、得られた被写体の三次元データか
ら被写体を任意の視点から見た場合の被写体映像を二次
元のディスプレイ等に再生することは従来から行われて
きた。
ら被写体を任意の視点から見た場合の被写体映像を二次
元のディスプレイ等に再生することは従来から行われて
きた。
【0006】また、パーソナルコンピュータの普及に伴
い、電子カメラで撮像した画像を取り込んで編集するこ
とも可能になってきた。例えば電子カメラで複数の画像
に分けて風景を撮影したとする。このとき撮像された画
像はパーソナルコンピュータに取り込まれてアプリケー
ションソフトにより更に処理が施される。これによって
電子カメラで撮像した画像を任意に扱うことができるも
のである。
い、電子カメラで撮像した画像を取り込んで編集するこ
とも可能になってきた。例えば電子カメラで複数の画像
に分けて風景を撮影したとする。このとき撮像された画
像はパーソナルコンピュータに取り込まれてアプリケー
ションソフトにより更に処理が施される。これによって
電子カメラで撮像した画像を任意に扱うことができるも
のである。
【0007】また、被写体を撮像した複数画像間の視差
を用いて被写体までの距離を求める方法が一般に知られ
ている。その一例として、立体(ステレオ)カメラを用
いて左右画像を撮像し、その画像間の視差を求めて、下
記(1)式に示す三角測量則に基づき被写体までの距離
を求める方法がある。
を用いて被写体までの距離を求める方法が一般に知られ
ている。その一例として、立体(ステレオ)カメラを用
いて左右画像を撮像し、その画像間の視差を求めて、下
記(1)式に示す三角測量則に基づき被写体までの距離
を求める方法がある。
【0008】
【数1】 ここで、Zはカメラの光軸方向への距離、fは焦点距
離、Bは基線長、dαは視差をそれぞれ表わしている。
離、Bは基線長、dαは視差をそれぞれ表わしている。
【0009】そして、画像中、全域で上記のように被写
体までの距離を求めることにより、ある地点からの被写
体の一部分の形状を求めることができる。更に、各地点
で得られる部分形状が部分的に重なるようにして、多地
点からそれぞれの地点での部分形状の面の傾きや曲率を
利用したり、また画像のテクスチャを用いて、それぞれ
各地点で求めた部分形状を統合し、被写体の立体形状を
求める方法や、被写体と共にパッドを撮影し、そのパッ
ドからカメラの位置と姿勢を求めて、それぞれ各地点で
求めた部分形状をある基準座標値に変換し、統合するこ
とにより被写体の立体情報を求める方法がある。前記パ
ッドには既知の特徴点があり、その特徴点である位置と
形状よりカメラの位置と姿勢を求めることができる。
体までの距離を求めることにより、ある地点からの被写
体の一部分の形状を求めることができる。更に、各地点
で得られる部分形状が部分的に重なるようにして、多地
点からそれぞれの地点での部分形状の面の傾きや曲率を
利用したり、また画像のテクスチャを用いて、それぞれ
各地点で求めた部分形状を統合し、被写体の立体形状を
求める方法や、被写体と共にパッドを撮影し、そのパッ
ドからカメラの位置と姿勢を求めて、それぞれ各地点で
求めた部分形状をある基準座標値に変換し、統合するこ
とにより被写体の立体情報を求める方法がある。前記パ
ッドには既知の特徴点があり、その特徴点である位置と
形状よりカメラの位置と姿勢を求めることができる。
【0010】視差を求めるには、立体(ステレオ)画像
間の対応点抽出処理を行うが、この対応点抽出処理方法
の代表的な手法の一つとして、テンプレートマッチング
法が一般に知られている。このテンプレートマッチング
法とは、図24(a)に示すように、基準となる画像2
41中の対応点をとりたい1点Pを囲むテンプレート2
42を考え、そのテンプレート242を同図(b)に示
す探索される画像243上全域に移動させ、各点におけ
る類似度を計算することにより対応点を決定する方法で
ある。
間の対応点抽出処理を行うが、この対応点抽出処理方法
の代表的な手法の一つとして、テンプレートマッチング
法が一般に知られている。このテンプレートマッチング
法とは、図24(a)に示すように、基準となる画像2
41中の対応点をとりたい1点Pを囲むテンプレート2
42を考え、そのテンプレート242を同図(b)に示
す探索される画像243上全域に移動させ、各点におけ
る類似度を計算することにより対応点を決定する方法で
ある。
【0011】類似度を求める評価関数としては、下記
(2)式のように輝度値の差分を使用する関数や、下記
(3)式のように輝度値の相関値を使用する関数があ
る。
(2)式のように輝度値の差分を使用する関数や、下記
(3)式のように輝度値の相関値を使用する関数があ
る。
【0012】
【数2】
【0013】
【数3】 上記(1),(3)式でF(i,j)はテンプレート
を、A(i,j)は探索される画像を表わしている。つ
まり、上記式は、探索される画像上でテンプレートの位
置を(v,h)だけ移動させたときの類似度を示す。な
お、上記(2)式を用いると、E(v,h)が最小とな
った点が対応点であり、理論上E(v,h)の最小値は
0となる。また、上記(3)式を用いると、σ(v,
h)が最大となった点が対応点であり、理論上σ(v,
h)の最小値は1となる。
を、A(i,j)は探索される画像を表わしている。つ
まり、上記式は、探索される画像上でテンプレートの位
置を(v,h)だけ移動させたときの類似度を示す。な
お、上記(2)式を用いると、E(v,h)が最小とな
った点が対応点であり、理論上E(v,h)の最小値は
0となる。また、上記(3)式を用いると、σ(v,
h)が最大となった点が対応点であり、理論上σ(v,
h)の最小値は1となる。
【0014】また別の評価関数として、下記(4)式の
ようにテンプレート内全体で、テンプレート内の各画素
と探索される画像上の1画素との差分があるしきい値ε
以下の画素数を求めて、その画素数が最多の点を対応点
とする関数がある。
ようにテンプレート内全体で、テンプレート内の各画素
と探索される画像上の1画素との差分があるしきい値ε
以下の画素数を求めて、その画素数が最多の点を対応点
とする関数がある。
【0015】
【数4】 この(4)式を用いると、C(v,h)が最大になった
点が対応点であり、理論上最大値はテンプレート内の全
画素数となる。
点が対応点であり、理論上最大値はテンプレート内の全
画素数となる。
【0016】
【発明が解決しようとする課題】しかしながら、上述し
た従来例の受動的手法にあっては、カメラが設置されて
いるある特定の位置から距離情報算出が主目的であり、
ある被写体の立体形状そのものを計測するものではな
い。
た従来例の受動的手法にあっては、カメラが設置されて
いるある特定の位置から距離情報算出が主目的であり、
ある被写体の立体形状そのものを計測するものではな
い。
【0017】また、上述した従来例の能動的手法では、
レーザー等を物体に照射するために、利用の点で繁雑で
あった。
レーザー等を物体に照射するために、利用の点で繁雑で
あった。
【0018】また、上述した従来例の立体画像法及び能
動的手法のいずれにおいても、ある物体の周囲を移動し
ながら撮像するような動的な撮像方式においても柔軟に
対応できるような奥行き情報抽出は行われていない。
動的手法のいずれにおいても、ある物体の周囲を移動し
ながら撮像するような動的な撮像方式においても柔軟に
対応できるような奥行き情報抽出は行われていない。
【0019】また、我々がオフィス等で一般に取り扱う
画像は、最終的には紙に印刷して出力されることが多
く、しかも使用する画像形態は自然画の場合もあれば、
被写体を輪郭線のみで表わす線画の場合もある。即ち、
被写体の情報をいろいろな側面から加工する事を行いた
いのに対して、上述した従来例では、被写体の立体形状
データをカメラが設置されているある特定の位置からの
算出を行い、二次元ディスプレイに忠実に表示すること
に主眼が置かれていたため、オフィスでは使われること
はなかった。
画像は、最終的には紙に印刷して出力されることが多
く、しかも使用する画像形態は自然画の場合もあれば、
被写体を輪郭線のみで表わす線画の場合もある。即ち、
被写体の情報をいろいろな側面から加工する事を行いた
いのに対して、上述した従来例では、被写体の立体形状
データをカメラが設置されているある特定の位置からの
算出を行い、二次元ディスプレイに忠実に表示すること
に主眼が置かれていたため、オフィスでは使われること
はなかった。
【0020】一方、電子カメラで撮像した画像がパーソ
ナルコンピュータに取り込まれた後、その画像を用いた
画像処理において、被写体の三次元データを抽出した上
で、被写体を任意の視点から見た場合の被写体像に変換
し、例えばオフィスで文章を作成する際に、その変換さ
れた被写体画像を取り入れた文章を作成するというアプ
リケーションは無かった。
ナルコンピュータに取り込まれた後、その画像を用いた
画像処理において、被写体の三次元データを抽出した上
で、被写体を任意の視点から見た場合の被写体像に変換
し、例えばオフィスで文章を作成する際に、その変換さ
れた被写体画像を取り入れた文章を作成するというアプ
リケーションは無かった。
【0021】また、上述した従来例の対応点抽出法によ
り得られた対応点が全て正解であるわけではない。例え
ば画像中で距離が大きく変化する領域、また光が強く当
たって「てかり」が生じている領域では誤抽出すること
が多い。つまり対応点抽出結果を全て用いて、(1)式
から距離を求めて統合すると、得られる物体の形状が正
解と異なることがある。
り得られた対応点が全て正解であるわけではない。例え
ば画像中で距離が大きく変化する領域、また光が強く当
たって「てかり」が生じている領域では誤抽出すること
が多い。つまり対応点抽出結果を全て用いて、(1)式
から距離を求めて統合すると、得られる物体の形状が正
解と異なることがある。
【0022】本発明は上述した従来の技術の有するこの
ような問題点に鑑みてなされたものであり、その第1の
目的とするところは、目的に応じた画像形態にして利用
可能にした画像情報入力方法及び装置を提供しようとす
るものである。
ような問題点に鑑みてなされたものであり、その第1の
目的とするところは、目的に応じた画像形態にして利用
可能にした画像情報入力方法及び装置を提供しようとす
るものである。
【0023】また、本発明の第2の目的とするところ
は、対応点抽出処理の誤抽出を除去して被写体の正しい
立体情報が得られるようにした画像情報入力方法及び装
置を提供しようとするものである。
は、対応点抽出処理の誤抽出を除去して被写体の正しい
立体情報が得られるようにした画像情報入力方法及び装
置を提供しようとするものである。
【0024】
【課題を解決するための手段】上記第1の目的を達成す
るために請求項1記載の画像情報入力方法は、単数の光
学系からなる撮像系により、任意の位置から被写体を撮
像して該被写体の奥行き情報を得る画像情報入力方法に
おいて、複数視点の立体画像からの視差情報を多数決し
て求めることを特徴とするものである。
るために請求項1記載の画像情報入力方法は、単数の光
学系からなる撮像系により、任意の位置から被写体を撮
像して該被写体の奥行き情報を得る画像情報入力方法に
おいて、複数視点の立体画像からの視差情報を多数決し
て求めることを特徴とするものである。
【0025】また、上記第1の目的を達成するために請
求項2記載の画像情報入力方法は、複数の光学系からな
る撮像系により、任意の位置から被写体を撮像して該被
写体の奥行き情報を得る画像情報入力方法において、複
数視点の立体画像からの視差情報を多数決して求めるこ
とを特徴とするものである。
求項2記載の画像情報入力方法は、複数の光学系からな
る撮像系により、任意の位置から被写体を撮像して該被
写体の奥行き情報を得る画像情報入力方法において、複
数視点の立体画像からの視差情報を多数決して求めるこ
とを特徴とするものである。
【0026】また、上記第2の目的を達成するために請
求項3記載の画像情報入力方法は、被写体に対して相対
的に移動する画像入力手段により入力された画像を用い
て前記被写体の一部分の形状を求め、それらの部分形状
から前記被写体全体の立体情報を求める画像情報入力方
法において、複数画像間の対応点を求め、該求めた対応
点から前記被写体の一部分の形状を求め、該求めた複数
の部分形状間の各対応点同士の同士の距離とその部分形
状を求めた対応点の第1の評価関数値とを用いて立体情
報を求めるための第2の評価関数値を計算し、該求めた
第2の評価関数値に基づき前記被写体の立体情報を出力
することを特徴とするものである。
求項3記載の画像情報入力方法は、被写体に対して相対
的に移動する画像入力手段により入力された画像を用い
て前記被写体の一部分の形状を求め、それらの部分形状
から前記被写体全体の立体情報を求める画像情報入力方
法において、複数画像間の対応点を求め、該求めた対応
点から前記被写体の一部分の形状を求め、該求めた複数
の部分形状間の各対応点同士の同士の距離とその部分形
状を求めた対応点の第1の評価関数値とを用いて立体情
報を求めるための第2の評価関数値を計算し、該求めた
第2の評価関数値に基づき前記被写体の立体情報を出力
することを特徴とするものである。
【0027】また、上記第2の目的を達成するために請
求項4記載の画像情報入力方法は、被写体に対して相対
的に移動する画像入力手段により入力された画像を用い
て前記被写体の一部分の形状を求め、それらの部分形状
から前記被写体全体の立体情報を求める画像情報入力方
法において、複数画像間の対応点を求め、該求めた対応
点から前記被写体の一部分の形状を求め、該求めた複数
の部分形状間の各対応点同士の同士の距離とその部分形
状を求めた対応点の第1の評価関数値の最高値とを用い
て立体情報を求めるための第2の評価関数値を計算し、
該求めた第2の評価関数値に基づき前記被写体の立体情
報を出力することを特徴とするものである。
求項4記載の画像情報入力方法は、被写体に対して相対
的に移動する画像入力手段により入力された画像を用い
て前記被写体の一部分の形状を求め、それらの部分形状
から前記被写体全体の立体情報を求める画像情報入力方
法において、複数画像間の対応点を求め、該求めた対応
点から前記被写体の一部分の形状を求め、該求めた複数
の部分形状間の各対応点同士の同士の距離とその部分形
状を求めた対応点の第1の評価関数値の最高値とを用い
て立体情報を求めるための第2の評価関数値を計算し、
該求めた第2の評価関数値に基づき前記被写体の立体情
報を出力することを特徴とするものである。
【0028】また、上記第1の目的を達成するために請
求項5記載の画像情報入力方法は、請求項1または2記
載の画像情報入力方法において、前記複数視点の立体画
像からの視差情報を多数決して求めることは、奥行き方
向の情報の内、他の奥行き情報と大きく異なる物を排除
することであることを特徴とするものである。
求項5記載の画像情報入力方法は、請求項1または2記
載の画像情報入力方法において、前記複数視点の立体画
像からの視差情報を多数決して求めることは、奥行き方
向の情報の内、他の奥行き情報と大きく異なる物を排除
することであることを特徴とするものである。
【0029】また、上記第1の目的を達成するために請
求項6記載の画像情報入力方法は、請求項1または2記
載の画像情報入力方法において、前記複数視点の立体画
像からの視差情報を多数決して求めることは、複数視点
の画像から、他の視点での画像と大きく輝度の異なる物
を排除した後に視差情報を求めることであることを特徴
とするものである。
求項6記載の画像情報入力方法は、請求項1または2記
載の画像情報入力方法において、前記複数視点の立体画
像からの視差情報を多数決して求めることは、複数視点
の画像から、他の視点での画像と大きく輝度の異なる物
を排除した後に視差情報を求めることであることを特徴
とするものである。
【0030】また、上記第1の目的を達成するために請
求項7記載の画像情報入力装置は、単数の光学系からな
る撮像系により、任意の位置から被写体を撮像して該被
写体の奥行き情報を得る奥行き情報抽出手段を有する画
像情報入力装置において、前記奥行き情報抽出手段は、
複数視点の立体画像からの視差情報を多数決して求める
視差情報抽出手段を備えていることを特徴とするもので
ある。
求項7記載の画像情報入力装置は、単数の光学系からな
る撮像系により、任意の位置から被写体を撮像して該被
写体の奥行き情報を得る奥行き情報抽出手段を有する画
像情報入力装置において、前記奥行き情報抽出手段は、
複数視点の立体画像からの視差情報を多数決して求める
視差情報抽出手段を備えていることを特徴とするもので
ある。
【0031】また、上記第1の目的を達成するために請
求項8記載の画像情報入力装置は、複数の光学系からな
る撮像系により、任意の位置から被写体を撮像して該被
写体の奥行き情報を得る奥行き情報抽出手段を有する画
像情報入力装置において、複数視点の立体画像からの視
差情報を多数決して求める視差情報抽出手段を備えてい
ることを特徴とするものである。
求項8記載の画像情報入力装置は、複数の光学系からな
る撮像系により、任意の位置から被写体を撮像して該被
写体の奥行き情報を得る奥行き情報抽出手段を有する画
像情報入力装置において、複数視点の立体画像からの視
差情報を多数決して求める視差情報抽出手段を備えてい
ることを特徴とするものである。
【0032】また、上記第1の目的を達成するために請
求項9記載の画像情報入力装置は、請求項7または8記
載の画像情報入力装置において、前記視差情報抽出手段
は、奥行き方向の情報の内、他の奥行き情報と大きく異
なる物を排除することを特徴とするものである。
求項9記載の画像情報入力装置は、請求項7または8記
載の画像情報入力装置において、前記視差情報抽出手段
は、奥行き方向の情報の内、他の奥行き情報と大きく異
なる物を排除することを特徴とするものである。
【0033】また、上記第1の目的を達成するために請
求項10記載の画像情報入力装置は、請求項7または8
記載の画像情報入力装置において、前記視差情報抽出手
段は、複数視点の画像から、他の視点での画像と大きく
輝度の異なる物を排除した後に視差情報を求めることを
特徴とするものである。
求項10記載の画像情報入力装置は、請求項7または8
記載の画像情報入力装置において、前記視差情報抽出手
段は、複数視点の画像から、他の視点での画像と大きく
輝度の異なる物を排除した後に視差情報を求めることを
特徴とするものである。
【0034】また、上記第2の目的を達成するために請
求項11記載の画像情報入力装置は、被写体に対して相
対的に移動する画像入力手段により入力された画像を用
いて前記被写体の一部分の形状を求め、それらの部分形
状から前記被写体全体の立体情報を求める画像情報入力
装置において、複数画像間の対応点を求める対応点抽出
手段と、該対応点抽出手段により求めた対応点から前記
被写体の一部分の形状を求める部分形状測定手段と、該
部分形状測定手段により求めた複数の部分形状間の各対
応点同士の同士の距離を求める距離測定手段と、前記部
分形状を求めた対応点の第1の評価関数値を計算する第
1の評価関数値演算手段と、前記距離測定手段により求
めた距離と前記第1の評価関数値演算手段により算出し
た第1の評価関数値とを用いて立体情報を求めるための
第2の評価関数値を計算する第2の評価関数値演算手段
と、該第2の評価関数値演算手段により求めた第2の評
価関数値に基づき前記被写体の立体情報を出力する出力
手段とを具備したことを特徴とするものである。
求項11記載の画像情報入力装置は、被写体に対して相
対的に移動する画像入力手段により入力された画像を用
いて前記被写体の一部分の形状を求め、それらの部分形
状から前記被写体全体の立体情報を求める画像情報入力
装置において、複数画像間の対応点を求める対応点抽出
手段と、該対応点抽出手段により求めた対応点から前記
被写体の一部分の形状を求める部分形状測定手段と、該
部分形状測定手段により求めた複数の部分形状間の各対
応点同士の同士の距離を求める距離測定手段と、前記部
分形状を求めた対応点の第1の評価関数値を計算する第
1の評価関数値演算手段と、前記距離測定手段により求
めた距離と前記第1の評価関数値演算手段により算出し
た第1の評価関数値とを用いて立体情報を求めるための
第2の評価関数値を計算する第2の評価関数値演算手段
と、該第2の評価関数値演算手段により求めた第2の評
価関数値に基づき前記被写体の立体情報を出力する出力
手段とを具備したことを特徴とするものである。
【0035】また、上記第2の目的を達成するために請
求項12記載の画像情報入力装置は、被写体に対して相
対的に移動する画像入力手段により入力された画像を用
いて前記被写体の一部分の形状を求め、それらの部分形
状から前記被写体全体の立体情報を求める画像情報入力
装置において、複数画像間の対応点を求める対応点抽出
手段と、該対応点抽出手段により求めた対応点から前記
被写体の一部分の形状を求める部分形状測定手段と、該
部分形状測定手段により求めた複数の部分形状間の各対
応点同士の同士の距離を求める距離測定手段と、前記部
分形状を求めた対応点の第1の評価関数値の最高値を計
算する第1の評価関数値演算手段と、前記距離測定手段
により求めた距離と前記第1の評価関数値演算手段によ
り算出した第1の評価関数値の最高値とを用いて立体情
報を求めるための第2の評価関数値を計算する第2の評
価関数値演算手段と、該第2の評価関数値演算手段によ
り求めた第2の評価関数値に基づき前記被写体の立体情
報を出力する出力手段とを具備したことを特徴とするも
のである。
求項12記載の画像情報入力装置は、被写体に対して相
対的に移動する画像入力手段により入力された画像を用
いて前記被写体の一部分の形状を求め、それらの部分形
状から前記被写体全体の立体情報を求める画像情報入力
装置において、複数画像間の対応点を求める対応点抽出
手段と、該対応点抽出手段により求めた対応点から前記
被写体の一部分の形状を求める部分形状測定手段と、該
部分形状測定手段により求めた複数の部分形状間の各対
応点同士の同士の距離を求める距離測定手段と、前記部
分形状を求めた対応点の第1の評価関数値の最高値を計
算する第1の評価関数値演算手段と、前記距離測定手段
により求めた距離と前記第1の評価関数値演算手段によ
り算出した第1の評価関数値の最高値とを用いて立体情
報を求めるための第2の評価関数値を計算する第2の評
価関数値演算手段と、該第2の評価関数値演算手段によ
り求めた第2の評価関数値に基づき前記被写体の立体情
報を出力する出力手段とを具備したことを特徴とするも
のである。
【0036】
【発明の実施の形態】以下、本発明の実施の形態を図1
〜図23に基づき説明する。
〜図23に基づき説明する。
【0037】(第1の実施の形態)まず、本発明の第1
の実施の形態を図1〜図16に基づき説明する。図1
は、本発明の第1の実施の形態に係る画像情報入力(入
出力)装置の構成を示すブロック図であり、同図中、1
は奥行き情報抽出手段、2は被写体(検出物)、3は背
面、4は表示手段(モニタ)、5は操作手段、6はプリ
ンタ、7はデータ合成手段、8は文章データ作成手段で
ある。
の実施の形態を図1〜図16に基づき説明する。図1
は、本発明の第1の実施の形態に係る画像情報入力(入
出力)装置の構成を示すブロック図であり、同図中、1
は奥行き情報抽出手段、2は被写体(検出物)、3は背
面、4は表示手段(モニタ)、5は操作手段、6はプリ
ンタ、7はデータ合成手段、8は文章データ作成手段で
ある。
【0038】奥行き情報抽出手段1は撮像ヘッド手段
(カメラッド)9及び制御手段10を有している。撮像
ヘッド手段9は左右側の撮像レンズ11L,11R及び照
明部12を有し、該照明部12は撮像環境に応じて照明
光を照射する。制御手段10はカメラ姿勢位置検知部1
3、画像メモリ14、奥行き情報(三次元画像データ)
演算部15及び二次元画像データ演算部16を有してい
る。カメラ姿勢位置検知部13はジャイロ等のセンサに
よる角度情報を算出する手段及び背面3から得られる情
報を基に画像処理で姿勢位置情報を算出する手段を有
し、撮像系の姿勢・位置を検出する。
(カメラッド)9及び制御手段10を有している。撮像
ヘッド手段9は左右側の撮像レンズ11L,11R及び照
明部12を有し、該照明部12は撮像環境に応じて照明
光を照射する。制御手段10はカメラ姿勢位置検知部1
3、画像メモリ14、奥行き情報(三次元画像データ)
演算部15及び二次元画像データ演算部16を有してい
る。カメラ姿勢位置検知部13はジャイロ等のセンサに
よる角度情報を算出する手段及び背面3から得られる情
報を基に画像処理で姿勢位置情報を算出する手段を有
し、撮像系の姿勢・位置を検出する。
【0039】撮像ヘッド手段9は撮像開始位置A0より
撮像終了位置Anまで移動しながら被写体2を撮像す
る。また、このときA0−An間の各撮像地点における
撮像ヘッド手段9の位置情報信号はカメラ姿勢位置検知
部13から出力される。
撮像終了位置Anまで移動しながら被写体2を撮像す
る。また、このときA0−An間の各撮像地点における
撮像ヘッド手段9の位置情報信号はカメラ姿勢位置検知
部13から出力される。
【0040】画像メモリ14は撮像ヘッド手段9で得ら
れた画像データとカメラ姿勢位置検知部13で得られた
撮像ヘッド手段9の位置情報を記憶する。奥行き情報演
算部15は画像メモリ14に記憶された画像データとそ
れに対応する撮像ヘッド手段9の位置情報を基に被写体
の立体形状(三次元画像データ)を算出する。二次元画
像データ演算部16は奥行き情報演算部15で得られた
被写体の三次元画像データから使用者の指定する画像形
態での任意の視点から見たときの被写体の二次元画像デ
ータを算出する。
れた画像データとカメラ姿勢位置検知部13で得られた
撮像ヘッド手段9の位置情報を記憶する。奥行き情報演
算部15は画像メモリ14に記憶された画像データとそ
れに対応する撮像ヘッド手段9の位置情報を基に被写体
の立体形状(三次元画像データ)を算出する。二次元画
像データ演算部16は奥行き情報演算部15で得られた
被写体の三次元画像データから使用者の指定する画像形
態での任意の視点から見たときの被写体の二次元画像デ
ータを算出する。
【0041】表示手段4は画像データを画面に表示す
る。操作手段5は各種の操作情報を入力する。プリンタ
6は画像情報を印刷用紙等に印刷出力する。データ合成
手段は奥行き情報抽出手段1からのデータと文章データ
作成手段8により作成された文章データを合成する。
る。操作手段5は各種の操作情報を入力する。プリンタ
6は画像情報を印刷用紙等に印刷出力する。データ合成
手段は奥行き情報抽出手段1からのデータと文章データ
作成手段8により作成された文章データを合成する。
【0042】なお、図1中、17Lは左側の撮像レンズ
11Lの撮像範囲を、17Rは右側の撮像レンズ11Rの
撮像範囲をそれぞれ示す。
11Lの撮像範囲を、17Rは右側の撮像レンズ11Rの
撮像範囲をそれぞれ示す。
【0043】図1において、まず、使用者は撮像ヘッド
手段9を被写体2に向け図示しないレリーズボタンを操
作すると被写体2の撮像が行われ、最初の画像データが
画像メモリ14に記憶される。次に使用者は撮像ヘッド
手段9を被写体2を中心に撮像開始位置A0から撮像終
了位置Anへ移動させる。撮像開始位置A0から撮像終
了位置Anへ移動している最中に、まず、撮像開始位置
A0に対して位置及び方向が所定量変化したことをカメ
ラ姿勢位置検知部13が検知すると、2度目の撮影が行
われ、以下順々にn度目まで撮像が行われていく。例え
ば3°毎に撮影されるときはA0〜Anが180°の場
合60回記録されることになる。角度の所定量の設定は
ジャイロ等のセンサーの性能並びに求めたい奥行き情報
の分解能から決める。例えばジャイロの検出能力が90
°/secならば、3°/フレーム速度に設定したりす
る。
手段9を被写体2に向け図示しないレリーズボタンを操
作すると被写体2の撮像が行われ、最初の画像データが
画像メモリ14に記憶される。次に使用者は撮像ヘッド
手段9を被写体2を中心に撮像開始位置A0から撮像終
了位置Anへ移動させる。撮像開始位置A0から撮像終
了位置Anへ移動している最中に、まず、撮像開始位置
A0に対して位置及び方向が所定量変化したことをカメ
ラ姿勢位置検知部13が検知すると、2度目の撮影が行
われ、以下順々にn度目まで撮像が行われていく。例え
ば3°毎に撮影されるときはA0〜Anが180°の場
合60回記録されることになる。角度の所定量の設定は
ジャイロ等のセンサーの性能並びに求めたい奥行き情報
の分解能から決める。例えばジャイロの検出能力が90
°/secならば、3°/フレーム速度に設定したりす
る。
【0044】このとき、画像データとカメラ姿勢位置検
知部13により得られた撮像ヘッド手段9の最初に撮影
した位置及び方向に対する変位量が画像メモリ14に記
憶される。このときカメラ姿勢位置検知部13によって
撮像ヘッド手段9の位置及び方向の少なくとも一方が所
定量より大きく移動していた場合には、後述する警告手
段により警告を行う。以下、この動作を数回繰り返し、
被写体2の奥行き情報データを演算するのに十分な画像
データが得られると、図示しない撮影終了報知手段によ
りその旨を使用者に知らせて撮影を終了する。
知部13により得られた撮像ヘッド手段9の最初に撮影
した位置及び方向に対する変位量が画像メモリ14に記
憶される。このときカメラ姿勢位置検知部13によって
撮像ヘッド手段9の位置及び方向の少なくとも一方が所
定量より大きく移動していた場合には、後述する警告手
段により警告を行う。以下、この動作を数回繰り返し、
被写体2の奥行き情報データを演算するのに十分な画像
データが得られると、図示しない撮影終了報知手段によ
りその旨を使用者に知らせて撮影を終了する。
【0045】次に奥行き情報演算部15では画像メモリ
14に記憶された画像データとそれぞれの画像データに
対応する撮像ヘッド手段9の位置情報から撮影した被写
体2の三次元画像データを算出する。二次元画像データ
演算部16は被写体2の三次元画像データから操作手段
5によって選択された画像形態で且つ被写体2を最初に
撮影した位置から見た二次元画像データを算出し、表示
手段4に表示する。このとき使用者は操作手段5を操作
すると、二次元画像データ演算部16はそれに応じて演
算処理を行い、任意の視点から見た被写体像に変更する
ことができる。また、操作手段5を操作することによっ
て、表示手段4に表示された被写体2の画像形態を変更
することができる。
14に記憶された画像データとそれぞれの画像データに
対応する撮像ヘッド手段9の位置情報から撮影した被写
体2の三次元画像データを算出する。二次元画像データ
演算部16は被写体2の三次元画像データから操作手段
5によって選択された画像形態で且つ被写体2を最初に
撮影した位置から見た二次元画像データを算出し、表示
手段4に表示する。このとき使用者は操作手段5を操作
すると、二次元画像データ演算部16はそれに応じて演
算処理を行い、任意の視点から見た被写体像に変更する
ことができる。また、操作手段5を操作することによっ
て、表示手段4に表示された被写体2の画像形態を変更
することができる。
【0046】次に奥行き情報抽出ブロックの構成及び動
作の詳細について、図2を用いて説明する。図2は奥行
き情報抽出手段1における撮像ヘッド手段9に関わる部
分の構成を示すブロック図であり、図1における撮像ヘ
ッド手段9と制御手段10の詳細を示す図である。図2
において、図1と同一部分には同一符号が付してある。
作の詳細について、図2を用いて説明する。図2は奥行
き情報抽出手段1における撮像ヘッド手段9に関わる部
分の構成を示すブロック図であり、図1における撮像ヘ
ッド手段9と制御手段10の詳細を示す図である。図2
において、図1と同一部分には同一符号が付してある。
【0047】図2中、11R及び11Lは撮像レンズ
で、ズームレンズとフォーカスレンズとからなる。10
1R及び101Lは絞りで、光量を制御する。102R
及び102Lはイメージセンサで、CCD(撮像素子)
等からなる。103R及び103LはA(アナログ)/
D(デジタル)変換部で、アナログ信号をデジタル信号
に変換する。104R及び104Lは映像信号処理部
で、イメージセンサ102R,102Lからの信号を映
像信号に変換する。105R及び105Lは被写体分離
部で、立体情報を抽出したい物体(図1の被写体2)と
背面(図1の背面3)を分離する。106R及び106
Lはズーム制御部で、撮像レンズ11R,11Lのズー
ムレンズの焦点位置の調整を行う。107R及び107
Lはフォーカス制御部で、撮像レンズ11R,11Lの
フォーカスレンズの焦点位置の調整を行う。108R及
び108Lは絞り制御部で、絞り101R,101Lの
絞り量の調整を行う。109R及び109Lはイメージ
センサドライバで、イメージセンサ102R,102L
を制御する。
で、ズームレンズとフォーカスレンズとからなる。10
1R及び101Lは絞りで、光量を制御する。102R
及び102Lはイメージセンサで、CCD(撮像素子)
等からなる。103R及び103LはA(アナログ)/
D(デジタル)変換部で、アナログ信号をデジタル信号
に変換する。104R及び104Lは映像信号処理部
で、イメージセンサ102R,102Lからの信号を映
像信号に変換する。105R及び105Lは被写体分離
部で、立体情報を抽出したい物体(図1の被写体2)と
背面(図1の背面3)を分離する。106R及び106
Lはズーム制御部で、撮像レンズ11R,11Lのズー
ムレンズの焦点位置の調整を行う。107R及び107
Lはフォーカス制御部で、撮像レンズ11R,11Lの
フォーカスレンズの焦点位置の調整を行う。108R及
び108Lは絞り制御部で、絞り101R,101Lの
絞り量の調整を行う。109R及び109Lはイメージ
センサドライバで、イメージセンサ102R,102L
を制御する。
【0048】12は照明部、13はカメラ姿勢位置検知
部、201はシステムコントローラで、奥行き情報抽出
手段1全体の制御を行うもので、図3に示すように、マ
イクロコンピュータ300、メモリ301及び画像演算
処理部302から構成されている。202は画像処理部
で、図1における画像メモリ14、奥行き情報演算部1
5及び二次元画像データ演算部16を含むものである。
203はレリーズボタン、204は表示部、205は記
録部、206は合焦検出部、207は外部I/F(イン
ターフェース)、208a,208bはメモリ、209
a,209bはメモリ、210はオーバーラップ検出
部、211は発音体である。
部、201はシステムコントローラで、奥行き情報抽出
手段1全体の制御を行うもので、図3に示すように、マ
イクロコンピュータ300、メモリ301及び画像演算
処理部302から構成されている。202は画像処理部
で、図1における画像メモリ14、奥行き情報演算部1
5及び二次元画像データ演算部16を含むものである。
203はレリーズボタン、204は表示部、205は記
録部、206は合焦検出部、207は外部I/F(イン
ターフェース)、208a,208bはメモリ、209
a,209bはメモリ、210はオーバーラップ検出
部、211は発音体である。
【0049】図2において、被写体像は各々の撮像レン
ズ11R,11Lを通して入力される。入力された被写
体像はイメージセンサ102R,102Lで電気信号に
変換される。変換された信号は、各々のA/D変換部1
03R,103Lでアナログからデジタルの信号に変換
されて映像信号処理部104R,104Lに供給され
る。
ズ11R,11Lを通して入力される。入力された被写
体像はイメージセンサ102R,102Lで電気信号に
変換される。変換された信号は、各々のA/D変換部1
03R,103Lでアナログからデジタルの信号に変換
されて映像信号処理部104R,104Lに供給され
る。
【0050】各々の映像信号処理部104R,104L
においては、デジタル化された被写体2の信号を適切な
形態の輝度信号及び色信号に変換処理する。被写体分離
部105R,105Lにおいては、各々の映像信号処理
部104R,104Lより得られる信号を基に撮像され
る被写体2において、奥行き情報を計測したい主被写体
と背面とを分離する。この分離の方法としては、例えば
予め背面の映像を撮像しておき、その画像をメモリ20
8a,208b、209a,209bに保持し、その
後、測定したい主被写体を置いて撮像を行う。撮像した
映像と予めメモリ208a,208b、209a,20
9bに保持している背面の映像とのマッチング及び差分
処理を施し、背面領域を分離する等の方法を用いる。分
離の方法としては、これに限るものではなく、色或いは
テクスチャの情報を基に分離しても良い。分離された主
被写体の映像は画像処理部202に与えられ、この画像
処理部202において撮像時の各パラメータを基に奥行
き情報の抽出処理(ここでは処理#1、詳細は後述す
る)が施される。
においては、デジタル化された被写体2の信号を適切な
形態の輝度信号及び色信号に変換処理する。被写体分離
部105R,105Lにおいては、各々の映像信号処理
部104R,104Lより得られる信号を基に撮像され
る被写体2において、奥行き情報を計測したい主被写体
と背面とを分離する。この分離の方法としては、例えば
予め背面の映像を撮像しておき、その画像をメモリ20
8a,208b、209a,209bに保持し、その
後、測定したい主被写体を置いて撮像を行う。撮像した
映像と予めメモリ208a,208b、209a,20
9bに保持している背面の映像とのマッチング及び差分
処理を施し、背面領域を分離する等の方法を用いる。分
離の方法としては、これに限るものではなく、色或いは
テクスチャの情報を基に分離しても良い。分離された主
被写体の映像は画像処理部202に与えられ、この画像
処理部202において撮像時の各パラメータを基に奥行
き情報の抽出処理(ここでは処理#1、詳細は後述す
る)が施される。
【0051】一方、各々の映像信号処理部104R,1
04Lにおいて、デジタル化された被写体2の信号を、
適切な形態の輝度信号及び色信号に変換処理されたもの
は、画像処理部202に送られ、視差を求めて奥行き情
報の抽出処理(ここでは処理#2、詳細は後述する)が
施される。そして、前記処理#1による奥行き情報と前
記処理#2らによる奥行き情報とを組み合わせて全体の
奥行き情報を求めて行く(詳細は後述する)。
04Lにおいて、デジタル化された被写体2の信号を、
適切な形態の輝度信号及び色信号に変換処理されたもの
は、画像処理部202に送られ、視差を求めて奥行き情
報の抽出処理(ここでは処理#2、詳細は後述する)が
施される。そして、前記処理#1による奥行き情報と前
記処理#2らによる奥行き情報とを組み合わせて全体の
奥行き情報を求めて行く(詳細は後述する)。
【0052】また、焦点距離の設定は、距離情報が下記
(5)式により表わすことができる。
(5)式により表わすことができる。
【0053】
【数5】 ここで、Zは距離、fは焦点距離、bは基線長、dは視
差を示す。
差を示す。
【0054】視差により決まる距離分解能をパラメータ
として考え、下記(6)式及び(7)式のようになる。
として考え、下記(6)式及び(7)式のようになる。
【0055】
【数6】
【0056】
【数7】 従って外部入力I/F207を通してコンピュータ等か
ら分解能を設定し、この値を基に焦点距離を設定するこ
とも可能である。
ら分解能を設定し、この値を基に焦点距離を設定するこ
とも可能である。
【0057】奥行き情報抽出処理は画像処理部202で
行われるが、得られた画像から被写体2の奥行き情報を
抽出する手法について図4を用いて説明する。
行われるが、得られた画像から被写体2の奥行き情報を
抽出する手法について図4を用いて説明する。
【0058】図4において、1100は得られた画像か
ら背景との被写体分離が行われた背景分離画像、110
1は被写体を示す部分、1102は背景部である。11
10はカメラの主点、1120は被写体の奥行き情報を
表現するボクセル空間である。1130〜1134は背
景と分離された画像の輪郭部からカメラの主点1110
を通る線分であり、この線分1130〜1134がボク
セル空間1120を横切る。
ら背景との被写体分離が行われた背景分離画像、110
1は被写体を示す部分、1102は背景部である。11
10はカメラの主点、1120は被写体の奥行き情報を
表現するボクセル空間である。1130〜1134は背
景と分離された画像の輪郭部からカメラの主点1110
を通る線分であり、この線分1130〜1134がボク
セル空間1120を横切る。
【0059】まず、得られた画像は図2に示す被写体分
離部105R,105Lにおいて、各々の映像信号処理
部104R,104Lより得られる信号を基に撮像され
る被写体において、奥行き情報を計測したい主被写体と
背面とを分離する。この分離の方法としては、上述した
ように例えば予め背面の映像を撮像しておき、その画像
をメモリ208a,208b、209a,209bに保
持し、その後測定したい主被写体を置いて撮像を行い、
撮像した映像と予めメモリ208a,208b、209
a,209bに保持している背面の映像とのマッチング
及び差分処理を施し背面領域を分離する方法等を用い
る。
離部105R,105Lにおいて、各々の映像信号処理
部104R,104Lより得られる信号を基に撮像され
る被写体において、奥行き情報を計測したい主被写体と
背面とを分離する。この分離の方法としては、上述した
ように例えば予め背面の映像を撮像しておき、その画像
をメモリ208a,208b、209a,209bに保
持し、その後測定したい主被写体を置いて撮像を行い、
撮像した映像と予めメモリ208a,208b、209
a,209bに保持している背面の映像とのマッチング
及び差分処理を施し背面領域を分離する方法等を用い
る。
【0060】この結果、分離した後に被写体を示す部分
1101には被写体を示すフラグ(1)を付加し、背景
部1102は背景を示すフラグ(0)を付加する。これ
によって、背景分離画像1100を得る。
1101には被写体を示すフラグ(1)を付加し、背景
部1102は背景を示すフラグ(0)を付加する。これ
によって、背景分離画像1100を得る。
【0061】次に被写体の輪郭部からボクセルデータを
切る行為を行う。切る行為とは、線分1130〜113
4等より外の部分は被写体ではないとして捨てることで
ある。処理動作としては、捨てる部分に対して、例えば
フラグを立てることを行う。例えば図5に示すように多
視点から切る行為を行う。
切る行為を行う。切る行為とは、線分1130〜113
4等より外の部分は被写体ではないとして捨てることで
ある。処理動作としては、捨てる部分に対して、例えば
フラグを立てることを行う。例えば図5に示すように多
視点から切る行為を行う。
【0062】図5は多視点から切る動作の模式図であ
り、同図は説明の簡略化のためにカメラは二次元的に動
作し、その断面を見た図となっている。
り、同図は説明の簡略化のためにカメラは二次元的に動
作し、その断面を見た図となっている。
【0063】図5中、1200〜1203はある視点に
おけるカメラの主点、1210はボクセル空間の一部、
1220〜1227は被写体の輪郭部からボクセルデー
タを切る境界線、1230は切り落とし処理後に残され
た領域、1231は被写体の真の形状、1240〜12
43はセンサー面の断面である。
おけるカメラの主点、1210はボクセル空間の一部、
1220〜1227は被写体の輪郭部からボクセルデー
タを切る境界線、1230は切り落とし処理後に残され
た領域、1231は被写体の真の形状、1240〜12
43はセンサー面の断面である。
【0064】図5(a)において、主点1200の位置
にある画像からは境界線1220,1221が引ける。
また、主点1201の位置にある画像からは境界線12
22,1223が引ける。このようにして境界線の中に
残ったものが領域1230である。更に、多視点にして
いくことにより被写体の形状に近付いて行くことにな
る。このようにして抽出した結果が図5(b)に示され
ている。この抽出結果は1230であり、a,b,c,
d,e,f,g,hで囲まれる領域である。図5(b)
では抽出結果1230の上に被写体の真の形状1231
をオーバーラップして記載してある。
にある画像からは境界線1220,1221が引ける。
また、主点1201の位置にある画像からは境界線12
22,1223が引ける。このようにして境界線の中に
残ったものが領域1230である。更に、多視点にして
いくことにより被写体の形状に近付いて行くことにな
る。このようにして抽出した結果が図5(b)に示され
ている。この抽出結果は1230であり、a,b,c,
d,e,f,g,hで囲まれる領域である。図5(b)
では抽出結果1230の上に被写体の真の形状1231
をオーバーラップして記載してある。
【0065】これを三次元的に行うには、例えばボクセ
ル側の図4に示すX,Y,Z軸から逆に主点を通る線分
を計算し、画像中の何処に投影されるかを計算し、その
投影場所が先の画像のフラグを見て被写体を示すか背景
を示すかを判断しても良い。これを図4の(0,0,
0)から(x0,y0,z0)まで繰り返すのである。
ル側の図4に示すX,Y,Z軸から逆に主点を通る線分
を計算し、画像中の何処に投影されるかを計算し、その
投影場所が先の画像のフラグを見て被写体を示すか背景
を示すかを判断しても良い。これを図4の(0,0,
0)から(x0,y0,z0)まで繰り返すのである。
【0066】これは投影される点を(x,y)とする
と、x,yは下記(8)式、(9)式で与えられる。
と、x,yは下記(8)式、(9)式で与えられる。
【0067】
【数8】
【0068】
【数9】 X′,Y′,Z′は、X,Y,Z座標上の位置をそれぞ
れ各軸に対してω,θ,ψ回転させ、さらに軸方向に
a,b,cシフトさせた位置の座標を示している。
れ各軸に対してω,θ,ψ回転させ、さらに軸方向に
a,b,cシフトさせた位置の座標を示している。
【0069】但し、(a,b,c)は主点1110の座
標値、ω,θ,ψはそれぞれ図4に示すように各X,
Y,Z軸の回りの回転角を示す。これはカメラの主点と
ボクセルの原点との距離(a,b,c)に対して捩れて
いることを示すものである。
標値、ω,θ,ψはそれぞれ図4に示すように各X,
Y,Z軸の回りの回転角を示す。これはカメラの主点と
ボクセルの原点との距離(a,b,c)に対して捩れて
いることを示すものである。
【0070】このx,yの場所のフラグデータを参照す
る訳である。x,yが整数値でない場合は、近傍領域か
らフラグデータを判断する。フラグデータに基づきボク
セルデータが被写体内にあるか否かの判断を行う。この
ような処理を多視点から繰り返し行うことにより、被写
体の奥行き情報がボクセル空間の中に抽出される。
る訳である。x,yが整数値でない場合は、近傍領域か
らフラグデータを判断する。フラグデータに基づきボク
セルデータが被写体内にあるか否かの判断を行う。この
ような処理を多視点から繰り返し行うことにより、被写
体の奥行き情報がボクセル空間の中に抽出される。
【0071】図6はこのようにして奥行情報を得る処理
を示す図である。同図において、図4と同一部分には同
一符号が付してある。
を示す図である。同図において、図4と同一部分には同
一符号が付してある。
【0072】次に立体画像から奥行き情報を抽出する処
理動作について、図7を用いて説明する。図7におい
て、701R,701Lは図1の画像メモリ14に格納さ
れた左右の立体画像で、以下、必要に応じて701Rを
右画像、701Lを左画像と記述する。702R,702L
はエッジ抽出処理部で、立体画像701R,701Lから
それぞれエッジを抽出した画像を生成する。703は立
体画像対応点抽出処理部で、立体画像701R,701L
のそれぞれの画素がどういう対応関係になっているのか
を抽出処理する。704はエッジ画像対応点抽出処理部
で、エッジ抽出処理部702R,702Lにおいてエッジ
画像にされた2つの画像中のそれぞれの画素がどういう
対応関係になっているのかを抽出処理する。
理動作について、図7を用いて説明する。図7におい
て、701R,701Lは図1の画像メモリ14に格納さ
れた左右の立体画像で、以下、必要に応じて701Rを
右画像、701Lを左画像と記述する。702R,702L
はエッジ抽出処理部で、立体画像701R,701Lから
それぞれエッジを抽出した画像を生成する。703は立
体画像対応点抽出処理部で、立体画像701R,701L
のそれぞれの画素がどういう対応関係になっているのか
を抽出処理する。704はエッジ画像対応点抽出処理部
で、エッジ抽出処理部702R,702Lにおいてエッジ
画像にされた2つの画像中のそれぞれの画素がどういう
対応関係になっているのかを抽出処理する。
【0073】705は矛盾等排除処理部で、対応点抽出
処理部703及びエッジ画像対応点抽出処理部704の
それぞれで得られた対応関係に矛盾することがないか否
かを判断し、矛盾箇所は除去する処理を行う。706は
オクルージョン領域判定処理部で、得られた対応点箇所
と、対応点を求める途中で使用している相関の程度を表
わす指数、例えば残差でオクルージョン領域を判定す
る。707は奥行き情報分布算出処理部で、対応点関係
から三角測量の原理で奥行き情報分布を算出する。70
8R,708Lは特徴点抽出処理部で、背面部の特徴点を
抽出処理する。709は補正データ算出処理部で、補正
データを算出処理する。710はジャイロで、角度情報
を検出する。
処理部703及びエッジ画像対応点抽出処理部704の
それぞれで得られた対応関係に矛盾することがないか否
かを判断し、矛盾箇所は除去する処理を行う。706は
オクルージョン領域判定処理部で、得られた対応点箇所
と、対応点を求める途中で使用している相関の程度を表
わす指数、例えば残差でオクルージョン領域を判定す
る。707は奥行き情報分布算出処理部で、対応点関係
から三角測量の原理で奥行き情報分布を算出する。70
8R,708Lは特徴点抽出処理部で、背面部の特徴点を
抽出処理する。709は補正データ算出処理部で、補正
データを算出処理する。710はジャイロで、角度情報
を検出する。
【0074】図7において、まず、図1の画像メモリ1
4に格納されている立体画像701R,701Lから2つ
の処理が行われる。その1つ目の処理は、後述する処理
方法を用いて立体画像対応点抽出処理部703で立体画
像701R,701Lの輝度値からそれぞれの画素がどう
いう対応関係になっているかを抽出する処理である。ま
た、2つ目の処理は、後述する処理方法を用いてエッジ
画像対応点抽出処理部704にてエッジ画像にされた2
つの画像中のそれぞれの画素がどういう関係になってい
るかを抽出する処理である。
4に格納されている立体画像701R,701Lから2つ
の処理が行われる。その1つ目の処理は、後述する処理
方法を用いて立体画像対応点抽出処理部703で立体画
像701R,701Lの輝度値からそれぞれの画素がどう
いう対応関係になっているかを抽出する処理である。ま
た、2つ目の処理は、後述する処理方法を用いてエッジ
画像対応点抽出処理部704にてエッジ画像にされた2
つの画像中のそれぞれの画素がどういう関係になってい
るかを抽出する処理である。
【0075】エッジ画像の生成に関しては、後述する処
理方法を用いたエッジ抽出処理部702R,702Lを介
して生成されるものとする。
理方法を用いたエッジ抽出処理部702R,702Lを介
して生成されるものとする。
【0076】次に矛盾箇所は、矛盾等排除処理部705
でそれぞれの対応点抽出処理部703,704からの出
力より対応関係の矛盾等を判断する。輝度部からの対応
関係とエッジ部からの対応関係が一致しないときは信頼
性が低いとして、その対応関係は排除するのが適当であ
る。或いはそれぞれの関係に重み付けをして判断するこ
とも可能である。
でそれぞれの対応点抽出処理部703,704からの出
力より対応関係の矛盾等を判断する。輝度部からの対応
関係とエッジ部からの対応関係が一致しないときは信頼
性が低いとして、その対応関係は排除するのが適当であ
る。或いはそれぞれの関係に重み付けをして判断するこ
とも可能である。
【0077】次のステップは、得られた対応点箇所と対
応点を求める途中で使用している相関の程度を表わす指
数、例えば残差でオクルージョン領域を判断する処理で
ある。これは対応点処理が一応の結果を出すものの、そ
の信頼性を付加しようとする処理である。相関の程度を
表わす指数として、相関関数或いは残差を用いて、その
残差が非常に大きいとき或いは相関関数が低いときは、
対応関係の信頼性が低いとする。この低い所をオクルー
ジョン領域或いは対応がない領域として取り扱う。
応点を求める途中で使用している相関の程度を表わす指
数、例えば残差でオクルージョン領域を判断する処理で
ある。これは対応点処理が一応の結果を出すものの、そ
の信頼性を付加しようとする処理である。相関の程度を
表わす指数として、相関関数或いは残差を用いて、その
残差が非常に大きいとき或いは相関関数が低いときは、
対応関係の信頼性が低いとする。この低い所をオクルー
ジョン領域或いは対応がない領域として取り扱う。
【0078】上記ステップを経て、得られた対応関係を
用いて三角測量の原理を用いて被写体の奥行き情報を算
出する。
用いて三角測量の原理を用いて被写体の奥行き情報を算
出する。
【0079】三角測量は上記(2)式で説明した通りで
ある。
ある。
【0080】次に対応点抽出方法を説明するが、ここで
は代表的なテンプレートマッチング法による手法を図9
を用いて説明する。
は代表的なテンプレートマッチング法による手法を図9
を用いて説明する。
【0081】図9に示すようにN×N画素のテンプレー
ト画像を、例えば左の撮像系から得られた画像から切り
出す。これを右の撮像系から得られた画像のM×M画素
の入力画像内の探索領域範囲(M−N+1)2上で動か
し、下記(10)式により求めた残差R(a,b)が最
小になるようなテンプレート画像の位置を求めて、N×
Nのテンプレート画像の中心画素を一致箇所として求め
る。
ト画像を、例えば左の撮像系から得られた画像から切り
出す。これを右の撮像系から得られた画像のM×M画素
の入力画像内の探索領域範囲(M−N+1)2上で動か
し、下記(10)式により求めた残差R(a,b)が最
小になるようなテンプレート画像の位置を求めて、N×
Nのテンプレート画像の中心画素を一致箇所として求め
る。
【0082】
【数10】 但し、(a,b)は画像内におけるテンプレート画像の
左上位置を示し、IR(a,b)(i,j)は右画像の部分画
像、TL(i,j)は左画像から切り出したテンプレー
ト画像である。
左上位置を示し、IR(a,b)(i,j)は右画像の部分画
像、TL(i,j)は左画像から切り出したテンプレー
ト画像である。
【0083】エッジ抽出法は、例えばロバートフィルタ
法或いはゾーベルフィルタ法等の手法が用いられる。
法或いはゾーベルフィルタ法等の手法が用いられる。
【0084】ロバートフィルタ法の場合は、入力画像を
f(i,j)、出力画像をg(i,j)とすると、f(i,j)及びg(i,j)
は、下記(11)式及び(12)式により求まる。
f(i,j)、出力画像をg(i,j)とすると、f(i,j)及びg(i,j)
は、下記(11)式及び(12)式により求まる。
【0085】
【数11】
【0086】
【数12】 ゾーベルフィルタ法の場合は、テンプレートのX−Y座
標を考えて、各画素の値をマトリクス表示し、そのX方
向、Y方向の画素の値をfx,fyで示し、θをそのフ
ィルタリング方向とすると、
標を考えて、各画素の値をマトリクス表示し、そのX方
向、Y方向の画素の値をfx,fyで示し、θをそのフ
ィルタリング方向とすると、
【0087】
【数13】
【0088】
【数14】
【0089】
【数15】 このようにしてエッジ部が強調された画像に対して2値
化処理を行ってエッジ成分を抽出する。2値化は適当な
しきい値を用いて行う。
化処理を行ってエッジ成分を抽出する。2値化は適当な
しきい値を用いて行う。
【0090】以上の手法によって求められた奥行き情報
を図示すると、図9のようになる。同図において、図4
と同一部分には同一符号が付してある。図9中、Bは基
線長、○は得られた奥行き情報をそれぞれ示す。
を図示すると、図9のようになる。同図において、図4
と同一部分には同一符号が付してある。図9中、Bは基
線長、○は得られた奥行き情報をそれぞれ示す。
【0091】次に多視点での立体画像より得られた奥行
き情報の処理について図10を用いて説明する。図10
は、上述のようにして得られた1視点での立体画像から
多視点の奥行き情報を加えて行く手順を示す図である。
同図において、1001a,1001bは得られた1対
の立体画像からの奥行き情報である。1002a,10
02bは座標系の変換処理部で、得られた1対の立体画
像からの奥行き情報1001a,1001bを視点毎の
奥行き情報から任意の統一された座標系に変換処理す
る。1003は奥行き情報の統合処理部で、統一された
座標系に変換されたそれぞれの奥行き情報を統合処理す
る。ここでいう統合とは、少なくとも2つ以上の任意の
位置からの被写体の奥行き情報1001a,1001b
に対して、局所的なずれ情報を得て、得られたずれ情報
を基に同一座標系から見た奥行き情報にするよう同一点
は同一とすること、求められた各点の座標の間を補間す
ること、更に少なくとも3つ以上の複数視点で得られた
それぞれの奥行き情報の内、重複する領域の奥行き情報
を多数決処理を行う。1004はオクルージョン領域情
報送出部で、オクルージョン領域情報を送出する。10
05は表示部で、統合された奥行き情報を表示する。
き情報の処理について図10を用いて説明する。図10
は、上述のようにして得られた1視点での立体画像から
多視点の奥行き情報を加えて行く手順を示す図である。
同図において、1001a,1001bは得られた1対
の立体画像からの奥行き情報である。1002a,10
02bは座標系の変換処理部で、得られた1対の立体画
像からの奥行き情報1001a,1001bを視点毎の
奥行き情報から任意の統一された座標系に変換処理す
る。1003は奥行き情報の統合処理部で、統一された
座標系に変換されたそれぞれの奥行き情報を統合処理す
る。ここでいう統合とは、少なくとも2つ以上の任意の
位置からの被写体の奥行き情報1001a,1001b
に対して、局所的なずれ情報を得て、得られたずれ情報
を基に同一座標系から見た奥行き情報にするよう同一点
は同一とすること、求められた各点の座標の間を補間す
ること、更に少なくとも3つ以上の複数視点で得られた
それぞれの奥行き情報の内、重複する領域の奥行き情報
を多数決処理を行う。1004はオクルージョン領域情
報送出部で、オクルージョン領域情報を送出する。10
05は表示部で、統合された奥行き情報を表示する。
【0092】図10において、得られた立体画像からの
奥行き情報1001a,1001bは時々刻々生成され
る。一方、図1の撮像ヘッド手段9の移動量や方向等を
検知するカメラ姿勢位置検知部13からは、その検知情
報が送出される。これらの情報を用いて後述する処理方
法により、得られた奥行き情報を座標系の変換部100
2a,1002bにより統一された座標系に変換する。
統一された座標系とは、例えば図4に示すボクセル空間
1120と同一の座標系でも良い。
奥行き情報1001a,1001bは時々刻々生成され
る。一方、図1の撮像ヘッド手段9の移動量や方向等を
検知するカメラ姿勢位置検知部13からは、その検知情
報が送出される。これらの情報を用いて後述する処理方
法により、得られた奥行き情報を座標系の変換部100
2a,1002bにより統一された座標系に変換する。
統一された座標系とは、例えば図4に示すボクセル空間
1120と同一の座標系でも良い。
【0093】統一された座標系に変換することにより、
多視点で得られた情報を統合し易くするものである。奥
行き情報を統一された座標系に変換する方法としては、
アフィン変換等を用いて、オイラー角を同じにしたもの
とする。
多視点で得られた情報を統合し易くするものである。奥
行き情報を統一された座標系に変換する方法としては、
アフィン変換等を用いて、オイラー角を同じにしたもの
とする。
【0094】次に統一された座標系に変換された奥行き
情報を統合処理する奥行き情報統合処理部1003につ
いて図11を用いて説明する。図11は統合の内、多数
決処理する部分を示す図である。
情報を統合処理する奥行き情報統合処理部1003につ
いて図11を用いて説明する。図11は統合の内、多数
決処理する部分を示す図である。
【0095】図11(a)中、△(20000,200
20〜20022)はある視点で得られた奥行き情報
を、○(20001)は次の視点で得られた奥行き情報
を、□(20002)は次の次の視点で得られた奥行き
情報を、図11(b)中、☆(20003)は多数決処
理を施した後の奥行き情報をそれぞれ示す。また、20
010は3つの視点から奥行き情報が重複している領域
である。
20〜20022)はある視点で得られた奥行き情報
を、○(20001)は次の視点で得られた奥行き情報
を、□(20002)は次の次の視点で得られた奥行き
情報を、図11(b)中、☆(20003)は多数決処
理を施した後の奥行き情報をそれぞれ示す。また、20
010は3つの視点から奥行き情報が重複している領域
である。
【0096】なお、説明の簡素化のために奥行き情報
は、X−Zの二次元座標で示しており、被写体はY軸方
向には変化のないものを仮定した。
は、X−Zの二次元座標で示しており、被写体はY軸方
向には変化のないものを仮定した。
【0097】今、3視点からの奥行き情報△(2000
0)、○(20001)、□(20002)が得られて
おり、その奥行き情報が重複領域20010において複
数求められている。しかるに奥行き情報20020〜2
0022のように、他の視点から得られた情報に比べて
奥行き情報が異なって求められることがある。これは、
例えば被写体の表面の鏡面反射成分が強い場合に、この
ようなことが考えられる。一般に鏡面反射成分が強い場
合は、その輝度の強さは他に比べて突出していたりす
る。この場合、対応点抽出処理は、その強い輝度情報に
影響され、視差情報を正しく出さない。従って奥行き情
報20020〜20022のような状況をもたらす。
0)、○(20001)、□(20002)が得られて
おり、その奥行き情報が重複領域20010において複
数求められている。しかるに奥行き情報20020〜2
0022のように、他の視点から得られた情報に比べて
奥行き情報が異なって求められることがある。これは、
例えば被写体の表面の鏡面反射成分が強い場合に、この
ようなことが考えられる。一般に鏡面反射成分が強い場
合は、その輝度の強さは他に比べて突出していたりす
る。この場合、対応点抽出処理は、その強い輝度情報に
影響され、視差情報を正しく出さない。従って奥行き情
報20020〜20022のような状況をもたらす。
【0098】この誤った情報を除去するために、他点か
らの情報を利用する。視点が変わると別の箇所に強い輝
度成分はもたらすので、奥行き情報20020〜200
22は別の場所、ここではX軸方向に別という意味で、
図中外に移動している。
らの情報を利用する。視点が変わると別の箇所に強い輝
度成分はもたらすので、奥行き情報20020〜200
22は別の場所、ここではX軸方向に別という意味で、
図中外に移動している。
【0099】このことから少なくとも3視点からの情報
が重複する領域で2つ以上が同じ奥行きを示す場合は採
用し、1つだけ大きくなる奥行き情報を示すものは除去
することを行う。ここでは、奥行き情報20020〜2
0022が除去される。除去する方法としては、近傍領
域で突出した奥行きを示すものとして、あるしきい値を
越えるものは除去する方法が挙げられる。
が重複する領域で2つ以上が同じ奥行きを示す場合は採
用し、1つだけ大きくなる奥行き情報を示すものは除去
することを行う。ここでは、奥行き情報20020〜2
0022が除去される。除去する方法としては、近傍領
域で突出した奥行きを示すものとして、あるしきい値を
越えるものは除去する方法が挙げられる。
【0100】除去された後には、奥行き情報△(200
00)、○(20001)、□(20002)から平均
を取る等して、最終的な奥行き情報☆(20003)を
得る。
00)、○(20001)、□(20002)から平均
を取る等して、最終的な奥行き情報☆(20003)を
得る。
【0101】奥行き情報☆(20003)は重複領域2
0010の中で得られるから、全体を得るためにまた別
の3視点からの重複領域を用いて次々と繋げて行く。こ
のようにして鏡面反射成分の悪影響を除去した形で、図
11(b)に示すような奥行き情報☆(20003)を
得ることができる。
0010の中で得られるから、全体を得るためにまた別
の3視点からの重複領域を用いて次々と繋げて行く。こ
のようにして鏡面反射成分の悪影響を除去した形で、図
11(b)に示すような奥行き情報☆(20003)を
得ることができる。
【0102】また、多数決処理の際の奥行き情報を得る
過程で、奥行き情報の平均ではなく、奥行き情報△(2
0000)、○(20001)、□(20002)の
内、正しいものを採用して行くことでも良い。
過程で、奥行き情報の平均ではなく、奥行き情報△(2
0000)、○(20001)、□(20002)の
内、正しいものを採用して行くことでも良い。
【0103】更に、平均処理及び1つを選択する処理以
外の方法として、局所的なずれを補間する方法が挙げら
れる。以下、その手法について図12を用いて説明す
る。
外の方法として、局所的なずれを補間する方法が挙げら
れる。以下、その手法について図12を用いて説明す
る。
【0104】図12の(a)はZt(X,Y)を示す図
であり、これは1視点 (t)より得られた奥行き情報を
示す図である。(b)は次の視点(t+δt)で得られ
た奥行き情報Zt+δt(X,Y)を統一された方向から
見たZ’t+δt(X,Y)を示す図である。(c)は
(a)と(b)がそれぞれ局所的に(i0,j0)ずれて重
ねられた状態を示す図である。(d)は(a)に(b)
が(i0,j0)シフトされて重ねられた状態を示す図であ
る。
であり、これは1視点 (t)より得られた奥行き情報を
示す図である。(b)は次の視点(t+δt)で得られ
た奥行き情報Zt+δt(X,Y)を統一された方向から
見たZ’t+δt(X,Y)を示す図である。(c)は
(a)と(b)がそれぞれ局所的に(i0,j0)ずれて重
ねられた状態を示す図である。(d)は(a)に(b)
が(i0,j0)シフトされて重ねられた状態を示す図であ
る。
【0105】図1におけるカメラ姿勢位置検知部13が
非常に高精度であり、立体画像からの奥行き抽出精度も
高精度の場合、この局所的なずれ量は小さな値となる。
また、このとき既に鏡面反射成分の悪影響は既に除去さ
れており、説明の簡素化を図るために、図12は3視点
からの情報ではなく、2視点からの情報にしている。
非常に高精度であり、立体画像からの奥行き抽出精度も
高精度の場合、この局所的なずれ量は小さな値となる。
また、このとき既に鏡面反射成分の悪影響は既に除去さ
れており、説明の簡素化を図るために、図12は3視点
からの情報ではなく、2視点からの情報にしている。
【0106】これを例えば下記(16)式に従ってずれ
量を計算する。
量を計算する。
【0107】
【数16】 このQの内、最小のQを与えるi0,j0を導出する。導
出されたi0,j0を用いて図12(d)に示すようにi
0,j0シフトして奥行き情報を重ねる。重ねた後に、こ
の中で同一点の排除並びに中間点を補間する。その方法
を以下に示す。
出されたi0,j0を用いて図12(d)に示すようにi
0,j0シフトして奥行き情報を重ねる。重ねた後に、こ
の中で同一点の排除並びに中間点を補間する。その方法
を以下に示す。
【0108】これは、まずそれぞれの奥行き情報中、同
一点を示す場合、情報量を削減する意味でもどちらか一
つだけを用いる。同一と判断する基準としては、下記
(17)式或いは(18)式等を用いる。
一点を示す場合、情報量を削減する意味でもどちらか一
つだけを用いる。同一と判断する基準としては、下記
(17)式或いは(18)式等を用いる。
【0109】
【数17】
【0110】
【数18】 但し、ε1,ε2は基準値、a,b,c,dは適当な係
数である。
数である。
【0111】例えばa=b=1、c=2とし、距離の違
いに対してより敏感に判定することも可能である。
いに対してより敏感に判定することも可能である。
【0112】次に得られた点の座標から補間を行う。補
間としては、図13に示す、例えば中間点を求めて行
く。
間としては、図13に示す、例えば中間点を求めて行
く。
【0113】図13(a)において、○、●は抽出され
た奥行き情報データZt(X,Y)と、Z’t+δt(X,
Y)をi0,j0シフトしたZ’t+δt(X+i0,Y+j0)
であり、図12(d)におけるものを簡単にZ−X平面
に投影し、一次元で示したものである。また、図13
(b)において、□は中間点補間で求められたデータで
あり、新しい奥行き情報Znewである。
た奥行き情報データZt(X,Y)と、Z’t+δt(X,
Y)をi0,j0シフトしたZ’t+δt(X+i0,Y+j0)
であり、図12(d)におけるものを簡単にZ−X平面
に投影し、一次元で示したものである。また、図13
(b)において、□は中間点補間で求められたデータで
あり、新しい奥行き情報Znewである。
【0114】補間方法としては、線形補間、スプライン
補間等を用いることができる。
補間等を用いることができる。
【0115】以上により、鏡面反射成分からの悪影響を
排除し、補間された奥行き情報が得られたわけである
が、更に、撮像系の深度情報からのフラグを基に点の座
標の信頼性を判断する。これは撮像系の光学系の焦点深
度情報を利用して信頼性の低い所は排除される。また、
オクルージョン領域検知情報により取捨選択する。
排除し、補間された奥行き情報が得られたわけである
が、更に、撮像系の深度情報からのフラグを基に点の座
標の信頼性を判断する。これは撮像系の光学系の焦点深
度情報を利用して信頼性の低い所は排除される。また、
オクルージョン領域検知情報により取捨選択する。
【0116】次に輪郭からの奥行き情報と立体画像から
の奥行き情報の統合について、図14〜図16を用いて
説明する。
の奥行き情報の統合について、図14〜図16を用いて
説明する。
【0117】図14は処理#1の模式図、図15は処理
#2の模式図、図16(a)は処理#1と処理#2のあ
る断面において、それぞれの出力を単純に組み合わせた
状態を示す図、図16(b)は図16(a)から必要な
情報が取捨択一された結果を示す図である。
#2の模式図、図16(a)は処理#1と処理#2のあ
る断面において、それぞれの出力を単純に組み合わせた
状態を示す図、図16(b)は図16(a)から必要な
情報が取捨択一された結果を示す図である。
【0118】図16中、斜線の四角並びにハッチング入
りの丸は奥行き情報を、10001〜10003は立体
画像からの奥行き情報をそれぞれ示す。
りの丸は奥行き情報を、10001〜10003は立体
画像からの奥行き情報をそれぞれ示す。
【0119】まず、処理#1からは多視点の輪郭の情報
を用いて図16(a)のハッチング入りの四角が得られ
る。一方、立体画像からの処理#2からは図15の○が
得られる。これらを分かりやすく見るためにある断面だ
けに着目して見ると、図16(a)に示すように四角の
斜線部とハッチング入りの丸が出力として存在する(こ
こでのハッチング入りの丸は図15の丸に相当する)。
を用いて図16(a)のハッチング入りの四角が得られ
る。一方、立体画像からの処理#2からは図15の○が
得られる。これらを分かりやすく見るためにある断面だ
けに着目して見ると、図16(a)に示すように四角の
斜線部とハッチング入りの丸が出力として存在する(こ
こでのハッチング入りの丸は図15の丸に相当する)。
【0120】今、図16(a)の奥行き情報1000
1,10002に着目すると、これらの立体画像からの
奥行き情報は輪郭線からの情報より外側に飛び出してい
るのが分かる。これは何等かの誤差によるものと考えら
れるので、これらの点は奥行き情報としては採用しな
い。また、輪郭情報からの奥行き情報に比べて内側にあ
る奥行き情報10003等は、この出力を新たな奥行き
情報として採用し、奥行き情報10004は削除する。
これは輪郭からの奥行き情報は一般的に凸部はうまく抽
出することができるものの、凹部はうまく抽出すること
ができないという性質に着目するからである。
1,10002に着目すると、これらの立体画像からの
奥行き情報は輪郭線からの情報より外側に飛び出してい
るのが分かる。これは何等かの誤差によるものと考えら
れるので、これらの点は奥行き情報としては採用しな
い。また、輪郭情報からの奥行き情報に比べて内側にあ
る奥行き情報10003等は、この出力を新たな奥行き
情報として採用し、奥行き情報10004は削除する。
これは輪郭からの奥行き情報は一般的に凸部はうまく抽
出することができるものの、凹部はうまく抽出すること
ができないという性質に着目するからである。
【0121】従って、 (1)輪郭線からの奥行き情報より外側のものは除去す
る。 (2)輪郭線からの奥行き情報より凹部を表現できるも
のは採用する。 (3)残りは輪郭からの情報と立体画像からの情報を繋
ぐように採用する。 といった統合処理を行う。この結果を図16(b)に示
す。
る。 (2)輪郭線からの奥行き情報より凹部を表現できるも
のは採用する。 (3)残りは輪郭からの情報と立体画像からの情報を繋
ぐように採用する。 といった統合処理を行う。この結果を図16(b)に示
す。
【0122】これにより全体として被写体に忠実で滑ら
かな奥行き情報を抽出することができる。
かな奥行き情報を抽出することができる。
【0123】(第2の実施の形態)次に、本発明の第2
の実施の形態を図17に基づき説明する。なお、本実施
の形態における撮像部の構成及び撮影方法は、上述した
第1の実施の形態と同一であるから、その説明は省略
し、相違点である多数決処理手段について説明する。
の実施の形態を図17に基づき説明する。なお、本実施
の形態における撮像部の構成及び撮影方法は、上述した
第1の実施の形態と同一であるから、その説明は省略
し、相違点である多数決処理手段について説明する。
【0124】多視点の立体画像からの奥行き情報の多数
決処理として、第1の実施の形態では求めた奥行き情報
に対して多数決処理を行ったが、まず、輝度情報に対し
て多数決することが挙げられる。
決処理として、第1の実施の形態では求めた奥行き情報
に対して多数決処理を行ったが、まず、輝度情報に対し
て多数決することが挙げられる。
【0125】図17中、15000〜15002はある
視点で見た輝度情報、15010〜15012は鏡面反
射成分を除去した輝度情報である。
視点で見た輝度情報、15010〜15012は鏡面反
射成分を除去した輝度情報である。
【0126】3視点で得られた図17(a)に示す輝度
情報15000〜15002は、同図中のトゲのように
示すごとく鏡面反射成分を含んでいる。この部分が後の
処理の奥行き情報処理では悪影響を与えるので、予め除
去することを考える。即ち、多数決処理を施し鏡面反射
により生じる強い輝度の部分を除去する。除去後の輝度
分布は図17(b)に示す15010〜15012であ
る。このように除去された物から抽出する奥行き情報は
エラーを生じることが少ない。また、信頼性を高めるた
めに、奥行き情報になった後に再度多数決処理を施して
も良い。
情報15000〜15002は、同図中のトゲのように
示すごとく鏡面反射成分を含んでいる。この部分が後の
処理の奥行き情報処理では悪影響を与えるので、予め除
去することを考える。即ち、多数決処理を施し鏡面反射
により生じる強い輝度の部分を除去する。除去後の輝度
分布は図17(b)に示す15010〜15012であ
る。このように除去された物から抽出する奥行き情報は
エラーを生じることが少ない。また、信頼性を高めるた
めに、奥行き情報になった後に再度多数決処理を施して
も良い。
【0127】(第3の実施の形態)次に、本発明の第3
の実施の形態を図18〜図23に基づき説明する。
の実施の形態を図18〜図23に基づき説明する。
【0128】図18は本発明の第3の実施の形態に係る
画像情報入力装置の構成を示すブロック図であり、同図
中、1801は複数台のカメラよりなる画像入力手段、
1802は被写体、1803は立体情報処理手段、18
04は被写体移動手段、1805は被写体移動制御手
段、1806は画像入力制御手段である。
画像情報入力装置の構成を示すブロック図であり、同図
中、1801は複数台のカメラよりなる画像入力手段、
1802は被写体、1803は立体情報処理手段、18
04は被写体移動手段、1805は被写体移動制御手
段、1806は画像入力制御手段である。
【0129】以下、上記構成になる画像情報入力装置の
動作を説明する。画像入力手段1801は画像入力制御
手段1806により制御され被写体1802を撮像す
る。撮像された画像は立体情報処理手段1803へ入力
される。被写体移動制御手段1805は画像入力手段1
801が被写体1802の全体を撮像できるように、撮
影されるごとに被写体移動手段1804を移動させる。
それにより被写体1802が移動する。被写体移動手段
1804の移動が完了すると、被写体移動制御手段18
05は画像入力制御手段1806に信号を出力し、被写
体1802を撮影するようにする。これを繰り返すこと
により被写体1802の全体が撮像される。
動作を説明する。画像入力手段1801は画像入力制御
手段1806により制御され被写体1802を撮像す
る。撮像された画像は立体情報処理手段1803へ入力
される。被写体移動制御手段1805は画像入力手段1
801が被写体1802の全体を撮像できるように、撮
影されるごとに被写体移動手段1804を移動させる。
それにより被写体1802が移動する。被写体移動手段
1804の移動が完了すると、被写体移動制御手段18
05は画像入力制御手段1806に信号を出力し、被写
体1802を撮影するようにする。これを繰り返すこと
により被写体1802の全体が撮像される。
【0130】また、同時に被写体移動制御手段1805
は被写体移動手段1804の移動が完了すると、立体情
報処理手段1803へ被写体移動手段1804の移動量
を示す信号を出力する。立体情報処理手段1803では
後述する各移動地点で得られた画像から被写体1802
の部分形状を求める。また、被写体移動制御手段180
5から得られるそのときの被写体1802の移動量を用
いて、ある基準座標へ部分形状を変換する。この処理を
繰り返し行い、全ての部分形状を求める。そして、それ
らを用いて被写体1802の全体の立体情報を求めて出
力する。
は被写体移動手段1804の移動が完了すると、立体情
報処理手段1803へ被写体移動手段1804の移動量
を示す信号を出力する。立体情報処理手段1803では
後述する各移動地点で得られた画像から被写体1802
の部分形状を求める。また、被写体移動制御手段180
5から得られるそのときの被写体1802の移動量を用
いて、ある基準座標へ部分形状を変換する。この処理を
繰り返し行い、全ての部分形状を求める。そして、それ
らを用いて被写体1802の全体の立体情報を求めて出
力する。
【0131】画像入力手段1801は2台の撮像系によ
り構成され、この2台の撮像系の光軸は平行で、それら
の焦点距離がfに設定され、また、それらは基線長Bだ
け離れて構成されている。このような構成のとき、従来
例で示した(1)式を用いて被写体1802までの距離
を求めることができる。しかし、この光軸が必ず平行で
ある必要はなく、当然2台の撮像系の光軸が平行でない
ときも、それを考慮した式を用いることにより、被写体
1802までの距離を求めることができる。
り構成され、この2台の撮像系の光軸は平行で、それら
の焦点距離がfに設定され、また、それらは基線長Bだ
け離れて構成されている。このような構成のとき、従来
例で示した(1)式を用いて被写体1802までの距離
を求めることができる。しかし、この光軸が必ず平行で
ある必要はなく、当然2台の撮像系の光軸が平行でない
ときも、それを考慮した式を用いることにより、被写体
1802までの距離を求めることができる。
【0132】被写体1802は被写体移動手段1804
に固定され、画像入力手段1801により撮像される。
被写体移動手段1804は被写体1802を移動させる
もので、本実施の形態では図19に示すように回転ステ
ージ1901であり、回転ステージ1901はステッピ
ングモータ1902により1軸に対して回転し、被写体
1802を回転させる。しかし、この被写体移動手段1
804は回転ステージ1901である必要はなく、x,
yステージと回転ステージとを組み合わせたもの等、被
写体1802を移動させるものであれば何でもよい。
に固定され、画像入力手段1801により撮像される。
被写体移動手段1804は被写体1802を移動させる
もので、本実施の形態では図19に示すように回転ステ
ージ1901であり、回転ステージ1901はステッピ
ングモータ1902により1軸に対して回転し、被写体
1802を回転させる。しかし、この被写体移動手段1
804は回転ステージ1901である必要はなく、x,
yステージと回転ステージとを組み合わせたもの等、被
写体1802を移動させるものであれば何でもよい。
【0133】被写体移動制御手段1805は被写体18
02全体の立体情報を求めるために、被写体移動手段1
804を移動させる制御を行う。つまり本実施の形態で
は図19のステッピングモータ1902に対してある数
のパルスを出力する。その出力するパルス数は、移動後
に得られる被写体1802の部分形状が部分的に重なる
ように画像入力手段1801が撮像できる移動量であ
る。
02全体の立体情報を求めるために、被写体移動手段1
804を移動させる制御を行う。つまり本実施の形態で
は図19のステッピングモータ1902に対してある数
のパルスを出力する。その出力するパルス数は、移動後
に得られる被写体1802の部分形状が部分的に重なる
ように画像入力手段1801が撮像できる移動量であ
る。
【0134】このようにして出力されるパルス数を受け
て、ステッピングモータ1902は回転し、被写体18
02を回転させる。同時に被写体移動制御手段1805
は立体情報処理手段1803に対して被写体移動手段1
804が移動した量を示す信号を出力する。本実施の形
態ではステッピングモータ1902に対して出力したパ
ルス数を出力する。また、被写体移動制御手段1805
は被写体移動手段1804の移動が終了すると、その終
了を示す信号を画像入力制御手段1806に対して出力
する。
て、ステッピングモータ1902は回転し、被写体18
02を回転させる。同時に被写体移動制御手段1805
は立体情報処理手段1803に対して被写体移動手段1
804が移動した量を示す信号を出力する。本実施の形
態ではステッピングモータ1902に対して出力したパ
ルス数を出力する。また、被写体移動制御手段1805
は被写体移動手段1804の移動が終了すると、その終
了を示す信号を画像入力制御手段1806に対して出力
する。
【0135】画像入力制御手段1806は被写体移動制
御手段1805から被写体移動手段1804の移動が終
了したことを示す信号を受けると、画像入力手段180
1に被写体1802を撮像させる。また、被写体180
2に応じて画像入力手段1801の焦点距離fを変化さ
せる。そのときの焦点距離fは立体情報処理手段180
3に出力される。更に2台の撮像系の光軸を平行から回
転させ(輻輳角を付け)、そのときの回転量も立体情報
処理手段1803に出力する。
御手段1805から被写体移動手段1804の移動が終
了したことを示す信号を受けると、画像入力手段180
1に被写体1802を撮像させる。また、被写体180
2に応じて画像入力手段1801の焦点距離fを変化さ
せる。そのときの焦点距離fは立体情報処理手段180
3に出力される。更に2台の撮像系の光軸を平行から回
転させ(輻輳角を付け)、そのときの回転量も立体情報
処理手段1803に出力する。
【0136】立体情報処理手段1803は画像入力手段
1801で撮像された立体画像に対して対応点を抽出す
る。そして、その結果と画像入力制御手段1806から
得られる焦点距離fと基線長Bとを用いて、ある地点か
らの被写体1802までの距離分布を求める。次に得ら
れた距離分布を被写体移動制御手段1805から得られ
る移動量を用いて、ある基準座標系に対する部分形状に
変換する。これらの処理を被写体1802を移動させる
ごとに行うことにより、被写体1802の複数の部分形
状を求める。次に得られた各部分形状の距離とその部分
形状を求めた対応点抽出の結果の信頼度から、その部分
形状に対する評価関数を求める。そして、その評価関数
に基づき被写体1802の立体情報を出力する。
1801で撮像された立体画像に対して対応点を抽出す
る。そして、その結果と画像入力制御手段1806から
得られる焦点距離fと基線長Bとを用いて、ある地点か
らの被写体1802までの距離分布を求める。次に得ら
れた距離分布を被写体移動制御手段1805から得られ
る移動量を用いて、ある基準座標系に対する部分形状に
変換する。これらの処理を被写体1802を移動させる
ごとに行うことにより、被写体1802の複数の部分形
状を求める。次に得られた各部分形状の距離とその部分
形状を求めた対応点抽出の結果の信頼度から、その部分
形状に対する評価関数を求める。そして、その評価関数
に基づき被写体1802の立体情報を出力する。
【0137】図20は立体情報処理手段1803の構成
を示すブロック図であり、同図中、2001は右左対応
点抽出手段、2002は左右対応点抽出手段、2003
は一致判別手段、2004は距離分布計算手段、200
5は部分形状変換手段、2006は評価関数計算手段、
2007は立体情報出力手段である。
を示すブロック図であり、同図中、2001は右左対応
点抽出手段、2002は左右対応点抽出手段、2003
は一致判別手段、2004は距離分布計算手段、200
5は部分形状変換手段、2006は評価関数計算手段、
2007は立体情報出力手段である。
【0138】右左対応点抽出手段2001は、画像入力
手段1801から入力される立体画像の内、基準画像を
右画像に、探索される画像を左画像にして対応点抽出を
行う。対応点抽出には従来例で示したテンプレートマッ
チング法を用いる。テンプレートマッチング法の評価関
数値C(v,h)を一致判別手段2003へ出力する。
左右対応点抽出手段2002は、画像入力手段1801
から入力される立体画像の内、基準画像を左画像に、探
索される画像を右画像にして対応点抽出を行う。対応点
抽出には従来例で示したテンプレートマッチング法を用
いる。テンプレートマッチング法の評価関数には従来例
で示した評価関数値C(v,h)を用い、求めた対応点
を一致判別手段2003へ出力する。
手段1801から入力される立体画像の内、基準画像を
右画像に、探索される画像を左画像にして対応点抽出を
行う。対応点抽出には従来例で示したテンプレートマッ
チング法を用いる。テンプレートマッチング法の評価関
数値C(v,h)を一致判別手段2003へ出力する。
左右対応点抽出手段2002は、画像入力手段1801
から入力される立体画像の内、基準画像を左画像に、探
索される画像を右画像にして対応点抽出を行う。対応点
抽出には従来例で示したテンプレートマッチング法を用
いる。テンプレートマッチング法の評価関数には従来例
で示した評価関数値C(v,h)を用い、求めた対応点
を一致判別手段2003へ出力する。
【0139】一致判別手段2003は右左対応点抽出手
段2001から入力された対応点抽出結果と左右対応点
抽出手段2002から入力された対応点抽出結果が一致
するか否かを判断する。対応点抽出が正解であれば、こ
の結果が一致することが多い。逆にいえば、例えば画像
中でのっぺりした低周波の部分等、対応点抽出が誤って
いるところでは、この結果が一致しないことが多いの
で、それを調査することにより、対応点抽出の誤抽出を
ある程度除去することができる。また、立体画像間で、
一方の画像に写っているのに、他方の画像には写ってい
ない、所謂オクルージョン領域では、この結果が異なる
ので、この処理によりその領域を判別することが可能に
なり、得られる被写体の形状がその領域の結果により不
正解に求められるのを防ぐことができる。そして、判別
した結果、一致した対応点抽出結果のみを対応点抽出の
評価関数値C(v,h)と一緒に距離分布計算手段20
04へ出力する。
段2001から入力された対応点抽出結果と左右対応点
抽出手段2002から入力された対応点抽出結果が一致
するか否かを判断する。対応点抽出が正解であれば、こ
の結果が一致することが多い。逆にいえば、例えば画像
中でのっぺりした低周波の部分等、対応点抽出が誤って
いるところでは、この結果が一致しないことが多いの
で、それを調査することにより、対応点抽出の誤抽出を
ある程度除去することができる。また、立体画像間で、
一方の画像に写っているのに、他方の画像には写ってい
ない、所謂オクルージョン領域では、この結果が異なる
ので、この処理によりその領域を判別することが可能に
なり、得られる被写体の形状がその領域の結果により不
正解に求められるのを防ぐことができる。そして、判別
した結果、一致した対応点抽出結果のみを対応点抽出の
評価関数値C(v,h)と一緒に距離分布計算手段20
04へ出力する。
【0140】距離分布計算手段2004は一致判別手段
2003より入力される対応点抽出結果と、画像入力制
御手段1806から入力される焦点距離fと基線長Bと
を用いて、従来例で示した(1)式を用いて距離分布を
計算する。そして、その距離分布とそれに対応した対応
点抽出の評価関数値C1(x,y,z)を部分形状変換
手段2005へ出力する。部分形状変換手段2005は
距離分布計算手段2004から入力された距離分布と被
写体移動制御手段1805から入力された被写体移動手
段1804の移動量とを用いて、その距離分布をある基
準座標値に変換し、被写体の部分形状を得る。そして、
部分形状変換手段2005は求めた被写体1802の部
分形状とそれに対応した対応点抽出の評価関数値C2
(X,Y,Z)を評価関数計算手段2006へ出力す
る。
2003より入力される対応点抽出結果と、画像入力制
御手段1806から入力される焦点距離fと基線長Bと
を用いて、従来例で示した(1)式を用いて距離分布を
計算する。そして、その距離分布とそれに対応した対応
点抽出の評価関数値C1(x,y,z)を部分形状変換
手段2005へ出力する。部分形状変換手段2005は
距離分布計算手段2004から入力された距離分布と被
写体移動制御手段1805から入力された被写体移動手
段1804の移動量とを用いて、その距離分布をある基
準座標値に変換し、被写体の部分形状を得る。そして、
部分形状変換手段2005は求めた被写体1802の部
分形状とそれに対応した対応点抽出の評価関数値C2
(X,Y,Z)を評価関数計算手段2006へ出力す
る。
【0141】評価関数計算手段2006は部分形状変換
手段2005から入力される各地点で得られた部分形状
とそのときの対応点抽出の評価関数値C2(X,Y,
Z)を用いて、部分形状に対する評価関数値H(X,
Y,Z)を求める。この評価関数値Hは各部分の距離と
その部分形状を求めた対応点抽出の結果の評価関数から
求める。評価関数の一例を下記(19)式に示す。
手段2005から入力される各地点で得られた部分形状
とそのときの対応点抽出の評価関数値C2(X,Y,
Z)を用いて、部分形状に対する評価関数値H(X,
Y,Z)を求める。この評価関数値Hは各部分の距離と
その部分形状を求めた対応点抽出の結果の評価関数から
求める。評価関数の一例を下記(19)式に示す。
【0142】
【数19】 この上記(19)式中、C2(X,Y,Z)は部分形状の
ある点のその点を求めた対応点抽出の評価関数値、C2
(X+dx,Y+dy,Z+dz)は前記点とは異なる
画像対から求めた部分形状の点で、前記点の近傍の点の
その点を求めた対応点抽出の評価関数値、分母はそれら
の点間の距離の二乗、kは係数を示している。
ある点のその点を求めた対応点抽出の評価関数値、C2
(X+dx,Y+dy,Z+dz)は前記点とは異なる
画像対から求めた部分形状の点で、前記点の近傍の点の
その点を求めた対応点抽出の評価関数値、分母はそれら
の点間の距離の二乗、kは係数を示している。
【0143】つまり、上記(19)式はある部分形状上
の1点を求めた対応点抽出の評価関数値とその点の近傍
dにある他の部分形状上の1点との評価関数値との積
を、その点間の距離の二乗で除している。距離が近く且
つ対応点抽出の評価関数値が高ければ、この評価関数値
も高くなる。
の1点を求めた対応点抽出の評価関数値とその点の近傍
dにある他の部分形状上の1点との評価関数値との積
を、その点間の距離の二乗で除している。距離が近く且
つ対応点抽出の評価関数値が高ければ、この評価関数値
も高くなる。
【0144】この部分形状に対する評価関数の計算に各
部分形状の距離と対応点抽出の評価関数を用いる理由を
以下に説明する。対応点抽出の評価関数値が高いものほ
ど、その結果に信頼がおける。例えば対応点抽出の精度
が劣化する、距離が大きく変化する領域での対応点抽出
の評価関数値は低くなる。しかし、例えば光が強く当た
り発生した「てかり」の領域では対応点抽出の評価関数
値が高くても対応点が正しいとは限らない。
部分形状の距離と対応点抽出の評価関数を用いる理由を
以下に説明する。対応点抽出の評価関数値が高いものほ
ど、その結果に信頼がおける。例えば対応点抽出の精度
が劣化する、距離が大きく変化する領域での対応点抽出
の評価関数値は低くなる。しかし、例えば光が強く当た
り発生した「てかり」の領域では対応点抽出の評価関数
値が高くても対応点が正しいとは限らない。
【0145】例えば図21にその例を示す。図21は空
き缶を被写体1802としたときに「てかり」が発生し
た立体画像(右画像2101、左画像2102)を示し
ている。右画像2101、左画像2102とも被写体1
802である空き缶の下部(斜線を施した部分)に「て
かり」2103,2104が発生しているが、それぞれ
被写体1802上では違う場所に発生していることが分
かる。このような「てかり」2103,2104が発生
している立体画像に対して対応点抽出を行うと、「てか
り」2103,2104を模様として認識するので、正
解の空き缶模様ではなく、「てかり」2103,210
4の方に引きずられ、対応点の誤抽出を行うことにな
る。また、そのときの評価関数値は、右画像2101、
左画像2102とも同じように「てかっている」ので、
高いということになる。つまり評価関数値だけではこの
誤抽出を削除することはできない。この「てかり」は、
被写体1802と画像入力手段1801が相対的に移動
すると、移動前後では被写体1802上で異なる場所に
発生することが分かる。つまり、被写体1802上で誤
抽出が起きる領域は移動前後で異なるわけで、あるとき
「てかっている」領域でも、ある位置からの立体画像か
ら部分形状を求めたときには「てからず」に、正解の距
離分布が得られるときが存在する。そこで、「てかり」
による誤抽出は正解の対応点が得られるよりも少ない頻
度(地点数)で起き且つ「てかり」による誤抽出で求め
た部分形状は正解の部分形状と比較して、凹になったり
凸になることを考慮して、求められた複数の部分形状間
の距離を利用して、近くに他の点から求めた部分形状が
多く存在する部分形状ほど正解であるとすることがで
き、それにより、「てかり」による誤抽出を削除するこ
とができる。
き缶を被写体1802としたときに「てかり」が発生し
た立体画像(右画像2101、左画像2102)を示し
ている。右画像2101、左画像2102とも被写体1
802である空き缶の下部(斜線を施した部分)に「て
かり」2103,2104が発生しているが、それぞれ
被写体1802上では違う場所に発生していることが分
かる。このような「てかり」2103,2104が発生
している立体画像に対して対応点抽出を行うと、「てか
り」2103,2104を模様として認識するので、正
解の空き缶模様ではなく、「てかり」2103,210
4の方に引きずられ、対応点の誤抽出を行うことにな
る。また、そのときの評価関数値は、右画像2101、
左画像2102とも同じように「てかっている」ので、
高いということになる。つまり評価関数値だけではこの
誤抽出を削除することはできない。この「てかり」は、
被写体1802と画像入力手段1801が相対的に移動
すると、移動前後では被写体1802上で異なる場所に
発生することが分かる。つまり、被写体1802上で誤
抽出が起きる領域は移動前後で異なるわけで、あるとき
「てかっている」領域でも、ある位置からの立体画像か
ら部分形状を求めたときには「てからず」に、正解の距
離分布が得られるときが存在する。そこで、「てかり」
による誤抽出は正解の対応点が得られるよりも少ない頻
度(地点数)で起き且つ「てかり」による誤抽出で求め
た部分形状は正解の部分形状と比較して、凹になったり
凸になることを考慮して、求められた複数の部分形状間
の距離を利用して、近くに他の点から求めた部分形状が
多く存在する部分形状ほど正解であるとすることがで
き、それにより、「てかり」による誤抽出を削除するこ
とができる。
【0146】次に評価関数計算手段2006の処理動作
について図22を用いて説明する。まず、ステップS2
201で求められた複数の部分形状から1つの部分形状
を選択する。次にステップS2202で前記ステップS
2201において選択した1つの部分形状の中から1つ
の点を選択する。次にステップS2203で前記ステッ
プS2202において選択した点の近傍にある全ての点
を選択したか否かを判断する。そして、全ての点を選択
していない場合は次のステップS2204で前記ステッ
プS2202において選択した点の近傍にある1点を選
択する。次にステップS2205で前記ステップS22
04において選択した点が前記ステップS2201にお
いて選択した部分形状とは違う部分形状の点か否かを判
断する。そして、前記ステップS2205における判断
結果が肯定(YES)の場合は、次のステップS220
6で上記(19)式に基づいて部分形状の評価関数値を
計算した後、前記ステップS2203へ戻る。また、前
記ステップS2205における判断結果が否定(NO)
の場合も前記ステップS2203へ戻る。
について図22を用いて説明する。まず、ステップS2
201で求められた複数の部分形状から1つの部分形状
を選択する。次にステップS2202で前記ステップS
2201において選択した1つの部分形状の中から1つ
の点を選択する。次にステップS2203で前記ステッ
プS2202において選択した点の近傍にある全ての点
を選択したか否かを判断する。そして、全ての点を選択
していない場合は次のステップS2204で前記ステッ
プS2202において選択した点の近傍にある1点を選
択する。次にステップS2205で前記ステップS22
04において選択した点が前記ステップS2201にお
いて選択した部分形状とは違う部分形状の点か否かを判
断する。そして、前記ステップS2205における判断
結果が肯定(YES)の場合は、次のステップS220
6で上記(19)式に基づいて部分形状の評価関数値を
計算した後、前記ステップS2203へ戻る。また、前
記ステップS2205における判断結果が否定(NO)
の場合も前記ステップS2203へ戻る。
【0147】このステップS2203において前記ステ
ップS2202で選択した点の近傍にある全ての点を選
択した場合は、ステップS2207で前記ステップS2
201において選択した部分形状の全ての点に対して上
記の処理を行ったか否かを判断する。そして、まだ処理
を行っていない点があれば、前記ステップS2202へ
戻り、まだ処理を行っていない点がなければ、次のステ
ップS2208へ進む。このステップS2208では、
求められた複数の部分形状の全てを選択したか否かを判
断する。そして、全てを選択していなければ前記ステッ
プS2201へ戻り、全てを選択していれば本処理動作
を終了する。
ップS2202で選択した点の近傍にある全ての点を選
択した場合は、ステップS2207で前記ステップS2
201において選択した部分形状の全ての点に対して上
記の処理を行ったか否かを判断する。そして、まだ処理
を行っていない点があれば、前記ステップS2202へ
戻り、まだ処理を行っていない点がなければ、次のステ
ップS2208へ進む。このステップS2208では、
求められた複数の部分形状の全てを選択したか否かを判
断する。そして、全てを選択していなければ前記ステッ
プS2201へ戻り、全てを選択していれば本処理動作
を終了する。
【0148】このような処理を行うことにより、求めら
れた複数の部分形状の全ての点に対して上記(19)式
で示した評価関数値を求めることができる。
れた複数の部分形状の全ての点に対して上記(19)式
で示した評価関数値を求めることができる。
【0149】立体情報出力手段2007は評価関数計算
手段2006で得られた評価関数値を用いて、あるしき
い値よりも大きな評価関数の部分形状のみを出力するよ
うにする。
手段2006で得られた評価関数値を用いて、あるしき
い値よりも大きな評価関数の部分形状のみを出力するよ
うにする。
【0150】図23(a)は図21に示した被写体18
02である空き缶の立体画像から求められた部分形状2
301の回転ステージ1901(図19参照)の回転軸
に対する断面図である。図22の左画像2102の「て
かり」2104が生じている領域の対応点を求めるとき
に、右画像2101中で「てかり」2103は正解の対
応点より右側に出るため、求められた部分形状は「てか
り」による誤差2302が生じ、その部分で内側に凹ん
でいることが分かる。
02である空き缶の立体画像から求められた部分形状2
301の回転ステージ1901(図19参照)の回転軸
に対する断面図である。図22の左画像2102の「て
かり」2104が生じている領域の対応点を求めるとき
に、右画像2101中で「てかり」2103は正解の対
応点より右側に出るため、求められた部分形状は「てか
り」による誤差2302が生じ、その部分で内側に凹ん
でいることが分かる。
【0151】また、図23(b)は3つの部分形状の断
面図である。同図によれば、部分形状2301の「てか
り」による誤差2302、部分形状2303の「てか
り」による誤差2305、部分形状2304の「てか
り」による誤差2306が異なる場所に生じている。こ
れらの「てかり」による誤差2302,2305,23
06はそれらの点の対応点の評価関数値が高くても、そ
の誤差が生じている領域の近傍に他の部分形状が存在し
ない。また、部分形状2303の左端も同様に他の部分
形状が存在しないので、上記(19)式を用いて評価関
数値Hを求めると高い評価関数値が得られる領域230
7で、高い評価関数値が得られる。ここでの説明は3つ
の部分形状2301,2303,2304で行ったが、
更に多くの部分形状を用いてそれらの評価関数値Hを求
めて、高い評価関数値のみを出力すると、図23(c)
に示す誤差を除去した立体情報2308を得ることがで
きる。
面図である。同図によれば、部分形状2301の「てか
り」による誤差2302、部分形状2303の「てか
り」による誤差2305、部分形状2304の「てか
り」による誤差2306が異なる場所に生じている。こ
れらの「てかり」による誤差2302,2305,23
06はそれらの点の対応点の評価関数値が高くても、そ
の誤差が生じている領域の近傍に他の部分形状が存在し
ない。また、部分形状2303の左端も同様に他の部分
形状が存在しないので、上記(19)式を用いて評価関
数値Hを求めると高い評価関数値が得られる領域230
7で、高い評価関数値が得られる。ここでの説明は3つ
の部分形状2301,2303,2304で行ったが、
更に多くの部分形状を用いてそれらの評価関数値Hを求
めて、高い評価関数値のみを出力すると、図23(c)
に示す誤差を除去した立体情報2308を得ることがで
きる。
【0152】以上のように本実施の形態に係る画像情報
入力装置によれば、「てかり」等による対応点抽出の誤
抽出が削減でき、正しい被写体の立体情報抽出が可能と
なるという効果を奏する。
入力装置によれば、「てかり」等による対応点抽出の誤
抽出が削減でき、正しい被写体の立体情報抽出が可能と
なるという効果を奏する。
【0153】なお、本実施の形態において説明した対応
点抽出の評価関数には、従来例で説明したテンプレート
マッチング法の相関値や差分値でもよく、また、対応点
抽出にはテンプレートマッチング法を用いたが、動的計
画法等の他の手法でも有効である。そのときの評価関数
値には対応点の画素値の比等が考えられる。
点抽出の評価関数には、従来例で説明したテンプレート
マッチング法の相関値や差分値でもよく、また、対応点
抽出にはテンプレートマッチング法を用いたが、動的計
画法等の他の手法でも有効である。そのときの評価関数
値には対応点の画素値の比等が考えられる。
【0154】また、本実施の形態では画像入力手段18
01は固定で、被写体1802を被写体移動手段180
4により移動させて被写体1802全体の立体情報を求
め、また、その移動量は被写体移動制御手段1805か
ら得たが、これに限らず、被写体1802を移動させる
代わりに、前記第1の実施の形態のように被写体180
2は固定で画像入力手段1801を移動させて、被写体
1802とパッドを同時に撮像し、画像入力手段180
1の移動量はパッドから求めることができる。このとき
当然被写体移動手段1804と被写体移動制御手段18
05は不要となる。また、パッドから画像入力手段18
01の移動量を求めなくても、ジャイロ等を使って機械
的に移動量を求めることもできる。更に、画像入力手段
1801及び被写体1802のどちらが移動した際も、
その移動量が得られなくても、被写体1802のテクス
チャを用いたり、また、各移動地点で得られた部分形状
を滑らかに繋ぐようにしたりして得られた部分形状をあ
る基準座標値に変換することはできる。そして、その変
換された複数の部分形状に対して、上述した評価関数を
求めて被写体1802の立体情報を求めることができ
る。
01は固定で、被写体1802を被写体移動手段180
4により移動させて被写体1802全体の立体情報を求
め、また、その移動量は被写体移動制御手段1805か
ら得たが、これに限らず、被写体1802を移動させる
代わりに、前記第1の実施の形態のように被写体180
2は固定で画像入力手段1801を移動させて、被写体
1802とパッドを同時に撮像し、画像入力手段180
1の移動量はパッドから求めることができる。このとき
当然被写体移動手段1804と被写体移動制御手段18
05は不要となる。また、パッドから画像入力手段18
01の移動量を求めなくても、ジャイロ等を使って機械
的に移動量を求めることもできる。更に、画像入力手段
1801及び被写体1802のどちらが移動した際も、
その移動量が得られなくても、被写体1802のテクス
チャを用いたり、また、各移動地点で得られた部分形状
を滑らかに繋ぐようにしたりして得られた部分形状をあ
る基準座標値に変換することはできる。そして、その変
換された複数の部分形状に対して、上述した評価関数を
求めて被写体1802の立体情報を求めることができ
る。
【0155】(第4の実施の形態)次に、本発明の第4
の実施の形態を説明する。本実施の形態は、上述した第
3の実施の形態における図20の評価関数計算手段20
06の評価関数が異なるものである。
の実施の形態を説明する。本実施の形態は、上述した第
3の実施の形態における図20の評価関数計算手段20
06の評価関数が異なるものである。
【0156】上述した第3の実施の形態においては、対
応点抽出の評価関数値をそのまま用いて部分形状の評価
関数値を求めていたが、本実施の形態では、近傍に存在
する部分形状中の最も高い対応点抽出の評価関数値を用
いて、部分形状の評価関数値を求める。このようにする
理由を以下に説明する。
応点抽出の評価関数値をそのまま用いて部分形状の評価
関数値を求めていたが、本実施の形態では、近傍に存在
する部分形状中の最も高い対応点抽出の評価関数値を用
いて、部分形状の評価関数値を求める。このようにする
理由を以下に説明する。
【0157】テンプレートマッチング法は光軸に対して
垂直な面の対応点抽出は、制度及び評価関数値とも高い
が、その面が斜めになるに従い精度及び評価関数値とも
低下する。しかし、その全ての結果が誤抽出とは限らな
い。また、被写体1802と画像入力手段1801が相
対的に移動する状況においては、ある位置では斜めの面
が他の位置で垂直になることがある。そこで、たとえ斜
めから求められた部分形状であっても、その位置若しく
はごく近傍に評価関数値の高い部分形状が存在すれば、
その部分形状は正解であると考えることができる。ここ
から考えて、本実施の形態における評価関数値I(X,
Y,Z)を下記(20)式のようにする。
垂直な面の対応点抽出は、制度及び評価関数値とも高い
が、その面が斜めになるに従い精度及び評価関数値とも
低下する。しかし、その全ての結果が誤抽出とは限らな
い。また、被写体1802と画像入力手段1801が相
対的に移動する状況においては、ある位置では斜めの面
が他の位置で垂直になることがある。そこで、たとえ斜
めから求められた部分形状であっても、その位置若しく
はごく近傍に評価関数値の高い部分形状が存在すれば、
その部分形状は正解であると考えることができる。ここ
から考えて、本実施の形態における評価関数値I(X,
Y,Z)を下記(20)式のようにする。
【0158】
【数20】 上記(20)式中、C0はある部分形状上の近傍で、前
記点とは異なる画像対から求めた部分形状の点を求めた
対応点抽出の評価関数値の最高値、分母はそれらの点間
の距離の二乗、kは係数を示している。つまり、上記
(20)式はある部分形状上の1点の近傍の対応点の最
高の評価関数値を、その点の近傍にある他の部分形状上
の1点の距離の二乗で除している。距離が近く且つ対応
点抽出の評価関数値が高ければ、この評価関数値も高く
なる。
記点とは異なる画像対から求めた部分形状の点を求めた
対応点抽出の評価関数値の最高値、分母はそれらの点間
の距離の二乗、kは係数を示している。つまり、上記
(20)式はある部分形状上の1点の近傍の対応点の最
高の評価関数値を、その点の近傍にある他の部分形状上
の1点の距離の二乗で除している。距離が近く且つ対応
点抽出の評価関数値が高ければ、この評価関数値も高く
なる。
【0159】本実施の形態では、部分形状の面の向きに
よって対応点抽出の評価関数値が低下し、それにより正
しい部分形状なのに部分形状の評価関数値が下がり、立
体情報が得られなくなるのを防ぎ、正解の部分形状を多
数得ることができるという効果がある。
よって対応点抽出の評価関数値が低下し、それにより正
しい部分形状なのに部分形状の評価関数値が下がり、立
体情報が得られなくなるのを防ぎ、正解の部分形状を多
数得ることができるという効果がある。
【0160】
【発明の効果】以上詳述したように本発明の画像入力方
法及び装置によれば、鏡面反射成分による影響を考慮し
て処理することができ、被写体に忠実な奥行き情報を得
ることができ、この奥行き情報を用いた応用に適用する
ことができるという効果を奏する。
法及び装置によれば、鏡面反射成分による影響を考慮し
て処理することができ、被写体に忠実な奥行き情報を得
ることができ、この奥行き情報を用いた応用に適用する
ことができるという効果を奏する。
【0161】また、本発明の画像入力方法及び装置によ
れば、対応点抽出の誤抽出を除去して被写体の正しい立
体情報が得られるという効果を奏する。
れば、対応点抽出の誤抽出を除去して被写体の正しい立
体情報が得られるという効果を奏する。
【0162】更に、本発明の画像入力方法及び装置によ
れば、対応点抽出の誤抽出を除去し且つ正解は除去しな
いようにして、被写体の正しい立体情報が得られるとい
う効果を奏する。
れば、対応点抽出の誤抽出を除去し且つ正解は除去しな
いようにして、被写体の正しい立体情報が得られるとい
う効果を奏する。
【図1】本発明の第1の実施の形態に係る画像入力装置
の構成を示すブロック図である。
の構成を示すブロック図である。
【図2】同画像入力装置におけるシステムコントローラ
の構成を示すブロック図である。
の構成を示すブロック図である。
【図3】同画像入力装置における奥行き情報抽出手段の
構成を示すブロック図である。
構成を示すブロック図である。
【図4】同画像入力装置における1視点の輪郭画像から
奥行き情報を抽出する手法を説明する図である。
奥行き情報を抽出する手法を説明する図である。
【図5】同画像入力装置における多視点の輪郭画像から
奥行き情報を抽出する手法を説明する図である。
奥行き情報を抽出する手法を説明する図である。
【図6】同画像入力装置における輪郭画像から奥行き情
報を抽出する処理を行っている状態を示す図である。
報を抽出する処理を行っている状態を示す図である。
【図7】同画像入力装置における立体画像から奥行き情
報の算出の概略を示す図である。
報の算出の概略を示す図である。
【図8】同画像入力装置におけるテンプレートマッチン
グを示す図である。
グを示す図である。
【図9】同画像入力装置における立体画像からの奥行き
情報を抽出することを説明する図である。
情報を抽出することを説明する図である。
【図10】同画像入力装置における奥行き情報の統合の
概略を示す図である。
概略を示す図である。
【図11】同画像入力装置における多数決処理の概念を
説明する図である。
説明する図である。
【図12】同画像入力装置における多視点の立体画像か
らの奥行き情報の統合の様子を模擬した図である。
らの奥行き情報の統合の様子を模擬した図である。
【図13】同画像入力装置における中間点補間方法の概
略を示す図である。
略を示す図である。
【図14】同画像入力装置における多視点の輪郭画像か
らの奥行き情報と、多視点の立体画像からの奥行き情報
の統合を説明する図である。
らの奥行き情報と、多視点の立体画像からの奥行き情報
の統合を説明する図である。
【図15】同画像入力装置における多視点の輪郭画像か
らの奥行き情報と、多視点の立体画像からの奥行き情報
の統合を説明する図である。
らの奥行き情報と、多視点の立体画像からの奥行き情報
の統合を説明する図である。
【図16】同画像入力装置における多視点の輪郭画像か
らの奥行き情報と、多視点の立体画像からの奥行き情報
の統合を説明する図である。
らの奥行き情報と、多視点の立体画像からの奥行き情報
の統合を説明する図である。
【図17】本発明の第2の実施の形態に係る画像入力装
置における輝度分布状態を示す図である。
置における輝度分布状態を示す図である。
【図18】本発明の第3の実施の形態に係る画像入力装
置の構成を示すブロック図である。
置の構成を示すブロック図である。
【図19】同画像入力装置における被写体移動手段の構
成を示す斜視図である。
成を示す斜視図である。
【図20】同画像入力装置における立体情報処理手段の
構成を示すブロック図である。
構成を示すブロック図である。
【図21】同画像入力装置における被写体の「てかり」
を示す図である。
を示す図である。
【図22】同画像入力装置における部分形状に対する評
価関数値を求める処理動作を示すフローチャートであ
る。
価関数値を求める処理動作を示すフローチャートであ
る。
【図23】同画像入力装置の効果を示す図である。
【図24】一般的なテンプレートマッチング法を示す図
である。
である。
1 奥行き抽出手段 2 被写体 3 背面 4 表示手段 5 操作手段 6 プリンタ 7 データ合成手段 8 文章データ作成手段 9 撮像ヘッド手段 10 制御手段 11R 右側レンズ 11L 左側レンズ 12 証明部 13 カメラ姿勢位置検知部 14 画像メモリ 15 奥行き情報演算部 16 二次元画像データ演算部 17R 右側レンズの撮像範囲 17L 左側レンズの撮像範囲 101R 絞り 101L 絞り 102R イメージセンサ 102L イメージセンサ 103R A/D変換部 103L A/D変換部 104R 映像信号処理部 104L 映像信号処理部 105R 被写体分離部 105L 被写体分離部 106R ズーム制御部 106L ズーム制御部 107R フォーカス制御部 107L フォーカス制御部 108R 絞り制御部 108L 絞り制御部 109R イメージセンサドライバ 109L イメージセンサドライバ 201 システムコントローラ 202 画像処理部 203 レリーズボタン 204 表示部 205 記録部 206 合焦検出部 207 外部入力インターフェース(I/F) 208a メモリ 208b メモリ 209a メモリ 209b メモリ 210 オーバーラップ検出部 211 発音部 300 マイクロコンピュータ 301 メモリ 302 画像演算処理部 701R 立体画像(右側画像) 701L 立体画像(左側画像) 702R エッジ抽出処理部 702L エッジ抽出処理部 703 立体画像対応点抽出処理部 704 エッジ画像対応点抽出処理部 705 矛盾等排除処理部 706 オクルージョン領域判定処理部 707 奥行き情報分布算出処理部 708R 特徴点抽出処理部 708L 特徴点抽出処理部 709 補正データ算出処理部 710 ジャイロ 1001a 奥行き情報 1001b 奥行き情報 1002a 座標系の変換処理部 1002b 座標系の変換処理部 1003 奥行き情報の統合処理部 1004 オクルージョン領域情報送出部 1005 表示部 1100 得られた画像から背景との被写体分離が行わ
れた画像 1101 被写体 1102 背景 1110 カメラの主点 1120 被写体の奥行き情報を表現するボクセル空間 1200 ある視点におけるカメラの主点 1201 ある視点におけるカメラの主点 1202 ある視点におけるカメラの主点 1203 ある視点におけるカメラの主点 1210 ボクセルの一部 1220 切る境界線 1221 切る境界線 1222 切る境界線 1223 切る境界線 1224 切る境界線 1225 切る境界線 1226 切る境界線 1227 切る境界線 1230 切り落とし処理された領域 1231 被写体の真の形状 1240 センサ面の断面 1241 センサ面の断面 1242 センサ面の断面 1243 センサ面の断面 10001 立体画像からの奥行き情報 10002 立体画像からの奥行き情報 10003 立体画像からの奥行き情報 20000 立体画像からの奥行き情報 20001 立体画像からの奥行き情報 20002 立体画像からの奥行き情報 20004 多数決処理した後の奥行き情報 15000 ある視点で見た輝度情報 15001 ある視点で見た輝度情報 15002 ある視点で見た輝度情報 15010 鏡面反射成分を除いた輝度情報 15011 鏡面反射成分を除いた輝度情報 15012 鏡面反射成分を除いた輝度情報 1801 画像入力手段 1802 被写体 1803 立体情報処理手段 1804 被写体移動手段 1805 被写体移動制御手段 1901 回転ステージ 1902 ステッピングモータ 2001 右左対応点抽出手段 2002 左右対応点抽出手段 2003 一致判別手段 2004 距離分布計算手段 2005 部分形状変換手段 2006 評価関数計算手段 2007 立体情報出力手段 2101 右画像 2102 左画像 2104 「てかり」領域 2301 1つの地点からの部分形状 2302 「てかり」による誤差 2303 1つの地点からの部分形状 2304 1つの地点からの部分形状 2305 「てかり」による誤差 2306 「てかり」による誤差 2307 高い評価関数値が得られる領域 2308 誤差を除去した立体情報 241 基準となる画像 242 テンプレート 243 探索される画像
れた画像 1101 被写体 1102 背景 1110 カメラの主点 1120 被写体の奥行き情報を表現するボクセル空間 1200 ある視点におけるカメラの主点 1201 ある視点におけるカメラの主点 1202 ある視点におけるカメラの主点 1203 ある視点におけるカメラの主点 1210 ボクセルの一部 1220 切る境界線 1221 切る境界線 1222 切る境界線 1223 切る境界線 1224 切る境界線 1225 切る境界線 1226 切る境界線 1227 切る境界線 1230 切り落とし処理された領域 1231 被写体の真の形状 1240 センサ面の断面 1241 センサ面の断面 1242 センサ面の断面 1243 センサ面の断面 10001 立体画像からの奥行き情報 10002 立体画像からの奥行き情報 10003 立体画像からの奥行き情報 20000 立体画像からの奥行き情報 20001 立体画像からの奥行き情報 20002 立体画像からの奥行き情報 20004 多数決処理した後の奥行き情報 15000 ある視点で見た輝度情報 15001 ある視点で見た輝度情報 15002 ある視点で見た輝度情報 15010 鏡面反射成分を除いた輝度情報 15011 鏡面反射成分を除いた輝度情報 15012 鏡面反射成分を除いた輝度情報 1801 画像入力手段 1802 被写体 1803 立体情報処理手段 1804 被写体移動手段 1805 被写体移動制御手段 1901 回転ステージ 1902 ステッピングモータ 2001 右左対応点抽出手段 2002 左右対応点抽出手段 2003 一致判別手段 2004 距離分布計算手段 2005 部分形状変換手段 2006 評価関数計算手段 2007 立体情報出力手段 2101 右画像 2102 左画像 2104 「てかり」領域 2301 1つの地点からの部分形状 2302 「てかり」による誤差 2303 1つの地点からの部分形状 2304 1つの地点からの部分形状 2305 「てかり」による誤差 2306 「てかり」による誤差 2307 高い評価関数値が得られる領域 2308 誤差を除去した立体情報 241 基準となる画像 242 テンプレート 243 探索される画像
フロントページの続き (72)発明者 石川 基博 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内
Claims (12)
- 【請求項1】 単数の光学系からなる撮像系により、任
意の位置から被写体を撮像して該被写体の奥行き情報を
得る画像情報入力方法において、複数視点の立体画像か
らの視差情報を多数決して求めることを特徴とする画像
情報入力方法。 - 【請求項2】 複数の光学系からなる撮像系により、任
意の位置から被写体を撮像して該被写体の奥行き情報を
得る画像情報入力方法において、複数視点の立体画像か
らの視差情報を多数決して求めることを特徴とする画像
情報入力方法。 - 【請求項3】 被写体に対して相対的に移動する画像入
力手段により入力された画像を用いて前記被写体の一部
分の形状を求め、それらの部分形状から前記被写体全体
の立体情報を求める画像情報入力方法において、複数画
像間の対応点を求め、該求めた対応点から前記被写体の
一部分の形状を求め、該求めた複数の部分形状間の各対
応点同士の同士の距離とその部分形状を求めた対応点の
第1の評価関数値とを用いて立体情報を求めるための第
2の評価関数値を計算し、該求めた第2の評価関数値に
基づき前記被写体の立体情報を出力することを特徴とす
る画像情報入力方法。 - 【請求項4】 被写体に対して相対的に移動する画像入
力手段により入力された画像を用いて前記被写体の一部
分の形状を求め、それらの部分形状から前記被写体全体
の立体情報を求める画像情報入力方法において、複数画
像間の対応点を求め、該求めた対応点から前記被写体の
一部分の形状を求め、該求めた複数の部分形状間の各対
応点同士の同士の距離とその部分形状を求めた対応点の
第1の評価関数値の最高値とを用いて立体情報を求める
ための第2の評価関数値を計算し、該求めた第2の評価
関数値に基づき前記被写体の立体情報を出力することを
特徴とする画像情報入力方法。 - 【請求項5】 前記複数視点の立体画像からの視差情報
を多数決して求めることは、奥行き方向の情報の内、他
の奥行き情報と大きく異なる物を排除することであるこ
とを特徴とする請求項1または2記載の画像情報入力方
法。 - 【請求項6】 前記複数視点の立体画像からの視差情報
を多数決して求めることは、複数視点の画像から、他の
視点での画像と大きく輝度の異なる物を排除した後に視
差情報を求めることであることを特徴とする請求項1ま
たは2記載の画像情報入力方法。 - 【請求項7】 単数の光学系からなる撮像系により、任
意の位置から被写体を撮像して該被写体の奥行き情報を
得る奥行き情報抽出手段を有する画像情報入力装置にお
いて、前記奥行き情報抽出手段は、複数視点の立体画像
からの視差情報を多数決して求める視差情報抽出手段を
備えていることを特徴とする画像情報入力装置。 - 【請求項8】 複数の光学系からなる撮像系により、任
意の位置から被写体を撮像して該被写体の奥行き情報を
得る奥行き情報抽出手段を有する画像情報入力装置にお
いて、複数視点の立体画像からの視差情報を多数決して
求める視差情報抽出手段を備えていることを特徴とする
画像情報入力装置。 - 【請求項9】 前記視差情報抽出手段は、奥行き方向の
情報の内、他の奥行き情報と大きく異なる物を排除する
ことを特徴とする請求項7または8記載の画像情報入力
装置。 - 【請求項10】 前記視差情報抽出手段は、複数視点の
画像から、他の視点での画像と大きく輝度の異なる物を
排除した後に視差情報を求めることを特徴とする請求項
7または8記載の画像情報入力装置。 - 【請求項11】 被写体に対して相対的に移動する画像
入力手段により入力された画像を用いて前記被写体の一
部分の形状を求め、それらの部分形状から前記被写体全
体の立体情報を求める画像情報入力装置において、複数
画像間の対応点を求める対応点抽出手段と、該対応点抽
出手段により求めた対応点から前記被写体の一部分の形
状を求める部分形状測定手段と、該部分形状測定手段に
より求めた複数の部分形状間の各対応点同士の同士の距
離を求める距離測定手段と、前記部分形状を求めた対応
点の第1の評価関数値を計算する第1の評価関数値演算
手段と、前記距離測定手段により求めた距離と前記第1
の評価関数値演算手段により算出した第1の評価関数値
とを用いて立体情報を求めるための第2の評価関数値を
計算する第2の評価関数値演算手段と、該第2の評価関
数値演算手段により求めた第2の評価関数値に基づき前
記被写体の立体情報を出力する出力手段とを具備したこ
とを特徴とする画像情報入力装置。 - 【請求項12】 被写体に対して相対的に移動する画像
入力手段により入力された画像を用いて前記被写体の一
部分の形状を求め、それらの部分形状から前記被写体全
体の立体情報を求める画像情報入力装置において、複数
画像間の対応点を求める対応点抽出手段と、該対応点抽
出手段により求めた対応点から前記被写体の一部分の形
状を求める部分形状測定手段と、該部分形状測定手段に
より求めた複数の部分形状間の各対応点同士の同士の距
離を求める距離測定手段と、前記部分形状を求めた対応
点の第1の評価関数値の最高値を計算する第1の評価関
数値演算手段と、前記距離測定手段により求めた距離と
前記第1の評価関数値演算手段により算出した第1の評
価関数値の最高値とを用いて立体情報を求めるための第
2の評価関数値を計算する第2の評価関数値演算手段
と、該第2の評価関数値演算手段により求めた第2の評
価関数値に基づき前記被写体の立体情報を出力する出力
手段とを具備したことを特徴とする画像情報入力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8194104A JPH1023311A (ja) | 1996-07-05 | 1996-07-05 | 画像情報入力方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8194104A JPH1023311A (ja) | 1996-07-05 | 1996-07-05 | 画像情報入力方法及び装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH1023311A true JPH1023311A (ja) | 1998-01-23 |
Family
ID=16319010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8194104A Pending JPH1023311A (ja) | 1996-07-05 | 1996-07-05 | 画像情報入力方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH1023311A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001307074A (ja) * | 2000-04-27 | 2001-11-02 | Tohoku Techno Arch Co Ltd | 3次元モデル構成装置 |
JP2002541568A (ja) * | 1999-03-31 | 2002-12-03 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | シーンの第1の画像から第2の画像への画素ブロックの移動量を検出する方法 |
JP2004333243A (ja) * | 2003-05-06 | 2004-11-25 | Pasuko:Kk | 画像マッチング方法 |
US6999618B2 (en) | 2000-02-18 | 2006-02-14 | Nec Corporation | Object extraction device, object extraction method, and recording media for storing an object extraction program |
JP2007121085A (ja) * | 2005-10-27 | 2007-05-17 | Shimadzu Corp | X線検査装置 |
JP2008093287A (ja) * | 2006-10-13 | 2008-04-24 | Olympus Medical Systems Corp | 医療用画像処理装置及び医療用画像処理方法 |
JP2008096119A (ja) * | 2006-10-05 | 2008-04-24 | Keyence Corp | 光学式変位計、光学式変位測定方法、光学式変位測定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
WO2013108310A1 (ja) * | 2012-01-18 | 2013-07-25 | パナソニック株式会社 | 立体画像検査装置、立体画像処理装置、および立体画像検査方法 |
JP2015526692A (ja) * | 2012-10-31 | 2015-09-10 | サムスン エレクトロニクス カンパニー リミテッド | 奥行きセンサベース反射物体の形状取得方法及び装置 |
JP2017166915A (ja) * | 2016-03-15 | 2017-09-21 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
-
1996
- 1996-07-05 JP JP8194104A patent/JPH1023311A/ja active Pending
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002541568A (ja) * | 1999-03-31 | 2002-12-03 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | シーンの第1の画像から第2の画像への画素ブロックの移動量を検出する方法 |
US6999618B2 (en) | 2000-02-18 | 2006-02-14 | Nec Corporation | Object extraction device, object extraction method, and recording media for storing an object extraction program |
WO2001084496A1 (fr) * | 2000-04-27 | 2001-11-08 | Tohoku Techno Arch Co., Ltd. | Appareil de constitution d'un modele tridimensionnel |
JP2001307074A (ja) * | 2000-04-27 | 2001-11-02 | Tohoku Techno Arch Co Ltd | 3次元モデル構成装置 |
JP2004333243A (ja) * | 2003-05-06 | 2004-11-25 | Pasuko:Kk | 画像マッチング方法 |
JP2007121085A (ja) * | 2005-10-27 | 2007-05-17 | Shimadzu Corp | X線検査装置 |
JP2008096119A (ja) * | 2006-10-05 | 2008-04-24 | Keyence Corp | 光学式変位計、光学式変位測定方法、光学式変位測定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
JP2008093287A (ja) * | 2006-10-13 | 2008-04-24 | Olympus Medical Systems Corp | 医療用画像処理装置及び医療用画像処理方法 |
WO2013108310A1 (ja) * | 2012-01-18 | 2013-07-25 | パナソニック株式会社 | 立体画像検査装置、立体画像処理装置、および立体画像検査方法 |
JP5493055B2 (ja) * | 2012-01-18 | 2014-05-14 | パナソニック株式会社 | 立体画像検査装置、立体画像処理装置、および立体画像検査方法 |
US9883162B2 (en) | 2012-01-18 | 2018-01-30 | Panasonic Intellectual Property Management Co., Ltd. | Stereoscopic image inspection device, stereoscopic image processing device, and stereoscopic image inspection method |
JP2015526692A (ja) * | 2012-10-31 | 2015-09-10 | サムスン エレクトロニクス カンパニー リミテッド | 奥行きセンサベース反射物体の形状取得方法及び装置 |
JP2017166915A (ja) * | 2016-03-15 | 2017-09-21 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6445814B2 (en) | Three-dimensional information processing apparatus and method | |
US6640004B2 (en) | Image sensing and image processing apparatuses | |
US20120242795A1 (en) | Digital 3d camera using periodic illumination | |
US8144974B2 (en) | Image processing apparatus, method, and program | |
CN111566437A (zh) | 三维测量系统以及三维测量方法 | |
JP2000102040A (ja) | 電子ステレオカメラ | |
WO2014084181A1 (ja) | 画像計測装置 | |
CN113160328A (zh) | 一种外参标定方法、系统、机器人和存储介质 | |
JPWO2020075252A1 (ja) | 情報処理装置、プログラム及び情報処理方法 | |
CN114913290A (zh) | 多视角融合的场景重建方法、感知网络训练方法及装置 | |
JPH1023311A (ja) | 画像情報入力方法及び装置 | |
CN117392423A (zh) | 基于激光雷达的目标物的真值数据预测方法、装置及设备 | |
JPH1021401A (ja) | 三次元情報処理装置 | |
JPH1079029A (ja) | 立体情報検出方法及びその装置 | |
JPH09305796A (ja) | 画像情報処理装置 | |
JP4337203B2 (ja) | 距離画像生成装置および距離画像生成方法、並びにプログラム提供媒体 | |
JP3516118B2 (ja) | 物体認識方法および物体認識装置 | |
JP7298687B2 (ja) | 物体認識装置及び物体認識方法 | |
JPH09231370A (ja) | 画像情報入力装置 | |
JPH09231369A (ja) | 画像情報入力装置 | |
JP2006031101A (ja) | 画像生成方法およびその装置 | |
JP3501841B2 (ja) | 立体物領域検出装置及び立体物領域迄の距離測定装置及びそれらの検出、測定方法 | |
US20130076868A1 (en) | Stereoscopic imaging apparatus, face detection apparatus and methods of controlling operation of same | |
KR102298047B1 (ko) | 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치 | |
JPH09229648A (ja) | 画像情報入出力装置及び画像情報入出力方法 |