JPH09231371A - 画像情報入力装置及び画像情報入力方法 - Google Patents

画像情報入力装置及び画像情報入力方法

Info

Publication number
JPH09231371A
JPH09231371A JP8057059A JP5705996A JPH09231371A JP H09231371 A JPH09231371 A JP H09231371A JP 8057059 A JP8057059 A JP 8057059A JP 5705996 A JP5705996 A JP 5705996A JP H09231371 A JPH09231371 A JP H09231371A
Authority
JP
Japan
Prior art keywords
subject
depth information
image
information
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8057059A
Other languages
English (en)
Inventor
Katsumi Iijima
克己 飯島
Katsuhiko Mori
克彦 森
Sunao Kurahashi
直 倉橋
Motohiro Ishikawa
基博 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP8057059A priority Critical patent/JPH09231371A/ja
Publication of JPH09231371A publication Critical patent/JPH09231371A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 あらゆる被写体について、任意の視点からの
高精度で利用価値の高い奥行き情報を容易に且つ高速で
得ることができる画像情報入力装置及び画像情報入力方
法を提供する。 【解決手段】 極座標で表現されるボクセル空間112
0から、線分1130〜1134よりも外側にあるボク
セルデータは被写体部分でないものとして除去し、内側
にあるボクセルのみで形成される立体形状を被写体の形
状であるとみなす。

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明は、被写体を撮像して
得た画像から、CG(コンピュータグラフィックス)、
CAD(キャド)または文書ファイルとの合成等、各種
目的に利用される三次元形状情報を抽出する画像情報入
力装置及び画像情報入力方法に関する。 【0002】 【従来の技術】従来より、被写体の三次元形状を求める
手法には、大別すると、受動的手法と能動的手法があ
る。 【0003】受動的手法の代表的なものではいわゆるス
テレオ画像法があり、この手法は、二台のカメラを用い
て三角測量を行うものである。すなわち、左右のカメラ
で得られる各画像中に、同一物点が写っている箇所を探
索し、その位置のずれ量から物点の三次元位置を計測す
るものである。 【0004】一方、能動的手法の代表的なものには、投
影した光が帰ってくるまでの時間を計測して距離を求め
る光レーダ型のレンジファインダや、スリット状の光パ
ターンを投影して被写体に写るパターン形状の変位から
三次元形状を測定するスリット光投影法等がある。 【0005】ところで、従来より、被写体を任意の視点
からみた場合の像を、得られた被写体の三次元情報に基
づき二次元のディスプレイ等に出力・再生することが一
般に行われている。 【0006】また、パーソナルコンピュータの普及に伴
い、電子カメラで撮像した画像を取り込んで、編集する
ことが可能になった。例えば、電子カメラで複数の画像
に分けて撮像された風景画像を、パーソナルコンピュー
タに取り込んで、アプリケーションソフトにより任意に
加工・処理を施すことも既に可能となっている。 【0007】このような背景から、多様な被写体につい
て、目的に応じた精度の高い三次元形状情報を取得する
ことが必要となってきている。例えば、オフィス等で一
般に扱われる画像情報は、最終的には紙に出力されるこ
とが多く、利用が要求される画像形態は、自然画だけで
なく、被写体を輪郭線のみで表す線画もある。従って、
被写体の画像情報をあらゆる側面(視点)から捉え、自
由に加工・処理できるようにすることが望まれている。 【0008】 【発明が解決しようとする課題】しかしながら、例えば
ステレオ画像法のような受動的手法では、測定情報は離
散的であり、被写体表面の鏡面反射成分等によるノイズ
を含む場合もある。また、特定位置からの距離情報の算
出を主目的とするため、被写体の立体形状そのものを計
測するには必ずしも十分ではない。そのため、高精度で
なめらかな三次元形状情報を得ることは困難である。 【0009】一方、能動的手法では、被写体へのレーザ
光線照射等を必要とする場合があるため、測定対象とな
る被写体の種類に一定の制限があり、その測定自体も煩
雑で、容易でない。 【0010】また、上記受動的手法、能動的手法のいず
れにおいても、被写体の周囲を移動しながら撮像するよ
うな動的な撮像方法に柔軟に対応して、任意の視点によ
る精度の高い距離測定(以下「奥行き情報抽出」ともい
う)を行うことは困難であった。 【0011】そのため、例えばオフィスでパーソナルコ
ンピュータにより文章を作成する際に、電子カメラで撮
像した画像を用いて被写体の三次元形状情報を抽出し、
被写体を任意の視点から見た場合の画像に変換した上
で、この変換された被写体画像を取入れた文章を作成す
るというようなアプリケーションも知られていなかっ
た。 【0012】このように、従来の画像情報入力装置で
は、被写体の種類に制限を受けることなく、任意の視点
による高精度の奥行き情報を得て、目的に応じた利用を
図る上で、改善の余地があった。 【0013】本発明は上記従来技術の問題を解決するた
めになされたものであり、その目的は、あらゆる被写体
について、任意の視点からの高精度で利用価値の高い奥
行き情報を容易に且つ高速で得ることができる画像情報
入力装置及び画像情報入力方法を提供することにある。 【0014】 【課題を解決するための手段】上記目的を達成するため
に本発明の請求項1の画像情報入力装置は、複数の視点
により被写体を撮像して得られた複数の画像に基づき前
記被写体の各部位の奥行き情報を抽出する奥行き情報抽
出手段を備えた画像情報入力装置において、前記奥行き
情報抽出手段は、曲線座標を用いた所定の処理により前
記被写体の各部位の奥行き情報を抽出することを特徴と
する。 【0015】同じ目的を達成するために本発明の請求項
2の画像情報入力装置は、上記請求項1の構成におい
て、前記奥行き情報抽出手段は、前記被写体の画像を前
記複数の視点に投影し、該投影された複数の画像の輪郭
に基づき前記被写体の各部位の奥行き情報を抽出する輪
郭計測手段、及び前記被写体を二つの視点により撮像
し、該二つの視点により撮像された被写体の二つの画像
から視差を用いて前記被写体の各部位の奥行き情報を抽
出するステレオ計測手段の少なくとも一方を備えたこと
を特徴とする。 【0016】同じ目的を達成するために本発明の請求項
3の画像情報入力装置は、上記請求項1または2の構成
において、前記所定の処理は、前記被写体の画像を前記
複数の視点に投影し、該投影された複数の画像の輪郭の
外側に係る座標情報を前記被写体を含む座標空間の各座
標を表現する空間座標情報から除去することにより、前
記空間座標情報に残された座標情報に基づいて前記被写
体の各部位の奥行き情報を抽出する処理であることを特
徴とする。 【0017】同じ目的を達成するために本発明の請求項
4の画像情報入力装置は、上記請求項1〜3のいずれか
1項の構成において、前記曲線座標は、極座標であるこ
とを特徴とする。 【0018】同じ目的を達成するために本発明の請求項
5の画像情報入力装置は、上記請求項1〜3のいずれか
1項の構成において、前記曲線座標は、円柱座標である
ことを特徴とする。 【0019】同じ目的を達成するために本発明の請求項
6の画像情報入力装置は、上記請求項1〜5のいずれか
1項の構成において、前記奥行き情報抽出手段は、撮像
方向における前記被写体の背後に所定の基準面を想定
し、前記曲線座標の原点を前記所定の基準面内に設定す
ることを特徴とする。 【0020】同じ目的を達成するために本発明の請求項
7の画像情報入力方法は、複数の視点により被写体を撮
像して得られた複数の画像に基づき前記被写体の各部位
の奥行き情報を抽出する奥行き情報抽出段階を含む画像
情報入力方法において、前記奥行き情報抽出段階は、曲
線座標を用いた所定の処理により前記被写体の各部位の
奥行き情報を抽出することを特徴とする。ここで、「奥
行き」とは、被写体各部位の視点からの距離を意味す
る。 【0021】 【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。 【0022】(実施の第1形態)以下に、本発明の実施
の第1形態に係る画像情報入力装置を説明する。 【0023】まず、図1を用いて極座標について説明
し、次に図2〜図4を用いて画像情報入力装置の構成
を、図5〜図13を用いて奥行き情報抽出処理を、図1
4を用いて奥行き情報の統合処理を説明し、加えて図1
5を用いて円柱座標について説明する。 【0024】まず、図1を用いて、本実施の形態におけ
る被写体の奥行き情報抽出処理が行われる「極座標(球
座標ともいう)」について説明する。 【0025】本実施の形態で用いる極座標では、同図の
左下の半球図に示すように、点Oを原点とする直交座標
軸X,Y,Zを執る(いわゆる左手系)。そして、原点
Oを中心とする半径rの球面、Z軸を含みZX面と角φ
をなす半平面、及びZ軸を軸とし原点Oを頂点とする頂
角2θの円錐面の三面が交わる点を交点Pとすると、交
点Pの座標は(r,θ,φ)で表わすことができる。 【0026】同図中、1120は極座標で表わされる空
間を所定の座標間隔で区切ったボクセル空間であり、奥
行き情報抽出処理をする上で、上記交点Pの座標を表現
するのと同様に、各ボクセルが(r,θ,φ)により表
現される。 【0027】図2は、本実施の形態に係る画像情報入力
装置と、その周辺環境の概略を示すブロック図である。 【0028】同図において、画像情報入力装置20には
撮像ヘッド部(カメラヘッド)1の他、カメラ姿勢位置
検知部4、画像メモリ5、奥行き情報演算部6及び2次
元画像データ演算部7から成る処理部21が含まれる。 【0029】撮像ヘッド部1は、撮像開始の位置A0か
ら撮像終了の位置Anまで、円弧状に移動しながら検出
対象である被写体2を撮像する。左側の撮像レンズ10
0Lの撮像範囲は円弧10Lで、右側の撮像レンズ10
0Rの撮像範囲は円弧10Rで示されている。照明部2
00は、撮像環境に応じて照明光を被写体2に照射す
る。また、被写体2の背後には、撮像の基準面となるパ
ッド(以下「背面」という)3が配置され、ボクセル空
間1120の原点は、この背面3内に設定される。 【0030】カメラ姿勢位置検知部4は、ジャイロ等の
センサにより角度情報を算出すると共に、背面3から得
られる情報に基づく画像処理により、姿勢・位置情報を
算出することにより、撮像系の姿勢・位置を検知する。 【0031】なお、撮像ヘッド部1によるA0−An間
の各撮像地点における位置の情報は、このカメラ姿勢位
置検知部4から周辺機器等へ送出される。 【0032】画像メモリ5は、撮像ヘッド1で得られた
画像情報とカメラ姿勢位置検知部4で得られた撮像ヘッ
ド部1の位置情報とを記憶する。 【0033】奥行き情報演算部6は、画像メモリ5に記
憶された上記画像情報、位置情報に基づき被写体2の立
体形状を演算する。 【0034】2次元画像データ演算部7は、上記演算さ
れた被写体2の立体形状に係る三次元情報に基づいて、
任意の視点から見た場合の被写体2について、使用者の
指定する画像形態での2次元画像情報を演算する。 【0035】次に、本装置の使用時の処理を略説する。 【0036】まず使用者は、撮像ヘッド部1を被写体2
に向け図示しないレリーズボタンを操作すると、被写体
2の撮像が行われ、最初の画像情報が画像メモリに5に
記憶される。 【0037】次に使用者が撮像ヘッド部1を、被写体2
を中心に位置A0から位置Anへ移動させる。位置A0
からAnへ移動している最中に、位置A0に対して撮像
ヘッド部1の位置および撮像方向が所定量変化したこと
をカメラ姿勢検知部4が検知すると、次に2度目の撮像
が行なわれ、以下順々にn度目まで同様に撮像が行われ
る。 【0038】例えば3°毎の角度間隔で撮像されるとす
ると、位置A0〜Anが180°である場合には、合計
60回撮像されることになる。角度間隔の設定は、ジャ
イロ等の性能及び求めたい奥行き情報の分解能から決定
する。例えばジャイロの検出能力が90°/secなら
ば、3°/フレーム速度と設定する。 【0039】被写体2の画像情報は、カメラ姿勢位置検
知部4により得られた撮像ヘッド部1の位置A0に対す
る位置の変位量及び撮像方向の変位量と共に、画像メモ
リ5に記憶される。そして、この位置の変位量および方
向の変位量の少なくとも一方が所定量より大きい場合に
は、警告が行われる。 【0040】この撮像動作が数回繰り返され、被写体2
の奥行き情報を演算するのに十分な数の画像情報が得ら
れると、図示しない撮影終了検知器等でその旨が使用者
に知らされ、撮像が終了する。 【0041】次に、奥行き情報演算部6では画像メモリ
5に記憶された画像情報とそれぞれの画像データに対応
する撮像ヘッド部1の位置情報とから、被写体2の三次
元画像情報が演算される。2次元画像データ演算部7
は、画像情報入力装置20に接続された操作部11によ
り指定された画像形態で、かつ被写体2を最初に撮影し
た位置A0から見た場合の二次元画像情報を、被写体2
の三次元画像情報に基づき演算し、操作部11に接続さ
れたモニタ8に表示させる。 【0042】使用者は、操作部11を操作して、2次元
画像データ演算部7に操作に応じた演算を行わせること
により、二次元画像情報を、被写体2を任意の視点から
見た場合の情報に変更することができる。さらに、操作
部11の操作により、モニタ8に表示される被写体2の
画像形態を変更することができる。 【0043】なお、プリンタ9は処理部21及び操作部
11に接続され、各種情報を印刷出力する。また、画像
情報入力装置20及び文章データ作成部1001に接続
されたデータ合成部1000は、画像情報入力装置20
から送られてきた画像情報と文章データ作成部1001
により作成され送られてきた文書ファイルとを合成す
る。 【0044】図3は、本実施の形態に係る画像情報入力
装置の全体構成図であり、図2の撮像ヘッド部1及び処
理部21の構成要素を詳細に示したものである。 【0045】同図中、図2と同一の要素には同一符号を
付してある。 【0046】システムコントローラ210には、照明部
200、カメラ姿勢位置検知部4、ズーム制御部106
L,106R、フォーカス制御部107L,107R、
絞り制御部108L,108R、発音体97、イメージ
センサドライバ102L1,102R1、映像信号処理
部104L,104R、被写体分離部105L,105
R、合焦検出部270、画像処理部220、レリーズボ
タン230、外部入力I/F(インタフェイス)部76
0、オーバラップ検出部92が接続され、システムコン
トローラ210は、これら全体を制御する。 【0047】レリーズボタン230が押下されると、被
写体からの光像は、ズームレンズからなる撮像レンズ1
00L,100Rを経て絞り101L,101Rによっ
て絞られ、CCD等を用いてイメージセンサ102L
2,102R2により電気信号に交換される。なお、イ
メージセンサ102L2,102R2は、それぞれに接
続されたイメージセンサドライバ102L1,102R
1を介して制御される。 【0048】上記電気信号は、イメージセンサ102L
2,102R2に接続されたA/D変換部103L,1
03Rによってアナログ信号からデジタル信号に変換さ
れ、A/D変換部103Lに接続されたメモリ83及び
メモリ85、並びにA/D変換部103Rに接続された
メモリ73及びメモリ75にそれぞれ格納される。 【0049】メモリ83,85及びメモリ73,75に
格納されたデジタル信号は、映像信号処理部104L及
び映像信号処理部104Rによって適切な形態の輝度信
号及び色信号から成る映像信号に変換される。 【0050】上記変換された映像信号は、映像信号処理
部104L,104Rに接続された被写体分離部105
L,105Rによって立体形状情報として抽出されるべ
き被写体2の信号と背面3の信号とに分離される。 【0051】ここで、分離は例えば次のようにして行
う。 【0052】予め背面3を撮像してその画像情報をメモ
リに保持しておき、その後被写体2を上記背面3の前部
に配置して被写体2ごと撮像する。そして、メモリに保
持された背面3のみの画像とのマッチング処理及び差分
処理を施すことにより背面領域のみを分離する。 【0053】このようにして分離された被写体2の映像
信号は、被写体分離部105L,105Rに接続された
画像処理部220により、撮像時のパラメータに基づく
奥行き情報の抽出処理(以下「第1処理」といい、詳細
は後述する)が施された後、記録部250に記録され
る。 【0054】一方、映像信号処理部104L,104R
で得られた輝度信号及び色信号から成る映像信号は、画
像処理部220により、視差を用いた奥行き情報の抽出
処理(以下「第2処理」といい、詳細は後述する)が施
された後、記録部250に記録される。 【0055】そして、上記第1処理及び第2処理により
得られた奥行き情報を、システムコントローラ210の
制御により画像処理部220にて、取捨選択することに
より統合し、被写体2全体の最終的奥行き情報を求める
(後述)。 【0056】また、被写体分離部105L,105Rに
接続された合焦検出部270により、合焦が行われる。 【0057】焦点距離の設定は、次のようにして行う。 【0058】まず、距離情報は下記数式1により表わさ
れる。 【0059】 【数1】Z=fb/d ここに、Zは視点と被写体2との距離を、fは焦点距離
を、bは基線長を、dは二つの視点の視差を示す。視差
により決まる距離分離能をパラメータとして考え、下記
数式2を得る。 【0060】 【数2】∂Z/∂d=−fb/d2 よって、焦点距離は、下記数式3により与えられる。 【0061】 【数3】f=(−d2/b)・(∂Z/∂d) また、外部入力I/F760を介してコンピュータ等か
ら分解能を設定し、この値に基づいて、焦点距離fを設
定することも可能である。 【0062】この他、表示部240は、映像信号処理部
104L,104Rに接続され、種々の画像情報を出力
表示する。 【0063】また、オーバーラップ検出部92は、メモ
リ73,75,83,85に接続されている。 【0064】図4は、システムコントローラ210の構
成を示すブロック図である。同図に示すように、システ
ムコントローラ210は、マイクロコンピュータ900
に、画像情報の演算処理を行う画像演算処理部920
と、画像情報を格納するメモリ910とがバスにて接続
されている。 【0065】以下に、第1処理を図1、図5及び図6を
用いて説明する。 【0066】図1は、本実施の形態において、第1処理
を説明するための図である。 【0067】ボクセル空間1120は、球形状の被写体
2全体を内包し、被写体2表面の各部位の位置情報は、
カメラの主点1110からの奥行き情報として三次元座
標により表現される。 【0068】また、1100は、得られた画像に前述し
た手法により被写体2と背面3との分離処理が施された
背景分離画像であり、被写体画像1101と背景画像1
102とから成る。 【0069】ここで、背景分離画像1100は、画像の
各部分について、被写体2を表す部分か背面3を表す部
分かが判断されたものであり、上記分離処理の後に、例
えば被写体2を表す部分の画像情報にはフラグ「1」を
付加すると共に、背面3を表わす部分の画像情報にはフ
ラグ「0」を付加することにより得ることができる。 【0070】線分1130〜1134は、分離された被
写体画像の輪郭部から主点1110を通り、被写体2に
接する。被写体2の表面上の点P1,P2,P3,P
4,P5は、被写体画像1101の輪郭上の点p1,p
2,p3,p4,p5に対応し、それぞれ線分113
0,1131,1132,1133,1134により結
ばれる。 【0071】第1処理は、ボクセル空間1120から被
写体2の輪郭の外部を除去することにより行う。すなわ
ち、外側のボクセルデータを多数の線分で切るのであ
る。これは、例えば線分1130〜1134よりも外側
にあるボクセルは、被写体部分ではないものとして扱
い、内側のボクセルのみで形成される立体形状が被写体
2の形状であるとみなすことを意味する。具体的な処理
は、各ボクセルについて、フラグを立て、例えばフラグ
「0」ならそのボクセルの座標情報をボクセル空間11
20の空間座標から除去し、フラグ「1」なら採用する
ことにより行う。 【0072】図5は、第1処理による座標情報除去処理
を模式的に示したものであり、被写体2の断面図を示し
たものである。本図では、説明を容易化するため、被写
体2を撮像するカメラを二次元的に移動させ、同一平面
内で処理を行った場合について示している。 【0073】同図中、(a)の1210はボクセル空間
の一部(平面で捉えたものである)であり、その中に平
面体としての被写体2がある。 【0074】本図では撮像する視点は4つとし、各カメ
ラの主点1200〜1203がそれに該当する。 【0075】被写体2の画像は各主点1200〜120
3を経て、イメージセンサ120L2等の断面1240
〜1243に投影される。 【0076】被写体2の輪郭に接する線分1220〜1
227は、被写体2の内側の境界線となる。線分122
0,1221は主点1200を通り、線分1222,1
223は主点1201を通り、線分1224,1225
は主点1202を通り、線分1226,1227は主点
1203を通る。 【0077】ここで、各線分1200〜1207により
被写体2の外側の部分をボクセル空間の一部1210か
ら除去すると、同図に示す交点a,b,c,d,e,
f,g,hで囲まれた領域1230が、境界線の内側と
して残る。同図の(b)は、本処理が施された領域を抽
出し、被写体2の真の領域1231をオーバラップさせ
て示したものである。 【0078】このような処理を三次元的に行うことで、
被写体2の立体的輪郭を把握できる。 【0079】なお、このような処理は、ボクセル空間1
120側から投影画像を見て、三次元的に行うこともで
きる。すなわち、例えばボクセル空間1120内のある
座標から、逆に主点1110を通る線分を計算すると共
に、その座標に係る点が背景分離画像1100のどこに
投影されるかを計算し、その投影点が被写体画像110
1を示すかそれとも背景画像1102を示すかを、フラ
グにより判断するようにしてもよい。そして、この処理
をボクセル空間の原点(0,0,0)から原点ら最も離
れた点(r0,θ0,φ0)まで、各点について行うので
ある。 【0080】この処理は、以下のような算術処理により
行われる。 【0081】まず、極座標では、直交座標との関係から
X,Y,Zは下記数式4、数式5、数式6により表わさ
れる。 【0082】 【数4】X=rsinθcosφ 【0083】 【数5】Y=rsinθsinφ 【0084】 【数6】Z=rcosθ ボクセル空間1120側とカメラの主点1110との関
係は、下記数式7により与えられる。なお、主点111
0の極座標で表わした座標を(a0,b0,c0)と、座
標のねじれを反映した直交座標を(X′,Y′,Z′)
とする。 【0085】 【数7】 よって、ボクセル空間座標(r,θ,φ)に対応する背
景分離画像1100への投影点を(x,y)とすると、
投影点(x,y)は、下記数式8、数式9により求めら
れる。 【0086】 【数8】x=fX′/Z′ 【0087】 【数9】y=fY′/Z′ ここに、ω1は、X軸に関し、Y軸からZ軸方向へ回転
する方向へのねじれ角であり、ω2は、Y軸に関し、Z
軸からX軸方向へ回転する方向へのねじれ角であり、ω
3は、Z軸に関し、X軸からY軸方向へ回転する方向へ
のねじれ角である。これらのねじれ角ω1,ω2,ω
3は、カメラの主点1110の座標系と、ボクセル空間
1120の直交座標系とのねじれ関係を示すパラメータ
である。 【0088】次に、投影点(x,y)のフラグを参照す
ることにより、当該ボクセルが被写体2の内部に属する
ものであるか否かを判別する。なお、x,yの値が整数
値でない場合は、その近傍領域からフラグを判断する。
そして、この処理を多視点から繰り返し行うことによ
り、被写体2の奥行き情報がボクセル空間1120の中
に抽出される。この処理の過程を、図6に示す。同図
中、図1と同一の要素には同一符号を付してある。 【0089】以上説明した第1処理により、被写体2の
輪郭を把握できる。 【0090】さらに、この処理を高速化するためには、
例えば半径rに関する処理を先に行うようにしてもよ
い。すなわち、半径rが取りうる最大値を求め、その外
郭部をまず除去してしまい、次にθ,φに関して上記処
理を行うようにする。このようにすれば、被写体2の外
郭部をいわゆる「そぎ落とす」処理をより効果的に行え
るので、直交座標系における処理と比べると、一段と高
速な処理が可能となる。 【0091】以下に、図7〜図13を用いて、上記第2
処理について説明する。 【0092】図7は、第2処理により被写体2の奥行き
情報を抽出する手順を示すブロック図である。 【0093】本処理は、いわゆるステレオ画像から奥行
き情報を求めるものである。ステレオ画像110は画像
メモリ5に蓄積されており、左画像と右画像とからな
る。 【0094】ステレオ画像110は、エッジ抽出部11
1に入力され、後述する手法によりエッジが抽出された
エッジ画像が生成される。このエッジ画像は、エッジ画
像対応点抽出部113により、左右の画像中の各画素
が、互いにどのような対応関係になっているかが判断さ
れ、その対応関係の情報は矛盾排除処理部114に出力
される。 【0095】一方、ステレオ画像110は、ステレオ画
像対応点抽出部112にも入力され、後述する手法に
て、ステレオ画像110の輝度値から各画素が互いにど
のような対応関係になっているかが判断されて、その対
応関係の情報が矛盾排除処理部114に出力される。 【0096】矛盾排除処理部114では、エッジ画像対
応点抽出部113で求められた対応関係と、ステレオ画
像対応点抽出部112で求められた対応関係とを比較
し、両者に矛盾があるかどうかを判別する。そして、両
者に矛盾があるときは、対応関係の信頼性が低いものと
してその情報を排除する。このときの判断においては、
両者に適当に重み付けをするようにしてもよい。 【0097】矛盾排除処理部114の処理結果はオクル
ージョン領域判定処理部115に出力される。ここで
は、既に求められた対応点の個所と、対応点を求める途
中で使用されている相関の程度を表す指数、例えば残差
とにより、オクルージョン領域を判断される。これは、
対応点抽出処理により一応の結果は得られるが、その信
頼性をさらに高めるために行われるものである。 【0098】相関の程度を表す指数としては相関係数ま
たは残差が用いられ、例えば残差が非常に大きいときや
相関係数が低いときは、対応関係の信頼性が低いと判断
される。そして、この信頼性の低い部分が、オクルージ
ョン領域または対応関係が存在しない領域として扱われ
る。 【0099】奥行き情報分布算出処理部116では、得
られた対応関係に基づいて、三角測量の原理により、被
写体2の奥行き情報が算出される。なお三角測量は、前
記数式1を用いて行う。 【0100】ステレオ画像110は、さらに特徴点抽出
部117にも入力され、背景部の特徴点が同定処理され
る。その処理結果は補正データ算出処理部118に出力
され、背景部の特徴点を利用して、撮像パラメータ,姿
勢及び移動関係が取得される。その際、ジャイロ880
による角度変化等の情報が補正データ算出処理部118
に出力される。 【0101】ここで、上記ステレオ画像対応点抽出部1
12による対応点抽出処理方法の代表として、テンプレ
ートマッチング法について説明する。 【0102】図8は、ステレオ画像112によるテンプ
レートマッチング法を説明するための図である。 【0103】同図のように、例えば左画像からN×N画
素のテンプレート画像を切り出す。そしてこれを、右画
像から得られたM×M画素の入力画像内の探索領域(M
−N+1)2上で動かす。さらに、下記数式10に基づ
き、残差R(a1,b1)が最小となるようなテンプレ
ート画像の位置を求め、N×N画素のテンプレート画像
の中心画素を一致個所として求める。 【0104】 【数10】 ここで、(a1,b1)はN×N画素のテンプレート画
像の左上位置を示し、IR(a1,b1)(i,j)は右画像の
部分画像に、TL(i,j)は、左画像から切り出した
テンプレート画像に対応する。 【0105】次に、エッジ抽出部111によるエッジ抽
出方法を説明する。エッジ抽出には、例えばロバートフ
ィルタ等の手法のほかゾーベルフィルタを用いることも
できる。 【0106】ロバートフィルタによれば、入力画像をf
(i,j)とすると、出力画像をg(i,j)は下記数
式11または下記数式12により算出される。 【0107】 【数11】g(i,j)=[{f(i,j)-f(i+1,j+1)}2+{f(i+1,j)-f
(i,j+1)2]1/2 【0108】 【数12】 g(i,j)=|{f(i,j)-f(i+1,j+1)}|+|{f(i+1,j)-f(i,j+1)}| ゾーベルフィルタによれば、下記数式13及び数式14
によりマトリックスfx,fyを得た後、下記数式15
によりエッジの強さの方向を表わす指数θ1が算出され
る。 【0109】 【数13】 【0110】 【数14】 【0111】 【数15】θ1=tan-1(fy/fx) このようにして、エッジ部が強調された画像に対し二値
化処理を行いエッジ成分を抽出する。なお、二値化処理
は適当な閾値を用いて行う。 【0112】以上のような処理によりステレオ画像に基
づいて求められた奥行き情報を、図9に示す。 【0113】同図において、図1と同一要素には同一符
号を付してその説明を省略する。同図中、点Q1〜Q
7は、奥行き情報が求められた点を示し、点q1〜q
7は、各点Q1〜Q7に対応する背景分離画像1100中
の投影点を示す。また、左右の画像から得られた2つの
背景分離画像の中心間の距離を基線長Bとする。 【0114】次に、多視点においてステレオ画像から得
られた奥行き情報の統合処理を、図10〜図13に基づ
き説明する。 【0115】図10は、第2処理における奥行き情報統
合処理の手順を示すブロック図である。 【0116】例えば同図に示す第1の視点tによる奥行
き情報Zt、次に第2の視点t+δtによる奥行き情報
t+δtというように、1対のステレオ画像からは、奥
行き情報120が時々刻々と生成される。 【0117】各視点による奥行き情報は、座標系変換部
121に入力され、カメラ姿勢位置検知部4からも入力
される位置情報を用いて、後述する手法により、任意の
統一された座標系に変換される。統一された座標系とし
て、例えば図1に示すようなボクセル空間1120と同
様の座標系を採用してもよい。統一された座標系への変
換には、アフィン変換等を用い、オイラー角が同一にな
るようにする。このように変換することにより、多視点
で得られた奥行き情報の統合処理を容易にできるのであ
る。 【0118】上記統一された座標系に変換された各奥行
き情報は、奥行き情報統合部122にて、オクルージョ
ン領域情報送出部123からの情報をも用いて統合され
る。その処理の詳細は後述する。 【0119】ここでいう「統合」とは、少なくとも二つ
以上の任意の視点による被写体2の奥行き情報120に
対して、各々の局所的なずれ量に係る情報を得て、得ら
れたずれ情報を基に、同一座標系から見た奥行き情報と
するように処理することをいう。具体的には、同一点は
同一であると判断すること、求められた各点の座標の間
を補間することのほか、少なくとも三つの複数視点によ
り得られた奥行き情報の内、互いに重複する抽出領域の
奥行き情報を多数決により取捨選択すること等の処理の
ことである。 【0120】なお、統合された奥行き情報及びオクルー
ジョン領域情報送出部からの情報は、表示部124によ
り表示される。 【0121】次に、奥行き情報統合部122による統合
処理を図11〜図13を用いて説明する。 【0122】まず、多数決処理を図11を用いて説明す
る。 【0123】同図では、説明を簡単にするために、被写
体2はφ軸方向に変化の無いものと仮定し、縦軸r、横
軸θの二次元座標で奥行き情報を示している。 【0124】同図の(a)において、ある第1の視点t
による奥行き情報20000を三角印で示し、次の第2
の視点t+δtによる奥行き情報20001を丸印で示
し、さらにその次の第3の視点t+2δtによる奥行き
情報20002を四角印で示す。 【0125】これら三つの視点による奥行き情報抽出領
域が重複している領域が重複領域20010であり、こ
の領域20010にて多数決処理が行われる。 【0126】同図(a)によれば、重複領域20010
では、奥行き情報20000と奥行き情報20002と
は同一部位につきほぼ同一の値を示しているが、奥行き
情報20001については、例えば値20020,値2
0021,値20022のように、著しく異なった値を
執っている。 【0127】これは、被写体2表面の鏡面反射成分が強
いために生じた誤差と考えられる。すなわち、鏡面反射
が強い場合は一般にその輝度の強度が他の部位に比べ突
出している。そのため、対応点抽出処理では、その強い
輝度情報に影響を受け、視差情報を正しく出さないから
であると考えられる。 【0128】そこで、この誤った奥行き情報を除去する
ために、他の視点による奥行き情報を利用するのであ
る。なお、視点が変われば強い輝度成分は別の個所にも
たらされる。従って、奥行き情報20000,2000
2についても、θ軸方向のいずれかの個所でその影響が
出る領域があるはずである。ただし、図11中にはそれ
は表わされていない。 【0129】このような鏡面反射を考慮して、少なくと
も三つの視点による奥行き情報抽出領域が重複する領域
において、二つ以上の視点による奥行き情報が略同一の
値を示す場合はこれを採用し、他方、一つだけ異なる値
を示す奥行き情報は除去するように処理する。図11の
(a)では、値20020,20021,20022が
除去される。これを多数決処理と称す。 【0130】ここで、多数決処理をする上で、近傍領域
中の複数の視点による奥行き情報の内、同一部位に係る
奥行き情報と比べて突出しているもの、または所定の閾
値を越えるものを除去するようにしてもよい。 【0131】そして、奥行き情報の除去がされ、残され
た奥行き情報について平均値を執り、これをその部位に
係る最終的奥行き情報とする。 【0132】この処理を重複領域20010内における
全ての部位に係る奥行き情報について行い、求められた
最終的奥行き情報を次々と繋げていく。これにより、
(b)に示す奥行き情報20003が得られる。 【0133】このようにして、被写体2の鏡面反射成分
の悪影響が排除された精度の高い奥行き情報を得ること
ができる。 【0134】なお、上記残された奥行き情報の平均値を
執る代わりに、残された奥行き情報の内のいずれか一つ
を採用するようにしてもよい。あるいは、局所的なずれ
を補間するようにしてもよい。 【0135】上記多数決処理における局所的なずれの補
間処理について図12を用いて説明する。同図では、説
明を簡略化するために、三視点ではなく二視点からの奥
行き情報を図示する。同図の(a)は、第1の視点tに
より得られた奥行き情報rt(θ,φ)を一例として描
いたものである。 【0136】(b)は、次の第2の視点t+δtにより
得られた奥行き情報rt+δt(θ′,φ′)を、統一さ
れた方向から見た場合の奥行き情報r′t+δt(θ′,
φ′)を描いたものである。 【0137】(c)は、(a)と(b)とを描いたもの
であり、奥行き情報rt(θ,φ)とr′t+δt(θ′,
φ′)とは局所的に(i0,j0)、すなわち(θ′−
θ,φ′−φ)だけずれている。 【0138】(d)は、(c)に対して奥行き情報r′
t+δt(θ′,φ′)を(−i0,−j0)だけシフト
して描いたものである。奥行き情報r′t+δt(θ′,
φ′)をシフトしたものは、点線で描いてある。ここで
例えば、r=r′とすると、(d)のように奥行き情報
が互いに近接する。 【0139】ここで、上記シフト量を決定する量i0及
びj0は、次のように導出する。 【0140】カメラ姿勢位置検知部4による検知輝度及
びステレオ画像からの奥行き抽出精度が高精度である場
合は、ずれ量Q(i,j)は小さな値となる。ずれ量Q
(i,j)は、下記数式16により算出される。 【0141】 【数16】 このずれ量Q(i,j)が最小となるような量i,jを
求め、それを量i0,j0とする。 【0142】この量i0,j0によりシフトされ、
(d)のように重ねられた奥行き情報から、以下に説明
する同一点の排除及び中間点の補間の処理を行う。 【0143】まず、同一点排除処理を説明する。 【0144】本処理では、互いの奥行き情報中、被写体
2の同一の点を示す情報がある場合には、いずれか一方
の情報を採用し、他方を排除する。これには情報量を削
減するという意義もある。対比される情報が同一の点を
示すか否かは下記数式17また数式18により判断し、
いずれか一方の式が成立する場合に同一と判断する。 【0145】 【数17】 (r−r′)2+(θ−θ′)2+(φ−φ′)2<ε1 【0146】 【数18】a2(r−r′)2+b2(θ−θ′)2+c
2(φ−φ′)2<ε2 ここで、ε1,ε2は所定の基準値であり、a2,b
2,c2は係数である。例えばa2=b2=1とし、c
2=2とすることにより、距離の違いに対してより敏感
に判断することができる。 【0147】次に、中間点の補間処理を図13を用いて
説明する。 【0148】同図は、説明を簡略化するために図12の
(d)の奥行き情報をr−θ平面に投影し、一次元で示
したものである。 【0149】同図の(a)の白丸が奥行き情報r
t(θ,φ)を示し、黒丸が奥行き情報r′t+δt(θ,
φ)を(i0,j0)シフトした奥行き情報r′t+δt
(θ+i0,φ+j0)を示す。 【0150】ここで行う補間は、例えば互いの奥行き情
報から中間点を採用する中間点補間とする。中間点補間
により求められた新たな奥行き情報Znewを、(b)
に白い四角で示す。 【0151】補間方法としては、線形補間、スプライン
補間等を用いることができる。 【0152】このようにして、鏡面反射成分による悪影
響が排除され、補間された奥行き情報が得られる。 【0153】次に、撮像系の深度情報から得たフラグを
基に、各奥行き情報Znewの信頼性を判断する。例え
ば、撮像系の光学系の焦点深度情報を利用して、信頼性
の低い奥行き情報Znewは排除する。 【0154】さらに、オクルージョン領域情報送出部1
23からの検知情報に基づき、各奥行き情報Znewを
取捨選択する。 【0155】以上説明した第2処理により、被写体2の
鏡面反射による悪影響を回避しつつ忠実な立体形状を把
握できる。特に被写体2の凹部についても奥行き情報を
得ることが容易であるという利点がある。 【0156】以下に、上述した第1処理で求めた奥行き
情報と第2処理で求めた奥行き情報とを統合する処理に
ついて、図14を用いて説明する。 【0157】図14は、本実施の形態に係る画像情報入
力装置において、奥行き情報取捨選択による統合処理を
説明するための図である。 【0158】同図の(A)は、第1処理の模式図であ
り、図1をより簡略化して描いたものである。また、
(B)は、第2処理の模式図であり、図9をより簡略化
して描いたものである。 【0159】本統合処理の説明を簡略化するため、特定
の断面について述べる。(A),(B)において、ある
特定断面について見た場合を(C),(D)に示す。 【0160】(C)は、第1処理の出力結果を示す斜線
の四角と、第2処理の出力結果を示す斜線の丸とを単純
に組み合わせ、重ねて表示したものである。なお、この
斜線の丸は、(B)の白丸に対応するものである。 【0161】本統合処理は、次の(1),(2),
(3)の手順により行う。 【0162】(1)第2処理による奥行き情報のうち、
第1処理による奥行き情報よりも外側を示すものは除去
する。 【0163】(2)第2処理による奥行き情報のうち、
第1処理による奥行き情報よりも内側、すなわち凹部を
表現できるものは採用すると共に、略同一部位に係る第
1処理による奥行き情報は除去する。 【0164】(3)残された第1及び第2処理による奥
行き情報は、両者を互いに繋ぐように採用する。 【0165】例えば、(C)の奥行き情報10001,
10002に着目すると、この情報に係る部位について
は、第1処理による奥行き情報よりも奥行き情報100
01,10002の方が外側を示している(飛び出して
いる)ことがわかる。この現象は、何らかの誤差による
ものと考えられるので、奥行き情報10001,100
02は採用せず除去する。 【0166】一方、奥行き情報10003のように、第
1処理による奥行き情報よりも内側を示す(引っ込んで
いる)情報は採用すると共に、同一部位に係る第1処理
による奥行き情報10004は除去する。 【0167】このように取捨選択するのは、第1処理及
び第2処理の性質を考慮したものである。すなわち、第
1処理は一般に被写体の凸部の抽出精度は高く、凹部の
抽出は困難である一方、第2処理は一般に被写体の凹部
についても抽出が容易である。従って、原則として凸部
については第1処理の結果を、凹部については第2処理
の結果を採用することにより、信頼性の高い奥行き情報
を得ることができるのである。 【0168】このような統合処理の結果を(D)に示
す。本処理を三次元的に行うことにより、被写体2の立
体形状に忠実で、滑らかな奥行き情報を得ることができ
る。 【0169】なお、凹部の処理について、上記例では、
二つの奥行き情報10003が隣接している場合を説明
したが、両情報が離れているときは、情報の繋ぎ方を工
夫する。例えば、両情報の間隔が2画素(セル)以下の
場合は両者を繋ぎ、3画素以上の場合は、その3画素に
ついては第1処理の奥行き情報を採用して繋ぐようにす
る。 【0170】このように繋ぐことにより、より忠実で滑
らかな奥行き情報が得られる。 【0171】なお、統合処理の手順は、前述した
(1),(2),(3)に限るものではない。例えば、
手順(3)に代えて、第1処理及び第2処理の互いの奥
行き情報を適当に重み付けをして補間したものを採用す
るようにしてもよい。 【0172】これにより、第2処理の奥行き情報が離散
的(とびとび)である場合にも、滑らかな奥行き情報の
取得を確保できる。 【0173】また、統合処理の手順は、前述した
(1),(2),(3)のうち、(2)に代えて、次の
手順を採用してもよい。すなわち、第2処理による奥行
き情報のうち、第1処理による奥行き情報よりも内側、
すなわち凹部を表現できるものがある場合には、両者の
中間点付近をその部位の奥行き情報として採用する。 【0174】これにより、奥行き情報をより滑らかにす
ることができる。 【0175】以上説明したように、本実施の形態に係る
画像情報入力装置によれば、第1処理及び第2処理のい
ずれによっても被写体2の奥行き情報を得ることがで
き、さらに両者の特性を考慮して情報を統合することに
より、被写体2の立体形状に忠実で、滑らかな最終的奥
行き情報を得ることができる。また、あらゆる側面から
の精度の高い奥行き情報により、目的に応じた利用価値
の高い画像形態を得ることができる。 【0176】特に第2処理では多数決処理を行うことに
より、鏡面反射による悪影響を回避でき、被写体2によ
り忠実な奥行き情報が得られる。 【0177】さらに、第1及び第2処理を極座標空間を
用いて行うので、処理を容易且つ高速に行うことができ
る。 【0178】(実施の第2形態)以下に、本発明の実施
の第2形態を説明する。 【0179】本実施の形態では、奥行き情報抽出処理
を、極座標ではなく、円柱座標を用いて行う点のみが実
施の第1形態と異なるので、図15を用いて円柱座標に
ついてのみ説明し、その他の説明は省略する。 【0180】図15において、図1と同一要素には同一
符号が付してある。 【0181】円柱座標は、同図左下の円柱図に示すよう
に、点Oを原点とする直交座標軸X,Y,Zを執り、Z
軸を軸とする半径rの円柱面、Z軸を含みZX平面と角
θをなす半平面、及びZ軸に垂直で原点Oからの距離が
Zである平面の三面の交わる点を交点Pとすると、交点
Pの座標は、(r,θ,φ)で表わされる。 【0182】同図中151120は、円柱座標で表わさ
れる空間を所定の座標間隔で区切ったボクセル空間であ
り、奥行き情報抽出処理をする上で、上記交点Pの座標
を表現するのと同様に、各ボクセルが(r,θ,z)に
より表現される。 【0183】なお、ボクセル空間151120の原点
は、背面3内に設定される。 【0184】円柱座標では、直交座標系との関係は下記
数式19、数式20、数式21にて表わされる。 【0185】 【数19】x=rcosθ 【0186】 【数20】y=rsinθ 【0187】 【数21】z=z 従って、前記数式7に相当する式が下記数式22により
表わされる。 【0188】 【数22】 そして、実施の第1形態と同様に前記数式8、数式9に
より投影点(x,y)が求められる。 【0189】さらに、実施の第1形態と同様の切り出し
方法により、上記数式22を用いて第1処理が行われ
る。 【0190】また、第2処理及び奥行き情報の取捨選択
統合処理についても円柱座標を用いて行われる。 【0191】本実施の形態に係る画像情報入力装置によ
っても、実施の第1形態と同様の効果を得ることができ
る。 【0192】なお、実施の第1形態では極座標を、実施
の第2形態では円柱座標を用いるようにしたが、これに
限るものでなく、楕円座標等、他の曲線座標を用いるよ
うにしてもよい。 【0193】さらに、実施の第1、第2形態では、、第
1処理及び第2処理の双方の処理を用いるようにした
が、いずれか一方でもよい。 【0194】また、複数の視点により得た被写体の画像
を用いる手法であれば、他の奥行き情報抽出手法を用い
るようにしてもよい。 【0195】 【発明の効果】以上説明したように、本発明の請求項1
に係る画像情報入力装置によれば、奥行き情報抽出手段
によって、複数の視点により被写体を撮像して得られた
複数の画像に基づき曲線座標を用いた所定の処理により
前記被写体の各部位の奥行き情報が抽出されるので、あ
らゆる被写体について、任意の視点からの高精度で滑ら
かな奥行き情報を容易に且つ高速で得ることができ、三
次元形状情報の利用価値を高めることができる。 【0196】本発明の請求項2に係る画像情報入力装置
によれば、前記被写体の画像を前記複数の視点に投影
し、該投影された複数の画像の輪郭に基づき前記被写体
の各部位の奥行き情報を抽出する輪郭計測手段、及び前
記被写体を二つの視点により撮像し、該二つの視点によ
り撮像された被写体の二つの画像から視差を用いて前記
被写体の各部位の奥行き情報を抽出するステレオ計測手
段の少なくとも一方によって、前記被写体の各部位の奥
行き情報が抽出される。 【0197】本発明の請求項3に係る画像情報入力装置
によれば、前記被写体の画像が前記複数の視点に投影さ
れ、該投影された複数の画像の輪郭の外側に係る座標情
報が前記被写体を含む座標空間の各座標を表現する空間
座標情報から除去されることにより、前記空間座標情報
に残された座標情報に基づいて前記被写体の各部位の奥
行き情報が抽出されるので、被写体の三次元形状を、よ
り簡易な構成で容易に把握できる。 【0198】本発明の請求項4に係る画像情報入力装置
によれば、前記所定の処理は極座標を用いて行われるの
で、より容易に且つ高速に処理できる。 【0199】本発明の請求項5に係る画像情報入力装置
によれば、前記所定の処理は円柱座標を用いて行われる
ので、より容易に且つ高速に処理できる。 【0200】本発明の請求項6に係る画像情報入力装置
によれば、撮像方向における前記被写体の背後に所定の
基準面が想定され、前記曲線座標の原点は前記所定の基
準面内に設定されるので、奥行き情報の抽出処理がより
容易になる。特にカメラ基準の場合と比べると測定誤差
が少なくて済む。 【0201】本発明の請求項7に係る画像情報入力方法
によれば、奥行き情報抽出段階で、複数の視点により被
写体を撮像して得られた複数の画像に基づき曲線座標を
用いた所定の処理により前記被写体の各部位の奥行き情
報が抽出されるので、あらゆる被写体について、任意の
視点からの高精度で滑らかな奥行き情報を容易に且つ高
速で得ることができ、三次元形状情報の利用価値を高め
ることができる。
【図面の簡単な説明】
【図1】本発明の実施の第1形態に係る画像情報入出力
装置において、第1処理を説明するための図である。
【図2】同実施の形態に係る画像情報入出力装置と、そ
の周辺環境の概略を示すブロック図である。
【図3】同実施の形態に係る画像情報入出力装置の全体
構成図である。
【図4】同装置に係る、システムコントローラの構成を
示すブロック図である。
【図5】第1処理による座標情報除去処理に係る、被写
体断面図である。
【図6】第1処理の処理過程を示す図である。
【図7】第2処理により被写体の奥行き情報を抽出する
手順を示すブロック図である。
【図8】第2処理におけるテンプレートマッチング法を
説明するための図である。
【図9】第2処理を説明するための図である。
【図10】第2処理における奥行き情報統合処理の手順
を示すブロック図である。
【図11】第2処理における多数決処理を説明するため
の図である。
【図12】第2処理において、奥行き情報統合部による
統合処理を説明するための図である。
【図13】第2処理において、中間点補間処理を説明す
るための図である。
【図14】実施の第1形態に係る画像情報入力装置にお
いて、奥行き情報取捨選択による統合処理を説明するた
めの図である。
【図15】本発明の実施の第2形態に係る画像情報入力
装置において、第1処理を説明するための図である。
【符号の説明】
5 画像メモリ 6 奥行き情報演算部 7 2次元画像データ演算部 100R 撮像レンズ 100L 撮像レンズ 102R2 イメージセンサ 102L2 イメージセンサ 104R 映像信号処理部 104L 映像信号処理部 105R 被写体分離部 105L 被写体分離部 210 システムコントローラ 220 画像処理部 900 マイクロコンピュータ 920 画像演算処理部 116 奥行き情報分布算出処理部 122 奥行き情報統合部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 石川 基博 東京都大田区下丸子3丁目30番2号 キヤ ノン株式会社内

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 複数の視点により被写体を撮像して得ら
    れた複数の画像に基づき前記被写体の各部位の奥行き情
    報を抽出する奥行き情報抽出手段を備えた画像情報入力
    装置において、前記奥行き情報抽出手段は、曲線座標を
    用いた所定の処理により前記被写体の各部位の奥行き情
    報を抽出することを特徴とする画像情報入力装置。
  2. 【請求項2】 前記奥行き情報抽出手段は、前記被写体
    の画像を前記複数の視点に投影し、該投影された複数の
    画像の輪郭に基づき前記被写体の各部位の奥行き情報を
    抽出する輪郭計測手段、及び前記被写体を二つの視点に
    より撮像し、該二つの視点により撮像された被写体の二
    つの画像から視差を用いて前記被写体の各部位の奥行き
    情報を抽出するステレオ計測手段の少なくとも一方を備
    えたことを特徴とする請求項1記載の画像情報入力装
    置。
  3. 【請求項3】 前記所定の処理は、前記被写体の画像を
    前記複数の視点に投影し、該投影された複数の画像の輪
    郭の外側に係る座標情報を前記被写体を含む座標空間の
    各座標を表現する空間座標情報から除去することによ
    り、前記空間座標情報に残された座標情報に基づいて前
    記被写体の各部位の奥行き情報を抽出する処理であるこ
    とを特徴とする請求項1または2記載の画像情報入力装
    置。
  4. 【請求項4】 前記曲線座標は、極座標であることを特
    徴とする請求項1〜3のいずれか1項に記載の画像情報
    入力装置。
  5. 【請求項5】 前記曲線座標は、円柱座標であることを
    特徴とする請求項1〜3のいずれか1項に記載の画像情
    報入力装置。
  6. 【請求項6】 前記奥行き情報抽出手段は、撮像方向に
    おける前記被写体の背後に所定の基準面を想定し、前記
    曲線座標の原点を前記所定の基準面内に設定することを
    特徴とする請求項1〜5のいずれか1項に記載の画像情
    報入力装置。
  7. 【請求項7】 複数の視点により被写体を撮像して得ら
    れた複数の画像に基づき前記被写体の各部位の奥行き情
    報を抽出する奥行き情報抽出段階を含む画像情報入力方
    法において、前記奥行き情報抽出段階は、曲線座標を用
    いた所定の処理により前記被写体の各部位の奥行き情報
    を抽出することを特徴とする画像情報入力方法。
JP8057059A 1996-02-21 1996-02-21 画像情報入力装置及び画像情報入力方法 Pending JPH09231371A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8057059A JPH09231371A (ja) 1996-02-21 1996-02-21 画像情報入力装置及び画像情報入力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8057059A JPH09231371A (ja) 1996-02-21 1996-02-21 画像情報入力装置及び画像情報入力方法

Publications (1)

Publication Number Publication Date
JPH09231371A true JPH09231371A (ja) 1997-09-05

Family

ID=13044880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8057059A Pending JPH09231371A (ja) 1996-02-21 1996-02-21 画像情報入力装置及び画像情報入力方法

Country Status (1)

Country Link
JP (1) JPH09231371A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072922A (ja) * 2008-09-18 2010-04-02 Kddi Corp 画像生成装置、方法及びプログラム
JP2010133751A (ja) * 2008-12-02 2010-06-17 Topcon Corp 形状測定装置およびプログラム
JP2012014259A (ja) * 2010-06-29 2012-01-19 Casio Comput Co Ltd 撮影装置、撮影装置の制御装置、撮影装置の制御プログラム、及び撮影装置の制御方法
JP2012178187A (ja) * 2012-06-08 2012-09-13 Casio Comput Co Ltd 撮影装置、撮影装置の制御装置、撮影装置の制御プログラム、及び撮影装置の制御方法
JP2020197493A (ja) * 2019-06-05 2020-12-10 公益財団法人かずさDna研究所 画像を用いた三次元計測装置、画像を用いた三次元計測方法および画像を用いた三次元計測用プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010072922A (ja) * 2008-09-18 2010-04-02 Kddi Corp 画像生成装置、方法及びプログラム
JP2010133751A (ja) * 2008-12-02 2010-06-17 Topcon Corp 形状測定装置およびプログラム
JP2012014259A (ja) * 2010-06-29 2012-01-19 Casio Comput Co Ltd 撮影装置、撮影装置の制御装置、撮影装置の制御プログラム、及び撮影装置の制御方法
US8817075B2 (en) 2010-06-29 2014-08-26 Casio Computer Co., Ltd. Imaging apparatus capable of generating three-dimensional images, three-dimensional image generating method, and recording medium
US9336626B2 (en) 2010-06-29 2016-05-10 Casio Computer Co., Ltd. Imaging apparatus capable of generating three-dimensional images, three-dimensional image generating method, and recording medium
JP2012178187A (ja) * 2012-06-08 2012-09-13 Casio Comput Co Ltd 撮影装置、撮影装置の制御装置、撮影装置の制御プログラム、及び撮影装置の制御方法
JP2020197493A (ja) * 2019-06-05 2020-12-10 公益財団法人かずさDna研究所 画像を用いた三次元計測装置、画像を用いた三次元計測方法および画像を用いた三次元計測用プログラム

Similar Documents

Publication Publication Date Title
US6445814B2 (en) Three-dimensional information processing apparatus and method
CA2577840C (en) A method for automated 3d imaging
CN110503040B (zh) 障碍物检测方法及装置
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
JP6223169B2 (ja) 情報処理装置、情報処理方法およびプログラム
JPH09187038A (ja) 3次元形状抽出装置
JPH09170914A (ja) 画像計測方法及び画像計測装置
JP2953154B2 (ja) 形状合成方法
CN113160328A (zh) 一种外参标定方法、系统、机器人和存储介质
JP2023505891A (ja) 環境のトポグラフィを測定するための方法
JPH1079029A (ja) 立体情報検出方法及びその装置
JPH1021401A (ja) 三次元情報処理装置
JPH1023311A (ja) 画像情報入力方法及び装置
JPH09231371A (ja) 画像情報入力装置及び画像情報入力方法
JPH09305796A (ja) 画像情報処理装置
KR102195762B1 (ko) 포토그래메트리를 이용한 고품질 3차원 공간 정보 획득 방법
JP3237705B2 (ja) 障害物検出装置および障害物検出装置を搭載した移動体
JPH09231370A (ja) 画像情報入力装置
JPH09231369A (ja) 画像情報入力装置
JP4248212B2 (ja) ステレオ画像処理装置およびステレオ画像処理方法
JPH09229648A (ja) 画像情報入出力装置及び画像情報入出力方法
JP3151472B2 (ja) 3次元物体像の生成方法
WO2020250348A1 (ja) 物体認識装置及び物体認識方法
JPH0981737A (ja) 三次元物体モデル生成方法
JP2003346144A (ja) 建物外形抽出方法およびシステム