JP4315545B2 - 3D image detection system and 3D image detection apparatus - Google Patents
3D image detection system and 3D image detection apparatus Download PDFInfo
- Publication number
- JP4315545B2 JP4315545B2 JP29711799A JP29711799A JP4315545B2 JP 4315545 B2 JP4315545 B2 JP 4315545B2 JP 29711799 A JP29711799 A JP 29711799A JP 29711799 A JP29711799 A JP 29711799A JP 4315545 B2 JP4315545 B2 JP 4315545B2
- Authority
- JP
- Japan
- Prior art keywords
- image detection
- dimensional image
- camera
- spot
- light emitting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Input (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、光伝播時間測定法を用いて被写体の3次元形状等を検出する3次元画像検出システム及び3次元画像検出装置に関する。
【0002】
【従来の技術】
従来被写体までの距離を画素毎に検出する測距装置としては、「Measurement Science and Technology」(S. Christie 他、vol.6, p1301-1308, 1995 年)に記載されたものや、国際公開97/01111号公報に開示されたものなどが知られている。これらの測距装置では、パルス変調されたレーザ光が被写体に照射され、その反射光が2次元CCDセンサによって受光され、電気信号に変換される。このとき2次元CCDのシャッタ動作を制御することにより、被写体までの距離に相関する電気信号をCCDの各画素毎に検出することができる。この電気信号からCCDの各画素毎に対応する被写体までの距離が検出される。
【0003】
【発明が解決しようとする課題】
これらの3次元画像検出装置で被写体の3次元形状を検出する場合、1つの方向からの撮影では、被写体の部分的な3次元形状しか検出できない。被写体の全体的な3次元形状を検出するには、複数の異なる方向から被写体を撮影する必要がある。しかし、異なる方向から撮影して得られる被写体の座標データは、異なる座標系に基づくものであり、これらの座標データを基に被写体を一体的に表すには、各座標系によって表された被写体の座標データを1つの座標系に変換する必要がある。従来これらの変換は、各方向から得られた被写体の3次元的な画像をコンピュータのディスプレイ上に表示し、被写体の視覚的特徴点を手がかりに3次元グラフィックソフトなどを用いて手動で一体的な被写体画像を合成することにより行われている。
【0004】
本発明は、被写体を複数の方向から撮影し、各撮影により得られる被写体の3次元形状を表す座標データを1つの座標系に合成するための3次元画像検出システム及び3次元画像検出装置を得ることを目的としている。
【0005】
【課題を解決するための手段】
本発明の3次元画像検出システムは、被写体までの距離情報を画素毎に検出する第1及び第2の3次元画像検出装置を備えた3次元画像検出システムであって、第1及び第2の3次元画像検出装置の少なくとも一方に設けられ非直線状に配列する3つ以上の光のスポットを被写体に投影するスポット光発光装置と、第1及び第2の3次元画像検出装置の双方に設けられ投影された光のスポットが、撮像面上に結像されているか否かを検出し、結像されている場合、その光のスポットが結像する撮像面上の位置を検出するスポット位置認識手段と、第1及び第2の3次元画像検出装置の少なくとも一方に設けられ第1及び第2の3次元画像検出装置の撮像面にそれぞれ結像された光のスポットの間における対応関係を認識する対応関係認識手段とを備え、第1及び第2の3次元画像検出装置の各撮像面においてスポット位置認識手段により少なくとも3つ以上のスポットが検出されることをを特徴としている。
【0006】
スポット光発光装置が照射する光は好ましくは、レーザ光線である。また、好ましくは、スポット光発光装置が3個以上のスポット光発光素子を備え、光のスポットはそれぞれ異なるスポット光発光素子から投射される光りによるものである。より好ましくはスポット光発光素子は、3次元画像検出装置の鏡筒の縁周りに円環状に等間隔で配置されている。
【0007】
好ましくは、対応関係認識手段は、各スポット光発光素子を1個づつ発光させることにより、第1及び第2の3次元画像検出装置において検出される光のスポットの間における対応関係を認識する。
【0008】
第1及び第2の3次元画像検出装置は好ましくは、第1及び第2の3次元画像検出装置間において通信を行なうための通信手段を備え、スポット光発光装置が備えられた第1又は第2の3次元画像検出装置が、各スポット光発光素子を1個づつ発光させるとともに各スポット光発光素子を識別するための発光素子識別コードを通信手段によりもう一方の3次元画像検出装置に送信し、対応関係識別手段が発光素子識別コードにより各3次元画像検出装置において検出される光のスポットの間における対応関係を認識する。
【0009】
例えば、スポット光発光装置を備えない3次元画像装置のスポット位置認識手段において、投影された光のスポットが検出されない場合に検出されないことを知らせるための信号を、光のスポットが検出された場合に検出されたことを知らせるための信号を、スポット光発光装置を備えた3次元画像検出装置に送信することにより、光のスポットがスポット光発光装置を備えない3次元画像検出装置において3つ以上検出されたか否かを第1の3次元画像検出装置において判定可能である。
【0010】
好ましくは、N台の3次元画像検出装置を備えた3次元画像検出システムにおいて、全ての3次元画像検出装置に、対となる3次元画像検出装置が少なくとも1台存在し、一対の3次元画像検出装置の一方が第1の3次元画像検出装置として機能し、他方が第2の3次元画像検出装置として機能する。より好ましくは、N台の3次元画像検出装置を備えた3次元画像検出システムの1回の駆動において、全ての3次元画像検出装置が1回だけ第1及び第2の3次元画像装置として機能する。またこのとき好ましくは、N台の3次元画像検出装置の各々を識別するための装置識別コードを、各3次元画像検出装置において生成する。
【0011】
3次元画像検出システムは好ましくは、第1及び第2の3次元画像検出装置の各々において検出される被写体までの距離情報から、第1及び第2の3次元画像検出装置を基準とした第1の座標系及び第2の座標系それぞれにおいて被写体の3次元形状を表す第1の座標データと第2の座標データを算出する座標データ算出手段を備える。またこのときより好ましくは、3次元画像検出システムは、スポット位置認識手段により検出される3つの光のスポットに基づいて、第1の座標系と第2の座標系との間での座標変換を行なう座標変換手段を備える。
【0012】
本発明の3次元画像検出装置は、上述の3次元画像検出システムにおいて用いられ、被写体までの距離情報を画素毎に検出する3次元画像検出装置であって、被写体に投影された光のスポットが結像する撮像面上の位置を検出するスポット位置認識手段または非直線状に配列する3つ以上の光のスポットを被写体に投影するためのスポット光発光装置の少なくとも一方を備える。
【0013】
3次元画像検出装置は好ましくは、スポット位置認識手段を備えた第1及び第2の3次元画像検出装置の一方の3次元画像検出装置であって、第1及び第2の3次元画像検出装置の撮像面において検出される光のスポットの間における対応関係を認識する対応関係認識手段を備える。このときより好ましくは、スポット光発光装置を備える。
【0014】
また3次元画像検出装置は好ましくは、対応関係認識手段において用いるデータを入力するためのデータ入力手段を備える。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
図1は、本発明の一実施形態であるカメラ型の3次元画像検出装置の斜視図であり、3次元画像検出システムにおいて用いられる。
【0016】
カメラ本体10の前面において、撮影レンズ11の左上にはファインダ窓12が設けられ、右上にはストロボ13が設けられている。撮像レンズ11の外周縁には円環状のマーキング用の発光装置(スポット光発光装置)22が配設されており、この発光装置22には6個の発光素子(スポット光発光素子)22aが等間隔に配置されている。発光素子22aは、マーキング用のレーザ光を照射するためのものである。カメラ本体10の上面において、撮影レンズ11の真上には、測距光であるレーザ光を照射する発光装置14が配設されている。発光装置14の左側にはレリーズスイッチ15、リンク撮影モード設定スイッチ18、液晶表示パネル16が設けられ、右側にはモード切替ダイヤル17が設けられている。カメラ本体10の図中右側面には、ICメモリカード等の記録媒体を挿入するためのカード挿入口19が形成されている他、ビデオ出力端子20、インターフェースコネクタ21a、21cが設けられている。また、カメラ本体10の図中左側面(図示せず)には、インターフェースコネクタ21bが設けられている。
【0017】
図2は図1に示すカメラの回路構成を示すブロック図である。
撮影レンズ11の中には絞り25が設けられている。絞り25の開度はアイリス駆動回路26によって調整される。撮影レンズ11の焦点調節動作およびズーミング動作はレンズ駆動回路27によって制御される。
【0018】
撮影レンズ11の光軸上には撮像素子(CCD)28が配設されている。CCD28の撮像面には、撮影レンズ11によって被写体像が形成され、これによりCCD28においては被写体像に対応した電荷が発生する。CCD28における電荷の蓄積動作、電荷の読出動作等の動作はCCD駆動回路30によって制御される。CCD28から読み出された電荷信号すなわち画像信号はアンプ31において増幅され、A/D変換器32においてアナログ信号からデジタル信号に変換される。デジタルの画像信号は撮像信号処理回路33においてガンマ補正等の処理を施され、画像メモリ34に一時的に格納される。アイリス駆動回路26、レンズ駆動回路27、CCD駆動回路30、撮像信号処理回路33はシステムコントロール回路35によって制御される。
【0019】
画像信号は画像メモリ34から読み出され、LCD駆動回路36に供給される。LCD駆動回路36は画像信号に応じて動作し、これにより画像表示LCDパネル37には、画像信号に対応した画像が表示される。
【0020】
画像メモリ34から読み出された画像信号は、カメラ本体10の外部に設けられたモニタ装置39とケーブルで接続することにより、TV信号エンコーダ38、ビデオ出力端子20を介してモニタ装置39に伝送可能である。またシステムコントロール回路35はインターフェース回路40に接続されており、インターフェース回路40はインターフェースコネクタ21a、21b、21cに接続されている。インターフェースコネクタ21a、21bは、複数のカメラを連動して撮影を行なうリンク撮影モードにおいて、他のカメラとの接続に用いる。インターフェースコネクタ21cは、カメラ本体10の外部に設けられたコンピュータ41とインターフェースケーブルを介して接続するためのものである。システムコントロール回路35は、記録媒体制御回路42を介してデータ記録装置43に接続されている。したがって画像メモリ34から読み出された画像信号は、データ記録装置43に装着されたICメモリカード等の記録媒体Mに記録可能である。
【0021】
発光装置14は、発光素子14aと照明レンズ14bにより構成され、発光素子14aの発光動作は発光素子制御回路44によって制御される。発光素子14aはレーザダイオード(LD)であり、照射されるレーザ光は被写体の距離を検出するための測距光として用いられる。このレーザ光は照明レンズ14bを介して被写体の全体に照射される。被写体で反射したレーザ光が、撮影レンズ11に入射し、CCD28で検出されることにより被写体までの距離情報が検出される。また、複数の発光素子22aもレーザダイオードであり、発光素子22aは発光素子制御回路41によって制御される。発光素子22aから照射されたレーザ光は、被写体表面にスポット状に投射され、特徴点を表すマーカーとしての役割を果たし、座標変換行列を求める際に参照される。
【0022】
システムコントロール回路35には、レリーズスイッチ15、モード切替ダイヤル17、リンク撮影モード設定スイッチ18から成るスイッチ群45と、液晶表示パネル(表示素子)16とが接続されている。
【0023】
次に図3〜図5を参照して本発明の一実施形態である3次元画像検出システムの概略について説明する。
【0024】
図3は、被写体Sの撮影方法を模式的に表したものである。
6台のカメラ10a〜10fは、図1、図2に示されたカメラであり、被写体Sを取り囲んで略等間隔で配置され、各カメラの撮像レンズは被写体Sに向けられている。隣合うカメラはそれぞれインターフェースケーブル50により接続されており、6台のカメラ10a〜10fは、環状のネットワークを形成し、全体として1つの3次元画像検出システムを構成している。オペレーターが、例えばカメラ10aのリンク撮影モード設定スイッチ18を押してリンク撮影モードを立ち上げると、インターフェースケーブル50により接続されたカメラ10b〜カメラ10fにおいても順次リンク撮影モードが立ち上げられる。カメラの数は、必要に応じて変更可能であるが、本システムを構成するには少なくとも2以上のカメラが必要である。なお、以後の説明では、カメラ10aのリンク撮影モード設定スイッチ18を操作してリンク撮影モードを立ち上げたことを前提として説明を行なう。
【0025】
各カメラでは、被写体Sまでの距離データが検出され、この距離データに基づいて算出される被写体Sの3次元形状を表す座標データは、各カメラを基準とした座標系によるものである。従って、各カメラを基準とした座標系による被写体Sの座標データを合成して、単一の座標系による被写体Sの全体的な座標データを得るには、あるカメラを基準とした座標系から他のカメラを基準とした座標系に変換できなければならない。リンク撮影モードでは、この座標変換を行なう座標変換行列を求める際に参照される参照点を検出するためのリンク撮影が行なわれ、その後に被写体までの距離情報や、画像情報が検出される。
【0026】
リンク撮影は相互にインターフェースケーブル50で直接接続された2台のカメラを1組として行われる。すなわちカメラ10aと10b、カメラ10bと10c、カメラ10cと10d、…、カメラ10fと10aなどがそれぞれ1組としてリンク撮影が行われる。リンク撮影では、2台のカメラの一方がマーキング用のレーザ光を照射し、被写体表面に投影されたスポットを2台のカメラで各々検出して座標変換の際に参照点として用いる。なお2台のカメラのうちマーキング用のレーザ光を照射するカメラをマスターカメラ、もう一方のカメラをスレーブカメラと呼ぶ。
【0027】
図4は、リンク撮影モードを設定した際にカメラ10aにおいて実行されるプログラムのフローチャートであり、図5はその他のカメラ10b〜10fにおいて実行されるプログラムのフローチャートである。
【0028】
まず、オペレータがカメラ10aのリンク撮影モード設定スイッチ18を押すと、カメラ10aにおいてステップ100のカメラリンク処理が実行される。カメラリンク処理では、カメラ10a〜カメラ10fを連動して制御するための初期処理が行なわれる。カメラ10aにおいて実行されるカメラリンク処理(ステップ100)に連動して、カメラ10b〜カメラ10fの各カメラにおいてもカメラリンク処理(ステップ200)が実行される。各カメラ間の連動(リンク)が成功すると、すなわち接続された各カメラの電源がオン状態に設定され、各カメラが通信可能な状態に設定されていることが確認されると、カメラ10aのカメラリンク処理(ステップ100)においてリンクが成功したことを表すフラッグが立てられる。
【0029】
カメラ10aのステップ101において、各カメラ間でのリンクが成功したか否かが上述のフラッグを参照することにより判定される。リンクが失敗したと判定されると、液晶表示パネル16などにリンクが失敗したことを伝える警告が表示され、リンク撮影モードの設定は解除される。これにより3次元画像検出システムの撮影動作は終了する。一方、リンクが成功したと判定されると、ステップ102においてカメラ10aをマスターカメラとしたリンク撮影が行なわれ、同時にカメラ10bでは、ステップ201が実行され、スレーブカメラとしてのリンク撮影が行なわれる。すなわち、カメラ10aとカメラ10bを1組としたリンク撮影が行なわれる。カメラ10a、カメラ10bのリンク撮影が成功すると、リンク撮影が成功したことを表すフラッグが、それぞれのステップ102、201において立てられる。なお、カメラ10aとカメラ10bを1組としたリンク撮影が行なわれている間、カメラ10c〜カメラ10fでは、後述するようにリンク撮影のための待機状態となる(ステップ201)。
【0030】
ステップ103(カメラ10a)、ステップ202(カメラ10b)では、リンク撮影が成功したか否かが上述のフラッグによりそれぞれ判定される。リンク撮影が失敗したと判定されると、リンク撮影モードの設定はそれぞれ解除されこの3次元画像検出システムの撮影動作は終了する。
【0031】
一方、リンク撮影が成功したと判定されると、カメラ10aではステップ104に処理が移り、カメラ10fをマスターカメラとし、自らをスレーブカメラとしたリンク撮影が行なわれるまで待機状態となる。カメラ10bでは、ステップ203に処理が移り、カメラ10bをマスターカメラとしたリンク撮影が開始される。このときカメラ10cでは、ステップ201での待機状態が解除され、スレーブカメラとしてのリンク撮影が開始する。すなわち、カメラ10b、カメラ10cを1組としたリンク撮影が行われる。各カメラでのリンク撮影が成功するとリンク撮影が成功したことを表すフラッグが、それぞれのステップ203(カメラ10b)、ステップ201(カメラ10c)において立てられる。
【0032】
カメラ10bでは、ステップ204においてリンク撮影(カメラ10bをマスターカメラとしたリンク撮影)が成功したか否かが上述のフラッグを参照して行われる。一方、カメラ10cでは、ステップ202においてリンク撮影(カメラ10bをマスターカメラとしたリンク撮影)が成功したか否かが上述のフラッグを参照して行われる。カメラ10b、カメラ10cにおいてリンク撮影が失敗したと判定されると、リンク撮影モードの設定はそれぞれ解除されこの3次元画像検出システムの撮影動作は終了する。
【0033】
リンク撮影が成功したと判定されると、カメラ10bでは、ステップ205に処理が移り、カメラ10aからの撮影終了信号(後述)が受信されたか否かが判定される。すなわち、カメラ10aからの撮影終了信号(END)待ち状態となる。また、カメラ10cでは、ステップ203に処理が移り、これを契機にカメラ10dのステップ201における待機状態が解除され、カメラ10cとカメラ10dを1組としたリンク撮影(カメラ10cがマスター、カメラ10dがスレーブ)が開始する。以下同様に、カメラ10dとカメラ10e、カメラ10eとカメラ10fのリンク撮影が行なわれ、カメラ10b〜カメラ10eのカメラは全てステップ205の待機状態となる。すなわち、各カメラは自らがスレーブカメラとしてリンク撮影をしたときのマスターカメラからの撮影終了信号待ち状態となる。
【0034】
カメラ10fのスレーブカメラとしてのリンク撮影(ステップ201)が成功して終了すると、カメラ10fはマスターカメラとしてのリンク撮影(ステップ203)を開始する。一方カメラ10aでは、ステップ104での待機状態が解除され、スレーブカメラとしてのリンク撮影が開始される。リンク撮影が成功すると、そのことを表すフラッグがカメラ10a、カメラ10fの各々のステップ104、ステップ203で立てられ、それぞれステップ105、ステップ204においてリンク撮影が成功したか否かが判定される。リンク撮影が失敗したと判定されると、リンク撮影モードの設定が解除され、この3次元画像検出システムの撮影動作は終了する。
【0035】
リンク撮影が成功したと判定されると、カメラ10fではステップ205に処理が移り、カメラ10eからの撮影終了信号待ち状態となる。また、カメラ10aでは、ステップ106に処理が移り、距離情報検出動作が実行され、被写体までの距離データが取得され、ステップ107において、画像情報検出動作が実行され、被写体の画像データが取得される。
【0036】
その後カメラ10aでは、撮影終了信号がステップ108においてカメラ10bに向けて出力され、ステップ109において各種データ(マーキングに関する情報や距離データ、画像データなど)が記録媒体Mに記録される。ステップ110では、カメラ10fからの撮影終了信号を受けるまで待機状態となる。カメラ10fから撮影終了信号を受信すると、カメラ10aにおける3次元画像検出システムの撮影動作は終了する。
【0037】
撮影終了信号は、そのカメラにおいて実行される距離情報検出動作や画像情報検出動作における撮影が終了したことを示す信号である。カメラ10bにおいて、撮影終了信号を受信すると、ステップ205で撮影終了信号の受信待ち状態であったカメラ10bの処理は、ステップ206、ステップ207へと移り、距離情報検出動作、画像情報検出動作が実行され、被写体の距離データ、画像データが取得される。その後ステップ208において、カメラ10bはカメラ10cに撮影終了信号を出力し、ステップ209で、取得された各種データが記録媒体Mに記録され、カメラ10bにおける3次元画像検出システムの撮影動作は終了する。
【0038】
以下同様に、各カメラにおいて距離情報検出動作、画像情報検出動作が実行されとともに次のカメラに撮影終了信号を出力し、各カメラにおいて取得された各種のデータが、記録媒体Mに記録され、各カメラにおける3次元画像検出システムの撮影動作が全て終了する。すなわち、撮影終了信号はカメラ10a、カメラ10b、カメラ10c、・・・、と順次出力され、最後にカメラ10fから出力された撮影終了信号がカメラ10aにおいて受信されることにより、接続された全てのカメラの撮影動作が終了する。
【0039】
次に図6〜図9及び次の表1を参照してステップ100、ステップ200において実行されるカメラリンク処理について説明する。
【0040】
表1は、インターフェースケーブル50を介してカメラ間で通信される代表的な信号の一覧を表したものである。
【表1】
Mはマスターカメラ、Sはスレーブカメラを表しており、’→’記号はマスターカメラ、スレーブカメラ間でのデータの伝送方向を表している。カメラリンク処理に用いられる信号は、1ビット信号であるリンク撮影モード信号(MODE)と3ビット信号であるカメラ識別信号(C1、C2、C3)である。3ビット信号の照明識別信号(L1、L2、L3)と、1ビット信号のOK信号(OK_ACK)、NG信号(NG_ACK)、撮影終了信号(END)は、後のリンク撮影動作において用いられる。
【0041】
図6は、ステップ100、すなわちカメラ10aで実行されるカメラリンク処理のフローチャートであり、図7は、ステップ200、すなわちカメラ10b〜カメラ10fで実行されるカメラリンク処理のフローチャートである。
【0042】
まずステップ300で、カメラ10a、カメラ10b間のリンク撮影モード(MODE)信号(送信側)がハイレベルに設定され、ステップ301でカメラ識別番号(送信側)が1にセットされるとともにカメラ10bへ出力される。その後ステップ302においてタイマがリセットされ、ステップ303でカメラ10f、カメラ10a間のMODE信号(受信側)がハイレベルであるか否かが判定される。受信側のMODE信号がハイレベルでないと判定されるとステップ306においてタイマが所定の時間を超過していないか否かが判定される。所定時間経過していないと判定されると、ステップ303に再び処理は戻り、受信側のMODE信号がハイレベルであるか否かが判定される。またステップ306でタイマの時間が所定時間を超過していると判定されると、カメラリンク処理が成功したことを表すフラッグをリセットしてこの処理は終了する。
【0043】
一方ステップ303において受信側のMODE信号はハイレベルであると判定されると、ステップ304において、受信側のカメラ識別番号が1であるか否かが判定される。受信側のカメラ識別番号が1であると判定されるとステップ306に処理は移り、タイマの時間が所定時間を超過しているか否かが判定される。ステップ304において受信側のカメラ識別番号が1でないと判定されると、ステップ305においてカメラリンク処理が成功したこと表すフラッグが立てられ、この処理は終了する。
【0044】
カメラ10aにおいて図6で示されたカメラリンク処理が行なわれている間、カメラ10b〜カメラ10fでは、図7で示されるカメラリンク処理が行なわれる。ステップ400で、受信側のMODE信号がハイレベルであると判定されると、処理はステップ401へ移行し、送信側のMODE信号がハイレベルに設定される。例えばカメラ10aからのMODE信号がハイレベルに設定され、これをカメラ10bが受信すると、カメラ10bはカメラ10cへのMODE信号をハイレベルに設定する。ステップ402では、受信したカメラ識別番号nに1を加算したものを送信側のカメラ識別番号に設定して次のカメラへ出力する。例えば、カメラ10bはカメラ10aからカメラ識別番号1を受信し、カメラ識別番号2をカメラ10cに出力する。すなわち6台のカメラ10a〜10fは、カメラ識別番号1、2、…、6にそれぞれ対応する。
【0045】
図8は、各カメラ間におけるMODE信号の立ち上げ及び立ち下げのシーケンスを示したものである。すなわち、図8(a)はカメラ10aとカメラ10b、図8(b)はカメラ10bとカメラ10c、図8(c)はカメラ10cとカメラ10d、図8(d)はカメラ10dとカメラ10e、図8(e)はカメラ10eとカメラ10f、図8(f)はカメラ10fとカメラ10a間のMODE信号の立ち上げ及び立ち下げのシーケンスを表している。ステップ300での送信側のMODE信号をハイレベルに設定することにより、カメラ10a、カメラ10b間のMODE信号は、SH1においてハイレベルに設定される。ハイレベルのMODE信号を受信したカメラ10bはカメラ10b、カメラ10c間のMODE信号をSH2においてハイレベルに設定する。このように順次各カメラ間のMODE信号がハイレベルに設定され、SH6では全てのカメラ間のMODE信号がハイレベルに設定される。
【0046】
一方、各カメラは割り込み処理で常時受信側のMODE信号を監視しており、受信側のMODE信号がローレベルに設定されると、自らの送信側のMODE信号をローレベルに設定した後、実行されている撮影動作をそれぞれ強制終了する。例えば、カメラ10aが送信側のMODE信号をSL1においてローレベルに設定すると、それを検知したカメラ10bもSL2において送信側のMODE信号をローレベルにした後、撮影動作を強制終了する。以下同様にカメラ10c〜カメラ10fが各MODE信号をローレベルに設定して、自らの撮影動作を強制終了する。したがって、SL6では、全てのカメラにおいて図4、図5のフローチャートで示された撮影動作は終了している。なお、受信側のMODE信号の監視は、全てのカメラにおいて常時行なわれているので、何れかのカメラが送信側のMODE信号をローレベルに設定すれば、各カメラのMODE信号が順次ローレベルに設定され、カメラ10aの送信側のMODE信号をローレベルに設定したときと同様に全てのカメラの撮影動作を終了させることができる。
【0047】
図9は、ステップ301、ステップ402において出力されるカメラ識別信号の例を示したものである。図9(a)は、カメラ10aからカメラ10bへ出力されるカメラ識別信号を表しており、図9(b)、図9(c)は、カメラ10bからカメラ10c、カメラ10cからカメラ10dへ出力されるカメラ識別信号をそれぞれ表している。
【0048】
カメラ識別信号C1、C2、C3はそれぞれ3桁の2進数の各桁に対応しており、C1は1桁目、C2は2桁目、C3は3桁目に対応する。したがって、カメラ識別番号1(2進表記で01)を出力する図9(a)では、送信側のMODE信号がハイレベルに設定されると略同時に、カメラ識別信号C1にパルス信号が出力される。同様にカメラ識別番号2(2進表記で10)を出力する図9(b)では、MODE信号がハイレベルに設定されると略同時に、カメラ識別信号C2にパルス信号が出力される。また、カメラ識別番号3(2進表記で11)を出力する図9(c)では、MODE信号がハイレベルに設定されると略同時に、カメラ識別信号C1、C2にそれぞれパルス信号が出力される。
【0049】
次に図10〜図12を参照して図4及び図5のステップ102、ステップ203とステップ104、ステップ201で実行されるマスターカメラでのリンク撮影と、スレーブカメラでのリンク撮影について説明する。
【0050】
図10は、マスターカメラにおいて実行されるリンク撮影動作のフローチャートである。初めにステップ500、ステップ501において変数Mと変数Lがそれぞれ0と1に初期設定される。変数Mは、リンク撮影動作により検出されたスポットの数に対応する。変数Lは照明識別番号であり、カメラに設けられた発光素子22の各々に対応する数である。例えば図1において、一番上の発光素子22から時計周りに順に1、2、…、6と各発光素子22が対応している。
【0051】
ステップ502では、カメラ識別番号がスレーブカメラに出力される。ステップ503では、照明識別番号Lの発光素子22からレーザ光が被写体に向けて照射されるとともに、照射されている発光素子22の照明識別番号Lをスレーブカメラに送出する。なお、照明識別番号Lは、カメラ識別番号と同様に3ビットの照明識別信号L1、L2、L3によってスレーブカメラに送出される。
【0052】
ステップ504では、スレーブカメラからのOK_ACK信号が受信されたか否かが判定される。OK_ACK信号は、発光素子22から照射されたマーキング用のレーザ光によるスポットがスレーブカメラにおいて検出されたときに、スレーブカメラからマスターカメラへ送出される信号である。OK_ACK信号が受信されていないと判定されるとステップ505において、スレーブカメラからのNG_ACK信号が受信されたか否かが判定される。NG_ACK信号は、発光素子22から照射されたマーキング用のレーザ光によるスポットがスレーブカメラにおいて検出されないときに、スレーブカメラからマスターカメラへ送出される信号である。NG_ACK信号が受信されていないと判定されると再びステップ504に戻り、OK_ACK信号の受信がないか判定される。
【0053】
ステップ505においてNG_ACK信号が受信されたと判定されると、ステップ506において照明識別番号Lがその最大値であるLmax と等しいか否かが判定される。本実施形態のカメラの発光素子22の数は6個なので、Lmax =6である。L=Lmax ではないと判定されると、ステップ507において、照明識別番号Lに1が加算され処理は再びステップ502へ戻り次の発光素子22からのレーザ光の照射が行われる。
【0054】
一方、ステップ504において、OK_ACK信号が受信されたと判定されると、ステップ508において変数Mに1が加算される。ステップ509では、照明識別番号Lのレーザ光により被写体表面にできたスポットの画面における位置(画素の位置)の認識するためのスポット位置認識処理が行なわれる。その後ステップ510において照明識別番号Lと認識されたスポットの位置が画像メモリ34に一時的に記憶される。
【0055】
ステップ511では、変数Mが3であるか否かが判定される。M≠3と判定されたときには、ステップ506においてL=Lmax が判定される。一方ステップ511においてM=3であると判定されると、ステップ512においてリンク撮影が成功したことを表すフラッグが立てられ、このマスターカメラでのリンク撮影動作のサブルーチンは終了する。また、ステップ506においてL=Lmax であると判定されると、ステップ513においてリンク撮影が成功したことを表すフラッグがリセットされるとともに、MODE信号がローレベルに設定され、このマスターカメラでのリンク撮影動作のサブルーチンは終了する。
【0056】
一方、スレーブカメラでのリンク撮影動作のサブルーチンは、図11のフローチャートで示される。
【0057】
ステップ600では、検出されたスポットの数を表す変数Mの値が0に初期設定される。ステップ601では、マスターカメラからのカメラ識別信号(カメラ識別番号)が受信されたか否かが判定され、カメラ識別信号が受信されたと判定されると、ステップ602において照明識別信号(照明識別番号L)が受信されたか否かが判定される。照明識別信号が受信されると、ステップ603において、マスターカメラの照明識別番号Lから照射されたレーザ光によるスポットのCCD28の画面における位置を認識するスポット位置認識処理が行なわれる。ステップ603では、スポット位置が認識された場合には、スポット位置が認識されたことを表すフラッグが立てられ、それ以外のときには、同フラッグがリセットされる。
【0058】
ステップ604では、ステップ603のスポット位置認識処理で、照明識別番号Lの発光素子22によるスポットの位置が認識できたか否かが、スポット位置が認識されたことを表すフラッグによって判定される。スポットの位置が認識されなかったと判定されると、ステップ605においてNG_ACK信号がマスターカメラへ送信される。その後ステップ606において受信された照明識別番号LがLmax に等しいか否かが判定され、等しくないと判定されるとステップ601に再び処理が戻る。
【0059】
一方、ステップ604で照明識別番号Lによるスポットの位置が認識されたと判定されると、ステップ608で変数Mに1が加算された後、ステップ609においてOK_ACK信号がマスターカメラに送信される。その後ステップ610において照明識別番号と認識されたスポットの位置が画像メモリ34に記憶され、ステップ611で、変数Mが3であるか否かが判定される。M=3であると判定されるとステップ612においてリンク撮影が成功したことを表すのフラッグが立てられ、このスレーブカメラにおけるリンク撮影動作のサブルーチンは終了する。またステップ611においてM≠3であると判定されると、ステップ606へ処理が移る。ステップ606においてL=Lmax であると判定されるとステップ607においてスレーブカメラにおけるリンク撮影が成功したことを表すフラッグがリセットされ、このスレーブカメラにおけるリンク撮影動作のサブルーチンは終了する。
【0060】
次に図12を参照してステップ509、ステップ603のスポット位置認識処理について説明する。図12はスポット位置認識処理のサブルーチンのフローチャートである。
【0061】
ステップ700では、画素値の2値化処理が行われる。すなわち、CCD28において左からi番目、上からj番目の画素を(i,j)で表すとき、画素(i,j)において画素値ρ(i,j)が閾値Γ以上であれば1、閾値Γよりも小さければ0を対応させる。関数B(ρ(i,j))は、この様な2値化関数を表している。このとき、B(ρ(i,j))=1となる画素は、スポットを構成する画素の1つに対応している。
【0062】
ステップ701では、B(i,j)、B(i,j)×i、B(i,j)×jの総和SMB 、SMi 、SMj がそれぞれ求められる。ステップ702では、SMB =0であるか否かが判定される。SMB ≠0と判定されたときにはステップ703に処理が移り、B(ρ(i,j))=1となる画素により構成されたスポットの図心(i0 ,j0 )がスポット位置として求められる。なお、図心(i0 ,j0 )は、数値を四捨五入する関数をIntとすると、
i0 =Int(SMi /SMB )
j0 =Int(SMj /SMB )
によって算出される。
【0063】
ステップ704では、スポット位置が認識されたことを表すフラッグが立てられてこのサブルーチンは終了する。一方、ステップ702においてSMB が0であると判定されると、ステップ705において、スポット位置の認識されたことを表すフラッグがリセットされ、このサブルーチンは終了する。
【0064】
図13は、カメラ10aをマスターカメラ、カメラ10bをスレーブカメラとしてリンク撮影が行われたときの各信号のシーケンスを例示したものである。
【0065】
T1では、カメラ識別番号1と照明識別番号1に対応するカメラ識別信号と照明識別信号とがカメラ10aからカメラ10bへと略同時に出力されている。すなわち、カメラ識別信号C1及び照明識別信号L1のみがパルス信号として出力されている。T1’では、カメラ10bからカメラ10aにOK_ACK信号がパルス信号として出力され、照明識別番号1によるスポットが検出さたことをマスターカメラであるカメラ10aに知らせている。
【0066】
T2では、再びカメラ識別番号1が出力され、略同時に照明識別番号2に対応する照明識別信号が出力されている。すなわち、カメラ識別信号C1及び照明識別信号L2のみがパルス信号として出力されている。T2’では、カメラ10bからカメラ10aにNG_ACK信号がパルス信号として出力され、照明識別番号2によるスポットが検出されなかったことをマスターカメラであるカメラ10aに知らせている。以下同様に、T3、T4、T5、T6では照明識別番号3、4、5、6に対応する3ビットで表された照明識別信号がマスターカメラからスレーブカメラへ送られ、T3’、T4’、T5’、T6’ではそれぞれOK_ACK信号、NG_ACK信号、NG_ACK信号、OK_ACK信号がスレーブカメラからマスターカメラへと送られている。したがって、このリンク撮影動作では、スレーブカメラであるカメラ10bにおいて3個のスポットが認識(検知)されたので、リンク撮影が成功したことを表すフラッグが立てられる。
【0067】
以上の方法により、各カメラにおいてそれぞれ3個のスポットが認識されると、各カメラにおいて検出された被写体の距離データから単一の座標系で表された被写体の座標データを得ることができ、例えばカメラ10aの液晶表示パネル16などに全てのリンク撮影が成功した旨が表示される。
【0068】
次に図4、図5のステップ106、ステップ206において実行される距離情報検出動作について説明する。
【0069】
まず、図14および図15を参照して、本実施形態における距離測定の原理について説明する。なお図15において横軸は時間tである。
【0070】
距離測定装置Bから出力された測距光は被写体Sにおいて反射し、図示しないCCDによって受光される。測距光は所定のパルス幅Hを有するパルス状の光であり、したがって被写体Sからの反射光も、同じパルス幅Hを有するパルス状の光である。また反射光のパルスの立ち上がりは、測距光のパルスの立ち上がりよりも時間δ・t(δは遅延係数)だけ遅れる。測距光と反射光は距離測定装置Bと被写体Sの間の2倍の距離rを進んだことになるから、その距離rは
r=δ・t・C/2 ・・・(1)
により得られる。ただしCは光速である。
【0071】
例えば測距光のパルスの立ち上がりから反射光を検知可能な状態に定め、反射光のパルスが立ち下がる前に検知不可能な状態に切換えるようにすると、すなわち反射光検知期間Tを設けると、この反射光検知期間Tにおける受光量Aは距離rの関数である。すなわち受光量Aは、距離rが大きくなるほど(時間δ・tが大きくなるほど)小さくなる。
【0072】
本実施形態では上述した原理を利用して、CCD28に設けられ、2次元的に配列された複数のフォトダイオードにおいてそれぞれ受光量Aを検出することにより、カメラ本体10から被写体Sの表面の各点までの距離をそれぞれ検出し、被写体Sの表面形状に関する3次元画像のデータを一括して入力している。
【0073】
図16は、CCD28に設けられるフォトダイオード51と垂直転送部52の配置を示す図である。図17は、CCD28を基板53に垂直な平面で切断して示す断面図である。このCCD28は従来公知のインターライン型CCDであり、不要電荷の掃出しにVOD(縦型オーバーフロードレイン)方式を用いたものである。
【0074】
フォトダイオード51と垂直転送部52はn型基板53の面に沿って形成されている。フォトダイオード51は2次元的に格子状に配列され、垂直転送部52は所定の方向(図16において上下方向)に1列に並ぶフォトダイオード51に隣接して設けられている。垂直転送部52は、1つのフォトダイオード51に対して4つの垂直転送電極52a,52b,52c,52dを有している。したがって垂直転送部52では、4つのポテンシャルの井戸が形成可能であり、従来公知のように、これらの井戸の深さを制御することによって、信号電荷をCCD28から出力することができる。なお、垂直転送電極の数は目的に応じて自由に変更できる。
【0075】
基板53の表面に形成されたp型井戸の中にフォトダイオード51が形成され、p型井戸とn型基板53の間に印加される逆バイアス電圧によってp型井戸が完全空乏化される。この状態において、入射光(被写体からの反射光)の光量に応じた電荷がフォトダイオード51において蓄積される。基板電圧Vsub を所定値以上に大きくすると、フォトダイオード51に蓄積した電荷は、基板53側に掃出される。これに対し、転送ゲート部54に電荷転送信号(電圧信号)が印加されたとき、フォトダイオード51に蓄積した電荷は垂直転送部52に転送される。すなわち電荷掃出信号によって電荷を基板53側に掃出した後、フォトダイオード51に蓄積した信号電荷が、電荷転送信号によって垂直転送部52側に転送される。このような動作を繰り返すことにより、垂直転送部52において信号電荷が積分され、いわゆる電子シャッタ動作が実現される。
【0076】
図18は距離情報検出動作におけるタイミングチャートであり、図1、図2、図16〜図18を参照して本実施形態における距離情報検出動作について説明する。なお本実施形態の距離情報検出動作では、図15を参照して行なった距離測定の原理の説明とは異なり、外光の影響による雑音を低減するために測距光のパルスの立ち下がりから反射光を検知可能な状態に定め、反射光のパルスが立ち下がった後に検知不可能な状態に切換えるようにタイミングチャートを構成しているが原理的には何ら異なるものではない。
【0077】
垂直同期信号(図示せず)の出力に同期して電荷掃出し信号(パルス信号)S1が出力され、これによりフォトダイオード51に蓄積していた不要電荷が基板53の方向に掃出され、フォトダイオード51における蓄積電荷量はゼロになる(符号S2)。電荷掃出し信号S1の出力の開始の後、一定のパルス幅を有するパルス状の測距光S3が出力される。測距光S3が出力される期間(パルス幅)は調整可能であり、図示例では、電荷掃出し信号S1の出力と同時に測距光S3がオフするように調整されている。
【0078】
測距光S3は被写体において反射し、CCD28に入射する。すなわちCCD28によって被写体からの反射光S4が受光されるが、電荷掃出し信号S1が出力されている間は、フォトダイオード51において電荷は蓄積されない(符号S2)。電荷掃出し信号S1の出力が停止されると、フォトダイオード51では、反射光S4の受光によって電荷蓄積が開始され、反射光S4と外光とに起因する信号電荷S5が発生する。反射光S4が消滅すると(符号S6)フォトダイオード51では、反射光に基く電荷蓄積は終了するが(符号S7)、外光のみに起因する電荷蓄積が継続する(符号S8)。
【0079】
その後、電荷転送信号S9が出力されると、フォトダイオード51に蓄積された電荷が垂直転送部52に転送される。この電荷転送は、電荷転送信号の出力の終了(符号S10)によって完了する。すなわち、外光が存在するためにフォトダイオード51では電荷蓄積が継続するが、電荷転送信号の出力が終了するまでフォトダイオード51に蓄積されていた信号電荷S11が垂直転送部52へ転送される。電荷転送信号の出力終了後に蓄積している電荷S14は、そのままフォトダイオード51に残留する。
【0080】
このように電荷掃出し信号S1の出力の終了から電荷転送信号S9の出力が終了するまでの期間TU1の間、フォトダイオード51には、被写体までの距離に対応した信号電荷が蓄積される。そして、反射光S4の受光終了(符号S6)までフォトダイオード51に蓄積している電荷が、被写体の距離情報と対応した信号電荷S12(斜線部)として垂直転送部52へ転送され、その他の信号電荷S13は外光のみに起因するものである。
【0081】
電荷転送信号S9の出力から一定時間が経過した後、再び電荷掃出し信号S1が出力され、垂直転送部52への信号電荷の転送後にフォトダイオード51に蓄積された不要電荷が基板53の方向へ掃出される。すなわち、フォトダイオード51において新たに信号電荷の蓄積が開始する。そして、上述したのと同様に、電荷蓄積期間TU1が経過したとき、信号電荷は垂直転送部52へ転送される。
【0082】
このような信号電荷S11の垂直転送部52への転送動作は、次の垂直同期信号が出力されるまで、繰り返し実行される。これにより垂直転送部52において、信号電荷S11が積分され、1フィールドの期間(2つの垂直同期信号によって挟まれる期間)に積分された信号電荷S11は、その期間被写体が静止していると見做せれば、被写体までの距離情報に対応している。なお信号電荷S13は信号電荷S12に比べ微小であるため信号電荷S11は信号電荷S12と等しいと見なすことができる。
【0083】
以上説明した信号電荷S11の検出動作は1つのフォトダイオード51に関するものであり、全てのフォトダイオード51においてこのような検出動作が行なわれる。1フィールドの期間における検出動作の結果、各フォトダイオード51に隣接した垂直転送部52の各部位には、そのフォトダイオード51によって検出された距離情報が保持される。この距離情報は垂直転送部52における垂直転送動作および図示しない水平転送部における水平転送動作によってCCD28から出力される。
【0084】
図19は、図4のステップ106および図5のステップ206において実行される距離情報検出動作のフローチャートである。図19を参照して距離情報検出動作について説明する。なお、距離情報検出動作は、モード切替ダイヤル17の設定をDモードに設定することにより、独立して駆動することもできる。このときカメラでは他のカメラと連動することなく、独立して距離情報検出動作が実行される。
【0085】
ステップ801では、垂直同期信号が出力されるとともに測距光制御が開始される。すなわち発光装置14が駆動され、パルス状の測距光S3が断続的に出力される。次いでステップ802が実行され、CCD28による検知制御が開始される。すなわち図18を参照して説明した距離情報検出動作が開始され、電荷掃出信号S1と電荷転送信号S9が交互に出力されて、距離情報の信号電荷S11が垂直転送部52において積分される。
【0086】
ステップ803では、距離情報検出動作の開始から1フィールド期間が終了したか否か、すなわち新たに垂直同期信号が出力されたか否かが判定される。1フィールド期間が終了するとステップ804へ進み、垂直転送部52において積分された距離情報の信号電荷がCCD28から出力される。この信号電荷はステップ805において画像メモリ34に一時的に記憶される。
【0087】
ステップ806では測距光制御がオフ状態に切換えられ、発光装置14の発光動作が停止する。ステップ807では、距離データの演算処理が行なわれ、ステップ808において距離データが画像メモリ34に一時的に記憶され、このサブルーチンは終了する。
【0088】
次にステップ807において実行される演算処理の内容を図18を参照して説明する。
【0089】
反射率Rの被写体が照明され、この被写体が輝度Iの2次光源と見做されてCCDに結像された場合を想定する。このとき、電荷蓄積時間tの間にフォトダイオードに発生した電荷が積分されて得られる出力Snは、
Sn=k・R・I・t ・・・(2)
で表される。ここでkは比例定数で、撮影レンズのFナンバーや倍率等によって変化する。
【0090】
図18に示されるように電荷蓄積時間をTU1、測距光S3のパルス幅をTS 、距離情報の信号電荷S12のパルス幅をTD とし、1フィールド期間中のその電荷蓄積時間がN回繰り返されるとすると、得られる出力SM10は、
となる。なお、パルス幅TD は
と表せる。このとき被写体までの距離rは
r=C・SM10/(2・k・N・R・I) ・・・(5)
で表せる。したがって比例定数k、反射率R、輝度Iを予め求めておけば距離rが求められる。
【0091】
次に図20を参照して図4、図5のステップ107、ステップ207において実行される画像情報検出動作について説明する。なお、画像情報検出動作も距離情報検出動作と同様に、モード切替ダイアル17をVモードに設定することにより、独立して駆動することができる。すなわち、モード切替ダイアル17がVモードに設定されているカメラにおいては、他のカメラと連動することなく独立して距離情報検出動作が実行される。
【0092】
ステップ901では、CCD28による通常の撮影動作(CCDビデオ制御)がオン状態に定められ、距離情報検出動作において撮像された被写体と同一の被写体の画像が撮像され画像データとして検出される。検出された画像データは、ステップ902において画像メモリ34に一時的に記憶され、このサブルーチンは終了する。
【0093】
以上の3次元画像検出システムの撮影動作により、カメラ10a〜カメラ10fにおいて取得されデータは、コンピュータ41に転送され合成される。カメラからコンピュータへのデータの転送は、各カメラの記録媒体Mをコンピュータ41に設けられたデータ読取装置46(図2参照)に装着してコンピュータに読み込むか、インターフェースコネクタ21cに接続されたインターフェースケーブルを介してコンピュータ41へ転送される。
【0094】
次に図21〜図26を参照して、リンク撮影動作により検出された3個のスポットを用いて各カメラにより検出された被写体までの距離データから、被写体の全体的な3次元形状を表す座標データを得る方法について説明する。
【0095】
まず、各カメラにおいて検出される被写体までの距離データから、各カメラを基準とした座標系における被写体の座標値を算出する方法について説明する。
【0096】
図21は、カメラの撮影光学系における焦点Pf を座標原点に取ったカメラ座標系xyzと、CCD28上の任意の点P(画素)と、それに対応する被写体表面上の点Qとの関係を模式的に示している。y軸は光軸Lpに一致しており、z軸はCCD28の垂直軸に並行に取られ、その向きは上向きである。またx軸はCCD28の水平軸に並行にとられている。点Pc はCCD28の受光面と光軸Lpの交点であり、受光面の中心に一致する。点QはCCD28上の点Pの画素に対応する被写体上の点であり、その座標は(xQ ,yQ ,zQ )である。平面Πは点Qを含むCCD28に平行な平面である。点QC は光軸Lp(y軸)と平面Πの交点であり、その座標は(0,yQ ,0)である。
【0097】
図22は、CCD28の受光面を正面から見た図である。CCD28の水平、垂直方向の長さはそれぞれ2×H0 、2×V0 である。点PはCCD28の中心PC から左へHP 、上へVP の距離にある。点PH は、点PからCCD28の水平軸LH へ下ろした垂線の足である。また点PV は、点PからCCD28の垂直軸LV へ下ろした垂線の足である。
【0098】
図23は、焦点Pf とCCD28との関係を焦点Pf とCCD28の水平軸LH を含む平面上で表したものであり、角Θ0 は水平画角、fは焦点距離である。線分Pf PH が光軸Lpとなす角をΘP とすると、角ΘP は、
ΘP =tan-1(Hp /f) ・・・(6)
によって求められる。
【0099】
図24は、焦点Pf とCCD28との関係を焦点Pf とCCD28の垂直軸LV を含む平面上で表したものであり、角θ0 は垂直画角である。線分Pf PV が光軸Lpとなす角をθP とすると、角θP は、
θP =tan-1(Vp /f) ・・・(7)
によって求められる。
【0100】
焦点Pf と点Pを結ぶ線分Pf Pの長さは、線分Pf PH と線分PC PV の長さから、
Pf P=(Pf PH 2 +PC PV 2 )1/2 ・・・(8)
によって求められる。ここで、(8)式のPf PH 、PC PV は、
PC PV =VP 、
Pf PH =f/cosΘP
なので、
Pf P=((f/cosΘP )2 +VP 2 )1/2 ・・・(9)
と表すことができる。
【0101】
線分Pf Qの長さと、線分Pf Pの長さの比Pf P/Pf Qをμとすると、点Qの座標成分xQ 、yQ 、zQ は、
xQ =HP /μ ・・・(10)
yQ =VP /μ ・・・(11)
zQ =f/μ ・・・(12)
で算出される。焦点距離fおよびCCD28の任意の画素に対応する点Pまでの距離HP 、VP は既知である。また、線分Pf Qの長さは、焦点Pf から点Pに対応する被写体の点Qまでの距離であり、焦点距離fは既知なので、ステップ807の演算処理の結果を用いて算出可能である。点Pは、CCD28の1つの画素を代表したものであり、上述の計算はCCD28の全ての画素に対して可能であり、全ての画素(点P)に対応する被写体(点Q)の座標(xQ ,yQ ,zQ )が算出される。
【0102】
次に、参照点である3個のスポットに基づいて、あるカメラ(スレーブカメラ)を基準とした座標系x’y’z’をリンク撮影において対を成したカメラ(マスターカメラ)を基準とした座標系xyzへ変換する方法について説明する。
【0103】
図25、図26は人頭模型の正面に据えたカメラと、模型の左斜め前に据えたカメラで撮影した画像を表しており、図25は、マスターカメラにより撮影された画像、図26はスレーブカメラにより撮影された画像にそれぞれ対応している。
【0104】
図25における3個のスポットSp1 、Sp2 、Sp3 は、図26における3個のスポットSp1 ’、Sp2 ’、Sp3 ’にそれぞれ対応し、同一スポットを2つの異なる方向から撮影したものである。座標系xyzにおける3個のスポットSp1 、Sp2 、Sp3 の座標(位置ベクトル)をそれぞれ(x1 ,y1 ,z1 )、(x2 ,y2 ,z2 )、(x3 ,y3 ,z3 )とし、座標系x’y’z’における3個のスポットSp1 ’、Sp2 ’、Sp3 ’の座標をそれぞれ(x1 ’,y1 ’,z1 ’)、(x2 ’,y2 ’,z2 ’)、(x3 ’,y3 ’,z3 ’)とする。これらの座標は図21〜図24を参照して説明した方法により算出することができる。
【0105】
座標系x’y’z’から座標系xyzへの座標変換は、並行移動分を(Δx,Δy,Δz)で表すと、直交変換(回転)Tr により
【数1】
のように行なえる。直交変換Tr の成分αijは、参照点である3個のスポットの座標値から以下のように求めることができる。
【0106】
Sp1 からSp2 、Sp2 からSp3 、Sp3 からSp1 への変位ベクトルをそれぞれ、
ΔSp1 =(x2 −x1 ,y2 −y1 ,z2 −z1 )
ΔSp2 =(x3 −x2 ,y3 −y2 ,z3 −z2 )
ΔSp3 =(x1 −x3 ,y1 −y3 ,z1 −z3 )
とし、Sp1 ’からSp2 ’、Sp2 ’からSp3 ’、Sp3 ’からSp1 ’への変位ベクトルをそれぞれ、
ΔSp1 ’=(x2 ’−x1 ’,y2 ’−y1 ’,z2 ’−z1 ’)
ΔSp2 ’=(x3 ’−x2 ’,y3 ’−y2 ’,z3 ’−z2 ’)
ΔSp3 ’=(x1 ’−x3 ’,y1 ’−y3 ’,z1 ’−z3 ’)
とすると、変位ベクトルは、座標系の並行移動に関して不変なので、
【数2】
となり、これにより直交変換Tr の成分αijを求めることができる。また、並行移動(Δx,Δy,Δz)は、求められた直交変換Tr と、例えばSp1 (Sp1 ’)の座標値から
【数3】
と求められる。
【0107】
以上により、あるスレーブカメラを基準とした座標系で求めらた被写体の座標データを、マスターカメラを基準とした座標系に変換することができる。各カメラは隣り合うカメラの一方に対してマスターカメラであり、他方に対してはスレーブカメラなので、各組において求められる座標変換を繰り返し実行することにより、任意のカメラを基準とした座標系で表された被写体の座標値を所定のカメラを基準とした座標系に変換することができる。したがって、被写体の全体的な3次元形状を単一の座標系によって表すことができる。
【0108】
なお、本実施形態では、3個のスポット(参照点)がマスターカメラ及びスレーブカメラ双方において認識されたか否かの判定は、リンク撮影動作中において行われた。しかし、予め6個の発光素子22を全て同時に発光させて3個以上の同一スポットが認識されるか否かを判定してもよく、そのためのモードを各カメラに設けてもよい。また、本実施形態では、スポットは撮影の目的である被写体表面上に投影されたが、目的とする被写体付近に存在し、撮影領域内にある目的としない被写体表面上に投影されていてもよい。
【0109】
本実施形態では、3個のスポットを座標変換のための参照点として認識したが、直線状にない4個以上のスポットを認識するようにしてもよく、このとき認識された4個以上のスポットを用いて、より高い精度で座標変換の式を算出してもよい。
【0110】
【発明の効果】
以上のように本発明によれば、被写体を複数の方向から撮影し、各撮影により得られる被写体の3次元形状を表す座標データを1つの座標系に合成するための3次元画像検出システム及び3次元画像検出装置を得ることができる。
【図面の簡単な説明】
【図1】本発明の一実施形態であるカメラ型の3次元画像検出装置の斜視図である。
【図2】図1に示すカメラの回路構成を示すブロック図である。
【図3】3次元画像検出システムの構成を模式的に表した図である。
【図4】マスターカメラにおいて実行される3次元画像検出システムの撮影動作のプログラムのフローチャートである。
【図5】スレーブカメラにおいて実行される3次元画像検出システムの撮影動作のプログラムのフローチャートである。
【図6】リンク撮影モードを最初に立ち上げたカメラにおいて実行されるカメラリンク処理のプログラムのフローチャートである。
【図7】図6のカメラ以外のカメラにおいて実行されるカメラリンク処理のプログラムのフローチャートである。
【図8】各カメラ間におけるMODE信号の立ち上げ及び立ち下げのシーケンスを示したものである。
【図9】カメラ識別信号の送信状態を例示したものである。
【図10】マスターカメラにおいて実行されるリンク撮影動作のプログラムのフローチャートである。
【図11】スレーブカメラにおいて実行されるリンク撮影動作のプログラムのフローチャートである。
【図12】スポット位置認識処理のプログラムのフローチャートである。
【図13】リンク撮影時において出力される各信号のシーケンスである。
【図14】測距光による距離測定の原理を説明するための図である。
【図15】測距光、反射光、ゲートパルス、およびCCDが受光する光量分布を示す図である。
【図16】CCDに設けられるフォトダイオードと垂直転送部の配置を示す図である。
【図17】CCDを基板に垂直な平面で切断して示す断面図である。
【図18】被写体までの距離に関するデータを検出する距離情報検出動作のタイミングチャートである。
【図19】距離情報検出動作のフローチャートである。
【図20】画像情報検出動作のフローチャートである。
【図21】焦点Pf を座標原点にとったカメラ座標系xyzと、CCD28上の任意の点Pと、それに対応する被写体表面上の点Qとの関係を模式的に表した図である。
【図22】CCD28の正面図である。
【図23】カメラの撮影光学系における焦点とCCD28との関係を示す水平断面図である。
【図24】カメラの撮影光学系における焦点とCCD28との関係を示す垂直断面図である。
【図25】人頭模型を正面から撮影したときの画像を表している。
【図26】人頭模型を左斜め前から撮影したときの画像を表している。
【符号の説明】
10 カメラ本体(3次元画像検出装置)
22 発光装置(スポット光発光装置)
22a 発光素子(スポット光発光素子)
28 CCD(撮像面)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional image detection system and a three-dimensional image detection apparatus that detect a three-dimensional shape or the like of a subject using a light propagation time measurement method.
[0002]
[Prior art]
Conventional distance measuring devices that detect the distance to the subject for each pixel include those described in “Measurement Science and Technology” (S. Christie et al., Vol. 6, p1301-1308, 1995), The one disclosed in / 01111 is known. In these distance measuring devices, pulse-modulated laser light is irradiated onto a subject, and the reflected light is received by a two-dimensional CCD sensor and converted into an electrical signal. At this time, by controlling the shutter operation of the two-dimensional CCD, an electrical signal correlated with the distance to the subject can be detected for each pixel of the CCD. The distance from the electrical signal to the subject corresponding to each pixel of the CCD is detected.
[0003]
[Problems to be solved by the invention]
When these three-dimensional image detection devices detect a three-dimensional shape of a subject, only a partial three-dimensional shape of the subject can be detected by photographing from one direction. In order to detect the overall three-dimensional shape of the subject, it is necessary to photograph the subject from a plurality of different directions. However, the coordinate data of the subject obtained by photographing from different directions is based on different coordinate systems, and in order to represent the subject integrally based on these coordinate data, the coordinate data of the subject represented by each coordinate system is used. It is necessary to convert the coordinate data into one coordinate system. Conventionally, in these conversions, a three-dimensional image of a subject obtained from each direction is displayed on a computer display, and the visual feature point of the subject is used as a clue to manually integrate the three-dimensional graphic software. This is done by combining subject images.
[0004]
The present invention obtains a three-dimensional image detection system and a three-dimensional image detection apparatus for photographing a subject from a plurality of directions and synthesizing coordinate data representing the three-dimensional shape of the subject obtained by each photographing into one coordinate system. The purpose is that.
[0005]
[Means for Solving the Problems]
A three-dimensional image detection system of the present invention is a three-dimensional image detection system provided with first and second three-dimensional image detection devices that detect distance information to a subject for each pixel. Provided in both the first and second three-dimensional image detection devices, and the spot light emitting device provided on at least one of the three-dimensional image detection devices, which projects three or more light spots arranged in a non-linear manner onto the subject. Spot position recognition that detects whether or not the projected light spot is imaged on the imaging surface, and if it is imaged, detects the position on the imaging surface where the light spot is imaged A correspondence relationship between the means and the light spots provided on at least one of the first and second three-dimensional image detection devices and imaged on the imaging surfaces of the first and second three-dimensional image detection devices, respectively. Correspondence recognition means The wherein at least three or more spots are characterized to be detected by the spot position recognition means in each imaging plane of the first and second three-dimensional image detector.
[0006]
The light emitted from the spot light emitting device is preferably a laser beam. Preferably, the spot light emitting device includes three or more spot light emitting elements, and the light spots are caused by light projected from different spot light emitting elements. More preferably, the spot light emitting elements are arranged at equal intervals in an annular shape around the edge of the lens barrel of the three-dimensional image detection apparatus.
[0007]
Preferably, the correspondence relationship recognition means recognizes the correspondence relationship between the light spots detected by the first and second three-dimensional image detection devices by causing each spot light emitting element to emit light one by one.
[0008]
The first and second three-dimensional image detection devices preferably include communication means for performing communication between the first and second three-dimensional image detection devices, and the first or second three-dimensional image detection device includes the spot light emitting device. 2 emits each spot light emitting element one by one and transmits a light emitting element identification code for identifying each spot light emitting element to the other three-dimensional image detecting apparatus by communication means. The correspondence relationship identifying means recognizes the correspondence relationship between the light spots detected in each three-dimensional image detection device by the light emitting element identification code.
[0009]
For example, in a spot position recognition unit of a three-dimensional image apparatus that does not include a spot light emitting device, a signal for notifying that a projected light spot is not detected is detected when a light spot is detected. By transmitting a signal for notifying that the light has been detected to a three-dimensional image detecting device including a spot light emitting device, three or more light spots are detected in the three-dimensional image detecting device not including the spot light emitting device. It can be determined in the first three-dimensional image detection apparatus whether or not it has been done.
[0010]
Preferably, in a three-dimensional image detection system including N three-dimensional image detection devices, at least one pair of three-dimensional image detection devices exists in all three-dimensional image detection devices, and a pair of three-dimensional image detection devices. One of the detection devices functions as a first three-dimensional image detection device, and the other functions as a second three-dimensional image detection device. More preferably, in a one-time driving of a three-dimensional image detection system provided with N three-dimensional image detection devices, all the three-dimensional image detection devices function as the first and second three-dimensional image devices only once. To do. At this time, preferably, a device identification code for identifying each of the N three-dimensional image detection devices is generated in each of the three-dimensional image detection devices.
[0011]
The three-dimensional image detection system preferably has a first information based on the first and second three-dimensional image detection devices based on distance information to the subject detected by each of the first and second three-dimensional image detection devices. Coordinate data calculating means for calculating first coordinate data and second coordinate data representing the three-dimensional shape of the subject in each of the second coordinate system and the second coordinate system. More preferably, the three-dimensional image detection system performs coordinate conversion between the first coordinate system and the second coordinate system based on the three light spots detected by the spot position recognition unit. Coordinate conversion means for performing is provided.
[0012]
A three-dimensional image detection apparatus of the present invention is a three-dimensional image detection apparatus that is used in the above-described three-dimensional image detection system and detects distance information to a subject for each pixel, and a spot of light projected on the subject is detected. At least one of spot position recognition means for detecting a position on the imaging surface to be imaged or a spot light emitting device for projecting three or more light spots arranged in a non-linear manner onto a subject is provided.
[0013]
The three-dimensional image detection device is preferably one of the first and second three-dimensional image detection devices provided with spot position recognition means, the first and second three-dimensional image detection devices. Correspondence recognition means for recognizing the correspondence between the light spots detected on the imaging surface. More preferably, a spot light emitting device is provided at this time.
[0014]
The three-dimensional image detection apparatus preferably includes data input means for inputting data used in the correspondence recognition means.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a perspective view of a camera-type three-dimensional image detection apparatus according to an embodiment of the present invention, and is used in a three-dimensional image detection system.
[0016]
On the front surface of the
[0017]
FIG. 2 is a block diagram showing a circuit configuration of the camera shown in FIG.
A
[0018]
An imaging device (CCD) 28 is disposed on the optical axis of the photographing
[0019]
The image signal is read from the
[0020]
The image signal read from the
[0021]
The
[0022]
A
[0023]
Next, an outline of a three-dimensional image detection system according to an embodiment of the present invention will be described with reference to FIGS.
[0024]
FIG. 3 schematically shows a method for photographing the subject S.
The six
[0025]
In each camera, distance data to the subject S is detected, and coordinate data representing a three-dimensional shape of the subject S calculated based on the distance data is based on a coordinate system based on each camera. Therefore, in order to obtain the overall coordinate data of the subject S based on a single coordinate system by synthesizing the coordinate data of the subject S based on the coordinate system based on each camera, the coordinate system based on a certain camera is different from other coordinate systems. It must be possible to convert to a coordinate system based on the camera. In the link shooting mode, link shooting for detecting a reference point to be referred to when obtaining a coordinate transformation matrix for performing this coordinate transformation is performed, and thereafter distance information to the subject and image information are detected.
[0026]
Link shooting is performed as a set of two cameras that are directly connected to each other via an
[0027]
FIG. 4 is a flowchart of a program executed in the
[0028]
First, when the operator presses the link shooting
[0029]
In
[0030]
In step 103 (
[0031]
On the other hand, if it is determined that the link shooting is successful, the
[0032]
In the
[0033]
When it is determined that the link shooting is successful, the
[0034]
When link shooting (step 201) as a slave camera of the
[0035]
If it is determined that the link shooting is successful, the
[0036]
Thereafter, in the
[0037]
The shooting end signal is a signal indicating that shooting in the distance information detection operation or the image information detection operation executed in the camera is ended. When the
[0038]
Similarly, the distance information detection operation and the image information detection operation are performed in each camera, and a shooting end signal is output to the next camera. Various data acquired in each camera is recorded in the recording medium M, and All the photographing operations of the three-dimensional image detection system in the camera are completed. That is, the shooting end signal is sequentially output as the
[0039]
Next, the camera link process executed in
[0040]
Table 1 shows a list of typical signals communicated between the cameras via the
[Table 1]
M represents a master camera, S represents a slave camera, and a symbol “→” represents a data transmission direction between the master camera and the slave camera. Signals used for the camera link process are a link shooting mode signal (MODE) that is a 1-bit signal and camera identification signals (C1, C2, and C3) that are 3-bit signals. The 3-bit illumination identification signals (L1, L2, L3), the 1-bit signal OK signal (OK_ACK), the NG signal (NG_ACK), and the shooting end signal (END) are used in the subsequent link shooting operation.
[0041]
FIG. 6 is a flowchart of the camera link process executed in
[0042]
First, in
[0043]
On the other hand, if it is determined in
[0044]
While the camera link process shown in FIG. 6 is performed in the
[0045]
FIG. 8 shows the sequence of the rise and fall of the MODE signal between the cameras. 8A shows a
[0046]
On the other hand, each camera constantly monitors the MODE signal on the receiving side by interrupt processing. When the MODE signal on the receiving side is set to a low level, the camera executes it after setting the MODE signal on its transmitting side to a low level. Forcibly terminate each shooting operation. For example, when the
[0047]
FIG. 9 shows an example of the camera identification signal output in
[0048]
The camera identification signals C1, C2, and C3 correspond to the three-digit binary numbers, C1 corresponds to the first digit, C2 corresponds to the second digit, and C3 corresponds to the third digit. Therefore, in FIG. 9A in which camera identification number 1 (01 in binary notation) is output, a pulse signal is output to the camera identification signal C1 substantially simultaneously with the MODE signal on the transmission side being set to a high level. . Similarly, in FIG. 9B in which the camera identification number 2 (10 in binary notation) is output, a pulse signal is output to the camera identification signal C2 almost simultaneously with the MODE signal being set to the high level. In FIG. 9C, which outputs camera identification number 3 (11 in binary notation), pulse signals are output to the camera identification signals C1 and C2 substantially simultaneously with the MODE signal being set to a high level. .
[0049]
Next, with reference to FIGS. 10 to 12, the link shooting with the master camera and the link shooting with the slave camera executed in
[0050]
FIG. 10 is a flowchart of the link shooting operation executed in the master camera. First, in
[0051]
In step 502, the camera identification number is output to the slave camera. In
[0052]
In
[0053]
If it is determined in
[0054]
On the other hand, if it is determined in
[0055]
In
[0056]
On the other hand, the subroutine of the link shooting operation in the slave camera is shown in the flowchart of FIG.
[0057]
In
[0058]
In
[0059]
On the other hand, if it is determined in
[0060]
Next, the spot position recognition process in
[0061]
In
[0062]
In
i0= Int (SMi/ SMB)
j0= Int (SMj/ SMB)
Is calculated by
[0063]
In
[0064]
FIG. 13 illustrates a sequence of signals when link shooting is performed using the
[0065]
At T1, the
[0066]
At T2, the
[0067]
When three spots are recognized in each camera by the above method, subject coordinate data represented in a single coordinate system can be obtained from the subject distance data detected in each camera, for example, The fact that all link photographing has been successful is displayed on the liquid
[0068]
Next, the distance information detection operation executed in
[0069]
First, the principle of distance measurement in this embodiment will be described with reference to FIGS. In FIG. 15, the horizontal axis is time t.
[0070]
The distance measuring light output from the distance measuring device B is reflected by the subject S and received by a CCD (not shown). The distance measuring light is pulsed light having a predetermined pulse width H. Therefore, the reflected light from the subject S is also pulsed light having the same pulse width H. The rising edge of the reflected light pulse is delayed by a time δ · t (where δ is a delay coefficient) from the rising edge of the ranging light pulse. Since the distance measuring light and the reflected light have traveled a distance r twice that between the distance measuring device B and the subject S, the distance r is
r = δ · t · C / 2 (1)
Is obtained. However, C is the speed of light.
[0071]
For example, when the reflected light is detected from the rising edge of the ranging light pulse and switched to the undetectable state before the reflected light pulse falls, that is, when the reflected light detection period T is provided, The received light amount A in the reflected light detection period T is a function of the distance r. That is, the received light amount A decreases as the distance r increases (the time δ · t increases).
[0072]
In the present embodiment, by utilizing the above-described principle, each point on the surface of the subject S is detected from the
[0073]
FIG. 16 is a diagram showing the arrangement of the
[0074]
The
[0075]
A
[0076]
FIG. 18 is a timing chart in the distance information detection operation, and the distance information detection operation in this embodiment will be described with reference to FIGS. 1, 2, and 16 to 18. In the distance information detection operation of the present embodiment, unlike the description of the principle of distance measurement performed with reference to FIG. 15, the distance information is reflected from the falling edge of the distance measuring light pulse in order to reduce noise due to the influence of external light. Although the timing chart is configured so that the light can be detected and switched to an undetectable state after the reflected light pulse falls, there is no difference in principle.
[0077]
A charge sweep signal (pulse signal) S1 is output in synchronization with the output of a vertical synchronization signal (not shown), whereby unnecessary charges stored in the
[0078]
The distance measuring light S <b> 3 is reflected by the subject and enters the
[0079]
Thereafter, when the charge transfer signal S9 is output, the charges accumulated in the
[0080]
Thus, the period T from the end of the output of the charge sweep signal S1 to the end of the output of the charge transfer signal S9.U1In the meantime, the signal charge corresponding to the distance to the subject is accumulated in the
[0081]
After a predetermined time has elapsed from the output of the charge transfer signal S9, the charge sweep signal S1 is output again, and unnecessary charges accumulated in the
[0082]
The transfer operation of the signal charge S11 to the
[0083]
The detection operation of the signal charge S11 described above relates to one
[0084]
FIG. 19 is a flowchart of the distance information detection operation executed in
[0085]
In
[0086]
In
[0087]
In
[0088]
Next, the contents of the arithmetic processing executed in
[0089]
Assume that a subject having a reflectance R is illuminated and this subject is regarded as a secondary light source having luminance I and is imaged on a CCD. At this time, the output Sn obtained by integrating the charge generated in the photodiode during the charge accumulation time t is:
Sn = k · R · I · t (2)
It is represented by Here, k is a proportional constant, which varies depending on the F number of the photographing lens, the magnification, and the like.
[0090]
As shown in FIG.U1, The pulse width of the distance measuring light S3 is TS, The pulse width of the signal charge S12 of the distance information is TDIf the charge accumulation time during one field period is repeated N times, the output SM obtainedTenIs
It becomes. Pulse width TDIs
It can be expressed. At this time, the distance r to the subject is
r = C · SMTen/ (2 ・ k ・ N ・ R ・ I) (5)
It can be expressed as Therefore, if the proportionality constant k, the reflectance R, and the luminance I are obtained in advance, the distance r can be obtained.
[0091]
Next, the image information detection operation executed in
[0092]
In
[0093]
Through the above-described photographing operation of the three-dimensional image detection system, the data acquired in the
[0094]
Next, referring to FIGS. 21 to 26, coordinates representing the overall three-dimensional shape of the subject from the distance data to the subject detected by each camera using the three spots detected by the link photographing operation. A method for obtaining data will be described.
[0095]
First, a method for calculating the coordinate value of a subject in a coordinate system based on each camera from distance data to the subject detected by each camera will be described.
[0096]
FIG. 21 shows the focal point P in the photographing optical system of the camera.fThe relationship between the camera coordinate system xyz with the coordinate origin, the arbitrary point P (pixel) on the
[0097]
FIG. 22 is a front view of the light receiving surface of the
[0098]
FIG. 23 shows the focal point P.fAnd focus on the relationship between
ΘP= Tan-1(Hp/ F) (6)
Sought by.
[0099]
FIG. 24 shows the focal point P.fAnd focus on the relationship between
θP= Tan-1(Vp/ F) (7)
Sought by.
[0100]
Focus PfLine segment P connecting point and point PfThe length of P is the line segment PfPHAnd line segment PCPVFrom the length of
PfP = (PfPH 2+ PCPV 2)1/2 ... (8)
Sought by. Here, P in equation (8)fPH, PCPVIs
PCPV= VP,
PfPH= F / cos ΘP
So,
PfP = ((f / cos ΘP)2+ VP 2)1/2 ... (9)
It can be expressed as.
[0101]
Line segment PfQ length and line segment PfP length ratio PfP / PfWhen Q is μ, the coordinate component x of the point QQ, YQ, ZQIs
xQ= HP/ Μ (10)
yQ= VP/ Μ (11)
zQ= F / μ (12)
Is calculated by Focal length f and distance H to point P corresponding to any pixel of
[0102]
Next, based on the three spots as reference points, a coordinate system x'y'z 'based on a certain camera (slave camera) is used as a reference for a camera (master camera) paired in link shooting. A method of converting to the coordinate system xyz will be described.
[0103]
25 and 26 show images taken by a camera placed in front of the human head model and a camera placed diagonally to the left of the model. FIG. 25 shows an image taken by the master camera, and FIG. Each corresponds to an image taken by a slave camera.
[0104]
Three spots Sp in FIG.1, Sp2, SpThreeIs the three spots Sp in FIG.1', Sp2', SpThreeThe same spot is taken from two different directions corresponding to '. 3 spots Sp in the coordinate system xyz1, Sp2, SpThreeCoordinates (position vector) of (x1, Y1, Z1), (X2, Y2, Z2), (XThree, YThree, ZThree) And three spots Sp in the coordinate system x'y'z '1', Sp2', SpThreeThe coordinates of ‘1', Y1', Z1’), (X2', Y2', Z2’), (XThree', YThree', ZThree′). These coordinates can be calculated by the method described with reference to FIGS.
[0105]
The coordinate transformation from the coordinate system x'y'z 'to the coordinate system xyz is orthogonal transformation (rotation) T when the parallel movement is represented by (Δx, Δy, Δz).rBy
[Expression 1]
It can be done like this. Orthogonal transformation TrComponent αijCan be obtained from the coordinate values of three spots as reference points as follows.
[0106]
Sp1To Sp2, Sp2To SpThree, SpThreeTo Sp1The displacement vector to
ΔSp1= (X2-X1, Y2-Y1, Z2-Z1)
ΔSp2= (XThree-X2, YThree-Y2, ZThree-Z2)
ΔSpThree= (X1-XThree, Y1-YThree, Z1-ZThree)
And Sp1'To Sp2', Sp2'To SpThree', SpThree'To Sp1The displacement vector to ‘
ΔSp1′ = (X2'-X1', Y2'-Y1', Z2'-Z1’)
ΔSp2′ = (XThree'-X2', YThree'-Y2', ZThree'-Z2’)
ΔSpThree′ = (X1'-XThree', Y1'-YThree', Z1'-ZThree’)
Then the displacement vector is invariant with respect to the parallel movement of the coordinate system,
[Expression 2]
Thus, the orthogonal transformation TrComponent αijCan be requested. Further, the parallel movement (Δx, Δy, Δz) is calculated by the obtained orthogonal transformation TrAnd, for example, Sp1(Sp1‘) From the coordinate value
[Equation 3]
Is required.
[0107]
As described above, the coordinate data of the subject obtained in the coordinate system based on a certain slave camera can be converted into the coordinate system based on the master camera. Since each camera is a master camera for one of the adjacent cameras and a slave camera for the other, it is represented in a coordinate system based on an arbitrary camera by repeatedly executing the coordinate transformation required for each group. The coordinate values of the subject can be converted into a coordinate system based on a predetermined camera. Therefore, the overall three-dimensional shape of the subject can be represented by a single coordinate system.
[0108]
In the present embodiment, the determination as to whether or not the three spots (reference points) are recognized by both the master camera and the slave camera is performed during the link shooting operation. However, it is possible to determine whether or not three or more identical spots are recognized by causing all six light emitting
[0109]
In this embodiment, three spots are recognized as reference points for coordinate conversion. However, four or more spots that are not linear may be recognized, and four or more spots recognized at this time may be recognized. May be used to calculate the coordinate transformation formula with higher accuracy.
[0110]
【The invention's effect】
As described above, according to the present invention, a three-dimensional image detection system for photographing a subject from a plurality of directions and synthesizing coordinate data representing the three-dimensional shape of the subject obtained by each photographing into one coordinate system and 3 A two-dimensional image detection apparatus can be obtained.
[Brief description of the drawings]
FIG. 1 is a perspective view of a camera-type three-dimensional image detection apparatus according to an embodiment of the present invention.
2 is a block diagram showing a circuit configuration of the camera shown in FIG. 1. FIG.
FIG. 3 is a diagram schematically illustrating a configuration of a three-dimensional image detection system.
FIG. 4 is a flowchart of a program for photographing operation of the three-dimensional image detection system executed in the master camera.
FIG. 5 is a flowchart of a shooting operation program of a 3D image detection system executed in a slave camera.
FIG. 6 is a flowchart of a camera link processing program executed in the camera that first starts up the link shooting mode.
7 is a flowchart of a camera link processing program executed in a camera other than the camera of FIG. 6;
FIG. 8 shows the sequence of the rise and fall of the MODE signal between the cameras.
FIG. 9 illustrates a transmission state of a camera identification signal.
FIG. 10 is a flowchart of a link shooting operation program executed in the master camera.
FIG. 11 is a flowchart of a link shooting operation program executed in the slave camera.
FIG. 12 is a flowchart of a program for spot position recognition processing;
FIG. 13 is a sequence of signals output at the time of link shooting.
FIG. 14 is a diagram for explaining the principle of distance measurement using distance measuring light.
FIG. 15 is a diagram showing a light amount distribution received by ranging light, reflected light, gate pulse, and CCD.
FIG. 16 is a diagram illustrating an arrangement of photodiodes and vertical transfer units provided in a CCD.
FIG. 17 is a cross-sectional view showing a CCD cut along a plane perpendicular to the substrate.
FIG. 18 is a timing chart of a distance information detection operation for detecting data related to a distance to a subject.
FIG. 19 is a flowchart of a distance information detection operation.
FIG. 20 is a flowchart of an image information detection operation.
FIG. 21: Focus PfIs a diagram schematically showing the relationship between a camera coordinate system xyz with the coordinate origin, an arbitrary point P on the
22 is a front view of the
23 is a horizontal sectional view showing the relationship between the focal point and the
24 is a vertical sectional view showing the relationship between the focal point and the
FIG. 25 shows an image when a human head model is photographed from the front.
FIG. 26 shows an image when a human head model is photographed from diagonally left front.
[Explanation of symbols]
10 Camera body (3D image detector)
22 Light emitting device (spot light emitting device)
22a Light emitting element (spot light emitting element)
28 CCD (imaging surface)
Claims (16)
前記第1及び第2の3次元画像検出装置の少なくとも一方に設けられ、非直線状に配列する3つ以上の光のスポットを前記被写体に投影するスポット光発光装置と、
前記第1及び第2の3次元画像検出装置の双方に設けられ、投影された前記光のスポットが結像する撮像面上の位置を検出するスポット位置認識手段と、
前記第1及び第2の3次元画像検出装置の少なくとも一方に設けられ、前記第1及び第2の3次元画像検出装置の撮像面にそれぞれ結像された光のスポットの間における対応関係を認識する対応関係認識手段とを備え、
前記第1及び第2の3次元画像検出装置の各撮像面において前記スポット位置認識手段により少なくとも3つ以上のスポットが検出される
ことを特徴とする3次元画像検出システム。A three-dimensional image detection system including first and second three-dimensional image detection devices that detect distance information to a subject for each pixel,
A spot light emitting device that is provided on at least one of the first and second three-dimensional image detection devices and projects three or more light spots arranged in a non-linear manner onto the subject;
Spot position recognition means provided in both the first and second three-dimensional image detection devices, for detecting a position on the imaging surface where the projected spot of the light forms an image;
Recognizing correspondence between light spots formed on at least one of the first and second three-dimensional image detection devices and imaged on the imaging surfaces of the first and second three-dimensional image detection devices, respectively. Corresponding relationship recognition means,
A three-dimensional image detection system, wherein at least three spots are detected by the spot position recognition means on each imaging surface of the first and second three-dimensional image detection devices.
前記第1及び第2の3次元画像検出装置間において通信を行なうための通信手段を備え、前記スポット光発光装置が備えられた前記第1又は第2の3次元画像検出装置が、前記各スポット光発光素子を1個づつ発光させるとともに前記各スポット光発光素子を識別するための発光素子識別コードを前記通信手段によりもう一方の3次元画像検出装置に送信し、前記対応関係識別手段が前記発光素子識別コードにより前記各3次元画像検出装置において検出される光のスポットの間における対応関係を認識する
ことを特徴とする請求項5に記載の3次元画像検出システム。The first and second three-dimensional image detection devices are
The first or second three-dimensional image detection device provided with communication means for performing communication between the first and second three-dimensional image detection devices, and provided with the spot light emitting device, each of the spots. The light emitting element is caused to emit light one by one and a light emitting element identification code for identifying each spot light emitting element is transmitted to the other three-dimensional image detection device by the communication means, and the correspondence relation identifying means is configured to emit the light emission. The three-dimensional image detection system according to claim 5, wherein a correspondence relationship between light spots detected by each of the three-dimensional image detection devices is recognized by an element identification code.
全ての3次元画像検出装置の各々は、少なくとも他の1つの3次元画像検出装置と対として用いられ、一対の3次元画像検出装置の一方が前記第1の3次元画像検出装置として機能し、他方が前記第2の3次元画像検出装置として機能する
ことを特徴とする請求項1に記載の3次元画像検出システム。In a 3D image detection system including N 3D image detection devices,
Each of all the three-dimensional image detection devices is used as a pair with at least one other three-dimensional image detection device, and one of the pair of three-dimensional image detection devices functions as the first three-dimensional image detection device, The other functions as the second three-dimensional image detection apparatus. The three-dimensional image detection system according to claim 1, wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29711799A JP4315545B2 (en) | 1999-10-19 | 1999-10-19 | 3D image detection system and 3D image detection apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29711799A JP4315545B2 (en) | 1999-10-19 | 1999-10-19 | 3D image detection system and 3D image detection apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001119722A JP2001119722A (en) | 2001-04-27 |
JP4315545B2 true JP4315545B2 (en) | 2009-08-19 |
Family
ID=17842441
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29711799A Expired - Fee Related JP4315545B2 (en) | 1999-10-19 | 1999-10-19 | 3D image detection system and 3D image detection apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4315545B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107747914A (en) * | 2017-10-11 | 2018-03-02 | 成都多极子科技有限公司 | 360 ° of contour outline measuring sets and method based on line-structured light |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4892792B2 (en) * | 2001-07-04 | 2012-03-07 | コニカミノルタホールディングス株式会社 | Measuring apparatus and measuring method |
US7912673B2 (en) * | 2005-03-11 | 2011-03-22 | Creaform Inc. | Auto-referenced system and apparatus for three-dimensional scanning |
US8082120B2 (en) | 2005-03-11 | 2011-12-20 | Creaform Inc. | Hand-held self-referenced apparatus for three-dimensional scanning |
JP2007208781A (en) * | 2006-02-03 | 2007-08-16 | Olympus Corp | Imaging apparatus |
US8284240B2 (en) | 2008-08-06 | 2012-10-09 | Creaform Inc. | System for adaptive three-dimensional scanning of surface characteristics |
US9709387B2 (en) | 2012-11-21 | 2017-07-18 | Mitsubishi Electric Corporation | Image generation device for acquiring distances of objects present in image space |
JP6534457B2 (en) | 2016-02-04 | 2019-06-26 | 富士フイルム株式会社 | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM |
JP6734583B2 (en) * | 2018-02-23 | 2020-08-05 | 株式会社市川工務店 | Image processing system, image processing method and program for inspecting structures such as bridges |
-
1999
- 1999-10-19 JP JP29711799A patent/JP4315545B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107747914A (en) * | 2017-10-11 | 2018-03-02 | 成都多极子科技有限公司 | 360 ° of contour outline measuring sets and method based on line-structured light |
Also Published As
Publication number | Publication date |
---|---|
JP2001119722A (en) | 2001-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3875817B2 (en) | Map coordinate detection system for ranging device | |
JP4530571B2 (en) | 3D image detection device | |
CN103460105B (en) | Imaging device and auto-focusing control method thereof | |
US6856355B1 (en) | Method and apparatus for a color scannerless range image system | |
US6987531B2 (en) | Imaging system, photographing device and three-dimensional measurement auxiliary unit used for the system | |
JP6822230B2 (en) | Imaging device and imaging method | |
US20020041704A1 (en) | Three-dimensional image capturing device | |
US5422673A (en) | Video camera with automatic focus control | |
JP4315545B2 (en) | 3D image detection system and 3D image detection apparatus | |
WO2015083539A1 (en) | Imaging device, method, and program | |
JP2001313958A (en) | Three-dimensional image reader | |
JP3986748B2 (en) | 3D image detection device | |
JP2001249265A (en) | Range finder | |
JP4398562B2 (en) | Focus adjustment mechanism of 3D image detector | |
US6437853B2 (en) | Three-dimensional image capturing device | |
JP4661269B2 (en) | Imaging apparatus and program | |
US7053937B1 (en) | Three-dimensional image capturing device and recording medium | |
JP4369573B2 (en) | 3D image detection device | |
JP6534455B2 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
CN112929519B (en) | Depth camera, imaging device, and electronic apparatus | |
JP4369575B2 (en) | 3D image detection device | |
JP4413343B2 (en) | 3D image detection device | |
JP2000341720A (en) | Three-dimensional image input device and recording medium | |
JP3892632B2 (en) | Still object image detection apparatus and still object image detection method | |
JPWO2017134881A1 (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060915 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20080425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090512 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090519 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120529 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120529 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120529 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130529 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |