JP4315545B2 - 3D image detection system and 3D image detection apparatus - Google Patents

3D image detection system and 3D image detection apparatus Download PDF

Info

Publication number
JP4315545B2
JP4315545B2 JP29711799A JP29711799A JP4315545B2 JP 4315545 B2 JP4315545 B2 JP 4315545B2 JP 29711799 A JP29711799 A JP 29711799A JP 29711799 A JP29711799 A JP 29711799A JP 4315545 B2 JP4315545 B2 JP 4315545B2
Authority
JP
Japan
Prior art keywords
image detection
dimensional image
camera
spot
light emitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29711799A
Other languages
Japanese (ja)
Other versions
JP2001119722A (en
Inventor
山本  清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP29711799A priority Critical patent/JP4315545B2/en
Publication of JP2001119722A publication Critical patent/JP2001119722A/en
Application granted granted Critical
Publication of JP4315545B2 publication Critical patent/JP4315545B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、光伝播時間測定法を用いて被写体の3次元形状等を検出する3次元画像検出システム及び3次元画像検出装置に関する。
【0002】
【従来の技術】
従来被写体までの距離を画素毎に検出する測距装置としては、「Measurement Science and Technology」(S. Christie 他、vol.6, p1301-1308, 1995 年)に記載されたものや、国際公開97/01111号公報に開示されたものなどが知られている。これらの測距装置では、パルス変調されたレーザ光が被写体に照射され、その反射光が2次元CCDセンサによって受光され、電気信号に変換される。このとき2次元CCDのシャッタ動作を制御することにより、被写体までの距離に相関する電気信号をCCDの各画素毎に検出することができる。この電気信号からCCDの各画素毎に対応する被写体までの距離が検出される。
【0003】
【発明が解決しようとする課題】
これらの3次元画像検出装置で被写体の3次元形状を検出する場合、1つの方向からの撮影では、被写体の部分的な3次元形状しか検出できない。被写体の全体的な3次元形状を検出するには、複数の異なる方向から被写体を撮影する必要がある。しかし、異なる方向から撮影して得られる被写体の座標データは、異なる座標系に基づくものであり、これらの座標データを基に被写体を一体的に表すには、各座標系によって表された被写体の座標データを1つの座標系に変換する必要がある。従来これらの変換は、各方向から得られた被写体の3次元的な画像をコンピュータのディスプレイ上に表示し、被写体の視覚的特徴点を手がかりに3次元グラフィックソフトなどを用いて手動で一体的な被写体画像を合成することにより行われている。
【0004】
本発明は、被写体を複数の方向から撮影し、各撮影により得られる被写体の3次元形状を表す座標データを1つの座標系に合成するための3次元画像検出システム及び3次元画像検出装置を得ることを目的としている。
【0005】
【課題を解決するための手段】
本発明の3次元画像検出システムは、被写体までの距離情報を画素毎に検出する第1及び第2の3次元画像検出装置を備えた3次元画像検出システムであって、第1及び第2の3次元画像検出装置の少なくとも一方に設けられ非直線状に配列する3つ以上の光のスポットを被写体に投影するスポット光発光装置と、第1及び第2の3次元画像検出装置の双方に設けられ投影された光のスポットが、撮像面上に結像されているか否かを検出し、結像されている場合、その光のスポットが結像する撮像面上の位置を検出するスポット位置認識手段と、第1及び第2の3次元画像検出装置の少なくとも一方に設けられ第1及び第2の3次元画像検出装置の撮像面にそれぞれ結像された光のスポットの間における対応関係を認識する対応関係認識手段とを備え、第1及び第2の3次元画像検出装置の各撮像面においてスポット位置認識手段により少なくとも3つ以上のスポットが検出されることをを特徴としている。
【0006】
スポット光発光装置が照射する光は好ましくは、レーザ光線である。また、好ましくは、スポット光発光装置が3個以上のスポット光発光素子を備え、光のスポットはそれぞれ異なるスポット光発光素子から投射される光りによるものである。より好ましくはスポット光発光素子は、3次元画像検出装置の鏡筒の縁周りに円環状に等間隔で配置されている。
【0007】
好ましくは、対応関係認識手段は、各スポット光発光素子を1個づつ発光させることにより、第1及び第2の3次元画像検出装置において検出される光のスポットの間における対応関係を認識する。
【0008】
第1及び第2の3次元画像検出装置は好ましくは、第1及び第2の3次元画像検出装置間において通信を行なうための通信手段を備え、スポット光発光装置が備えられた第1又は第2の3次元画像検出装置が、各スポット光発光素子を1個づつ発光させるとともに各スポット光発光素子を識別するための発光素子識別コードを通信手段によりもう一方の3次元画像検出装置に送信し、対応関係識別手段が発光素子識別コードにより各3次元画像検出装置において検出される光のスポットの間における対応関係を認識する。
【0009】
例えば、スポット光発光装置を備えない3次元画像装置のスポット位置認識手段において、投影された光のスポットが検出されない場合に検出されないことを知らせるための信号を、光のスポットが検出された場合に検出されたことを知らせるための信号を、スポット光発光装置を備えた3次元画像検出装置に送信することにより、光のスポットがスポット光発光装置を備えない3次元画像検出装置において3つ以上検出されたか否かを第1の3次元画像検出装置において判定可能である。
【0010】
好ましくは、N台の3次元画像検出装置を備えた3次元画像検出システムにおいて、全ての3次元画像検出装置に、対となる3次元画像検出装置が少なくとも1台存在し、一対の3次元画像検出装置の一方が第1の3次元画像検出装置として機能し、他方が第2の3次元画像検出装置として機能する。より好ましくは、N台の3次元画像検出装置を備えた3次元画像検出システムの1回の駆動において、全ての3次元画像検出装置が1回だけ第1及び第2の3次元画像装置として機能する。またこのとき好ましくは、N台の3次元画像検出装置の各々を識別するための装置識別コードを、各3次元画像検出装置において生成する。
【0011】
3次元画像検出システムは好ましくは、第1及び第2の3次元画像検出装置の各々において検出される被写体までの距離情報から、第1及び第2の3次元画像検出装置を基準とした第1の座標系及び第2の座標系それぞれにおいて被写体の3次元形状を表す第1の座標データと第2の座標データを算出する座標データ算出手段を備える。またこのときより好ましくは、3次元画像検出システムは、スポット位置認識手段により検出される3つの光のスポットに基づいて、第1の座標系と第2の座標系との間での座標変換を行なう座標変換手段を備える。
【0012】
本発明の3次元画像検出装置は、上述の3次元画像検出システムにおいて用いられ、被写体までの距離情報を画素毎に検出する3次元画像検出装置であって、被写体に投影された光のスポットが結像する撮像面上の位置を検出するスポット位置認識手段または非直線状に配列する3つ以上の光のスポットを被写体に投影するためのスポット光発光装置の少なくとも一方を備える。
【0013】
3次元画像検出装置は好ましくは、スポット位置認識手段を備えた第1及び第2の3次元画像検出装置の一方の3次元画像検出装置であって、第1及び第2の3次元画像検出装置の撮像面において検出される光のスポットの間における対応関係を認識する対応関係認識手段を備える。このときより好ましくは、スポット光発光装置を備える。
【0014】
また3次元画像検出装置は好ましくは、対応関係認識手段において用いるデータを入力するためのデータ入力手段を備える。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
図1は、本発明の一実施形態であるカメラ型の3次元画像検出装置の斜視図であり、3次元画像検出システムにおいて用いられる。
【0016】
カメラ本体10の前面において、撮影レンズ11の左上にはファインダ窓12が設けられ、右上にはストロボ13が設けられている。撮像レンズ11の外周縁には円環状のマーキング用の発光装置(スポット光発光装置)22が配設されており、この発光装置22には6個の発光素子(スポット光発光素子)22aが等間隔に配置されている。発光素子22aは、マーキング用のレーザ光を照射するためのものである。カメラ本体10の上面において、撮影レンズ11の真上には、測距光であるレーザ光を照射する発光装置14が配設されている。発光装置14の左側にはレリーズスイッチ15、リンク撮影モード設定スイッチ18、液晶表示パネル16が設けられ、右側にはモード切替ダイヤル17が設けられている。カメラ本体10の図中右側面には、ICメモリカード等の記録媒体を挿入するためのカード挿入口19が形成されている他、ビデオ出力端子20、インターフェースコネクタ21a、21cが設けられている。また、カメラ本体10の図中左側面(図示せず)には、インターフェースコネクタ21bが設けられている。
【0017】
図2は図1に示すカメラの回路構成を示すブロック図である。
撮影レンズ11の中には絞り25が設けられている。絞り25の開度はアイリス駆動回路26によって調整される。撮影レンズ11の焦点調節動作およびズーミング動作はレンズ駆動回路27によって制御される。
【0018】
撮影レンズ11の光軸上には撮像素子(CCD)28が配設されている。CCD28の撮像面には、撮影レンズ11によって被写体像が形成され、これによりCCD28においては被写体像に対応した電荷が発生する。CCD28における電荷の蓄積動作、電荷の読出動作等の動作はCCD駆動回路30によって制御される。CCD28から読み出された電荷信号すなわち画像信号はアンプ31において増幅され、A/D変換器32においてアナログ信号からデジタル信号に変換される。デジタルの画像信号は撮像信号処理回路33においてガンマ補正等の処理を施され、画像メモリ34に一時的に格納される。アイリス駆動回路26、レンズ駆動回路27、CCD駆動回路30、撮像信号処理回路33はシステムコントロール回路35によって制御される。
【0019】
画像信号は画像メモリ34から読み出され、LCD駆動回路36に供給される。LCD駆動回路36は画像信号に応じて動作し、これにより画像表示LCDパネル37には、画像信号に対応した画像が表示される。
【0020】
画像メモリ34から読み出された画像信号は、カメラ本体10の外部に設けられたモニタ装置39とケーブルで接続することにより、TV信号エンコーダ38、ビデオ出力端子20を介してモニタ装置39に伝送可能である。またシステムコントロール回路35はインターフェース回路40に接続されており、インターフェース回路40はインターフェースコネクタ21a、21b、21cに接続されている。インターフェースコネクタ21a、21bは、複数のカメラを連動して撮影を行なうリンク撮影モードにおいて、他のカメラとの接続に用いる。インターフェースコネクタ21cは、カメラ本体10の外部に設けられたコンピュータ41とインターフェースケーブルを介して接続するためのものである。システムコントロール回路35は、記録媒体制御回路42を介してデータ記録装置43に接続されている。したがって画像メモリ34から読み出された画像信号は、データ記録装置43に装着されたICメモリカード等の記録媒体Mに記録可能である。
【0021】
発光装置14は、発光素子14aと照明レンズ14bにより構成され、発光素子14aの発光動作は発光素子制御回路44によって制御される。発光素子14aはレーザダイオード(LD)であり、照射されるレーザ光は被写体の距離を検出するための測距光として用いられる。このレーザ光は照明レンズ14bを介して被写体の全体に照射される。被写体で反射したレーザ光が、撮影レンズ11に入射し、CCD28で検出されることにより被写体までの距離情報が検出される。また、複数の発光素子22aもレーザダイオードであり、発光素子22aは発光素子制御回路41によって制御される。発光素子22aから照射されたレーザ光は、被写体表面にスポット状に投射され、特徴点を表すマーカーとしての役割を果たし、座標変換行列を求める際に参照される。
【0022】
システムコントロール回路35には、レリーズスイッチ15、モード切替ダイヤル17、リンク撮影モード設定スイッチ18から成るスイッチ群45と、液晶表示パネル(表示素子)16とが接続されている。
【0023】
次に図3〜図5を参照して本発明の一実施形態である3次元画像検出システムの概略について説明する。
【0024】
図3は、被写体Sの撮影方法を模式的に表したものである。
6台のカメラ10a〜10fは、図1、図2に示されたカメラであり、被写体Sを取り囲んで略等間隔で配置され、各カメラの撮像レンズは被写体Sに向けられている。隣合うカメラはそれぞれインターフェースケーブル50により接続されており、6台のカメラ10a〜10fは、環状のネットワークを形成し、全体として1つの3次元画像検出システムを構成している。オペレーターが、例えばカメラ10aのリンク撮影モード設定スイッチ18を押してリンク撮影モードを立ち上げると、インターフェースケーブル50により接続されたカメラ10b〜カメラ10fにおいても順次リンク撮影モードが立ち上げられる。カメラの数は、必要に応じて変更可能であるが、本システムを構成するには少なくとも2以上のカメラが必要である。なお、以後の説明では、カメラ10aのリンク撮影モード設定スイッチ18を操作してリンク撮影モードを立ち上げたことを前提として説明を行なう。
【0025】
各カメラでは、被写体Sまでの距離データが検出され、この距離データに基づいて算出される被写体Sの3次元形状を表す座標データは、各カメラを基準とした座標系によるものである。従って、各カメラを基準とした座標系による被写体Sの座標データを合成して、単一の座標系による被写体Sの全体的な座標データを得るには、あるカメラを基準とした座標系から他のカメラを基準とした座標系に変換できなければならない。リンク撮影モードでは、この座標変換を行なう座標変換行列を求める際に参照される参照点を検出するためのリンク撮影が行なわれ、その後に被写体までの距離情報や、画像情報が検出される。
【0026】
リンク撮影は相互にインターフェースケーブル50で直接接続された2台のカメラを1組として行われる。すなわちカメラ10aと10b、カメラ10bと10c、カメラ10cと10d、…、カメラ10fと10aなどがそれぞれ1組としてリンク撮影が行われる。リンク撮影では、2台のカメラの一方がマーキング用のレーザ光を照射し、被写体表面に投影されたスポットを2台のカメラで各々検出して座標変換の際に参照点として用いる。なお2台のカメラのうちマーキング用のレーザ光を照射するカメラをマスターカメラ、もう一方のカメラをスレーブカメラと呼ぶ。
【0027】
図4は、リンク撮影モードを設定した際にカメラ10aにおいて実行されるプログラムのフローチャートであり、図5はその他のカメラ10b〜10fにおいて実行されるプログラムのフローチャートである。
【0028】
まず、オペレータがカメラ10aのリンク撮影モード設定スイッチ18を押すと、カメラ10aにおいてステップ100のカメラリンク処理が実行される。カメラリンク処理では、カメラ10a〜カメラ10fを連動して制御するための初期処理が行なわれる。カメラ10aにおいて実行されるカメラリンク処理(ステップ100)に連動して、カメラ10b〜カメラ10fの各カメラにおいてもカメラリンク処理(ステップ200)が実行される。各カメラ間の連動(リンク)が成功すると、すなわち接続された各カメラの電源がオン状態に設定され、各カメラが通信可能な状態に設定されていることが確認されると、カメラ10aのカメラリンク処理(ステップ100)においてリンクが成功したことを表すフラッグが立てられる。
【0029】
カメラ10aのステップ101において、各カメラ間でのリンクが成功したか否かが上述のフラッグを参照することにより判定される。リンクが失敗したと判定されると、液晶表示パネル16などにリンクが失敗したことを伝える警告が表示され、リンク撮影モードの設定は解除される。これにより3次元画像検出システムの撮影動作は終了する。一方、リンクが成功したと判定されると、ステップ102においてカメラ10aをマスターカメラとしたリンク撮影が行なわれ、同時にカメラ10bでは、ステップ201が実行され、スレーブカメラとしてのリンク撮影が行なわれる。すなわち、カメラ10aとカメラ10bを1組としたリンク撮影が行なわれる。カメラ10a、カメラ10bのリンク撮影が成功すると、リンク撮影が成功したことを表すフラッグが、それぞれのステップ102、201において立てられる。なお、カメラ10aとカメラ10bを1組としたリンク撮影が行なわれている間、カメラ10c〜カメラ10fでは、後述するようにリンク撮影のための待機状態となる(ステップ201)。
【0030】
ステップ103(カメラ10a)、ステップ202(カメラ10b)では、リンク撮影が成功したか否かが上述のフラッグによりそれぞれ判定される。リンク撮影が失敗したと判定されると、リンク撮影モードの設定はそれぞれ解除されこの3次元画像検出システムの撮影動作は終了する。
【0031】
一方、リンク撮影が成功したと判定されると、カメラ10aではステップ104に処理が移り、カメラ10fをマスターカメラとし、自らをスレーブカメラとしたリンク撮影が行なわれるまで待機状態となる。カメラ10bでは、ステップ203に処理が移り、カメラ10bをマスターカメラとしたリンク撮影が開始される。このときカメラ10cでは、ステップ201での待機状態が解除され、スレーブカメラとしてのリンク撮影が開始する。すなわち、カメラ10b、カメラ10cを1組としたリンク撮影が行われる。各カメラでのリンク撮影が成功するとリンク撮影が成功したことを表すフラッグが、それぞれのステップ203(カメラ10b)、ステップ201(カメラ10c)において立てられる。
【0032】
カメラ10bでは、ステップ204においてリンク撮影(カメラ10bをマスターカメラとしたリンク撮影)が成功したか否かが上述のフラッグを参照して行われる。一方、カメラ10cでは、ステップ202においてリンク撮影(カメラ10bをマスターカメラとしたリンク撮影)が成功したか否かが上述のフラッグを参照して行われる。カメラ10b、カメラ10cにおいてリンク撮影が失敗したと判定されると、リンク撮影モードの設定はそれぞれ解除されこの3次元画像検出システムの撮影動作は終了する。
【0033】
リンク撮影が成功したと判定されると、カメラ10bでは、ステップ205に処理が移り、カメラ10aからの撮影終了信号(後述)が受信されたか否かが判定される。すなわち、カメラ10aからの撮影終了信号(END)待ち状態となる。また、カメラ10cでは、ステップ203に処理が移り、これを契機にカメラ10dのステップ201における待機状態が解除され、カメラ10cとカメラ10dを1組としたリンク撮影(カメラ10cがマスター、カメラ10dがスレーブ)が開始する。以下同様に、カメラ10dとカメラ10e、カメラ10eとカメラ10fのリンク撮影が行なわれ、カメラ10b〜カメラ10eのカメラは全てステップ205の待機状態となる。すなわち、各カメラは自らがスレーブカメラとしてリンク撮影をしたときのマスターカメラからの撮影終了信号待ち状態となる。
【0034】
カメラ10fのスレーブカメラとしてのリンク撮影(ステップ201)が成功して終了すると、カメラ10fはマスターカメラとしてのリンク撮影(ステップ203)を開始する。一方カメラ10aでは、ステップ104での待機状態が解除され、スレーブカメラとしてのリンク撮影が開始される。リンク撮影が成功すると、そのことを表すフラッグがカメラ10a、カメラ10fの各々のステップ104、ステップ203で立てられ、それぞれステップ105、ステップ204においてリンク撮影が成功したか否かが判定される。リンク撮影が失敗したと判定されると、リンク撮影モードの設定が解除され、この3次元画像検出システムの撮影動作は終了する。
【0035】
リンク撮影が成功したと判定されると、カメラ10fではステップ205に処理が移り、カメラ10eからの撮影終了信号待ち状態となる。また、カメラ10aでは、ステップ106に処理が移り、距離情報検出動作が実行され、被写体までの距離データが取得され、ステップ107において、画像情報検出動作が実行され、被写体の画像データが取得される。
【0036】
その後カメラ10aでは、撮影終了信号がステップ108においてカメラ10bに向けて出力され、ステップ109において各種データ(マーキングに関する情報や距離データ、画像データなど)が記録媒体Mに記録される。ステップ110では、カメラ10fからの撮影終了信号を受けるまで待機状態となる。カメラ10fから撮影終了信号を受信すると、カメラ10aにおける3次元画像検出システムの撮影動作は終了する。
【0037】
撮影終了信号は、そのカメラにおいて実行される距離情報検出動作や画像情報検出動作における撮影が終了したことを示す信号である。カメラ10bにおいて、撮影終了信号を受信すると、ステップ205で撮影終了信号の受信待ち状態であったカメラ10bの処理は、ステップ206、ステップ207へと移り、距離情報検出動作、画像情報検出動作が実行され、被写体の距離データ、画像データが取得される。その後ステップ208において、カメラ10bはカメラ10cに撮影終了信号を出力し、ステップ209で、取得された各種データが記録媒体Mに記録され、カメラ10bにおける3次元画像検出システムの撮影動作は終了する。
【0038】
以下同様に、各カメラにおいて距離情報検出動作、画像情報検出動作が実行されとともに次のカメラに撮影終了信号を出力し、各カメラにおいて取得された各種のデータが、記録媒体Mに記録され、各カメラにおける3次元画像検出システムの撮影動作が全て終了する。すなわち、撮影終了信号はカメラ10a、カメラ10b、カメラ10c、・・・、と順次出力され、最後にカメラ10fから出力された撮影終了信号がカメラ10aにおいて受信されることにより、接続された全てのカメラの撮影動作が終了する。
【0039】
次に図6〜図9及び次の表1を参照してステップ100、ステップ200において実行されるカメラリンク処理について説明する。
【0040】
表1は、インターフェースケーブル50を介してカメラ間で通信される代表的な信号の一覧を表したものである。
【表1】

Figure 0004315545
Mはマスターカメラ、Sはスレーブカメラを表しており、’→’記号はマスターカメラ、スレーブカメラ間でのデータの伝送方向を表している。カメラリンク処理に用いられる信号は、1ビット信号であるリンク撮影モード信号(MODE)と3ビット信号であるカメラ識別信号(C1、C2、C3)である。3ビット信号の照明識別信号(L1、L2、L3)と、1ビット信号のOK信号(OK_ACK)、NG信号(NG_ACK)、撮影終了信号(END)は、後のリンク撮影動作において用いられる。
【0041】
図6は、ステップ100、すなわちカメラ10aで実行されるカメラリンク処理のフローチャートであり、図7は、ステップ200、すなわちカメラ10b〜カメラ10fで実行されるカメラリンク処理のフローチャートである。
【0042】
まずステップ300で、カメラ10a、カメラ10b間のリンク撮影モード(MODE)信号(送信側)がハイレベルに設定され、ステップ301でカメラ識別番号(送信側)が1にセットされるとともにカメラ10bへ出力される。その後ステップ302においてタイマがリセットされ、ステップ303でカメラ10f、カメラ10a間のMODE信号(受信側)がハイレベルであるか否かが判定される。受信側のMODE信号がハイレベルでないと判定されるとステップ306においてタイマが所定の時間を超過していないか否かが判定される。所定時間経過していないと判定されると、ステップ303に再び処理は戻り、受信側のMODE信号がハイレベルであるか否かが判定される。またステップ306でタイマの時間が所定時間を超過していると判定されると、カメラリンク処理が成功したことを表すフラッグをリセットしてこの処理は終了する。
【0043】
一方ステップ303において受信側のMODE信号はハイレベルであると判定されると、ステップ304において、受信側のカメラ識別番号が1であるか否かが判定される。受信側のカメラ識別番号が1であると判定されるとステップ306に処理は移り、タイマの時間が所定時間を超過しているか否かが判定される。ステップ304において受信側のカメラ識別番号が1でないと判定されると、ステップ305においてカメラリンク処理が成功したこと表すフラッグが立てられ、この処理は終了する。
【0044】
カメラ10aにおいて図6で示されたカメラリンク処理が行なわれている間、カメラ10b〜カメラ10fでは、図7で示されるカメラリンク処理が行なわれる。ステップ400で、受信側のMODE信号がハイレベルであると判定されると、処理はステップ401へ移行し、送信側のMODE信号がハイレベルに設定される。例えばカメラ10aからのMODE信号がハイレベルに設定され、これをカメラ10bが受信すると、カメラ10bはカメラ10cへのMODE信号をハイレベルに設定する。ステップ402では、受信したカメラ識別番号nに1を加算したものを送信側のカメラ識別番号に設定して次のカメラへ出力する。例えば、カメラ10bはカメラ10aからカメラ識別番号1を受信し、カメラ識別番号2をカメラ10cに出力する。すなわち6台のカメラ10a〜10fは、カメラ識別番号1、2、…、6にそれぞれ対応する。
【0045】
図8は、各カメラ間におけるMODE信号の立ち上げ及び立ち下げのシーケンスを示したものである。すなわち、図8(a)はカメラ10aとカメラ10b、図8(b)はカメラ10bとカメラ10c、図8(c)はカメラ10cとカメラ10d、図8(d)はカメラ10dとカメラ10e、図8(e)はカメラ10eとカメラ10f、図8(f)はカメラ10fとカメラ10a間のMODE信号の立ち上げ及び立ち下げのシーケンスを表している。ステップ300での送信側のMODE信号をハイレベルに設定することにより、カメラ10a、カメラ10b間のMODE信号は、SH1においてハイレベルに設定される。ハイレベルのMODE信号を受信したカメラ10bはカメラ10b、カメラ10c間のMODE信号をSH2においてハイレベルに設定する。このように順次各カメラ間のMODE信号がハイレベルに設定され、SH6では全てのカメラ間のMODE信号がハイレベルに設定される。
【0046】
一方、各カメラは割り込み処理で常時受信側のMODE信号を監視しており、受信側のMODE信号がローレベルに設定されると、自らの送信側のMODE信号をローレベルに設定した後、実行されている撮影動作をそれぞれ強制終了する。例えば、カメラ10aが送信側のMODE信号をSL1においてローレベルに設定すると、それを検知したカメラ10bもSL2において送信側のMODE信号をローレベルにした後、撮影動作を強制終了する。以下同様にカメラ10c〜カメラ10fが各MODE信号をローレベルに設定して、自らの撮影動作を強制終了する。したがって、SL6では、全てのカメラにおいて図4、図5のフローチャートで示された撮影動作は終了している。なお、受信側のMODE信号の監視は、全てのカメラにおいて常時行なわれているので、何れかのカメラが送信側のMODE信号をローレベルに設定すれば、各カメラのMODE信号が順次ローレベルに設定され、カメラ10aの送信側のMODE信号をローレベルに設定したときと同様に全てのカメラの撮影動作を終了させることができる。
【0047】
図9は、ステップ301、ステップ402において出力されるカメラ識別信号の例を示したものである。図9(a)は、カメラ10aからカメラ10bへ出力されるカメラ識別信号を表しており、図9(b)、図9(c)は、カメラ10bからカメラ10c、カメラ10cからカメラ10dへ出力されるカメラ識別信号をそれぞれ表している。
【0048】
カメラ識別信号C1、C2、C3はそれぞれ3桁の2進数の各桁に対応しており、C1は1桁目、C2は2桁目、C3は3桁目に対応する。したがって、カメラ識別番号1(2進表記で01)を出力する図9(a)では、送信側のMODE信号がハイレベルに設定されると略同時に、カメラ識別信号C1にパルス信号が出力される。同様にカメラ識別番号2(2進表記で10)を出力する図9(b)では、MODE信号がハイレベルに設定されると略同時に、カメラ識別信号C2にパルス信号が出力される。また、カメラ識別番号3(2進表記で11)を出力する図9(c)では、MODE信号がハイレベルに設定されると略同時に、カメラ識別信号C1、C2にそれぞれパルス信号が出力される。
【0049】
次に図10〜図12を参照して図4及び図5のステップ102、ステップ203とステップ104、ステップ201で実行されるマスターカメラでのリンク撮影と、スレーブカメラでのリンク撮影について説明する。
【0050】
図10は、マスターカメラにおいて実行されるリンク撮影動作のフローチャートである。初めにステップ500、ステップ501において変数Mと変数Lがそれぞれ0と1に初期設定される。変数Mは、リンク撮影動作により検出されたスポットの数に対応する。変数Lは照明識別番号であり、カメラに設けられた発光素子22の各々に対応する数である。例えば図1において、一番上の発光素子22から時計周りに順に1、2、…、6と各発光素子22が対応している。
【0051】
ステップ502では、カメラ識別番号がスレーブカメラに出力される。ステップ503では、照明識別番号Lの発光素子22からレーザ光が被写体に向けて照射されるとともに、照射されている発光素子22の照明識別番号Lをスレーブカメラに送出する。なお、照明識別番号Lは、カメラ識別番号と同様に3ビットの照明識別信号L1、L2、L3によってスレーブカメラに送出される。
【0052】
ステップ504では、スレーブカメラからのOK_ACK信号が受信されたか否かが判定される。OK_ACK信号は、発光素子22から照射されたマーキング用のレーザ光によるスポットがスレーブカメラにおいて検出されたときに、スレーブカメラからマスターカメラへ送出される信号である。OK_ACK信号が受信されていないと判定されるとステップ505において、スレーブカメラからのNG_ACK信号が受信されたか否かが判定される。NG_ACK信号は、発光素子22から照射されたマーキング用のレーザ光によるスポットがスレーブカメラにおいて検出されないときに、スレーブカメラからマスターカメラへ送出される信号である。NG_ACK信号が受信されていないと判定されると再びステップ504に戻り、OK_ACK信号の受信がないか判定される。
【0053】
ステップ505においてNG_ACK信号が受信されたと判定されると、ステップ506において照明識別番号Lがその最大値であるLmax と等しいか否かが判定される。本実施形態のカメラの発光素子22の数は6個なので、Lmax =6である。L=Lmax ではないと判定されると、ステップ507において、照明識別番号Lに1が加算され処理は再びステップ502へ戻り次の発光素子22からのレーザ光の照射が行われる。
【0054】
一方、ステップ504において、OK_ACK信号が受信されたと判定されると、ステップ508において変数Mに1が加算される。ステップ509では、照明識別番号Lのレーザ光により被写体表面にできたスポットの画面における位置(画素の位置)の認識するためのスポット位置認識処理が行なわれる。その後ステップ510において照明識別番号Lと認識されたスポットの位置が画像メモリ34に一時的に記憶される。
【0055】
ステップ511では、変数Mが3であるか否かが判定される。M≠3と判定されたときには、ステップ506においてL=Lmax が判定される。一方ステップ511においてM=3であると判定されると、ステップ512においてリンク撮影が成功したことを表すフラッグが立てられ、このマスターカメラでのリンク撮影動作のサブルーチンは終了する。また、ステップ506においてL=Lmax であると判定されると、ステップ513においてリンク撮影が成功したことを表すフラッグがリセットされるとともに、MODE信号がローレベルに設定され、このマスターカメラでのリンク撮影動作のサブルーチンは終了する。
【0056】
一方、スレーブカメラでのリンク撮影動作のサブルーチンは、図11のフローチャートで示される。
【0057】
ステップ600では、検出されたスポットの数を表す変数Mの値が0に初期設定される。ステップ601では、マスターカメラからのカメラ識別信号(カメラ識別番号)が受信されたか否かが判定され、カメラ識別信号が受信されたと判定されると、ステップ602において照明識別信号(照明識別番号L)が受信されたか否かが判定される。照明識別信号が受信されると、ステップ603において、マスターカメラの照明識別番号Lから照射されたレーザ光によるスポットのCCD28の画面における位置を認識するスポット位置認識処理が行なわれる。ステップ603では、スポット位置が認識された場合には、スポット位置が認識されたことを表すフラッグが立てられ、それ以外のときには、同フラッグがリセットされる。
【0058】
ステップ604では、ステップ603のスポット位置認識処理で、照明識別番号Lの発光素子22によるスポットの位置が認識できたか否かが、スポット位置が認識されたことを表すフラッグによって判定される。スポットの位置が認識されなかったと判定されると、ステップ605においてNG_ACK信号がマスターカメラへ送信される。その後ステップ606において受信された照明識別番号LがLmax に等しいか否かが判定され、等しくないと判定されるとステップ601に再び処理が戻る。
【0059】
一方、ステップ604で照明識別番号Lによるスポットの位置が認識されたと判定されると、ステップ608で変数Mに1が加算された後、ステップ609においてOK_ACK信号がマスターカメラに送信される。その後ステップ610において照明識別番号と認識されたスポットの位置が画像メモリ34に記憶され、ステップ611で、変数Mが3であるか否かが判定される。M=3であると判定されるとステップ612においてリンク撮影が成功したことを表すのフラッグが立てられ、このスレーブカメラにおけるリンク撮影動作のサブルーチンは終了する。またステップ611においてM≠3であると判定されると、ステップ606へ処理が移る。ステップ606においてL=Lmax であると判定されるとステップ607においてスレーブカメラにおけるリンク撮影が成功したことを表すフラッグがリセットされ、このスレーブカメラにおけるリンク撮影動作のサブルーチンは終了する。
【0060】
次に図12を参照してステップ509、ステップ603のスポット位置認識処理について説明する。図12はスポット位置認識処理のサブルーチンのフローチャートである。
【0061】
ステップ700では、画素値の2値化処理が行われる。すなわち、CCD28において左からi番目、上からj番目の画素を(i,j)で表すとき、画素(i,j)において画素値ρ(i,j)が閾値Γ以上であれば1、閾値Γよりも小さければ0を対応させる。関数B(ρ(i,j))は、この様な2値化関数を表している。このとき、B(ρ(i,j))=1となる画素は、スポットを構成する画素の1つに対応している。
【0062】
ステップ701では、B(i,j)、B(i,j)×i、B(i,j)×jの総和SMB 、SMi 、SMj がそれぞれ求められる。ステップ702では、SMB =0であるか否かが判定される。SMB ≠0と判定されたときにはステップ703に処理が移り、B(ρ(i,j))=1となる画素により構成されたスポットの図心(i0 ,j0 )がスポット位置として求められる。なお、図心(i0 ,j0 )は、数値を四捨五入する関数をIntとすると、
0 =Int(SMi /SMB
0 =Int(SMj /SMB
によって算出される。
【0063】
ステップ704では、スポット位置が認識されたことを表すフラッグが立てられてこのサブルーチンは終了する。一方、ステップ702においてSMB が0であると判定されると、ステップ705において、スポット位置の認識されたことを表すフラッグがリセットされ、このサブルーチンは終了する。
【0064】
図13は、カメラ10aをマスターカメラ、カメラ10bをスレーブカメラとしてリンク撮影が行われたときの各信号のシーケンスを例示したものである。
【0065】
T1では、カメラ識別番号1と照明識別番号1に対応するカメラ識別信号と照明識別信号とがカメラ10aからカメラ10bへと略同時に出力されている。すなわち、カメラ識別信号C1及び照明識別信号L1のみがパルス信号として出力されている。T1’では、カメラ10bからカメラ10aにOK_ACK信号がパルス信号として出力され、照明識別番号1によるスポットが検出さたことをマスターカメラであるカメラ10aに知らせている。
【0066】
T2では、再びカメラ識別番号1が出力され、略同時に照明識別番号2に対応する照明識別信号が出力されている。すなわち、カメラ識別信号C1及び照明識別信号L2のみがパルス信号として出力されている。T2’では、カメラ10bからカメラ10aにNG_ACK信号がパルス信号として出力され、照明識別番号2によるスポットが検出されなかったことをマスターカメラであるカメラ10aに知らせている。以下同様に、T3、T4、T5、T6では照明識別番号3、4、5、6に対応する3ビットで表された照明識別信号がマスターカメラからスレーブカメラへ送られ、T3’、T4’、T5’、T6’ではそれぞれOK_ACK信号、NG_ACK信号、NG_ACK信号、OK_ACK信号がスレーブカメラからマスターカメラへと送られている。したがって、このリンク撮影動作では、スレーブカメラであるカメラ10bにおいて3個のスポットが認識(検知)されたので、リンク撮影が成功したことを表すフラッグが立てられる。
【0067】
以上の方法により、各カメラにおいてそれぞれ3個のスポットが認識されると、各カメラにおいて検出された被写体の距離データから単一の座標系で表された被写体の座標データを得ることができ、例えばカメラ10aの液晶表示パネル16などに全てのリンク撮影が成功した旨が表示される。
【0068】
次に図4、図5のステップ106、ステップ206において実行される距離情報検出動作について説明する。
【0069】
まず、図14および図15を参照して、本実施形態における距離測定の原理について説明する。なお図15において横軸は時間tである。
【0070】
距離測定装置Bから出力された測距光は被写体Sにおいて反射し、図示しないCCDによって受光される。測距光は所定のパルス幅Hを有するパルス状の光であり、したがって被写体Sからの反射光も、同じパルス幅Hを有するパルス状の光である。また反射光のパルスの立ち上がりは、測距光のパルスの立ち上がりよりも時間δ・t(δは遅延係数)だけ遅れる。測距光と反射光は距離測定装置Bと被写体Sの間の2倍の距離rを進んだことになるから、その距離rは
r=δ・t・C/2 ・・・(1)
により得られる。ただしCは光速である。
【0071】
例えば測距光のパルスの立ち上がりから反射光を検知可能な状態に定め、反射光のパルスが立ち下がる前に検知不可能な状態に切換えるようにすると、すなわち反射光検知期間Tを設けると、この反射光検知期間Tにおける受光量Aは距離rの関数である。すなわち受光量Aは、距離rが大きくなるほど(時間δ・tが大きくなるほど)小さくなる。
【0072】
本実施形態では上述した原理を利用して、CCD28に設けられ、2次元的に配列された複数のフォトダイオードにおいてそれぞれ受光量Aを検出することにより、カメラ本体10から被写体Sの表面の各点までの距離をそれぞれ検出し、被写体Sの表面形状に関する3次元画像のデータを一括して入力している。
【0073】
図16は、CCD28に設けられるフォトダイオード51と垂直転送部52の配置を示す図である。図17は、CCD28を基板53に垂直な平面で切断して示す断面図である。このCCD28は従来公知のインターライン型CCDであり、不要電荷の掃出しにVOD(縦型オーバーフロードレイン)方式を用いたものである。
【0074】
フォトダイオード51と垂直転送部52はn型基板53の面に沿って形成されている。フォトダイオード51は2次元的に格子状に配列され、垂直転送部52は所定の方向(図16において上下方向)に1列に並ぶフォトダイオード51に隣接して設けられている。垂直転送部52は、1つのフォトダイオード51に対して4つの垂直転送電極52a,52b,52c,52dを有している。したがって垂直転送部52では、4つのポテンシャルの井戸が形成可能であり、従来公知のように、これらの井戸の深さを制御することによって、信号電荷をCCD28から出力することができる。なお、垂直転送電極の数は目的に応じて自由に変更できる。
【0075】
基板53の表面に形成されたp型井戸の中にフォトダイオード51が形成され、p型井戸とn型基板53の間に印加される逆バイアス電圧によってp型井戸が完全空乏化される。この状態において、入射光(被写体からの反射光)の光量に応じた電荷がフォトダイオード51において蓄積される。基板電圧Vsub を所定値以上に大きくすると、フォトダイオード51に蓄積した電荷は、基板53側に掃出される。これに対し、転送ゲート部54に電荷転送信号(電圧信号)が印加されたとき、フォトダイオード51に蓄積した電荷は垂直転送部52に転送される。すなわち電荷掃出信号によって電荷を基板53側に掃出した後、フォトダイオード51に蓄積した信号電荷が、電荷転送信号によって垂直転送部52側に転送される。このような動作を繰り返すことにより、垂直転送部52において信号電荷が積分され、いわゆる電子シャッタ動作が実現される。
【0076】
図18は距離情報検出動作におけるタイミングチャートであり、図1、図2、図16〜図18を参照して本実施形態における距離情報検出動作について説明する。なお本実施形態の距離情報検出動作では、図15を参照して行なった距離測定の原理の説明とは異なり、外光の影響による雑音を低減するために測距光のパルスの立ち下がりから反射光を検知可能な状態に定め、反射光のパルスが立ち下がった後に検知不可能な状態に切換えるようにタイミングチャートを構成しているが原理的には何ら異なるものではない。
【0077】
垂直同期信号(図示せず)の出力に同期して電荷掃出し信号(パルス信号)S1が出力され、これによりフォトダイオード51に蓄積していた不要電荷が基板53の方向に掃出され、フォトダイオード51における蓄積電荷量はゼロになる(符号S2)。電荷掃出し信号S1の出力の開始の後、一定のパルス幅を有するパルス状の測距光S3が出力される。測距光S3が出力される期間(パルス幅)は調整可能であり、図示例では、電荷掃出し信号S1の出力と同時に測距光S3がオフするように調整されている。
【0078】
測距光S3は被写体において反射し、CCD28に入射する。すなわちCCD28によって被写体からの反射光S4が受光されるが、電荷掃出し信号S1が出力されている間は、フォトダイオード51において電荷は蓄積されない(符号S2)。電荷掃出し信号S1の出力が停止されると、フォトダイオード51では、反射光S4の受光によって電荷蓄積が開始され、反射光S4と外光とに起因する信号電荷S5が発生する。反射光S4が消滅すると(符号S6)フォトダイオード51では、反射光に基く電荷蓄積は終了するが(符号S7)、外光のみに起因する電荷蓄積が継続する(符号S8)。
【0079】
その後、電荷転送信号S9が出力されると、フォトダイオード51に蓄積された電荷が垂直転送部52に転送される。この電荷転送は、電荷転送信号の出力の終了(符号S10)によって完了する。すなわち、外光が存在するためにフォトダイオード51では電荷蓄積が継続するが、電荷転送信号の出力が終了するまでフォトダイオード51に蓄積されていた信号電荷S11が垂直転送部52へ転送される。電荷転送信号の出力終了後に蓄積している電荷S14は、そのままフォトダイオード51に残留する。
【0080】
このように電荷掃出し信号S1の出力の終了から電荷転送信号S9の出力が終了するまでの期間TU1の間、フォトダイオード51には、被写体までの距離に対応した信号電荷が蓄積される。そして、反射光S4の受光終了(符号S6)までフォトダイオード51に蓄積している電荷が、被写体の距離情報と対応した信号電荷S12(斜線部)として垂直転送部52へ転送され、その他の信号電荷S13は外光のみに起因するものである。
【0081】
電荷転送信号S9の出力から一定時間が経過した後、再び電荷掃出し信号S1が出力され、垂直転送部52への信号電荷の転送後にフォトダイオード51に蓄積された不要電荷が基板53の方向へ掃出される。すなわち、フォトダイオード51において新たに信号電荷の蓄積が開始する。そして、上述したのと同様に、電荷蓄積期間TU1が経過したとき、信号電荷は垂直転送部52へ転送される。
【0082】
このような信号電荷S11の垂直転送部52への転送動作は、次の垂直同期信号が出力されるまで、繰り返し実行される。これにより垂直転送部52において、信号電荷S11が積分され、1フィールドの期間(2つの垂直同期信号によって挟まれる期間)に積分された信号電荷S11は、その期間被写体が静止していると見做せれば、被写体までの距離情報に対応している。なお信号電荷S13は信号電荷S12に比べ微小であるため信号電荷S11は信号電荷S12と等しいと見なすことができる。
【0083】
以上説明した信号電荷S11の検出動作は1つのフォトダイオード51に関するものであり、全てのフォトダイオード51においてこのような検出動作が行なわれる。1フィールドの期間における検出動作の結果、各フォトダイオード51に隣接した垂直転送部52の各部位には、そのフォトダイオード51によって検出された距離情報が保持される。この距離情報は垂直転送部52における垂直転送動作および図示しない水平転送部における水平転送動作によってCCD28から出力される。
【0084】
図19は、図4のステップ106および図5のステップ206において実行される距離情報検出動作のフローチャートである。図19を参照して距離情報検出動作について説明する。なお、距離情報検出動作は、モード切替ダイヤル17の設定をDモードに設定することにより、独立して駆動することもできる。このときカメラでは他のカメラと連動することなく、独立して距離情報検出動作が実行される。
【0085】
ステップ801では、垂直同期信号が出力されるとともに測距光制御が開始される。すなわち発光装置14が駆動され、パルス状の測距光S3が断続的に出力される。次いでステップ802が実行され、CCD28による検知制御が開始される。すなわち図18を参照して説明した距離情報検出動作が開始され、電荷掃出信号S1と電荷転送信号S9が交互に出力されて、距離情報の信号電荷S11が垂直転送部52において積分される。
【0086】
ステップ803では、距離情報検出動作の開始から1フィールド期間が終了したか否か、すなわち新たに垂直同期信号が出力されたか否かが判定される。1フィールド期間が終了するとステップ804へ進み、垂直転送部52において積分された距離情報の信号電荷がCCD28から出力される。この信号電荷はステップ805において画像メモリ34に一時的に記憶される。
【0087】
ステップ806では測距光制御がオフ状態に切換えられ、発光装置14の発光動作が停止する。ステップ807では、距離データの演算処理が行なわれ、ステップ808において距離データが画像メモリ34に一時的に記憶され、このサブルーチンは終了する。
【0088】
次にステップ807において実行される演算処理の内容を図18を参照して説明する。
【0089】
反射率Rの被写体が照明され、この被写体が輝度Iの2次光源と見做されてCCDに結像された場合を想定する。このとき、電荷蓄積時間tの間にフォトダイオードに発生した電荷が積分されて得られる出力Snは、
Sn=k・R・I・t ・・・(2)
で表される。ここでkは比例定数で、撮影レンズのFナンバーや倍率等によって変化する。
【0090】
図18に示されるように電荷蓄積時間をTU1、測距光S3のパルス幅をTS 、距離情報の信号電荷S12のパルス幅をTD とし、1フィールド期間中のその電荷蓄積時間がN回繰り返されるとすると、得られる出力SM10は、
Figure 0004315545
となる。なお、パルス幅TD
Figure 0004315545
と表せる。このとき被写体までの距離rは
r=C・SM10/(2・k・N・R・I) ・・・(5)
で表せる。したがって比例定数k、反射率R、輝度Iを予め求めておけば距離rが求められる。
【0091】
次に図20を参照して図4、図5のステップ107、ステップ207において実行される画像情報検出動作について説明する。なお、画像情報検出動作も距離情報検出動作と同様に、モード切替ダイアル17をVモードに設定することにより、独立して駆動することができる。すなわち、モード切替ダイアル17がVモードに設定されているカメラにおいては、他のカメラと連動することなく独立して距離情報検出動作が実行される。
【0092】
ステップ901では、CCD28による通常の撮影動作(CCDビデオ制御)がオン状態に定められ、距離情報検出動作において撮像された被写体と同一の被写体の画像が撮像され画像データとして検出される。検出された画像データは、ステップ902において画像メモリ34に一時的に記憶され、このサブルーチンは終了する。
【0093】
以上の3次元画像検出システムの撮影動作により、カメラ10a〜カメラ10fにおいて取得されデータは、コンピュータ41に転送され合成される。カメラからコンピュータへのデータの転送は、各カメラの記録媒体Mをコンピュータ41に設けられたデータ読取装置46(図2参照)に装着してコンピュータに読み込むか、インターフェースコネクタ21cに接続されたインターフェースケーブルを介してコンピュータ41へ転送される。
【0094】
次に図21〜図26を参照して、リンク撮影動作により検出された3個のスポットを用いて各カメラにより検出された被写体までの距離データから、被写体の全体的な3次元形状を表す座標データを得る方法について説明する。
【0095】
まず、各カメラにおいて検出される被写体までの距離データから、各カメラを基準とした座標系における被写体の座標値を算出する方法について説明する。
【0096】
図21は、カメラの撮影光学系における焦点Pf を座標原点に取ったカメラ座標系xyzと、CCD28上の任意の点P(画素)と、それに対応する被写体表面上の点Qとの関係を模式的に示している。y軸は光軸Lpに一致しており、z軸はCCD28の垂直軸に並行に取られ、その向きは上向きである。またx軸はCCD28の水平軸に並行にとられている。点Pc はCCD28の受光面と光軸Lpの交点であり、受光面の中心に一致する。点QはCCD28上の点Pの画素に対応する被写体上の点であり、その座標は(xQ ,yQ ,zQ )である。平面Πは点Qを含むCCD28に平行な平面である。点QC は光軸Lp(y軸)と平面Πの交点であり、その座標は(0,yQ ,0)である。
【0097】
図22は、CCD28の受光面を正面から見た図である。CCD28の水平、垂直方向の長さはそれぞれ2×H0 、2×V0 である。点PはCCD28の中心PC から左へHP 、上へVP の距離にある。点PH は、点PからCCD28の水平軸LH へ下ろした垂線の足である。また点PV は、点PからCCD28の垂直軸LV へ下ろした垂線の足である。
【0098】
図23は、焦点Pf とCCD28との関係を焦点Pf とCCD28の水平軸LH を含む平面上で表したものであり、角Θ0 は水平画角、fは焦点距離である。線分Pf H が光軸Lpとなす角をΘP とすると、角ΘP は、
ΘP =tan-1(Hp /f) ・・・(6)
によって求められる。
【0099】
図24は、焦点Pf とCCD28との関係を焦点Pf とCCD28の垂直軸LV を含む平面上で表したものであり、角θ0 は垂直画角である。線分Pf V が光軸Lpとなす角をθP とすると、角θP は、
θP =tan-1(Vp /f) ・・・(7)
によって求められる。
【0100】
焦点Pf と点Pを結ぶ線分Pf Pの長さは、線分Pf H と線分PC V の長さから、
f P=(Pf H 2 +PC V 2 1/2 ・・・(8)
によって求められる。ここで、(8)式のPf H 、PC V は、
C V =VP
f H =f/cosΘP
なので、
f P=((f/cosΘP 2 +VP 2 1/2 ・・・(9)
と表すことができる。
【0101】
線分Pf Qの長さと、線分Pf Pの長さの比Pf P/Pf Qをμとすると、点Qの座標成分xQ 、yQ 、zQ は、
Q =HP /μ ・・・(10)
Q =VP /μ ・・・(11)
Q =f/μ ・・・(12)
で算出される。焦点距離fおよびCCD28の任意の画素に対応する点Pまでの距離HP 、VP は既知である。また、線分Pf Qの長さは、焦点Pf から点Pに対応する被写体の点Qまでの距離であり、焦点距離fは既知なので、ステップ807の演算処理の結果を用いて算出可能である。点Pは、CCD28の1つの画素を代表したものであり、上述の計算はCCD28の全ての画素に対して可能であり、全ての画素(点P)に対応する被写体(点Q)の座標(xQ ,yQ ,zQ )が算出される。
【0102】
次に、参照点である3個のスポットに基づいて、あるカメラ(スレーブカメラ)を基準とした座標系x’y’z’をリンク撮影において対を成したカメラ(マスターカメラ)を基準とした座標系xyzへ変換する方法について説明する。
【0103】
図25、図26は人頭模型の正面に据えたカメラと、模型の左斜め前に据えたカメラで撮影した画像を表しており、図25は、マスターカメラにより撮影された画像、図26はスレーブカメラにより撮影された画像にそれぞれ対応している。
【0104】
図25における3個のスポットSp1 、Sp2 、Sp3 は、図26における3個のスポットSp1 ’、Sp2 ’、Sp3 ’にそれぞれ対応し、同一スポットを2つの異なる方向から撮影したものである。座標系xyzにおける3個のスポットSp1 、Sp2 、Sp3 の座標(位置ベクトル)をそれぞれ(x1 ,y1 ,z1 )、(x2 ,y2 ,z2 )、(x3 ,y3 ,z3 )とし、座標系x’y’z’における3個のスポットSp1 ’、Sp2 ’、Sp3 ’の座標をそれぞれ(x1 ’,y1 ’,z1 ’)、(x2 ’,y2 ’,z2 ’)、(x3 ’,y3 ’,z3 ’)とする。これらの座標は図21〜図24を参照して説明した方法により算出することができる。
【0105】
座標系x’y’z’から座標系xyzへの座標変換は、並行移動分を(Δx,Δy,Δz)で表すと、直交変換(回転)Tr により
【数1】
Figure 0004315545
のように行なえる。直交変換Tr の成分αijは、参照点である3個のスポットの座標値から以下のように求めることができる。
【0106】
Sp1 からSp2 、Sp2 からSp3 、Sp3 からSp1 への変位ベクトルをそれぞれ、
ΔSp1 =(x2 −x1 ,y2 −y1 ,z2 −z1
ΔSp2 =(x3 −x2 ,y3 −y2 ,z3 −z2
ΔSp3 =(x1 −x3 ,y1 −y3 ,z1 −z3
とし、Sp1 ’からSp2 ’、Sp2 ’からSp3 ’、Sp3 ’からSp1 ’への変位ベクトルをそれぞれ、
ΔSp1 ’=(x2 ’−x1 ’,y2 ’−y1 ’,z2 ’−z1 ’)
ΔSp2 ’=(x3 ’−x2 ’,y3 ’−y2 ’,z3 ’−z2 ’)
ΔSp3 ’=(x1 ’−x3 ’,y1 ’−y3 ’,z1 ’−z3 ’)
とすると、変位ベクトルは、座標系の並行移動に関して不変なので、
【数2】
Figure 0004315545
となり、これにより直交変換Tr の成分αijを求めることができる。また、並行移動(Δx,Δy,Δz)は、求められた直交変換Tr と、例えばSp1 (Sp1 ’)の座標値から
【数3】
Figure 0004315545
と求められる。
【0107】
以上により、あるスレーブカメラを基準とした座標系で求めらた被写体の座標データを、マスターカメラを基準とした座標系に変換することができる。各カメラは隣り合うカメラの一方に対してマスターカメラであり、他方に対してはスレーブカメラなので、各組において求められる座標変換を繰り返し実行することにより、任意のカメラを基準とした座標系で表された被写体の座標値を所定のカメラを基準とした座標系に変換することができる。したがって、被写体の全体的な3次元形状を単一の座標系によって表すことができる。
【0108】
なお、本実施形態では、3個のスポット(参照点)がマスターカメラ及びスレーブカメラ双方において認識されたか否かの判定は、リンク撮影動作中において行われた。しかし、予め6個の発光素子22を全て同時に発光させて3個以上の同一スポットが認識されるか否かを判定してもよく、そのためのモードを各カメラに設けてもよい。また、本実施形態では、スポットは撮影の目的である被写体表面上に投影されたが、目的とする被写体付近に存在し、撮影領域内にある目的としない被写体表面上に投影されていてもよい。
【0109】
本実施形態では、3個のスポットを座標変換のための参照点として認識したが、直線状にない4個以上のスポットを認識するようにしてもよく、このとき認識された4個以上のスポットを用いて、より高い精度で座標変換の式を算出してもよい。
【0110】
【発明の効果】
以上のように本発明によれば、被写体を複数の方向から撮影し、各撮影により得られる被写体の3次元形状を表す座標データを1つの座標系に合成するための3次元画像検出システム及び3次元画像検出装置を得ることができる。
【図面の簡単な説明】
【図1】本発明の一実施形態であるカメラ型の3次元画像検出装置の斜視図である。
【図2】図1に示すカメラの回路構成を示すブロック図である。
【図3】3次元画像検出システムの構成を模式的に表した図である。
【図4】マスターカメラにおいて実行される3次元画像検出システムの撮影動作のプログラムのフローチャートである。
【図5】スレーブカメラにおいて実行される3次元画像検出システムの撮影動作のプログラムのフローチャートである。
【図6】リンク撮影モードを最初に立ち上げたカメラにおいて実行されるカメラリンク処理のプログラムのフローチャートである。
【図7】図6のカメラ以外のカメラにおいて実行されるカメラリンク処理のプログラムのフローチャートである。
【図8】各カメラ間におけるMODE信号の立ち上げ及び立ち下げのシーケンスを示したものである。
【図9】カメラ識別信号の送信状態を例示したものである。
【図10】マスターカメラにおいて実行されるリンク撮影動作のプログラムのフローチャートである。
【図11】スレーブカメラにおいて実行されるリンク撮影動作のプログラムのフローチャートである。
【図12】スポット位置認識処理のプログラムのフローチャートである。
【図13】リンク撮影時において出力される各信号のシーケンスである。
【図14】測距光による距離測定の原理を説明するための図である。
【図15】測距光、反射光、ゲートパルス、およびCCDが受光する光量分布を示す図である。
【図16】CCDに設けられるフォトダイオードと垂直転送部の配置を示す図である。
【図17】CCDを基板に垂直な平面で切断して示す断面図である。
【図18】被写体までの距離に関するデータを検出する距離情報検出動作のタイミングチャートである。
【図19】距離情報検出動作のフローチャートである。
【図20】画像情報検出動作のフローチャートである。
【図21】焦点Pf を座標原点にとったカメラ座標系xyzと、CCD28上の任意の点Pと、それに対応する被写体表面上の点Qとの関係を模式的に表した図である。
【図22】CCD28の正面図である。
【図23】カメラの撮影光学系における焦点とCCD28との関係を示す水平断面図である。
【図24】カメラの撮影光学系における焦点とCCD28との関係を示す垂直断面図である。
【図25】人頭模型を正面から撮影したときの画像を表している。
【図26】人頭模型を左斜め前から撮影したときの画像を表している。
【符号の説明】
10 カメラ本体(3次元画像検出装置)
22 発光装置(スポット光発光装置)
22a 発光素子(スポット光発光素子)
28 CCD(撮像面)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a three-dimensional image detection system and a three-dimensional image detection apparatus that detect a three-dimensional shape or the like of a subject using a light propagation time measurement method.
[0002]
[Prior art]
Conventional distance measuring devices that detect the distance to the subject for each pixel include those described in “Measurement Science and Technology” (S. Christie et al., Vol. 6, p1301-1308, 1995), The one disclosed in / 01111 is known. In these distance measuring devices, pulse-modulated laser light is irradiated onto a subject, and the reflected light is received by a two-dimensional CCD sensor and converted into an electrical signal. At this time, by controlling the shutter operation of the two-dimensional CCD, an electrical signal correlated with the distance to the subject can be detected for each pixel of the CCD. The distance from the electrical signal to the subject corresponding to each pixel of the CCD is detected.
[0003]
[Problems to be solved by the invention]
When these three-dimensional image detection devices detect a three-dimensional shape of a subject, only a partial three-dimensional shape of the subject can be detected by photographing from one direction. In order to detect the overall three-dimensional shape of the subject, it is necessary to photograph the subject from a plurality of different directions. However, the coordinate data of the subject obtained by photographing from different directions is based on different coordinate systems, and in order to represent the subject integrally based on these coordinate data, the coordinate data of the subject represented by each coordinate system is used. It is necessary to convert the coordinate data into one coordinate system. Conventionally, in these conversions, a three-dimensional image of a subject obtained from each direction is displayed on a computer display, and the visual feature point of the subject is used as a clue to manually integrate the three-dimensional graphic software. This is done by combining subject images.
[0004]
The present invention obtains a three-dimensional image detection system and a three-dimensional image detection apparatus for photographing a subject from a plurality of directions and synthesizing coordinate data representing the three-dimensional shape of the subject obtained by each photographing into one coordinate system. The purpose is that.
[0005]
[Means for Solving the Problems]
A three-dimensional image detection system of the present invention is a three-dimensional image detection system provided with first and second three-dimensional image detection devices that detect distance information to a subject for each pixel. Provided in both the first and second three-dimensional image detection devices, and the spot light emitting device provided on at least one of the three-dimensional image detection devices, which projects three or more light spots arranged in a non-linear manner onto the subject. Spot position recognition that detects whether or not the projected light spot is imaged on the imaging surface, and if it is imaged, detects the position on the imaging surface where the light spot is imaged A correspondence relationship between the means and the light spots provided on at least one of the first and second three-dimensional image detection devices and imaged on the imaging surfaces of the first and second three-dimensional image detection devices, respectively. Correspondence recognition means The wherein at least three or more spots are characterized to be detected by the spot position recognition means in each imaging plane of the first and second three-dimensional image detector.
[0006]
The light emitted from the spot light emitting device is preferably a laser beam. Preferably, the spot light emitting device includes three or more spot light emitting elements, and the light spots are caused by light projected from different spot light emitting elements. More preferably, the spot light emitting elements are arranged at equal intervals in an annular shape around the edge of the lens barrel of the three-dimensional image detection apparatus.
[0007]
Preferably, the correspondence relationship recognition means recognizes the correspondence relationship between the light spots detected by the first and second three-dimensional image detection devices by causing each spot light emitting element to emit light one by one.
[0008]
The first and second three-dimensional image detection devices preferably include communication means for performing communication between the first and second three-dimensional image detection devices, and the first or second three-dimensional image detection device includes the spot light emitting device. 2 emits each spot light emitting element one by one and transmits a light emitting element identification code for identifying each spot light emitting element to the other three-dimensional image detecting apparatus by communication means. The correspondence relationship identifying means recognizes the correspondence relationship between the light spots detected in each three-dimensional image detection device by the light emitting element identification code.
[0009]
For example, in a spot position recognition unit of a three-dimensional image apparatus that does not include a spot light emitting device, a signal for notifying that a projected light spot is not detected is detected when a light spot is detected. By transmitting a signal for notifying that the light has been detected to a three-dimensional image detecting device including a spot light emitting device, three or more light spots are detected in the three-dimensional image detecting device not including the spot light emitting device. It can be determined in the first three-dimensional image detection apparatus whether or not it has been done.
[0010]
Preferably, in a three-dimensional image detection system including N three-dimensional image detection devices, at least one pair of three-dimensional image detection devices exists in all three-dimensional image detection devices, and a pair of three-dimensional image detection devices. One of the detection devices functions as a first three-dimensional image detection device, and the other functions as a second three-dimensional image detection device. More preferably, in a one-time driving of a three-dimensional image detection system provided with N three-dimensional image detection devices, all the three-dimensional image detection devices function as the first and second three-dimensional image devices only once. To do. At this time, preferably, a device identification code for identifying each of the N three-dimensional image detection devices is generated in each of the three-dimensional image detection devices.
[0011]
The three-dimensional image detection system preferably has a first information based on the first and second three-dimensional image detection devices based on distance information to the subject detected by each of the first and second three-dimensional image detection devices. Coordinate data calculating means for calculating first coordinate data and second coordinate data representing the three-dimensional shape of the subject in each of the second coordinate system and the second coordinate system. More preferably, the three-dimensional image detection system performs coordinate conversion between the first coordinate system and the second coordinate system based on the three light spots detected by the spot position recognition unit. Coordinate conversion means for performing is provided.
[0012]
A three-dimensional image detection apparatus of the present invention is a three-dimensional image detection apparatus that is used in the above-described three-dimensional image detection system and detects distance information to a subject for each pixel, and a spot of light projected on the subject is detected. At least one of spot position recognition means for detecting a position on the imaging surface to be imaged or a spot light emitting device for projecting three or more light spots arranged in a non-linear manner onto a subject is provided.
[0013]
The three-dimensional image detection device is preferably one of the first and second three-dimensional image detection devices provided with spot position recognition means, the first and second three-dimensional image detection devices. Correspondence recognition means for recognizing the correspondence between the light spots detected on the imaging surface. More preferably, a spot light emitting device is provided at this time.
[0014]
The three-dimensional image detection apparatus preferably includes data input means for inputting data used in the correspondence recognition means.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a perspective view of a camera-type three-dimensional image detection apparatus according to an embodiment of the present invention, and is used in a three-dimensional image detection system.
[0016]
On the front surface of the camera body 10, a finder window 12 is provided at the upper left of the taking lens 11, and a strobe 13 is provided at the upper right. An annular marking light emitting device (spot light emitting device) 22 is disposed on the outer peripheral edge of the imaging lens 11, and the light emitting device 22 includes six light emitting elements (spot light emitting elements) 22 a and the like. Arranged at intervals. The light emitting element 22a is for irradiating a marking laser beam. On the upper surface of the camera body 10, a light emitting device 14 that irradiates a laser beam that is a distance measuring light is disposed just above the photographing lens 11. A release switch 15, a link shooting mode setting switch 18, and a liquid crystal display panel 16 are provided on the left side of the light emitting device 14, and a mode switching dial 17 is provided on the right side. On the right side of the camera body 10 in the figure, a card insertion slot 19 for inserting a recording medium such as an IC memory card is formed, and a video output terminal 20 and interface connectors 21a and 21c are provided. An interface connector 21b is provided on the left side (not shown) of the camera body 10 in the drawing.
[0017]
FIG. 2 is a block diagram showing a circuit configuration of the camera shown in FIG.
A diaphragm 25 is provided in the photographic lens 11. The opening degree of the diaphragm 25 is adjusted by the iris drive circuit 26. The focus adjustment operation and zooming operation of the photographic lens 11 are controlled by the lens driving circuit 27.
[0018]
An imaging device (CCD) 28 is disposed on the optical axis of the photographing lens 11. A subject image is formed on the imaging surface of the CCD 28 by the photographing lens 11, and as a result, a charge corresponding to the subject image is generated in the CCD 28. Operations such as charge accumulation operation and charge read operation in the CCD 28 are controlled by the CCD drive circuit 30. The charge signal read from the CCD 28, that is, the image signal is amplified by the amplifier 31 and converted from an analog signal to a digital signal by the A / D converter 32. The digital image signal is subjected to processing such as gamma correction in the imaging signal processing circuit 33 and temporarily stored in the image memory 34. The iris drive circuit 26, lens drive circuit 27, CCD drive circuit 30, and imaging signal processing circuit 33 are controlled by a system control circuit 35.
[0019]
The image signal is read from the image memory 34 and supplied to the LCD drive circuit 36. The LCD drive circuit 36 operates in accordance with the image signal, whereby an image corresponding to the image signal is displayed on the image display LCD panel 37.
[0020]
The image signal read from the image memory 34 can be transmitted to the monitor device 39 via the TV signal encoder 38 and the video output terminal 20 by connecting with a monitor device 39 provided outside the camera body 10 with a cable. It is. The system control circuit 35 is connected to the interface circuit 40, and the interface circuit 40 is connected to the interface connectors 21a, 21b, and 21c. The interface connectors 21a and 21b are used for connection with other cameras in the link shooting mode in which a plurality of cameras are linked to perform shooting. The interface connector 21c is for connecting to a computer 41 provided outside the camera body 10 via an interface cable. The system control circuit 35 is connected to the data recording device 43 via the recording medium control circuit 42. Therefore, the image signal read from the image memory 34 can be recorded on a recording medium M such as an IC memory card attached to the data recording device 43.
[0021]
The light emitting device 14 includes a light emitting element 14a and an illumination lens 14b, and the light emitting operation of the light emitting element 14a is controlled by a light emitting element control circuit 44. The light emitting element 14a is a laser diode (LD), and the irradiated laser light is used as distance measuring light for detecting the distance of the subject. This laser light is applied to the entire subject via the illumination lens 14b. The laser light reflected by the subject enters the photographing lens 11 and is detected by the CCD 28, whereby distance information to the subject is detected. The plurality of light emitting elements 22 a are also laser diodes, and the light emitting elements 22 a are controlled by the light emitting element control circuit 41. The laser light emitted from the light emitting element 22a is projected in a spot shape on the surface of the subject, serves as a marker representing a feature point, and is referred to when obtaining a coordinate transformation matrix.
[0022]
A switch group 45 including a release switch 15, a mode switching dial 17, and a link shooting mode setting switch 18 and a liquid crystal display panel (display element) 16 are connected to the system control circuit 35.
[0023]
Next, an outline of a three-dimensional image detection system according to an embodiment of the present invention will be described with reference to FIGS.
[0024]
FIG. 3 schematically shows a method for photographing the subject S.
The six cameras 10 a to 10 f are the cameras shown in FIGS. 1 and 2, are arranged at substantially equal intervals surrounding the subject S, and the imaging lens of each camera is directed to the subject S. Adjacent cameras are respectively connected by an interface cable 50, and the six cameras 10a to 10f form an annular network, and constitute one three-dimensional image detection system as a whole. For example, when the operator presses the link shooting mode setting switch 18 of the camera 10a to start up the link shooting mode, the link shooting mode is also started up sequentially in the cameras 10b to 10f connected by the interface cable 50. The number of cameras can be changed as necessary, but at least two cameras are required to configure the system. In the following description, the description will be made on the assumption that the link shooting mode is started by operating the link shooting mode setting switch 18 of the camera 10a.
[0025]
In each camera, distance data to the subject S is detected, and coordinate data representing a three-dimensional shape of the subject S calculated based on the distance data is based on a coordinate system based on each camera. Therefore, in order to obtain the overall coordinate data of the subject S based on a single coordinate system by synthesizing the coordinate data of the subject S based on the coordinate system based on each camera, the coordinate system based on a certain camera is different from other coordinate systems. It must be possible to convert to a coordinate system based on the camera. In the link shooting mode, link shooting for detecting a reference point to be referred to when obtaining a coordinate transformation matrix for performing this coordinate transformation is performed, and thereafter distance information to the subject and image information are detected.
[0026]
Link shooting is performed as a set of two cameras that are directly connected to each other via an interface cable 50. That is, the cameras 10a and 10b, the cameras 10b and 10c, the cameras 10c and 10d,... In link shooting, one of the two cameras irradiates a marking laser beam, and spots projected on the surface of the subject are detected by the two cameras, respectively, and used as reference points during coordinate conversion. Of the two cameras, the camera that irradiates the marking laser light is called a master camera, and the other camera is called a slave camera.
[0027]
FIG. 4 is a flowchart of a program executed in the camera 10a when the link shooting mode is set, and FIG. 5 is a flowchart of a program executed in the other cameras 10b to 10f.
[0028]
First, when the operator presses the link shooting mode setting switch 18 of the camera 10a, the camera link process of step 100 is executed in the camera 10a. In the camera link process, an initial process for controlling the cameras 10a to 10f in conjunction with each other is performed. In conjunction with the camera link process (step 100) executed in the camera 10a, the camera link process (step 200) is also executed in each of the cameras 10b to 10f. When the link (link) between the cameras is successful, that is, when it is confirmed that the power of each connected camera is set to the ON state and each camera is set to the communicable state, the camera of the camera 10a In the link process (step 100), a flag indicating that the link was successful is set.
[0029]
In step 101 of the camera 10a, it is determined by referring to the above-mentioned flag whether or not the link between the cameras is successful. If it is determined that the link has failed, a warning indicating that the link has failed is displayed on the liquid crystal display panel 16 or the like, and the setting of the link shooting mode is cancelled. Thereby, the photographing operation of the three-dimensional image detection system is completed. On the other hand, if it is determined that the link is successful, link shooting is performed using the camera 10a as a master camera in step 102, and at the same time, step 201 is executed in the camera 10b, and link shooting as a slave camera is performed. That is, link shooting is performed with the camera 10a and the camera 10b as one set. When the link shooting of the camera 10a and the camera 10b is successful, a flag indicating that the link shooting is successful is set in each of steps 102 and 201. Note that while the link shooting with the camera 10a and the camera 10b as one set is being performed, the cameras 10c to 10f are in a standby state for link shooting as described later (step 201).
[0030]
In step 103 (camera 10a) and step 202 (camera 10b), whether or not the link shooting has been successful is determined based on the above-described flags. If it is determined that link shooting has failed, the setting of the link shooting mode is canceled, and the shooting operation of the three-dimensional image detection system ends.
[0031]
On the other hand, if it is determined that the link shooting is successful, the camera 10a moves to step 104, and enters a standby state until link shooting is performed with the camera 10f as a master camera and itself as a slave camera. In the camera 10b, the process moves to step 203, and link shooting using the camera 10b as a master camera is started. At this time, in the camera 10c, the standby state in step 201 is canceled, and link shooting as a slave camera is started. That is, link shooting is performed with the camera 10b and the camera 10c as one set. If link shooting with each camera is successful, a flag indicating that link shooting has been successful is set in step 203 (camera 10b) and step 201 (camera 10c).
[0032]
In the camera 10b, in step 204, whether or not the link shooting (link shooting using the camera 10b as a master camera) is successful is performed with reference to the above flag. On the other hand, in the camera 10c, in step 202, whether or not link shooting (link shooting using the camera 10b as a master camera) is successful is performed with reference to the above-described flag. When it is determined that the link shooting has failed in the cameras 10b and 10c, the setting of the link shooting mode is cancelled, and the shooting operation of the three-dimensional image detection system ends.
[0033]
When it is determined that the link shooting is successful, the camera 10b moves to step 205 and determines whether a shooting end signal (described later) is received from the camera 10a. That is, the camera 10a waits for a shooting end signal (END) from the camera 10a. In the camera 10c, the process moves to step 203, and the standby state in step 201 of the camera 10d is released as a result of this, and link shooting with the camera 10c and the camera 10d as one set (the camera 10c is the master and the camera 10d is the master). Slave) starts. Similarly, link shooting of the camera 10d and the camera 10e, and the camera 10e and the camera 10f is performed, and all the cameras of the cameras 10b to 10e are in the standby state in step 205. That is, each camera waits for a shooting end signal from the master camera when the camera itself performs link shooting as a slave camera.
[0034]
When link shooting (step 201) as a slave camera of the camera 10f is completed successfully, the camera 10f starts link shooting (step 203) as a master camera. On the other hand, in the camera 10a, the standby state in step 104 is canceled, and link shooting as a slave camera is started. If the link shooting is successful, a flag indicating that is set in step 104 and step 203 of each of the cameras 10a and 10f, and it is determined in step 105 and step 204 whether the link shooting is successful. When it is determined that the link shooting has failed, the setting of the link shooting mode is canceled, and the shooting operation of this three-dimensional image detection system is ended.
[0035]
If it is determined that the link shooting is successful, the camera 10f moves to step 205 and waits for a shooting end signal from the camera 10e. In the camera 10a, the process proceeds to step 106, the distance information detection operation is executed, and distance data to the subject is acquired. In step 107, the image information detection operation is executed, and the image data of the subject is acquired. .
[0036]
Thereafter, in the camera 10a, a photographing end signal is output to the camera 10b in step 108, and various data (information on marking, distance data, image data, etc.) are recorded on the recording medium M in step 109. In step 110, a standby state is entered until a shooting end signal is received from the camera 10f. When the photographing end signal is received from the camera 10f, the photographing operation of the three-dimensional image detection system in the camera 10a is finished.
[0037]
The shooting end signal is a signal indicating that shooting in the distance information detection operation or the image information detection operation executed in the camera is ended. When the camera 10b receives the shooting end signal, the processing of the camera 10b, which has been waiting to receive the shooting end signal in step 205, moves to step 206 and step 207, and the distance information detection operation and the image information detection operation are executed. Then, subject distance data and image data are acquired. Thereafter, in step 208, the camera 10b outputs a photographing end signal to the camera 10c, and in step 209, the acquired various data is recorded in the recording medium M, and the photographing operation of the three-dimensional image detection system in the camera 10b is finished.
[0038]
Similarly, the distance information detection operation and the image information detection operation are performed in each camera, and a shooting end signal is output to the next camera. Various data acquired in each camera is recorded in the recording medium M, and All the photographing operations of the three-dimensional image detection system in the camera are completed. That is, the shooting end signal is sequentially output as the camera 10a, the camera 10b, the camera 10c,..., And the shooting end signal output from the camera 10f at the end is received by the camera 10a. The shooting operation of the camera ends.
[0039]
Next, the camera link process executed in step 100 and step 200 will be described with reference to FIGS.
[0040]
Table 1 shows a list of typical signals communicated between the cameras via the interface cable 50.
[Table 1]
Figure 0004315545
M represents a master camera, S represents a slave camera, and a symbol “→” represents a data transmission direction between the master camera and the slave camera. Signals used for the camera link process are a link shooting mode signal (MODE) that is a 1-bit signal and camera identification signals (C1, C2, and C3) that are 3-bit signals. The 3-bit illumination identification signals (L1, L2, L3), the 1-bit signal OK signal (OK_ACK), the NG signal (NG_ACK), and the shooting end signal (END) are used in the subsequent link shooting operation.
[0041]
FIG. 6 is a flowchart of the camera link process executed in step 100, that is, the camera 10a, and FIG. 7 is a flowchart of the camera link process executed in step 200, that is, the camera 10b to the camera 10f.
[0042]
First, in step 300, the link shooting mode (MODE) signal (transmission side) between the cameras 10a and 10b is set to high level, and in step 301, the camera identification number (transmission side) is set to 1 and to the camera 10b. Is output. Thereafter, in step 302, the timer is reset, and in step 303, it is determined whether or not the MODE signal (reception side) between the camera 10f and the camera 10a is at a high level. If it is determined that the MODE signal on the receiving side is not at a high level, it is determined in step 306 whether or not the timer has exceeded a predetermined time. If it is determined that the predetermined time has not elapsed, the process returns to step 303, and it is determined whether or not the MODE signal on the receiving side is at a high level. If it is determined in step 306 that the time of the timer has exceeded the predetermined time, the flag indicating that the camera link process is successful is reset and the process ends.
[0043]
On the other hand, if it is determined in step 303 that the MODE signal on the receiving side is at a high level, it is determined in step 304 whether or not the camera identification number on the receiving side is 1. If it is determined that the camera identification number on the receiving side is 1, the process proceeds to step 306, where it is determined whether or not the timer has exceeded a predetermined time. If it is determined in step 304 that the camera identification number on the receiving side is not 1, a flag indicating that the camera link process is successful is set in step 305, and this process ends.
[0044]
While the camera link process shown in FIG. 6 is performed in the camera 10a, the camera link process shown in FIG. 7 is performed in the cameras 10b to 10f. If it is determined in step 400 that the reception-side MODE signal is at a high level, the process proceeds to step 401, where the transmission-side MODE signal is set to a high level. For example, when the MODE signal from the camera 10a is set to the high level and the camera 10b receives the MODE signal, the camera 10b sets the MODE signal to the camera 10c to the high level. In step 402, the received camera identification number n plus 1 is set as the camera identification number on the transmission side and output to the next camera. For example, the camera 10b receives the camera identification number 1 from the camera 10a and outputs the camera identification number 2 to the camera 10c. That is, the six cameras 10a to 10f correspond to the camera identification numbers 1, 2,.
[0045]
FIG. 8 shows the sequence of the rise and fall of the MODE signal between the cameras. 8A shows a camera 10a and a camera 10b, FIG. 8B shows a camera 10b and a camera 10c, FIG. 8C shows a camera 10c and a camera 10d, FIG. 8D shows a camera 10d and a camera 10e, FIG. 8E shows the sequence of the rise and fall of the MODE signal between the camera 10e and the camera 10f, and FIG. 8F shows the MODE signal between the camera 10f and the camera 10a. By setting the MODE signal on the transmission side in step 300 to a high level, the MODE signal between the camera 10a and the camera 10b is set to a high level in SH1. The camera 10b that has received the high-level MODE signal sets the MODE signal between the camera 10b and the camera 10c to the high level in SH2. In this way, the MODE signal between the cameras is sequentially set to the high level, and in SH6, the MODE signal between all the cameras is set to the high level.
[0046]
On the other hand, each camera constantly monitors the MODE signal on the receiving side by interrupt processing. When the MODE signal on the receiving side is set to a low level, the camera executes it after setting the MODE signal on its transmitting side to a low level. Forcibly terminate each shooting operation. For example, when the camera 10a sets the transmission-side MODE signal to the low level in SL1, the camera 10b that detects this also forcibly terminates the photographing operation after setting the transmission-side MODE signal to the low level in SL2. Similarly, the cameras 10c to 10f set their MODE signals to low level and forcibly end their own photographing operation. Therefore, in SL6, the photographing operation shown in the flowcharts of FIGS. 4 and 5 is completed for all cameras. Since the monitoring of the MODE signal on the receiving side is always performed in all cameras, if any camera sets the MODE signal on the transmitting side to a low level, the MODE signal of each camera is sequentially set to a low level. The shooting operation of all the cameras can be ended in the same manner as when the MODE signal on the transmission side of the camera 10a is set to the low level.
[0047]
FIG. 9 shows an example of the camera identification signal output in step 301 and step 402. FIG. 9A shows a camera identification signal output from the camera 10a to the camera 10b. FIGS. 9B and 9C output the camera 10b to the camera 10c and the camera 10c to the camera 10d. The camera identification signals to be displayed are respectively shown.
[0048]
The camera identification signals C1, C2, and C3 correspond to the three-digit binary numbers, C1 corresponds to the first digit, C2 corresponds to the second digit, and C3 corresponds to the third digit. Therefore, in FIG. 9A in which camera identification number 1 (01 in binary notation) is output, a pulse signal is output to the camera identification signal C1 substantially simultaneously with the MODE signal on the transmission side being set to a high level. . Similarly, in FIG. 9B in which the camera identification number 2 (10 in binary notation) is output, a pulse signal is output to the camera identification signal C2 almost simultaneously with the MODE signal being set to the high level. In FIG. 9C, which outputs camera identification number 3 (11 in binary notation), pulse signals are output to the camera identification signals C1 and C2 substantially simultaneously with the MODE signal being set to a high level. .
[0049]
Next, with reference to FIGS. 10 to 12, the link shooting with the master camera and the link shooting with the slave camera executed in steps 102, 203 and 104, and 201 in FIGS. 4 and 5 will be described.
[0050]
FIG. 10 is a flowchart of the link shooting operation executed in the master camera. First, in step 500 and step 501, variables M and L are initialized to 0 and 1, respectively. The variable M corresponds to the number of spots detected by the link shooting operation. The variable L is an illumination identification number, which is a number corresponding to each of the light emitting elements 22 provided in the camera. For example, in FIG. 1, each light emitting element 22 corresponds to 1, 2,..., 6 in order from the top light emitting element 22 in the clockwise direction.
[0051]
In step 502, the camera identification number is output to the slave camera. In step 503, laser light is emitted from the light emitting element 22 having the illumination identification number L toward the subject, and the illumination identification number L of the emitted light emitting element 22 is sent to the slave camera. The illumination identification number L is transmitted to the slave camera by 3-bit illumination identification signals L1, L2, and L3, similarly to the camera identification number.
[0052]
In step 504, it is determined whether an OK_ACK signal from the slave camera is received. The OK_ACK signal is a signal sent from the slave camera to the master camera when a spot by the marking laser light emitted from the light emitting element 22 is detected by the slave camera. If it is determined that the OK_ACK signal has not been received, it is determined in step 505 whether an NG_ACK signal from the slave camera has been received. The NG_ACK signal is a signal sent from the slave camera to the master camera when a spot due to the marking laser light emitted from the light emitting element 22 is not detected by the slave camera. If it is determined that the NG_ACK signal has not been received, the process returns to step 504 again to determine whether an OK_ACK signal has been received.
[0053]
If it is determined in step 505 that the NG_ACK signal has been received, in step 506, the illumination identification number L is the maximum value L.maxWhether or not is equal. Since the number of the light emitting elements 22 of the camera of this embodiment is 6, Lmax= 6. L = LmaxIf not, in step 507, 1 is added to the illumination identification number L, the process returns to step 502, and laser light irradiation from the next light emitting element 22 is performed.
[0054]
On the other hand, if it is determined in step 504 that the OK_ACK signal has been received, 1 is added to the variable M in step 508. In step 509, spot position recognition processing for recognizing the position (pixel position) on the screen of the spot formed on the subject surface by the laser beam with the illumination identification number L is performed. Thereafter, the position of the spot recognized as the illumination identification number L in step 510 is temporarily stored in the image memory 34.
[0055]
In step 511, it is determined whether or not the variable M is 3. When it is determined that M ≠ 3, in step 506, L = LmaxIs determined. On the other hand, if it is determined in step 511 that M = 3, a flag indicating that link shooting has been successful is set in step 512, and the subroutine of the link shooting operation in the master camera ends. In step 506, L = LmaxIf it is determined that the link photographing is successful, the flag indicating that the link photographing is successful is reset and the MODE signal is set to the low level, and the subroutine of the link photographing operation in the master camera is completed.
[0056]
On the other hand, the subroutine of the link shooting operation in the slave camera is shown in the flowchart of FIG.
[0057]
In step 600, the value of variable M representing the number of detected spots is initialized to zero. In step 601, it is determined whether a camera identification signal (camera identification number) from the master camera has been received. If it is determined that a camera identification signal has been received, an illumination identification signal (illumination identification number L) is determined in step 602. It is determined whether or not is received. When the illumination identification signal is received, in step 603, spot position recognition processing for recognizing the position of the spot on the CCD 28 screen by the laser light emitted from the illumination identification number L of the master camera is performed. In step 603, when the spot position is recognized, a flag indicating that the spot position has been recognized is set. In other cases, the flag is reset.
[0058]
In step 604, whether or not the position of the spot by the light emitting element 22 with the illumination identification number L has been recognized in the spot position recognition processing in step 603 is determined by a flag indicating that the spot position has been recognized. If it is determined that the spot position has not been recognized, an NG_ACK signal is transmitted to the master camera in step 605. Thereafter, the illumination identification number L received in step 606 is LmaxIf it is determined that they are not equal to each other, the process returns to step 601 again.
[0059]
On the other hand, if it is determined in step 604 that the position of the spot with the illumination identification number L is recognized, 1 is added to the variable M in step 608, and then an OK_ACK signal is transmitted to the master camera in step 609. Thereafter, the position of the spot recognized as the illumination identification number in step 610 is stored in the image memory 34. In step 611, it is determined whether or not the variable M is 3. If it is determined that M = 3, a flag indicating that the link shooting has been successful is set in step 612, and the subroutine of the link shooting operation in this slave camera ends. If it is determined in step 611 that M ≠ 3, the process proceeds to step 606. In step 606, L = LmaxIn step 607, the flag indicating that link shooting in the slave camera is successful is reset, and the subroutine of link shooting operation in the slave camera ends.
[0060]
Next, the spot position recognition process in steps 509 and 603 will be described with reference to FIG. FIG. 12 is a flowchart of a subroutine of spot position recognition processing.
[0061]
In step 700, pixel value binarization processing is performed. That is, when the i-th pixel from the left and the j-th pixel from the top in the CCD 28 are represented by (i, j), 1 if the pixel value ρ (i, j) is greater than or equal to the threshold Γ in the pixel (i, j). If it is smaller than Γ, 0 is made to correspond. The function B (ρ (i, j)) represents such a binarization function. At this time, the pixel where B (ρ (i, j)) = 1 corresponds to one of the pixels constituting the spot.
[0062]
In step 701, the sum SM of B (i, j), B (i, j) × i, B (i, j) × j.B, SMi, SMjIs required. In step 702, SMBIt is determined whether = 0. SMBIf it is determined that ≠ 0, the process proceeds to step 703, where the centroid (i of the spot formed by the pixels where B (ρ (i, j)) = 1 (i0, J0) As the spot position. The centroid (i0, J0) Is a function that rounds off a numerical value, Int,
i0= Int (SMi/ SMB)
j0= Int (SMj/ SMB)
Is calculated by
[0063]
In step 704, a flag indicating that the spot position has been recognized is set, and the subroutine ends. On the other hand, in step 702, SMBIs determined to be 0, in step 705, the flag indicating that the spot position has been recognized is reset, and this subroutine ends.
[0064]
FIG. 13 illustrates a sequence of signals when link shooting is performed using the camera 10a as a master camera and the camera 10b as a slave camera.
[0065]
At T1, the camera identification number 1 and the camera identification signal corresponding to the illumination identification number 1 and the illumination identification signal are output almost simultaneously from the camera 10a to the camera 10b. That is, only the camera identification signal C1 and the illumination identification signal L1 are output as pulse signals. At T <b> 1 ′, an OK_ACK signal is output as a pulse signal from the camera 10 b to the camera 10 a to notify the camera 10 a that is a master camera that a spot with the illumination identification number 1 has been detected.
[0066]
At T2, the camera identification number 1 is output again, and the illumination identification signal corresponding to the illumination identification number 2 is output substantially simultaneously. That is, only the camera identification signal C1 and the illumination identification signal L2 are output as pulse signals. At T2 ', an NG_ACK signal is output as a pulse signal from the camera 10b to the camera 10a to notify the camera 10a, which is the master camera, that a spot with the illumination identification number 2 has not been detected. Similarly, at T3, T4, T5, and T6, an illumination identification signal represented by 3 bits corresponding to the illumination identification numbers 3, 4, 5, and 6 is sent from the master camera to the slave camera, and T3 ′, T4 ′, At T5 ′ and T6 ′, an OK_ACK signal, an NG_ACK signal, an NG_ACK signal, and an OK_ACK signal are sent from the slave camera to the master camera, respectively. Therefore, in this link shooting operation, since three spots are recognized (detected) by the camera 10b as the slave camera, a flag indicating that the link shooting has been successful is set.
[0067]
When three spots are recognized in each camera by the above method, subject coordinate data represented in a single coordinate system can be obtained from the subject distance data detected in each camera, for example, The fact that all link photographing has been successful is displayed on the liquid crystal display panel 16 of the camera 10a.
[0068]
Next, the distance information detection operation executed in steps 106 and 206 in FIGS. 4 and 5 will be described.
[0069]
First, the principle of distance measurement in this embodiment will be described with reference to FIGS. In FIG. 15, the horizontal axis is time t.
[0070]
The distance measuring light output from the distance measuring device B is reflected by the subject S and received by a CCD (not shown). The distance measuring light is pulsed light having a predetermined pulse width H. Therefore, the reflected light from the subject S is also pulsed light having the same pulse width H. The rising edge of the reflected light pulse is delayed by a time δ · t (where δ is a delay coefficient) from the rising edge of the ranging light pulse. Since the distance measuring light and the reflected light have traveled a distance r twice that between the distance measuring device B and the subject S, the distance r is
r = δ · t · C / 2 (1)
Is obtained. However, C is the speed of light.
[0071]
For example, when the reflected light is detected from the rising edge of the ranging light pulse and switched to the undetectable state before the reflected light pulse falls, that is, when the reflected light detection period T is provided, The received light amount A in the reflected light detection period T is a function of the distance r. That is, the received light amount A decreases as the distance r increases (the time δ · t increases).
[0072]
In the present embodiment, by utilizing the above-described principle, each point on the surface of the subject S is detected from the camera body 10 by detecting the received light amount A in each of a plurality of photodiodes provided in the CCD 28 and two-dimensionally arranged. 3D image data relating to the surface shape of the subject S are input in a lump.
[0073]
FIG. 16 is a diagram showing the arrangement of the photodiodes 51 and the vertical transfer units 52 provided in the CCD 28. FIG. 17 is a cross-sectional view showing the CCD 28 cut along a plane perpendicular to the substrate 53. The CCD 28 is a conventionally known interline CCD, and uses a VOD (vertical overflow drain) system for sweeping out unnecessary charges.
[0074]
The photodiode 51 and the vertical transfer portion 52 are formed along the surface of the n-type substrate 53. The photodiodes 51 are two-dimensionally arranged in a grid pattern, and the vertical transfer units 52 are provided adjacent to the photodiodes 51 arranged in a line in a predetermined direction (vertical direction in FIG. 16). The vertical transfer unit 52 has four vertical transfer electrodes 52 a, 52 b, 52 c, 52 d for one photodiode 51. Therefore, in the vertical transfer section 52, wells with four potentials can be formed, and signal charges can be output from the CCD 28 by controlling the depths of these wells as is conventionally known. The number of vertical transfer electrodes can be freely changed according to the purpose.
[0075]
A photodiode 51 is formed in a p-type well formed on the surface of the substrate 53, and the p-type well is completely depleted by a reverse bias voltage applied between the p-type well and the n-type substrate 53. In this state, charges corresponding to the amount of incident light (reflected light from the subject) are accumulated in the photodiode 51. When the substrate voltage Vsub is increased to a predetermined value or more, the charge accumulated in the photodiode 51 is swept out to the substrate 53 side. On the other hand, when a charge transfer signal (voltage signal) is applied to the transfer gate portion 54, the charge accumulated in the photodiode 51 is transferred to the vertical transfer portion 52. That is, after the charge is swept to the substrate 53 side by the charge sweep signal, the signal charge accumulated in the photodiode 51 is transferred to the vertical transfer unit 52 side by the charge transfer signal. By repeating such an operation, the signal charges are integrated in the vertical transfer unit 52, and a so-called electronic shutter operation is realized.
[0076]
FIG. 18 is a timing chart in the distance information detection operation, and the distance information detection operation in this embodiment will be described with reference to FIGS. 1, 2, and 16 to 18. In the distance information detection operation of the present embodiment, unlike the description of the principle of distance measurement performed with reference to FIG. 15, the distance information is reflected from the falling edge of the distance measuring light pulse in order to reduce noise due to the influence of external light. Although the timing chart is configured so that the light can be detected and switched to an undetectable state after the reflected light pulse falls, there is no difference in principle.
[0077]
A charge sweep signal (pulse signal) S1 is output in synchronization with the output of a vertical synchronization signal (not shown), whereby unnecessary charges stored in the photodiode 51 are swept in the direction of the substrate 53, and the photodiode The accumulated charge amount at 51 becomes zero (reference S2). After the start of the output of the charge sweep signal S1, pulsed ranging light S3 having a constant pulse width is output. The period (pulse width) during which the ranging light S3 is output can be adjusted, and in the illustrated example, the ranging light S3 is adjusted to be turned off simultaneously with the output of the charge sweep signal S1.
[0078]
The distance measuring light S <b> 3 is reflected by the subject and enters the CCD 28. That is, the reflected light S4 from the subject is received by the CCD 28, but no charge is accumulated in the photodiode 51 while the charge sweep signal S1 is being output (reference S2). When the output of the charge sweep signal S1 is stopped, the photodiode 51 starts to accumulate charges by receiving the reflected light S4, and a signal charge S5 caused by the reflected light S4 and external light is generated. When the reflected light S4 is extinguished (reference S6), in the photodiode 51, the charge accumulation based on the reflected light ends (reference S7), but the charge accumulation caused only by the external light continues (reference S8).
[0079]
Thereafter, when the charge transfer signal S9 is output, the charges accumulated in the photodiode 51 are transferred to the vertical transfer unit 52. This charge transfer is completed when the output of the charge transfer signal ends (reference S10). That is, the charge accumulation is continued in the photodiode 51 due to the presence of external light, but the signal charge S11 accumulated in the photodiode 51 is transferred to the vertical transfer unit 52 until the output of the charge transfer signal is completed. The charge S14 accumulated after the completion of the output of the charge transfer signal remains in the photodiode 51 as it is.
[0080]
Thus, the period T from the end of the output of the charge sweep signal S1 to the end of the output of the charge transfer signal S9.U1In the meantime, the signal charge corresponding to the distance to the subject is accumulated in the photodiode 51. Then, the charges accumulated in the photodiode 51 until the reception of the reflected light S4 (symbol S6) is transferred to the vertical transfer unit 52 as a signal charge S12 (shaded portion) corresponding to the distance information of the subject, and other signals. The charge S13 is caused only by outside light.
[0081]
After a predetermined time has elapsed from the output of the charge transfer signal S9, the charge sweep signal S1 is output again, and unnecessary charges accumulated in the photodiode 51 after the transfer of the signal charge to the vertical transfer unit 52 are swept in the direction of the substrate 53. Is issued. That is, signal charge accumulation is newly started in the photodiode 51. Then, as described above, the charge accumulation period TU1When elapses, the signal charge is transferred to the vertical transfer unit 52.
[0082]
The transfer operation of the signal charge S11 to the vertical transfer unit 52 is repeatedly executed until the next vertical synchronization signal is output. As a result, in the vertical transfer unit 52, the signal charge S11 is integrated, and the signal charge S11 integrated in a period of one field (a period sandwiched between two vertical synchronization signals) is considered that the subject is stationary during that period. If possible, it corresponds to distance information to the subject. Since the signal charge S13 is minute compared to the signal charge S12, the signal charge S11 can be regarded as being equal to the signal charge S12.
[0083]
The detection operation of the signal charge S11 described above relates to one photodiode 51, and such a detection operation is performed in all the photodiodes 51. As a result of the detection operation in the period of one field, distance information detected by the photodiode 51 is held in each part of the vertical transfer unit 52 adjacent to each photodiode 51. This distance information is output from the CCD 28 by a vertical transfer operation in the vertical transfer unit 52 and a horizontal transfer operation in a horizontal transfer unit (not shown).
[0084]
FIG. 19 is a flowchart of the distance information detection operation executed in step 106 of FIG. 4 and step 206 of FIG. The distance information detection operation will be described with reference to FIG. The distance information detection operation can be driven independently by setting the mode switching dial 17 to the D mode. At this time, the distance information detection operation is independently performed in the camera without interlocking with other cameras.
[0085]
In step 801, a vertical synchronizing signal is output and ranging light control is started. That is, the light emitting device 14 is driven, and the pulsed ranging light S3 is intermittently output. Next, step 802 is executed, and detection control by the CCD 28 is started. That is, the distance information detection operation described with reference to FIG. 18 is started, the charge sweep signal S1 and the charge transfer signal S9 are alternately output, and the signal charge S11 of the distance information is integrated in the vertical transfer unit 52.
[0086]
In step 803, it is determined whether one field period has ended since the start of the distance information detection operation, that is, whether a new vertical synchronization signal has been output. When one field period is completed, the process proceeds to step 804, and the signal charge of the distance information integrated in the vertical transfer unit 52 is output from the CCD 28. This signal charge is temporarily stored in the image memory 34 in step 805.
[0087]
In step 806, the distance measuring light control is switched to the off state, and the light emitting operation of the light emitting device 14 is stopped. In step 807, distance data calculation processing is performed. In step 808, the distance data is temporarily stored in the image memory 34, and this subroutine ends.
[0088]
Next, the contents of the arithmetic processing executed in step 807 will be described with reference to FIG.
[0089]
Assume that a subject having a reflectance R is illuminated and this subject is regarded as a secondary light source having luminance I and is imaged on a CCD. At this time, the output Sn obtained by integrating the charge generated in the photodiode during the charge accumulation time t is:
Sn = k · R · I · t (2)
It is represented by Here, k is a proportional constant, which varies depending on the F number of the photographing lens, the magnification, and the like.
[0090]
As shown in FIG.U1, The pulse width of the distance measuring light S3 is TS, The pulse width of the signal charge S12 of the distance information is TDIf the charge accumulation time during one field period is repeated N times, the output SM obtainedTenIs
Figure 0004315545
It becomes. Pulse width TDIs
Figure 0004315545
It can be expressed. At this time, the distance r to the subject is
r = C · SMTen/ (2 ・ k ・ N ・ R ・ I) (5)
It can be expressed as Therefore, if the proportionality constant k, the reflectance R, and the luminance I are obtained in advance, the distance r can be obtained.
[0091]
Next, the image information detection operation executed in steps 107 and 207 in FIGS. 4 and 5 will be described with reference to FIG. Note that the image information detection operation can also be driven independently by setting the mode switching dial 17 to the V mode, similarly to the distance information detection operation. That is, in the camera in which the mode switching dial 17 is set to the V mode, the distance information detection operation is performed independently without interlocking with other cameras.
[0092]
In step 901, the normal photographing operation (CCD video control) by the CCD 28 is set to the on state, and an image of the same subject as the subject imaged in the distance information detection operation is captured and detected as image data. The detected image data is temporarily stored in the image memory 34 in step 902, and this subroutine ends.
[0093]
Through the above-described photographing operation of the three-dimensional image detection system, the data acquired in the cameras 10a to 10f is transferred to the computer 41 and synthesized. Data transfer from the camera to the computer is performed by loading the recording medium M of each camera into a data reading device 46 (see FIG. 2) provided in the computer 41 and reading it into the computer, or an interface cable connected to the interface connector 21c. To the computer 41.
[0094]
Next, referring to FIGS. 21 to 26, coordinates representing the overall three-dimensional shape of the subject from the distance data to the subject detected by each camera using the three spots detected by the link photographing operation. A method for obtaining data will be described.
[0095]
First, a method for calculating the coordinate value of a subject in a coordinate system based on each camera from distance data to the subject detected by each camera will be described.
[0096]
FIG. 21 shows the focal point P in the photographing optical system of the camera.fThe relationship between the camera coordinate system xyz with the coordinate origin, the arbitrary point P (pixel) on the CCD 28, and the corresponding point Q on the subject surface is schematically shown. The y-axis coincides with the optical axis Lp, the z-axis is taken in parallel with the vertical axis of the CCD 28, and the direction is upward. The x axis is parallel to the horizontal axis of the CCD 28. Point PcIs the intersection of the light receiving surface of the CCD 28 and the optical axis Lp, and coincides with the center of the light receiving surface. The point Q is a point on the subject corresponding to the pixel of the point P on the CCD 28, and its coordinates are (xQ, YQ, ZQ). The plane plane is a plane parallel to the CCD 28 including the point Q. Point QCIs the intersection of the optical axis Lp (y-axis) and the plane 、, and its coordinates are (0, yQ, 0).
[0097]
FIG. 22 is a front view of the light receiving surface of the CCD 28. The horizontal and vertical lengths of the CCD 28 are each 2 × H02 x V0It is. The point P is the center P of the CCD 28CFrom left to leftP, Up VPIs in the distance. Point PHIs the horizontal axis L of the CCD 28 from the point PHIt is the leg of the perpendicular line. Point PVIs the vertical axis L of the CCD 28 from the point PVIt is the leg of the perpendicular line.
[0098]
FIG. 23 shows the focal point P.fAnd focus on the relationship between CCD 28fAnd the horizontal axis L of the CCD 28HIs expressed on a plane including the angle Θ0Is a horizontal angle of view, and f is a focal length. Line segment PfPHIs the angle formed by the optical axis LpPThen the angle ΘPIs
ΘP= Tan-1(Hp/ F) (6)
Sought by.
[0099]
FIG. 24 shows the focal point P.fAnd focus on the relationship between CCD 28fAnd the vertical axis L of the CCD 28VThe angle θ0Is the vertical angle of view. Line segment PfPVIs the angle formed by the optical axis Lp with θPThen the angle θPIs
θP= Tan-1(Vp/ F) (7)
Sought by.
[0100]
Focus PfLine segment P connecting point and point PfThe length of P is the line segment PfPHAnd line segment PCPVFrom the length of
PfP = (PfPH 2+ PCPV 2)1/2                  ... (8)
Sought by. Here, P in equation (8)fPH, PCPVIs
PCPV= VP,
PfPH= F / cos ΘP
So,
PfP = ((f / cos ΘP)2+ VP 2)1/2            ... (9)
It can be expressed as.
[0101]
Line segment PfQ length and line segment PfP length ratio PfP / PfWhen Q is μ, the coordinate component x of the point QQ, YQ, ZQIs
xQ= HP/ Μ (10)
yQ= VP/ Μ (11)
zQ= F / μ (12)
Is calculated by Focal length f and distance H to point P corresponding to any pixel of CCD 28P, VPIs known. Line segment PfThe length of Q is the focal point PfTo the point Q of the subject corresponding to the point P, and the focal length f is known, and can be calculated using the result of the arithmetic processing in step 807. The point P represents one pixel of the CCD 28, and the above calculation is possible for all the pixels of the CCD 28, and the coordinates of the subject (point Q) corresponding to all the pixels (point P) ( xQ, YQ, ZQ) Is calculated.
[0102]
Next, based on the three spots as reference points, a coordinate system x'y'z 'based on a certain camera (slave camera) is used as a reference for a camera (master camera) paired in link shooting. A method of converting to the coordinate system xyz will be described.
[0103]
25 and 26 show images taken by a camera placed in front of the human head model and a camera placed diagonally to the left of the model. FIG. 25 shows an image taken by the master camera, and FIG. Each corresponds to an image taken by a slave camera.
[0104]
Three spots Sp in FIG.1, Sp2, SpThreeIs the three spots Sp in FIG.1', Sp2', SpThreeThe same spot is taken from two different directions corresponding to '. 3 spots Sp in the coordinate system xyz1, Sp2, SpThreeCoordinates (position vector) of (x1, Y1, Z1), (X2, Y2, Z2), (XThree, YThree, ZThree) And three spots Sp in the coordinate system x'y'z '1', Sp2', SpThreeThe coordinates of ‘1', Y1', Z1’), (X2', Y2', Z2’), (XThree', YThree', ZThree′). These coordinates can be calculated by the method described with reference to FIGS.
[0105]
The coordinate transformation from the coordinate system x'y'z 'to the coordinate system xyz is orthogonal transformation (rotation) T when the parallel movement is represented by (Δx, Δy, Δz).rBy
[Expression 1]
Figure 0004315545
It can be done like this. Orthogonal transformation TrComponent αijCan be obtained from the coordinate values of three spots as reference points as follows.
[0106]
Sp1To Sp2, Sp2To SpThree, SpThreeTo Sp1The displacement vector to
ΔSp1= (X2-X1, Y2-Y1, Z2-Z1)
ΔSp2= (XThree-X2, YThree-Y2, ZThree-Z2)
ΔSpThree= (X1-XThree, Y1-YThree, Z1-ZThree)
And Sp1'To Sp2', Sp2'To SpThree', SpThree'To Sp1The displacement vector to ‘
ΔSp1′ = (X2'-X1', Y2'-Y1', Z2'-Z1’)
ΔSp2′ = (XThree'-X2', YThree'-Y2', ZThree'-Z2’)
ΔSpThree′ = (X1'-XThree', Y1'-YThree', Z1'-ZThree’)
Then the displacement vector is invariant with respect to the parallel movement of the coordinate system,
[Expression 2]
Figure 0004315545
Thus, the orthogonal transformation TrComponent αijCan be requested. Further, the parallel movement (Δx, Δy, Δz) is calculated by the obtained orthogonal transformation TrAnd, for example, Sp1(Sp1‘) From the coordinate value
[Equation 3]
Figure 0004315545
Is required.
[0107]
As described above, the coordinate data of the subject obtained in the coordinate system based on a certain slave camera can be converted into the coordinate system based on the master camera. Since each camera is a master camera for one of the adjacent cameras and a slave camera for the other, it is represented in a coordinate system based on an arbitrary camera by repeatedly executing the coordinate transformation required for each group. The coordinate values of the subject can be converted into a coordinate system based on a predetermined camera. Therefore, the overall three-dimensional shape of the subject can be represented by a single coordinate system.
[0108]
In the present embodiment, the determination as to whether or not the three spots (reference points) are recognized by both the master camera and the slave camera is performed during the link shooting operation. However, it is possible to determine whether or not three or more identical spots are recognized by causing all six light emitting elements 22 to emit light in advance, and a mode for that purpose may be provided in each camera. In this embodiment, the spot is projected on the surface of the subject that is the object of photographing. However, the spot may be projected on the surface of the undesired subject that exists in the vicinity of the subject of interest and is in the photographing area. .
[0109]
In this embodiment, three spots are recognized as reference points for coordinate conversion. However, four or more spots that are not linear may be recognized, and four or more spots recognized at this time may be recognized. May be used to calculate the coordinate transformation formula with higher accuracy.
[0110]
【The invention's effect】
As described above, according to the present invention, a three-dimensional image detection system for photographing a subject from a plurality of directions and synthesizing coordinate data representing the three-dimensional shape of the subject obtained by each photographing into one coordinate system and 3 A two-dimensional image detection apparatus can be obtained.
[Brief description of the drawings]
FIG. 1 is a perspective view of a camera-type three-dimensional image detection apparatus according to an embodiment of the present invention.
2 is a block diagram showing a circuit configuration of the camera shown in FIG. 1. FIG.
FIG. 3 is a diagram schematically illustrating a configuration of a three-dimensional image detection system.
FIG. 4 is a flowchart of a program for photographing operation of the three-dimensional image detection system executed in the master camera.
FIG. 5 is a flowchart of a shooting operation program of a 3D image detection system executed in a slave camera.
FIG. 6 is a flowchart of a camera link processing program executed in the camera that first starts up the link shooting mode.
7 is a flowchart of a camera link processing program executed in a camera other than the camera of FIG. 6;
FIG. 8 shows the sequence of the rise and fall of the MODE signal between the cameras.
FIG. 9 illustrates a transmission state of a camera identification signal.
FIG. 10 is a flowchart of a link shooting operation program executed in the master camera.
FIG. 11 is a flowchart of a link shooting operation program executed in the slave camera.
FIG. 12 is a flowchart of a program for spot position recognition processing;
FIG. 13 is a sequence of signals output at the time of link shooting.
FIG. 14 is a diagram for explaining the principle of distance measurement using distance measuring light.
FIG. 15 is a diagram showing a light amount distribution received by ranging light, reflected light, gate pulse, and CCD.
FIG. 16 is a diagram illustrating an arrangement of photodiodes and vertical transfer units provided in a CCD.
FIG. 17 is a cross-sectional view showing a CCD cut along a plane perpendicular to the substrate.
FIG. 18 is a timing chart of a distance information detection operation for detecting data related to a distance to a subject.
FIG. 19 is a flowchart of a distance information detection operation.
FIG. 20 is a flowchart of an image information detection operation.
FIG. 21: Focus PfIs a diagram schematically showing the relationship between a camera coordinate system xyz with the coordinate origin, an arbitrary point P on the CCD 28, and a corresponding point Q on the subject surface.
22 is a front view of the CCD 28. FIG.
23 is a horizontal sectional view showing the relationship between the focal point and the CCD 28 in the photographing optical system of the camera. FIG.
24 is a vertical sectional view showing the relationship between the focal point and the CCD 28 in the photographing optical system of the camera. FIG.
FIG. 25 shows an image when a human head model is photographed from the front.
FIG. 26 shows an image when a human head model is photographed from diagonally left front.
[Explanation of symbols]
10 Camera body (3D image detector)
22 Light emitting device (spot light emitting device)
22a Light emitting element (spot light emitting element)
28 CCD (imaging surface)

Claims (16)

被写体までの距離情報を画素毎に検出する第1及び第2の3次元画像検出装置を備えた3次元画像検出システムであって、
前記第1及び第2の3次元画像検出装置の少なくとも一方に設けられ、非直線状に配列する3つ以上の光のスポットを前記被写体に投影するスポット光発光装置と、
前記第1及び第2の3次元画像検出装置の双方に設けられ、投影された前記光のスポットが結像する撮像面上の位置を検出するスポット位置認識手段と、
前記第1及び第2の3次元画像検出装置の少なくとも一方に設けられ、前記第1及び第2の3次元画像検出装置の撮像面にそれぞれ結像された光のスポットの間における対応関係を認識する対応関係認識手段とを備え、
前記第1及び第2の3次元画像検出装置の各撮像面において前記スポット位置認識手段により少なくとも3つ以上のスポットが検出される
ことを特徴とする3次元画像検出システム。
A three-dimensional image detection system including first and second three-dimensional image detection devices that detect distance information to a subject for each pixel,
A spot light emitting device that is provided on at least one of the first and second three-dimensional image detection devices and projects three or more light spots arranged in a non-linear manner onto the subject;
Spot position recognition means provided in both the first and second three-dimensional image detection devices, for detecting a position on the imaging surface where the projected spot of the light forms an image;
Recognizing correspondence between light spots formed on at least one of the first and second three-dimensional image detection devices and imaged on the imaging surfaces of the first and second three-dimensional image detection devices, respectively. Corresponding relationship recognition means,
A three-dimensional image detection system, wherein at least three spots are detected by the spot position recognition means on each imaging surface of the first and second three-dimensional image detection devices.
前記スポット光発光装置が照射する光が、レーザ光線であることを特徴とする請求項1に記載の3次元画像検出システム。  The three-dimensional image detection system according to claim 1, wherein the light emitted from the spot light emitting device is a laser beam. 前記スポット光発光装置が3個以上のスポット光発光素子を備え、前記光のスポットがそれぞれ異なるスポット光発光素子から投射される光によるものであることを特徴とする請求項1に記載の3次元画像検出システム。  2. The three-dimensional image according to claim 1, wherein the spot light emitting device includes three or more spot light emitting elements, and the light spots are generated by light projected from different spot light emitting elements. Image detection system. 前記スポット光発光素子が前記3次元画像検出装置の鏡筒の縁周りに円環状に等間隔で配置されることを特徴とする請求項3に記載の3次元画像検出システム。  4. The three-dimensional image detection system according to claim 3, wherein the spot light emitting elements are arranged in an annular shape at equal intervals around an edge of a lens barrel of the three-dimensional image detection apparatus. 前記対応関係認識手段が、前記各スポット光発光素子を1個づつ発光させることにより、前記第1及び第2の3次元画像検出装置において検出される光のスポットの間における対応関係を認識することを特徴とする請求項3に記載の3次元画像検出システム。  The correspondence recognition means recognizes the correspondence between the light spots detected in the first and second three-dimensional image detection devices by causing the spot light emitting elements to emit light one by one. The three-dimensional image detection system according to claim 3. 前記第1及び第2の3次元画像検出装置が、
前記第1及び第2の3次元画像検出装置間において通信を行なうための通信手段を備え、前記スポット光発光装置が備えられた前記第1又は第2の3次元画像検出装置が、前記各スポット光発光素子を1個づつ発光させるとともに前記各スポット光発光素子を識別するための発光素子識別コードを前記通信手段によりもう一方の3次元画像検出装置に送信し、前記対応関係識別手段が前記発光素子識別コードにより前記各3次元画像検出装置において検出される光のスポットの間における対応関係を認識する
ことを特徴とする請求項5に記載の3次元画像検出システム。
The first and second three-dimensional image detection devices are
The first or second three-dimensional image detection device provided with communication means for performing communication between the first and second three-dimensional image detection devices, and provided with the spot light emitting device, each of the spots. The light emitting element is caused to emit light one by one and a light emitting element identification code for identifying each spot light emitting element is transmitted to the other three-dimensional image detection device by the communication means, and the correspondence relation identifying means is configured to emit the light emission. The three-dimensional image detection system according to claim 5, wherein a correspondence relationship between light spots detected by each of the three-dimensional image detection devices is recognized by an element identification code.
前記スポット光発光装置を備えない3次元画像装置の前記スポット位置認識手段において、投影された光のスポットが検出されない場合に検出されないことを知らせるための信号を、光のスポットが検出された場合に検出されたことを知らせるための信号を、前記スポット光発光装置を備えた3次元画像検出装置に送信することにより、前記光のスポットが前記スポット光発光装置を備えない3次元画像検出装置において3つ以上検出されたか否かを前記第1の3次元画像検出装置において判定可能であることを特徴とする請求項6に記載の3次元画像検出システム。  In the spot position recognition means of the three-dimensional image device not provided with the spot light emitting device, a signal for notifying that a projected light spot is not detected is detected when a light spot is detected. In the three-dimensional image detection apparatus in which the spot of light is not provided with the spot light emitting device, a signal for notifying that the light is detected is transmitted to the three-dimensional image detection device provided with the spot light emitting device. The three-dimensional image detection system according to claim 6, wherein the first three-dimensional image detection apparatus can determine whether or not two or more are detected. N台の3次元画像検出装置を備えた3次元画像検出システムにおいて、
全ての3次元画像検出装置の各々は、少なくとも他の1つの3次元画像検出装置と対として用いられ、一対の3次元画像検出装置の一方が前記第1の3次元画像検出装置として機能し、他方が前記第2の3次元画像検出装置として機能する
ことを特徴とする請求項1に記載の3次元画像検出システム。
In a 3D image detection system including N 3D image detection devices,
Each of all the three-dimensional image detection devices is used as a pair with at least one other three-dimensional image detection device, and one of the pair of three-dimensional image detection devices functions as the first three-dimensional image detection device, The other functions as the second three-dimensional image detection apparatus. The three-dimensional image detection system according to claim 1, wherein
前記N台の3次元画像検出装置を備えた3次元画像検出システムの1回の駆動において、全ての3次元画像検出装置が1回だけ前記第1及び第2の3次元画像装置として機能することを特徴とする請求項8に記載の3次元画像検出システム。  In a single drive of a three-dimensional image detection system including the N three-dimensional image detection devices, all the three-dimensional image detection devices function as the first and second three-dimensional image devices only once. The three-dimensional image detection system according to claim 8. 前記N台の3次元画像検出装置の各々を識別するための装置識別コードを、前記各3次元画像検出装置において生成することを特徴とする請求項8に記載の3次元画像検出システム。  9. The three-dimensional image detection system according to claim 8, wherein a device identification code for identifying each of the N three-dimensional image detection devices is generated in each of the three-dimensional image detection devices. 前記第1及び第2の3次元画像検出装置の各々において検出される前記被写体までの距離情報から、前記第1及び第2の3次元画像検出装置を基準とした第1の座標系及び第2の座標系それぞれにおいて前記被写体の3次元形状を表す第1の座標データと第2の座標データを算出する座標データ算出手段を備えることを特徴とする請求項1に記載の3次元画像検出システム。  From the distance information to the subject detected in each of the first and second 3D image detection devices, a first coordinate system and a second coordinate system based on the first and second 3D image detection devices 2. The three-dimensional image detection system according to claim 1, further comprising: coordinate data calculation means for calculating first coordinate data and second coordinate data representing a three-dimensional shape of the subject in each of the coordinate systems. 前記スポット位置認識手段により検出される3つの光のスポットに基づいて、前記第1の座標系と前記第2の座標系との間での座標変換を行なう座標変換手段を備えることを特徴とする請求項11に記載の3次元画像検出システム。  Coordinate conversion means for performing coordinate conversion between the first coordinate system and the second coordinate system based on the three light spots detected by the spot position recognition means is provided. The three-dimensional image detection system according to claim 11. 請求項1に記載された3次元画像検出システムにおいて用いられ、被写体までの距離情報を画素毎に検出する3次元画像検出装置であって、前記被写体に投影された光のスポットが結像する撮像面上の位置を検出するスポット位置認識手段または非直線状に配列する3つ以上の光のスポットを前記被写体に投影するためのスポット光発光装置の少なくとも一方を備えることを特徴とする3次元画像検出装置。A three-dimensional image detection apparatus for detecting distance information to a subject for each pixel, which is used in the three-dimensional image detection system according to claim 1, wherein a spot of light projected on the subject forms an image. 3D characterized in that it comprises at least one spot light emitting device for projecting a spot of three or more light arranged in the spot position recognizer or non-linear in the object to detect the position on the surface Image detection device. 前記スポット位置認識手段を備えた第1及び第2の3次元画像検出装置の一方の3次元画像検出装置であって、前記第1及び第2の3次元画像検出装置の撮像面において検出される光のスポットの間における対応関係を認識する対応関係認識手段を備えることを特徴とする請求項13に記載の3次元画像検出装置。  One of the first and second three-dimensional image detection devices including the spot position recognition means, which is detected on the imaging surface of the first and second three-dimensional image detection devices. The three-dimensional image detection apparatus according to claim 13, further comprising correspondence recognition means for recognizing a correspondence between light spots. 前記スポット光発光装置を備えることを特徴とする請求項14に記載の3次元画像検出装置。  The three-dimensional image detection device according to claim 14, further comprising the spot light emitting device. 前記対応関係認識手段で用いるデータを入力するためのデータ入力手段を備えることを特徴とする請求項14に記載の3次元画像検出装置。  15. The three-dimensional image detection apparatus according to claim 14, further comprising data input means for inputting data used by the correspondence relationship recognition means.
JP29711799A 1999-10-19 1999-10-19 3D image detection system and 3D image detection apparatus Expired - Fee Related JP4315545B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29711799A JP4315545B2 (en) 1999-10-19 1999-10-19 3D image detection system and 3D image detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29711799A JP4315545B2 (en) 1999-10-19 1999-10-19 3D image detection system and 3D image detection apparatus

Publications (2)

Publication Number Publication Date
JP2001119722A JP2001119722A (en) 2001-04-27
JP4315545B2 true JP4315545B2 (en) 2009-08-19

Family

ID=17842441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29711799A Expired - Fee Related JP4315545B2 (en) 1999-10-19 1999-10-19 3D image detection system and 3D image detection apparatus

Country Status (1)

Country Link
JP (1) JP4315545B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107747914A (en) * 2017-10-11 2018-03-02 成都多极子科技有限公司 360 ° of contour outline measuring sets and method based on line-structured light

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4892792B2 (en) * 2001-07-04 2012-03-07 コニカミノルタホールディングス株式会社 Measuring apparatus and measuring method
US7912673B2 (en) * 2005-03-11 2011-03-22 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
US8082120B2 (en) 2005-03-11 2011-12-20 Creaform Inc. Hand-held self-referenced apparatus for three-dimensional scanning
JP2007208781A (en) * 2006-02-03 2007-08-16 Olympus Corp Imaging apparatus
US8284240B2 (en) 2008-08-06 2012-10-09 Creaform Inc. System for adaptive three-dimensional scanning of surface characteristics
US9709387B2 (en) 2012-11-21 2017-07-18 Mitsubishi Electric Corporation Image generation device for acquiring distances of objects present in image space
JP6534457B2 (en) 2016-02-04 2019-06-26 富士フイルム株式会社 INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6734583B2 (en) * 2018-02-23 2020-08-05 株式会社市川工務店 Image processing system, image processing method and program for inspecting structures such as bridges

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107747914A (en) * 2017-10-11 2018-03-02 成都多极子科技有限公司 360 ° of contour outline measuring sets and method based on line-structured light

Also Published As

Publication number Publication date
JP2001119722A (en) 2001-04-27

Similar Documents

Publication Publication Date Title
JP3875817B2 (en) Map coordinate detection system for ranging device
JP4530571B2 (en) 3D image detection device
CN103460105B (en) Imaging device and auto-focusing control method thereof
US6856355B1 (en) Method and apparatus for a color scannerless range image system
US6987531B2 (en) Imaging system, photographing device and three-dimensional measurement auxiliary unit used for the system
JP6822230B2 (en) Imaging device and imaging method
US20020041704A1 (en) Three-dimensional image capturing device
US5422673A (en) Video camera with automatic focus control
JP4315545B2 (en) 3D image detection system and 3D image detection apparatus
WO2015083539A1 (en) Imaging device, method, and program
JP2001313958A (en) Three-dimensional image reader
JP3986748B2 (en) 3D image detection device
JP2001249265A (en) Range finder
JP4398562B2 (en) Focus adjustment mechanism of 3D image detector
US6437853B2 (en) Three-dimensional image capturing device
JP4661269B2 (en) Imaging apparatus and program
US7053937B1 (en) Three-dimensional image capturing device and recording medium
JP4369573B2 (en) 3D image detection device
JP6534455B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
CN112929519B (en) Depth camera, imaging device, and electronic apparatus
JP4369575B2 (en) 3D image detection device
JP4413343B2 (en) 3D image detection device
JP2000341720A (en) Three-dimensional image input device and recording medium
JP3892632B2 (en) Still object image detection apparatus and still object image detection method
JPWO2017134881A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060915

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090512

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090519

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees