JP3620710B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP3620710B2
JP3620710B2 JP2000228699A JP2000228699A JP3620710B2 JP 3620710 B2 JP3620710 B2 JP 3620710B2 JP 2000228699 A JP2000228699 A JP 2000228699A JP 2000228699 A JP2000228699 A JP 2000228699A JP 3620710 B2 JP3620710 B2 JP 3620710B2
Authority
JP
Japan
Prior art keywords
subject
viewpoint
image
vector
image memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000228699A
Other languages
Japanese (ja)
Other versions
JP2002039717A (en
Inventor
学 面田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2000228699A priority Critical patent/JP3620710B2/en
Publication of JP2002039717A publication Critical patent/JP2002039717A/en
Application granted granted Critical
Publication of JP3620710B2 publication Critical patent/JP3620710B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、被写体を撮像した撮像画像を用いて被写体の3次元形状や被写体距離の計測を行なう、撮像装置に関する。
【0002】
【従来の技術】
人物や移動物体等の被写体を撮像する撮像装置(以下、カメラともいう)において、当該被写体までの距離を算出したり、あるいは当該被写体の立体的形状のデータを得ようとする構成が、従来いくつか提案されている。
【0003】
上記の構成のうち特に被写体までの距離(被写体距離)を求めて撮像光学系のフォーカシングに用いる機構は、AF(Auto Focusing)機能付きカメラの測距手段として様々なタイプが提案され、また実用化がなされてきている。
上記したフォーカシングのための測距手段(以下、AF測距手段と呼ぶ)については、その技術的な概要を示す公知資料として例えば、小倉:現代のカメラとレンズの技術(写真工業出版社、1982)が挙げられる。
【0004】
上記の公知資料にも説明されているように、AF測距手段は、その測距の方法によって、後述するアクティブ型と、パッシブ型とに大きく分けることができる。それぞれを含めた従来技術を以下に説明する。
【0005】
(1)アクティブ型AF測距手段(以下、「第1の従来技術」と記す)。
このタイプの従来技術に係る構成は、カメラから被写体に対して光や超音波のような物理的波動を投射し、反射して帰って来る波動を用いて測距を行なうものである。
超音波を用いた構成においては、カメラには超音波を投射する発音手段と、被写体で反射して帰って来る超音波を受信する受信手段とを備えており、発音手段を発した超音波が被写体で反射し受信手段により受信されるまでの時間を測定し、被写体距離を得ようとする構成であった。
また赤外光線を投射する構成においては、カメラには赤外光線を投射する発光手段と被写体により反射された赤外光線を受光する受光手段とを備えており、被写体に赤外光線を投射し反射した赤外光線を受光する動作において、カメラの基準線に対する投射角度、受光角度、発光手段と受光手段との離間距離(基線長)とを知って三角測量法に基いて被写体距離を得ようとする構成であった。
特に赤外光線を投射する上記の構成は、測距の確実性、簡易な構成でコストが低廉であること等の点で有利であり、レンズシャッター式フィルムカメラ、デジタルカメラ等のフォーカシング測距手段として多用されている。
【0006】
(2)パッシブ型AF測距手段(以下、「第2の従来技術」と記す)。
この構成においては、被写体に対して物理的な波動を投射することは無く、主に撮像レンズを通過する光束を用いて被写体距離を算出しようとする構成である。
まず「位相差検出方式」(TCL:Through Camera Lensともいう)と呼ばれる構成では、写真フィルムやCCD(Charge Coupled Device)等の撮像素子に結像するための光束の一部を抜き出し、結像する像の焦点面(上記の写真フィルムや撮像素子の位置)からのズレに比例してズレが生じる2重像が形成される光学系を備えている。そして2重像が合致する方向へ撮像光学系のフォーカシング動作を行ない、ピントの合った撮像画面を得るとともに、その時のフォーカシングに関わる光学系の移動ポジションを知ることで測距も可能としている。
上記の位相差検出方式はフォーカシング精度が高く、長焦点の撮像光学系においても十分適合する性能を有するので、一眼レフレックスカメラや初期のビデオカメラで多用されたものである。
【0007】
また同じく第2の従来技術に含まれる方式として「ビデオAF方式」が挙げあれる。この構成は、撮像素子を用いて出力した被写体の画像信号から高周波成分を抜き出し、この高周波成分が増加する方向へ撮像光学系のフォーカシング動作を行なうことによって、ピントの合ったビデオ画像を得るとともに、フォーカシングに関わる光学系のポジションから被写体距離をも知る得るものである。ビデオカメラにおいて実施した場合撮像に関わる構成と測距のための構成とを大幅に共通化でき構成が簡潔であり高い精度も得られるため、ビデオカメラやデジタルカメラで多用されているものである。
【0008】
上記に説明した第1の従来技術、及び第2の従来技術は主にオートフォーカスカメラのフォーカシング手段として用いられ、副次的に被写体距離も算出可能な構成であった。
一方これらとは別に、被写体距離や、被写体の3次元的形状をダイレクトに算出しようとする従来技術も存在し、以下に説明を行なう。
【0009】
(3)複数の視点から被写体を撮像し視差により3次元形状認識を行う構成(以下、「第3の従来技術」と記す)。
この構成は基線長の距離だけ離間した複数の視点それぞれにカメラを配置して、同一の被写体を異なる角度から撮影し、それぞれのカメラが出力する画像信号を用いて三角測量法に基き被写体距離や被写体の3次元形状データを得ようとするものである。
単なるピント合わせの手段にとどまらず、カメラの撮像画面内の任意のポイントの距離を知り、また被写体の立体的な形状データを自動的に生成することができるので、駐車場などのセキュリティカメラ、防犯監視カメラ、現場画像データの3次元的な保存を行なう建設現場用途や警察用途カメラ、CG(Computer Graphics)データ取り込み用カメラ等幅広い用途に実用化がなされつつあるものである。
【0010】
(4)1台のカメラを用いて複数の視点から被写体を撮影する構成(以下、「第4の従来技術」と記す)。
上記の第3の従来技術では少なくとも2台のカメラが必要であったが、この構成は1台のみのカメラを用いて同様の効果を発揮させようとするものであり、特開平7−181024号公報に開示がなされているものである。以下、第4の従来技術の説明を行なう。
【0011】
第4の従来技術の構成を図6に示す。
図示の如く、この構成においては操作者が1台のビデオカメラを手に持ち左右に振るなどして被写体を撮影し、ビデオカメラが備える加速度センサ等を用いて左右への動きに同期して画像信号を出力する。
更に、画像入力部120に入力する複数枚の画像に対してオプティカルフロー(一方の画像中の各所がどのように移動した結果、他方の画像になったかを示すベクトルの分布)を検出するオプティカルフロー検出部121と、画像中のエッジ領域を検出する画像領域抽出部123と、オプティカルフローを利用し三角測量の原理によって距離情報を算出する三角測量演算部122とを設けている。
【0012】
さらに字空間勾配法の拘束式と自己運動情報とから距離情報を直接算出する直接法演算部124を設ける。
すなわち三角測量演算部122が三角測量の原理に基いて算出した被写体の概形と、距離が急激に変化するエッジ近傍で直接法により直接法演算部124とが求めた距離情報とをデプスマップ合成部125によって合成し、全体として形状計測の精度が向上した計測結果をデプスマップ出力部126から出力する構成としていた。
【0013】
【発明が解決しようとする課題】
被写体距離を測定し、また被写体の3次元形状を測定しようとする上記した従来技術においては、解決すべき以下の問題が存在した。
【0014】
まず、上記した第1の従来技術及び第2の従来技術は、AF機能を有するカメラの測距手段として実用化されたものであり、カメラが撮影する被写体の特定のポイント、例えば画面の中央に位置する被写体のポイントのみの距離を測定する機能しか有していないので、空間内に立体的な広がりを持つ被写体のポイントの距離を同時に測定することが出来ず、あるいは被写体の3次元形状を認識することができなかった。
【0015】
また上記した第3の従来技術によれば、少なくとも2台のカメラを距離的に離間した異なる位置の視点にそれぞれ配置して被写体の撮影を行なう必要があるので、構成が大型、複雑、高コストとなる問題があった。
【0016】
更に、上記した第4の従来技術によれば、1台のみのビデオカメラを用いて異なる複数の視点から被写体を撮像し距離の測定が行なえる、という長所を確かに有するものの、1台のカメラが移動しつつそれぞれの視点から画像を送り出すので、異なる視点にて撮像されたそれぞれの画像は時間軸上で隔たりがあるものであり、例えば左右の撮像画像に差が生じた場合でも、それが視点の違い(視差)から生じた被写体の立体的な形状に由来する差なのか、カメラの移動時間内に被写体が空間内を移動したことで生じた差なのか、区別することが困難であった。
従って第4の従来技術では、空間内を移動するなどして時間的に変化の有る被写体に対しては、精度良く計測をすることが出来ない、という問題があった。
【0017】
そこで、本発明は、上記した問題点に鑑みてなされたものであり、特に第1の画像メモリ又は第2の画像メモリが記録した撮像画像に係る視点と同一視点で撮像され、かつ直前又は直後のフレーム画像を記録する第3の画像メモリと、第1の画像メモリ出力と第2の画像メモリ出力との差である動きベクトルを算出する動きベクトル算出手段と、第3の画像メモリ出力と同一視点の撮像画像との差である時間差ベクトルを算出する時間差ベクトル算出手段と、動きベクトルから時間差ベクトルの要素を減じて、第1視点及び第2視点間の視差である視差ベクトルを算出する視差ベクトル算出手段と、視差ベクトルを用いて、被写体と撮像素子との離間距離を三角測量法に基づいて算出する被写体距離算出手段とを備える構成とすることにより、時間的に変化の有る被写体に対しても精度良く計測を行い簡潔な構成により実現した、被写体の3次元形状や被写体距離の測定を行なう撮像装置を提供することを目的とする。
【0018】
【課題を解決するための手段】
上述した課題を解決するために、本発明は、下記の構成を有する撮像装置を提供する。
撮像素子を備えた撮像光学系(撮像手段、レンズ、CCD)2を、被写体(人物、移動物体)を挟む第1視点(被写体に向かって左側に位置する視点)及び第2視点(被写体に向かって右側に位置する視点)間を移動する移動手段(光学系駆動回路)1と、
第1視点で撮像した撮像画像をフレーム単位で記録する第1の画像メモリ(第n基準フレームメモリ)6と、
第2視点で撮像した撮像画像をフレーム単位で記録する第2の画像メモリ(第n参照フレームメモリ)7と、
前記第1の画像メモリ6又は前記第2の画像メモリ7が記録した撮像画像に係る視点と同一視点で撮像され、かつ直前又は直後のフレーム画像を記録する第3の画像メモリ(第n+1基準フレームメモリ)5と、
前記第1の画像メモリ6出力と前記第2の画像メモリ7出力との差である動きベクトル(画面内における被写体(像)のトータルの移動ベクトル)Vtoを算出する動きベクトル算出手段(動きベクトルメモリ(B))9と、
前記第3の画像メモリ5出力と前記同一視点の撮像画像との差である時間差ベクトル(空間内を被写体が移動することにより生じた、画面内の移動ベクトル)Vmを算出する時間差ベクトル算出手段(動きベクトルメモリ(A))8と、
前記動きベクトルVtoから前記時間差ベクトルVmの要素を減じて、第1視点及び第2視点間の視差である視差ベクトル(視点の差により生じた、画面内の移動ベクトル)Vparaを算出する視差ベクトル算出手段(動きベクトル演算回路)10と、
前記視差ベクトルVparaを用いて、被写体と前記撮像素子(CCD)との離間距離を三角測量法に基づいて算出する被写体距離算出手段(距離情報データ付加回路)11とを備えることを特徴とする撮像装置(カメラ)。
【0019】
【発明の実施の形態】
以下、本発明の実施の形態の好ましい実施例を、図1乃至図5を用いて説明する。
図1は本発明に係る第1の実施例のカメラの構成図、図2は本発明の実施例における、被写体像を含む撮影画面の模式図、図3は本発明に係る第2の実施例のカメラの構成図、図4は本発明に係る第3の実施例のカメラの構成図、図5は本発明に係る第4の実施例のカメラの構成図である。
【0020】
本発明に係る実施例を説明するに先立ち、上述した課題を解決するために本実施例が用いる技術的な着眼点を説明する。
空間内を移動しつつある被写体を、異なる位置の視点から異なる時間において撮像した際の、画面内における被写体の位置を図2に模式的に示す。なお異なる視点から見た左右の画面は1枚に重畳して示している。
【0021】
図2において、▲1▼は、第1の視点、例えば被写体に向かって左側に位置する視点から撮影した被写体の像である。▲1▼’は、第2の視点、例えば被写体に向かって右側に位置する視点から撮影した被写体の像であり、▲1▼に対して1フレーム分、時間軸上で遅れが有る。▲2▼は、再び第1の視点から被写体を撮影した像であり、▲1▼’に対して更に1フレーム分の遅れが有る。
【0022】
ここで、空間内を移動しつつある被写体を第1の視点及び第2の視点から撮影し、画面内での被写体像の移動をベクトルで表現したとすると、次の式(1)が得られる。
Vto=Vpara+Vm …式(1)
Vto:画面内における被写体(像)のトータルの移動ベクトル
Vpara:視点の差により生じた、画面内の移動ベクトル
Vm:空間内を被写体が移動することにより生じた、画面内の移動ベクトル
【0023】
上述したように本実施例の撮像装置は上記Vparaのみを抽出して、被写体の3次元データを得ようとするものであり、式(1)から容易に下記の式(2)が得られる。
Vpara=Vto−Vm …式(2)
【0024】
上記した式(2)を図2を用いて説明した1フレーム時間の移動について具体的に当てはめてみると、まず画面内のトータルの移動ベクトルは▲1▼から▲1▼’への変化なのであるから、それぞれをベクトルとしてとらえて、
Vto=▲1▼’−▲1▼ …式(3)
【0025】
被写体移動により2フレーム時間で▲1▼から▲2▼まで移動したのであるから、被写体の移動が定速度運動であることを前提とすると、
Vm=(1/2)・(▲2▼−▲1▼) …式(4)
【0026】
結局求めようとする、視点の差に基く移動ベクトルは、
Vpara=Vto−Vm=▲1▼’−▲1▼−(1/2)・(▲2▼−▲1▼)
=▲1▼’−(1/2)・(▲1▼+▲2▼) …式(5)
【0027】
本実施例では、上記の式(2)、あるいは式(5)に基き、視点の差に起因する移動ベクトルを算出するに際して、算出すべき時間内における第1の視点からの撮影画像及び第2の視点からの撮影画像のみを用いて算出するのではなく、次フレームの第1の視点からの撮影画面をも使用することにより、被写体が空間を移動することに起因する移動ベクトル(時間差ベクトル)をキャンセルし、より高い精度で視点の差(視差)に起因する移動ベクトルのみを算出し、従来より高い精度の被写体の3次元形状データを得る撮像装置として構成したものである。
【0028】
本発明の実施の形態に係る第1の実施例の撮像装置の構成を図1に示す。
図1において、光学系駆動回路1は、撮像手段2を第1の視点及び第2の視点交互に1フレームに相当する時間間隔で位置を移動させるアクチュエータである。撮像手段2は撮影レンズとCCD及び周辺回路からなり、被写体を撮影して撮影画像をフレーム単位で出力する。同期信号手段3は、同期信号を光学系駆動回路1及びスイッチ4に発して、撮像手段2の移動とフレーム単位の画像出力とを同期させる。スイッチ4は同期信号に応じて、撮像手段2の出力するフレーム画像を後記する各フレームメモリに選択的に出力する。
【0029】
第n+1基準フレームメモリ5は、計測しようとするタイミングより2フレーム分遅れた第1の視点より撮影した撮影画像を記録し指令に応じて出力する。
第n基準フレームメモリ6は、計測しようとするタイミングにおける第1の視点より撮影した撮影画像を記録し指令に応じて出力する。
第n参照フレームメモリ7は、計測しようとするタイミングにおける第2の視点より撮影した撮影画像を記録し指令に応じて出力する。第n参照フレームメモリ7が記録するフレーム画像は、第n基準フレームメモリ6が記録するフレーム画像に対して1フレーム分時間軸上遅れていることは上記した通りである。
【0030】
動きベクトルメモリ(A)8は、第n+1基準フレームメモリ5及び第n基準フレームメモリ6が記録するフレーム画像を用いて、第1の視点から見た、被写体の空間内運動に伴う動きベクトル(上記したVmに相当する)を算出する。
動きベクトルを算出するにあたっては、上記に説明したように、被写体は定速度で移動するものと仮定して前記2つのフレーム画像の移動ベクトルの2分の一倍を動きベクトルとしても良いし、或いは他の算出方法によっても良い。
【0031】
動きベクトルメモリ(B)9は、第n基準フレームメモリ6と、第n参照フレームメモリ7とに記録されたそれぞれのフレーム画像を用いて、第1の視点及び第2の視点から撮影した画像における被写体のトータルの移動ベクトル(上記のVtoに相当する)を算出する。
動きベクトル演算回路10は、動きベクトルメモリ(A)8が算出する被写体の空間移動に伴う移動ベクトルVmと、動きベクトルメモリ(B)9が算出するトータルの移動ベクトルVtoとから、上記の式(2)で求まる視点の移動に伴う移動ベクトルVparaを算出する。
【0032】
算出された移動ベクトルVparaは、上記に説明した通り被写体の空間内移動により生じる成分をキャンセルした視点の移動のみにより生じる移動ベクトル(視差ベクトル)である。
【0033】
距離情報データ付加回路11は、動きベクトル演算回路10が算出し出力する移動ベクトルVparaを用いて、被写体の各ポイントの距離情報を算出する。算出にあたっては上述した従来技術にも用いられた三角測量法に基く方法によっても良い。そして、第n基準フレームメモリ6が記録し出力する第1の視点から撮影した画像に、上記した被写体の各ポイントの距離情報を付加して出力する。
【0034】
次に、本発明の実施形態に係る第2の実施例について、説明を行う。
図3は、本実施例の撮像装置(カメラ)の構成図である。
【0035】
図3において、光学系駆動回路1、撮像手段2、同期回路3、スイッチ4、第n+1基準フレームメモリ5、第n基準フレームメモリ6、第n参照フレームメモリ7は上記した第1の実施例と同様の構成であるので説明を省略する。
【0036】
図3における動きベクトルメモリ12は、第n+1基準フレームメモリ5が記録し出力する、第1の視点から撮影した2フレーム遅れのある撮影画像と、第n参照フレームメモリ7が記録し出力する、第2の視点から撮影した1フレーム遅れのある撮影画像とから、視点の差により生じる被写体の移動ベクトルVparaを算出する。
算出にあたっては、例えば以下の算出方法による。
【0037】
上述のように、撮影画面中を図2図示のように被写体像が移動した場合、視点の差により生じる移動ベクトルVparaは、次式で求めることができた。
Vpara=▲1▼’−(1/2)・(▲1▼+▲2▼) …式(5)
但し、▲1▼’:第2の視点から撮影した画像中の被写体ベクトル、▲1▼:第1の視点から撮影した画像中の被写体ベクトル、▲2▼:2フレーム後に第1の被写体ベクトルである。
【0038】
ここで、被写体の空間内移動が定速度である、という前提があると、▲1▼と▲2▼とは独立ではなく、一方から他方を求めることも出来る。例えば単位時間あたりの被写体の移動ベクトル(速度ベクトル)をVkとすると、
▲2▼=▲1▼+Vk・t …式(6)
が成り立つ。但し、tは2フレームに相当する時間である。
【0039】
式(5)及び式(6)から、
Vpara=▲1▼’−(1/2)・(▲2▼−Vk・t+▲2▼)=▲1▼’―▲2▼−(1/2)・Vk・t …式(7)
速度ベクトルVkは、例えば連続する第1の視点からの撮像画面を用いて画面内を移動する被写体像の平均速度を求めるなどして容易に得ることが出来る。
【0040】
距離情報データ付加回路13は、動きベクトルメモリ12が出力するVpraaを用いて被写体の各ポイントの距離情報を求め、第n基準フレームメモリ6が出力する撮影画像に付加を行う。
本実施例は上記の構成としたので、第1の実施例と比較してより簡潔な構成とすることが出来る。
なお、動きベクトルメモリ12がVparaを算出する方法は上記以外の方法も考えることが出来る。
【0041】
次に、本発明の実施形態に係る第3の実施例を説明する。
図4は本実施例のカメラの構成図であり、図示せざる構成は先に図3を用いて説明した第2の実施例と同一であるので、図示を省略している。
【0042】
本実施例では、被写体の空間内の動きが速く動きベクトルの算出ができない場合にも対処が可能とするもので、新たに判定回路14と動きベクトル設定手段15とを設けている。
判定回路14は、動きベクトルメモリ12の出力するVparaが所定の限度値以上であるか否かを判断し、限度値を下回る場合には上記第2の実施例と同様にVparaを用いて距離情報データ付加回路13が距離情報の算出と付加とを行い、限度値以上であれば、動きベクトル設定手段15が、あらかじめ定めた所定の最大値へVparaを設定し、Vparaが誤って算出された場合や被写体が影に隠れて画面内に写らなかった場合でも、無意味なVparaの値から誤った距離情報が算出されることを防止する。
【0043】
次に本発明の実施形態に係る第4の実施例を説明する。
図5は本実施例のカメラにおける撮像手段の構成を示す図であり、その他の構成は上記の実施例の構成に準ずる。
【0044】
第1乃至第3の実施例においては、撮像手段は光学系及び撮像素子が1組備わりアクチュエータにより交互に位置を移動する構成であった。
それに対して本実施例では、光学系を2組、撮像素子を1個とし、2組の光学系が出射する光束を選択的に切り替える光路切り替えシャッターを有する構成としている。
1組の光学系を移動させる構成と比較して移動重量が小さく、構成が簡潔となる効果がある。
【0045】
【発明の効果】
以上詳述した如く、本発明は第1の画像メモリ又は第2の画像メモリが記録した撮像画像に係る視点と同一視点で撮像され、かつ直前又は直後のフレーム画像を記録する第3の画像メモリと、第1の画像メモリ出力と第2の画像メモリ出力との差である動きベクトルを算出する動きベクトル算出手段と、第3の画像メモリ出力と同一視点の撮像画像との差である時間差ベクトルを算出する時間差ベクトル算出手段と、動きベクトルから時間差ベクトルの要素を減じて、第1視点及び第2視点間の視差である視差ベクトルを算出する視差ベクトル算出手段と、視差ベクトルを用いて、被写体と撮像素子との離間距離を三角測量法に基づいて算出する被写体距離算出手段とを備える構成とすることにより、時間的に変化の有る被写体に対しても精度良く計測を行い簡潔な構成により実現した、被写体の3次元形状や被写体距離の測定を行なう撮像装置を提供する効果をもたらすものである。
【図面の簡単な説明】
【図1】本発明に係る第1の実施例のカメラの構成図である。
【図2】本発明の実施例における、被写体像を含む撮影画面の模式図である。
【図3】本発明に係る第2の実施例のカメラの構成図である。
【図4】本発明に係る第3の実施例のカメラの構成図である。
【図5】本発明に係る第4の実施例のカメラの構成図である。
【図6】従来の撮像装置の構成図である。
【符号の説明】
1 光学系駆動回路(移動手段)
2 撮像手段、レンズ、CCD(撮像素子を備えた撮像光学系)
5 第n+1基準フレームメモリ(第3の画像メモリ)
6 第n基準フレームメモリ(第1の画像メモリ)
7 第n参照フレームメモリ(第2の画像メモリ)
8 動きベクトルメモリ(A)(時間差ベクトル算出手段)
9 動きベクトルメモリ(B)(動きベクトル算出手段)
10 動きベクトル演算回路(視差ベクトル算出手段)
11 距離情報データ付加回路(被写体距離算出手段)
Vm 空間内を被写体が移動することにより生じた、画面内の移動ベクトル(時間差ベクトル)
Vpara 視点の差により生じた、画面内の移動ベクトル(視差ベクトル)
Vto 画面内における被写体(像)のトータルの移動ベクトル(動きベクトル)
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging apparatus that measures a three-dimensional shape of a subject and a subject distance using a captured image obtained by imaging the subject.
[0002]
[Prior art]
In a conventional imaging apparatus (hereinafter also referred to as a camera) that captures a subject such as a person or a moving object, there are various configurations in which the distance to the subject is calculated or data on the three-dimensional shape of the subject is obtained. Or has been proposed.
[0003]
Among the above configurations, various types of distance measuring means for a camera with an AF (Auto Focusing) function have been proposed and put into practical use, particularly as a mechanism used for focusing an imaging optical system by obtaining a distance to a subject (subject distance). Has been made.
As for the above-mentioned ranging means for focusing (hereinafter referred to as “AF ranging means”), for example, Kokura: Modern camera and lens technology (Photo Kogyo Publishing Co., Ltd., 1982). ).
[0004]
As described in the above-mentioned known documents, the AF distance measuring means can be roughly divided into an active type and a passive type, which will be described later, depending on the distance measuring method. Prior art including each will be described below.
[0005]
(1) Active AF ranging means (hereinafter referred to as “first prior art”).
This type of prior art configuration projects a physical wave such as light or ultrasonic waves from a camera to a subject, and performs distance measurement using a wave that is reflected and returned.
In the configuration using ultrasonic waves, the camera includes sound generation means for projecting ultrasonic waves and reception means for receiving ultrasonic waves reflected back from the subject, and the ultrasonic waves emitted from the sound generation means are received. The configuration is such that the time until the object is reflected by the subject and received by the receiving means is measured to obtain the subject distance.
In the configuration for projecting infrared rays, the camera includes light emitting means for projecting infrared rays and light receiving means for receiving infrared rays reflected by the subject, and projects the infrared rays to the subject. In the operation to receive reflected infrared rays, know the projection angle with respect to the reference line of the camera, the light reception angle, and the separation distance (baseline length) between the light emitting means and the light receiving means, and obtain the subject distance based on the triangulation method It was the composition.
In particular, the above-described configuration for projecting infrared rays is advantageous in terms of reliability of distance measurement, simple configuration and low cost, and focusing distance measuring means such as a lens shutter type film camera and a digital camera. It is often used as.
[0006]
(2) Passive AF distance measuring means (hereinafter referred to as “second prior art”).
In this configuration, a physical wave is not projected onto the subject, and the subject distance is calculated mainly using a light beam that passes through the imaging lens.
First, in a configuration called a “phase difference detection method” (also referred to as TCL: Through Camera Lens), a part of a light beam for imaging on an image sensor such as a photographic film or a CCD (Charge Coupled Device) is extracted and imaged. An optical system is provided that forms a double image in which a shift occurs in proportion to a shift from the focal plane of the image (position of the above-described photographic film or image sensor). Then, the focusing operation of the imaging optical system is performed in the direction in which the double images match to obtain a focused imaging screen, and distance measurement is also possible by knowing the moving position of the optical system involved in the focusing at that time.
The above-described phase difference detection method has high focusing accuracy and has sufficient performance even in a long-focus imaging optical system, and is therefore frequently used in single-lens reflex cameras and early video cameras.
[0007]
Similarly, the “video AF method” can be cited as a method included in the second prior art. In this configuration, a high-frequency component is extracted from the image signal of the subject output using the image sensor, and the focusing optical system performs a focusing operation in a direction in which the high-frequency component increases, thereby obtaining a focused video image. You can also know the subject distance from the position of the optical system involved in focusing. When implemented in a video camera, the configuration related to imaging and the configuration for ranging can be greatly shared, and the configuration is simple and high accuracy is obtained. Therefore, it is frequently used in video cameras and digital cameras.
[0008]
The first prior art and the second prior art described above are mainly used as focusing means of an autofocus camera, and are configured to be able to calculate a subject distance as a secondary.
On the other hand, apart from these, there is a conventional technique for directly calculating the subject distance and the three-dimensional shape of the subject, which will be described below.
[0009]
(3) A configuration in which a subject is imaged from a plurality of viewpoints and three-dimensional shape recognition is performed using parallax (hereinafter referred to as “third conventional technology”).
In this configuration, a camera is arranged at each of a plurality of viewpoints separated by the distance of the baseline length, the same subject is photographed from different angles, and the subject distance and the subject distance based on the triangulation method are used by using the image signal output from each camera. It is intended to obtain the three-dimensional shape data of the subject.
It is not just a means of focusing, it can know the distance of any point in the camera's imaging screen, and it can automatically generate three-dimensional shape data of the subject, so security cameras such as parking lots, crime prevention It is being put to practical use in a wide range of applications such as surveillance cameras, construction site applications that store three-dimensional image data, police cameras, and CG (Computer Graphics) data capture cameras.
[0010]
(4) A configuration in which a subject is photographed from a plurality of viewpoints using a single camera (hereinafter referred to as “fourth prior art”).
In the third prior art described above, at least two cameras are required, but this configuration is intended to exhibit the same effect using only one camera, and Japanese Patent Laid-Open No. 7-181024. It is disclosed in the publication. The fourth prior art will be described below.
[0011]
The configuration of the fourth prior art is shown in FIG.
As shown in the figure, in this configuration, an operator shoots a subject by holding one video camera in his / her hand and swinging it left and right, etc., and using an acceleration sensor or the like provided in the video camera, Output a signal.
Furthermore, an optical flow for detecting an optical flow (a vector distribution indicating how each part in one image has moved to become the other image) for a plurality of images input to the image input unit 120. A detection unit 121, an image region extraction unit 123 that detects an edge region in the image, and a triangulation calculation unit 122 that calculates distance information based on the principle of triangulation using an optical flow are provided.
[0012]
Further, a direct method calculation unit 124 that directly calculates distance information from the constraint formula of the character space gradient method and self-motion information is provided.
That is, the depth map synthesis is performed on the outline of the subject calculated by the triangulation calculation unit 122 based on the principle of triangulation and the distance information obtained by the direct method calculation unit 124 by the direct method near the edge where the distance changes rapidly. The depth map output unit 126 outputs a measurement result synthesized by the unit 125 and improved in shape measurement accuracy as a whole.
[0013]
[Problems to be solved by the invention]
In the above-described conventional technique for measuring the object distance and measuring the three-dimensional shape of the object, the following problems to be solved exist.
[0014]
First, the first prior art and the second prior art described above have been put into practical use as a distance measuring means for a camera having an AF function, and at a specific point of a subject photographed by the camera, for example, at the center of the screen. Since it only has the function of measuring the distance of only the point of the subject that is located, it is not possible to measure the distance of the point of the subject that has a three-dimensional extent in the space at the same time, or recognize the three-dimensional shape of the subject I couldn't.
[0015]
In addition, according to the third prior art described above, it is necessary to shoot a subject by arranging at least two cameras at viewpoints at different positions that are separated from each other, so that the configuration is large, complicated, and expensive. There was a problem.
[0016]
Further, according to the fourth prior art described above, one camera is used, although it has the advantage that it can measure the distance by imaging a subject from a plurality of different viewpoints using only one video camera. Since the images are sent out from the respective viewpoints while moving, the images picked up from different viewpoints are separated on the time axis.For example, even when a difference occurs between the left and right picked-up images, It is difficult to distinguish whether the difference is due to the three-dimensional shape of the subject caused by the difference in viewpoint (parallax) or the difference caused by the subject moving in the space within the camera movement time. It was.
Therefore, the fourth conventional technique has a problem that it cannot accurately measure a subject that changes in time by moving in space.
[0017]
Therefore, the present invention has been made in view of the above-described problems, and in particular, the first image memory or the second image memory is captured from the same viewpoint as the captured image recorded, and immediately before or after. The same as the third image memory output, the third image memory for recording the frame image, the motion vector calculation means for calculating the motion vector that is the difference between the first image memory output and the second image memory output. A time difference vector calculating unit that calculates a time difference vector that is a difference from the captured image of the viewpoint, and a disparity vector that calculates a disparity vector that is a disparity between the first viewpoint and the second viewpoint by subtracting the element of the time difference vector from the motion vector. By comprising a calculation means and a subject distance calculation means for calculating a separation distance between the subject and the image sensor based on a triangulation method using a parallax vector. Realized by a simple configuration performed accurately measure even for temporally with the change subject, and an object thereof is to provide an imaging apparatus for measuring the three-dimensional shape and the subject distance of a subject.
[0018]
[Means for Solving the Problems]
In order to solve the above-described problems, the present invention provides an imaging apparatus having the following configuration.
An imaging optical system (imaging means, lens, CCD) 2 including an imaging element is connected to a first viewpoint (a viewpoint located on the left side of the subject) and a second viewpoint (toward the subject) across the subject (person, moving object). Moving means (optical system driving circuit) 1 for moving between the viewpoints located on the right side),
A first image memory (n-th reference frame memory) 6 for recording a captured image captured from the first viewpoint in units of frames;
A second image memory (n-th reference frame memory) 7 for recording a captured image captured at the second viewpoint in units of frames;
A third image memory (the (n + 1) th reference frame) that is captured from the same viewpoint as the viewpoint of the captured image recorded by the first image memory 6 or the second image memory 7 and that records the immediately preceding or immediately following frame image. Memory) 5,
Motion vector calculation means (motion vector memory) for calculating a motion vector (total movement vector of the subject (image) in the screen) Vto which is a difference between the output of the first image memory 6 and the output of the second image memory 7 (B)) 9 and
Time difference vector calculation means for calculating a time difference vector (movement vector in the screen generated by the movement of the subject in the space) Vm that is a difference between the output of the third image memory 5 and the captured image of the same viewpoint. Motion vector memory (A)) 8;
Disparity vector calculation for calculating a disparity vector (movement vector in the screen generated by the difference in viewpoint) Vpara which is a disparity between the first viewpoint and the second viewpoint by subtracting the element of the time difference vector Vm from the motion vector Vto. Means (motion vector calculation circuit) 10;
An imaging device comprising: an object distance calculating means (distance information data adding circuit) 11 for calculating a separation distance between the object and the imaging device (CCD) based on a triangulation method using the parallax vector Vpara. Device (camera).
[0019]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred examples of embodiments of the present invention will be described with reference to FIGS. 1 to 5.
FIG. 1 is a configuration diagram of a camera according to a first embodiment of the present invention, FIG. 2 is a schematic diagram of a shooting screen including a subject image in the embodiment of the present invention, and FIG. 3 is a second embodiment according to the present invention. FIG. 4 is a block diagram of the camera of the third embodiment according to the present invention, and FIG. 5 is a block diagram of the camera of the fourth embodiment according to the present invention.
[0020]
Prior to the description of the embodiment according to the present invention, the technical focus used by the present embodiment to solve the above-described problems will be described.
FIG. 2 schematically shows the position of the subject in the screen when the subject moving in the space is imaged from different viewpoints at different times. The left and right screens viewed from different viewpoints are shown superimposed on one sheet.
[0021]
In FIG. 2, (1) is an image of a subject taken from a first viewpoint, for example, a viewpoint located on the left side of the subject. (1) 'is an image of a subject taken from a second viewpoint, for example, a viewpoint located on the right side of the subject, and there is a delay on the time axis by one frame with respect to (1). {Circle around (2)} is an image obtained by photographing the subject again from the first viewpoint, and is further delayed by one frame with respect to {circle around (1)}.
[0022]
Here, if the subject moving in the space is photographed from the first viewpoint and the second viewpoint, and the movement of the subject image in the screen is expressed by a vector, the following expression (1) is obtained. .
Vto = Vpara + Vm (1)
Vto: total movement vector of the subject (image) in the screen Vpara: movement vector in the screen caused by the difference in viewpoint Vm: movement vector in the screen caused by movement of the subject in the space
As described above, the imaging apparatus according to the present embodiment extracts only the above Vpara to obtain the three-dimensional data of the subject, and the following formula (2) can be easily obtained from the formula (1).
Vpara = Vto−Vm (2)
[0024]
When the above equation (2) is specifically applied to the movement of one frame time described with reference to FIG. 2, first, the total movement vector in the screen is a change from (1) to (1). From each of them as a vector,
Vto = (1) '-(1) ... Formula (3)
[0025]
Since the subject moved from (1) to (2) in two frame times by moving the subject, assuming that the subject is moving at a constant speed,
Vm = (1/2). ((2)-(1 ▼)) Formula (4)
[0026]
The movement vector based on the difference of viewpoints to be obtained after all is
Vpara = Vto-Vm = (1) '-(1)-(1/2) ((2)-(1))
= (1) '-(1/2) ((1) + (2)) (5)
[0027]
In this embodiment, when calculating the movement vector due to the difference in viewpoints based on the above formula (2) or formula (5), the captured image from the first viewpoint and the second in the time to be calculated are calculated. The movement vector (time difference vector) resulting from the movement of the subject in the space by using the shooting screen from the first viewpoint of the next frame instead of calculating using only the captured image from the viewpoint of The imaging apparatus is configured to obtain the three-dimensional shape data of the subject with higher accuracy than in the past by calculating only the movement vector caused by the difference in viewpoint (parallax) with higher accuracy.
[0028]
FIG. 1 shows the configuration of the image pickup apparatus of the first example according to the embodiment of the present invention.
In FIG. 1, an optical system driving circuit 1 is an actuator that moves the position of an imaging unit 2 at a time interval corresponding to one frame alternately between a first viewpoint and a second viewpoint. The image pickup means 2 includes a photographic lens, a CCD, and peripheral circuits, shoots a subject, and outputs a photographic image in units of frames. The synchronization signal means 3 issues a synchronization signal to the optical system drive circuit 1 and the switch 4 to synchronize the movement of the imaging means 2 and the image output in units of frames. The switch 4 selectively outputs a frame image output from the imaging unit 2 to each frame memory described later in accordance with the synchronization signal.
[0029]
The (n + 1) th reference frame memory 5 records a photographed image photographed from the first viewpoint that is delayed by two frames from the timing to be measured, and outputs it in response to a command.
The nth reference frame memory 6 records a photographed image taken from the first viewpoint at the timing to be measured and outputs it in response to a command.
The nth reference frame memory 7 records a photographed image taken from the second viewpoint at the timing to be measured and outputs it in response to a command. As described above, the frame image recorded by the nth reference frame memory 7 is delayed by one frame on the time axis with respect to the frame image recorded by the nth reference frame memory 6.
[0030]
The motion vector memory (A) 8 uses the frame images recorded by the (n + 1) th reference frame memory 5 and the nth reference frame memory 6 and uses a motion vector (above-mentioned) associated with the movement of the subject in space as viewed from the first viewpoint. Corresponding to Vm) calculated.
In calculating the motion vector, as described above, assuming that the subject moves at a constant speed, one half of the movement vector of the two frame images may be used as the motion vector, or Other calculation methods may be used.
[0031]
The motion vector memory (B) 9 uses the respective frame images recorded in the nth reference frame memory 6 and the nth reference frame memory 7 in the images photographed from the first viewpoint and the second viewpoint. A total movement vector of the subject (corresponding to Vto described above) is calculated.
The motion vector calculation circuit 10 calculates the above equation (5) from the movement vector Vm accompanying the spatial movement of the subject calculated by the motion vector memory (A) 8 and the total movement vector Vto calculated by the motion vector memory (B) 9. A movement vector Vpara accompanying the movement of the viewpoint obtained in 2) is calculated.
[0032]
The calculated movement vector Vpara is a movement vector (disparity vector) generated only by the movement of the viewpoint where the component generated by the movement of the subject in the space is canceled as described above.
[0033]
The distance information data adding circuit 11 calculates distance information of each point of the subject using the movement vector Vpara calculated and output by the motion vector calculation circuit 10. For the calculation, a method based on the triangulation method used in the above-described prior art may be used. Then, the distance information of each point of the subject is added to the image taken from the first viewpoint recorded and output by the nth reference frame memory 6 and output.
[0034]
Next, a second example according to the embodiment of the present invention will be described.
FIG. 3 is a configuration diagram of the imaging apparatus (camera) of the present embodiment.
[0035]
In FIG. 3, the optical system drive circuit 1, the image pickup means 2, the synchronization circuit 3, the switch 4, the (n + 1) th reference frame memory 5, the nth reference frame memory 6, and the nth reference frame memory 7 are the same as those in the first embodiment. Since it is the same structure, description is abbreviate | omitted.
[0036]
The motion vector memory 12 in FIG. 3 is recorded and output by the (n + 1) th reference frame memory 5, and is recorded and output by the nth reference frame memory 7 and a captured image with a delay of 2 frames captured from the first viewpoint. A subject movement vector Vpara generated by a difference in viewpoint is calculated from a captured image with a delay of one frame taken from two viewpoints.
For the calculation, for example, the following calculation method is used.
[0037]
As described above, when the subject image moves on the shooting screen as shown in FIG. 2, the movement vector Vpara generated by the difference in viewpoint can be obtained by the following equation.
Vpara = (1) '-(1/2). ((1) + (2)) (5)
However, (1) ': subject vector in the image photographed from the second viewpoint, (1): subject vector in the image photographed from the first viewpoint, (2): first subject vector after two frames is there.
[0038]
Here, if there is a premise that the movement of the subject in the space is a constant speed, (1) and (2) are not independent, and one can be obtained from the other. For example, if the movement vector (velocity vector) of the subject per unit time is Vk,
(2) = (1) + Vk · t (6)
Holds. However, t is a time corresponding to 2 frames.
[0039]
From Equation (5) and Equation (6),
Vpara = (1) '-(1/2). ((2) -Vk.t + (2)) = (1)'-(2)-(1/2) .Vk.t (7)
The velocity vector Vk can be easily obtained by, for example, obtaining an average velocity of the subject image moving within the screen using a continuous imaging screen from the first viewpoint.
[0040]
The distance information data adding circuit 13 obtains distance information of each point of the subject using Vpraa output from the motion vector memory 12, and adds the distance information to the captured image output from the nth reference frame memory 6.
Since the present embodiment has the above-described configuration, the configuration can be simplified as compared with the first embodiment.
Note that a method other than the above can be considered as the method by which the motion vector memory 12 calculates Vpara.
[0041]
Next, a third example according to the embodiment of the present invention will be described.
FIG. 4 is a configuration diagram of the camera according to the present embodiment. Since the configuration not shown is the same as that of the second embodiment described above with reference to FIG. 3, the illustration is omitted.
[0042]
In this embodiment, the determination circuit 14 and the motion vector setting means 15 are newly provided to cope with the case where the motion of the subject is fast and the motion vector cannot be calculated.
The determination circuit 14 determines whether or not Vpara output from the motion vector memory 12 is greater than or equal to a predetermined limit value. If the Vpara is lower than the limit value, the distance information is determined using Vpara as in the second embodiment. When the data addition circuit 13 calculates and adds distance information, and if it is equal to or greater than the limit value, the motion vector setting means 15 sets Vpara to a predetermined maximum value, and Vpara is erroneously calculated Even when the subject is hidden behind a shadow and is not reflected on the screen, erroneous distance information is prevented from being calculated from the meaningless Vpara value.
[0043]
Next, a fourth example according to the embodiment of the present invention will be described.
FIG. 5 is a diagram showing the configuration of the image pickup means in the camera of this embodiment, and the other configurations are the same as those of the above embodiment.
[0044]
In the first to third embodiments, the image pickup means is provided with one set of an optical system and an image pickup element, and the position is alternately moved by an actuator.
On the other hand, in this embodiment, two optical systems and one image sensor are used, and an optical path switching shutter that selectively switches light beams emitted from the two optical systems is used.
Compared to a configuration in which a set of optical systems is moved, the moving weight is small, and the configuration is simplified.
[0045]
【The invention's effect】
As described above in detail, the present invention is a third image memory that is captured at the same viewpoint as the viewpoint related to the captured image recorded in the first image memory or the second image memory and records the immediately preceding or immediately following frame image. A motion vector calculating means for calculating a motion vector that is a difference between the first image memory output and the second image memory output, and a time difference vector that is a difference between the third image memory output and the captured image of the same viewpoint Using the disparity vector, a disparity vector calculating means for calculating a disparity vector that is a disparity between the first viewpoint and the second viewpoint by subtracting the element of the time difference vector from the motion vector, and a disparity vector. And subject distance calculation means for calculating the distance between the image sensor and the image sensor based on the triangulation method. Well realized by a simple configuration performs measurement, those that result the effect is to provide an imaging apparatus for measuring the three-dimensional shape and the subject distance of a subject.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a camera according to a first embodiment of the present invention.
FIG. 2 is a schematic diagram of a photographing screen including a subject image in the embodiment of the present invention.
FIG. 3 is a configuration diagram of a camera according to a second embodiment of the present invention.
FIG. 4 is a configuration diagram of a camera according to a third embodiment of the present invention.
FIG. 5 is a configuration diagram of a camera according to a fourth embodiment of the present invention.
FIG. 6 is a configuration diagram of a conventional imaging apparatus.
[Explanation of symbols]
1 Optical system drive circuit (moving means)
2 Imaging means, lens, CCD (imaging optical system with imaging element)
5 n + 1 reference frame memory (third image memory)
6 nth reference frame memory (first image memory)
7 nth reference frame memory (second image memory)
8 motion vector memory (A) (time difference vector calculation means)
9 Motion vector memory (B) (motion vector calculation means)
10 Motion vector calculation circuit (disparity vector calculation means)
11 Distance information data addition circuit (subject distance calculation means)
Vm Movement vector in the screen (time difference vector) caused by the movement of the subject in the space
Vpara In-screen movement vector (disparity vector) caused by differences in viewpoint
Vto Total movement vector (motion vector) of the subject (image) in the screen

Claims (1)

撮像素子を備えた撮像光学系を、被写体を挟む第1視点及び第2視点間を移動する移動手段と、
第1視点で撮像した撮像画像をフレーム単位で記録する第1の画像メモリと、
第2視点で撮像した撮像画像をフレーム単位で記録する第2の画像メモリと、
前記第1の画像メモリ又は前記第2の画像メモリが記録した撮像画像に係る視点と同一視点で撮像され、かつ直前又は直後のフレーム画像を記録する第3の画像メモリと、
前記第1の画像メモリ出力と前記第2の画像メモリ出力との差である動きベクトルを算出する動きベクトル算出手段と、
前記第3の画像メモリ出力と前記同一視点の撮像画像との差である時間差ベクトルを算出する時間差ベクトル算出手段と、
前記動きベクトルから前記時間差ベクトルの要素を減じて、第1視点及び第2視点間の視差である視差ベクトルを算出する視差ベクトル算出手段と、
前記視差ベクトルを用いて、被写体と前記撮像素子との離間距離を三角測量法に基づいて算出する被写体距離算出手段とを備えることを特徴とする撮像装置。
Moving means for moving an imaging optical system including an imaging element between a first viewpoint and a second viewpoint sandwiching the subject;
A first image memory that records a captured image captured from the first viewpoint in units of frames;
A second image memory for recording a captured image captured from the second viewpoint in units of frames;
A third image memory that is imaged at the same viewpoint as the viewpoint of the captured image recorded by the first image memory or the second image memory, and that records the immediately preceding or immediately following frame image;
Motion vector calculating means for calculating a motion vector that is a difference between the first image memory output and the second image memory output;
Time difference vector calculation means for calculating a time difference vector which is a difference between the third image memory output and the captured image of the same viewpoint;
A disparity vector calculating means for calculating a disparity vector that is a disparity between the first viewpoint and the second viewpoint by subtracting an element of the time difference vector from the motion vector;
An imaging apparatus comprising: a subject distance calculation unit that calculates a separation distance between a subject and the imaging element based on a triangulation method using the parallax vector.
JP2000228699A 2000-07-28 2000-07-28 Imaging device Expired - Fee Related JP3620710B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000228699A JP3620710B2 (en) 2000-07-28 2000-07-28 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000228699A JP3620710B2 (en) 2000-07-28 2000-07-28 Imaging device

Publications (2)

Publication Number Publication Date
JP2002039717A JP2002039717A (en) 2002-02-06
JP3620710B2 true JP3620710B2 (en) 2005-02-16

Family

ID=18721939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000228699A Expired - Fee Related JP3620710B2 (en) 2000-07-28 2000-07-28 Imaging device

Country Status (1)

Country Link
JP (1) JP3620710B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004282129A (en) * 2003-03-12 2004-10-07 Sharp Corp Projection display apparatus
JP2004363856A (en) * 2003-06-04 2004-12-24 Sharp Corp Projection type display device
CN110388960B (en) * 2019-07-05 2021-12-14 燕山大学 Device for realizing high-speed moving product quality detection by using low-speed camera

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07181024A (en) * 1993-12-24 1995-07-18 Canon Inc Method and apparatus for measuring three-dimensional profile
KR100466458B1 (en) * 1999-09-20 2005-01-14 마츠시타 덴끼 산교 가부시키가이샤 Device for assisting automobile driver

Also Published As

Publication number Publication date
JP2002039717A (en) 2002-02-06

Similar Documents

Publication Publication Date Title
JP6004371B2 (en) Imaging device
US9681037B2 (en) Imaging apparatus and its control method and program
JP2015194706A5 (en)
JP2010008507A (en) Camera
US20110149045A1 (en) Camera and method for controlling a camera
US20130076959A1 (en) Imaging Device
WO2019146510A1 (en) Image processing device
JP2003296740A (en) Object monitoring method and object monitoring camera device
JP3620710B2 (en) Imaging device
JP2017037103A (en) Imaging apparatus
JPH09211308A (en) Mechanism for detecting object of automatic focusing image pickup unit
JPS63194237A (en) Camera
JP3518891B2 (en) Camera distance measuring device, camera moving object detection method, and camera
JP2014027436A (en) Subject tracking device and imaging apparatus
JP4740477B2 (en) Stereoscopic imaging adapter lens and stereoscopic imaging system
JP4085720B2 (en) Digital camera
JP3564383B2 (en) 3D video input device
JPH04165773A (en) Video camera
JP2620235B2 (en) Signal forming device
JP2004361431A (en) Imaging unit
JP7324639B2 (en) Subject position estimation device, focus assist device, and programs thereof
KR20230089235A (en) Object tracking pan-tilt apparatus based on ultra-wide camera and its operation method
JP3225594B2 (en) 3D stereoscopic viewing method
JPS63266434A (en) Automatic focusing device
JP2011153919A (en) Three dimensional analyzer of flying object and computer program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071126

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091126

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101126

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101126

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111126

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121126

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121126

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121126

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121126

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees