JP2009025225A - Three-dimensional imaging apparatus and control method for the same, and program - Google Patents

Three-dimensional imaging apparatus and control method for the same, and program Download PDF

Info

Publication number
JP2009025225A
JP2009025225A JP2007190528A JP2007190528A JP2009025225A JP 2009025225 A JP2009025225 A JP 2009025225A JP 2007190528 A JP2007190528 A JP 2007190528A JP 2007190528 A JP2007190528 A JP 2007190528A JP 2009025225 A JP2009025225 A JP 2009025225A
Authority
JP
Japan
Prior art keywords
image
imaging
distance
subject
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007190528A
Other languages
Japanese (ja)
Other versions
JP5224319B2 (en
Inventor
Eiji Ishiyama
英二 石山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007190528A priority Critical patent/JP5224319B2/en
Publication of JP2009025225A publication Critical patent/JP2009025225A/en
Application granted granted Critical
Publication of JP5224319B2 publication Critical patent/JP5224319B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To make possible to obtain mapping images simply and with high precision in consideration of hidden dots. <P>SOLUTION: By synchronizing driving of an imaging section 2A and an imaging section 2B for obtaining range images from a synchronous controller 20, range images and two-dimensional images are obtained. At a correspondent relationship calculating section 30 correspondent relationship between the pixels on the range images and the pixels on the two-dimensional images is computed. On this occasion, at a hidden dot detecting section 31 a hidden dot on a subject faceable from the imaging section 2A but unfaceable from the imaging section 2B is detected on the range images and the two-dimensional images. At a mapping section 32, based on the correspondence relationship, by mapping the two-dimensional images on the range images the mapping images are formed so as to make the hidden dot to be visually. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、被写体の立体形状を表す距離画像、および被写体の明暗および/または色を表す2次元画像を同時に取得する立体撮像装置および立体撮像装置の制御方法並びに立体撮像装置の制御方法をコンピュータに実行させるためのプログラムに関するものである。   The present invention provides a computer with a stereoscopic imaging apparatus, a stereoscopic imaging apparatus control method, and a stereoscopic imaging apparatus control method for simultaneously acquiring a distance image representing a stereoscopic shape of a subject and a two-dimensional image representing the contrast and / or color of the subject. It relates to a program to be executed.

被写体を撮影して画像を取得する撮影装置において、被写体に向けて出射した近赤外線等の測距光が被写体により反射して戻ってくるまでの時間を計測することにより、撮影装置から被写体までの距離を測定して、被写体の立体形状を表す距離画像を作成することが行われている。このように光の反射を用いて被写体までの距離の測定(測距)を行う方式はTOF(Time Of Flight)方式と称され、TOF方式を用いた測距を行うための種々の手法が提案されている(特許文献1〜3参照)。   In a photographing device that captures an image by photographing a subject, the distance from the photographing device to the subject is measured by measuring the time until ranging light such as near infrared rays emitted toward the subject is reflected by the subject and returns. A distance image representing a three-dimensional shape of a subject is created by measuring a distance. The method of measuring the distance to the subject (ranging) using the reflection of light in this way is called a TOF (Time Of Flight) method, and various methods for measuring the distance using the TOF method are proposed. (See Patent Documents 1 to 3).

また、被写体にレーザ光を照射し、レーザ光が発射されてから反射光を検出するまでの飛行時間に基づいて距離画像を、反射光の強度に基づいて可視画像を取得する手法も提案されている(特許文献4参照)。   Also proposed is a method of irradiating a subject with laser light and obtaining a distance image based on the flight time from when the laser light is emitted until the reflected light is detected, and a visible image based on the intensity of the reflected light. (See Patent Document 4).

さらに、TOF方式を用いて距離画像を取得するための撮像手段と、被写体の可視画像である2次元画像を取得するための撮像手段とを備え、距離画像に対して2次元画像をマッピングして立体形状モデルを表すマッピング画像を作成する手法も提案されている(特許文献5参照)。特許文献5に記載された手法は、2つの撮像手段の視差を考慮して距離画像上の各画素と2次元画像上の各画素との対応関係を求め、この対応関係に基づいて距離画像に2次元画像をマッピングしているため、被写体上における互いに対応する画素同士を重ねることができ、これにより、ずれを生じさせることなくマッピング画像を作成することができる。
特表2003−510561号公報 特表2003−532122号公報 特開2004−294420号公報 特開2003−281686号公報 特開2005−87468号公報
Furthermore, an imaging means for acquiring a distance image using the TOF method and an imaging means for acquiring a two-dimensional image that is a visible image of the subject are provided, and the two-dimensional image is mapped to the distance image. A method for creating a mapping image representing a three-dimensional model has also been proposed (see Patent Document 5). In the method described in Patent Document 5, the correspondence between each pixel on the distance image and each pixel on the two-dimensional image is obtained in consideration of the parallax between the two imaging units, and the distance image is obtained based on this correspondence. Since the two-dimensional image is mapped, pixels corresponding to each other on the subject can be overlapped with each other, and thereby a mapping image can be created without causing a shift.
Japanese translation of PCT publication No. 2003-510561 Special table 2003-532122 gazette JP 2004-294420 A JP 2003-281686 A Japanese Patent Laying-Open No. 2005-87468

特許文献5に記載されたように2つの撮像手段を用いて被写体を撮影する場合、2つの撮像手段の位置の違いにより、被写体上において、距離画像取得用の撮像手段からは臨むことができるが、2次元画像取得用の撮像手段からは臨むことができない隠れ点が生じる場合がある。このように隠れ点については、2次元画像を距離画像にマッピングする場合、2次元の濃淡情報(すなわち輝度情報)は存在しないはずである。   When a subject is photographed using two imaging means as described in Patent Literature 5, the distance imaging acquisition means can face the subject on the subject due to the difference in position of the two imaging means. There may be a hidden point that cannot be seen from the imaging means for acquiring a two-dimensional image. As described above, regarding a hidden point, when a two-dimensional image is mapped to a distance image, two-dimensional shading information (that is, luminance information) should not exist.

しかしながら、特許文献5に記載された手法においては、隠れ点を全く考慮していないため、2次元画像を距離画像にマッピングした際に、実際には対応しない画素の画素値が距離画像上にマッピングされてしまうこととなる。   However, since the method described in Patent Document 5 does not consider hidden points at all, when a two-dimensional image is mapped to a distance image, pixel values of pixels that do not actually correspond are mapped onto the distance image. It will be done.

このため、距離画像を取得する撮像手段の光路上にハーフミラーを配設して反射光を2つに分岐し、距離画像と2次元画像とを同時に取得することが考えられる。しかしながら、これを実現するためには、2つの撮像手段およびハーフミラーの精度良く位置決めして配置する必要があるため、その位置の調整が非常に困難なものとなる。   For this reason, it is conceivable to arrange a half mirror on the optical path of the imaging means for acquiring the distance image and branch the reflected light into two to acquire the distance image and the two-dimensional image at the same time. However, in order to realize this, since it is necessary to position and arrange the two image pickup means and the half mirror with high accuracy, it is very difficult to adjust the position.

本発明は上記事情に鑑みなされたものであり、隠れ点を考慮して簡易に精度良くマッピング画像を取得できるようにすることを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to allow a mapping image to be easily and accurately acquired in consideration of hidden points.

本発明による立体撮像装置は、測距光を被写体に照射することにより該被写体による前記測距光の反射光を撮像して、前記被写体の立体形状を表す距離画像用のデータを取得する第1の撮像手段と、
前記第1の撮像手段とは異なる位置に配置された前記被写体の明暗を表す2次元画像を表す画像データを取得する第2の撮像手段と、
前記第1および前記第2の撮像手段の駆動を同期させて、前記距離画像用のデータおよび前記2次元画像を表す画像データを前記第1および前記第2の撮像手段に取得させる同期制御手段と、
前記距離画像用のデータに基づいて、前記被写体の立体形状を表す距離画像を生成する距離画像生成手段と、
前記距離画像上における画素と、前記2次元画像上における画素との対応関係を算出する対応関係算出手段と、
前記被写体上において、前記第1の撮像手段からは臨むことができるが前記第2の撮像手段からは臨むことができない隠れ点を検出する隠れ点検出手段と、
前記対応関係に基づいて、前記隠れ点を視認可能に前記2次元画像を前記距離画像にマッピングしてマッピング画像を生成するマッピング手段とを備えたことを特徴とするものである。
The stereoscopic imaging device according to the present invention is configured to first capture distance data representing a stereoscopic shape of the subject by imaging the reflected light of the distance measuring light by the subject by irradiating the subject with the distance measuring light. Imaging means,
Second imaging means for obtaining image data representing a two-dimensional image representing the brightness of the subject arranged at a position different from the first imaging means;
Synchronization control means for synchronizing the driving of the first and second imaging means to cause the first and second imaging means to acquire the data for the distance image and the image data representing the two-dimensional image; ,
Distance image generation means for generating a distance image representing the three-dimensional shape of the subject based on the data for the distance image;
Correspondence calculation means for calculating the correspondence between the pixels on the distance image and the pixels on the two-dimensional image;
On the subject, a hidden point detecting means for detecting a hidden point that can be seen from the first imaging means but cannot be seen from the second imaging means;
Mapping means for mapping the two-dimensional image to the distance image so as to visually recognize the hidden point based on the correspondence relationship and generating a mapping image is provided.

なお、本発明による立体撮像装置においては、前記隠れ点検出手段を、前記距離画像上の各画素について外向きの法線ベクトルを算出し、前記第2の撮像手段から前記距離画像上の各画素を見込む視線ベクトルを算出し、前記距離画像上の注目画素について、前記法線ベクトルと前記視線ベクトルとの内積が所定のしきい値以上となる場合に、該注目画素を前記隠れ点として検出する手段としてもよい。   In the stereoscopic imaging apparatus according to the present invention, the hidden point detecting means calculates an outward normal vector for each pixel on the distance image, and each pixel on the distance image from the second imaging means. When the inner product of the normal vector and the line-of-sight vector is equal to or greater than a predetermined threshold for the target pixel on the distance image, the target pixel is detected as the hidden point. It may be a means.

また、本発明による立体撮像装置においては、前記隠れ点検出手段を、前記第2の撮像手段から前記距離画像上の各画素を見込む視線ベクトルを算出し、前記距離画像上の注目画素について、該距離画像に該注目画素を見込む前記視線ベクトルを投影し、該距離画像上における前記投影された視線ベクトルに対応する投影線上において、前記視線ベクトルと前記投影線上における投影線対応画素との距離関係を求め、少なくとも1つの前記投影線対応画素が前記視線ベクトルよりも前記第2の撮像手段側にある場合、前記注目画素を前記隠れ点として検出する手段としてもよい。   In the stereoscopic imaging apparatus according to the present invention, the hidden point detection unit calculates a line-of-sight vector that anticipates each pixel on the distance image from the second imaging unit, and for the target pixel on the distance image, Projecting the line-of-sight vector that looks into the target pixel on a distance image, and on the projection line corresponding to the projected line-of-sight vector on the distance image, the distance relationship between the line-of-sight vector and the projection line corresponding pixel on the projection line In other words, when at least one projection line-corresponding pixel is closer to the second imaging unit than the line-of-sight vector, the pixel of interest may be detected as the hidden point.

また、本発明による立体撮像装置においては、前記第1の撮像手段の動作モードを前記第2の撮像手段と同様の動作モードに変更し、前記第1および前記第2の撮像手段に所定のチャートを撮像させ、該撮像により取得された第1および第2のチャート画像に基づいて、前記第1および前記第2の撮像手段の幾何学的情報を取得するキャリブレーション処理を行うキャリブレーション手段をさらに備えるものとしてもよい。   In the stereoscopic imaging apparatus according to the present invention, the operation mode of the first imaging unit is changed to an operation mode similar to that of the second imaging unit, and a predetermined chart is provided to the first and second imaging units. And a calibration means for performing a calibration process for obtaining geometric information of the first and second imaging means based on the first and second chart images obtained by the imaging. It may be provided.

この場合、前記第1の撮像手段を、前記測距光の波長域の光のみを透過するフィルタを、前記第1の撮像手段の光軸上に出し入れ可能に備えてなるものとし、
前記キャリブレーション手段を、前記第1の撮像手段の動作モードを前記第2の撮像手段と同様の動作モードに変更すると、前記フィルタを前記光軸上から退避させる手段としてもよい。
In this case, the first imaging means is provided with a filter that transmits only light in the wavelength range of the distance measuring light so that it can be taken in and out of the optical axis of the first imaging means,
The calibration means may be means for retracting the filter from the optical axis when the operation mode of the first imaging means is changed to an operation mode similar to that of the second imaging means.

本発明による立体撮像装置の制御方法は、第1の撮像手段により、測距光を被写体に照射することにより該被写体による前記測距光の反射光を撮像して、前記被写体の立体形状を表す距離画像用のデータを取得し、前記第1の撮像手段とは異なる位置に配置された第2の撮像手段により前記被写体の明暗を表す2次元画像を表す画像データを取得するに際し、前記第1および前記第2の撮像手段の駆動を同期させて前記距離画像用のデータおよび前記2次元画像を表す画像データを取得し、
前記距離画像用のデータに基づいて、前記被写体の立体形状を表す距離画像を生成し、
前記距離画像上における画素と、前記2次元画像上における画素との対応関係を算出し、
前記被写体上において、前記第1の撮像手段からは臨むことができるが前記第2の撮像手段からは臨むことができない隠れ点を検出し、
前記対応関係に基づいて、前記隠れ点を視認可能に前記2次元画像を前記距離画像にマッピングしてマッピング画像を生成することを特徴とするものである。
According to the control method of the stereoscopic imaging apparatus according to the present invention, the first imaging unit irradiates the subject with the distance measuring light and images the reflected light of the distance measuring light by the subject to represent the three-dimensional shape of the subject. When acquiring distance image data and acquiring image data representing a two-dimensional image representing the brightness of the subject by the second imaging means arranged at a position different from the first imaging means, the first imaging means And synchronizing the driving of the second imaging means to obtain the data for the distance image and the image data representing the two-dimensional image,
Based on the data for the distance image, generate a distance image representing the three-dimensional shape of the subject,
Calculating a correspondence between a pixel on the distance image and a pixel on the two-dimensional image;
On the subject, a hidden point that can be seen from the first image pickup means but cannot be seen from the second image pickup means is detected,
Based on the correspondence relationship, the mapping image is generated by mapping the two-dimensional image to the distance image so that the hidden point can be visually recognized.

なお、本発明による立体撮像装置の制御方法をコンピュータに実行させるためのプログラムとして提供してもよい。   In addition, you may provide as a program for making a computer perform the control method of the three-dimensional imaging device by this invention.

本発明によれば、第1の撮像手段および第2の撮像手段の駆動が同期されて距離画像用のデータおよび2次元画像を表す画像データが取得され、距離画像用のデータに基づいて被写体の立体形状を表す距離画像が生成される。そして、距離画像上における画素と2次元画像上における画素との対応関係が算出され、被写体上において、第1の撮像手段からは臨むことができるが第2の撮像手段からは臨むことができない隠れ点が検出される。そして、隠れ点が視認可能にマッピング画像が作成される。このため、装置の構成を複雑にすることなく、隠れ点を考慮して精度のよいマッピング画像を作成することができる。   According to the present invention, the driving of the first imaging unit and the second imaging unit is synchronized to acquire the data for the distance image and the image data representing the two-dimensional image, and based on the data for the distance image, A distance image representing a three-dimensional shape is generated. Then, the correspondence between the pixels on the distance image and the pixels on the two-dimensional image is calculated, and the hidden image that can be seen from the first imaging means but cannot be seen from the second imaging means on the subject. A point is detected. Then, the mapping image is created so that the hidden point can be visually recognized. Therefore, an accurate mapping image can be created in consideration of hidden points without complicating the configuration of the apparatus.

また、距離画像上の各画素について外向きの法線ベクトルを算出し、第2の撮像手段から距離画像上の各画素を見込む視線ベクトルを算出し、距離画像上の注目画素について、法線ベクトルと視線ベクトルとの内積が正の値となる場合に、その注目画素を隠れ点として検出することにより、簡易に隠れ点を検出することができる。   Further, an outward normal vector is calculated for each pixel on the distance image, a line-of-sight vector that anticipates each pixel on the distance image from the second imaging unit is calculated, and the normal vector is calculated for the target pixel on the distance image. When the inner product of the line vector and the line-of-sight vector is a positive value, the hidden point can be easily detected by detecting the target pixel as the hidden point.

また、第2の撮像手段から距離画像上の各画素を見込む視線ベクトルを算出し、距離画像上の注目画素について、距離画像に注目画素を見込む視線ベクトルを投影し、距離画像上における投影された視線ベクトルに対応する投影線上において、視線ベクトルと投影線上における投影線対応画素との距離関係を求め、少なくとも1つの投影線対応画素が視線ベクトルよりも第2の撮像手段側にある場合、注目画素を隠れ点として検出することにより、演算量は多くなるものの精度良く隠れ点を検出することができる。   In addition, a line-of-sight vector that anticipates each pixel on the distance image is calculated from the second imaging unit, and a line-of-sight vector that anticipates the pixel of interest on the distance image is projected for the pixel of interest on the distance image. When the distance relationship between the line-of-sight vector and the projection line corresponding pixel on the projection line is obtained on the projection line corresponding to the line-of-sight vector, and the at least one projection line-corresponding pixel is closer to the second imaging unit than the line-of-sight vector, By detecting as a hidden point, the hidden point can be detected with high accuracy although the amount of calculation increases.

また、第1の撮像手段の動作モードを第2の撮像手段と同様の動作モードに変更し、第1および第2の撮像手段に所定のチャートを撮像させ、撮像により取得された第1および第2のチャート画像に基づいて、第1および第2の撮像手段の幾何学的情報を取得するキャリブレーション処理を行うことにより、本発明の立体撮像装置において、第1および第2の撮像手段のキャリブレーションを行うことができる。   In addition, the operation mode of the first imaging unit is changed to the operation mode similar to that of the second imaging unit, the first and second imaging units are caused to capture a predetermined chart, and the first and second acquired by the imaging are performed. The calibration of the first and second imaging means is performed in the stereoscopic imaging apparatus of the present invention by performing a calibration process for acquiring geometric information of the first and second imaging means based on the two chart images. Can be performed.

ここで、第1の撮像手は、測距光の波長域の光のみを透過するフィルタを、第1の撮像手段の光軸上に出し入れ可能に備えるものとし、第1の撮像手段の動作モードを第2の撮像手段と同様の動作モードに変更すると、フィルタを光軸上から退避させることにより、第1の撮像手段において、キャリブレーションに必要な画像を容易に取得することができる。   Here, the first imaging hand is provided with a filter that transmits only light in the wavelength range of the ranging light so that it can be taken in and out of the optical axis of the first imaging means, and the operation mode of the first imaging means Is changed to an operation mode similar to that of the second image pickup means, the image required for calibration can be easily acquired in the first image pickup means by retracting the filter from the optical axis.

以下、図面を参照して本発明の実施形態について説明する。図1は本発明の実施形態による立体撮像装置の外観構成を示す前面側斜視図、図2はその背面側斜視図である。図1,2に示すように、本実施形態による立体撮像装置1は、その前面側に、第1の撮像部2Aおよび第2の撮像部2Bを備える。第1の撮像部2Aは距離画像を取得するための撮影を行うものであり、その周囲に被写体に向けて赤外光からなる測距光を照射するための多数のLEDからなるLED群3が設けられている。第2の撮像部2Bは通常の画像である2次元画像を取得するための撮影を行うものである。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a front perspective view showing an external configuration of a stereoscopic imaging apparatus according to an embodiment of the present invention, and FIG. 2 is a rear perspective view thereof. As shown in FIGS. 1 and 2, the stereoscopic imaging apparatus 1 according to the present embodiment includes a first imaging unit 2 </ b> A and a second imaging unit 2 </ b> B on the front side thereof. The first imaging unit 2A performs photographing for acquiring a distance image, and an LED group 3 composed of a large number of LEDs for irradiating distance measuring light composed of infrared light toward a subject around the first imaging unit 2A. Is provided. The second imaging unit 2B performs imaging for acquiring a two-dimensional image that is a normal image.

また、立体撮像装置1の上面には、電源スイッチ4、測距/キャリブレーション切り替えスイッチ5および撮影を行うためのレリーズボタン6が設けられている。また、背面には、撮影により取得した2次元画像、マッピング画像および各種表示を行うための液晶等からなるモニタ7およびモニタ7の表示を切り替える表示切り替えスイッチ8が設けられている。   On the top surface of the stereoscopic imaging apparatus 1, a power switch 4, a distance measurement / calibration switching switch 5, and a release button 6 for performing photographing are provided. Further, on the back side, a monitor 7 made of a two-dimensional image acquired by photographing, a mapping image, a liquid crystal for performing various displays, and a display changeover switch 8 for switching the display of the monitor 7 are provided.

また、背面側から見た右側面には、外部のモニタと接続するための出力端子9、および撮影により取得した画像データを出力したり外部制御入力を行うためのUSB端子10が設けられている。   The right side as viewed from the back side is provided with an output terminal 9 for connecting to an external monitor, and a USB terminal 10 for outputting image data acquired by photographing and for external control input. .

図3は本実施形態による立体撮像装置の内部構成を示す概略ブロック図である。   FIG. 3 is a schematic block diagram showing the internal configuration of the stereoscopic imaging apparatus according to the present embodiment.

第1および第2の撮像部2A,2Bは、レンズ10A,10B、絞り11A,11B、シャッタ12A,12B、CCD13A,13B、アナログフロントエンド(AFE)14A,14BおよびA/D変換部15A,15Bをそれぞれ備える。   The first and second imaging units 2A and 2B include lenses 10A and 10B, diaphragms 11A and 11B, shutters 12A and 12B, CCDs 13A and 13B, analog front ends (AFE) 14A and 14B, and A / D conversion units 15A and 15B. Each is provided.

レンズ10A,10Bは、被写体にピントを合わせるためのフォーカスレンズ、ズーム機能を実現するためのズームレンズ等の複数の機能別レンズにより構成され、不図示のレンズ駆動部によりその位置が調整される。   The lenses 10A and 10B are composed of a plurality of functional lenses such as a focus lens for focusing on a subject and a zoom lens for realizing a zoom function, and their positions are adjusted by a lens driving unit (not shown).

絞り11A,11Bは、不図示の絞り駆動部により、AE処理により得られる絞り値データに基づいて絞り径の調整が行われる。   In the diaphragms 11A and 11B, the diaphragm diameter is adjusted based on the diaphragm value data obtained by the AE process by a diaphragm driving unit (not shown).

シャッタ12A,12Bは、メカニカルシャッタであり、不図示のシャッタ駆動部により、AE処理により得られるシャッタスピードに応じて駆動される。   The shutters 12A and 12B are mechanical shutters and are driven by a shutter driving unit (not shown) according to the shutter speed obtained by the AE process.

CCD13A,13Bは、多数の受光素子を2次元的に配列した光電面を有しており、被写体光がこの光電面に結像して光電変換されてアナログ撮影信号が取得される。また、CCD13Bの前面にはR,G,B各色のフィルタが規則的に配列されたカラーフィルタが配設されている。図4はCCDの構成を示す図である。なお、CCD13A,13Bは同一の構成を有するため、ここではCCD13Aの構成についてのみ説明する。   The CCDs 13A and 13B have a photoelectric surface in which a large number of light receiving elements are two-dimensionally arranged, and subject light is imaged on the photoelectric surface and subjected to photoelectric conversion to obtain an analog photographing signal. A color filter in which R, G, and B color filters are regularly arranged is disposed on the front surface of the CCD 13B. FIG. 4 is a diagram showing the configuration of the CCD. Since the CCDs 13A and 13B have the same configuration, only the configuration of the CCD 13A will be described here.

図4に示すようにCCD13Aは、多数の受光素子40が2次元的に配列されている。また、CCD13Aには、各受光素子40により得られた電気信号を垂直方向の1ライン分転送するための複数の垂直転送CCDからなる垂直転送路41、各受光素子40により得られた電気信号を水平方向の1ライン分転送するための複数の水平転送CCDからなる水平転送路42、および信号電荷を読み出すための読出アンプ43を備える。   As shown in FIG. 4, the CCD 13A has a large number of light receiving elements 40 arranged two-dimensionally. In addition, the CCD 13A receives the electrical signals obtained by the light receiving elements 40 and the vertical transfer paths 41 composed of a plurality of vertical transfer CCDs for transferring the electrical signals obtained by the light receiving elements 40 for one line in the vertical direction. A horizontal transfer path 42 composed of a plurality of horizontal transfer CCDs for transferring one line in the horizontal direction and a read amplifier 43 for reading signal charges are provided.

各受光素子40は、光電変換素子44、主蓄積部45、主蓄積部ゲート46、副蓄積部47、副蓄積部ゲート48および転送路ゲート49からなる。   Each light receiving element 40 includes a photoelectric conversion element 44, a main accumulation unit 45, a main accumulation unit gate 46, a sub accumulation unit 47, a sub accumulation unit gate 48 and a transfer path gate 49.

主蓄積部45は、光電変換素子44が出力する信号電荷を主蓄積部ゲート46から取得して一時的に保存するための蓄積部である。主蓄積部45に蓄積された信号電荷は、不図示のパルス発生器により与えられる転送信号により、転送路ゲート49を介して垂直転送路41に転送される。   The main storage unit 45 is a storage unit for acquiring the signal charge output from the photoelectric conversion element 44 from the main storage unit gate 46 and temporarily storing it. The signal charge accumulated in the main accumulation unit 45 is transferred to the vertical transfer path 41 via the transfer path gate 49 by a transfer signal given by a pulse generator (not shown).

副蓄積部47は、不要電荷を副蓄積部ゲート48から取得して、一時的に保存するための蓄積部である。なお、副蓄積部47に一時的に蓄積された信号電荷は、CCD13Aのリセット時にCCD13Aの基板へ捨てられる。   The sub storage unit 47 is a storage unit for acquiring unnecessary charges from the sub storage unit gate 48 and temporarily storing them. The signal charge temporarily stored in the sub storage unit 47 is discarded to the substrate of the CCD 13A when the CCD 13A is reset.

なお、CCD13A,13Bの詳細な駆動については後述する。   The detailed driving of the CCDs 13A and 13B will be described later.

AFE14A,14Bは、CCD13A,13Bから出力されるアナログ撮像信号に対して、アナログ信号のノイズを除去する処理、およびアナログ信号のゲインを調節する処理(以下アナログ処理とする)を施す。   The AFEs 14A and 14B perform a process for removing noise of the analog signal and a process for adjusting the gain of the analog signal (hereinafter referred to as an analog process) on the analog imaging signals output from the CCDs 13A and 13B.

A/D変換部15A,15Bは、AFE14A,14Bにより処理がなされたアナログ信号をデジタル信号に変換する。なお、撮像部2BのCCD13Bにおいて取得され、デジタル信号に変換された画像データは、画素毎にR,G,Bの濃度値を持つデータである。   The A / D converters 15A and 15B convert the analog signals processed by the AFEs 14A and 14B into digital signals. The image data acquired by the CCD 13B of the imaging unit 2B and converted into a digital signal is data having density values of R, G, and B for each pixel.

また、撮像部2Aは、レンズ10Aの前面に可視光を除去し、赤外光の波長域の光を透過するための可視光除去フィルタ16Aを備える。可視光除去フィルタ16Aは、フィルタ駆動部17により、撮像部2Aの光軸上に出し入れ自在に配置されている。そして、立体撮像装置1の動作モードが測距モードに設定された場合には、可視光除去フィルタ16Aは光軸上に配置され、キャリブレーションモードに設定された場合には、可視光除去フィルタ16Aは光軸上から退避される。   In addition, the imaging unit 2A includes a visible light removal filter 16A for removing visible light on the front surface of the lens 10A and transmitting light in a wavelength region of infrared light. The visible light removing filter 16A is arranged so as to be freely put in and out of the optical axis of the imaging unit 2A by the filter driving unit 17. When the operation mode of the stereoscopic imaging apparatus 1 is set to the distance measurement mode, the visible light removal filter 16A is disposed on the optical axis, and when the calibration mode is set, the visible light removal filter 16A. Is retracted from the optical axis.

また、撮像部2Aは、LED群3を変調するための変調部18を備える。また、CCD13A、AFE14A、フィルタ駆動部17および変調部18の駆動を制御するための駆動制御部19を備える。駆動制御部19は、後述するように立体撮像装置1の動作モードが測距モードおよびキャリブレーションモードに切り替えられた際に、CCD13A、AFE14A、フィルタ駆動部17および変調部18を切り替えられたモードに応じて制御する。   The imaging unit 2 </ b> A includes a modulation unit 18 for modulating the LED group 3. Further, a drive control unit 19 for controlling the drive of the CCD 13A, the AFE 14A, the filter drive unit 17 and the modulation unit 18 is provided. As will be described later, the drive control unit 19 switches the CCD 13A, the AFE 14A, the filter drive unit 17, and the modulation unit 18 to a mode in which the operation mode of the stereoscopic imaging apparatus 1 is switched to the distance measurement mode and the calibration mode. Control accordingly.

撮像部2Bは、レンズ10Bの前面に可視光の波長域の光を透過し、赤外光の波長域の光を除去するための赤外光除去フィルタ16Bを備える。なお、赤外光除去フィルタ16Bは撮像部2Bの光軸上に固定されている。   The imaging unit 2B includes an infrared light removal filter 16B that transmits light in the visible wavelength range and removes light in the infrared wavelength range in front of the lens 10B. The infrared light removal filter 16B is fixed on the optical axis of the imaging unit 2B.

本実施形態による立体撮像装置1は、距離画像および2次元画像を同時に取得するものであるため、同期制御部20により撮像部2A,2Bを同期させて被写体の撮影を行う。   Since the stereoscopic imaging device 1 according to the present embodiment acquires a distance image and a two-dimensional image at the same time, the synchronization control unit 20 synchronizes the imaging units 2A and 2B to shoot a subject.

また、立体撮像装置1は、撮影制御部22、画像処理部23、圧縮/伸長処理部24、フレームメモリ25、メディア制御部26、内部メモリ27、および表示制御部28を備える。   The stereoscopic imaging device 1 also includes a shooting control unit 22, an image processing unit 23, a compression / decompression processing unit 24, a frame memory 25, a media control unit 26, an internal memory 27, and a display control unit 28.

撮影制御部22は、AF処理部およびAE処理部からなる。AF処理部はレンズ10A,10Bの焦点距離を決定し、その指示を不図示のレンズ駆動部に出力する。AE処理部は、絞り値とシャッタ速度とを決定し、その指示を不図示の駆動部に出力する。   The imaging control unit 22 includes an AF processing unit and an AE processing unit. The AF processing unit determines the focal length of the lenses 10A and 10B, and outputs the instruction to a lens driving unit (not shown). The AE processing unit determines the aperture value and the shutter speed, and outputs an instruction to the driving unit (not shown).

画像処理部23は、撮像部2Bが取得した2次元画像を表すデジタルの画像データに対して、ホワイトバランスを調整する処理、階調補正、シャープネス補正、および色補正等の画質補正処理、CCD−RAWデータを輝度信号であるYデータと、青色色差信号であるCbデータおよび赤色色差信号であるCrデータとからなるYCデータに変換するYC処理を行う。   The image processing unit 23 performs processing for adjusting white balance, image quality correction processing such as tone correction, sharpness correction, and color correction for digital image data representing a two-dimensional image acquired by the imaging unit 2B, CCD- YC processing is performed to convert the RAW data into YC data composed of Y data that is a luminance signal, Cb data that is a blue color difference signal, and Cr data that is a red color difference signal.

圧縮/伸長処理部24は、画像処理部23によって補正・変換処理が行われた2次元画像の画像データおよび後述するように生成されたマッピング画像の画像データに対して、例えば、JPEG等の圧縮形式で圧縮処理を行い、画像ファイルを生成する。この画像ファイルには、Exifフォーマット等に基づいて、撮影日時等の付帯情報が格納されたタグが付加される。   The compression / decompression processing unit 24 compresses the image data of the two-dimensional image that has been corrected and converted by the image processing unit 23 and the image data of the mapping image generated as described later, such as JPEG. Perform compression processing in the format to generate an image file. A tag storing incidental information such as shooting date and time is added to the image file based on the Exif format or the like.

フレームメモリ25は、撮像部2Aが取得した距離画像用のデータ、および撮像部2Bが取得した2次元画像を表す画像データに対して、前述の各種画像処理を含む各種処理を行う際に使用する作業用メモリである。   The frame memory 25 is used when performing various processes including the above-described various image processes on the distance image data acquired by the imaging unit 2A and the image data representing the two-dimensional image acquired by the imaging unit 2B. This is a working memory.

メディア制御部26は、記録メディア37にアクセスして2次元画像およびマッピング画像等の画像ファイルの書き込みと読み込みの制御を行う。   The media control unit 26 accesses the recording medium 37 and controls writing and reading of image files such as two-dimensional images and mapping images.

内部メモリ27は、立体撮像装置1において設定される各種定数、およびCPU34が実行するプログラム等を格納する。   The internal memory 27 stores various constants set in the stereoscopic imaging apparatus 1, a program executed by the CPU 34, and the like.

表示制御部28は、フレームメモリ25に格納された画像データをモニタ7に表示させたり、記録メディア37に記録されている2次元画像およびマッピング画像をモニタ7に表示させたりするためのものである。   The display control unit 28 is for displaying the image data stored in the frame memory 25 on the monitor 7 and for displaying the two-dimensional image and the mapping image recorded on the recording medium 37 on the monitor 7. .

また、立体撮像装置1は、距離算出部29、対応関係算出部30、隠れ点検出部31、マッピング部32、キャリブレーション部33およびCPU34を備える。   The stereoscopic imaging device 1 includes a distance calculation unit 29, a correspondence calculation unit 30, a hidden point detection unit 31, a mapping unit 32, a calibration unit 33, and a CPU 34.

距離算出部29は、撮像部2Aが取得した距離画像用のデータを用いて被写体上の各点の立体撮像装置1からの距離を算出して距離画像を生成する。距離画像の生成については後述する。   The distance calculation unit 29 calculates the distance from the stereoscopic imaging device 1 at each point on the subject using the distance image data acquired by the imaging unit 2A to generate a distance image. The generation of the distance image will be described later.

対応関係算出部30は、距離画像上における各画素および2次元画像上における各画素の対応関係を撮像部2A,2Bの視差に基づいて算出する。対応関係の算出については後述する。   The correspondence calculation unit 30 calculates the correspondence between each pixel on the distance image and each pixel on the two-dimensional image based on the parallax of the imaging units 2A and 2B. The calculation of the correspondence relationship will be described later.

隠れ点検出部31は、被写体上において、撮像部2Aからは臨むことができるが撮像部2Bからは臨むことができない隠れ点を検出する。隠れ点の検出についても後述する。   The hidden point detection unit 31 detects a hidden point on the subject that can be seen from the imaging unit 2A but cannot be seen from the imaging unit 2B. The detection of hidden points will also be described later.

マッピング部32は、対応関係算出部30が算出した対応関係に基づいて、2次元画像を距離画像にマッピングして、立体形状モデルであるマッピング画像を生成する。   The mapping unit 32 maps the two-dimensional image to the distance image based on the correspondence calculated by the correspondence calculation unit 30, and generates a mapping image that is a three-dimensional shape model.

キャリブレーション部33は、立体撮像装置1の動作モードがキャリブレーションモードに設定された場合に、撮像部2Aおよび撮像部2Bの幾何学的情報を取得するキャリブレーション処理を行う。   The calibration unit 33 performs a calibration process for acquiring geometric information of the imaging unit 2A and the imaging unit 2B when the operation mode of the stereoscopic imaging device 1 is set to the calibration mode.

CPU34は、レリーズボタン6を含む入力部35からの信号に応じて立体撮像装置1の各部を制御する。   The CPU 34 controls each unit of the stereoscopic imaging device 1 in accordance with a signal from the input unit 35 including the release button 6.

データバス36は、立体撮像装置1を構成する各部およびCPU34に接続されており、立体撮像装置1における各種データおよび各種情報のやり取りを行う。   The data bus 36 is connected to each unit constituting the stereoscopic imaging apparatus 1 and the CPU 34, and exchanges various data and various information in the stereoscopic imaging apparatus 1.

次いで、本実施形態において行われる処理について説明する。図5は本実施形態において行われる処理を示すフローチャートである。なお、撮像部2A,2Bのキャリブレーション処理は終了しており、撮像部2A,2Bの幾何学的情報は内部メモリ27に保存されているものとする。   Next, processing performed in the present embodiment will be described. FIG. 5 is a flowchart showing processing performed in the present embodiment. Note that the calibration processing of the imaging units 2A and 2B has been completed, and the geometric information of the imaging units 2A and 2B is stored in the internal memory 27.

ユーザが、測距/キャリブレーション切り替えスイッチ5を操作することにより立体撮像装置1の動作モードを測距モードに設定し、レリーズボタン6を操作して撮影の指示を行うことによりCPU34が処理を開始し、CPU34からの指示により駆動制御部19がフィルタ駆動部17を駆動して、可視光除去フィルタ16Aを撮像部2Aの光軸上に配置する(ステップST1)。なお、すでに可視光除去フィルタ16Aが撮像部2Aの光軸上に配置されている場合には、ステップST1の処理は省略される。続いて、CPU34からの指示により同期制御部20が撮像部2A,2Bに同期信号を出力する(ステップST2)。これにより、撮像部2A,2Bが撮影の動作を開始する。   The user operates the distance measurement / calibration switch 5 to set the operation mode of the stereoscopic imaging apparatus 1 to the distance measurement mode, and operates the release button 6 to issue a shooting instruction, whereby the CPU 34 starts processing. Then, in response to an instruction from the CPU 34, the drive control unit 19 drives the filter driving unit 17, and arranges the visible light removal filter 16A on the optical axis of the imaging unit 2A (step ST1). If the visible light removal filter 16A has already been arranged on the optical axis of the imaging unit 2A, the process of step ST1 is omitted. Subsequently, the synchronization control unit 20 outputs a synchronization signal to the imaging units 2A and 2B according to an instruction from the CPU 34 (step ST2). As a result, the imaging units 2A and 2B start the shooting operation.

図6は測距モードにおける撮像部2A,2Bの動作のタイミングを示す図である。まず、撮像部2Aの動作について説明する。同期信号が撮像部2Aに入力されると、CCD13Aがリセット信号によりリセットされ、変調部18がLED群3の変調発光を行う(ステップST3)。具体的には、図6に示すように位相が90度ずつずれたあらかじめ定められた周波数の正弦波変調により、3回の変調発光を行う。なお、図6においてはLED群3の変調発光をLED発光と示している。ここで、3回の変調発光の期間をそれぞれ期間T1、期間T2、期間T3とする。また、期間T1,T2,T3の開始時にCCD13Aはリセット信号によりリセットされる。   FIG. 6 is a diagram illustrating the timing of operations of the imaging units 2A and 2B in the distance measurement mode. First, the operation of the imaging unit 2A will be described. When the synchronization signal is input to the imaging unit 2A, the CCD 13A is reset by the reset signal, and the modulation unit 18 performs the modulated light emission of the LED group 3 (step ST3). Specifically, as shown in FIG. 6, modulated light emission is performed three times by sinusoidal modulation of a predetermined frequency whose phase is shifted by 90 degrees. In FIG. 6, the modulated light emission of the LED group 3 is indicated as LED light emission. Here, the period of three times of modulated light emission is defined as period T1, period T2, and period T3, respectively. Also, the CCD 13A is reset by a reset signal at the start of the periods T1, T2, and T3.

LED群3の発光光は被写体により反射され、反射光が撮像部2Aにより受光される。なお、立体撮像装置1から被写体までの距離に応じて、CCD13Aの各受光素子において受光される反射光は発光光と位相差が生じる。なお、CCD13Aに入射した反射光は、発光光の周期の前半おいてCCD13Aの主蓄積部ゲート46が開いて主蓄積部45に、後半においてCCD13Aの副蓄積部ゲート48が開いて副蓄積部47にそれぞれ蓄積される。ここで、変調発光の期間の開始時においては、リセット信号により副蓄積部47に蓄積された信号電荷がCCD13Aの基板(不図示)に捨てられる。   The light emitted from the LED group 3 is reflected by the subject, and the reflected light is received by the imaging unit 2A. The reflected light received by each light receiving element of the CCD 13A has a phase difference with the emitted light according to the distance from the stereoscopic imaging device 1 to the subject. The reflected light incident on the CCD 13A is opened in the main accumulating portion gate 46 of the CCD 13A in the first half of the period of the emitted light and opened in the main accumulating portion 45, and the sub accumulating portion gate 48 in the CCD 13A is opened in the latter half. Respectively. Here, at the start of the modulated light emission period, the signal charge accumulated in the sub accumulation unit 47 by the reset signal is discarded to the substrate (not shown) of the CCD 13A.

なお、期間T1においては発光光の正弦波における0〜180度(0〜π)の期間の反射光の信号電荷が主蓄積部45に蓄積され、期間T2においては発光光の正弦波における90度〜270度(π/2〜3π/2)の期間の反射光の信号電荷が主蓄積部45に蓄積され、期間T3においては発光光の正弦波における180度〜360度(π〜2π)の期間の反射光の信号電荷が主蓄積部45に蓄積される。   In the period T1, the signal charge of the reflected light in the period of 0 to 180 degrees (0 to π) in the sine wave of the emitted light is accumulated in the main accumulation unit 45, and in the period T2, the signal charge of 90 degrees in the sine wave of the emitted light. The signal charges of the reflected light in the period of ˜270 degrees (π / 2 to 3π / 2) are accumulated in the main accumulation unit 45, and in the period T3, the signal charges are 180 degrees to 360 degrees (π to 2π) in the sine wave of the emitted light. The signal charge of the reflected light during the period is accumulated in the main accumulation unit 45.

そして、各期間T1,T2,T3において所定回数(図6においては4回、実際には100〜1000回)の蓄積後、蓄積された信号電荷が転送信号によりAFE14AにCCD転送される。具体的には、主蓄積部45に蓄積された信号電荷は転送路ゲート49を介して垂直転送路41に転送される。次いで、垂直転送路41に転送された信号電荷が、1画素分ずつ水平転送路42に転送される。そして、転送された信号電荷が水平転送路42を介して読出アンプ43に転送される。そして読出アンプ43から信号電荷がAFE14Aに転送される。   Then, after a predetermined number of times (four times in FIG. 6, actually 100 to 1000 times) in each of the periods T1, T2, and T3, the accumulated signal charge is CCD transferred to the AFE 14A by a transfer signal. Specifically, the signal charge accumulated in the main accumulation unit 45 is transferred to the vertical transfer path 41 via the transfer path gate 49. Next, the signal charges transferred to the vertical transfer path 41 are transferred to the horizontal transfer path 42 for each pixel. Then, the transferred signal charge is transferred to the read amplifier 43 through the horizontal transfer path 42. The signal charge is transferred from the read amplifier 43 to the AFE 14A.

AFE14Aに転送された信号電荷はアナログ処理が施され、さらにA/D変換部15Aによりデジタルのデータに変換され、フレームメモリ25に転送される。これにより、フレームメモリ25には距離画像用のデータが保存される。以上、反射光の受光、転送およびデータのフレームメモリ25への保存を、距離画像用のデータの生成とする(ステップST4)。   The signal charge transferred to the AFE 14A is subjected to analog processing, further converted into digital data by the A / D converter 15A, and transferred to the frame memory 25. Thereby, the distance image data is stored in the frame memory 25. As described above, the reception and transfer of the reflected light and the storage of the data in the frame memory 25 are the generation of the data for the distance image (step ST4).

次に、撮像部2Bの動作について説明する。同期信号が撮像部2Bに入力されると、CCD13Bがリセット信号によりリセットされ、あらかじめ定められた時間の露光を行う。これにより、信号電荷がCCD13Bの主蓄積部45に蓄積される。そして、蓄積された信号電荷が転送信号によりAFE14BにCCD転送される。   Next, the operation of the imaging unit 2B will be described. When the synchronization signal is input to the imaging unit 2B, the CCD 13B is reset by the reset signal, and exposure is performed for a predetermined time. As a result, the signal charge is accumulated in the main accumulation unit 45 of the CCD 13B. Then, the accumulated signal charge is CCD transferred to the AFE 14B by the transfer signal.

AFE14Bに転送された信号電荷はアナログ処理が施され、さらにA/D変換部15Bによりデジタルの画像データに変換され、フレームメモリ25に転送される。そして、画像データに対して画像処理部23が必要な画像処理を施す。これにより、フレームメモリ25には画像処理が施された2次元画像を表す画像データが保存される。以上、反射光の受光、転送および画像データのフレームメモリ25への保存および画像処理を2次元画像の生成とする(ステップST5)。   The signal charges transferred to the AFE 14B are subjected to analog processing, further converted into digital image data by the A / D converter 15B, and transferred to the frame memory 25. Then, the image processing unit 23 performs necessary image processing on the image data. As a result, image data representing a two-dimensional image subjected to image processing is stored in the frame memory 25. As described above, reception, transfer of reflected light, storage of image data in the frame memory 25 and image processing are defined as generation of a two-dimensional image (step ST5).

なお、ステップST4およびステップST5の処理は並列に行うようにしてもよく、順次行うようにしてもよい。本実施形態においては並列に行うものとする。   Note that the processing of step ST4 and step ST5 may be performed in parallel or sequentially. In the present embodiment, it is performed in parallel.

ステップST4に続いて、距離算出部29が画素毎に立体撮像装置1から被写体までの距離を算出し(ステップST6)、距離画像を生成する(ステップST7)。以下、距離の算出および距離画像の生成について説明する。図7は距離の算出および距離画像の生成を説明するための図である。   Following step ST4, the distance calculation unit 29 calculates the distance from the stereoscopic imaging device 1 to the subject for each pixel (step ST6), and generates a distance image (step ST7). Hereinafter, calculation of the distance and generation of the distance image will be described. FIG. 7 is a diagram for explaining calculation of a distance and generation of a distance image.

図7に示すように、LED群3からの発光光は正弦波変調されているため、その強度が曲線K1に示すように周期的に変化し、これにより、撮像部2AのCCD13Aが受光する反射光の光量も曲線K2に示すように周期的に変化する。また、LED群3からの発光光と、発光光の被写体による反射光とでは、立体撮像装置1から被写体までの距離に応じて位相の遅れ(位相差)がφ[rad]が生じる。位相差φは光の飛行時間に相当するため、位相差φを求めることにより立体撮像装置1から被写体までの距離を求めることができる。   As shown in FIG. 7, since the emitted light from the LED group 3 is sinusoidally modulated, the intensity thereof periodically changes as shown by the curve K1, thereby reflecting the light received by the CCD 13A of the imaging unit 2A. The amount of light also changes periodically as shown by the curve K2. In addition, between the emitted light from the LED group 3 and the reflected light of the emitted light from the subject, a phase delay (phase difference) of φ [rad] occurs according to the distance from the stereoscopic imaging device 1 to the subject. Since the phase difference φ corresponds to the flight time of light, the distance from the stereoscopic imaging apparatus 1 to the subject can be obtained by obtaining the phase difference φ.

ここで、反射光が発光光より位相差φ遅れている場合、立体撮像装置1から被写体までの距離L[m]は下記の式(1)により表される。   Here, when the reflected light is delayed in phase difference φ from the emitted light, the distance L [m] from the stereoscopic imaging device 1 to the subject is expressed by the following equation (1).

L=c・φ/(4πF) (1)
但し、c:光速、F:変調周波数[Hz]である。
L = c · φ / (4πF) (1)
However, c: speed of light, F: modulation frequency [Hz].

位相差φは、上述した発光光の期間T1,T2,T3における受光光量を用いて算出することができる。ここで、期間T1においては発光光の正弦波における0〜180度(0〜π)の期間の反射光の信号電荷が、期間T2においては発光光の正弦波における90度〜270度(π/2〜3π/2)の期間の反射光の信号電荷が、期間T3においては発光光の正弦波における180度〜360度(π〜2π)の期間の反射光の信号電荷が、それぞれ所定回数分蓄積されている。このため、各期間の受光光量は、期間T1,T2,T3においてそれぞれ取得した各画素の信号値に対応するものとなる。   The phase difference φ can be calculated by using the received light amount in the period T1, T2, T3 of the emitted light described above. Here, in the period T1, the signal charge of the reflected light in the period of 0 to 180 degrees (0 to π) in the sine wave of the emitted light is 90 to 270 degrees (π / The signal charge of the reflected light in the period of 2 to 3π / 2) is equal to the signal charge of the reflected light in the period of 180 degrees to 360 degrees (π to 2π) in the sine wave of the emitted light in the period T3. Accumulated. For this reason, the amount of received light in each period corresponds to the signal value of each pixel acquired in each of the periods T1, T2, and T3.

ここで、曲線K1における0〜90度、90度〜180度、180度〜270度、270度〜360度の位相において求めた曲線K2の受光光量がx1,x2,x3,x4であったとする。なお、図7においては説明のため、LED群3の発光光の1周期分においてのみ、期間T1,T2,T3および受光光量x1,x2,x3,x4を示すものとする。また、受光光量x1,x2,x3,x4を求める間に位相差φは変化せず(すなわち、被写体までの距離が変化せず)、かつ被写体の反射率および外光強度にも変化がないものとする。これにより、期間T1,T2,T3における受光光量[T1],[T2],[T3]は、受光光の振幅をA、外光強度をBとして下記の式(2)〜(4)により表すことができる。   Here, it is assumed that the received light amount of the curve K2 obtained in the phase of 0 to 90 degrees, 90 degrees to 180 degrees, 180 degrees to 270 degrees, 270 degrees to 360 degrees in the curve K1 is x1, x2, x3, x4. . In FIG. 7, for the sake of explanation, the periods T1, T2, T3 and the received light amounts x1, x2, x3, x4 are shown only for one cycle of the emitted light of the LED group 3. Further, the phase difference φ does not change during the calculation of the received light amounts x1, x2, x3, x4 (that is, the distance to the subject does not change), and the subject reflectance and the external light intensity do not change. And Accordingly, the received light amounts [T1], [T2], and [T3] in the periods T1, T2, and T3 are expressed by the following formulas (2) to (4) where the amplitude of the received light is A and the external light intensity is B. be able to.

[T1]=x1+x2=(2A・cosφ+π・(A+B))/2πF (2)
[T2]=x2+x3=(2A・sinφ+π・(A+B))/2πF (3)
[T3]=x3+x4=(−2A・cosφ+π・(A+B))/2πF (4)
これにより、下記の式(5)〜(7)の関係が成立する。
[T1] = x1 + x2 = (2A · cos φ + π · (A + B)) / 2πF (2)
[T2] = x2 + x3 = (2A · sin φ + π · (A + B)) / 2πF (3)
[T3] = x3 + x4 = (− 2A · cos φ + π · (A + B)) / 2πF (4)
Thereby, the relationship of the following formula | equation (5)-(7) is materialized.

x1−x3=[T1]−[T2]=−2√2A・sin(φ−π/4)/2πF(5)
x2−x4=[T2]−[T3]=2√2A・cos(φ−π/4)/2πF (6)
−{(x1−x3)/(x2−x4)}
={([T2]−[T1])/([T2]−[T3])}
=tan(φ−π/4) (7)
したがって、位相差φは下記の式(8)により算出することができる。
x1−x3 = [T1] − [T2] = − 2√2A · sin (φ−π / 4) / 2πF (5)
x2−x4 = [T2] − [T3] = 2√2A · cos (φ−π / 4) / 2πF (6)
-{(X1-x3) / (x2-x4)}
= {([T2]-[T1]) / ([T2]-[T3])}
= Tan (φ-π / 4) (7)
Therefore, the phase difference φ can be calculated by the following equation (8).

φ=tan−1{([T2]−[T1])/([T2]−[T3])}+π/4(8)
距離算出部29は、式(1)および式(8)を用いることにより、CCD13Aの画素毎に立体撮像装置1から被写体までの距離を算出する。そして、算出した距離を用いて被写体の立体形状を表す距離画像を作成する。なお、距離画像の各画素の画素値は、画像上の2次元の位置および距離という3次元の値を有するものとなる。
φ = tan−1 {([T2] − [T1]) / ([T2] − [T3])} + π / 4 (8)
The distance calculation unit 29 calculates the distance from the stereoscopic imaging device 1 to the subject for each pixel of the CCD 13A by using Expression (1) and Expression (8). Then, a distance image representing the three-dimensional shape of the subject is created using the calculated distance. Note that the pixel value of each pixel of the distance image has a three-dimensional value such as a two-dimensional position and distance on the image.

次いで、対応関係算出部30が、距離画像上の各画素および2次元画像上の各画素の対応関係を算出する(ステップST8)。図8は対応関係の算出を説明するための図である。なお、撮像部2A,2B(a)はピンホールカメラモデル(すなわち画像に歪み収差がない)を満たし、各撮像部2A,2Bの画像面(すなわちCCD13A,13Bの画像面)と、各撮像部2A,2Bの焦点O1,O2とを結ぶ直線s1,s2が、各撮像部2A,2Bの焦点O1,O2を結ぶ直線s3と直交し、CCD13A,13Bの画像面の図8におけるx方向が直線s3と平行であるものとする。   Next, the correspondence calculation unit 30 calculates the correspondence between each pixel on the distance image and each pixel on the two-dimensional image (step ST8). FIG. 8 is a diagram for explaining the calculation of the correspondence. The imaging units 2A and 2B (a) satisfy the pinhole camera model (that is, the image has no distortion aberration), the image planes of the imaging units 2A and 2B (that is, the image planes of the CCDs 13A and 13B), and the imaging units. The straight lines s1 and s2 connecting the focal points O1 and O2 of 2A and 2B are orthogonal to the straight line s3 connecting the focal points O1 and O2 of the imaging units 2A and 2B, and the x direction in FIG. 8 of the image plane of the CCDs 13A and 13B is a straight line. It is assumed to be parallel to s3.

被写体上の点P0がCCD13Aの画像面上の点G1に、CCD13Bの画像面上の点G2にそれぞれ結像しているとすると、2次元画像上における点G2が距離画像における点G1に対応することとなる。点G2と点G1とのずれ、すなわち視差は、被写体上の点P0を臨む撮像部2A,2Bの位置の相違に基づいて生じる。ここで、CCD13B上におけるCCD13Aの点G1に相当する位置を点G1′とすると、CCD13Bの画像面における点G1′の座標と点G2の座標との相違が視差Δxとなる。Δxは、基線長d、撮像部2A,2Bの焦点距離fおよび立体撮像装置1から被写体までの距離Lを用いて下記の式(9)により算出される。   Assuming that the point P0 on the subject is focused on the point G1 on the image plane of the CCD 13A and the point G2 on the image plane of the CCD 13B, the point G2 on the two-dimensional image corresponds to the point G1 on the distance image. It will be. The shift between the point G2 and the point G1, that is, the parallax occurs based on the difference in the positions of the imaging units 2A and 2B facing the point P0 on the subject. Here, assuming that the position corresponding to the point G1 of the CCD 13A on the CCD 13B is a point G1 ', the difference between the coordinates of the point G1' and the coordinates of the point G2 on the image plane of the CCD 13B is the parallax Δx. Δx is calculated by the following equation (9) using the base line length d, the focal length f of the imaging units 2A and 2B, and the distance L from the stereoscopic imaging device 1 to the subject.

Δx=d・f/L (9)
なお、基線長dおよび焦点距離fは後述するキャリブレーション処理により算出される。実際には、キャリブレーション処理により撮像部2A,2BにおけるCCD13A,13Bの歪み、位置および向き等の情報を正確に知ることができるため、これらの情報を用いて2次元画像上における各画素と、距離画像上における各画素との対応関係を求めることができる。
Δx = d · f / L (9)
The base line length d and the focal length f are calculated by a calibration process described later. Actually, it is possible to accurately know information such as distortion, position and orientation of the CCDs 13A and 13B in the imaging units 2A and 2B by the calibration process, and therefore using these pieces of information, Correspondence with each pixel on the distance image can be obtained.

続いて、隠れ点検出部31が、被写体上において、撮像部2Aからは臨むことができるが撮像部2Bからは臨むことができない隠れ点を距離画像および2次元画像上において検出する(ステップST9)。   Subsequently, the hidden point detection unit 31 detects a hidden point on the subject that can be seen from the imaging unit 2A but cannot be seen from the imaging unit 2B on the distance image and the two-dimensional image (step ST9). .

図9は隠れ点を説明するための図である。図9に示すように、被写体H上の点P0は、撮像部2Aから臨むことができるが、撮像部2Bからは臨むことができない。このため、撮像部2Bが取得した2次元画像上における点P0に対応する点は、実際には被写体上の点P1に対応するものとなっている。したがって、後述するように距離画像上に2次元画像をマッピングすると、2次元画像上の点P1の画素値が距離画像上の点P0にマッピングされてしまうため、点P0の画素値が被写体の正しい濃淡を表さないものとなってしまう。   FIG. 9 is a diagram for explaining a hidden point. As shown in FIG. 9, the point P0 on the subject H can face from the imaging unit 2A, but cannot face from the imaging unit 2B. For this reason, the point corresponding to the point P0 on the two-dimensional image acquired by the imaging unit 2B actually corresponds to the point P1 on the subject. Therefore, when a two-dimensional image is mapped on the distance image as will be described later, the pixel value of the point P1 on the two-dimensional image is mapped to the point P0 on the distance image, so that the pixel value of the point P0 is correct for the subject. It will not represent light and shade.

隠れ点検出部31は、2次元画像上における隠れ点を検出するために、まず距離画像上の各画素における法線ベクトルnを算出する。図10は法線ベクトルの算出を説明するための図である。図10に示すように、法線ベクトルnを求める注目画素[i,j]の座標をPv[i,j]とすると、法線ベクトルnは注目画素の周囲の画素の座標を用いて下記の式(10)により算出することができる。なお、Pv[i,j]は3次元の座標であるため、法線ベクトルnは3次元のベクトルとなる。   The hidden point detection unit 31 first calculates a normal vector n at each pixel on the distance image in order to detect a hidden point on the two-dimensional image. FIG. 10 is a diagram for explaining the calculation of the normal vector. As shown in FIG. 10, when the coordinate of the target pixel [i, j] for obtaining the normal vector n is Pv [i, j], the normal vector n is expressed as follows using the coordinates of the pixels around the target pixel. It can be calculated by equation (10). Since Pv [i, j] is a three-dimensional coordinate, the normal vector n is a three-dimensional vector.

n=(Pv[i+1,j]−Pv[i-1,j])×(Pv[i,j+1]−Pv[i,j-1]) (10)
また、隠れ点検出部31は、注目画素に対する撮像部2Bの視線ベクトルvを算出する。視線ベクトルvは、注目画素の座標Pv[i,j]と、キャリブレーション処理により得られる撮像部2Bの焦点座標とから算出することができる。なお、視線ベクトルも3次元のベクトルとなる。
n = (Pv [i + 1, j] −Pv [i−1, j]) × (Pv [i, j + 1] −Pv [i, j−1]) (10)
Further, the hidden point detection unit 31 calculates the line-of-sight vector v of the imaging unit 2B with respect to the target pixel. The line-of-sight vector v can be calculated from the coordinates Pv [i, j] of the pixel of interest and the focal point coordinates of the imaging unit 2B obtained by the calibration process. The line-of-sight vector is also a three-dimensional vector.

そして、隠れ点検出部31は、下記の式(11)により、注目画素における法線ベクトルnと視線ベクトルvとの内積IPを算出する。   Then, the hidden point detection unit 31 calculates the inner product IP of the normal vector n and the line-of-sight vector v at the target pixel by the following equation (11).

IP=(n・v)/(|n|・|v|) (11)
ここで、内積IPが正の値となる場合、法線ベクトルnと視線ベクトルvとのなす角度は90度未満となるため、法線ベクトルnは視線ベクトルvの方向を向いていることとなる。一方、内積が負の値となる場合、法線ベクトルnと視線ベクトルvとのなす角度は90度を超えるため、法線ベクトルは視線ベクトルvとは反対の方向を向いていることとなる。このため、隠れ点検出部31は、内積IPをあらかじめ定めたしきい値Th1(Th1≧0、例えばTh1=0)と比較し、IP<Th1の場合に注目画素を隠れ点として検出する。
IP = (n · v) / (| n | · | v |) (11)
Here, when the inner product IP is a positive value, the angle formed between the normal vector n and the line-of-sight vector v is less than 90 degrees, and thus the normal vector n is directed toward the line-of-sight vector v. . On the other hand, when the inner product is a negative value, the angle formed between the normal vector n and the line-of-sight vector v exceeds 90 degrees, and thus the normal vector is directed in the opposite direction to the line-of-sight vector v. Therefore, the hidden point detection unit 31 compares the inner product IP with a predetermined threshold value Th1 (Th1 ≧ 0, for example, Th1 = 0), and detects the target pixel as a hidden point when IP <Th1.

このような手法(第1の手法とする)を用いることにより、高速に隠れ点を検出することができる。しかしながら、第1の手法を用いた場合、図11に示すように、内積IPが正となる点P0を隠れ点として検出することができない。   By using such a method (referred to as the first method), hidden points can be detected at high speed. However, when the first method is used, as shown in FIG. 11, the point P0 at which the inner product IP is positive cannot be detected as a hidden point.

以下、隠れ点の検出のための第2の手法について説明する。まず、隠れ点検出部31は、2次元画像を取得する撮像部2Bの焦点O2から注目画素である点P0までの視線O2P0を距離画像上に投影する。図12は距離画像上への視線の投影を説明するための図である。続いて、隠れ点検出部31は投影した視線O2P0の周囲の距離画像上における画素(図12における斜線で示す画素)を抽出する。そして、撮像部2Bに近い画素(図12における右側の画素)から順に注目画素に向けて各画素の座標と対応する視線上における座標とを比較し、視線および画素のどちらが撮像部2B側にあるかを判定する。そして、視線よりも撮像部2B側に画素があった場合、注目画素を隠れ点として検出する。   Hereinafter, a second method for detecting hidden points will be described. First, the hidden point detection unit 31 projects the line of sight O2P0 from the focus O2 of the imaging unit 2B that acquires a two-dimensional image to the point P0 that is the target pixel on the distance image. FIG. 12 is a diagram for explaining the projection of the line of sight onto the distance image. Subsequently, the hidden point detection unit 31 extracts pixels (pixels indicated by diagonal lines in FIG. 12) on the distance image around the projected line of sight O2P0. Then, the coordinates of each pixel and the corresponding coordinates on the line of sight are compared in order from the pixel close to the imaging unit 2B (the pixel on the right side in FIG. 12) toward the target pixel, and either the line of sight or the pixel is on the imaging unit 2B side. Determine whether. Then, when there is a pixel closer to the imaging unit 2B than the line of sight, the target pixel is detected as a hidden point.

このような第2の手法は正確に隠れ点を検出することができるが、演算に長時間を要するものとなる。このため、精度および演算時間のいずれを重視するかに応じて、第1および第2の手法を切り替えて用いるようにすることが好ましい。   Such a second method can accurately detect hidden points, but requires a long time for calculation. For this reason, it is preferable to switch between the first and second methods depending on which of accuracy and calculation time is important.

そして、マッピング部32が、隠れ点を視認可能に2次元画像を距離画像にマッピングして、立体形状モデルであるマッピング画像を生成する(ステップST10)。具体的には、対応関係算出部30が算出した距離画像上の画素と2次元画像上の画素との対応関係に基づいて、距離画像上の各画素に2次元画像の対応する画素の画素値をマッピングすることによりマッピング画像を生成する。なお、この際、隠れ点については、正確な画素値をマッピングすることができないため、図13に示すようにマッピング画像上における隠れ点をグレーでマッピングする。   Then, the mapping unit 32 maps the two-dimensional image to the distance image so that the hidden point can be visually recognized, and generates a mapping image that is a three-dimensional model (step ST10). Specifically, based on the correspondence between the pixel on the distance image and the pixel on the two-dimensional image calculated by the correspondence calculation unit 30, the pixel value of the pixel corresponding to the two-dimensional image for each pixel on the distance image A mapping image is generated by mapping. At this time, since the accurate pixel value cannot be mapped for the hidden point, the hidden point on the mapping image is mapped in gray as shown in FIG.

なお、図14に示すように対応関係に基づいてマッピングを行った後、隠れ点については他の部分よりも明度を下げるようにしてもよい。また、図15に示すようにマッピング画像の背景に2次元画像を配置し、隠れ点については、2次元画像の対応する背景としてマッピングするようにしてもよい。   Note that, as shown in FIG. 14, after mapping based on the correspondence, the brightness of the hidden points may be lowered as compared with other portions. Further, as shown in FIG. 15, a two-dimensional image may be arranged in the background of the mapping image, and the hidden points may be mapped as the corresponding background of the two-dimensional image.

そして、CPU34は、生成したマッピング画像をモニタ7に表示する(ステップST11)。さらに、ユーザによる記録の指示がなされたか否かを判定し(ステップST12)、ステップST12が否定されると、ステップST2に戻ってステップST2以降の処理を繰り返す。ステップST12が肯定されると、マッピング画像を記録メディア37に記録し(ステップST13)、処理を終了する。なお、この際、マッピング画像とともに2次元画像を記録メディア37に記録してもよい。   Then, the CPU 34 displays the generated mapping image on the monitor 7 (step ST11). Furthermore, it is determined whether or not a recording instruction has been given by the user (step ST12). If step ST12 is negative, the process returns to step ST2 and the processes after step ST2 are repeated. If step ST12 is affirmed, the mapping image is recorded on the recording medium 37 (step ST13), and the process is terminated. At this time, a two-dimensional image may be recorded on the recording medium 37 together with the mapping image.

このように、本実施形態においては、撮像部2A,2Bの駆動を同期して距離画像および2次元画像を取得し、距離画像上における画素と2次元画像上における画素との対応関係を算出し、さらに隠れ点を検出し、隠れ点を視認可能にマッピング画像を作成するようにしたものである。このため、装置の構成を複雑にすることなく、隠れ点を考慮して精度のよいマッピング画像を作成することができる。   As described above, in the present embodiment, the distance image and the two-dimensional image are acquired by synchronizing the driving of the imaging units 2A and 2B, and the correspondence relationship between the pixel on the distance image and the pixel on the two-dimensional image is calculated. Further, a hidden point is detected, and a mapping image is created so that the hidden point can be visually recognized. Therefore, an accurate mapping image can be created in consideration of hidden points without complicating the configuration of the apparatus.

次いで、キャリブレーション処理について説明する。図16はキャリブレーション処理のフローチャートである。   Next, the calibration process will be described. FIG. 16 is a flowchart of the calibration process.

ユーザが測距/キャリブレーション切り替えスイッチ5を操作して立体撮像装置1をキャリブレーションモードに設定し、キャリブレーション処理の指示を行うことによりCPU34が処理を開始し、CPU34からの指示により駆動制御部19がフィルタ駆動部17を駆動して、可視光除去フィルタ16Aを撮像部2Aの光軸上から退避させる(ステップST21)。なお、すでに可視光除去フィルタ16Aが撮像部2Aの光軸上から退避されている場合には、ステップST21の処理は省略される。続いて、図17に示すキャリブレーションチャートが立体撮像装置1の撮影範囲に移動され所定位置に配置される(ステップST22)。なお、キャリブレーションチャートの移動および/または設置は自動で行ってもよく、手動で行ってもよい。   The user operates the distance measurement / calibration switching switch 5 to set the stereoscopic imaging apparatus 1 to the calibration mode, and instructs the calibration process to be started by the CPU 34. In response to an instruction from the CPU 34, the drive control unit 19 drives the filter driving unit 17 to retract the visible light removing filter 16A from the optical axis of the imaging unit 2A (step ST21). If the visible light removal filter 16A has already been retracted from the optical axis of the imaging unit 2A, the process of step ST21 is omitted. Subsequently, the calibration chart shown in FIG. 17 is moved to the photographing range of the stereoscopic imaging apparatus 1 and arranged at a predetermined position (step ST22). Note that the movement and / or setting of the calibration chart may be performed automatically or manually.

次いで、CPU34からの指示により同期制御部20が撮像部2A,2Bに同期信号を出力する(ステップST23)。これにより、撮像部2A,2Bが動作を開始する。   Next, the synchronization control unit 20 outputs a synchronization signal to the imaging units 2A and 2B according to an instruction from the CPU 34 (step ST23). As a result, the imaging units 2A and 2B start operating.

図18はキャリブレーションモードにおける撮像部2A,2Bの動作のタイミングを示す図である。まず、撮像部2Aの動作について説明する。同期信号が撮像部2Aに入力されると、CCD13Aがリセット信号によりリセットされ、あらかじめ定められた時間の露光を行う。これにより、信号電荷がCCD13Aの主蓄積部45に蓄積される。そして、蓄積された信号電荷が転送信号によりAFE14AにCCD転送される。なお、キャリブレーションモードにおいては、撮像部2Aにおいては、LED群3の発光、副蓄積部への蓄積は行われない
AFE14Aに転送された信号電荷はアナログ処理が施され、さらにA/D変換部15Aによりデジタルの画像データに変換され、フレームメモリ25に転送される。そして、画像データに対して画像処理部23が必要な画像処理を施す。これにより、フレームメモリ25にはキャリブレーションチャートの2次元画像であるチャート画像を表す画像データが保存される。以上、反射光の受光、転送および画像データのフレームメモリ25への保存および画像処理を、第1のチャート画像の生成とする(ステップST24)。なお、撮像部2AのCCD13Aにはカラーフィルタは配設されていないため、第1のチャート画像はグレーの画像となる。
FIG. 18 is a diagram illustrating timing of operations of the imaging units 2A and 2B in the calibration mode. First, the operation of the imaging unit 2A will be described. When the synchronization signal is input to the imaging unit 2A, the CCD 13A is reset by the reset signal, and exposure is performed for a predetermined time. As a result, the signal charge is accumulated in the main accumulation unit 45 of the CCD 13A. Then, the accumulated signal charge is CCD transferred to the AFE 14A by the transfer signal. In the calibration mode, the image pickup unit 2A does not emit the light from the LED group 3 and does not accumulate in the sub accumulation unit. The image data is converted into digital image data by 15A and transferred to the frame memory 25. Then, the image processing unit 23 performs necessary image processing on the image data. As a result, the frame memory 25 stores image data representing a chart image that is a two-dimensional image of the calibration chart. As described above, the reception and transfer of the reflected light, the storage of the image data in the frame memory 25 and the image processing are the generation of the first chart image (step ST24). Note that since the color filter is not provided in the CCD 13A of the imaging unit 2A, the first chart image is a gray image.

次に、撮像部2Bの動作について説明する。同期信号が撮像部2Bに入力されると、CCD13Bがリセット信号によりリセットされ、あらかじめ定められた時間の露光を行う。これにより、信号電荷がCCD13Bの主蓄積部45に蓄積される。そして、蓄積された信号電荷が転送信号によりAFE14BにCCD転送される。   Next, the operation of the imaging unit 2B will be described. When the synchronization signal is input to the imaging unit 2B, the CCD 13B is reset by the reset signal, and exposure is performed for a predetermined time. As a result, the signal charge is accumulated in the main accumulation unit 45 of the CCD 13B. Then, the accumulated signal charge is CCD transferred to the AFE 14B by the transfer signal.

AFE14Bに転送された信号電荷はアナログ処理が施され、さらにA/D変換部15Bによりデジタルの画像データに変換され、フレームメモリ25に転送される。そして、画像データに対して画像処理部23が必要な画像処理を施す。これにより、フレームメモリ25にはキャリブレーションチャートの2次元画像であるチャート画像を表す画像データが保存される。以上、反射光の受光、転送および画像データのフレームメモリ25への保存および画像処理を、第2のチャート画像の生成とする(ステップST25)。   The signal charges transferred to the AFE 14B are subjected to analog processing, further converted into digital image data by the A / D converter 15B, and transferred to the frame memory 25. Then, the image processing unit 23 performs necessary image processing on the image data. As a result, the frame memory 25 stores image data representing a chart image that is a two-dimensional image of the calibration chart. As described above, the reception of the reflected light, the transfer, the storage of the image data in the frame memory 25 and the image processing are the generation of the second chart image (step ST25).

なお、ステップST24およびステップST25の処理は並列に行うようにしてもよく、順次行うようにしてもよい。本実施形態においては順次行うものとする。   Note that the processing of step ST24 and step ST25 may be performed in parallel or sequentially. In this embodiment, it shall carry out sequentially.

次いで、キャリブレーション部33が、第1および第2のチャート画像の生成が、必要な回数行われたか否かを判定し(ステップST26)、ステップST26が否定されるとステップST22に戻り、キャリブレーションチャートを移動し、ステップST23以降の処理を繰り返す。   Next, the calibration unit 33 determines whether or not the generation of the first and second chart images has been performed a required number of times (step ST26), and if step ST26 is negative, the process returns to step ST22 to perform calibration. The chart is moved, and the processes after step ST23 are repeated.

ステップST26が肯定されると、第1および第2のチャート画像に基づいて、撮像部2A,2Bの光学系歪みデータを生成し(ステップST27)、さらにステレオキャリブレーションデータを生成する(ステップST28)。具体的には、レンズ10A,10B、CCD13A,13B等の歪みが光学系歪みデータとして生成され、撮像部2A,2Bの基線長、焦点距離および向き等の情報がステレオキャリブレーションデータとして生成される。   If step ST26 is affirmed, based on the first and second chart images, optical system distortion data of the imaging units 2A and 2B is generated (step ST27), and further stereo calibration data is generated (step ST28). . Specifically, distortions such as the lenses 10A and 10B and the CCDs 13A and 13B are generated as optical system distortion data, and information such as the baseline length, focal length, and orientation of the imaging units 2A and 2B is generated as stereo calibration data. .

そして、キャリブレーション部33は生成した光学系歪みデータおよびステレオキャリブレーションデータを内部メモリ27に保存し(ステップST29)、さらに可視光除去フィルタ16Aを光軸上に配置し(ステップST30)、処理を終了する。   And the calibration part 33 preserve | saves the produced | generated optical system distortion data and stereo calibration data in the internal memory 27 (step ST29), and also arrange | positions the visible light removal filter 16A on an optical axis (step ST30), and performs a process. finish.

このように、撮像部2Aの動作モードを撮像部2Bと同様の動作モードに変更し、撮像部2A,2Bにキャリブレーションチャートを撮像させ、撮像により取得された第1および第2の2次元画像に基づいてキャリブレーション処理を行うことにより、本実施形態による立体撮像装置1において、撮像部2A,2Bのキャリブレーションを行うことができる。   As described above, the operation mode of the imaging unit 2A is changed to the same operation mode as that of the imaging unit 2B, the calibration charts are captured by the imaging units 2A and 2B, and the first and second two-dimensional images acquired by imaging. By performing the calibration process based on the above, the imaging units 2A and 2B can be calibrated in the stereoscopic imaging apparatus 1 according to the present embodiment.

ここで、撮像部2Aは、可視光除去フィルタ16Aを撮像部2Aの光軸上に出し入れ可能に備えているため、可視光除去フィルタ16Aを光軸上から退避させることにより、撮像部2Aにおいてキャリブレーションに必要なチャート画像を容易に取得することができる。   Here, since the imaging unit 2A includes the visible light removal filter 16A so that it can be taken in and out of the optical axis of the imaging unit 2A, the imaging unit 2A performs calibration by retracting the visible light removal filter 16A from the optical axis. The chart image required for the operation can be easily acquired.

なお、上記実施形態においては、隠れ点の表示の態様は図13から図15に示すものに限定されるものではなく、隠れ点であることが視認可能な任意の手法を用いることができる。   In the above-described embodiment, the display mode of the hidden point is not limited to that shown in FIGS. 13 to 15, and any method that allows visual recognition of the hidden point can be used.

以上、本発明の実施形態に係る立体撮像装置1について説明したが、コンピュータを、上記の距離算出部29、対応関係算出部30、隠れ点検出部31、マッピング部32、およびキャリブレーション部33に対応する手段として機能させ、図5および図16に示すような処理を行わせるプログラムも、本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も、本発明の実施形態の1つである。   The stereoscopic imaging device 1 according to the embodiment of the present invention has been described above, but the computer is used as the distance calculation unit 29, the correspondence calculation unit 30, the hidden point detection unit 31, the mapping unit 32, and the calibration unit 33. A program that functions as a corresponding means and performs processing as shown in FIGS. 5 and 16 is also one embodiment of the present invention. A computer-readable recording medium in which such a program is recorded is also one embodiment of the present invention.

本発明の実施形態による立体撮像装置の外観構成を示す前面側斜視図1 is a front perspective view showing an external configuration of a stereoscopic imaging apparatus according to an embodiment of the present invention. 本発明の実施形態による立体撮像装置の外観構成を示す背面側斜視図The rear side perspective view which shows the external appearance structure of the three-dimensional imaging device by embodiment of this invention 本実施形態による立体撮像装置の内部構成を示す概略ブロック図Schematic block diagram showing the internal configuration of the stereoscopic imaging apparatus according to the present embodiment CCDの構成を示す図Diagram showing the structure of the CCD 本実施形態において行われる処理を示すフローチャートA flowchart showing processing performed in the present embodiment 測距モードにおける撮像部2A,2Bの動作のタイミングを示す図The figure which shows the timing of operation | movement of the imaging parts 2A and 2B in ranging mode 距離の算出および距離画像の生成を説明するための図Diagram for explaining distance calculation and distance image generation 対応関係の算出を説明するための図Diagram for explaining the calculation of correspondence 隠れ点を説明するための図Illustration for explaining hidden points 法線ベクトルの算出を説明するための図Diagram for explaining normal vector calculation 第1の手法により隠れ点の検出ができない場合を示す図The figure which shows the case where a hidden point cannot be detected by the 1st method 距離画像上への視線の投影を説明するための図The figure for demonstrating projection of a gaze on a distance picture マッピング画像上における隠れ点の表示の態様を示す図(その1)The figure which shows the aspect of a hidden point display on a mapping image (the 1) マッピング画像上における隠れ点の表示の態様を示す図(その2)The figure which shows the aspect of a hidden point display on a mapping image (the 2) マッピング画像上における隠れ点の表示の態様を示す図(その3)The figure which shows the aspect of a hidden point display on a mapping image (the 3) キャリブレーション処理のフローチャートFlow chart of calibration process キャリブレーションチャートを示す図Diagram showing calibration chart キャリブレーションモードにおける撮像部2A,2Bの動作のタイミングを示す図The figure which shows the timing of operation | movement of the imaging parts 2A and 2B in a calibration mode

符号の説明Explanation of symbols

1 立体撮像装置
2A,2B 撮像部
3 LED群
7 モニタ
13A,13B CCD
16A 可視光除去フィルタ
16B 赤外光除去フィルタ
17 フィルタ駆動部
18 変調部
29 距離算出部
30 対応関係算出部
31 隠れ点検出部
32 マッピング部
33 キャリブレーション部
34 CPU
DESCRIPTION OF SYMBOLS 1 Stereo imaging device 2A, 2B Image pick-up part 3 LED group 7 Monitor 13A, 13B CCD
16A Visible light removing filter 16B Infrared light removing filter 17 Filter driving unit 18 Modulating unit 29 Distance calculating unit 30 Corresponding relationship calculating unit 31 Hidden point detecting unit 32 Mapping unit 33 Calibration unit 34 CPU

Claims (7)

測距光を被写体に照射することにより該被写体による前記測距光の反射光を撮像して、前記被写体の立体形状を表す距離画像用のデータを取得する第1の撮像手段と、
前記第1の撮像手段とは異なる位置に配置された前記被写体の明暗を表す2次元画像を表す画像データを取得する第2の撮像手段と、
前記第1および前記第2の撮像手段の駆動を同期させて、前記距離画像用のデータおよび前記2次元画像を表す画像データを前記第1および前記第2の撮像手段に取得させる同期制御手段と、
前記距離画像用のデータに基づいて、前記被写体の立体形状を表す距離画像を生成する距離画像生成手段と、
前記距離画像上における画素と、前記2次元画像上における画素との対応関係を算出する対応関係算出手段と、
前記被写体上において、前記第1の撮像手段からは臨むことができるが前記第2の撮像手段からは臨むことができない隠れ点を検出する隠れ点検出手段と、
前記対応関係に基づいて、前記隠れ点を視認可能に前記2次元画像を前記距離画像にマッピングしてマッピング画像を生成するマッピング手段とを備えたことを特徴とする立体撮像装置。
First imaging means for capturing distance image data representing a three-dimensional shape of the subject by imaging the reflected light of the distance measuring light by the subject by irradiating the subject with distance measuring light;
Second imaging means for obtaining image data representing a two-dimensional image representing the brightness of the subject arranged at a position different from the first imaging means;
Synchronization control means for synchronizing the driving of the first and second imaging means to cause the first and second imaging means to acquire the data for the distance image and the image data representing the two-dimensional image; ,
Distance image generation means for generating a distance image representing the three-dimensional shape of the subject based on the data for the distance image;
Correspondence calculation means for calculating the correspondence between the pixels on the distance image and the pixels on the two-dimensional image;
On the subject, a hidden point detecting means for detecting a hidden point that can be seen from the first imaging means but cannot be seen from the second imaging means;
A stereoscopic imaging apparatus comprising: mapping means for mapping the two-dimensional image to the distance image so as to visually recognize the hidden point based on the correspondence relationship and generating a mapping image.
前記隠れ点検出手段は、前記距離画像上の各画素について外向きの法線ベクトルを算出し、前記第2の撮像手段から前記距離画像上の各画素を見込む視線ベクトルを算出し、前記距離画像上の注目画素について、前記法線ベクトルと前記視線ベクトルとの内積が所定のしきい値以上となる場合に、該注目画素を前記隠れ点として検出する手段であることを特徴とする請求項1記載の立体撮像装置。   The hidden point detection means calculates an outward normal vector for each pixel on the distance image, calculates a line-of-sight vector that anticipates each pixel on the distance image from the second imaging means, and the distance image The upper pixel of interest is means for detecting the pixel of interest as the hidden point when the inner product of the normal vector and the line-of-sight vector is equal to or greater than a predetermined threshold value. The three-dimensional imaging device described. 前記隠れ点検出手段は、前記第2の撮像手段から前記距離画像上の各画素を見込む視線ベクトルを算出し、前記距離画像上の注目画素について、該距離画像に該注目画素を見込む前記視線ベクトルを投影し、該距離画像上における前記投影された視線ベクトルに対応する投影線上において、前記視線ベクトルと前記投影線上における投影線対応画素との距離関係を求め、少なくとも1つの前記投影線対応画素が前記視線ベクトルよりも前記第2の撮像手段側にある場合、前記注目画素を前記隠れ点として検出する手段であることを特徴とする請求項1記載の立体撮像装置。   The hidden point detecting means calculates a line-of-sight vector that anticipates each pixel on the distance image from the second imaging means, and for the pixel of interest on the distance image, the line-of-sight vector that anticipates the pixel of interest on the distance image And a distance relationship between the line-of-sight vector and the projection line corresponding pixel on the projection line is obtained on a projection line corresponding to the projected line-of-sight vector on the distance image, and at least one projection line corresponding pixel is The stereoscopic imaging apparatus according to claim 1, wherein the stereoscopic imaging device is a unit that detects the target pixel as the hidden point when located closer to the second imaging unit than the line-of-sight vector. 前記第1の撮像手段の動作モードを前記第2の撮像手段と同様の動作モードに変更し、前記第1および前記第2の撮像手段に所定のチャートを撮像させ、該撮像により取得された第1および第2のチャート画像に基づいて、前記第1および前記第2の撮像手段の幾何学的情報を取得するキャリブレーション処理を行うキャリブレーション手段をさらに備えたことを特徴とする請求項1から3のいずれか1項記載の立体撮像装置。   The operation mode of the first imaging unit is changed to an operation mode similar to that of the second imaging unit, the first and second imaging units are caused to capture a predetermined chart, and the first image acquired by the imaging is obtained. 2. The apparatus according to claim 1, further comprising calibration means for performing a calibration process for acquiring geometric information of the first and second imaging means based on the first and second chart images. The stereoscopic imaging device according to any one of 3. 前記第1の撮像手段が、前記測距光の波長域の光のみを透過するフィルタを、前記第1の撮像手段の光軸上に出し入れ可能に備えてなり、
前記キャリブレーション手段は、前記第1の撮像手段の動作モードを前記第2の撮像手段と同様の動作モードに変更すると、前記フィルタを前記光軸上から退避させる手段であることを特徴とする請求項4記載の立体撮像装置。
The first imaging means includes a filter that transmits only light in the wavelength range of the ranging light so that it can be taken in and out of the optical axis of the first imaging means;
The calibration means is means for retracting the filter from the optical axis when the operation mode of the first imaging means is changed to an operation mode similar to that of the second imaging means. Item 5. The stereoscopic imaging device according to Item 4.
第1の撮像手段により、測距光を被写体に照射することにより該被写体による前記測距光の反射光を撮像して、前記被写体の立体形状を表す距離画像用のデータを取得し、前記第1の撮像手段とは異なる位置に配置された第2の撮像手段により前記被写体の明暗を表す2次元画像を表す画像データを取得するに際し、前記第1および前記第2の撮像手段の駆動を同期させて前記距離画像用のデータおよび前記2次元画像を表す画像データを取得し、
前記距離画像用のデータに基づいて、前記被写体の立体形状を表す距離画像を生成し、
前記距離画像上における画素と、前記2次元画像上における画素との対応関係を算出し、
前記被写体上において、前記第1の撮像手段からは臨むことができるが前記第2の撮像手段からは臨むことができない隠れ点を検出し、
前記対応関係に基づいて、前記隠れ点を視認可能に前記2次元画像を前記距離画像にマッピングしてマッピング画像を生成することを特徴とする立体撮像装置の制御方法。
The first imaging means irradiates the subject with distance measuring light to capture the reflected light of the distance measuring light by the subject, obtain distance image data representing the three-dimensional shape of the subject, and When acquiring image data representing a two-dimensional image representing the brightness of the subject by the second imaging means arranged at a position different from the one imaging means, the driving of the first and second imaging means is synchronized. And obtaining the distance image data and the image data representing the two-dimensional image,
Based on the data for the distance image, generate a distance image representing the three-dimensional shape of the subject,
Calculating a correspondence between a pixel on the distance image and a pixel on the two-dimensional image;
On the subject, a hidden point that can be seen from the first image pickup means but cannot be seen from the second image pickup means is detected,
A control method for a stereoscopic imaging apparatus, wherein a mapping image is generated by mapping the two-dimensional image to the distance image so that the hidden point can be visually recognized based on the correspondence relationship.
第1の撮像手段により、測距光を被写体に照射することにより該被写体による前記測距光の反射光を撮像して、前記被写体の立体形状を表す距離画像用のデータを取得し、前記第1の撮像手段とは異なる位置に配置された第2の撮像手段により前記被写体の明暗を表す2次元画像を表す画像データを取得するに際し、前記第1および前記第2の撮像手段の駆動を同期させて前記距離画像用のデータおよび前記2次元画像を表す画像データを取得する手順と、
前記距離画像用のデータに基づいて、前記被写体の立体形状を表す距離画像を生成する手順と、
前記距離画像上における画素と、前記2次元画像上における画素との対応関係を算出する手順と、
前記被写体上において、前記第1の撮像手段からは臨むことができるが前記第2の撮像手段からは臨むことができない隠れ点を検出する手順と、
前記対応関係に基づいて、前記隠れ点を視認可能に前記2次元画像を前記距離画像にマッピングしてマッピング画像を生成する手順とを有することを特徴とする立体撮像装置の制御方法をコンピュータに実行させるためのプログラム。
The first imaging means irradiates the subject with distance measuring light to capture the reflected light of the distance measuring light by the subject, obtain distance image data representing the three-dimensional shape of the subject, and When acquiring image data representing a two-dimensional image representing the brightness of the subject by the second imaging means arranged at a position different from the one imaging means, the driving of the first and second imaging means is synchronized. A procedure for obtaining the distance image data and the image data representing the two-dimensional image;
A procedure for generating a distance image representing the three-dimensional shape of the subject based on the data for the distance image;
A procedure for calculating a correspondence between a pixel on the distance image and a pixel on the two-dimensional image;
On the subject, a procedure for detecting a hidden point that can be faced from the first image pickup means but cannot be seen from the second image pickup means;
A method of controlling a stereoscopic imaging apparatus, comprising: mapping a two-dimensional image to the distance image to generate a mapping image based on the correspondence relationship so that the hidden point can be visually recognized. Program to let you.
JP2007190528A 2007-07-23 2007-07-23 Stereoscopic imaging device, stereoscopic imaging device control method, and program Expired - Fee Related JP5224319B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007190528A JP5224319B2 (en) 2007-07-23 2007-07-23 Stereoscopic imaging device, stereoscopic imaging device control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007190528A JP5224319B2 (en) 2007-07-23 2007-07-23 Stereoscopic imaging device, stereoscopic imaging device control method, and program

Publications (2)

Publication Number Publication Date
JP2009025225A true JP2009025225A (en) 2009-02-05
JP5224319B2 JP5224319B2 (en) 2013-07-03

Family

ID=40397155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007190528A Expired - Fee Related JP5224319B2 (en) 2007-07-23 2007-07-23 Stereoscopic imaging device, stereoscopic imaging device control method, and program

Country Status (1)

Country Link
JP (1) JP5224319B2 (en)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101866106A (en) * 2009-04-15 2010-10-20 奥林巴斯映像株式会社 Camera head
JP2011123071A (en) * 2009-12-10 2011-06-23 Honda Motor Co Ltd Image capturing device, method for searching occlusion area, and program
JP2013102327A (en) * 2011-11-08 2013-05-23 Yamaha Corp Deflection angle calculating device and sound processing device
WO2014122713A1 (en) * 2013-02-08 2014-08-14 三洋電機株式会社 Information acquisition device and object detection device
WO2017116662A1 (en) * 2015-12-28 2017-07-06 Artilux Corporation Eye gesture tracking
JP2017181401A (en) * 2016-03-31 2017-10-05 セコム株式会社 Object detection sensor
US9893112B2 (en) 2015-08-27 2018-02-13 Artilux Corporation Wide spectrum optical sensor
JP2018055675A (en) * 2016-08-01 2018-04-05 コグネックス・コーポレイション System and method for improved 3d pose scoring and for eliminating miscellaneous point in 3d image data
US9954016B2 (en) 2015-08-04 2018-04-24 Artilux Corporation Germanium-silicon light sensing apparatus
CN108919294A (en) * 2013-11-20 2018-11-30 松下知识产权经营株式会社 Ranging camera system and solid-state imager
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
US10269862B2 (en) 2015-07-23 2019-04-23 Artilux Corporation High efficiency wide spectrum sensor
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US10564718B2 (en) 2015-08-04 2020-02-18 Artilux, Inc. Eye gesture tracking
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
US10777692B2 (en) 2018-02-23 2020-09-15 Artilux, Inc. Photo-detecting apparatus and photo-detecting method thereof
US10854770B2 (en) 2018-05-07 2020-12-01 Artilux, Inc. Avalanche photo-transistor
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
US10886312B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10886311B2 (en) 2018-04-08 2021-01-05 Artilux, Inc. Photo-detecting apparatus
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus
TWI743148B (en) * 2016-07-15 2021-10-21 光程研創股份有限公司 Eye gesture tracking computer implement method, eye gesture tracking systems and apparatus
WO2022209166A1 (en) * 2021-03-31 2022-10-06 ソニーグループ株式会社 Information processing device, information processing method, and calibrating target
US11630212B2 (en) 2018-02-23 2023-04-18 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102248404B1 (en) 2014-11-17 2021-05-07 삼성전자주식회사 Method and device for analyzing motion

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01100492A (en) * 1987-10-14 1989-04-18 Matsushita Electric Ind Co Ltd Laser vision sensor
JPH09134449A (en) * 1995-11-09 1997-05-20 Ainesu:Kk Texture mapping method for three-dimensional model
JP2000322576A (en) * 1999-05-11 2000-11-24 Toshiba Corp Method for preparing three-dimensional image data and method for preparing optional viewpoint image using three-dimensional image data
JP2001153612A (en) * 1999-11-25 2001-06-08 Olympus Optical Co Ltd Three-dimensional image pickup device and method, and inteference light generating device
JP2001202113A (en) * 2000-01-20 2001-07-27 Minolta Co Ltd Working method and working system
JP2001291116A (en) * 2000-04-11 2001-10-19 Sony Corp Device and method for generating three-dimensional image and program providing medium
JP2004259114A (en) * 2003-02-27 2004-09-16 Seiko Epson Corp Object identification method, object identification device, and object identification program
WO2004114224A1 (en) * 2003-06-20 2004-12-29 Nippon Telegraph And Telephone Corporation Virtual visual point image generating method and 3-d image display method and device
JP2005087468A (en) * 2003-09-17 2005-04-07 Shoji Kawahito Image pickup device provided with distance image measurement function and endoscopic apparatus
JP2005101797A (en) * 2003-09-24 2005-04-14 Victor Co Of Japan Ltd Stereoscopic display system
JP2007071891A (en) * 2006-12-01 2007-03-22 Konica Minolta Sensing Inc Three-dimensional measuring device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01100492A (en) * 1987-10-14 1989-04-18 Matsushita Electric Ind Co Ltd Laser vision sensor
JPH09134449A (en) * 1995-11-09 1997-05-20 Ainesu:Kk Texture mapping method for three-dimensional model
JP2000322576A (en) * 1999-05-11 2000-11-24 Toshiba Corp Method for preparing three-dimensional image data and method for preparing optional viewpoint image using three-dimensional image data
JP2001153612A (en) * 1999-11-25 2001-06-08 Olympus Optical Co Ltd Three-dimensional image pickup device and method, and inteference light generating device
JP2001202113A (en) * 2000-01-20 2001-07-27 Minolta Co Ltd Working method and working system
JP2001291116A (en) * 2000-04-11 2001-10-19 Sony Corp Device and method for generating three-dimensional image and program providing medium
JP2004259114A (en) * 2003-02-27 2004-09-16 Seiko Epson Corp Object identification method, object identification device, and object identification program
WO2004114224A1 (en) * 2003-06-20 2004-12-29 Nippon Telegraph And Telephone Corporation Virtual visual point image generating method and 3-d image display method and device
JP2005087468A (en) * 2003-09-17 2005-04-07 Shoji Kawahito Image pickup device provided with distance image measurement function and endoscopic apparatus
JP2005101797A (en) * 2003-09-24 2005-04-14 Victor Co Of Japan Ltd Stereoscopic display system
JP2007071891A (en) * 2006-12-01 2007-03-22 Konica Minolta Sensing Inc Three-dimensional measuring device

Cited By (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101866106A (en) * 2009-04-15 2010-10-20 奥林巴斯映像株式会社 Camera head
JP2011123071A (en) * 2009-12-10 2011-06-23 Honda Motor Co Ltd Image capturing device, method for searching occlusion area, and program
JP2013102327A (en) * 2011-11-08 2013-05-23 Yamaha Corp Deflection angle calculating device and sound processing device
WO2014122713A1 (en) * 2013-02-08 2014-08-14 三洋電機株式会社 Information acquisition device and object detection device
CN108919294A (en) * 2013-11-20 2018-11-30 松下知识产权经营株式会社 Ranging camera system and solid-state imager
US10615219B2 (en) 2015-07-23 2020-04-07 Artilux, Inc. High efficiency wide spectrum sensor
US10269862B2 (en) 2015-07-23 2019-04-23 Artilux Corporation High efficiency wide spectrum sensor
US11335725B2 (en) 2015-07-23 2022-05-17 Artilux, Inc. High efficiency wide spectrum sensor
US10964742B2 (en) 2015-08-04 2021-03-30 Artilux, Inc. Germanium-silicon light sensing apparatus II
US10056415B2 (en) 2015-08-04 2018-08-21 Artilux Corporation Germanium-silicon light sensing apparatus
US10564718B2 (en) 2015-08-04 2020-02-18 Artilux, Inc. Eye gesture tracking
US9954016B2 (en) 2015-08-04 2018-04-24 Artilux Corporation Germanium-silicon light sensing apparatus
US10685994B2 (en) 2015-08-04 2020-06-16 Artilux, Inc. Germanium-silicon light sensing apparatus
US10256264B2 (en) 2015-08-04 2019-04-09 Artilux Corporation Germanium-silicon light sensing apparatus
US10861888B2 (en) 2015-08-04 2020-12-08 Artilux, Inc. Silicon germanium imager with photodiode in trench
US10269838B2 (en) 2015-08-04 2019-04-23 Artilux Corporation Germanium-silicon light sensing apparatus
US10707260B2 (en) 2015-08-04 2020-07-07 Artilux, Inc. Circuit for operating a multi-gate VIS/IR photodiode
US11755104B2 (en) 2015-08-04 2023-09-12 Artilux, Inc. Eye gesture tracking
US10761599B2 (en) 2015-08-04 2020-09-01 Artilux, Inc. Eye gesture tracking
US10756127B2 (en) 2015-08-04 2020-08-25 Artilux, Inc. Germanium-silicon light sensing apparatus
US11756969B2 (en) 2015-08-04 2023-09-12 Artilux, Inc. Germanium-silicon light sensing apparatus
US9893112B2 (en) 2015-08-27 2018-02-13 Artilux Corporation Wide spectrum optical sensor
US10770504B2 (en) 2015-08-27 2020-09-08 Artilux, Inc. Wide spectrum optical sensor
US10157954B2 (en) 2015-08-27 2018-12-18 Artilux Corporation Wide spectrum optical sensor
US10739443B2 (en) 2015-11-06 2020-08-11 Artilux, Inc. High-speed light sensing apparatus II
US11131757B2 (en) 2015-11-06 2021-09-28 Artilux, Inc. High-speed light sensing apparatus
US10741598B2 (en) 2015-11-06 2020-08-11 Atrilux, Inc. High-speed light sensing apparatus II
US10418407B2 (en) 2015-11-06 2019-09-17 Artilux, Inc. High-speed light sensing apparatus III
US10353056B2 (en) 2015-11-06 2019-07-16 Artilux Corporation High-speed light sensing apparatus
US10310060B2 (en) 2015-11-06 2019-06-04 Artilux Corporation High-speed light sensing apparatus
US11749696B2 (en) 2015-11-06 2023-09-05 Artilux, Inc. High-speed light sensing apparatus II
US10795003B2 (en) 2015-11-06 2020-10-06 Artilux, Inc. High-speed light sensing apparatus
US11747450B2 (en) 2015-11-06 2023-09-05 Artilux, Inc. High-speed light sensing apparatus
US10254389B2 (en) 2015-11-06 2019-04-09 Artilux Corporation High-speed light sensing apparatus
US10886312B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US10886309B2 (en) 2015-11-06 2021-01-05 Artilux, Inc. High-speed light sensing apparatus II
US11637142B2 (en) 2015-11-06 2023-04-25 Artilux, Inc. High-speed light sensing apparatus III
US11579267B2 (en) 2015-11-06 2023-02-14 Artilux, Inc. High-speed light sensing apparatus
CN108475109A (en) * 2015-12-28 2018-08-31 奥特逻科集团 Eyes Attitude Tracking
CN108475109B (en) * 2015-12-28 2022-02-01 光程研创股份有限公司 Eye posture tracking
WO2017116662A1 (en) * 2015-12-28 2017-07-06 Artilux Corporation Eye gesture tracking
JP2017181401A (en) * 2016-03-31 2017-10-05 セコム株式会社 Object detection sensor
TWI743148B (en) * 2016-07-15 2021-10-21 光程研創股份有限公司 Eye gesture tracking computer implement method, eye gesture tracking systems and apparatus
JP2018055675A (en) * 2016-08-01 2018-04-05 コグネックス・コーポレイション System and method for improved 3d pose scoring and for eliminating miscellaneous point in 3d image data
US10482621B2 (en) 2016-08-01 2019-11-19 Cognex Corporation System and method for improved scoring of 3D poses and spurious point removal in 3D image data
US10777692B2 (en) 2018-02-23 2020-09-15 Artilux, Inc. Photo-detecting apparatus and photo-detecting method thereof
US11630212B2 (en) 2018-02-23 2023-04-18 Artilux, Inc. Light-sensing apparatus and light-sensing method thereof
US11329081B2 (en) 2018-04-08 2022-05-10 Artilux, Inc. Photo-detecting apparatus
US10886311B2 (en) 2018-04-08 2021-01-05 Artilux, Inc. Photo-detecting apparatus
US10854770B2 (en) 2018-05-07 2020-12-01 Artilux, Inc. Avalanche photo-transistor
US10969877B2 (en) 2018-05-08 2021-04-06 Artilux, Inc. Display apparatus
WO2022209166A1 (en) * 2021-03-31 2022-10-06 ソニーグループ株式会社 Information processing device, information processing method, and calibrating target

Also Published As

Publication number Publication date
JP5224319B2 (en) 2013-07-03

Similar Documents

Publication Publication Date Title
JP5224319B2 (en) Stereoscopic imaging device, stereoscopic imaging device control method, and program
JP5108093B2 (en) Imaging apparatus and imaging method
KR100851477B1 (en) Projecting apparatus and method and recording medium recording the program of the projecting method
KR20070121717A (en) Method of controlling an action, such as a sharpness modification, using a colour digital image
WO2018072434A1 (en) Three-dimensional scanning method containing multiple lasers with different wavelengths and scanner
WO2018072433A1 (en) Three-dimensional scanning method including a plurality of lasers with different wavelengths, and scanner
JP6380972B2 (en) Image processing apparatus and imaging apparatus
US9838667B2 (en) Image pickup apparatus, image pickup method, and non-transitory computer-readable medium
KR20180121879A (en) An image pickup control device, and an image pickup control method,
JP6624939B2 (en) Image processing device, imaging device, and image processing program
JP2011087128A (en) Pantoscopic camera and method for discrimination of object
JP6175748B2 (en) Imaging device
JP6425571B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP2008145263A (en) Photographing device, method, and program
JP2012044339A (en) Imaging apparatus and panoramic image data generation method
JP2015175982A (en) Image processor, image processing method, and program
JP6790038B2 (en) Image processing device, imaging device, control method and program of image processing device
JP5363872B2 (en) Image correction apparatus and program thereof
JP2008128771A (en) Apparatus and method for simultaneously acquiring spectroscopic information and shape information
JP2020193820A (en) Measurement device, imaging device, control method, and program
JP5555046B2 (en) Image input device, image input method, and image input program
JP2016099322A (en) Imaging device, control method of imaging device, and program
JP6585890B2 (en) Image processing apparatus, image processing method and program, and imaging apparatus
JP2019208214A (en) Image processing apparatus, image processing method, program, and imaging apparatus
JP6566800B2 (en) Imaging apparatus and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100225

RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130306

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees