JP2010281733A - Three-dimensional optical image-forming system - Google Patents

Three-dimensional optical image-forming system Download PDF

Info

Publication number
JP2010281733A
JP2010281733A JP2009136185A JP2009136185A JP2010281733A JP 2010281733 A JP2010281733 A JP 2010281733A JP 2009136185 A JP2009136185 A JP 2009136185A JP 2009136185 A JP2009136185 A JP 2009136185A JP 2010281733 A JP2010281733 A JP 2010281733A
Authority
JP
Japan
Prior art keywords
light
light source
camera
coordinate system
source device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009136185A
Other languages
Japanese (ja)
Inventor
Gurbuz Sabri
グルブス サブリ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2009136185A priority Critical patent/JP2010281733A/en
Publication of JP2010281733A publication Critical patent/JP2010281733A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional camera which can perform three-dimensional capturing with high resolution in a simple hardware configuration. <P>SOLUTION: A three-dimensional imager 30 includes: light source equipment 42 for emitting a series of IR light pulses; a camera 60 including an array of photosensitive cells where each of them is sensitive to IR light; an imaging lens for sending light from a subject to the photosensitive cells so that each ray of light passes a common focus; two memories 64, 66 for alternately storing images captured by the camera 60 in synchronization with the emission of light pulses; and a signal processing unit for computing a depth map of the subject by utilizing two continuous images stored in the two memories 64, 66, and positions of the light source equipment 42, the camera 60, and an object point 102. Light pulses emitted from the light source equipment 42 have the first intensity and the second intensity alternately. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

この発明は被写体の2Dカラー画像と3D表面プロファイルとをキャプチャするための3D撮像システムに関する。特に、この発明は高精細3D画像をリアルタイムでキャプチャするのに好適な3D光学システムに関する。   The present invention relates to a 3D imaging system for capturing a 2D color image and a 3D surface profile of a subject. In particular, the present invention relates to a 3D optical system suitable for capturing high-definition 3D images in real time.

長年にわたって、周知の赤/緑の立体メガネ式ディスプレイ、ボリュームディスプレイ、裸眼立体ディスプレイ等のいろいろな種類の3D表示技術が開発されている。   Over the years, various types of 3D display technologies such as the well known red / green stereoscopic glasses display, volume display, autostereoscopic display, etc. have been developed.

トランスミッション及び(オーディオ−ビデオ)マルチメディア技術は急速に進歩しており、現実の感覚をメディア放送コンテンツで達成しようとしている。視聴者側で現実の感覚を達成するためには、視聴者に対し超現実的なオーディオ及びビデオコンテンツを配信する必要がある。ここでは、3次元(3D)視覚コンテンツの取得に焦点を当てる。   Transmission and (audio-video) multimedia technologies are advancing rapidly, trying to achieve a real sense in media broadcast content. In order to achieve a sense of reality on the viewer side, it is necessary to deliver surreal audio and video content to the viewer. Here we focus on the acquisition of three-dimensional (3D) visual content.

従来の2Dテレビジョンとは対照的に、ほとんどの3Dテレビジョンは被写体の2Dの視覚的外観を表示するのみでなく、ステレオ画像、マルチビュー画像又は2Dプラス視差画像といった様々な形で、被写体の深度情報もまた表示する。被写体の色情報と3D表面プロファイルとが入手できれば、これらの形の視覚的情報は全て再生成可能である。従って、ここでの目標は以下の2点となる。すなわち(1)2Dの外観(色情報)をキャプチャすること、及び(2)画素ごとの深度情報をリアルタイムで同期して計算すること、である。   In contrast to conventional 2D television, most 3D televisions not only display the 2D visual appearance of the subject, but also in various forms such as stereo images, multi-view images or 2D plus parallax images. Depth information is also displayed. If the subject color information and the 3D surface profile are available, all of these forms of visual information can be regenerated. Therefore, the target here is the following two points. That is, (1) capturing a 2D appearance (color information) and (2) calculating depth information for each pixel synchronously in real time.

これまでに、3D画像キャプチャのための様々な技術が提案されている。極端なものの1つでは、従来の較正された立体視カメラを用いた画像ベースのアプローチを用いて深度マップを推定する。別の極端な例では、赤外光の飛行時間(time−of−flight:TOF)原理を用いたもの等の光学ベースのカメラによって、深度をキャプチャする。   So far, various techniques for 3D image capture have been proposed. In one extreme, the depth map is estimated using an image-based approach using a conventional calibrated stereoscopic camera. In another extreme example, depth is captured by an optical-based camera, such as one using the infrared time-of-flight (TOF) principle.

非特許文献1に開示の発明では、TOF3Dカメラは正弦波的に変調された赤外光信号を射出する。光が測定システムから対象物へ到達しさらにシステムに戻るまでに必要な時間が測定され、画像中の各画素の深度を計算する際に用いられる。   In the invention disclosed in Non-Patent Document 1, the TOF 3D camera emits a sinusoidally modulated infrared light signal. The time required for light to reach the object from the measurement system and back to the system is measured and used in calculating the depth of each pixel in the image.

B.バットゲン、T.オジェ及びM.レーマン、「距離画像のためのCcd/cmosロックイン画素:課題、限界及び最先端技術」、第1回距離画像研究の日予稿集、21−32ページ、インゲンサンド/カールマン(編)、チューリッヒ、2005年。B. Batgen, T. Ogier and M.C. Lehmann, “Ccd / cmos Lock-in Pixel for Range Images: Challenges, Limits and State-of-the-Art Technology”, Daily Proceedings of the First Range Image Study, 21-32, Ingensand / Carlmann (ed.), Zurich 2005.

(B. Buttgen, T. Oggier, and M. Lehmann, "Ccd/cmos lock-in pixel for range imaging: challenges, limitations and state-of-the-art," in Proceedings of 1st range imaging research day, pp.21-32, Ingensand/Kahlmann (eds.), Zurich, 2005.)   (B. Buttgen, T. Oggier, and M. Lehmann, "Ccd / cmos lock-in pixel for range imaging: challenges, limitations and state-of-the-art," in Proceedings of 1st range imaging research day, pp. 21-32, Ingensand / Kahlmann (eds.), Zurich, 2005.)

TOF3Dカメラで達成可能な最良の距離精度は、対象物からカメラまでの距離に依存して、数ミリメートルから数センチメートルのオーダである。さらに、この技術には赤外光の変調周波数によって課される距離限界があり、この距離限界範囲の外では、測定値が不正確である。さらに、TOFレンジカメラは同期した距離データとカラー画像とをキャプチャすることが可能であるが、この方法では高解像度のキャプチャリングは困難である。ハードウェアの複雑さとそれに関連するコストも高い。従って、TOFカメラによりキャプチャするというアプローチは、2Dのみのカメラに代わる個人的な使用又は3Dテレビジョン放送等の要求の高い応用への、消費者向け3D作像カメラとしては適していないと思われる。   The best distance accuracy achievable with a TOF 3D camera is on the order of a few millimeters to a few centimeters, depending on the distance from the object to the camera. Furthermore, this technique has a distance limit imposed by the modulation frequency of the infrared light, and measurements are inaccurate outside this distance limit range. Furthermore, although the TOF range camera can capture synchronized distance data and a color image, it is difficult to capture high resolution with this method. Hardware complexity and associated costs are also high. Therefore, the approach of capturing with a TOF camera seems not suitable as a consumer 3D imaging camera for demanding applications such as personal use instead of 2D-only cameras or 3D television broadcasting. .

従って、この発明の目的の1つは、カラー画像のキャプチャと同期した高解像度の3Dキャプチャが可能な3Dカメラを提供することである。   Accordingly, one of the objects of the present invention is to provide a 3D camera capable of high-resolution 3D capture synchronized with color image capture.

この発明の別の目的は、簡単なハードウェア構成で高解像度の3Dキャプチャが可能な3Dカメラを提供することである。   Another object of the present invention is to provide a 3D camera capable of high-resolution 3D capture with a simple hardware configuration.

この発明の1局面に従った光学作像システムは、2連の別個の不可視波長の光のパルスを射出する光源装置を含み、前記光のパルスは交互に第1の光度と、(同じ挙動となるよう物理的または仮想的に)第1の光度に対しより長い経路に制限された第2の光度とを有し、さらに、各々が不可視波長に感度があり、被写体からの光を受け各々が受けた光の強度を表す電気信号を出力する、第1の感光セルのアレイを有するフォトセンサ面を有し、それによって被写体の画像をキャプチャするカメラを含み、前記カメラは前記光源装置による光のパルスの射出に同期して動作し、さらに、被写体からの光をフォトセンサ面に向けて、前記光の各光線が予め規定された共通の点を通るように送るための撮像レンズシステムと、前記カメラによってキャプチャされた画像を、前記光源装置による前記光のパルスの射出と同期して交互に記憶するための2個のメモリと、前記2個のメモリに記憶された画像、予め定められた3D座標系に対する前記光源装置の位置、及び前記カメラの前記3D座標系に対する位置、を利用して、被写体の深度マップを計算するための信号処理装置と、を含む。   An optical imaging system according to one aspect of the present invention includes a light source device that emits two separate pulses of light of invisible wavelength, the pulses of light alternating with a first intensity (with the same behavior). And second light intensity limited to a longer path relative to the first light intensity, and each sensitive to invisible wavelengths, each receiving light from the subject A camera having a photosensor surface having a first array of photosensitive cells that outputs an electrical signal representative of the intensity of the received light, thereby capturing an image of the subject, said camera comprising: An imaging lens system that operates in synchronization with the emission of a pulse, and further directs light from the subject to a photosensor surface so that each ray of the light passes through a predetermined common point; and Ki by camera Two memories for alternately storing captured images in synchronization with the emission of the light pulses by the light source device, images stored in the two memories, a predetermined 3D coordinate system And a signal processing device for calculating a depth map of the subject using the position of the light source device with respect to and the position of the camera with respect to the 3D coordinate system.

1の実施の形態に従えば、前記光源装置は前記不可視波長の光のパルスを射出するための光源と、一つおきの周期で、前記光源が予め定められた第1の位置に来るように、他の周期では前記光源が予め定められた第2の位置に来るように、前記光源を移動するための機構と、前記光源からの光を均一に広げるように別の予め定められた位置に置かれた光学装置と、を含む。   According to one embodiment, the light source device has a light source for emitting a pulse of light with an invisible wavelength, and the light source comes to a predetermined first position every other period. A mechanism for moving the light source so that the light source is at a predetermined second position in another cycle, and another predetermined position so as to spread light from the light source uniformly. Placed optical device.

別の実施の形態に従えば、前記光源装置は、予め定められた場所に位置付けられた光源と、前記光源から入来する光を均一に広げるために別の予め定められた位置に置かれた光学装置と、前記不可視波長の光を遮断する材料からなり、前記光源と前記光学装置との間に2つの光路を規定するための手段と、を含み、前記2つの光路は異なる長さを有し、さらに、前記光源装置による光のパルスの射出と同期して前記2つの光路を切替えるための手段を含む。   According to another embodiment, the light source device is placed in another predetermined position to uniformly spread light coming from the light source and a light source positioned in a predetermined place. An optical device, and a means for defining two optical paths between the light source and the optical device, the two optical paths having different lengths. And means for switching the two optical paths in synchronization with the emission of light pulses by the light source device.

この構成では、各々が予め定められた可視波長に感度があり、被写体からの光を受けて各々が受けた前記可視波長の光の強度を表す電気信号を出力する、第2の感光セルを有してもよく、それによって被写体の可視画像を出力する。   In this configuration, there is a second photosensitive cell, each of which is sensitive to a predetermined visible wavelength, and outputs an electrical signal indicating the intensity of the visible wavelength light received from the subject. It is also possible to output a visible image of the subject.

前記第2の感光セルは、各々が互いに異なる可視波長に感度のある複数個のセルを含む複数個のグループに分けられてもよい。   The second photosensitive cells may be divided into a plurality of groups each including a plurality of cells sensitive to different visible wavelengths.

好ましくは、前記光源装置は前記光のパルスを、前記光のパルスが前記3D座標系に対して固定された予め定められた位置から均一に広がるように射出する。前記感光セルの各々は前記3D座標系に対する既知の位置に置かれ、前記予め定められた共通点は前記3D座標系内の既知の位置に置かれる。前記信号処理装置は、2つの連続した周期で第1の感光セルから出力された強度、前記3D座標系に対する前記光源装置の位置、前記3D座標系に対する前記共通点の位置、及び前記3D座標系に対する前記感光セルの位置、を利用して、前記3D座標系に対する第1の感光セルに対応する対象点の深度を計算する。   Preferably, the light source device emits the light pulse so that the light pulse spreads uniformly from a predetermined position fixed with respect to the 3D coordinate system. Each of the photosensitive cells is placed at a known position with respect to the 3D coordinate system, and the predetermined common point is placed at a known position within the 3D coordinate system. The signal processing device includes an intensity output from the first photosensitive cell in two successive cycles, a position of the light source device with respect to the 3D coordinate system, a position of the common point with respect to the 3D coordinate system, and the 3D coordinate system. The depth of the target point corresponding to the first photosensitive cell with respect to the 3D coordinate system is calculated using the position of the photosensitive cell with respect to.

さらに好ましくは、前記3D座標系は前記感光セルのアレイで規定される面に固定される。   More preferably, the 3D coordinate system is fixed to a plane defined by the array of photosensitive cells.

さらに好ましくは、前記光源装置と前記カメラとは互いに固定されている。   More preferably, the light source device and the camera are fixed to each other.

この発明の第1の実施の形態の3D作像システム30の全体構成を示す図である。1 is a diagram illustrating an overall configuration of a 3D image forming system 30 according to a first embodiment of this invention. 第1の実施の形態での光源92の動きを示す図である。It is a figure which shows the motion of the light source 92 in 1st Embodiment. 3D作像システム30の光路長を概略的に示す図である。3 is a diagram schematically showing an optical path length of the 3D imaging system 30. FIG. 光学装置94、センサ面110の中心及び対象点102間の幾何学的関係を概略的に示す図である。FIG. 6 is a diagram schematically showing a geometric relationship between the optical device 94, the center of the sensor surface 110, and the object point 102; 光学装置94、4チャンネルカメラの撮像レンズの焦点112、画素114及びセンサ面110上のカメラ原点116間の幾何学的関係を概略的に示す図である。FIG. 6 is a diagram schematically illustrating a geometric relationship between a focal point 112, a pixel 114, and a camera origin 116 on a sensor surface 110 of an optical device 94 and a four-channel camera. 焦点112、カメラ原点116、画素114及び対象点102間の関係を概略的に示す図である。It is a figure which shows roughly the relationship between the focus 112, the camera origin 116, the pixel 114, and the object point 102. IR光源92の照明、各周期に撮影されるカラー画像、及び連続する2つのIR画像から各々計算される距離画像(深度マップ)のタイミングチャートである。It is a timing chart of the illumination of IR light source 92, the color image image | photographed in each period, and the distance image (depth map) each calculated from two continuous IR images. この発明の第2の実施の形態における光路の全体構成を示す図である。It is a figure which shows the whole structure of the optical path in 2nd Embodiment of this invention. この発明の第3の実施の形態における光路の全体構成を示す図である。It is a figure which shows the whole structure of the optical path in 3rd Embodiment of this invention. この発明の第4の実施の形態における3D作像システム330の全体構成を示す図である。It is a figure which shows the whole structure of the 3D image creation system 330 in the 4th Embodiment of this invention.

以下にこの発明の実施の形態を添付の図を参照して説明する。図において、同様の要素は同じ参照符号を付す。従って、その詳細な説明は繰返さない。   Embodiments of the present invention will be described below with reference to the accompanying drawings. In the figures, similar elements bear the same reference numerals. Therefore, detailed description thereof will not be repeated.

第1の実施の形態
1.始めに
この機能を達成するための方法及び装置は、わずかに異なる幾何学的位置に置かれ、不可視、例えば赤外波長域で動作する2個の等方性光源と、被写体に投影された光線を整列させる光学装置と、不可視波長域に感度を有する高精度カメラと、を含む。画素ごとの距離情報を決定するために、カメラシステムは連続した各光源からのストロボ動作の間に2個のシーケンシャルな画像をキャプチャする。その後、これら2つの画像における各画素位置の光の強度を利用して、画像中の画素位置に対応する対象点の距離情報を計算し、被写体の3D表面プロファイルをリアルタイムで生成する。
First Embodiment Introduction A method and apparatus for accomplishing this function consists of two isotropic light sources that are placed in slightly different geometric positions and that are invisible, eg operating in the infrared wavelength range, and light rays projected onto the subject. And an optical device for aligning the image and a high-precision camera having sensitivity in the invisible wavelength region. To determine distance information for each pixel, the camera system captures two sequential images during the strobe operation from each successive light source. Then, using the light intensity at each pixel position in these two images, the distance information of the target point corresponding to the pixel position in the image is calculated, and the 3D surface profile of the subject is generated in real time.

設計上の選択に依存して、カラー画像はダイクロイックプリズム機構によって、又は4個のバンドパスフィルタシステムを備えた4チャンネルのカメラであって、うち3個が可視光の赤、緑及び青のチャンネル用であり4番目がIRチャンネルであるカメラによって、同期してキャプチャできる。第1の実施の形態では、4個のバンドパスフィルタを備えた単一の4チャンネルカメラを利用する。   Depending on the design choice, the color image is either a dichroic prism mechanism or a four channel camera with four bandpass filter systems, three of which are visible red, green and blue channels It is possible to capture synchronously by a camera that is for use and the fourth is an IR channel. In the first embodiment, a single four-channel camera having four band pass filters is used.

2.高精細3Dセンシングカメラシステムの原理
このセクションでは、高精細カラー画像及び距離データの両方を同期してリアルタイムでキャプチャ可能な3Dセンシングカメラシステムの原理を説明する。基本原理は以下のとおりである。
2. Principle of High-Definition 3D Sensing Camera System This section describes the principle of a 3D sensing camera system that can capture both high-definition color images and distance data in real time in synchronization. The basic principle is as follows.

わずかに異なる幾何学的位置に置かれた、既知の伝搬特性を有する2個のエネルギ源が、(不可視波長域の光のパルスの形で)一連のエネルギパルスを交互に射出する。エネルギパルスは対象物の表面から反射される。受信機が反射されたエネルギパルスの振幅を取出す。こうして、これら2個のエネルギ源から出て受信されたエネルギパルスの振幅は、エネルギ経路に沿った基準点と対象点との距離を規定する。例えば、点光源の伝搬特性、重力、電界、音及び放射は、逆二乗の法則で説明できる。従って、適切な設計で3Dセンシングのためにこれらを利用できる。   Two energy sources with known propagation characteristics, placed in slightly different geometries, alternately emit a series of energy pulses (in the form of pulses of light in the invisible wavelength range). The energy pulse is reflected from the surface of the object. The receiver takes out the amplitude of the reflected energy pulse. Thus, the amplitude of the energy pulses received from these two energy sources defines the distance between the reference point and the target point along the energy path. For example, the propagation characteristics, gravity, electric field, sound and radiation of a point light source can be explained by the inverse square law. Therefore, they can be used for 3D sensing with appropriate design.

この実施の形態では、射出器としての2個の光源と、受信機としての高精度カメラとを利用して、距離データ及びカラー画像データをキャプチャする。このシステムは、光の2つの物理的特性を利用する。すなわち(1)逆二乗の法則で説明される伝搬特性、及び(2)アブニーの法則(Abeny´s Law)としても知られる、異なる波長の光の視覚効果の線形性、である。具体的には、上述の機能を達成するシステムは、光軸をそろえてわずかに異なる位置に置かれともに不可視波長域で動作する2個の等方性光源と、光誘導光学装置と、高精度(好ましくは16ビット以上の)作像カメラとを含む。   In this embodiment, distance data and color image data are captured using two light sources as an ejector and a high-precision camera as a receiver. This system utilizes two physical properties of light. That is, (1) propagation characteristics described by the inverse-square law, and (2) linearity of the visual effect of light of different wavelengths, also known as Abney's Law. Specifically, the system that achieves the above-described function is composed of two isotropic light sources that are arranged at slightly different positions along the optical axis and operate in the invisible wavelength range, a light guiding optical device, and a high accuracy. Imaging camera (preferably 16 bits or more).

3.システムの概観
図1を参照して、この発明の第1の実施の形態による3D作像システム30は、被写体44の画素ごとの深度情報を計算するために、2個の連続した画像フレームを獲得する必要がある。設計上の選択により、カラー画像は、2個のカメラを必要とするダイクロイックプリズム機構を用いてIRと可視光とを分けるか、又は4個の光学バンドパスフィルタシステムを備えた4チャンネルのカメラであって、チャンネルのうち3個が赤、緑及び青(可視光)に最適化され、4つめのチャンネルがIR光源の波長域に最適化されたものを用いることによって、同期して獲得できる。この実施の形態では、単一の4チャンネルカメラを用いる。
3. System Overview Referring to FIG. 1, a 3D imaging system 30 according to a first embodiment of the present invention acquires two consecutive image frames to calculate depth information for each pixel of a subject 44. There is a need to. Depending on the design choice, the color image is either a 4 channel camera with a dichroic prism mechanism that requires two cameras to separate IR and visible light, or with four optical bandpass filter systems. Thus, three of the channels are optimized for red, green and blue (visible light), and the fourth channel is optimized for the wavelength range of the IR light source. In this embodiment, a single 4-channel camera is used.

図1を参照して、作像システム30は、予め定められた間隔でIR光のパルスを射出するための光源装置42と、光源装置42による光のパルスの射出に同期して、各フレームのRGBカラー画像及びIR画像をキャプチャするための4チャンネルカメラ40と、を含む。こうして、一連の不可視波長の光のパルスが光源装置42から射出される。光のパルスは交互に第1の光度と第1の光度とは異なるタイミングの第2の光度とを有する。   Referring to FIG. 1, an imaging system 30 includes a light source device 42 for emitting IR light pulses at a predetermined interval, and a light source device 42 that emits light pulses in synchronism with the light pulse emission of each frame. And a four-channel camera 40 for capturing RGB color images and IR images. In this way, a series of invisible wavelength light pulses are emitted from the light source device 42. The light pulses alternately have a first luminous intensity and a second luminous intensity at a timing different from the first luminous intensity.

光源装置42は、光を吸収する内壁及び一端の開口部を有する筒90と、筒90内に収めれらた2個の等方性IR点光源S及びSとを含み、これらはそれぞれ強度S=S及びS=kSで全方向に等しくその影響を及ぼす。ただしk=SB_ray(j)/SA_ray(j)は任意のスケーラであって被写体に投影される全ての光線(j=1,2,…N)について一定である。kの値は前もって既知であってもよく又はオン−ザ−フライでダイナミックに測定してもよい。さらに光学装置94があり、これは典型的にはレンズシステムであって、筒90の開口端に位置づけられ、光源S及びSからの光を同様に広げ、このためj=1,2,…Nに対応する全ての画素に対しk=SB_ray(j)/SA_ray(j)が保たれる。 The light source device 42 includes a cylinder 90 having an inner wall for absorbing light and an opening at one end, and two isotropic IR point light sources S A and S B housed in the cylinder 90, which are respectively Intensities S A = S and S B = kS affect that equally in all directions. However, k = S B_ray (j) / S A_ray (j) is an arbitrary scaler and is constant for all rays (j = 1, 2,... N) projected onto the subject. The value of k may be known in advance or may be measured dynamically on-the-fly. There is also an optical device 94, which is typically a lens system, located at the open end of the tube 90, and similarly spreading the light from the light sources S A and S B , so that j = 1,2, ... k = S B_ray (j) / S A_ray (j) is maintained for all pixels corresponding to N.

図2を参照して、実際には筒90内に単一の光源92が設けられる。光源92は図1で光源S及びSとして示される位置間を図2(A)及び図2(B)に示されるように往復する。均一な光源92が光源Sで示される位置にある時、これは光源Sとして動作する。これが光源Sで示される位置にある時、これは光源Sとして動作する。従って、この実施の形態において、上述のS=kSの定数kは1に等しい。 Referring to FIG. 2, a single light source 92 is actually provided in the cylinder 90. The light source 92 reciprocates between positions indicated as light sources S A and S B in FIG. 1 as shown in FIGS. 2 (A) and 2 (B). When in the position where uniform light source 92 is indicated by the light source S A, which operates as a light source S A. This is when in the position indicated by the light source S B, which operates as a light source S B. Therefore, in this embodiment, the constant k of S B = kS described above is equal to 1.

光学装置94の中心から光源S及びSへの距離は、図3に示すようにそれぞれv及びwである。 The distances from the center of the optical device 94 to the light sources S A and S B are v and w, respectively, as shown in FIG.

再び図1を参照して、4チャンネルカメラ40は、被写体44の画像を予め規定された画像面に焦点合わせするためのレンズシステム(図示せず)と、予め規定された画像面に位置づけられたセンサ面を有し、被写体44のRGB画像及びIR画像をキャプチャして、各フレームのRGB信号及びIR信号を出力するための4チャンネルCCD(Charge Coupled Device:電荷結合素子)60と、CCD60からのRGB信号を受けるように接続され、各フレームのタイムスロットでRGB画像を記憶するフレームメモリ70と、CCD60によってキャプチャされたIR画像を交互に記憶するフレームメモリ64及び66と、(コンピュータプログラム又はハードウェアで実現可能な)電子スイッチ62であって、入力がCCD60からのIR信号を受けるように接続され、2つの出力がフレームメモリ64及び66の入力にそれぞれ接続されて、光のパルスの射出に同期して各フレームタイムスロットでフレームメモリ64又は66へCCD60からのIR信号を交互に提供するスイッチと、フレームメモリ64及び66に記憶されたIR画像を受けるように接続され、光のパルスの射出に同期して各フレームタイムスロットでフレームメモリ64及び66に記憶されたIR画像に基づいて被写体44の深度プロファイルを計算するための信号処理装置68と、を含む。   Referring again to FIG. 1, the four-channel camera 40 is positioned on a predefined image plane with a lens system (not shown) for focusing the image of the subject 44 on the predefined image plane. A 4-channel CCD (Charge Coupled Device) 60 for capturing RGB images and IR images of the subject 44 and outputting RGB signals and IR signals of each frame; A frame memory 70 connected to receive RGB signals and storing RGB images at each frame time slot; and frame memories 64 and 66 alternately storing IR images captured by the CCD 60 (computer program or hardware) Electronic switch 62, which can be implemented with an input Are connected to receive the IR signal from the CCD 60, and the two outputs are connected to the inputs of the frame memories 64 and 66, respectively, to the frame memory 64 or 66 at each frame time slot in synchronization with the emission of the light pulse. A switch for alternately providing IR signals from the CCD 60 is connected to receive IR images stored in the frame memories 64 and 66. The frame memories 64 and 66 are synchronized with the emission of light pulses in each frame time slot. And a signal processing device 68 for calculating the depth profile of the subject 44 based on the IR image stored in.

光源S及びSは、各フレームでIR光を交互に射出するように制御される。すなわち、最初のフレームでは光源SがIR光を射出し、光源Sは射出しない。次のフレームでは、光源SがIR光を射出し、光源Sは射出しない。 The light sources S A and S B are controlled to emit IR light alternately in each frame. That is, in the first frame, the light source S A emits IR light, and the light source S B does not emit. In the next frame, the light source S B emits IR light and the light source S A does not emit.

及びEが、S及びSのそれぞれの照明期間中の任意の可視対象点_x(_は文字の下に付されるものである)の表面上での強度を表すものとする。同様に、I及びIを、それぞれS及びSにより作像装置によりキャプチャされた強度値を表すものとする。ここで、Iに対するIはEに対するEと同じであると言える。従って、この関係は次のように記述できる。
:I=E:E (1)
なぜなら、光吸収面等の光不変性を有する表面を除き、対象表面の反射率と独立でI∝E(IはEに比例)かつI∝Eだからである。光の伝搬特性を用いれば、E及びEを数学的に以下のように定義できる。
E A and E B represent the intensity on the surface of any visible object point _x 0 (where _ is attached below the letter) during the respective illumination periods of S A and S B To do. Similarly, the I A and I B, respectively denote the captured intensity values by imager by S A and S B. Here, it can be said that I B for I A is the same as E B for E A. Therefore, this relationship can be described as follows.
I A : I B = E A : E B (1)
This is because, except for the surface having a light constancy of the light-absorbing surface or the like, I A .alpha.E A independent and reflectance of the target surface (I A is proportional to E A) and a so I B .alpha.E B. Using light propagation characteristics, E A and E B can be defined mathematically as follows:

Figure 2010281733
ここでγは光学装置によるスケーリングファクタである。式1に、式2及び式3によるE及びEの定義を挿入すれば、以下が得られる。
Figure 2010281733
Here, γ is a scaling factor by the optical device. Inserting the definitions of E A and E B according to Equation 2 and Equation 3 into Equation 1 yields:

Figure 2010281733
ここで図3を参照して、rは光学装置94の焦点と被写体44の対象点102との間の距離を示し、v及びwは、図3に例示するように、光学装置94とS及び94とSとの距離をそれぞれ表わす。式4の両辺の平方根をとり、変形すると、単一の変数rについて以下の1次多項式が得られる。
Figure 2010281733
Referring now to FIG. 3, r represents the distance between the target point 102 of the focus and the object 44 of the optical device 94, v and w, as illustrated in FIG. 3, the optical device 94 and the S A and respectively represent the distances between the 94 and S B. Taking the square root of both sides of Equation 4 and modifying it, the following first order polynomial is obtained for a single variable r.

Figure 2010281733
(図7(C)の画像A及び画像Bの画素位置に属する強度比の平方根)。従って、rについて解くと以下のようになる。
Figure 2010281733
(The square root of the intensity ratio belonging to the pixel positions of the image A and the image B in FIG. 7C). Therefore, the solution for r is as follows.

Figure 2010281733
ここでrは光学装置94の焦点と、被写体44の対象点102との間の距離である。
Figure 2010281733
Here, r is the distance between the focal point of the optical device 94 and the target point 102 of the subject 44.

4.デカルト座標におけるカメラ原点を基準とした3D測定
このセクションでは、カメラ原点を基準としてデカルト座標で距離データを表現する方法を説明する。
4). 3D Measurement Using Camera Origin in Cartesian Coordinates This section describes how to represent distance data in Cartesian coordinates using the camera origin as a reference.

すなわち、光学装置94の焦点と4チャンネルカメラ40のCCD60(図3を参照)の光学的中心との幾何学的関係が既知であれば、カメラの仕様と、デカルト座標(x,y,z)(又はこれを球面座標に変換することを選択してもよい)での光学装置94と対象点102との間の推定された距離rとを用いて、CCD60に固定されたカメラ座標を基準とした対象点102の3D位置を計算できる。光学装置94は光が被写体に射出されCCD60のセンサ面でキャプチャされることに注意されたい。対象点からの光線は各々、感光セルに当たる時にレンズ100の共通の焦点を通過する。   That is, if the geometric relationship between the focal point of the optical device 94 and the optical center of the CCD 60 (see FIG. 3) of the four-channel camera 40 is known, the camera specifications and Cartesian coordinates (x, y, z) Using the estimated distance r between the optical device 94 and the target point 102 (or converting it to spherical coordinates), the camera coordinates fixed on the CCD 60 are used as a reference. The 3D position of the target point 102 can be calculated. Note that the optical device 94 emits light onto the subject and is captured on the sensor surface of the CCD 60. Each ray from the object point passes through a common focal point of the lens 100 when it strikes the photosensitive cell.

図3及び図4の表記を利用すれば、余弦定理は以下のようになる。   Using the notations in FIGS. 3 and 4, the cosine theorem is as follows.

Figure 2010281733
ここでr、u及びρは図3及び図4に例示された距離であり、rとuとは既知である。しかしながら、ρとθとは未知である。図4において、対象点102の画像は3D座標系のセンサ面110上の位置(x,y)のセル114上に形成され、これはセンサ面110の中心(c,c)でカメラ座標系の原点116からx方向及びy方向にそれぞれd及びdだけずれている。式7を用いて、ここでの目標は、値ρを決定することである。従って、まずはじめに角度θを決定する必要がある。fが4チャンネルカメラ40の撮像レンズの焦点112とセンサ面110に固定された3D座標系の座標(0,0,0)で示される原点116との距離を示すものとして、図5の表記を用いれば、2つのベクトル→u及び→ρ(式中→は各文字の上に付される)の内積は以下のようになる。
Figure 2010281733
Here, r, u, and ρ are distances illustrated in FIGS. 3 and 4, and r and u are known. However, ρ and θ are unknown. In FIG. 4, the image of the target point 102 is formed on the cell 114 at the position (x i , y i ) on the sensor surface 110 in the 3D coordinate system, which is the center (c x , c y ) of the sensor surface 110. is shifted by d x and d y are the x and y directions from the origin 116 of the camera coordinate system. Using Equation 7, the goal here is to determine the value ρ. Therefore, it is necessary to first determine the angle θ. 5 represents the distance between the focal point 112 of the imaging lens of the four-channel camera 40 and the origin 116 indicated by coordinates (0, 0, 0) of the 3D coordinate system fixed to the sensor surface 110. If used, the inner product of the two vectors → u and → ρ (where → is attached to each character) is as follows.

Figure 2010281733
ここで内積は2つのベクトル間のドットによって表わされ、|→x|は→xのノルムを表す。画素位置(x,y)のずれ情報d及びdと、光学装置94とカメラ原点116との間の長さとを直接用いて、→uの値を決定できる。しかしながら、カメラ投影マトリックスを用いて決定できるのは→ρに平行な単位ベクトルのみである。コンピュータビジョンでは、投影マトリックスPは3D対象点からカメラの2D画像点へのマッピングを記述する3×4のマトリックスである。マトリックスPは、ピンホールカメラモデルによって定義するか、又は、カメラ較正処理を用いて決定できる。
Figure 2010281733
Here, the inner product is represented by a dot between two vectors, and | → x | represents the norm of → x. Pixel position (x i, y i) using the shift information d x and d y in, and a length between the optical device 94 and the camera origin 116 can directly determine the value of the → u. However, only the unit vector parallel to → ρ can be determined using the camera projection matrix. In computer vision, the projection matrix P is a 3 × 4 matrix that describes the mapping from 3D object points to 2D image points of the camera. The matrix P can be defined by a pinhole camera model or determined using a camera calibration process.

ここで

Figure 2010281733
を、それぞれ同次座標系における以下の画像点及び対象点の対を表すものとする。
Figure 2010281733
その場合、3D対象点_xから2D画像点_x(式中下線は各文字の下に付される)へのマッピングは以下で与えられる。 here
Figure 2010281733
Denote the following pairs of image points and object points in the homogeneous coordinate system, respectively.
Figure 2010281733
In that case, the mapping from 3D object point_x 0 to 2D image point_x i (where the underline is attached below each character) is given below.

Figure 2010281733
ここでwは画像メモリの(x,y)画素位置に対し一意である任意の非ゼロのスケーラである。従って、スケールファクタにより_xを次のように決定できる。
Figure 2010281733
Where w i is an arbitrary non-zero scaler that is unique to the (x i , y i ) pixel location in the image memory. Therefore, we determine the _x 0 as follows by the scale factor.

Figure 2010281733
さて、wが未知であるが、w_xが得られたので、式10と図5の表記を用いて、ベクトル→ρに沿った新たなベクトル→pを定義できる。
Figure 2010281733
Now, w i is unknown, but w i — x 0 is obtained, so a new vector → p along the vector → ρ can be defined using Equation 10 and the notation of FIG.

Figure 2010281733
ここでδ>1.0であり、δは任意に選択可能な定数スケーラである。→vが、→pをそのノルムで正規化して得られる以下の単位ベクトルであるものとする。
Figure 2010281733
Here, δ> 1.0, and δ is an arbitrarily selectable constant scaler. Let v be the following unit vector obtained by normalizing p with its norm.

Figure 2010281733
→v//→ρであるから、式8において→ρに代えて→vを用いて角度θを以下のように決定できる。
Figure 2010281733
Since → v // → ρ, the angle θ can be determined as follows by using → v instead of → ρ in Equation 8.

Figure 2010281733
ここでacosは逆コサイン演算を表す。式7を書換えれば、単一の変数ρについて以下の2次の二次方程式が得られる。
Figure 2010281733
Here, acos represents an inverse cosine operation. If Equation 7 is rewritten, the following quadratic quadratic equation is obtained for a single variable ρ.

Figure 2010281733
ρについて解くと、2つの解ρ=ρとρ=ρとが得られる。正の実数値を有するものが→ρのノルムである。→ρを以下によって一意に決定できる。
Figure 2010281733
Solving for ρ gives two solutions ρ = ρ 1 and ρ = ρ 2 . Those having positive real values are norms of → ρ. → ρ can be uniquely determined by:

Figure 2010281733
→ρは作像装置上で(d,d,0)で示される座標位置から始まり、カメラの焦点を通過する対象点(x,y,z)で終わる(図5を参照)。
Figure 2010281733
→ ρ starts from the coordinate position indicated by (d x , d y , 0) on the image forming device and ends at the target point (x 0 , y 0 , z 0 ) passing through the camera focus (see FIG. 5). ).

従って、カメラ原点116に対して3D空間内で対象点_xを決定するためには、図6に示されるように(0,0,0)の原点116から(d,d,0)の位置までとして定義されるベクトル→sを、以下に示すように→ρに加えなければならない。 Therefore, in order to determine the target point _x 0 in the 3D space with respect to the camera origin 116, as shown in FIG. 6, from the origin 116 of (0, 0, 0), (d x , dy , 0) The vector → s defined as up to the position of → must be added to → ρ as shown below.

Figure 2010281733
5.動作
図7を参照して、作像システム30は以下のように動作する。
Figure 2010281733
5). Operation Referring to FIG. 7, the image forming system 30 operates as follows.

光源Sは、図7(A)に示すように、フレーム130、132、134、136、…で光を射出する。これに対して、光源Sは図7(B)に示すように、それぞれフレーム130と132との間、132と134との間、134と136との間…にあるフレーム140、142、144、…で光を射出する。こうして、不可視波長の一連の光のパルスが光源装置42から射出される。光のパルスは第1の光度と第2の光度とを交互に有する。 Source S A, as shown in FIG. 7 (A), the frame 130, 132, ... emit lights at. On the other hand, as shown in FIG. 7B, the light source S B has frames 140, 142, and 144 located between the frames 130 and 132, between 132 and 134, between 134 and 136, respectively. ... and emit light. In this way, a series of light pulses having invisible wavelengths are emitted from the light source device 42. The light pulse has a first light intensity and a second light intensity alternately.

フレームタイムスロットの各々で、CCD60はRGB画像(カラー画像200、202、204、206、208、210、…)とIR画像(IR画像150、152、154、156、158、160、…)とを撮像し、これら画像の信号を出力する。光源S及びSがIR光を交互に射出するので、CCD60から出力されるIR画像は光源S及びSから射出され同じ対象点102から反射されたIR光の交互の画像(画像150、154、158、…及び画像152、156、160、…)である。 In each frame time slot, the CCD 60 generates an RGB image (color images 200, 202, 204, 206, 208, 210,...) And an IR image (IR images 150, 152, 154, 156, 158, 160,...). Images are taken and signals of these images are output. Since the light sources S A and S B alternately emit IR light, the IR image output from the CCD 60 is an alternating image of IR light emitted from the light sources S A and S B and reflected from the same target point 102 (image 150). , 154, 158,... And images 152, 156, 160,.

IR画像内の画素の各々に対して式7から式16で示される計算を適用することにより、IR画像対150及び152、152及び154、154及び156、156及び158、158及び160、…の各々から距離画像180、182、184、186、188、190、…を得ることができる。   By applying the calculations shown in Equations 7 through 16 to each of the pixels in the IR image, the IR image pairs 150 and 152, 152 and 154, 154 and 156, 156 and 158, 158 and 160,. Distance images 180, 182, 184, 186, 188, 190,... Can be obtained from each.

第2の実施の形態
第1の実施の形態では、光源装置42は光源S及びSの位置を往復する単一の光源92を含む。しかしながらこの発明はそのような実施の形態に限られない。
Second Embodiment In the first embodiment, the light source device 42 includes a single light source 92 that reciprocates the positions of the light sources S A and S B. However, the present invention is not limited to such an embodiment.

図8を参照して、この発明の第2の実施の形態にかかる光源装置230は、2個の突出部を備え、光吸収性の内壁を有する矩形筒240と、突出部の一方の端部に設けられたIR光源92と、を含む。筒240の他方の突出部の端部には開口部がある。光源装置230はさらに、筒240の4隅に設けられ、筒240の中心を向いた4つのミラー246、248、250及び252と、直角に反転可能で光源92からの光を反射してミラー248又はミラー250の方向に向けることが可能なミラー244と、直角に反転可能で、ミラー250からの光またはミラー246からの光のいずれかを、ミラー244の反転と同期して反射して筒240の開口部の方向へと向けるミラー242と、筒240の開口部に設けられた光学装置94と、を含む。ミラー244、252、250及び242は光源92からの光に対しより長い光路を規定する。ミラー244、248、246及び242はより短い光路を規定する。   Referring to FIG. 8, a light source device 230 according to a second embodiment of the present invention includes two projecting portions, a rectangular tube 240 having a light-absorbing inner wall, and one end portion of the projecting portion. IR light source 92 provided in There is an opening at the end of the other protrusion of the tube 240. The light source device 230 is further provided at four corners of the tube 240, and four mirrors 246, 248, 250, and 252 facing the center of the tube 240, and can be reversed at right angles to reflect the light from the light source 92 to reflect the mirror 248 Alternatively, the mirror 244 that can be directed in the direction of the mirror 250 and the mirror 240 can be reversed at right angles, and either the light from the mirror 250 or the light from the mirror 246 is reflected in synchronization with the inversion of the mirror 244 to A mirror 242 directed toward the opening of the tube 240 and an optical device 94 provided in the opening of the tube 240. Mirrors 244, 252, 250 and 242 define a longer optical path for light from light source 92. Mirrors 244, 248, 246 and 242 define a shorter optical path.

図8から明らかなように、ミラー244及び242が図8(A)にあるように「下向き」である場合、光源92からの光はより短い経路を進む。ミラー244及び242が図8(B)にあるように「上向き」である場合、光はより長い経路を進む。従って、光源92の位置は変わらないが、光学装置94から射出する光の強度は変化する。従って、第1の実施の形態の光源装置42に代えて光源装置230を用いることができる。   As is apparent from FIG. 8, when the mirrors 244 and 242 are “down” as in FIG. 8A, the light from the light source 92 travels a shorter path. When mirrors 244 and 242 are “up” as in FIG. 8B, the light travels a longer path. Therefore, the position of the light source 92 does not change, but the intensity of light emitted from the optical device 94 changes. Therefore, the light source device 230 can be used instead of the light source device 42 of the first embodiment.

第3の実施の形態
この発明の第3の実施の形態では、図9に示す光源装置280を利用する。図9を参照して、光源装置280は一方端に開口部322を有し側壁に開口部302が形成された筒290と、筒290の開口部に置かれ、筒290を介して入来する2個の異なる光源からの光を同様に分散させる光学装置314と、筒290内の他方端に置かれたIR光源296と、を含む。
Third Embodiment In the third embodiment of the present invention, a light source device 280 shown in FIG. 9 is used. Referring to FIG. 9, light source device 280 has tube 290 having an opening 322 at one end and opening 302 formed on the side wall, and is placed in the opening of tube 290 and enters through tube 290. It includes an optical device 314 that similarly disperses light from two different light sources, and an IR light source 296 placed at the other end of the tube 290.

光源装置280はさらに、側壁に開口部を有し、筒290に対して開口部が筒290の開口部302とそろうように取付けられる筒292と、開口部302から遠位の端部で筒290内に置かれたIR光源298と、光源298からのIR光が反射プリズム300によって反射され開口部302に向かうように、筒292の他方端に取付けられた反射プリズム300と、開口部302が第1の姿勢と第2の姿勢との間で姿勢を変えられるよう、開口部302で筒290に動作可能に取付けられた反射シャッタ294とを含み、第1の状態ではシャッタ294は開口部302を閉じ、第2の状態ではシャッタ294は開口部302を開く。第2の状態では、シャッタ294の一端が筒290の内壁に当接し、反射プリズム300からの光を開口部322へと反射する。シャッタ294の状態を動かすために、光源装置280はシャッタ機構(図示せず)を含む。   The light source device 280 further has an opening on the side wall, the tube 292 attached to the tube 290 so that the opening is aligned with the opening 302 of the tube 290, and the tube 290 at the end distal from the opening 302. The IR light source 298 placed inside, the reflection prism 300 attached to the other end of the tube 292, and the opening 302 so that the IR light from the light source 298 is reflected by the reflection prism 300 toward the opening 302. A reflective shutter 294 operably attached to the tube 290 with the opening 302 so that the posture can be changed between the first posture and the second posture. In the first state, the shutter 294 includes the opening 302. In the second state, the shutter 294 opens the opening 302 in the closed state. In the second state, one end of the shutter 294 comes into contact with the inner wall of the cylinder 290 and reflects light from the reflecting prism 300 to the opening 322. In order to move the state of the shutter 294, the light source device 280 includes a shutter mechanism (not shown).

図9(A)に示す第1の状態では、IR光源296からの光310は直接光学装置314へと進み、筒290の外で分散される。光源298はオフにされる。   In the first state shown in FIG. 9A, the light 310 from the IR light source 296 travels directly to the optical device 314 and is dispersed outside the cylinder 290. The light source 298 is turned off.

図9(B)に示す第2の状態では、IR光源296はオフにされ、光源298がオンにされる。光源298からの光はプリズム300へと進み、ここで反射されてシャッタ294に向かう。光は再度シャッタ294で反射されて光学装置314に向かい、上の場合と同様に、筒290の外で分散される。   In the second state shown in FIG. 9B, the IR light source 296 is turned off and the light source 298 is turned on. Light from the light source 298 travels to the prism 300 where it is reflected and travels toward the shutter 294. The light is reflected again by the shutter 294 and travels toward the optical device 314 and is dispersed outside the tube 290 as in the above case.

明らかに、この実施の形態の光源装置280を図1及び図2に示す第1の実施の形態の光源装置42に代えて用いることができる。従って、この第3の実施の形態は、第1の実施の形態と同じ結果を達成する。   Obviously, the light source device 280 of this embodiment can be used in place of the light source device 42 of the first embodiment shown in FIGS. Therefore, this third embodiment achieves the same result as the first embodiment.

第4の実施の形態
第1から第3の実施の形態では、RGBカラー画像とIR画像とをキャプチャする能力を有する4チャンネルカメラが用いられる。しかしながらこの発明はそのような実施の形態に限られない。他でも述べたように、この発明の実施の形態はダイクロイックプリズム機構を用いてIRと可視光とを分けることでも実現されうる。
Fourth Embodiment In the first to third embodiments, a four-channel camera having the ability to capture RGB color images and IR images is used. However, the present invention is not limited to such an embodiment. As described elsewhere, the embodiment of the present invention can also be realized by separating IR and visible light using a dichroic prism mechanism.

図10を参照して、第4の実施の形態による3D作像システム330は、入来する光を可視光とIR光とに分けるためのダイクロイックプリズム340と、ダイクロイックプリズム340からのIR光の光路に置かれたミラー342と、ダイクロイックプリズム340からの可視光を受けRGB画像をキャプチャする通常のカラーカメラ344と、ミラー342から反射したIR光を受け、IR画像をキャプチャする高精度IRカメラ346と、を含む。   Referring to FIG. 10, a 3D imaging system 330 according to the fourth embodiment includes a dichroic prism 340 for dividing incoming light into visible light and IR light, and an optical path of IR light from the dichroic prism 340. A normal color camera 344 that receives visible light from the dichroic prism 340 and captures an RGB image, and a high-accuracy IR camera 346 that receives IR light reflected from the mirror 342 and captures an IR image. ,including.

IRカメラ346は4チャンネルカメラ40と類似であって、CCD60と、CCD60によってキャプチャされたIR画像を記憶するための2個のフレームメモリ64及び66と、フレームメモリ64及び66に記憶されたIR画像を受けるように接続され、光のパルスの射出と同期してフレームメモリ64及び66に記憶されたIR画像に基づいて被写体44の深度プロファイルを計算するための信号処理装置68とを含む。   The IR camera 346 is similar to the 4-channel camera 40, and includes a CCD 60, two frame memories 64 and 66 for storing IR images captured by the CCD 60, and IR images stored in the frame memories 64 and 66. And a signal processor 68 for calculating the depth profile of the subject 44 based on the IR images stored in the frame memories 64 and 66 in synchronism with the emission of light pulses.

この実施の形態では、被写体対象物からの光がダイクロイックプリズム340で分離される。可視波長域の光はダイクロイックプリズム340を介して進み直接カラーカメラ344で受けられる。カラーカメラ344は対象物のカラー画像をキャプチャして各フレームのRGBカラー信号を出力する。   In this embodiment, light from the subject object is separated by the dichroic prism 340. The light in the visible wavelength range travels through the dichroic prism 340 and is directly received by the color camera 344. The color camera 344 captures a color image of the object and outputs an RGB color signal for each frame.

IR光はダイクロイックプリズム340で反射されて、ミラー342に進み、これはIR光を、CCD60によってキャプチャされたIR画像を記憶するための2つのフレームメモリ64及び66に向かわせる。CCD60によるIR画像のキャプチャ、フレームメモリ64及び66によるIR画像の交互の記憶、及びフレームメモリ64及び66に記憶された画像に基づく信号処理装置68による3D距離の計算は、第1の実施の形態の4チャンネルカメラ40と全く同じ様態で行われる。   The IR light is reflected by the dichroic prism 340 and travels to a mirror 342 that directs the IR light to two frame memories 64 and 66 for storing the IR image captured by the CCD 60. The IR image capture by the CCD 60, the alternating storage of the IR images by the frame memories 64 and 66, and the calculation of the 3D distance by the signal processing device 68 based on the images stored in the frame memories 64 and 66 are the first embodiment. This is performed in exactly the same manner as the four-channel camera 40.

上述の説明から明らかなように、第4の実施の形態の3D作像システム330は第1の実施の形態と同じ様態で動作する。従って、3Dカラー画像と高精度3D深度画像とが3D作像システム330によって生成される。   As is clear from the above description, the 3D image forming system 330 of the fourth embodiment operates in the same manner as the first embodiment. Accordingly, a 3D color image and a highly accurate 3D depth image are generated by the 3D imaging system 330.

今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。   The embodiment disclosed herein is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is indicated by each claim in the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are included. Including.

30、330 3D作像システム
40 4チャンネルカメラ
42、230、280 光源装置
60 CCD
62 スイッチ
64、66、70 フレームメモリ
68 信号処理装置
90、240、290、292 筒
92、296、298 光源
94、314 光学装置
110 センサ面
242、244、246、248、250、252、342 ミラー
340 ダイクロイックプリズム
344 カラーカメラ
346 IRカメラ
30, 330 3D imaging system 40 4-channel camera 42, 230, 280 Light source device 60 CCD
62 Switch 64, 66, 70 Frame memory 68 Signal processor 90, 240, 290, 292 Tube 92, 296, 298 Light source 94, 314 Optical device 110 Sensor surface 242, 244, 246, 248, 250, 252, 342 Mirror 340 Dichroic prism 344 Color camera 346 IR camera

Claims (8)

光学作像システムであって、
一連の不可視波長の光のパルスを周期的に射出する光源装置を含み、前記光のパルスは交互に第1の光度と第1の光度と異なる第2の光度とを有し、さらに
各々が不可視波長に感度があり、被写体からの光を受け各々が受けた光の強度を表す電気信号を出力する、第1の感光セルのアレイを有するフォトセンサ面を有し、それによって被写体の画像をキャプチャするカメラを含み、前記カメラは前記光源装置による光のパルスの射出に同期して動作し、さらに
被写体からの光をフォトセンサ面に向けて、前記光の各光線が予め規定された共通の点を通るように送るための撮像レンズシステムと、
前記カメラによってキャプチャされた画像を、前記光源装置による前記光のパルスの射出と同期して交互に記憶するための2個のメモリと、
前記2個のメモリに記憶された画像、予め定められた3D座標系に対する前記光源装置の位置、及び前記カメラの前記3D座標系に対する位置、を利用して、被写体の深度マップを計算するための信号処理装置と、を含む、光学作像システム。
An optical imaging system,
A light source device that periodically emits a series of invisible wavelength light pulses, the light pulses alternately having a first light intensity and a second light intensity different from the first light intensity, each of which is invisible A photosensor surface having a first array of photosensitive cells that is sensitive in wavelength and receives light from the subject and outputs an electrical signal representing the intensity of the light received by each, thereby capturing an image of the subject The camera operates in synchronization with the emission of light pulses by the light source device, and further directs light from the subject toward the photosensor surface so that each light ray of the light is defined in advance. An imaging lens system for sending through, and
Two memories for alternately storing images captured by the camera in synchronism with the emission of the light pulses by the light source device;
For calculating a depth map of a subject using the images stored in the two memories, the position of the light source device with respect to a predetermined 3D coordinate system, and the position of the camera with respect to the 3D coordinate system An optical imaging system comprising: a signal processing device;
前記光源装置は
前記不可視波長の光のパルスを射出するための光源と、
一つおきの周期で、前記光源が予め定められた第1の位置に来るように、他の周期では前記光源が予め定められた第2の位置に来るように、前記光源を移動するための機構と、
前記光源からの光を均一に広げるように別の予め定められた位置に置かれた光学装置と、を含む、請求項1に記載の光学作像システム。
The light source device is a light source for emitting a pulse of light of the invisible wavelength;
For moving the light source so that the light source comes to a predetermined first position in every other period, and so that the light source comes to a predetermined second position in other periods. Mechanism,
The optical imaging system according to claim 1, further comprising: an optical device placed at another predetermined position so as to spread light from the light source uniformly.
前記光源装置は、
予め定められた場所に位置付けられた光源と、
前記光源から入来する光を均一に広げるために別の予め定められた位置に置かれた光学装置と、
前記不可視波長の光を遮断する材料からなり、前記光源と前記光学装置との間に2つの光路を規定するための手段と、を含み、前記2つの光路は異なる長さを有し、さらに
前記光源装置による光のパルスの射出と同期して前記2つの光路を切替えるための手段を含む、請求項1に記載の光学作像システム。
The light source device is
A light source positioned at a predetermined location;
An optical device placed at another predetermined position to uniformly spread light coming from the light source;
And a means for defining two light paths between the light source and the optical device, wherein the two light paths have different lengths, and The optical imaging system according to claim 1, comprising means for switching the two optical paths in synchronism with the emission of light pulses by the light source device.
前記アレイは、各々が予め定められた可視波長に感度があり、被写体からの光を受けて各々が受けた前記可視波長の光の強度を表す電気信号を出力する、第2の感光セルを有し、それによって被写体の可視画像を出力する、請求項1に記載の光学作像システム。 Each of the arrays has a second photosensitive cell that is sensitive to a predetermined visible wavelength and outputs an electric signal representing the intensity of the visible wavelength light received from the subject. The optical imaging system according to claim 1, wherein a visible image of the subject is output thereby. 前記第2の感光セルは、各々が互いに異なる可視波長に感度のある複数個のセルを含む複数個のグループに分けられる、請求項4に記載の光学作像システム。 The optical imaging system according to claim 4, wherein the second photosensitive cells are divided into a plurality of groups each including a plurality of cells sensitive to different visible wavelengths. 前記光源装置は前記光のパルスを、前記光のパルスが前記3D座標系の予め定められた位置から均一に広がるように射出し、
前記感光セルの各々は前記3D座標系に対する既知の位置に置かれ、
前記予め定められた共通点は前記3D座標系内の既知の位置に置かれ、
前記信号処理装置は、2つの連続した周期で第1の感光セルから出力された強度、前記3D座標系に対する前記光源装置の位置、前記3D座標系に対する前記共通点の位置、及び前記3D座標系に対する前記感光セルの位置、を利用して、前記3D座標系に対する第1の感光セルの深度を計算する、請求項1に記載の光学作像システム。
The light source device emits the light pulse so that the light pulse spreads uniformly from a predetermined position of the 3D coordinate system,
Each of the photosensitive cells is placed at a known position relative to the 3D coordinate system;
The predetermined common point is placed at a known position in the 3D coordinate system;
The signal processing device includes an intensity output from the first photosensitive cell in two successive cycles, a position of the light source device with respect to the 3D coordinate system, a position of the common point with respect to the 3D coordinate system, and the 3D coordinate system. The optical imaging system according to claim 1, wherein the position of the photosensitive cell with respect to is used to calculate the depth of the first photosensitive cell with respect to the 3D coordinate system.
前記3D座標系は前記感光セルのアレイで規定されるフォトセンサ面に固定される、請求項6に記載の光学作像システム。 The optical imaging system according to claim 6, wherein the 3D coordinate system is fixed to a photosensor surface defined by the array of photosensitive cells. 前記光源装置と前記カメラとは互いに固定されている、請求項7に記載の光学作像システム。
The optical imaging system according to claim 7, wherein the light source device and the camera are fixed to each other.
JP2009136185A 2009-06-05 2009-06-05 Three-dimensional optical image-forming system Pending JP2010281733A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009136185A JP2010281733A (en) 2009-06-05 2009-06-05 Three-dimensional optical image-forming system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009136185A JP2010281733A (en) 2009-06-05 2009-06-05 Three-dimensional optical image-forming system

Publications (1)

Publication Number Publication Date
JP2010281733A true JP2010281733A (en) 2010-12-16

Family

ID=43538595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009136185A Pending JP2010281733A (en) 2009-06-05 2009-06-05 Three-dimensional optical image-forming system

Country Status (1)

Country Link
JP (1) JP2010281733A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60207004A (en) * 1984-03-31 1985-10-18 Toshiba Corp Surface-defect inspecting apparatus
JPH06341818A (en) * 1993-06-02 1994-12-13 A T R Ningen Joho Tsushin Kenkyusho:Kk Method for extracting information on object and light source and device using the method
JP2000082143A (en) * 1998-07-01 2000-03-21 Sekisui Chem Co Ltd Surface defect inspection device
JP2004170305A (en) * 2002-11-21 2004-06-17 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for measuring three-dimensional shape

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60207004A (en) * 1984-03-31 1985-10-18 Toshiba Corp Surface-defect inspecting apparatus
JPH06341818A (en) * 1993-06-02 1994-12-13 A T R Ningen Joho Tsushin Kenkyusho:Kk Method for extracting information on object and light source and device using the method
JP2000082143A (en) * 1998-07-01 2000-03-21 Sekisui Chem Co Ltd Surface defect inspection device
JP2004170305A (en) * 2002-11-21 2004-06-17 Nippon Telegr & Teleph Corp <Ntt> Method and apparatus for measuring three-dimensional shape

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNJ200610048093; 小森一矢,松田一朗,伊東晋: '移動光源を用いた変形する物体の照度差ステレオ法' 電子情報通信学会2005年総合大会講演論文集  情報・システム2 , 20050307, p. 93, 社団法人電子情報通信学会 *
JPN6013031788; 小森一矢,松田一朗,伊東晋: '移動光源を用いた変形する物体の照度差ステレオ法' 電子情報通信学会2005年総合大会講演論文集  情報・システム2 , 20050307, p. 93, 社団法人電子情報通信学会 *

Similar Documents

Publication Publication Date Title
US10638118B2 (en) Time-of-flight camera system
US10616510B2 (en) Methods and apparatus for superpixel modulation
US9123114B2 (en) System and processor implemented method for improved image quality and enhancement based on quantum properties
US20140192238A1 (en) System and Method for Imaging and Image Processing
US20140168424A1 (en) Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
JP2009300268A (en) Three-dimensional information detection device
JP2007529960A (en) 3D information acquisition and display system for personal electronic devices
US10679370B2 (en) Energy optimized imaging system with 360 degree field-of-view
JP7409443B2 (en) Imaging device
WO2017172030A1 (en) Laser projector and camera
CN113534596A (en) RGBD stereo camera and imaging method
US11601607B2 (en) Infrared and non-infrared channel blender for depth mapping using structured light
JP6868167B1 (en) Imaging device and imaging processing method
JP2010281733A (en) Three-dimensional optical image-forming system
KR20150047604A (en) Method for description of object points of the object space and connection for its implementation
Wang High resolution 2D imaging and 3D scanning with line sensors
Gurbuz Application of inverse square law for 3D sensing
JP6868168B1 (en) Imaging device and imaging processing method
EP3993385A1 (en) A multiperspective photography camera device
Zhang Investigations into applications of photometric stereo and single-pixel imaging
Zorlubas et al. Laser beam scanning-based 3D structured light scanner combining a bi-resonant MEMS mirror with low-cost imaging sensor
JP2021150882A (en) Image capture device and image capture processing method
You et al. MOEMS-based time-of-flight camera for 3D video capturing
JP2021150880A (en) Image capture device and image capture processing method
Gurbuz et al. Optical alignment technique of 3D geometric camera system for 3D imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120516

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130621

A131 Notification of reasons for refusal

Effective date: 20130702

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131029