JP2010281733A - Three-dimensional optical image-forming system - Google Patents
Three-dimensional optical image-forming system Download PDFInfo
- Publication number
- JP2010281733A JP2010281733A JP2009136185A JP2009136185A JP2010281733A JP 2010281733 A JP2010281733 A JP 2010281733A JP 2009136185 A JP2009136185 A JP 2009136185A JP 2009136185 A JP2009136185 A JP 2009136185A JP 2010281733 A JP2010281733 A JP 2010281733A
- Authority
- JP
- Japan
- Prior art keywords
- light
- light source
- camera
- coordinate system
- source device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は被写体の2Dカラー画像と3D表面プロファイルとをキャプチャするための3D撮像システムに関する。特に、この発明は高精細3D画像をリアルタイムでキャプチャするのに好適な3D光学システムに関する。 The present invention relates to a 3D imaging system for capturing a 2D color image and a 3D surface profile of a subject. In particular, the present invention relates to a 3D optical system suitable for capturing high-definition 3D images in real time.
長年にわたって、周知の赤/緑の立体メガネ式ディスプレイ、ボリュームディスプレイ、裸眼立体ディスプレイ等のいろいろな種類の3D表示技術が開発されている。 Over the years, various types of 3D display technologies such as the well known red / green stereoscopic glasses display, volume display, autostereoscopic display, etc. have been developed.
トランスミッション及び(オーディオ−ビデオ)マルチメディア技術は急速に進歩しており、現実の感覚をメディア放送コンテンツで達成しようとしている。視聴者側で現実の感覚を達成するためには、視聴者に対し超現実的なオーディオ及びビデオコンテンツを配信する必要がある。ここでは、3次元(3D)視覚コンテンツの取得に焦点を当てる。 Transmission and (audio-video) multimedia technologies are advancing rapidly, trying to achieve a real sense in media broadcast content. In order to achieve a sense of reality on the viewer side, it is necessary to deliver surreal audio and video content to the viewer. Here we focus on the acquisition of three-dimensional (3D) visual content.
従来の2Dテレビジョンとは対照的に、ほとんどの3Dテレビジョンは被写体の2Dの視覚的外観を表示するのみでなく、ステレオ画像、マルチビュー画像又は2Dプラス視差画像といった様々な形で、被写体の深度情報もまた表示する。被写体の色情報と3D表面プロファイルとが入手できれば、これらの形の視覚的情報は全て再生成可能である。従って、ここでの目標は以下の2点となる。すなわち(1)2Dの外観(色情報)をキャプチャすること、及び(2)画素ごとの深度情報をリアルタイムで同期して計算すること、である。 In contrast to conventional 2D television, most 3D televisions not only display the 2D visual appearance of the subject, but also in various forms such as stereo images, multi-view images or 2D plus parallax images. Depth information is also displayed. If the subject color information and the 3D surface profile are available, all of these forms of visual information can be regenerated. Therefore, the target here is the following two points. That is, (1) capturing a 2D appearance (color information) and (2) calculating depth information for each pixel synchronously in real time.
これまでに、3D画像キャプチャのための様々な技術が提案されている。極端なものの1つでは、従来の較正された立体視カメラを用いた画像ベースのアプローチを用いて深度マップを推定する。別の極端な例では、赤外光の飛行時間(time−of−flight:TOF)原理を用いたもの等の光学ベースのカメラによって、深度をキャプチャする。 So far, various techniques for 3D image capture have been proposed. In one extreme, the depth map is estimated using an image-based approach using a conventional calibrated stereoscopic camera. In another extreme example, depth is captured by an optical-based camera, such as one using the infrared time-of-flight (TOF) principle.
非特許文献1に開示の発明では、TOF3Dカメラは正弦波的に変調された赤外光信号を射出する。光が測定システムから対象物へ到達しさらにシステムに戻るまでに必要な時間が測定され、画像中の各画素の深度を計算する際に用いられる。 In the invention disclosed in Non-Patent Document 1, the TOF 3D camera emits a sinusoidally modulated infrared light signal. The time required for light to reach the object from the measurement system and back to the system is measured and used in calculating the depth of each pixel in the image.
(B. Buttgen, T. Oggier, and M. Lehmann, "Ccd/cmos lock-in pixel for range imaging: challenges, limitations and state-of-the-art," in Proceedings of 1st range imaging research day, pp.21-32, Ingensand/Kahlmann (eds.), Zurich, 2005.) (B. Buttgen, T. Oggier, and M. Lehmann, "Ccd / cmos lock-in pixel for range imaging: challenges, limitations and state-of-the-art," in Proceedings of 1st range imaging research day, pp. 21-32, Ingensand / Kahlmann (eds.), Zurich, 2005.)
TOF3Dカメラで達成可能な最良の距離精度は、対象物からカメラまでの距離に依存して、数ミリメートルから数センチメートルのオーダである。さらに、この技術には赤外光の変調周波数によって課される距離限界があり、この距離限界範囲の外では、測定値が不正確である。さらに、TOFレンジカメラは同期した距離データとカラー画像とをキャプチャすることが可能であるが、この方法では高解像度のキャプチャリングは困難である。ハードウェアの複雑さとそれに関連するコストも高い。従って、TOFカメラによりキャプチャするというアプローチは、2Dのみのカメラに代わる個人的な使用又は3Dテレビジョン放送等の要求の高い応用への、消費者向け3D作像カメラとしては適していないと思われる。 The best distance accuracy achievable with a TOF 3D camera is on the order of a few millimeters to a few centimeters, depending on the distance from the object to the camera. Furthermore, this technique has a distance limit imposed by the modulation frequency of the infrared light, and measurements are inaccurate outside this distance limit range. Furthermore, although the TOF range camera can capture synchronized distance data and a color image, it is difficult to capture high resolution with this method. Hardware complexity and associated costs are also high. Therefore, the approach of capturing with a TOF camera seems not suitable as a consumer 3D imaging camera for demanding applications such as personal use instead of 2D-only cameras or 3D television broadcasting. .
従って、この発明の目的の1つは、カラー画像のキャプチャと同期した高解像度の3Dキャプチャが可能な3Dカメラを提供することである。 Accordingly, one of the objects of the present invention is to provide a 3D camera capable of high-resolution 3D capture synchronized with color image capture.
この発明の別の目的は、簡単なハードウェア構成で高解像度の3Dキャプチャが可能な3Dカメラを提供することである。 Another object of the present invention is to provide a 3D camera capable of high-resolution 3D capture with a simple hardware configuration.
この発明の1局面に従った光学作像システムは、2連の別個の不可視波長の光のパルスを射出する光源装置を含み、前記光のパルスは交互に第1の光度と、(同じ挙動となるよう物理的または仮想的に)第1の光度に対しより長い経路に制限された第2の光度とを有し、さらに、各々が不可視波長に感度があり、被写体からの光を受け各々が受けた光の強度を表す電気信号を出力する、第1の感光セルのアレイを有するフォトセンサ面を有し、それによって被写体の画像をキャプチャするカメラを含み、前記カメラは前記光源装置による光のパルスの射出に同期して動作し、さらに、被写体からの光をフォトセンサ面に向けて、前記光の各光線が予め規定された共通の点を通るように送るための撮像レンズシステムと、前記カメラによってキャプチャされた画像を、前記光源装置による前記光のパルスの射出と同期して交互に記憶するための2個のメモリと、前記2個のメモリに記憶された画像、予め定められた3D座標系に対する前記光源装置の位置、及び前記カメラの前記3D座標系に対する位置、を利用して、被写体の深度マップを計算するための信号処理装置と、を含む。 An optical imaging system according to one aspect of the present invention includes a light source device that emits two separate pulses of light of invisible wavelength, the pulses of light alternating with a first intensity (with the same behavior). And second light intensity limited to a longer path relative to the first light intensity, and each sensitive to invisible wavelengths, each receiving light from the subject A camera having a photosensor surface having a first array of photosensitive cells that outputs an electrical signal representative of the intensity of the received light, thereby capturing an image of the subject, said camera comprising: An imaging lens system that operates in synchronization with the emission of a pulse, and further directs light from the subject to a photosensor surface so that each ray of the light passes through a predetermined common point; and Ki by camera Two memories for alternately storing captured images in synchronization with the emission of the light pulses by the light source device, images stored in the two memories, a predetermined 3D coordinate system And a signal processing device for calculating a depth map of the subject using the position of the light source device with respect to and the position of the camera with respect to the 3D coordinate system.
1の実施の形態に従えば、前記光源装置は前記不可視波長の光のパルスを射出するための光源と、一つおきの周期で、前記光源が予め定められた第1の位置に来るように、他の周期では前記光源が予め定められた第2の位置に来るように、前記光源を移動するための機構と、前記光源からの光を均一に広げるように別の予め定められた位置に置かれた光学装置と、を含む。 According to one embodiment, the light source device has a light source for emitting a pulse of light with an invisible wavelength, and the light source comes to a predetermined first position every other period. A mechanism for moving the light source so that the light source is at a predetermined second position in another cycle, and another predetermined position so as to spread light from the light source uniformly. Placed optical device.
別の実施の形態に従えば、前記光源装置は、予め定められた場所に位置付けられた光源と、前記光源から入来する光を均一に広げるために別の予め定められた位置に置かれた光学装置と、前記不可視波長の光を遮断する材料からなり、前記光源と前記光学装置との間に2つの光路を規定するための手段と、を含み、前記2つの光路は異なる長さを有し、さらに、前記光源装置による光のパルスの射出と同期して前記2つの光路を切替えるための手段を含む。 According to another embodiment, the light source device is placed in another predetermined position to uniformly spread light coming from the light source and a light source positioned in a predetermined place. An optical device, and a means for defining two optical paths between the light source and the optical device, the two optical paths having different lengths. And means for switching the two optical paths in synchronization with the emission of light pulses by the light source device.
この構成では、各々が予め定められた可視波長に感度があり、被写体からの光を受けて各々が受けた前記可視波長の光の強度を表す電気信号を出力する、第2の感光セルを有してもよく、それによって被写体の可視画像を出力する。 In this configuration, there is a second photosensitive cell, each of which is sensitive to a predetermined visible wavelength, and outputs an electrical signal indicating the intensity of the visible wavelength light received from the subject. It is also possible to output a visible image of the subject.
前記第2の感光セルは、各々が互いに異なる可視波長に感度のある複数個のセルを含む複数個のグループに分けられてもよい。 The second photosensitive cells may be divided into a plurality of groups each including a plurality of cells sensitive to different visible wavelengths.
好ましくは、前記光源装置は前記光のパルスを、前記光のパルスが前記3D座標系に対して固定された予め定められた位置から均一に広がるように射出する。前記感光セルの各々は前記3D座標系に対する既知の位置に置かれ、前記予め定められた共通点は前記3D座標系内の既知の位置に置かれる。前記信号処理装置は、2つの連続した周期で第1の感光セルから出力された強度、前記3D座標系に対する前記光源装置の位置、前記3D座標系に対する前記共通点の位置、及び前記3D座標系に対する前記感光セルの位置、を利用して、前記3D座標系に対する第1の感光セルに対応する対象点の深度を計算する。 Preferably, the light source device emits the light pulse so that the light pulse spreads uniformly from a predetermined position fixed with respect to the 3D coordinate system. Each of the photosensitive cells is placed at a known position with respect to the 3D coordinate system, and the predetermined common point is placed at a known position within the 3D coordinate system. The signal processing device includes an intensity output from the first photosensitive cell in two successive cycles, a position of the light source device with respect to the 3D coordinate system, a position of the common point with respect to the 3D coordinate system, and the 3D coordinate system. The depth of the target point corresponding to the first photosensitive cell with respect to the 3D coordinate system is calculated using the position of the photosensitive cell with respect to.
さらに好ましくは、前記3D座標系は前記感光セルのアレイで規定される面に固定される。 More preferably, the 3D coordinate system is fixed to a plane defined by the array of photosensitive cells.
さらに好ましくは、前記光源装置と前記カメラとは互いに固定されている。 More preferably, the light source device and the camera are fixed to each other.
以下にこの発明の実施の形態を添付の図を参照して説明する。図において、同様の要素は同じ参照符号を付す。従って、その詳細な説明は繰返さない。 Embodiments of the present invention will be described below with reference to the accompanying drawings. In the figures, similar elements bear the same reference numerals. Therefore, detailed description thereof will not be repeated.
第1の実施の形態
1.始めに
この機能を達成するための方法及び装置は、わずかに異なる幾何学的位置に置かれ、不可視、例えば赤外波長域で動作する2個の等方性光源と、被写体に投影された光線を整列させる光学装置と、不可視波長域に感度を有する高精度カメラと、を含む。画素ごとの距離情報を決定するために、カメラシステムは連続した各光源からのストロボ動作の間に2個のシーケンシャルな画像をキャプチャする。その後、これら2つの画像における各画素位置の光の強度を利用して、画像中の画素位置に対応する対象点の距離情報を計算し、被写体の3D表面プロファイルをリアルタイムで生成する。
First Embodiment Introduction A method and apparatus for accomplishing this function consists of two isotropic light sources that are placed in slightly different geometric positions and that are invisible, eg operating in the infrared wavelength range, and light rays projected onto the subject. And an optical device for aligning the image and a high-precision camera having sensitivity in the invisible wavelength region. To determine distance information for each pixel, the camera system captures two sequential images during the strobe operation from each successive light source. Then, using the light intensity at each pixel position in these two images, the distance information of the target point corresponding to the pixel position in the image is calculated, and the 3D surface profile of the subject is generated in real time.
設計上の選択に依存して、カラー画像はダイクロイックプリズム機構によって、又は4個のバンドパスフィルタシステムを備えた4チャンネルのカメラであって、うち3個が可視光の赤、緑及び青のチャンネル用であり4番目がIRチャンネルであるカメラによって、同期してキャプチャできる。第1の実施の形態では、4個のバンドパスフィルタを備えた単一の4チャンネルカメラを利用する。 Depending on the design choice, the color image is either a dichroic prism mechanism or a four channel camera with four bandpass filter systems, three of which are visible red, green and blue channels It is possible to capture synchronously by a camera that is for use and the fourth is an IR channel. In the first embodiment, a single four-channel camera having four band pass filters is used.
2.高精細3Dセンシングカメラシステムの原理
このセクションでは、高精細カラー画像及び距離データの両方を同期してリアルタイムでキャプチャ可能な3Dセンシングカメラシステムの原理を説明する。基本原理は以下のとおりである。
2. Principle of High-Definition 3D Sensing Camera System This section describes the principle of a 3D sensing camera system that can capture both high-definition color images and distance data in real time in synchronization. The basic principle is as follows.
わずかに異なる幾何学的位置に置かれた、既知の伝搬特性を有する2個のエネルギ源が、(不可視波長域の光のパルスの形で)一連のエネルギパルスを交互に射出する。エネルギパルスは対象物の表面から反射される。受信機が反射されたエネルギパルスの振幅を取出す。こうして、これら2個のエネルギ源から出て受信されたエネルギパルスの振幅は、エネルギ経路に沿った基準点と対象点との距離を規定する。例えば、点光源の伝搬特性、重力、電界、音及び放射は、逆二乗の法則で説明できる。従って、適切な設計で3Dセンシングのためにこれらを利用できる。 Two energy sources with known propagation characteristics, placed in slightly different geometries, alternately emit a series of energy pulses (in the form of pulses of light in the invisible wavelength range). The energy pulse is reflected from the surface of the object. The receiver takes out the amplitude of the reflected energy pulse. Thus, the amplitude of the energy pulses received from these two energy sources defines the distance between the reference point and the target point along the energy path. For example, the propagation characteristics, gravity, electric field, sound and radiation of a point light source can be explained by the inverse square law. Therefore, they can be used for 3D sensing with appropriate design.
この実施の形態では、射出器としての2個の光源と、受信機としての高精度カメラとを利用して、距離データ及びカラー画像データをキャプチャする。このシステムは、光の2つの物理的特性を利用する。すなわち(1)逆二乗の法則で説明される伝搬特性、及び(2)アブニーの法則(Abeny´s Law)としても知られる、異なる波長の光の視覚効果の線形性、である。具体的には、上述の機能を達成するシステムは、光軸をそろえてわずかに異なる位置に置かれともに不可視波長域で動作する2個の等方性光源と、光誘導光学装置と、高精度(好ましくは16ビット以上の)作像カメラとを含む。 In this embodiment, distance data and color image data are captured using two light sources as an ejector and a high-precision camera as a receiver. This system utilizes two physical properties of light. That is, (1) propagation characteristics described by the inverse-square law, and (2) linearity of the visual effect of light of different wavelengths, also known as Abney's Law. Specifically, the system that achieves the above-described function is composed of two isotropic light sources that are arranged at slightly different positions along the optical axis and operate in the invisible wavelength range, a light guiding optical device, and a high accuracy. Imaging camera (preferably 16 bits or more).
3.システムの概観
図1を参照して、この発明の第1の実施の形態による3D作像システム30は、被写体44の画素ごとの深度情報を計算するために、2個の連続した画像フレームを獲得する必要がある。設計上の選択により、カラー画像は、2個のカメラを必要とするダイクロイックプリズム機構を用いてIRと可視光とを分けるか、又は4個の光学バンドパスフィルタシステムを備えた4チャンネルのカメラであって、チャンネルのうち3個が赤、緑及び青(可視光)に最適化され、4つめのチャンネルがIR光源の波長域に最適化されたものを用いることによって、同期して獲得できる。この実施の形態では、単一の4チャンネルカメラを用いる。
3. System Overview Referring to FIG. 1, a
図1を参照して、作像システム30は、予め定められた間隔でIR光のパルスを射出するための光源装置42と、光源装置42による光のパルスの射出に同期して、各フレームのRGBカラー画像及びIR画像をキャプチャするための4チャンネルカメラ40と、を含む。こうして、一連の不可視波長の光のパルスが光源装置42から射出される。光のパルスは交互に第1の光度と第1の光度とは異なるタイミングの第2の光度とを有する。
Referring to FIG. 1, an
光源装置42は、光を吸収する内壁及び一端の開口部を有する筒90と、筒90内に収めれらた2個の等方性IR点光源SA及びSBとを含み、これらはそれぞれ強度SA=S及びSB=kSで全方向に等しくその影響を及ぼす。ただしk=SB_ray(j)/SA_ray(j)は任意のスケーラであって被写体に投影される全ての光線(j=1,2,…N)について一定である。kの値は前もって既知であってもよく又はオン−ザ−フライでダイナミックに測定してもよい。さらに光学装置94があり、これは典型的にはレンズシステムであって、筒90の開口端に位置づけられ、光源SA及びSBからの光を同様に広げ、このためj=1,2,…Nに対応する全ての画素に対しk=SB_ray(j)/SA_ray(j)が保たれる。
The
図2を参照して、実際には筒90内に単一の光源92が設けられる。光源92は図1で光源SA及びSBとして示される位置間を図2(A)及び図2(B)に示されるように往復する。均一な光源92が光源SAで示される位置にある時、これは光源SAとして動作する。これが光源SBで示される位置にある時、これは光源SBとして動作する。従って、この実施の形態において、上述のSB=kSの定数kは1に等しい。
Referring to FIG. 2, a single
光学装置94の中心から光源SA及びSBへの距離は、図3に示すようにそれぞれv及びwである。
The distances from the center of the
再び図1を参照して、4チャンネルカメラ40は、被写体44の画像を予め規定された画像面に焦点合わせするためのレンズシステム(図示せず)と、予め規定された画像面に位置づけられたセンサ面を有し、被写体44のRGB画像及びIR画像をキャプチャして、各フレームのRGB信号及びIR信号を出力するための4チャンネルCCD(Charge Coupled Device:電荷結合素子)60と、CCD60からのRGB信号を受けるように接続され、各フレームのタイムスロットでRGB画像を記憶するフレームメモリ70と、CCD60によってキャプチャされたIR画像を交互に記憶するフレームメモリ64及び66と、(コンピュータプログラム又はハードウェアで実現可能な)電子スイッチ62であって、入力がCCD60からのIR信号を受けるように接続され、2つの出力がフレームメモリ64及び66の入力にそれぞれ接続されて、光のパルスの射出に同期して各フレームタイムスロットでフレームメモリ64又は66へCCD60からのIR信号を交互に提供するスイッチと、フレームメモリ64及び66に記憶されたIR画像を受けるように接続され、光のパルスの射出に同期して各フレームタイムスロットでフレームメモリ64及び66に記憶されたIR画像に基づいて被写体44の深度プロファイルを計算するための信号処理装置68と、を含む。
Referring again to FIG. 1, the four-
光源SA及びSBは、各フレームでIR光を交互に射出するように制御される。すなわち、最初のフレームでは光源SAがIR光を射出し、光源SBは射出しない。次のフレームでは、光源SBがIR光を射出し、光源SAは射出しない。 The light sources S A and S B are controlled to emit IR light alternately in each frame. That is, in the first frame, the light source S A emits IR light, and the light source S B does not emit. In the next frame, the light source S B emits IR light and the light source S A does not emit.
EA及びEBが、SA及びSBのそれぞれの照明期間中の任意の可視対象点_x0(_は文字の下に付されるものである)の表面上での強度を表すものとする。同様に、IA及びIBを、それぞれSA及びSBにより作像装置によりキャプチャされた強度値を表すものとする。ここで、IAに対するIBはEAに対するEBと同じであると言える。従って、この関係は次のように記述できる。
IA:IB=EA:EB (1)
なぜなら、光吸収面等の光不変性を有する表面を除き、対象表面の反射率と独立でIA∝EA(IAはEAに比例)かつIB∝EBだからである。光の伝搬特性を用いれば、EA及びEBを数学的に以下のように定義できる。
E A and E B represent the intensity on the surface of any visible object point _x 0 (where _ is attached below the letter) during the respective illumination periods of S A and S B To do. Similarly, the I A and I B, respectively denote the captured intensity values by imager by S A and S B. Here, it can be said that I B for I A is the same as E B for E A. Therefore, this relationship can be described as follows.
I A : I B = E A : E B (1)
This is because, except for the surface having a light constancy of the light-absorbing surface or the like, I A .alpha.E A independent and reflectance of the target surface (I A is proportional to E A) and a so I B .alpha.E B. Using light propagation characteristics, E A and E B can be defined mathematically as follows:
4.デカルト座標におけるカメラ原点を基準とした3D測定
このセクションでは、カメラ原点を基準としてデカルト座標で距離データを表現する方法を説明する。
4). 3D Measurement Using Camera Origin in Cartesian Coordinates This section describes how to represent distance data in Cartesian coordinates using the camera origin as a reference.
すなわち、光学装置94の焦点と4チャンネルカメラ40のCCD60(図3を参照)の光学的中心との幾何学的関係が既知であれば、カメラの仕様と、デカルト座標(x,y,z)(又はこれを球面座標に変換することを選択してもよい)での光学装置94と対象点102との間の推定された距離rとを用いて、CCD60に固定されたカメラ座標を基準とした対象点102の3D位置を計算できる。光学装置94は光が被写体に射出されCCD60のセンサ面でキャプチャされることに注意されたい。対象点からの光線は各々、感光セルに当たる時にレンズ100の共通の焦点を通過する。
That is, if the geometric relationship between the focal point of the
図3及び図4の表記を利用すれば、余弦定理は以下のようになる。 Using the notations in FIGS. 3 and 4, the cosine theorem is as follows.
ここで
従って、カメラ原点116に対して3D空間内で対象点_x0を決定するためには、図6に示されるように(0,0,0)の原点116から(dx,dy,0)の位置までとして定義されるベクトル→sを、以下に示すように→ρに加えなければならない。
Therefore, in order to determine the target point _x 0 in the 3D space with respect to the
図7を参照して、作像システム30は以下のように動作する。
光源SAは、図7(A)に示すように、フレーム130、132、134、136、…で光を射出する。これに対して、光源SBは図7(B)に示すように、それぞれフレーム130と132との間、132と134との間、134と136との間…にあるフレーム140、142、144、…で光を射出する。こうして、不可視波長の一連の光のパルスが光源装置42から射出される。光のパルスは第1の光度と第2の光度とを交互に有する。
Source S A, as shown in FIG. 7 (A), the
フレームタイムスロットの各々で、CCD60はRGB画像(カラー画像200、202、204、206、208、210、…)とIR画像(IR画像150、152、154、156、158、160、…)とを撮像し、これら画像の信号を出力する。光源SA及びSBがIR光を交互に射出するので、CCD60から出力されるIR画像は光源SA及びSBから射出され同じ対象点102から反射されたIR光の交互の画像(画像150、154、158、…及び画像152、156、160、…)である。
In each frame time slot, the
IR画像内の画素の各々に対して式7から式16で示される計算を適用することにより、IR画像対150及び152、152及び154、154及び156、156及び158、158及び160、…の各々から距離画像180、182、184、186、188、190、…を得ることができる。
By applying the calculations shown in Equations 7 through 16 to each of the pixels in the IR image, the IR image pairs 150 and 152, 152 and 154, 154 and 156, 156 and 158, 158 and 160,. Distance
第2の実施の形態
第1の実施の形態では、光源装置42は光源SA及びSBの位置を往復する単一の光源92を含む。しかしながらこの発明はそのような実施の形態に限られない。
Second Embodiment In the first embodiment, the
図8を参照して、この発明の第2の実施の形態にかかる光源装置230は、2個の突出部を備え、光吸収性の内壁を有する矩形筒240と、突出部の一方の端部に設けられたIR光源92と、を含む。筒240の他方の突出部の端部には開口部がある。光源装置230はさらに、筒240の4隅に設けられ、筒240の中心を向いた4つのミラー246、248、250及び252と、直角に反転可能で光源92からの光を反射してミラー248又はミラー250の方向に向けることが可能なミラー244と、直角に反転可能で、ミラー250からの光またはミラー246からの光のいずれかを、ミラー244の反転と同期して反射して筒240の開口部の方向へと向けるミラー242と、筒240の開口部に設けられた光学装置94と、を含む。ミラー244、252、250及び242は光源92からの光に対しより長い光路を規定する。ミラー244、248、246及び242はより短い光路を規定する。
Referring to FIG. 8, a
図8から明らかなように、ミラー244及び242が図8(A)にあるように「下向き」である場合、光源92からの光はより短い経路を進む。ミラー244及び242が図8(B)にあるように「上向き」である場合、光はより長い経路を進む。従って、光源92の位置は変わらないが、光学装置94から射出する光の強度は変化する。従って、第1の実施の形態の光源装置42に代えて光源装置230を用いることができる。
As is apparent from FIG. 8, when the
第3の実施の形態
この発明の第3の実施の形態では、図9に示す光源装置280を利用する。図9を参照して、光源装置280は一方端に開口部322を有し側壁に開口部302が形成された筒290と、筒290の開口部に置かれ、筒290を介して入来する2個の異なる光源からの光を同様に分散させる光学装置314と、筒290内の他方端に置かれたIR光源296と、を含む。
Third Embodiment In the third embodiment of the present invention, a
光源装置280はさらに、側壁に開口部を有し、筒290に対して開口部が筒290の開口部302とそろうように取付けられる筒292と、開口部302から遠位の端部で筒290内に置かれたIR光源298と、光源298からのIR光が反射プリズム300によって反射され開口部302に向かうように、筒292の他方端に取付けられた反射プリズム300と、開口部302が第1の姿勢と第2の姿勢との間で姿勢を変えられるよう、開口部302で筒290に動作可能に取付けられた反射シャッタ294とを含み、第1の状態ではシャッタ294は開口部302を閉じ、第2の状態ではシャッタ294は開口部302を開く。第2の状態では、シャッタ294の一端が筒290の内壁に当接し、反射プリズム300からの光を開口部322へと反射する。シャッタ294の状態を動かすために、光源装置280はシャッタ機構(図示せず)を含む。
The
図9(A)に示す第1の状態では、IR光源296からの光310は直接光学装置314へと進み、筒290の外で分散される。光源298はオフにされる。
In the first state shown in FIG. 9A, the light 310 from the IR
図9(B)に示す第2の状態では、IR光源296はオフにされ、光源298がオンにされる。光源298からの光はプリズム300へと進み、ここで反射されてシャッタ294に向かう。光は再度シャッタ294で反射されて光学装置314に向かい、上の場合と同様に、筒290の外で分散される。
In the second state shown in FIG. 9B, the IR
明らかに、この実施の形態の光源装置280を図1及び図2に示す第1の実施の形態の光源装置42に代えて用いることができる。従って、この第3の実施の形態は、第1の実施の形態と同じ結果を達成する。
Obviously, the
第4の実施の形態
第1から第3の実施の形態では、RGBカラー画像とIR画像とをキャプチャする能力を有する4チャンネルカメラが用いられる。しかしながらこの発明はそのような実施の形態に限られない。他でも述べたように、この発明の実施の形態はダイクロイックプリズム機構を用いてIRと可視光とを分けることでも実現されうる。
Fourth Embodiment In the first to third embodiments, a four-channel camera having the ability to capture RGB color images and IR images is used. However, the present invention is not limited to such an embodiment. As described elsewhere, the embodiment of the present invention can also be realized by separating IR and visible light using a dichroic prism mechanism.
図10を参照して、第4の実施の形態による3D作像システム330は、入来する光を可視光とIR光とに分けるためのダイクロイックプリズム340と、ダイクロイックプリズム340からのIR光の光路に置かれたミラー342と、ダイクロイックプリズム340からの可視光を受けRGB画像をキャプチャする通常のカラーカメラ344と、ミラー342から反射したIR光を受け、IR画像をキャプチャする高精度IRカメラ346と、を含む。
Referring to FIG. 10, a
IRカメラ346は4チャンネルカメラ40と類似であって、CCD60と、CCD60によってキャプチャされたIR画像を記憶するための2個のフレームメモリ64及び66と、フレームメモリ64及び66に記憶されたIR画像を受けるように接続され、光のパルスの射出と同期してフレームメモリ64及び66に記憶されたIR画像に基づいて被写体44の深度プロファイルを計算するための信号処理装置68とを含む。
The
この実施の形態では、被写体対象物からの光がダイクロイックプリズム340で分離される。可視波長域の光はダイクロイックプリズム340を介して進み直接カラーカメラ344で受けられる。カラーカメラ344は対象物のカラー画像をキャプチャして各フレームのRGBカラー信号を出力する。
In this embodiment, light from the subject object is separated by the
IR光はダイクロイックプリズム340で反射されて、ミラー342に進み、これはIR光を、CCD60によってキャプチャされたIR画像を記憶するための2つのフレームメモリ64及び66に向かわせる。CCD60によるIR画像のキャプチャ、フレームメモリ64及び66によるIR画像の交互の記憶、及びフレームメモリ64及び66に記憶された画像に基づく信号処理装置68による3D距離の計算は、第1の実施の形態の4チャンネルカメラ40と全く同じ様態で行われる。
The IR light is reflected by the
上述の説明から明らかなように、第4の実施の形態の3D作像システム330は第1の実施の形態と同じ様態で動作する。従って、3Dカラー画像と高精度3D深度画像とが3D作像システム330によって生成される。
As is clear from the above description, the 3D
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。 The embodiment disclosed herein is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is indicated by each claim in the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are included. Including.
30、330 3D作像システム
40 4チャンネルカメラ
42、230、280 光源装置
60 CCD
62 スイッチ
64、66、70 フレームメモリ
68 信号処理装置
90、240、290、292 筒
92、296、298 光源
94、314 光学装置
110 センサ面
242、244、246、248、250、252、342 ミラー
340 ダイクロイックプリズム
344 カラーカメラ
346 IRカメラ
30, 330
62
Claims (8)
一連の不可視波長の光のパルスを周期的に射出する光源装置を含み、前記光のパルスは交互に第1の光度と第1の光度と異なる第2の光度とを有し、さらに
各々が不可視波長に感度があり、被写体からの光を受け各々が受けた光の強度を表す電気信号を出力する、第1の感光セルのアレイを有するフォトセンサ面を有し、それによって被写体の画像をキャプチャするカメラを含み、前記カメラは前記光源装置による光のパルスの射出に同期して動作し、さらに
被写体からの光をフォトセンサ面に向けて、前記光の各光線が予め規定された共通の点を通るように送るための撮像レンズシステムと、
前記カメラによってキャプチャされた画像を、前記光源装置による前記光のパルスの射出と同期して交互に記憶するための2個のメモリと、
前記2個のメモリに記憶された画像、予め定められた3D座標系に対する前記光源装置の位置、及び前記カメラの前記3D座標系に対する位置、を利用して、被写体の深度マップを計算するための信号処理装置と、を含む、光学作像システム。 An optical imaging system,
A light source device that periodically emits a series of invisible wavelength light pulses, the light pulses alternately having a first light intensity and a second light intensity different from the first light intensity, each of which is invisible A photosensor surface having a first array of photosensitive cells that is sensitive in wavelength and receives light from the subject and outputs an electrical signal representing the intensity of the light received by each, thereby capturing an image of the subject The camera operates in synchronization with the emission of light pulses by the light source device, and further directs light from the subject toward the photosensor surface so that each light ray of the light is defined in advance. An imaging lens system for sending through, and
Two memories for alternately storing images captured by the camera in synchronism with the emission of the light pulses by the light source device;
For calculating a depth map of a subject using the images stored in the two memories, the position of the light source device with respect to a predetermined 3D coordinate system, and the position of the camera with respect to the 3D coordinate system An optical imaging system comprising: a signal processing device;
前記不可視波長の光のパルスを射出するための光源と、
一つおきの周期で、前記光源が予め定められた第1の位置に来るように、他の周期では前記光源が予め定められた第2の位置に来るように、前記光源を移動するための機構と、
前記光源からの光を均一に広げるように別の予め定められた位置に置かれた光学装置と、を含む、請求項1に記載の光学作像システム。 The light source device is a light source for emitting a pulse of light of the invisible wavelength;
For moving the light source so that the light source comes to a predetermined first position in every other period, and so that the light source comes to a predetermined second position in other periods. Mechanism,
The optical imaging system according to claim 1, further comprising: an optical device placed at another predetermined position so as to spread light from the light source uniformly.
予め定められた場所に位置付けられた光源と、
前記光源から入来する光を均一に広げるために別の予め定められた位置に置かれた光学装置と、
前記不可視波長の光を遮断する材料からなり、前記光源と前記光学装置との間に2つの光路を規定するための手段と、を含み、前記2つの光路は異なる長さを有し、さらに
前記光源装置による光のパルスの射出と同期して前記2つの光路を切替えるための手段を含む、請求項1に記載の光学作像システム。 The light source device is
A light source positioned at a predetermined location;
An optical device placed at another predetermined position to uniformly spread light coming from the light source;
And a means for defining two light paths between the light source and the optical device, wherein the two light paths have different lengths, and The optical imaging system according to claim 1, comprising means for switching the two optical paths in synchronism with the emission of light pulses by the light source device.
前記感光セルの各々は前記3D座標系に対する既知の位置に置かれ、
前記予め定められた共通点は前記3D座標系内の既知の位置に置かれ、
前記信号処理装置は、2つの連続した周期で第1の感光セルから出力された強度、前記3D座標系に対する前記光源装置の位置、前記3D座標系に対する前記共通点の位置、及び前記3D座標系に対する前記感光セルの位置、を利用して、前記3D座標系に対する第1の感光セルの深度を計算する、請求項1に記載の光学作像システム。 The light source device emits the light pulse so that the light pulse spreads uniformly from a predetermined position of the 3D coordinate system,
Each of the photosensitive cells is placed at a known position relative to the 3D coordinate system;
The predetermined common point is placed at a known position in the 3D coordinate system;
The signal processing device includes an intensity output from the first photosensitive cell in two successive cycles, a position of the light source device with respect to the 3D coordinate system, a position of the common point with respect to the 3D coordinate system, and the 3D coordinate system. The optical imaging system according to claim 1, wherein the position of the photosensitive cell with respect to is used to calculate the depth of the first photosensitive cell with respect to the 3D coordinate system.
The optical imaging system according to claim 7, wherein the light source device and the camera are fixed to each other.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009136185A JP2010281733A (en) | 2009-06-05 | 2009-06-05 | Three-dimensional optical image-forming system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009136185A JP2010281733A (en) | 2009-06-05 | 2009-06-05 | Three-dimensional optical image-forming system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010281733A true JP2010281733A (en) | 2010-12-16 |
Family
ID=43538595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009136185A Pending JP2010281733A (en) | 2009-06-05 | 2009-06-05 | Three-dimensional optical image-forming system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010281733A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60207004A (en) * | 1984-03-31 | 1985-10-18 | Toshiba Corp | Surface-defect inspecting apparatus |
JPH06341818A (en) * | 1993-06-02 | 1994-12-13 | A T R Ningen Joho Tsushin Kenkyusho:Kk | Method for extracting information on object and light source and device using the method |
JP2000082143A (en) * | 1998-07-01 | 2000-03-21 | Sekisui Chem Co Ltd | Surface defect inspection device |
JP2004170305A (en) * | 2002-11-21 | 2004-06-17 | Nippon Telegr & Teleph Corp <Ntt> | Method and apparatus for measuring three-dimensional shape |
-
2009
- 2009-06-05 JP JP2009136185A patent/JP2010281733A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60207004A (en) * | 1984-03-31 | 1985-10-18 | Toshiba Corp | Surface-defect inspecting apparatus |
JPH06341818A (en) * | 1993-06-02 | 1994-12-13 | A T R Ningen Joho Tsushin Kenkyusho:Kk | Method for extracting information on object and light source and device using the method |
JP2000082143A (en) * | 1998-07-01 | 2000-03-21 | Sekisui Chem Co Ltd | Surface defect inspection device |
JP2004170305A (en) * | 2002-11-21 | 2004-06-17 | Nippon Telegr & Teleph Corp <Ntt> | Method and apparatus for measuring three-dimensional shape |
Non-Patent Citations (2)
Title |
---|
CSNJ200610048093; 小森一矢,松田一朗,伊東晋: '移動光源を用いた変形する物体の照度差ステレオ法' 電子情報通信学会2005年総合大会講演論文集 情報・システム2 , 20050307, p. 93, 社団法人電子情報通信学会 * |
JPN6013031788; 小森一矢,松田一朗,伊東晋: '移動光源を用いた変形する物体の照度差ステレオ法' 電子情報通信学会2005年総合大会講演論文集 情報・システム2 , 20050307, p. 93, 社団法人電子情報通信学会 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10638118B2 (en) | Time-of-flight camera system | |
US10616510B2 (en) | Methods and apparatus for superpixel modulation | |
US9123114B2 (en) | System and processor implemented method for improved image quality and enhancement based on quantum properties | |
US20140192238A1 (en) | System and Method for Imaging and Image Processing | |
US20140168424A1 (en) | Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene | |
JP2009300268A (en) | Three-dimensional information detection device | |
JP2007529960A (en) | 3D information acquisition and display system for personal electronic devices | |
US10679370B2 (en) | Energy optimized imaging system with 360 degree field-of-view | |
JP7409443B2 (en) | Imaging device | |
WO2017172030A1 (en) | Laser projector and camera | |
CN113534596A (en) | RGBD stereo camera and imaging method | |
US11601607B2 (en) | Infrared and non-infrared channel blender for depth mapping using structured light | |
JP6868167B1 (en) | Imaging device and imaging processing method | |
JP2010281733A (en) | Three-dimensional optical image-forming system | |
KR20150047604A (en) | Method for description of object points of the object space and connection for its implementation | |
Wang | High resolution 2D imaging and 3D scanning with line sensors | |
Gurbuz | Application of inverse square law for 3D sensing | |
JP6868168B1 (en) | Imaging device and imaging processing method | |
EP3993385A1 (en) | A multiperspective photography camera device | |
Zhang | Investigations into applications of photometric stereo and single-pixel imaging | |
Zorlubas et al. | Laser beam scanning-based 3D structured light scanner combining a bi-resonant MEMS mirror with low-cost imaging sensor | |
JP2021150882A (en) | Image capture device and image capture processing method | |
You et al. | MOEMS-based time-of-flight camera for 3D video capturing | |
JP2021150880A (en) | Image capture device and image capture processing method | |
Gurbuz et al. | Optical alignment technique of 3D geometric camera system for 3D imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120516 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130621 |
|
A131 | Notification of reasons for refusal |
Effective date: 20130702 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20131029 |