JP2013104784A - Optical three-dimensional camera - Google Patents

Optical three-dimensional camera Download PDF

Info

Publication number
JP2013104784A
JP2013104784A JP2011248801A JP2011248801A JP2013104784A JP 2013104784 A JP2013104784 A JP 2013104784A JP 2011248801 A JP2011248801 A JP 2011248801A JP 2011248801 A JP2011248801 A JP 2011248801A JP 2013104784 A JP2013104784 A JP 2013104784A
Authority
JP
Japan
Prior art keywords
distance
intensity
target
light
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011248801A
Other languages
Japanese (ja)
Inventor
Shunpei Kameyama
俊平 亀山
Masaharu Imaki
勝治 今城
Nobuki Kotake
論季 小竹
Hidenobu Tsuji
秀伸 辻
Hideaki Ochimizu
秀晃 落水
Mikio Takabayashi
幹夫 高林
Yoshihito Hirano
嘉仁 平野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011248801A priority Critical patent/JP2013104784A/en
Publication of JP2013104784A publication Critical patent/JP2013104784A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve high precision in distance measurement over the range from short distance to long distance.SOLUTION: An optical three-dimensional camera includes; a light source 3 for outputting transmission light to a target 20; a diffuser plate 4 for diffusing the transmission light into a predetermined irradiation intensity pattern; a photo-detector array 7 for receiving light scattered by the target 20, in response to the transmission light in the predetermined irradiation intensity pattern, using a plurality of photo-detector elements and converting the light received by each element into an electrical signal; a phase detector array 8 for detecting phase from each electrical signal; an intensity detector 101 for detecting intensity from each electrical signal; distance detector 102 for measuring the distance from each element to a corresponding point of the target 20 by triangulation method based on the detected intensity; a distance detector 103 for measuring the distance from each element to a corresponding point of the target 20 by TOF method based on the detected phase; a determination unit 104 for selecting one of the measurement results produced by the distance detectors 102, 103 for each element based on the detected intensity; and a three-dimensional image output unit 105 for measuring three-dimensional shape of the target 20 based on the selected measurement results.

Description

この発明は、自機からターゲット上の複数点までの距離を計測することで、当該ターゲットの3次元形状を計測する光3次元カメラに関するものである。   The present invention relates to an optical three-dimensional camera that measures the three-dimensional shape of a target by measuring the distance from the own device to a plurality of points on the target.

従来、自機からターゲット上の複数点までの距離を計測することで、当該ターゲットの3次元形状を計測する光3次元カメラとしては、例えば、特許文献1に開示された三角測量方式を用いたものや、特許文献2に開示されたTOF(Time Of Flight)方式を用いたものが知られている。   Conventionally, as an optical three-dimensional camera that measures the three-dimensional shape of the target by measuring the distance from the own device to a plurality of points on the target, for example, the triangulation method disclosed in Patent Document 1 is used. And those using the TOF (Time Of Flight) method disclosed in Patent Document 2.

特許文献1に開示された三角測量方式では、送信光学系からランダムパターン光をターゲットに対して照射し、このパターンを2次元アレイの受光素子で撮像する。そして、ターゲットの動きにより生じる上記パターンの変化の仕方から、三角測量の原理を用いてターゲットの3次元形状を求めている。
この三角測量方式は、一般的に、撮像距離が近距離に制限されるものの、近距離での測距精度が高いことにメリットがあると言われている。
In the triangulation method disclosed in Patent Document 1, a target is irradiated with random pattern light from a transmission optical system, and this pattern is imaged by a light receiving element of a two-dimensional array. Then, the three-dimensional shape of the target is obtained by using the principle of triangulation from the way the pattern changes due to the movement of the target.
This triangulation method is generally said to be advantageous in that the distance measurement accuracy at a short distance is high, although the imaging distance is limited to a short distance.

また、特許文献2に開示されたTOF方式では、均一パターン光をターゲットに対して照射し、ターゲット上の各点からの散乱光を2次元アレイの受光素子で受光する。そして、ターゲット上の各点に対応するアレイ内の各素子において、光信号のターゲットまでの往復時間からターゲットまでの距離を計測することで、ターゲットの3次元形状を求めている。
このTOF方式は、三角測量方式とは異なり直接的に距離を求めるので、3次元形状を求めるのに複雑な演算が不要である。一方、TOF方式で測距精度を高精度化するには高い受信SN比が必要である。しかしながら、受信SN比を保持しさえすれば、三角測量方式では困難な遠距離での高精度測距が可能である。
In the TOF method disclosed in Patent Document 2, uniform pattern light is irradiated onto a target, and scattered light from each point on the target is received by a light receiving element of a two-dimensional array. Then, at each element in the array corresponding to each point on the target, the three-dimensional shape of the target is obtained by measuring the distance from the round trip time to the target of the optical signal to the target.
Unlike the triangulation method, the TOF method directly determines the distance, so that a complicated calculation is not required for obtaining the three-dimensional shape. On the other hand, a high reception signal-to-noise ratio is required to increase the accuracy of distance measurement using the TOF method. However, as long as the reception signal-to-noise ratio is maintained, high-precision distance measurement at a long distance, which is difficult with the triangulation method, is possible.

特表2009−511897号公報JP-T 2009-511897 特表2003−510561号公報Japanese translation of PCT publication No. 2003-510561

上述したように、特許文献1,2に開示された従来の光3次元カメラでは、三角測量方式、TOF方式の各々において、メリットを有しているものの、デメリットも有している。すなわち、三角測量方式では遠距離測距が困難であり、TOF方式では所要の受信SN比が高くなる。そして、これらのデメリットを克服できるものはなく、近距離・遠距離の両方において高精度に3次元計測することはできないという課題があった。   As described above, the conventional optical three-dimensional cameras disclosed in Patent Documents 1 and 2 have merits but also disadvantages in each of the triangulation method and the TOF method. That is, it is difficult to measure a long distance with the triangulation method, and a required reception SN ratio becomes high with the TOF method. There is nothing that can overcome these disadvantages, and there is a problem that three-dimensional measurement cannot be performed with high accuracy both at a short distance and a long distance.

この発明は、上記のような課題を解決するためになされたもので、近距離から遠距離まで高い測距精度を確保することが可能な光3次元カメラを提供することを目的としている。   The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an optical three-dimensional camera that can ensure high ranging accuracy from a short distance to a long distance.

この発明に係る光3次元カメラは、ターゲットへの送信光を出力する光源と、光源により出力された送信光を所定の照射強度パターンとするパターン生成部と、パターン生成部により所定の照射強度パターンとされた送信光に対するターゲットからの散乱光を複数の素子で受光し、電気信号に変換する受光素子アレイと、受光素子アレイの各素子により変換された電気信号から、当該素子ごとに位相を検波する位相検波器アレイと、受光素子アレイの各素子により変換された電気信号から、当該素子ごとに強度を検出する強度検出部と、強度検出部により検出された強度に基づいて、三角測量方式により、素子ごとにターゲットの対応する点までの距離を計測する第1距離検出部と、位相検波器アレイにより検波された位相に基づいて、TOF方式により、素子ごとにターゲットの対応する点までの距離を計測する第2距離検出部と、強度検出部により検出された強度に基づいて、素子ごとに、第1,2距離検出部による計測結果のいずれか一方を選択する判定部と、判定部により素子ごとに選択された計測結果に基づいて、ターゲットの3次元形状を計測する3次元形状計測部とを備えたものである。   An optical three-dimensional camera according to the present invention includes a light source that outputs transmission light to a target, a pattern generation unit that uses the transmission light output from the light source as a predetermined irradiation intensity pattern, and a predetermined irradiation intensity pattern that is generated by the pattern generation unit. The received light scattered from the target for the transmitted light is received by a plurality of elements, and the phase is detected for each element from the light receiving element array that converts the light into an electric signal and the electric signal converted by each element of the light receiving element array. A phase detector array, an intensity detector for detecting the intensity of each element from the electric signal converted by each element of the light receiving element array, and a triangulation method based on the intensity detected by the intensity detector , Based on the first distance detector for measuring the distance to the corresponding point of the target for each element and the phase detected by the phase detector array, Based on the second distance detector that measures the distance to the corresponding point of the target for each element and the intensity detected by the intensity detector, the measurement result by the first and second distance detectors for each element And a three-dimensional shape measurement unit that measures the three-dimensional shape of the target based on the measurement result selected for each element by the determination unit.

この発明によれば、上記のように構成したので、近距離から遠距離に至るまで、高い測距精度を実現できる。   According to this invention, since it comprised as mentioned above, high ranging accuracy can be implement | achieved from a short distance to a long distance.

この発明の実施の形態1に係る光3次元カメラの構成を示す模式図である。It is a schematic diagram which shows the structure of the optical three-dimensional camera which concerns on Embodiment 1 of this invention. この発明の実施の形態1における信号処理部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the signal processing part in Embodiment 1 of this invention. この発明の実施の形態1に係る光3次元カメラの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the optical three-dimensional camera which concerns on Embodiment 1 of this invention.

以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1はこの発明の実施の形態1に係る光3次元カメラの構成を示す模式図である。
光3次元カメラは、図1に示すように、発振器1、分配器2、光源3、拡散板(パターン生成部)4、送信光学系5、受信光学系6、受光素子アレイ7、位相検波器アレイ8、マルチプレクサ9および信号処理部10から構成されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a schematic diagram showing a configuration of an optical three-dimensional camera according to Embodiment 1 of the present invention.
As shown in FIG. 1, the optical three-dimensional camera includes an oscillator 1, a distributor 2, a light source 3, a diffusion plate (pattern generation unit) 4, a transmission optical system 5, a reception optical system 6, a light receiving element array 7, and a phase detector. An array 8, a multiplexer 9, and a signal processing unit 10 are included.

発振器1は、所定の正弦波信号(変調信号)を発振するものである。この発振器1により発振された正弦波信号は分配器2に出力される。   The oscillator 1 oscillates a predetermined sine wave signal (modulation signal). The sine wave signal oscillated by the oscillator 1 is output to the distributor 2.

分配器2は、発振器1からの正弦波信号を2つに分配するものである。この分配器2により分配された一方の正弦波信号は光源3に出力され、他方の正弦波信号は位相検波器アレイ8に出力される。   The distributor 2 distributes the sine wave signal from the oscillator 1 into two. One sine wave signal distributed by the distributor 2 is output to the light source 3, and the other sine wave signal is output to the phase detector array 8.

光源3は、ターゲット(図1の例では人物)20への送信光(光信号)を出力するものである。またこの際、光源3は、分配器2からの正弦波信号により、当該光信号の強度に正弦波の変調をかける。
拡散板4は、光源3により出力された光信号を所定の照射強度パターン(例えばランダム化)とするように拡散するものである。
The light source 3 outputs transmission light (optical signal) to the target (person in the example of FIG. 1) 20. At this time, the light source 3 applies a sine wave modulation to the intensity of the optical signal by the sine wave signal from the distributor 2.
The diffusion plate 4 diffuses the optical signal output from the light source 3 so as to have a predetermined irradiation intensity pattern (for example, randomization).

送信光学系5は、拡散板4により拡散された光信号を所定のビーム拡がり角とし、ターゲット20に向けて照射するものである。なおこの際、送信光学系5は、光信号の照射領域を受光素子アレイ7全体の瞬時視野に概略合わせておく。
受信光学系6は、送信光学系5により照射された送信光に対するターゲット20上の各点からの散乱光を収束するものである。
The transmission optical system 5 irradiates the optical signal diffused by the diffusion plate 4 toward the target 20 with a predetermined beam divergence angle. At this time, the transmission optical system 5 roughly matches the irradiation area of the optical signal with the instantaneous visual field of the entire light receiving element array 7.
The reception optical system 6 converges scattered light from each point on the target 20 with respect to the transmission light irradiated by the transmission optical system 5.

受光素子アレイ7は、複数の素子を有する2次元アレイであり、受信光学系6により収束された散乱光を各素子でそれぞれ受光し、電気信号からなる受信信号に変換するものである。この受光素子アレイ7の各素子により受光・変換された受信信号は位相検波器アレイ8に出力される。   The light receiving element array 7 is a two-dimensional array having a plurality of elements, and receives the scattered light converged by the receiving optical system 6 by each element and converts it into a received signal composed of an electrical signal. Received signals received and converted by each element of the light receiving element array 7 are output to the phase detector array 8.

位相検波器アレイ8は、複数の素子を有する2次元アレイであり、受光素子アレイ7の各素子からの受信信号を対応する各素子で受信し、分配器2からの正弦波信号をローカル信号とした位相検波を行うものである。この位相検波器アレイ8の各素子により受信・位相検波された結果であるIQ信号(複素振幅信号)はマルチプレクサ9に出力される。   The phase detector array 8 is a two-dimensional array having a plurality of elements, receives reception signals from the respective elements of the light receiving element array 7 by the corresponding elements, and uses the sine wave signal from the distributor 2 as a local signal. Phase detection is performed. An IQ signal (complex amplitude signal) obtained as a result of reception and phase detection by each element of the phase detector array 8 is output to the multiplexer 9.

マルチプレクサ9は、位相検波器アレイ8の各素子からのIQ信号をシリーズに配列して1出力にまとめるものである。このマルチプレクサ9により1出力にまとめられた各IQ信号は信号処理部10に出力される。   The multiplexer 9 arranges IQ signals from the respective elements of the phase detector array 8 in series and collects them into one output. The IQ signals collected as one output by the multiplexer 9 are output to the signal processing unit 10.

信号処理部10は、マルチプレクサ9により1出力にまとめられシリーズに出力された各IQ信号を処理し、ターゲット20の3次元形状を計測するものである。この信号処理部10は、図2に示すように、強度検出部101、三角測量方式での距離検出部(第1距離検出部)102、TOF方式での距離検出部(第2距離検出部)103、判定部104および3次元画像出力部(3次元形状計測部)105から構成されている。   The signal processing unit 10 processes the IQ signals that are combined into one output by the multiplexer 9 and output in series, and measures the three-dimensional shape of the target 20. As shown in FIG. 2, the signal processing unit 10 includes an intensity detection unit 101, a triangulation method distance detection unit (first distance detection unit) 102, and a TOF method distance detection unit (second distance detection unit). 103, a determination unit 104, and a three-dimensional image output unit (three-dimensional shape measurement unit) 105.

強度検出部101は、マルチプレクサ9からの1出力にまとめられた各IQ信号(アレイ7,8の各素子からのIQ信号)の強度を検出するものである。この強度検出部101により検出された各IQ信号の強度を示す情報(受信強度情報)は距離検出部102および判定部104に出力される。   The intensity detection unit 101 detects the intensity of each IQ signal (IQ signals from each element of the arrays 7 and 8) collected as one output from the multiplexer 9. Information (reception intensity information) indicating the intensity of each IQ signal detected by the intensity detection unit 101 is output to the distance detection unit 102 and the determination unit 104.

距離検出部102は、強度検出部101により検出された各IQ信号の強度に基づいて、三角測量方式を用いて、アレイ7,8の素子ごとに、その受信強度パターンの変化を計測することで、ターゲット20の対応する点までの距離を計測するものである。そして、この距離情報から3次元形状情報を得ることができる。この距離検出部102により計測されたターゲット20の3次元形状を示す情報(3次元形状情報)は判定部104に送られる。   The distance detection unit 102 measures the change in the received intensity pattern for each element of the arrays 7 and 8 using the triangulation method based on the intensity of each IQ signal detected by the intensity detection unit 101. The distance to the corresponding point of the target 20 is measured. Then, three-dimensional shape information can be obtained from this distance information. Information indicating the three-dimensional shape of the target 20 measured by the distance detection unit 102 (three-dimensional shape information) is sent to the determination unit 104.

距離検出部103は、マルチプレクサ9からの1出力にまとめられた各IQ信号に基づいて、TOF方式を用いて、アレイ7,8の素子ごとに、ターゲット20の対応する点までの距離を計測するものである。そして、この距離情報から3次元形状情報を得ることができる。この距離検出部103により計測されたターゲット20の3次元形状を示す情報(3次元形状情報)は判定部104に送られる。   The distance detecting unit 103 measures the distance to the corresponding point of the target 20 for each element of the arrays 7 and 8 using the TOF method based on each IQ signal collected as one output from the multiplexer 9. Is. Then, three-dimensional shape information can be obtained from this distance information. Information (three-dimensional shape information) indicating the three-dimensional shape of the target 20 measured by the distance detection unit 103 is sent to the determination unit 104.

判定部104は、強度検出部101により検出された各IQ信号の強度に基づいて、アレイ7,8の素子ごとに、距離検出部102の三角測量方式による計測結果または距離検出部103のTOF方式による計測結果のいずれか一方を選択するものである。この判定部104による選択結果を示す情報は3次元画像出力部105に出力される。   Based on the intensity of each IQ signal detected by the intensity detection unit 101, the determination unit 104 determines the measurement result by the triangulation method of the distance detection unit 102 or the TOF method of the distance detection unit 103 for each element of the arrays 7 and 8. One of the measurement results by is selected. Information indicating the selection result by the determination unit 104 is output to the three-dimensional image output unit 105.

3次元画像出力部105は、判定部104によりアレイ7,8の素子ごとに選択された方式による計測結果(3次元形状情報)に基づいて、ターゲット20の最終的な3次元形状を算出し、その結果を出力するものである。   The three-dimensional image output unit 105 calculates the final three-dimensional shape of the target 20 based on the measurement result (three-dimensional shape information) by the method selected by the determination unit 104 for each element of the arrays 7 and 8. The result is output.

次に、上記のように構成された光3次元カメラの動作について説明する。図3はこの発明の実施の形態1に係る光3次元カメラの動作を示すフローチャートである。
光3次元カメラの動作では、図3に示すように、まず、発振器1は、所定の正弦波信号(変調信号)を発振する(ステップST1)。この発振器1により発振された正弦波信号は分配器2に出力される。
Next, the operation of the optical three-dimensional camera configured as described above will be described. FIG. 3 is a flowchart showing the operation of the optical three-dimensional camera according to Embodiment 1 of the present invention.
In the operation of the optical three-dimensional camera, as shown in FIG. 3, first, the oscillator 1 oscillates a predetermined sine wave signal (modulation signal) (step ST1). The sine wave signal oscillated by the oscillator 1 is output to the distributor 2.

次いで、分配器2は、発振器1からの正弦波信号を2つに分配する(ステップST2)。この分配器2により分配された一方の正弦波信号は光源3に出力され、他方の正弦波信号は位相検波器アレイ8に出力される。   Next, the distributor 2 distributes the sine wave signal from the oscillator 1 into two (step ST2). One sine wave signal distributed by the distributor 2 is output to the light source 3, and the other sine wave signal is output to the phase detector array 8.

次いで、光源3は、ターゲット20への送信光(光信号)を出力する。またこの際、光源3は、分配器2からの正弦波信号により、当該光信号の強度に正弦波の変調をかける(ステップST3)。   Next, the light source 3 outputs transmission light (optical signal) to the target 20. At this time, the light source 3 modulates the intensity of the optical signal with the sine wave signal from the distributor 2 (step ST3).

次いで、上記変調を受けた光信号を拡散板4に通した後、送信光学系5により所定のビーム拡がり角に調整してターゲット20に向け照射する(ステップST4)。なおこの際、照射領域を受光素子アレイ7全体の瞬時視野に概略合わせておく。また、上記拡散板4を通すことで、送信光の照射強度のパターンを例えば特許文献1に記載されているようにランダム化する。   Next, after passing the modulated optical signal through the diffusion plate 4, the transmission optical system 5 adjusts to a predetermined beam divergence angle and irradiates the target 20 (step ST4). At this time, the irradiation area is roughly matched to the instantaneous visual field of the entire light receiving element array 7. Further, by passing the diffuser plate 4, the pattern of the irradiation intensity of the transmission light is randomized as described in Patent Document 1, for example.

次いで、受光素子アレイ7の各素子は、送信光学系5により照射された送信光に対するターゲット20上の各点からの散乱光を、受信光学系6を介して受光し、電気信号からなる受信信号に変換する(ステップST5)。この受光素子アレイ7の各素子により受光・変換された受信信号は位相検波器アレイ8に出力される。
ここで、送信光には正弦波状の強度変調をかけているため、受信光の強度にも同様の変調がかかっている。また、受信時における変調の位相は、送信時における変調の位相に対して、光3次元カメラからターゲット20までの光信号の往復時間分だけ遅れた状態となる。
Next, each element of the light receiving element array 7 receives the scattered light from each point on the target 20 with respect to the transmission light irradiated by the transmission optical system 5 via the reception optical system 6, and receives a reception signal composed of an electrical signal. (Step ST5). Received signals received and converted by each element of the light receiving element array 7 are output to the phase detector array 8.
Here, since the transmission light is subjected to sinusoidal intensity modulation, the same intensity is applied to the intensity of the reception light. Further, the phase of modulation at the time of reception is delayed by the round trip time of the optical signal from the optical three-dimensional camera to the target 20 with respect to the phase of modulation at the time of transmission.

次いで、位相検波器アレイ8の各素子は、受光素子アレイ7の各素子からの受信信号に対して、分配器2からの正弦波信号をローカル信号とした位相検波を行う(ステップST6)。この位相検波器アレイ8の各素子により受信・位相検波された結果であるIQ信号(複素振幅信号)はマルチプレクサ9を介して信号処理部10に出力される。   Next, each element of the phase detector array 8 performs phase detection on the received signal from each element of the light receiving element array 7 using the sine wave signal from the distributor 2 as a local signal (step ST6). An IQ signal (complex amplitude signal) obtained as a result of reception and phase detection by each element of the phase detector array 8 is output to the signal processing unit 10 via the multiplexer 9.

次いで、信号処理部10の強度検出部101は、アレイ8の各素子からのIQ信号の強度を検出する(ステップST7)。具体的にはI信号の振幅とQ信号の振幅の自乗和を計算することで強度を検出する。この強度検出部101により検出された各IQ信号の強度を示す情報(受信強度情報)は距離検出部102および判定部104に出力される。   Next, the intensity detecting unit 101 of the signal processing unit 10 detects the intensity of the IQ signal from each element of the array 8 (step ST7). Specifically, the intensity is detected by calculating the square sum of the amplitude of the I signal and the amplitude of the Q signal. Information (reception intensity information) indicating the intensity of each IQ signal detected by the intensity detection unit 101 is output to the distance detection unit 102 and the determination unit 104.

次いで、距離検出部102は、強度検出部101により検出された各IQ信号の強度に基づいて、三角測量方式を用いて、ターゲット20の3次元形状を計測する(ステップST8)。すなわち、三角測量方式では、具体的には特許文献1に記載された方法により、アレイ7,8の各素子ごとに、IQ信号の受信強度パターンの変化に基づいてターゲット20の対応する点までの距離を計測することで、ターゲット20の3次元形状を計測することができる。この距離検出部102によるターゲット20の3次元形状情報は判定部104に送られる。   Next, the distance detection unit 102 measures the three-dimensional shape of the target 20 using the triangulation method based on the intensity of each IQ signal detected by the intensity detection unit 101 (step ST8). That is, in the triangulation method, specifically, by the method described in Patent Document 1, for each element of the arrays 7 and 8, up to the corresponding point of the target 20 based on the change in the received intensity pattern of the IQ signal. By measuring the distance, the three-dimensional shape of the target 20 can be measured. The three-dimensional shape information of the target 20 by the distance detection unit 102 is sent to the determination unit 104.

次いで、距離検出部103は、アレイ7,8の各素子からのIQ信号に基づいて、TOF方式を用いて、ターゲット20の3次元形状を計測する(ステップST9)。具体的には、IQ信号の位相が送受信間の正弦波信号の位相差であることを利用し、この位相と変調周波数と光速とから、ターゲット20までの距離を素子ごとにTOF方式で計測する。そして、求めた距離値と、各素子に対応する視野方向の情報とから、ターゲット20の3次元形状を計測することができる。この距離検出部103によるターゲット20の3次元形状情報は判定部104に送られる。   Next, the distance detection unit 103 measures the three-dimensional shape of the target 20 using the TOF method based on the IQ signals from the elements of the arrays 7 and 8 (step ST9). Specifically, using the fact that the phase of the IQ signal is the phase difference of the sine wave signal between transmission and reception, the distance to the target 20 is measured for each element by the TOF method from this phase, the modulation frequency, and the speed of light. . Then, the three-dimensional shape of the target 20 can be measured from the obtained distance value and information on the viewing direction corresponding to each element. The three-dimensional shape information of the target 20 by the distance detection unit 103 is sent to the determination unit 104.

次いで、判定部104は、強度検出部101により検出された各IQ信号の強度に基づいて、素子ごとに、距離検出部102の三角測量方式による3次元形状情報または距離検出部103のTOF方式による3次元形状情報のいずれか一方を選択する(ステップST10)。すなわち、判定部104では、まず、各素子からのIQ信号の受信強度情報と、予め既知である受信ノイズレベルとから、素子ごとに受信SN比を算出する。そして、この受信SN比から、各素子に対応する測距値のうち、三角測量方式とTOF方式のいずれの方式で求めた値を選択するかを判定する。定性的には、あるターゲット距離の条件において、受信SN比がある閾値以下であれば三角測量方式での測距精度が優位となる。具体的には、次式(1)の条件において、三角測量方式での測距精度が優位となる。

Figure 2013104784

ここで、wは受光素子アレイ7中心と光源3の間隔(m)であり、Lは距離(m)であり、SNRはTOF方式での受信SN比であり、cは光速(m/s)であり、fmは変調周波数(Hz)である。 Next, based on the intensity of each IQ signal detected by the intensity detection unit 101, the determination unit 104 uses the three-dimensional shape information by the triangulation method of the distance detection unit 102 or the TOF method of the distance detection unit 103 for each element. One of the three-dimensional shape information is selected (step ST10). That is, the determination unit 104 first calculates a reception SN ratio for each element from the reception intensity information of the IQ signal from each element and the reception noise level that is known in advance. Then, it is determined from this received S / N ratio whether the value obtained by the triangulation method or the TOF method is selected from the distance measurement values corresponding to each element. Qualitatively, if the received signal-to-noise ratio is less than a certain threshold under a certain target distance condition, the distance measurement accuracy by the triangulation method is superior. Specifically, the distance measurement accuracy by the triangulation method is superior under the condition of the following expression (1).

Figure 2013104784

Here, w is the distance (m) between the center of the light receiving element array 7 and the light source 3, L is the distance (m), SNR is the reception SN ratio in the TOF system, and c is the speed of light (m / s). F m is the modulation frequency (Hz).

なお、式(1)を用いて判定を行う場合、いずれの方式を選定するかの判定において、測距値(式(1)中記号L)が必要であるが、これにはTOF方式の測距結果を仮の真値として用いる。このTOF方式の値自体には誤差が乗っているが、受信SN比が十分高い状態であれば、上記判定式は近似的に適用可能である。   When the determination is made using equation (1), a distance measurement value (symbol L in equation (1)) is required in determining which method to select. The distance result is used as a temporary true value. Although the value of the TOF method itself has an error, the determination formula can be applied approximately if the reception SN ratio is sufficiently high.

以上のように、判定部104では、素子ごとの受信強度から受信SN比を求め、式(1)を満足するかを確認することで、2つの測距方式のいずれを選択するかの判定を素子ごとに行う。この判定部104による選択結果を示す情報は3次元画像出力部105に出力される。   As described above, the determination unit 104 determines which of the two ranging methods is to be selected by obtaining the reception S / N ratio from the reception intensity of each element and confirming whether the expression (1) is satisfied. This is done for each element. Information indicating the selection result by the determination unit 104 is output to the three-dimensional image output unit 105.

次いで、3次元画像出力部105は、判定部104によりアレイ8の素子ごとに選択された方式による3次元形状情報に基づいて、ターゲット20の最終的な3次元形状を算出し、その結果を出力する(ステップST11)。   Next, the three-dimensional image output unit 105 calculates the final three-dimensional shape of the target 20 based on the three-dimensional shape information according to the method selected by the determination unit 104 for each element of the array 8 and outputs the result. (Step ST11).

以上のように、この実施の形態1によれば、三角測量方式とTOF方式の2方式によりターゲット20に対する3次元測距を行うように構成したので、三角測量方式とTOF方式の互いのデメリットを補完することができ、近距離から遠距離に至るまで、高精度な測距が可能である。その結果として高精度な3次元形状の取得が可能となる。   As described above, according to the first embodiment, since the three-dimensional distance measurement for the target 20 is performed by the two methods of the triangulation method and the TOF method, the demerits of the triangulation method and the TOF method can be obtained. It can be supplemented, and high-precision ranging is possible from a short distance to a long distance. As a result, a highly accurate three-dimensional shape can be acquired.

また、実施の形態1に係る光3次元カメラでは、2方式を組み合わせた上で、さらに、素子ごとの受信SN比に基づいて2つの測距値のうち精度が高い一方を、受信SN比の状況に応じて自動選定するように構成したので、最適な2方式の組み合わせが実現でき、より高精度な3次元形状の計測が可能となる。   In addition, in the optical three-dimensional camera according to Embodiment 1, after combining the two methods, one of the two ranging values having high accuracy is further calculated based on the reception SN ratio for each element. Since it is configured to automatically select according to the situation, it is possible to realize an optimal combination of the two methods, and to measure a three-dimensional shape with higher accuracy.

なお、実施の形態1に係る光3次元カメラでは、TOF方式で必要な光の変調に関し、正弦波信号で変調する方式を示した。しかしながら、これに限るものではなく、例えば、変調方式をパルス方式として、この方式での測距および受信強度検出を行う形としてもよい。   In the optical three-dimensional camera according to the first embodiment, a method of modulating with a sine wave signal is shown with respect to the modulation of light necessary for the TOF method. However, the present invention is not limited to this. For example, the modulation method may be a pulse method, and distance measurement and reception intensity detection may be performed using this method.

また、実施の形態1に係る光3次元カメラでは、拡散板4により照射パターンをランダム化していた。しかしながら、これに限るものではなく、この拡散板4を液晶タイプにし、ランダム化のON/OFFを制御できるようにしてもよい。
ここで、パターンのランダム化を行うと必ず暗い画素、つまり受信SN比の悪い画素が生じる。そこで、最初の撮像でTOF方式を選択した場合には、パターンのランダム化をOFFにすることで、上記受信SN比の悪い画素が発生することを回避し、TOFでの撮像性能をさらに改善できる。
In the optical three-dimensional camera according to Embodiment 1, the irradiation pattern is randomized by the diffusion plate 4. However, the present invention is not limited to this, and the diffuser plate 4 may be a liquid crystal type so that randomization ON / OFF can be controlled.
Here, when the pattern is randomized, a dark pixel, that is, a pixel with a poor reception S / N ratio is always generated. Therefore, when the TOF method is selected for the first imaging, turning off the pattern randomization can avoid the occurrence of pixels with a poor reception S / N ratio and further improve the imaging performance in the TOF. .

なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。   In the present invention, any constituent element of the embodiment can be modified or any constituent element of the embodiment can be omitted within the scope of the invention.

1 発振器、2 分配器、3 光源、4 拡散板(パターン生成部)、5 送信光学系、6 受信光学系、7 受光素子アレイ、8 位相検波器アレイ、9 マルチプレクサ、10 信号処理部、20 ターゲット、101 強度検出部、102 距離検出部、103 距離検出部、104 判定部、105 3次元画像出力部(3次元形状計測部)。   DESCRIPTION OF SYMBOLS 1 Oscillator, 2 Distributor, 3 Light source, 4 Diffusing plate (pattern production | generation part), 5 Transmission optical system, 6 Reception optical system, 7 Light receiving element array, 8 Phase detector array, 9 Multiplexer, 10 Signal processing part, 20 Target , 101 intensity detection unit, 102 distance detection unit, 103 distance detection unit, 104 determination unit, 105 three-dimensional image output unit (three-dimensional shape measurement unit).

Claims (3)

ターゲットへの送信光を出力する光源と、
前記光源により出力された送信光を所定の照射強度パターンとするパターン生成部と、
前記パターン生成部により所定の照射強度パターンとされた送信光に対する前記ターゲットからの散乱光を複数の素子で受光し、電気信号に変換する受光素子アレイと、
前記受光素子アレイの各素子により変換された電気信号から、当該素子ごとに位相を検波する位相検波器アレイと、
前記受光素子アレイの各素子により変換された電気信号から、当該素子ごとに強度を検出する強度検出部と、
前記強度検出部により検出された強度に基づいて、三角測量方式により、前記素子ごとに前記ターゲットの対応する点までの距離を計測する第1距離検出部と、
前記位相検波器アレイにより検波された位相に基づいて、TOF方式により、前記素子ごとに前記ターゲットの対応する点までの距離を計測する第2距離検出部と、
前記強度検出部により検出された強度に基づいて、前記素子ごとに、前記第1,2距離検出部による計測結果のいずれか一方を選択する判定部と、
前記判定部により前記素子ごとに選択された計測結果に基づいて、前記ターゲットの3次元形状を計測する3次元形状計測部と
を備えた光3次元カメラ。
A light source that outputs transmission light to the target;
A pattern generator that uses the transmission light output by the light source as a predetermined irradiation intensity pattern;
A light receiving element array that receives scattered light from the target with respect to transmission light that has been set to a predetermined irradiation intensity pattern by the pattern generation unit, and converts the light into an electrical signal;
A phase detector array for detecting a phase for each of the elements from an electrical signal converted by each element of the light receiving element array;
An intensity detector that detects the intensity of each element from the electrical signal converted by each element of the light receiving element array;
A first distance detection unit that measures a distance to a corresponding point of the target for each element by a triangulation method based on the intensity detected by the intensity detection unit;
A second distance detector for measuring a distance to a corresponding point of the target for each element by the TOF method based on the phase detected by the phase detector array;
Based on the intensity detected by the intensity detection unit, for each element, a determination unit that selects one of the measurement results by the first and second distance detection units;
An optical three-dimensional camera comprising: a three-dimensional shape measurement unit that measures a three-dimensional shape of the target based on a measurement result selected for each of the elements by the determination unit.
前記判定部は、前記強度から前記素子ごとに受信SN比を算出し、当該受信SN比が所定の閾値以下である場合には、前記第1距離検出部による計測結果を選択し、当該受信SN比が当該閾値より大きい場合には、前記第2距離検出部による計測結果を選択する
ことを特徴とする請求項1記載の光3次元カメラ。
The determination unit calculates a reception S / N ratio for each element from the intensity, and when the reception S / N ratio is equal to or less than a predetermined threshold, selects a measurement result by the first distance detection unit, and The optical three-dimensional camera according to claim 1, wherein when the ratio is larger than the threshold value, a measurement result by the second distance detection unit is selected.
前記パターン生成部は、前記送信光をランダム化するものであり、当該ランダム化のON/OFFが切替可能である
ことを特徴とする請求項1または請求項2記載の光3次元カメラ。
3. The optical three-dimensional camera according to claim 1, wherein the pattern generation unit randomizes the transmission light, and can switch ON / OFF of the randomization.
JP2011248801A 2011-11-14 2011-11-14 Optical three-dimensional camera Pending JP2013104784A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011248801A JP2013104784A (en) 2011-11-14 2011-11-14 Optical three-dimensional camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011248801A JP2013104784A (en) 2011-11-14 2011-11-14 Optical three-dimensional camera

Publications (1)

Publication Number Publication Date
JP2013104784A true JP2013104784A (en) 2013-05-30

Family

ID=48624422

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011248801A Pending JP2013104784A (en) 2011-11-14 2011-11-14 Optical three-dimensional camera

Country Status (1)

Country Link
JP (1) JP2013104784A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015075926A1 (en) * 2013-11-20 2015-05-28 パナソニックIpマネジメント株式会社 Distance measurement and imaging system
KR20150080690A (en) * 2014-01-02 2015-07-10 엘지전자 주식회사 Distance measuring device and method thereof
KR20160054156A (en) * 2014-11-05 2016-05-16 주식회사 히타치엘지 데이터 스토리지 코리아 Apparatus for measuring distance
JPWO2016159032A1 (en) * 2015-03-30 2017-11-24 株式会社ニコン Imaging device and imaging apparatus
WO2018042801A1 (en) * 2016-09-01 2018-03-08 ソニーセミコンダクタソリューションズ株式会社 Imaging device
JP2018146521A (en) * 2017-03-08 2018-09-20 株式会社リコー Measurement device, measurement method, and robot
JP2019504522A (en) * 2015-11-06 2019-02-14 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc Depth mapping with head mounted display using stereo camera and structured light
WO2019041116A1 (en) * 2017-08-29 2019-03-07 深圳市汇顶科技股份有限公司 Optical ranging method and optical ranging apparatus
CN109814128A (en) * 2019-01-23 2019-05-28 北京理工大学 The high-resolution fast imaging system and method that time flight is combined with relevance imaging
JP2019219399A (en) * 2016-01-15 2019-12-26 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc Depth mapping using structured light and time of flight
US10527728B2 (en) 2017-01-27 2020-01-07 Samsung Electronics Co., Ltd Apparatus and method for range measurement
CN110687545A (en) * 2019-09-27 2020-01-14 电子科技大学中山学院 High-precision laser radar system
US10942261B2 (en) 2015-10-21 2021-03-09 Samsung Electronics Co., Ltd Apparatus for and method of range sensor based on direct time-of-flight and triangulation
US11025890B2 (en) 2018-12-03 2021-06-01 Samsung Electronics Co., Ltd. Electronic device and method for acquiring depth information by using at least one of cameras or depth sensor
WO2021176873A1 (en) * 2020-03-03 2021-09-10 ソニーグループ株式会社 Information processing device, information processing method, and program
JP2021148587A (en) * 2020-03-18 2021-09-27 株式会社リコー Object detector and mobile body
WO2021253321A1 (en) * 2020-06-18 2021-12-23 深圳市汇顶科技股份有限公司 Time-of-flight ranging method and related system
JP2022525894A (en) * 2019-03-22 2022-05-20 ヴァイアヴィ・ソリューションズ・インコーポレイテッド Time-of-flight 3D sensing system
US11443447B2 (en) 2020-04-17 2022-09-13 Samsung Electronics Co., Ltd. Three-dimensional camera system
WO2023053238A1 (en) * 2021-09-29 2023-04-06 日本電気株式会社 Shape detecting device, shape detecting system, and shape detecting method
WO2023188184A1 (en) * 2022-03-30 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント Information processing device, system, information processing method, information processing program, and computer system
WO2023188183A1 (en) * 2022-03-30 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント Information processing device, system, information processing method, information processing program, and computer system
JP7569376B2 (en) 2019-12-01 2024-10-17 マジック アイ インコーポレイテッド Enhancing triangulation-based 3D distance measurements using time-of-flight information

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH095050A (en) * 1995-06-20 1997-01-10 Olympus Optical Co Ltd Three-dimensional image measuring apparatus
JP2002022425A (en) * 2000-07-12 2002-01-23 Asahi Optical Co Ltd Three-dimensional image input device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH095050A (en) * 1995-06-20 1997-01-10 Olympus Optical Co Ltd Three-dimensional image measuring apparatus
JP2002022425A (en) * 2000-07-12 2002-01-23 Asahi Optical Co Ltd Three-dimensional image input device

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015075926A1 (en) * 2013-11-20 2017-03-16 パナソニックIpマネジメント株式会社 Ranging imaging system
US11175406B2 (en) 2013-11-20 2021-11-16 Nuvoton Technology Corporation Japan Range imaging system and solid-state imaging device
US10302766B2 (en) 2013-11-20 2019-05-28 Panasonic Intellectual Property Management Co., Ltd. Range imaging system and solid-state imaging device
WO2015075926A1 (en) * 2013-11-20 2015-05-28 パナソニックIpマネジメント株式会社 Distance measurement and imaging system
KR20150080690A (en) * 2014-01-02 2015-07-10 엘지전자 주식회사 Distance measuring device and method thereof
KR102090502B1 (en) * 2014-01-02 2020-03-18 엘지전자 주식회사 Distance measuring device and method thereof
KR20160054156A (en) * 2014-11-05 2016-05-16 주식회사 히타치엘지 데이터 스토리지 코리아 Apparatus for measuring distance
KR102144539B1 (en) 2014-11-05 2020-08-18 주식회사 히타치엘지 데이터 스토리지 코리아 Apparatus for measuring distance
US10298836B2 (en) 2015-03-30 2019-05-21 Nikon Corporation Image sensor and image-capturing apparatus
JPWO2016159032A1 (en) * 2015-03-30 2017-11-24 株式会社ニコン Imaging device and imaging apparatus
US11543496B2 (en) 2015-10-21 2023-01-03 Samsung Electronics Co., Ltd. Apparatus for and method of range sensor based on direct time-of-flight and triangulation
US10942261B2 (en) 2015-10-21 2021-03-09 Samsung Electronics Co., Ltd Apparatus for and method of range sensor based on direct time-of-flight and triangulation
US12013494B2 (en) 2015-10-21 2024-06-18 Samsung Electronics Co., Ltd Apparatus for and method of range sensor based on direct time-of-flight and triangulation
JP2019504522A (en) * 2015-11-06 2019-02-14 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc Depth mapping with head mounted display using stereo camera and structured light
JP2019219399A (en) * 2016-01-15 2019-12-26 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc Depth mapping using structured light and time of flight
US10866321B2 (en) 2016-09-01 2020-12-15 Sony Semiconductor Solutions Corporation Imaging device
WO2018042801A1 (en) * 2016-09-01 2018-03-08 ソニーセミコンダクタソリューションズ株式会社 Imaging device
JPWO2018042801A1 (en) * 2016-09-01 2019-06-24 ソニーセミコンダクタソリューションズ株式会社 Imaging device
CN108027238A (en) * 2016-09-01 2018-05-11 索尼半导体解决方案公司 Imaging device
CN108027238B (en) * 2016-09-01 2022-06-14 索尼半导体解决方案公司 Image forming apparatus with a plurality of image forming units
JP7022057B2 (en) 2016-09-01 2022-02-17 ソニーセミコンダクタソリューションズ株式会社 Imaging device
US10527728B2 (en) 2017-01-27 2020-01-07 Samsung Electronics Co., Ltd Apparatus and method for range measurement
JP2018146521A (en) * 2017-03-08 2018-09-20 株式会社リコー Measurement device, measurement method, and robot
WO2019041116A1 (en) * 2017-08-29 2019-03-07 深圳市汇顶科技股份有限公司 Optical ranging method and optical ranging apparatus
US10908290B2 (en) 2017-08-29 2021-02-02 Shenzhen GOODIX Technology Co., Ltd. Optical distance measuring method and optical distance measuring device
US11025890B2 (en) 2018-12-03 2021-06-01 Samsung Electronics Co., Ltd. Electronic device and method for acquiring depth information by using at least one of cameras or depth sensor
CN109814128B (en) * 2019-01-23 2020-08-11 北京理工大学 High-resolution rapid imaging system and method combining time flight and associated imaging
CN109814128A (en) * 2019-01-23 2019-05-28 北京理工大学 The high-resolution fast imaging system and method that time flight is combined with relevance imaging
JP2022525894A (en) * 2019-03-22 2022-05-20 ヴァイアヴィ・ソリューションズ・インコーポレイテッド Time-of-flight 3D sensing system
CN110687545A (en) * 2019-09-27 2020-01-14 电子科技大学中山学院 High-precision laser radar system
CN110687545B (en) * 2019-09-27 2022-03-25 电子科技大学中山学院 High-precision laser radar system
JP7569376B2 (en) 2019-12-01 2024-10-17 マジック アイ インコーポレイテッド Enhancing triangulation-based 3D distance measurements using time-of-flight information
WO2021176873A1 (en) * 2020-03-03 2021-09-10 ソニーグループ株式会社 Information processing device, information processing method, and program
JP2021148587A (en) * 2020-03-18 2021-09-27 株式会社リコー Object detector and mobile body
US11443447B2 (en) 2020-04-17 2022-09-13 Samsung Electronics Co., Ltd. Three-dimensional camera system
US11847790B2 (en) 2020-04-17 2023-12-19 Samsung Electronics Co., Ltd. Three-dimensional camera system
WO2021253321A1 (en) * 2020-06-18 2021-12-23 深圳市汇顶科技股份有限公司 Time-of-flight ranging method and related system
WO2023053238A1 (en) * 2021-09-29 2023-04-06 日本電気株式会社 Shape detecting device, shape detecting system, and shape detecting method
WO2023188184A1 (en) * 2022-03-30 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント Information processing device, system, information processing method, information processing program, and computer system
WO2023188183A1 (en) * 2022-03-30 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント Information processing device, system, information processing method, information processing program, and computer system

Similar Documents

Publication Publication Date Title
JP2013104784A (en) Optical three-dimensional camera
JP6817387B2 (en) LADAR system and method
US10101453B2 (en) Time of flight apparatuses and an illumination source
US9857469B2 (en) System and method for multi TOF camera operation using phase hopping
EP2594959B1 (en) System and method for multi TOF camera operation using phase hopping
CN101526619A (en) Synchronous range/velocity measurement system based on non-scanning laser radar and CCD camera
JP2015501927A (en) Improvements in or relating to processing of time-of-flight signals
US11047962B2 (en) Method for binning time-of-flight data
JP2010164463A (en) Laser three-dimensional image measuring device
JP2016224062A (en) Improvements in or relating to processing of time-of-flight signals
US11977157B2 (en) Optical distance measurement device and machining device
JP2014070936A (en) Error pixel detecting apparatus, error pixel detecting method, and error pixel detecting program
JP2011185837A (en) Foreign matter detector
JP2006337286A (en) Shape-measuring device
JP6717319B2 (en) Range finder and imaging system
CN101561267B (en) Distance-measuring device and method
WO2020084851A1 (en) Computational processing device, range finding device, and computational processing method
JP2006201037A (en) Shape measuring apparatus
JP3711808B2 (en) Shape measuring apparatus and shape measuring method
CN112946602A (en) Multipath error compensation method and multipath error compensated indirect time-of-flight distance calculation device
KR20140102034A (en) Optical coherence tomography device and tomography method thereof
JP6693757B2 (en) Distance image generating apparatus and method
US10921248B2 (en) Measurement apparatus and measurement method
WO2013076769A1 (en) Optical range finder
JP2007218728A (en) Range finder

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151110