JP2013104784A - Optical three-dimensional camera - Google Patents
Optical three-dimensional camera Download PDFInfo
- Publication number
- JP2013104784A JP2013104784A JP2011248801A JP2011248801A JP2013104784A JP 2013104784 A JP2013104784 A JP 2013104784A JP 2011248801 A JP2011248801 A JP 2011248801A JP 2011248801 A JP2011248801 A JP 2011248801A JP 2013104784 A JP2013104784 A JP 2013104784A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- intensity
- target
- light
- optical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
この発明は、自機からターゲット上の複数点までの距離を計測することで、当該ターゲットの3次元形状を計測する光3次元カメラに関するものである。 The present invention relates to an optical three-dimensional camera that measures the three-dimensional shape of a target by measuring the distance from the own device to a plurality of points on the target.
従来、自機からターゲット上の複数点までの距離を計測することで、当該ターゲットの3次元形状を計測する光3次元カメラとしては、例えば、特許文献1に開示された三角測量方式を用いたものや、特許文献2に開示されたTOF(Time Of Flight)方式を用いたものが知られている。
Conventionally, as an optical three-dimensional camera that measures the three-dimensional shape of the target by measuring the distance from the own device to a plurality of points on the target, for example, the triangulation method disclosed in Patent Document 1 is used. And those using the TOF (Time Of Flight) method disclosed in
特許文献1に開示された三角測量方式では、送信光学系からランダムパターン光をターゲットに対して照射し、このパターンを2次元アレイの受光素子で撮像する。そして、ターゲットの動きにより生じる上記パターンの変化の仕方から、三角測量の原理を用いてターゲットの3次元形状を求めている。
この三角測量方式は、一般的に、撮像距離が近距離に制限されるものの、近距離での測距精度が高いことにメリットがあると言われている。
In the triangulation method disclosed in Patent Document 1, a target is irradiated with random pattern light from a transmission optical system, and this pattern is imaged by a light receiving element of a two-dimensional array. Then, the three-dimensional shape of the target is obtained by using the principle of triangulation from the way the pattern changes due to the movement of the target.
This triangulation method is generally said to be advantageous in that the distance measurement accuracy at a short distance is high, although the imaging distance is limited to a short distance.
また、特許文献2に開示されたTOF方式では、均一パターン光をターゲットに対して照射し、ターゲット上の各点からの散乱光を2次元アレイの受光素子で受光する。そして、ターゲット上の各点に対応するアレイ内の各素子において、光信号のターゲットまでの往復時間からターゲットまでの距離を計測することで、ターゲットの3次元形状を求めている。
このTOF方式は、三角測量方式とは異なり直接的に距離を求めるので、3次元形状を求めるのに複雑な演算が不要である。一方、TOF方式で測距精度を高精度化するには高い受信SN比が必要である。しかしながら、受信SN比を保持しさえすれば、三角測量方式では困難な遠距離での高精度測距が可能である。
In the TOF method disclosed in
Unlike the triangulation method, the TOF method directly determines the distance, so that a complicated calculation is not required for obtaining the three-dimensional shape. On the other hand, a high reception signal-to-noise ratio is required to increase the accuracy of distance measurement using the TOF method. However, as long as the reception signal-to-noise ratio is maintained, high-precision distance measurement at a long distance, which is difficult with the triangulation method, is possible.
上述したように、特許文献1,2に開示された従来の光3次元カメラでは、三角測量方式、TOF方式の各々において、メリットを有しているものの、デメリットも有している。すなわち、三角測量方式では遠距離測距が困難であり、TOF方式では所要の受信SN比が高くなる。そして、これらのデメリットを克服できるものはなく、近距離・遠距離の両方において高精度に3次元計測することはできないという課題があった。
As described above, the conventional optical three-dimensional cameras disclosed in
この発明は、上記のような課題を解決するためになされたもので、近距離から遠距離まで高い測距精度を確保することが可能な光3次元カメラを提供することを目的としている。 The present invention has been made to solve the above-described problems, and an object of the present invention is to provide an optical three-dimensional camera that can ensure high ranging accuracy from a short distance to a long distance.
この発明に係る光3次元カメラは、ターゲットへの送信光を出力する光源と、光源により出力された送信光を所定の照射強度パターンとするパターン生成部と、パターン生成部により所定の照射強度パターンとされた送信光に対するターゲットからの散乱光を複数の素子で受光し、電気信号に変換する受光素子アレイと、受光素子アレイの各素子により変換された電気信号から、当該素子ごとに位相を検波する位相検波器アレイと、受光素子アレイの各素子により変換された電気信号から、当該素子ごとに強度を検出する強度検出部と、強度検出部により検出された強度に基づいて、三角測量方式により、素子ごとにターゲットの対応する点までの距離を計測する第1距離検出部と、位相検波器アレイにより検波された位相に基づいて、TOF方式により、素子ごとにターゲットの対応する点までの距離を計測する第2距離検出部と、強度検出部により検出された強度に基づいて、素子ごとに、第1,2距離検出部による計測結果のいずれか一方を選択する判定部と、判定部により素子ごとに選択された計測結果に基づいて、ターゲットの3次元形状を計測する3次元形状計測部とを備えたものである。 An optical three-dimensional camera according to the present invention includes a light source that outputs transmission light to a target, a pattern generation unit that uses the transmission light output from the light source as a predetermined irradiation intensity pattern, and a predetermined irradiation intensity pattern that is generated by the pattern generation unit. The received light scattered from the target for the transmitted light is received by a plurality of elements, and the phase is detected for each element from the light receiving element array that converts the light into an electric signal and the electric signal converted by each element of the light receiving element array. A phase detector array, an intensity detector for detecting the intensity of each element from the electric signal converted by each element of the light receiving element array, and a triangulation method based on the intensity detected by the intensity detector , Based on the first distance detector for measuring the distance to the corresponding point of the target for each element and the phase detected by the phase detector array, Based on the second distance detector that measures the distance to the corresponding point of the target for each element and the intensity detected by the intensity detector, the measurement result by the first and second distance detectors for each element And a three-dimensional shape measurement unit that measures the three-dimensional shape of the target based on the measurement result selected for each element by the determination unit.
この発明によれば、上記のように構成したので、近距離から遠距離に至るまで、高い測距精度を実現できる。 According to this invention, since it comprised as mentioned above, high ranging accuracy can be implement | achieved from a short distance to a long distance.
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1はこの発明の実施の形態1に係る光3次元カメラの構成を示す模式図である。
光3次元カメラは、図1に示すように、発振器1、分配器2、光源3、拡散板(パターン生成部)4、送信光学系5、受信光学系6、受光素子アレイ7、位相検波器アレイ8、マルチプレクサ9および信号処理部10から構成されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a schematic diagram showing a configuration of an optical three-dimensional camera according to Embodiment 1 of the present invention.
As shown in FIG. 1, the optical three-dimensional camera includes an oscillator 1, a
発振器1は、所定の正弦波信号(変調信号)を発振するものである。この発振器1により発振された正弦波信号は分配器2に出力される。
The oscillator 1 oscillates a predetermined sine wave signal (modulation signal). The sine wave signal oscillated by the oscillator 1 is output to the
分配器2は、発振器1からの正弦波信号を2つに分配するものである。この分配器2により分配された一方の正弦波信号は光源3に出力され、他方の正弦波信号は位相検波器アレイ8に出力される。
The
光源3は、ターゲット(図1の例では人物)20への送信光(光信号)を出力するものである。またこの際、光源3は、分配器2からの正弦波信号により、当該光信号の強度に正弦波の変調をかける。
拡散板4は、光源3により出力された光信号を所定の照射強度パターン(例えばランダム化)とするように拡散するものである。
The light source 3 outputs transmission light (optical signal) to the target (person in the example of FIG. 1) 20. At this time, the light source 3 applies a sine wave modulation to the intensity of the optical signal by the sine wave signal from the
The diffusion plate 4 diffuses the optical signal output from the light source 3 so as to have a predetermined irradiation intensity pattern (for example, randomization).
送信光学系5は、拡散板4により拡散された光信号を所定のビーム拡がり角とし、ターゲット20に向けて照射するものである。なおこの際、送信光学系5は、光信号の照射領域を受光素子アレイ7全体の瞬時視野に概略合わせておく。
受信光学系6は、送信光学系5により照射された送信光に対するターゲット20上の各点からの散乱光を収束するものである。
The transmission optical system 5 irradiates the optical signal diffused by the diffusion plate 4 toward the
The reception
受光素子アレイ7は、複数の素子を有する2次元アレイであり、受信光学系6により収束された散乱光を各素子でそれぞれ受光し、電気信号からなる受信信号に変換するものである。この受光素子アレイ7の各素子により受光・変換された受信信号は位相検波器アレイ8に出力される。
The light receiving element array 7 is a two-dimensional array having a plurality of elements, and receives the scattered light converged by the receiving
位相検波器アレイ8は、複数の素子を有する2次元アレイであり、受光素子アレイ7の各素子からの受信信号を対応する各素子で受信し、分配器2からの正弦波信号をローカル信号とした位相検波を行うものである。この位相検波器アレイ8の各素子により受信・位相検波された結果であるIQ信号(複素振幅信号)はマルチプレクサ9に出力される。
The
マルチプレクサ9は、位相検波器アレイ8の各素子からのIQ信号をシリーズに配列して1出力にまとめるものである。このマルチプレクサ9により1出力にまとめられた各IQ信号は信号処理部10に出力される。
The
信号処理部10は、マルチプレクサ9により1出力にまとめられシリーズに出力された各IQ信号を処理し、ターゲット20の3次元形状を計測するものである。この信号処理部10は、図2に示すように、強度検出部101、三角測量方式での距離検出部(第1距離検出部)102、TOF方式での距離検出部(第2距離検出部)103、判定部104および3次元画像出力部(3次元形状計測部)105から構成されている。
The
強度検出部101は、マルチプレクサ9からの1出力にまとめられた各IQ信号(アレイ7,8の各素子からのIQ信号)の強度を検出するものである。この強度検出部101により検出された各IQ信号の強度を示す情報(受信強度情報)は距離検出部102および判定部104に出力される。
The
距離検出部102は、強度検出部101により検出された各IQ信号の強度に基づいて、三角測量方式を用いて、アレイ7,8の素子ごとに、その受信強度パターンの変化を計測することで、ターゲット20の対応する点までの距離を計測するものである。そして、この距離情報から3次元形状情報を得ることができる。この距離検出部102により計測されたターゲット20の3次元形状を示す情報(3次元形状情報)は判定部104に送られる。
The
距離検出部103は、マルチプレクサ9からの1出力にまとめられた各IQ信号に基づいて、TOF方式を用いて、アレイ7,8の素子ごとに、ターゲット20の対応する点までの距離を計測するものである。そして、この距離情報から3次元形状情報を得ることができる。この距離検出部103により計測されたターゲット20の3次元形状を示す情報(3次元形状情報)は判定部104に送られる。
The
判定部104は、強度検出部101により検出された各IQ信号の強度に基づいて、アレイ7,8の素子ごとに、距離検出部102の三角測量方式による計測結果または距離検出部103のTOF方式による計測結果のいずれか一方を選択するものである。この判定部104による選択結果を示す情報は3次元画像出力部105に出力される。
Based on the intensity of each IQ signal detected by the
3次元画像出力部105は、判定部104によりアレイ7,8の素子ごとに選択された方式による計測結果(3次元形状情報)に基づいて、ターゲット20の最終的な3次元形状を算出し、その結果を出力するものである。
The three-dimensional
次に、上記のように構成された光3次元カメラの動作について説明する。図3はこの発明の実施の形態1に係る光3次元カメラの動作を示すフローチャートである。
光3次元カメラの動作では、図3に示すように、まず、発振器1は、所定の正弦波信号(変調信号)を発振する(ステップST1)。この発振器1により発振された正弦波信号は分配器2に出力される。
Next, the operation of the optical three-dimensional camera configured as described above will be described. FIG. 3 is a flowchart showing the operation of the optical three-dimensional camera according to Embodiment 1 of the present invention.
In the operation of the optical three-dimensional camera, as shown in FIG. 3, first, the oscillator 1 oscillates a predetermined sine wave signal (modulation signal) (step ST1). The sine wave signal oscillated by the oscillator 1 is output to the
次いで、分配器2は、発振器1からの正弦波信号を2つに分配する(ステップST2)。この分配器2により分配された一方の正弦波信号は光源3に出力され、他方の正弦波信号は位相検波器アレイ8に出力される。
Next, the
次いで、光源3は、ターゲット20への送信光(光信号)を出力する。またこの際、光源3は、分配器2からの正弦波信号により、当該光信号の強度に正弦波の変調をかける(ステップST3)。
Next, the light source 3 outputs transmission light (optical signal) to the
次いで、上記変調を受けた光信号を拡散板4に通した後、送信光学系5により所定のビーム拡がり角に調整してターゲット20に向け照射する(ステップST4)。なおこの際、照射領域を受光素子アレイ7全体の瞬時視野に概略合わせておく。また、上記拡散板4を通すことで、送信光の照射強度のパターンを例えば特許文献1に記載されているようにランダム化する。 Next, after passing the modulated optical signal through the diffusion plate 4, the transmission optical system 5 adjusts to a predetermined beam divergence angle and irradiates the target 20 (step ST4). At this time, the irradiation area is roughly matched to the instantaneous visual field of the entire light receiving element array 7. Further, by passing the diffuser plate 4, the pattern of the irradiation intensity of the transmission light is randomized as described in Patent Document 1, for example.
次いで、受光素子アレイ7の各素子は、送信光学系5により照射された送信光に対するターゲット20上の各点からの散乱光を、受信光学系6を介して受光し、電気信号からなる受信信号に変換する(ステップST5)。この受光素子アレイ7の各素子により受光・変換された受信信号は位相検波器アレイ8に出力される。
ここで、送信光には正弦波状の強度変調をかけているため、受信光の強度にも同様の変調がかかっている。また、受信時における変調の位相は、送信時における変調の位相に対して、光3次元カメラからターゲット20までの光信号の往復時間分だけ遅れた状態となる。
Next, each element of the light receiving element array 7 receives the scattered light from each point on the
Here, since the transmission light is subjected to sinusoidal intensity modulation, the same intensity is applied to the intensity of the reception light. Further, the phase of modulation at the time of reception is delayed by the round trip time of the optical signal from the optical three-dimensional camera to the
次いで、位相検波器アレイ8の各素子は、受光素子アレイ7の各素子からの受信信号に対して、分配器2からの正弦波信号をローカル信号とした位相検波を行う(ステップST6)。この位相検波器アレイ8の各素子により受信・位相検波された結果であるIQ信号(複素振幅信号)はマルチプレクサ9を介して信号処理部10に出力される。
Next, each element of the
次いで、信号処理部10の強度検出部101は、アレイ8の各素子からのIQ信号の強度を検出する(ステップST7)。具体的にはI信号の振幅とQ信号の振幅の自乗和を計算することで強度を検出する。この強度検出部101により検出された各IQ信号の強度を示す情報(受信強度情報)は距離検出部102および判定部104に出力される。
Next, the
次いで、距離検出部102は、強度検出部101により検出された各IQ信号の強度に基づいて、三角測量方式を用いて、ターゲット20の3次元形状を計測する(ステップST8)。すなわち、三角測量方式では、具体的には特許文献1に記載された方法により、アレイ7,8の各素子ごとに、IQ信号の受信強度パターンの変化に基づいてターゲット20の対応する点までの距離を計測することで、ターゲット20の3次元形状を計測することができる。この距離検出部102によるターゲット20の3次元形状情報は判定部104に送られる。
Next, the
次いで、距離検出部103は、アレイ7,8の各素子からのIQ信号に基づいて、TOF方式を用いて、ターゲット20の3次元形状を計測する(ステップST9)。具体的には、IQ信号の位相が送受信間の正弦波信号の位相差であることを利用し、この位相と変調周波数と光速とから、ターゲット20までの距離を素子ごとにTOF方式で計測する。そして、求めた距離値と、各素子に対応する視野方向の情報とから、ターゲット20の3次元形状を計測することができる。この距離検出部103によるターゲット20の3次元形状情報は判定部104に送られる。
Next, the
次いで、判定部104は、強度検出部101により検出された各IQ信号の強度に基づいて、素子ごとに、距離検出部102の三角測量方式による3次元形状情報または距離検出部103のTOF方式による3次元形状情報のいずれか一方を選択する(ステップST10)。すなわち、判定部104では、まず、各素子からのIQ信号の受信強度情報と、予め既知である受信ノイズレベルとから、素子ごとに受信SN比を算出する。そして、この受信SN比から、各素子に対応する測距値のうち、三角測量方式とTOF方式のいずれの方式で求めた値を選択するかを判定する。定性的には、あるターゲット距離の条件において、受信SN比がある閾値以下であれば三角測量方式での測距精度が優位となる。具体的には、次式(1)の条件において、三角測量方式での測距精度が優位となる。
ここで、wは受光素子アレイ7中心と光源3の間隔(m)であり、Lは距離(m)であり、SNRはTOF方式での受信SN比であり、cは光速(m/s)であり、fmは変調周波数(Hz)である。
Next, based on the intensity of each IQ signal detected by the
Here, w is the distance (m) between the center of the light receiving element array 7 and the light source 3, L is the distance (m), SNR is the reception SN ratio in the TOF system, and c is the speed of light (m / s). F m is the modulation frequency (Hz).
なお、式(1)を用いて判定を行う場合、いずれの方式を選定するかの判定において、測距値(式(1)中記号L)が必要であるが、これにはTOF方式の測距結果を仮の真値として用いる。このTOF方式の値自体には誤差が乗っているが、受信SN比が十分高い状態であれば、上記判定式は近似的に適用可能である。 When the determination is made using equation (1), a distance measurement value (symbol L in equation (1)) is required in determining which method to select. The distance result is used as a temporary true value. Although the value of the TOF method itself has an error, the determination formula can be applied approximately if the reception SN ratio is sufficiently high.
以上のように、判定部104では、素子ごとの受信強度から受信SN比を求め、式(1)を満足するかを確認することで、2つの測距方式のいずれを選択するかの判定を素子ごとに行う。この判定部104による選択結果を示す情報は3次元画像出力部105に出力される。
As described above, the
次いで、3次元画像出力部105は、判定部104によりアレイ8の素子ごとに選択された方式による3次元形状情報に基づいて、ターゲット20の最終的な3次元形状を算出し、その結果を出力する(ステップST11)。
Next, the three-dimensional
以上のように、この実施の形態1によれば、三角測量方式とTOF方式の2方式によりターゲット20に対する3次元測距を行うように構成したので、三角測量方式とTOF方式の互いのデメリットを補完することができ、近距離から遠距離に至るまで、高精度な測距が可能である。その結果として高精度な3次元形状の取得が可能となる。
As described above, according to the first embodiment, since the three-dimensional distance measurement for the
また、実施の形態1に係る光3次元カメラでは、2方式を組み合わせた上で、さらに、素子ごとの受信SN比に基づいて2つの測距値のうち精度が高い一方を、受信SN比の状況に応じて自動選定するように構成したので、最適な2方式の組み合わせが実現でき、より高精度な3次元形状の計測が可能となる。 In addition, in the optical three-dimensional camera according to Embodiment 1, after combining the two methods, one of the two ranging values having high accuracy is further calculated based on the reception SN ratio for each element. Since it is configured to automatically select according to the situation, it is possible to realize an optimal combination of the two methods, and to measure a three-dimensional shape with higher accuracy.
なお、実施の形態1に係る光3次元カメラでは、TOF方式で必要な光の変調に関し、正弦波信号で変調する方式を示した。しかしながら、これに限るものではなく、例えば、変調方式をパルス方式として、この方式での測距および受信強度検出を行う形としてもよい。 In the optical three-dimensional camera according to the first embodiment, a method of modulating with a sine wave signal is shown with respect to the modulation of light necessary for the TOF method. However, the present invention is not limited to this. For example, the modulation method may be a pulse method, and distance measurement and reception intensity detection may be performed using this method.
また、実施の形態1に係る光3次元カメラでは、拡散板4により照射パターンをランダム化していた。しかしながら、これに限るものではなく、この拡散板4を液晶タイプにし、ランダム化のON/OFFを制御できるようにしてもよい。
ここで、パターンのランダム化を行うと必ず暗い画素、つまり受信SN比の悪い画素が生じる。そこで、最初の撮像でTOF方式を選択した場合には、パターンのランダム化をOFFにすることで、上記受信SN比の悪い画素が発生することを回避し、TOFでの撮像性能をさらに改善できる。
In the optical three-dimensional camera according to Embodiment 1, the irradiation pattern is randomized by the diffusion plate 4. However, the present invention is not limited to this, and the diffuser plate 4 may be a liquid crystal type so that randomization ON / OFF can be controlled.
Here, when the pattern is randomized, a dark pixel, that is, a pixel with a poor reception S / N ratio is always generated. Therefore, when the TOF method is selected for the first imaging, turning off the pattern randomization can avoid the occurrence of pixels with a poor reception S / N ratio and further improve the imaging performance in the TOF. .
なお、本願発明はその発明の範囲内において、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。 In the present invention, any constituent element of the embodiment can be modified or any constituent element of the embodiment can be omitted within the scope of the invention.
1 発振器、2 分配器、3 光源、4 拡散板(パターン生成部)、5 送信光学系、6 受信光学系、7 受光素子アレイ、8 位相検波器アレイ、9 マルチプレクサ、10 信号処理部、20 ターゲット、101 強度検出部、102 距離検出部、103 距離検出部、104 判定部、105 3次元画像出力部(3次元形状計測部)。 DESCRIPTION OF SYMBOLS 1 Oscillator, 2 Distributor, 3 Light source, 4 Diffusing plate (pattern production | generation part), 5 Transmission optical system, 6 Reception optical system, 7 Light receiving element array, 8 Phase detector array, 9 Multiplexer, 10 Signal processing part, 20 Target , 101 intensity detection unit, 102 distance detection unit, 103 distance detection unit, 104 determination unit, 105 three-dimensional image output unit (three-dimensional shape measurement unit).
Claims (3)
前記光源により出力された送信光を所定の照射強度パターンとするパターン生成部と、
前記パターン生成部により所定の照射強度パターンとされた送信光に対する前記ターゲットからの散乱光を複数の素子で受光し、電気信号に変換する受光素子アレイと、
前記受光素子アレイの各素子により変換された電気信号から、当該素子ごとに位相を検波する位相検波器アレイと、
前記受光素子アレイの各素子により変換された電気信号から、当該素子ごとに強度を検出する強度検出部と、
前記強度検出部により検出された強度に基づいて、三角測量方式により、前記素子ごとに前記ターゲットの対応する点までの距離を計測する第1距離検出部と、
前記位相検波器アレイにより検波された位相に基づいて、TOF方式により、前記素子ごとに前記ターゲットの対応する点までの距離を計測する第2距離検出部と、
前記強度検出部により検出された強度に基づいて、前記素子ごとに、前記第1,2距離検出部による計測結果のいずれか一方を選択する判定部と、
前記判定部により前記素子ごとに選択された計測結果に基づいて、前記ターゲットの3次元形状を計測する3次元形状計測部と
を備えた光3次元カメラ。 A light source that outputs transmission light to the target;
A pattern generator that uses the transmission light output by the light source as a predetermined irradiation intensity pattern;
A light receiving element array that receives scattered light from the target with respect to transmission light that has been set to a predetermined irradiation intensity pattern by the pattern generation unit, and converts the light into an electrical signal;
A phase detector array for detecting a phase for each of the elements from an electrical signal converted by each element of the light receiving element array;
An intensity detector that detects the intensity of each element from the electrical signal converted by each element of the light receiving element array;
A first distance detection unit that measures a distance to a corresponding point of the target for each element by a triangulation method based on the intensity detected by the intensity detection unit;
A second distance detector for measuring a distance to a corresponding point of the target for each element by the TOF method based on the phase detected by the phase detector array;
Based on the intensity detected by the intensity detection unit, for each element, a determination unit that selects one of the measurement results by the first and second distance detection units;
An optical three-dimensional camera comprising: a three-dimensional shape measurement unit that measures a three-dimensional shape of the target based on a measurement result selected for each of the elements by the determination unit.
ことを特徴とする請求項1記載の光3次元カメラ。 The determination unit calculates a reception S / N ratio for each element from the intensity, and when the reception S / N ratio is equal to or less than a predetermined threshold, selects a measurement result by the first distance detection unit, and The optical three-dimensional camera according to claim 1, wherein when the ratio is larger than the threshold value, a measurement result by the second distance detection unit is selected.
ことを特徴とする請求項1または請求項2記載の光3次元カメラ。 3. The optical three-dimensional camera according to claim 1, wherein the pattern generation unit randomizes the transmission light, and can switch ON / OFF of the randomization.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011248801A JP2013104784A (en) | 2011-11-14 | 2011-11-14 | Optical three-dimensional camera |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011248801A JP2013104784A (en) | 2011-11-14 | 2011-11-14 | Optical three-dimensional camera |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013104784A true JP2013104784A (en) | 2013-05-30 |
Family
ID=48624422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011248801A Pending JP2013104784A (en) | 2011-11-14 | 2011-11-14 | Optical three-dimensional camera |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013104784A (en) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015075926A1 (en) * | 2013-11-20 | 2015-05-28 | パナソニックIpマネジメント株式会社 | Distance measurement and imaging system |
KR20150080690A (en) * | 2014-01-02 | 2015-07-10 | 엘지전자 주식회사 | Distance measuring device and method thereof |
KR20160054156A (en) * | 2014-11-05 | 2016-05-16 | 주식회사 히타치엘지 데이터 스토리지 코리아 | Apparatus for measuring distance |
JPWO2016159032A1 (en) * | 2015-03-30 | 2017-11-24 | 株式会社ニコン | Imaging device and imaging apparatus |
WO2018042801A1 (en) * | 2016-09-01 | 2018-03-08 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device |
JP2018146521A (en) * | 2017-03-08 | 2018-09-20 | 株式会社リコー | Measurement device, measurement method, and robot |
JP2019504522A (en) * | 2015-11-06 | 2019-02-14 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | Depth mapping with head mounted display using stereo camera and structured light |
WO2019041116A1 (en) * | 2017-08-29 | 2019-03-07 | 深圳市汇顶科技股份有限公司 | Optical ranging method and optical ranging apparatus |
CN109814128A (en) * | 2019-01-23 | 2019-05-28 | 北京理工大学 | The high-resolution fast imaging system and method that time flight is combined with relevance imaging |
JP2019219399A (en) * | 2016-01-15 | 2019-12-26 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | Depth mapping using structured light and time of flight |
US10527728B2 (en) | 2017-01-27 | 2020-01-07 | Samsung Electronics Co., Ltd | Apparatus and method for range measurement |
CN110687545A (en) * | 2019-09-27 | 2020-01-14 | 电子科技大学中山学院 | High-precision laser radar system |
US10942261B2 (en) | 2015-10-21 | 2021-03-09 | Samsung Electronics Co., Ltd | Apparatus for and method of range sensor based on direct time-of-flight and triangulation |
US11025890B2 (en) | 2018-12-03 | 2021-06-01 | Samsung Electronics Co., Ltd. | Electronic device and method for acquiring depth information by using at least one of cameras or depth sensor |
WO2021176873A1 (en) * | 2020-03-03 | 2021-09-10 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JP2021148587A (en) * | 2020-03-18 | 2021-09-27 | 株式会社リコー | Object detector and mobile body |
WO2021253321A1 (en) * | 2020-06-18 | 2021-12-23 | 深圳市汇顶科技股份有限公司 | Time-of-flight ranging method and related system |
JP2022525894A (en) * | 2019-03-22 | 2022-05-20 | ヴァイアヴィ・ソリューションズ・インコーポレイテッド | Time-of-flight 3D sensing system |
US11443447B2 (en) | 2020-04-17 | 2022-09-13 | Samsung Electronics Co., Ltd. | Three-dimensional camera system |
WO2023053238A1 (en) * | 2021-09-29 | 2023-04-06 | 日本電気株式会社 | Shape detecting device, shape detecting system, and shape detecting method |
WO2023188184A1 (en) * | 2022-03-30 | 2023-10-05 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device, system, information processing method, information processing program, and computer system |
WO2023188183A1 (en) * | 2022-03-30 | 2023-10-05 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device, system, information processing method, information processing program, and computer system |
JP7569376B2 (en) | 2019-12-01 | 2024-10-17 | マジック アイ インコーポレイテッド | Enhancing triangulation-based 3D distance measurements using time-of-flight information |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH095050A (en) * | 1995-06-20 | 1997-01-10 | Olympus Optical Co Ltd | Three-dimensional image measuring apparatus |
JP2002022425A (en) * | 2000-07-12 | 2002-01-23 | Asahi Optical Co Ltd | Three-dimensional image input device |
-
2011
- 2011-11-14 JP JP2011248801A patent/JP2013104784A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH095050A (en) * | 1995-06-20 | 1997-01-10 | Olympus Optical Co Ltd | Three-dimensional image measuring apparatus |
JP2002022425A (en) * | 2000-07-12 | 2002-01-23 | Asahi Optical Co Ltd | Three-dimensional image input device |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2015075926A1 (en) * | 2013-11-20 | 2017-03-16 | パナソニックIpマネジメント株式会社 | Ranging imaging system |
US11175406B2 (en) | 2013-11-20 | 2021-11-16 | Nuvoton Technology Corporation Japan | Range imaging system and solid-state imaging device |
US10302766B2 (en) | 2013-11-20 | 2019-05-28 | Panasonic Intellectual Property Management Co., Ltd. | Range imaging system and solid-state imaging device |
WO2015075926A1 (en) * | 2013-11-20 | 2015-05-28 | パナソニックIpマネジメント株式会社 | Distance measurement and imaging system |
KR20150080690A (en) * | 2014-01-02 | 2015-07-10 | 엘지전자 주식회사 | Distance measuring device and method thereof |
KR102090502B1 (en) * | 2014-01-02 | 2020-03-18 | 엘지전자 주식회사 | Distance measuring device and method thereof |
KR20160054156A (en) * | 2014-11-05 | 2016-05-16 | 주식회사 히타치엘지 데이터 스토리지 코리아 | Apparatus for measuring distance |
KR102144539B1 (en) | 2014-11-05 | 2020-08-18 | 주식회사 히타치엘지 데이터 스토리지 코리아 | Apparatus for measuring distance |
US10298836B2 (en) | 2015-03-30 | 2019-05-21 | Nikon Corporation | Image sensor and image-capturing apparatus |
JPWO2016159032A1 (en) * | 2015-03-30 | 2017-11-24 | 株式会社ニコン | Imaging device and imaging apparatus |
US11543496B2 (en) | 2015-10-21 | 2023-01-03 | Samsung Electronics Co., Ltd. | Apparatus for and method of range sensor based on direct time-of-flight and triangulation |
US10942261B2 (en) | 2015-10-21 | 2021-03-09 | Samsung Electronics Co., Ltd | Apparatus for and method of range sensor based on direct time-of-flight and triangulation |
US12013494B2 (en) | 2015-10-21 | 2024-06-18 | Samsung Electronics Co., Ltd | Apparatus for and method of range sensor based on direct time-of-flight and triangulation |
JP2019504522A (en) * | 2015-11-06 | 2019-02-14 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | Depth mapping with head mounted display using stereo camera and structured light |
JP2019219399A (en) * | 2016-01-15 | 2019-12-26 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | Depth mapping using structured light and time of flight |
US10866321B2 (en) | 2016-09-01 | 2020-12-15 | Sony Semiconductor Solutions Corporation | Imaging device |
WO2018042801A1 (en) * | 2016-09-01 | 2018-03-08 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device |
JPWO2018042801A1 (en) * | 2016-09-01 | 2019-06-24 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device |
CN108027238A (en) * | 2016-09-01 | 2018-05-11 | 索尼半导体解决方案公司 | Imaging device |
CN108027238B (en) * | 2016-09-01 | 2022-06-14 | 索尼半导体解决方案公司 | Image forming apparatus with a plurality of image forming units |
JP7022057B2 (en) | 2016-09-01 | 2022-02-17 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device |
US10527728B2 (en) | 2017-01-27 | 2020-01-07 | Samsung Electronics Co., Ltd | Apparatus and method for range measurement |
JP2018146521A (en) * | 2017-03-08 | 2018-09-20 | 株式会社リコー | Measurement device, measurement method, and robot |
WO2019041116A1 (en) * | 2017-08-29 | 2019-03-07 | 深圳市汇顶科技股份有限公司 | Optical ranging method and optical ranging apparatus |
US10908290B2 (en) | 2017-08-29 | 2021-02-02 | Shenzhen GOODIX Technology Co., Ltd. | Optical distance measuring method and optical distance measuring device |
US11025890B2 (en) | 2018-12-03 | 2021-06-01 | Samsung Electronics Co., Ltd. | Electronic device and method for acquiring depth information by using at least one of cameras or depth sensor |
CN109814128B (en) * | 2019-01-23 | 2020-08-11 | 北京理工大学 | High-resolution rapid imaging system and method combining time flight and associated imaging |
CN109814128A (en) * | 2019-01-23 | 2019-05-28 | 北京理工大学 | The high-resolution fast imaging system and method that time flight is combined with relevance imaging |
JP2022525894A (en) * | 2019-03-22 | 2022-05-20 | ヴァイアヴィ・ソリューションズ・インコーポレイテッド | Time-of-flight 3D sensing system |
CN110687545A (en) * | 2019-09-27 | 2020-01-14 | 电子科技大学中山学院 | High-precision laser radar system |
CN110687545B (en) * | 2019-09-27 | 2022-03-25 | 电子科技大学中山学院 | High-precision laser radar system |
JP7569376B2 (en) | 2019-12-01 | 2024-10-17 | マジック アイ インコーポレイテッド | Enhancing triangulation-based 3D distance measurements using time-of-flight information |
WO2021176873A1 (en) * | 2020-03-03 | 2021-09-10 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
JP2021148587A (en) * | 2020-03-18 | 2021-09-27 | 株式会社リコー | Object detector and mobile body |
US11443447B2 (en) | 2020-04-17 | 2022-09-13 | Samsung Electronics Co., Ltd. | Three-dimensional camera system |
US11847790B2 (en) | 2020-04-17 | 2023-12-19 | Samsung Electronics Co., Ltd. | Three-dimensional camera system |
WO2021253321A1 (en) * | 2020-06-18 | 2021-12-23 | 深圳市汇顶科技股份有限公司 | Time-of-flight ranging method and related system |
WO2023053238A1 (en) * | 2021-09-29 | 2023-04-06 | 日本電気株式会社 | Shape detecting device, shape detecting system, and shape detecting method |
WO2023188184A1 (en) * | 2022-03-30 | 2023-10-05 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device, system, information processing method, information processing program, and computer system |
WO2023188183A1 (en) * | 2022-03-30 | 2023-10-05 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device, system, information processing method, information processing program, and computer system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013104784A (en) | Optical three-dimensional camera | |
JP6817387B2 (en) | LADAR system and method | |
US10101453B2 (en) | Time of flight apparatuses and an illumination source | |
US9857469B2 (en) | System and method for multi TOF camera operation using phase hopping | |
EP2594959B1 (en) | System and method for multi TOF camera operation using phase hopping | |
CN101526619A (en) | Synchronous range/velocity measurement system based on non-scanning laser radar and CCD camera | |
JP2015501927A (en) | Improvements in or relating to processing of time-of-flight signals | |
US11047962B2 (en) | Method for binning time-of-flight data | |
JP2010164463A (en) | Laser three-dimensional image measuring device | |
JP2016224062A (en) | Improvements in or relating to processing of time-of-flight signals | |
US11977157B2 (en) | Optical distance measurement device and machining device | |
JP2014070936A (en) | Error pixel detecting apparatus, error pixel detecting method, and error pixel detecting program | |
JP2011185837A (en) | Foreign matter detector | |
JP2006337286A (en) | Shape-measuring device | |
JP6717319B2 (en) | Range finder and imaging system | |
CN101561267B (en) | Distance-measuring device and method | |
WO2020084851A1 (en) | Computational processing device, range finding device, and computational processing method | |
JP2006201037A (en) | Shape measuring apparatus | |
JP3711808B2 (en) | Shape measuring apparatus and shape measuring method | |
CN112946602A (en) | Multipath error compensation method and multipath error compensated indirect time-of-flight distance calculation device | |
KR20140102034A (en) | Optical coherence tomography device and tomography method thereof | |
JP6693757B2 (en) | Distance image generating apparatus and method | |
US10921248B2 (en) | Measurement apparatus and measurement method | |
WO2013076769A1 (en) | Optical range finder | |
JP2007218728A (en) | Range finder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141008 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150702 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150714 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20151110 |