JP2014025804A - Information acquisition device and object detection device - Google Patents

Information acquisition device and object detection device Download PDF

Info

Publication number
JP2014025804A
JP2014025804A JP2012166279A JP2012166279A JP2014025804A JP 2014025804 A JP2014025804 A JP 2014025804A JP 2012166279 A JP2012166279 A JP 2012166279A JP 2012166279 A JP2012166279 A JP 2012166279A JP 2014025804 A JP2014025804 A JP 2014025804A
Authority
JP
Japan
Prior art keywords
value
distance
information
distance information
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012166279A
Other languages
Japanese (ja)
Inventor
Tadashi Ikuta
直史 生田
Takanori Kishida
孝範 岸田
Masato Fuma
正人 夫馬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2012166279A priority Critical patent/JP2014025804A/en
Publication of JP2014025804A publication Critical patent/JP2014025804A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information acquisition device capable of appropriately acquiring distance information, and an object detection device.SOLUTION: The information acquisition device searches for a displacement position on an actual measurement dot pattern, of a segment area on the basis of first determination indexes S103 and S105 and acquires distance information for the segment area on the basis of the searched displacement position (S104), wherein the first determination index has a threshold Tβ1 and a threshold Tβ2 larger than the threshold Tβ1 in order to evaluate the probability of the displacement position. When a parameter value (Av/Bt1) relating to the displacement position is between the threshold Tβ1 and the threshold Tβ2, the information acquisition device determines whether acquisition of the distance information based on the displacement position is suitable or not on the basis of the second determination index S107.

Description

本発明は、目標領域に光を投射したときの反射光の状態に基づいて目標領域内の物体を検出する物体検出装置および当該物体検出装置に用いて好適な情報取得装置に関する。   The present invention relates to an object detection apparatus that detects an object in a target area based on the state of reflected light when light is projected onto the target area, and an information acquisition apparatus suitable for use in the object detection apparatus.

従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。かかる物体検出装置では、レーザ光源やLED(Light Emitting Diode)から、予め決められた波長帯域の光が目標領域に投射され、その反射光がCMOSイメージセンサ等の受光素子により受光される。距離画像センサとして、種々のタイプのものが知られている。   Conventionally, object detection devices using light have been developed in various fields. An object detection apparatus using a so-called distance image sensor can detect not only a planar image on a two-dimensional plane but also the shape and movement of the detection target object in the depth direction. In such an object detection apparatus, light in a predetermined wavelength band is projected from a laser light source or an LED (Light Emitting Diode) onto a target area, and the reflected light is received by a light receiving element such as a CMOS image sensor. Various types of distance image sensors are known.

所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサでは、ドットパターンを持つレーザ光の目標領域からの反射光が受光素子によって受光される。そして、受光素子上におけるドットの受光位置に基づいて、三角測量法を用いて、検出対象物体の各部(検出対象物体上の各ドットの照射位置)までの距離が検出される(たとえば、特許文献1、非特許文献1)。   In a distance image sensor of a type that irradiates a target region with laser light having a predetermined dot pattern, reflected light from the target region of laser light having a dot pattern is received by a light receiving element. Then, based on the light receiving position of the dot on the light receiving element, the distance to each part of the detection target object (irradiation position of each dot on the detection target object) is detected using triangulation (for example, Patent Literature 1, Non-Patent Document 1).

特開2012−32379号公報JP 2012-32379 A

第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−128019th Annual Conference of the Robotics Society of Japan (September 18-20, 2001) Proceedings, P1279-1280

上記物体検出装置では、あらかじめ、基準となるドットパターンをメモリに保持しておき、この基準ドットパターンと、実動作時に撮像された実測ドットパターンとが照合される。具体的には、基準ドットパターン中のドットの、実測ドットパターン上における位置が探索される。この探索では、基準ドットパターン中のドットと実測ドットパターン中のドットとのマッチング度合いが求められる。このとき、マッチング度合いが所定の閾値よりも低い場合には、エラー処理が行われ、マッチング度合いが閾値以上の場合に、ドットの位置検出が行われる。   In the object detection apparatus, a reference dot pattern is stored in a memory in advance, and this reference dot pattern is collated with an actually measured dot pattern captured during actual operation. Specifically, the position of the dot in the reference dot pattern on the measured dot pattern is searched. In this search, the degree of matching between the dots in the reference dot pattern and the dots in the measured dot pattern is obtained. At this time, when the matching degree is lower than a predetermined threshold, error processing is performed, and when the matching degree is equal to or greater than the threshold, dot position detection is performed.

しかしながら、かかるエラー判定は、通常、一つの閾値に基づいて行われるため、マッチング度合いが閾値近傍にある場合、エラー判定が不確かとなる惧れがある。このため、本来エラーとされるべきドットについて誤った距離が取得され、あるいは、距離が取得されるべきドットがエラーと判定される等、取得された距離情報中に、不確かな情報が混在することが起こり得る。   However, such an error determination is normally performed based on one threshold value, and therefore there is a possibility that the error determination is uncertain when the matching degree is in the vicinity of the threshold value. For this reason, inaccurate information is mixed in the acquired distance information, such as when an incorrect distance is acquired for a dot that should be regarded as an error, or a dot whose distance should be acquired is determined as an error. Can happen.

本発明は、この点に鑑みてなされたものであり、適正に距離情報を取得可能な情報取得装置および物体検出装置を提供することを目的とする。   The present invention has been made in view of this point, and an object thereof is to provide an information acquisition device and an object detection device that can appropriately acquire distance information.

本発明の第1の態様は、情報取得装置に関する。本態様に係る情報取得装置は、レーザ
光源から出射されたレーザ光を所定のドットパターンで目標領域に投射する投射光学系と、前記投射光学系に対して所定の距離だけ横に離れて並ぶように配置され、前記目標領域をイメージセンサにより撮像する受光光学系と、基準面に前記レーザ光を照射したときに前記受光光学系により撮像された基準ドットパターンと、実測時に前記イメージセンサにより撮像された実測ドットパターンとに基づいて、前記目標領域に含まれる物体までの距離に関する距離情報を取得する距離取得部と、を備える。前記距離取得部は、前記基準ドットパターンに設定された所定のセグメント領域の前記実測ドットパターン上における変位位置を、第1の判定指標に基づいて探索し、探索された前記変位位置に基づいて、前記セグメント領域に対する距離情報を取得する。前記第1の判定指標は、前記変位位置の確からしさを評価するために、第1の閾値と当該第1の閾値よりも大きい第2の閾値とを有する。前記距離取得部は、前記変位位置に関する第1のパラメータ値が、前記第1の閾値と前記第2の閾値との間にある場合に、前記変位位置に基づく前記距離情報の取得の適否を前記第2の判定指標に基づいて判定する。
A first aspect of the present invention relates to an information acquisition device. The information acquisition apparatus according to this aspect is configured to project a laser beam emitted from a laser light source onto a target area with a predetermined dot pattern, and to be arranged laterally apart from the projection optical system by a predetermined distance. A light receiving optical system that images the target area with an image sensor, a reference dot pattern that is imaged by the light receiving optical system when the laser beam is irradiated onto a reference surface, and an image that is captured by the image sensor during measurement. A distance acquisition unit that acquires distance information related to a distance to an object included in the target area based on the measured dot pattern. The distance acquisition unit searches for a displacement position on the measured dot pattern of a predetermined segment area set in the reference dot pattern based on a first determination index, and based on the searched displacement position, Obtain distance information for the segment region. The first determination index includes a first threshold value and a second threshold value that is larger than the first threshold value in order to evaluate the likelihood of the displacement position. The distance acquisition unit determines whether or not to acquire the distance information based on the displacement position when the first parameter value related to the displacement position is between the first threshold value and the second threshold value. The determination is made based on the second determination index.

本発明の第2の態様は、物体検出装置に関する。本態様に係る物体検出装置は、上記第1の態様に係る情報取得装置と、前記距離情報に基づいて、所定の対象物体を検出する物体検出部と、を備える。   A 2nd aspect of this invention is related with an object detection apparatus. The object detection device according to this aspect includes the information acquisition device according to the first aspect and an object detection unit that detects a predetermined target object based on the distance information.

本発明によれば、適正に距離情報を取得可能な情報取得装置および物体検出装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the information acquisition apparatus and object detection apparatus which can acquire distance information appropriately can be provided.

本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。   The effects and significance of the present invention will become more apparent from the following description of embodiments. However, the embodiment described below is merely an example when the present invention is implemented, and the present invention is not limited to the following embodiment.

実施の形態に係る物体検出装置の構成を示す図である。It is a figure which shows the structure of the object detection apparatus which concerns on embodiment. 実施の形態に係る情報取得装置と情報処理装置の構成を示す図である。It is a figure which shows the structure of the information acquisition apparatus and information processing apparatus which concern on embodiment. 実施の形態に係る目標領域に対するレーザ光の照射状態とイメージセンサ上のレーザ光の受光状態を示す図である。It is a figure which shows the irradiation state of the laser beam with respect to the target area | region which concerns on embodiment, and the light reception state of the laser beam on an image sensor. 実施の形態に係る参照パターンの生成方法を説明する図である。It is a figure explaining the production | generation method of the reference pattern which concerns on embodiment. 実施の形態に係る距離検出手法を説明する図である。It is a figure explaining the distance detection method which concerns on embodiment. 比較例に係るエラー判定指標を説明する図である。It is a figure explaining the error determination parameter | index which concerns on a comparative example. 比較例に係るエラー判定指標を用いて距離検出を行った検証結果を示す図である。It is a figure which shows the verification result which performed distance detection using the error determination parameter | index which concerns on a comparative example. 実施の形態に係るエラー判定指標を説明する図である。It is a figure explaining the error determination parameter | index which concerns on embodiment. 実施例1に係るエラー判定処理にかかるフローチャートである。6 is a flowchart according to an error determination process according to the first embodiment. 実施例1に係るエラー判定結果の分類を示す図である。It is a figure which shows the classification | category of the error determination result which concerns on Example 1. FIG. 実施例2に係るエラー判定処理にかかるフローチャートである。10 is a flowchart according to an error determination process according to the second embodiment. 実施例2に係る曖昧値と周囲のエラー判定結果の傾向を説明する図である。It is a figure explaining the tendency of the ambiguous value which concerns on Example 2, and the surrounding error determination result. 実施例2に係る曖昧値補正処理にかかるフローチャートである。12 is a flowchart according to an ambiguous value correction process according to the second embodiment. 実施例2に係る曖昧値補正処理にかかるフローチャートである。12 is a flowchart according to an ambiguous value correction process according to the second embodiment. 実施例2に係る曖昧値補正処理の例を示す図である。It is a figure which shows the example of the ambiguous value correction process which concerns on Example 2. FIG. 実施例2に係る曖昧値補正処理を用いて距離検出を行った検証結果を示す図である。It is a figure which shows the verification result which performed distance detection using the ambiguous value correction process which concerns on Example 2. FIG. 変更例に係るノイズ除去フィルタの処理を用いて距離検出を行った検証結果を示す図である。It is a figure which shows the verification result which performed distance detection using the process of the noise removal filter which concerns on the example of a change. 変更例に係る曖昧値補正処理にかかるフローチャートである。It is a flowchart concerning the ambiguous value correction process which concerns on the example of a change. 変更例に係る曖昧値補正処理およびエラー判定指標を示す図である。It is a figure which shows the ambiguous value correction process and error determination parameter | index which concern on the example of a change.

以下、本発明の実施の形態につき図面を参照して説明する。本実施の形態は、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの情報取得装置に本発明を適用したものである。   Embodiments of the present invention will be described below with reference to the drawings. In this embodiment, the present invention is applied to an information acquisition apparatus of a type that irradiates a target area with laser light having a predetermined dot pattern.

まず、図1に本実施の形態に係る物体検出装置1の概略構成を示す。図示の如く、物体検出装置1は、情報取得装置2と、情報処理装置3とを備えている。テレビ4は、情報処理装置3からの信号によって制御される。   First, FIG. 1 shows a schematic configuration of an object detection apparatus 1 according to the present embodiment. As shown in the figure, the object detection device 1 includes an information acquisition device 2 and an information processing device 3. The television 4 is controlled by a signal from the information processing device 3.

情報取得装置2は、目標領域全体に赤外光を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域にある物体各部の距離(以下、「3次元距離情報」という)を取得する。取得された3次元距離情報は、ケーブル5を介して情報処理装置3に送られる。   The information acquisition device 2 projects infrared light over the entire target area, and receives the reflected light with a CMOS image sensor, whereby the distance between each part of the object in the target area (hereinafter referred to as “three-dimensional distance information”). To get. The acquired three-dimensional distance information is sent to the information processing apparatus 3 via the cable 5.

情報処理装置3は、たとえば、テレビ制御用のコントローラやゲーム機、パーソナルコンピュータ等である。情報処理装置3は、情報取得装置2から受信した3次元距離情報に基づき、目標領域における物体を検出し、検出結果に基づきテレビ4を制御する。   The information processing device 3 is, for example, a television control controller, a game machine, a personal computer, or the like. The information processing device 3 detects an object in the target area based on the three-dimensional distance information received from the information acquisition device 2, and controls the television 4 based on the detection result.

たとえば、情報処理装置3は、受信した3次元距離情報に基づき人を検出するとともに、3次元距離情報の変化から、その人の動きを検出する。たとえば、情報処理装置3がテレビ制御用のコントローラである場合、情報処理装置3には、受信した3次元距離情報からその人のジェスチャを検出するとともに、ジェスチャに応じてテレビ4に制御信号を出力するアプリケーションプログラムがインストールされている。   For example, the information processing device 3 detects a person based on the received three-dimensional distance information and detects the movement of the person from the change in the three-dimensional distance information. For example, when the information processing device 3 is a television control controller, the information processing device 3 detects the person's gesture from the received three-dimensional distance information and outputs a control signal to the television 4 in accordance with the gesture. The application program to be installed is installed.

また、たとえば、情報処理装置3がゲーム機である場合、情報処理装置3には、受信した3次元距離情報からその人の動きを検出するとともに、検出した動きに応じてテレビ画面上のキャラクタを動作させ、ゲームの対戦状況を変化させるアプリケーションプログラムがインストールされている。   For example, when the information processing device 3 is a game machine, the information processing device 3 detects the person's movement from the received three-dimensional distance information, and displays a character on the television screen according to the detected movement. An application program that operates and changes the game battle situation is installed.

図2は、情報取得装置2と情報処理装置3の構成を示す図である。   FIG. 2 is a diagram illustrating the configuration of the information acquisition device 2 and the information processing device 3.

情報取得装置2は、光学部の構成として、投射光学系100と受光光学系200とを備えている。投射光学系100と受光光学系200は、X軸方向に並ぶように、情報取得装置2に配置される。   The information acquisition apparatus 2 includes a projection optical system 100 and a light receiving optical system 200 as a configuration of the optical unit. The projection optical system 100 and the light receiving optical system 200 are arranged in the information acquisition device 2 so as to be aligned in the X-axis direction.

投射光学系100は、レーザ光源110と、コリメータレンズ120と、ミラー130と、回折光学素子(DOE:Diffractive Optical Element)140を備えている。また、受光光学系200は、アパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得装置2は、回路部の構成として、CPU(Central Processing Unit)21と、レーザ駆動回路22と、撮像信号処理回路23と、入出力回路24と、メモリ25と、バッファメモリ26を備えている。   The projection optical system 100 includes a laser light source 110, a collimator lens 120, a mirror 130, and a diffractive optical element (DOE) 140. The light receiving optical system 200 includes an aperture 210, an imaging lens 220, a filter 230, and a CMOS image sensor 240. In addition, the information acquisition device 2 includes a CPU (Central Processing Unit) 21, a laser drive circuit 22, an imaging signal processing circuit 23, an input / output circuit 24, a memory 25, and a buffer memory 26 as circuit units. It has.

レーザ光源110は、受光光学系200から離れる方向(X軸負方向)に波長830nm程度の狭波長帯域のレーザ光を出力する。コリメータレンズ120は、レーザ光源110から出射されたレーザ光を略平行光に変換する。   The laser light source 110 outputs laser light in a narrow wavelength band having a wavelength of about 830 nm in a direction away from the light receiving optical system 200 (X-axis negative direction). The collimator lens 120 converts the laser light emitted from the laser light source 110 into substantially parallel light.

ミラー130は、コリメータレンズ120側から入射されたレーザ光をDOE140に向かう方向(Z軸方向)に反射する。   The mirror 130 reflects the laser light incident from the collimator lens 120 side in the direction toward the DOE 140 (Z-axis direction).

DOE140は、入射面に回折パターンを有する。この回折パターンによる回折作用により、DOE140に入射したレーザ光は、所定のドットパターンのレーザ光に変換されて、目標領域に照射される。   The DOE 140 has a diffraction pattern on the incident surface. Due to the diffractive action of this diffraction pattern, the laser light incident on the DOE 140 is converted into laser light having a predetermined dot pattern and irradiated onto the target area.

DOE140の回折パターンは、たとえば、ステップ型の回折ホログラムが所定のパターンで形成された構造とされる。回折ホログラムは、コリメータレンズ120により略平行光とされたレーザ光をドットパターンのレーザ光に変換するよう、パターンとピッチが調整されている。DOE140は、ミラー130から入射されたレーザ光を、放射状に広がるドットパターンのレーザ光として、目標領域に照射する。   The diffraction pattern of the DOE 140 has, for example, a structure in which a step type diffraction hologram is formed in a predetermined pattern. The diffraction hologram is adjusted in pattern and pitch so as to convert the laser light that has been made substantially parallel light by the collimator lens 120 into a laser light having a dot pattern. The DOE 140 irradiates the target region with the laser beam incident from the mirror 130 as a laser beam having a dot pattern that spreads radially.

目標領域から反射されたレーザ光は、アパーチャ210を介して撮像レンズ220に入射する。   The laser light reflected from the target area enters the imaging lens 220 via the aperture 210.

アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部からの光に絞りを掛ける。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。フィルタ230は、レーザ光源110の出射波長(830nm程度)を含む赤外の波長帯域の光を透過し、可視光の波長帯域をカットするバンドパスフィルタである。   The aperture 210 stops the light from the outside so as to match the F number of the imaging lens 220. The imaging lens 220 collects the light incident through the aperture 210 on the CMOS image sensor 240. The filter 230 is a band-pass filter that transmits light in the infrared wavelength band including the emission wavelength (about 830 nm) of the laser light source 110 and cuts the wavelength band of visible light.

CMOSイメージセンサ240は、撮像レンズ220にて集光された光を受光して、画素毎に、受光量に応じた信号(電荷)を撮像信号処理回路23に出力する。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号(電荷)を撮像信号処理回路23に出力できるよう、信号の出力速度が高速化されている。   The CMOS image sensor 240 receives the light collected by the imaging lens 220 and outputs a signal (charge) corresponding to the amount of received light to the imaging signal processing circuit 23 for each pixel. Here, in the CMOS image sensor 240, the output speed of the signal is increased so that the signal (charge) of the pixel can be output to the imaging signal processing circuit 23 with high response from the light reception in each pixel.

CPU21は、メモリ25に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、レーザ光源110を制御するためのレーザ制御部21aと、3次元距離情報を生成するための距離取得部21bの機能が付与される。   The CPU 21 controls each unit according to a control program stored in the memory 25. With this control program, the CPU 21 is provided with the functions of a laser control unit 21a for controlling the laser light source 110 and a distance acquisition unit 21b for generating three-dimensional distance information.

レーザ駆動回路22は、CPU21からの制御信号に応じてレーザ光源110を駆動する。   The laser drive circuit 22 drives the laser light source 110 according to a control signal from the CPU 21.

撮像信号処理回路23は、CMOSイメージセンサ240を制御して、所定の撮像間隔で、CMOSイメージセンサ240により生成された各画素の信号(電荷)をライン毎に順次取り込む。そして、取り込んだ信号を順次CPU21に出力する。CPU21は、撮像信号処理回路23から供給される信号(撮像信号)をもとに、情報取得装置2から検出対象物の各部までの距離を、距離取得部21bによる処理によって算出する。距離取得部21bにより算出された距離情報は、バッファメモリ26に一時蓄積される。バッファメモリ26は、1ライン分の距離情報を保持可能なラインメモリである。入出力回路24は、バッファメモリ26に蓄積された距離情報を読み出し、情報処理装置3とのデータ通信を制御する。   The imaging signal processing circuit 23 controls the CMOS image sensor 240 to sequentially take in the signal (charge) of each pixel generated by the CMOS image sensor 240 for each line at a predetermined imaging interval. Then, the captured signals are sequentially output to the CPU 21. Based on the signal (imaging signal) supplied from the imaging signal processing circuit 23, the CPU 21 calculates the distance from the information acquisition device 2 to each part of the detection target by processing by the distance acquisition unit 21b. The distance information calculated by the distance acquisition unit 21 b is temporarily stored in the buffer memory 26. The buffer memory 26 is a line memory that can hold distance information for one line. The input / output circuit 24 reads the distance information stored in the buffer memory 26 and controls data communication with the information processing device 3.

情報処理装置3は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理装置3には、同図に示す構成の他、テレビ4との通信を行うための構成や、CD−ROM等の外部メモリに格納された情報を読み取ってメモリ33にインストールするためのドライブ装置等が配されるが、便宜上、これら周辺回路の構成は図示省略されている。   The information processing apparatus 3 includes a CPU 31, an input / output circuit 32, and a memory 33. In addition to the configuration shown in the figure, the information processing apparatus 3 is configured to communicate with the television 4 and to read information stored in an external memory such as a CD-ROM and install it in the memory 33. However, the configuration of these peripheral circuits is not shown for the sake of convenience.

CPU31は、メモリ33に格納された制御プログラム(アプリケーションプログラム
)に従って各部を制御する。かかる制御プログラムによって、CPU31には、画像中の物体を検出するための物体検出部31aと、物体の動きに応じて、テレビ4の機能を制御するための機能制御部31bの機能が付与される。かかる制御プログラムは、たとえば、図示しないドライブ装置によってCD−ROMから読み取られ、メモリ33にインストールされる。
The CPU 31 controls each unit according to a control program (application program) stored in the memory 33. With this control program, the CPU 31 is provided with the functions of an object detection unit 31a for detecting an object in the image and a function control unit 31b for controlling the function of the television 4 according to the movement of the object. . Such a control program is read from a CD-ROM by a drive device (not shown) and installed in the memory 33, for example.

物体検出部31aは、情報取得装置2から供給される3次元距離情報から画像中の物体の形状を抽出し、抽出した物体形状の動きを検出する。ここで、物体検出部31aは、距離に関する閾値を基に、情報取得装置2から供給される3次元距離情報から物体の平面形状のみを抽出するため、2値化画像を生成する。その後、生成した2値化画像と、メモリ33に格納された物体形状を抽出するための物体形状抽出テンプレートとの比較を行い、動きの抽出対象となる物体形状と3次元距離情報中の物体形状の中心位置を特定する。物体検出部31aは、こうして、特定した物体形状の中心位置の距離情報を、所定時間ごとに追跡することによって、物体の動きを検出する。   The object detection unit 31a extracts the shape of the object in the image from the three-dimensional distance information supplied from the information acquisition device 2, and detects the movement of the extracted object shape. Here, the object detection unit 31a generates a binarized image in order to extract only the planar shape of the object from the three-dimensional distance information supplied from the information acquisition device 2 based on the threshold regarding the distance. Thereafter, the generated binarized image is compared with the object shape extraction template for extracting the object shape stored in the memory 33, and the object shape to be extracted from the motion and the object shape in the three-dimensional distance information are compared. Specify the center position of. In this way, the object detection unit 31a detects the movement of the object by tracking the distance information of the center position of the specified object shape every predetermined time.

たとえば、制御プログラムがゲームプログラムである場合、機能制御部31bは、物体検出部31aによって検出された人の動き(ジェスチャ)に応じてテレビ画面上のキャラクタを動作させるための処理を実行する。また、制御プログラムがテレビ4の機能を制御するためのプログラムである場合、機能制御部31bは、物体検出部31aから人の動き(ジェスチャ)に応じた信号に基づき、テレビ4の機能(チャンネル切り替えやボリューム調整、等)を制御するための処理を実行する。   For example, when the control program is a game program, the function control unit 31b executes a process for operating a character on the television screen in accordance with a human movement (gesture) detected by the object detection unit 31a. When the control program is a program for controlling the function of the television 4, the function control unit 31 b performs the function (channel switching) of the television 4 based on a signal from the object detection unit 31 a according to a person's movement (gesture). And volume adjustment, etc.) are executed.

入出力回路32は、情報取得装置2とのデータ通信を制御する。   The input / output circuit 32 controls data communication with the information acquisition device 2.

投射光学系100と受光光学系200は、投射光学系100の投射中心と受光光学系200の撮像中心がX軸に平行な直線上に並ぶように、X軸方向に所定の距離をもって並んで設置される。投射光学系100と受光光学系200の設置間隔は、情報取得装置2と目標領域の基準面との距離に応じて、設定される。   The projection optical system 100 and the light receiving optical system 200 are installed side by side with a predetermined distance in the X axis direction so that the projection center of the projection optical system 100 and the imaging center of the light receiving optical system 200 are aligned on a straight line parallel to the X axis. Is done. The installation interval between the projection optical system 100 and the light receiving optical system 200 is set according to the distance between the information acquisition device 2 and the reference plane of the target area.

次に、情報取得装置2による3次元距離情報の取得方法について説明する。   Next, a method for acquiring three-dimensional distance information by the information acquisition device 2 will be described.

図3(a)は、目標領域に対するレーザ光の照射状態を模式的に示す図、図3(b)は、CMOSイメージセンサ240におけるレーザ光の受光状態を模式的に示す図である。なお、図3(b)には、便宜上、目標領域に平坦な面(スクリーン)とスクリーンの前に人物が存在するときの受光状態が示されている。   FIG. 3A is a diagram schematically showing the irradiation state of the laser light on the target region, and FIG. 3B is a diagram schematically showing the light receiving state of the laser light in the CMOS image sensor 240. For convenience, FIG. 3B shows a flat surface (screen) in the target area and a light receiving state when a person is present in front of the screen.

図3(a)に示すように、投射光学系100からは、ドットパターンを持ったレーザ光(以下、このパターンを持つレーザ光の全体を「DP光」という)が、目標領域に照射される。図3(a)には、DP光の光束領域が実線の枠によって示されている。DP光の光束中には、DOE140による回折作用により生成されるドット領域(以下、単に「ドット」という)が、DOE140による回折作用によるドットパターンに従って点在している。   As shown in FIG. 3A, the projection optical system 100 irradiates a target region with laser light having a dot pattern (hereinafter, the entire laser light having this pattern is referred to as “DP light”). . In FIG. 3A, the light flux region of DP light is indicated by a solid line frame. In the light flux of DP light, dot regions (hereinafter simply referred to as “dots”) generated by the diffraction action by the DOE 140 are scattered according to the dot pattern by the diffraction action by the DOE 140.

目標領域に平坦な面(スクリーン)が存在すると、これにより反射されたDP光は、図3(b)のように、CMOSイメージセンサ240上に分布する。   When a flat surface (screen) exists in the target area, DP light reflected thereby is distributed on the CMOS image sensor 240 as shown in FIG.

図3(b)には、CMOSイメージセンサ240上のDP光の全受光領域が破線の枠によって示され、CMOSイメージセンサ240の撮像有効領域に入射するDP光の受光領域が実線の枠によって示されている。CMOSイメージセンサ240の撮像有効領域は、CMOSイメージセンサ240がDP光を受光した領域のうち、センサとして信号を出力
する領域であり、たとえば、VGA(横640画素×縦480画素)のサイズである。また、同図(a)に示す目標領域上におけるDt0の光は、CMOSイメージセンサ240上では、同図(b)に示すDt0’の位置に入射する。スクリーンの前の人物の像は、CMOSイメージセンサ240上では、上下左右が反転して撮像される。
In FIG. 3B, the entire DP light receiving area on the CMOS image sensor 240 is indicated by a broken line frame, and the DP light receiving area incident on the imaging effective area of the CMOS image sensor 240 is indicated by a solid line frame. Has been. The effective imaging area of the CMOS image sensor 240 is an area where the CMOS image sensor 240 receives a DP light and outputs a signal as a sensor, and has a size of, for example, VGA (horizontal 640 pixels × vertical 480 pixels). . Further, the light of Dt0 on the target area shown in FIG. 9A enters the position of Dt0 ′ shown in FIG. An image of a person in front of the screen is taken upside down on the CMOS image sensor 240 in the vertical and horizontal directions.

ここで、図4、図5を参照して、上記距離検出の方法を説明する。   Here, the distance detection method will be described with reference to FIGS.

図4は、上記距離検出手法に用いられる参照パターンの設定方法を説明する図である。   FIG. 4 is a diagram for explaining a reference pattern setting method used in the distance detection method.

図4(a)に示すように、投射光学系100から所定の距離Lsの位置に、Z軸方向に垂直な平坦な反射平面RSが配置される。出射されたDP光は、反射平面RSによって反射され、受光光学系200のCMOSイメージセンサ240に入射する。これにより、CMOSイメージセンサ240から、撮像有効領域内の画素毎の電気信号が出力される。出力された画素毎の電気信号の値(画素値)は、図2のメモリ25上に展開される。   As shown in FIG. 4A, a flat reflection plane RS perpendicular to the Z-axis direction is disposed at a position at a predetermined distance Ls from the projection optical system 100. The emitted DP light is reflected by the reflection plane RS and enters the CMOS image sensor 240 of the light receiving optical system 200. Thereby, an electrical signal for each pixel in the effective imaging area is output from the CMOS image sensor 240. The output electric signal value (pixel value) for each pixel is developed on the memory 25 of FIG.

以下、反射面RSからの反射によって得られた全画素値からなる画像を、「基準画像」、反射面RSを「基準面」と称する。そして、図4(b)に示すように、基準画像上に、「参照パターン領域」が設定される。なお、図4(b)には、CMOSイメージセンサ240の背面側から受光面をZ軸正方向に透視した状態が図示されている。図5以降の図においても同様である。   Hereinafter, an image including all pixel values obtained by reflection from the reflection surface RS is referred to as a “reference image”, and the reflection surface RS is referred to as a “reference surface”. Then, as shown in FIG. 4B, a “reference pattern region” is set on the standard image. FIG. 4B shows a state in which the light receiving surface is seen through in the positive direction of the Z axis from the back side of the CMOS image sensor 240. The same applies to the drawings after FIG.

こうして設定された参照パターン領域に対して、所定の大きさを有する複数のセグメント領域が設定される。セグメント領域の大きさは、得られる距離情報による物体の輪郭抽出精度、CPU21に対する距離検出の演算量の負荷および後述する距離検出手法によるエラー発生率を考慮して決定される。   A plurality of segment areas having a predetermined size are set for the reference pattern area set in this way. The size of the segment area is determined in consideration of the contour extraction accuracy of the object based on the obtained distance information, the load of the calculation amount of distance detection for the CPU 21, and the error occurrence rate by the distance detection method described later.

図4(c)を参照して、参照パターン領域に設定されるセグメント領域について説明する。なお、図4(c)には、便宜上、各セグメント領域の大きさが横9画素×縦9画素で示され、各セグメント領域の中央の画素が×印で示されている。   With reference to FIG.4 (c), the segment area | region set to a reference pattern area | region is demonstrated. In FIG. 4C, for the sake of convenience, the size of each segment area is indicated by 9 pixels wide × 9 pixels high, and the center pixel of each segment area is indicated by a cross.

セグメント領域は、図4(c)に示すように、隣り合うセグメント領域が参照パターン領域に対してX軸方向およびY軸方向に1画素間隔で並ぶように設定される。すなわち、あるセグメント領域は、このセグメント領域のX軸方向およびY軸方向に隣り合うセグメント領域に対して1画素ずれた位置に設定される。このとき、各セグメント領域には、固有のパターンでドットが点在する。よって、セグメント領域内の画素値のパターンは、セグメント領域毎に異なっている。隣り合うセグメント領域の間隔が狭いほど、参照パターン領域内に含まれるセグメント領域の数が多くなり、目標領域の面内方向(X−Y平面方向)における距離検出の分解能が高められる。   As shown in FIG. 4C, the segment areas are set such that adjacent segment areas are arranged at intervals of one pixel in the X-axis direction and the Y-axis direction with respect to the reference pattern area. That is, a certain segment area is set at a position shifted by one pixel with respect to a segment area adjacent to the segment area in the X-axis direction and the Y-axis direction. At this time, each segment area is dotted with dots in a unique pattern. Therefore, the pattern of pixel values in the segment area is different for each segment area. The narrower the interval between adjacent segment areas, the greater the number of segment areas included in the reference pattern area, and the resolution of distance detection in the in-plane direction (XY plane direction) of the target area is enhanced.

こうして、CMOSイメージセンサ240上における参照パターン領域の位置に関する情報と、参照パターン領域に含まれる全画素の画素値(参照パターン)と、参照パターン領域に対して設定されるセグメント領域の情報が、図2のメモリ25に記憶される。メモリ25に記憶されるこれらの情報を、以下、「参照テンプレート」と称する。   Thus, information on the position of the reference pattern area on the CMOS image sensor 240, pixel values (reference patterns) of all pixels included in the reference pattern area, and segment area information set for the reference pattern area are shown in FIG. 2 memory 25. These pieces of information stored in the memory 25 are hereinafter referred to as “reference templates”.

図2のCPU21は、投射光学系100から検出対象物体の各部までの距離を算出する際に、参照テンプレートを参照する。CPU21は、距離を算出する際に、参照テンプレートから得られる各セグメント領域内のドットパターンのずれ量に基づいて、物体の各部までの距離を算出する。   The CPU 21 in FIG. 2 refers to the reference template when calculating the distance from the projection optical system 100 to each part of the detection target object. When calculating the distance, the CPU 21 calculates the distance to each part of the object based on the shift amount of the dot pattern in each segment area obtained from the reference template.

たとえば、図4(a)に示すように距離Lsよりも近い位置に物体がある場合、参照パ
ターン上の所定のセグメント領域Snに対応するDP光(DPn)は、物体によって反射され、セグメント領域Snとは異なる領域Sn’に入射する。投射光学系100と受光光学系200はX軸方向に隣り合っているため、セグメント領域Snに対する領域Sn’の変位方向はX軸に平行となる。図4(a)の場合、物体が距離Lsよりも近い位置にあるため、領域Sn’は、セグメント領域Snに対してX軸正方向に変位する。物体が距離Lsよりも遠い位置にあれば、領域Sn’は、セグメント領域Snに対してX軸負方向に変位する。
For example, as shown in FIG. 4A, when an object is present at a position closer than the distance Ls, DP light (DPn) corresponding to a predetermined segment area Sn on the reference pattern is reflected by the object, and the segment area Sn. It is incident on a different region Sn ′. Since the projection optical system 100 and the light receiving optical system 200 are adjacent to each other in the X-axis direction, the displacement direction of the region Sn ′ with respect to the segment region Sn is parallel to the X-axis. In the case of FIG. 4A, since the object is at a position closer than the distance Ls, the region Sn ′ is displaced in the positive direction of the X axis with respect to the segment region Sn. If the object is at a position farther than the distance Ls, the region Sn ′ is displaced in the negative X-axis direction with respect to the segment region Sn.

セグメント領域Snに対する領域Sn’の変位方向と変位量をもとに、投射光学系100からDP光(DPn)が照射された物体の部分までの距離Lrが、距離Lsを用いて、三角測量法に基づき算出される。同様にして、他のセグメント領域に対応する物体の部分について、投射光学系100からの距離が算出される。かかる算出手法の詳細は、たとえば、上記非特許文献1(第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−1280)に示されている。   Based on the displacement direction and displacement amount of the region Sn ′ with respect to the segment region Sn, the distance Lr from the projection optical system 100 to the part of the object irradiated with DP light (DPn) is triangulated using the distance Ls. Calculated based on Similarly, the distance from the projection optical system 100 is calculated for the part of the object corresponding to another segment area. The details of this calculation method are described in, for example, Non-Patent Document 1 (The 19th Annual Conference of the Robotics Society of Japan (September 18-20, 2001) Proceedings, P1279-1280).

かかる距離算出では、参照テンプレートのセグメント領域Snが、実測時においてどの位置に変位したかを検出する。この検出は、実測時にCMOSイメージセンサ240上に照射されたDP光から得られたドットパターンと、セグメント領域Snに含まれるドットパターンとを照合することによって行われる。以下、実測時にCMOSイメージセンサ240上の撮像有効領域に照射されたDP光から得られた全画素値からなる画像を、「実測画像」と称する。実測時のCMOSイメージセンサ240の撮像有効領域は、基準画像取得時と同様に、たとえば、VGA(横640画素×縦480画素)のサイズである。   In this distance calculation, it is detected to which position the segment area Sn of the reference template has been displaced during actual measurement. This detection is performed by collating the dot pattern obtained from the DP light irradiated onto the CMOS image sensor 240 at the time of actual measurement with the dot pattern included in the segment region Sn. Hereinafter, an image made up of all the pixel values obtained from the DP light irradiated to the imaging effective area on the CMOS image sensor 240 at the time of actual measurement will be referred to as “measured image”. The effective imaging area of the CMOS image sensor 240 at the time of actual measurement is, for example, the size of VGA (horizontal 640 pixels × vertical 480 pixels), as in the case of acquiring the reference image.

図5(a)〜(e)は、かかる距離検出の手法を説明する図である。図5(a)は、CMOSイメージセンサ240上における基準画像に設定された参照パターン領域を示す図であり、図5(b)は、実測時のCMOSイメージセンサ240上の実測画像を示す図であり、図5(c)〜(e)は、実測画像に含まれるDP光のドットパターンと、参照テンプレートのセグメント領域に含まれるドットパターンとの照合方法を説明する図である。なお、便宜上、図5(a)、(b)には、一部のセグメント領域のみが示されており、図5(c)〜(e)には、各セグメント領域の大きさが、横9画素×縦9画素で示されている。また、図5(b)の実測画像には、便宜上、図4(b)のように、検出対象物体として基準面より前に人物が存在しており、人物の像が写り込んでいることが示されている。   FIGS. 5A to 5E are diagrams for explaining such a distance detection method. FIG. 5A is a diagram showing a reference pattern area set in a standard image on the CMOS image sensor 240, and FIG. 5B is a diagram showing an actually measured image on the CMOS image sensor 240 at the time of actual measurement. FIG. 5C to FIG. 5E are diagrams for explaining a collation method between the DP light dot pattern included in the actual measurement image and the dot pattern included in the segment area of the reference template. For convenience, FIGS. 5 (a) and 5 (b) show only a part of the segment areas, and FIGS. 5 (c) to 5 (e) show the size of each segment area. It is shown by pixel × 9 pixels vertically. 5B, for the sake of convenience, as shown in FIG. 4B, there is a person in front of the reference plane as a detection target object, and an image of the person is reflected. It is shown.

図5(a)のセグメント領域Siの実測時における変位位置を探索する場合、図5(b)に示すように、実測画像上に、セグメント領域Siに対して探索領域Riが設定される。探索領域Riは、X軸方向に所定の幅を持っている。セグメント領域Siが探索領域Riにおいて1画素ずつX軸方向に送られ、各送り位置において、セグメント領域Siのドットパターンと実測画像上のドットパターンとが比較される。以下、実測画像上の各送り位置に対応する領域を、「比較領域」と称する。探索領域Riには、セグメント領域Siと同じサイズの比較領域が複数設定され、X軸方向に隣り合う比較領域は互いに1画素ずれている。   When searching for the displacement position at the time of actual measurement of the segment area Si in FIG. 5A, as shown in FIG. 5B, the search area Ri is set for the segment area Si on the actual measurement image. The search area Ri has a predetermined width in the X-axis direction. The segment area Si is sent one pixel at a time in the search area Ri in the X-axis direction, and the dot pattern of the segment area Si is compared with the dot pattern on the measured image at each feed position. Hereinafter, a region corresponding to each feed position on the actually measured image is referred to as a “comparison region”. A plurality of comparison areas having the same size as the segment area Si are set in the search area Ri, and the comparison areas adjacent in the X-axis direction are shifted by one pixel from each other.

図5(d)では、基準画像上のセグメント領域Siの画素位置に対応する実測画像上の画素位置(中心画素位置)から、X軸負方向にx画素ずれた位置からX軸正方向にx画素ずれた範囲(以下、「探索範囲L0」という)においてセグメント領域Siが送られるように探索領域Riが設定されている。   In FIG. 5D, the pixel position (center pixel position) on the measured image corresponding to the pixel position of the segment region Si on the reference image is shifted from the position shifted by x pixels in the X axis negative direction to x in the X axis positive direction. The search area Ri is set so that the segment area Si is sent in a pixel shifted range (hereinafter referred to as “search range L0”).

距離検出時には、探索領域Riにおいてセグメント領域SiをX軸方向に1画素ずつ送りながら、各送り位置において、参照テンプレートに記憶されているセグメント領域Siのドットパターンと、実測画像のDP光のドットパターンのマッチング度合いが求められ
る。このようにセグメント領域Siを探索領域Ri内においてX軸方向にのみ送るのは、上記のように、通常、参照テンプレートにより設定されたセグメント領域のドットパターンは、実測時において、X軸方向の所定の範囲内でのみ変位するためである。
At the time of distance detection, the segment area Si is fed one pixel at a time in the X-axis direction in the search area Ri, and at each feed position, the dot pattern of the segment area Si stored in the reference template and the dot pattern of the DP light of the measured image The degree of matching is required. As described above, the segment area Si is sent only in the X-axis direction in the search area Ri as described above. Normally, the dot pattern of the segment area set by the reference template is a predetermined value in the X-axis direction at the time of actual measurement. This is because the displacement occurs only within the range.

なお、実測時には、検出対象物体の位置によっては、セグメント領域に対応するドットパターンが実測画像からX軸方向にはみ出すことが起こり得る。この場合、セグメント領域に対応するドットパターンは、CMOSイメージセンサ240の撮像有効領域内にないため、このセグメント領域については、適正にマッチングを行うことができない。しかし、このような端のセグメント領域以外については、適正にマッチングを行うことができるため、物体の距離検出への影響は少ない。   At the time of actual measurement, depending on the position of the detection target object, the dot pattern corresponding to the segment area may protrude from the actual measurement image in the X-axis direction. In this case, since the dot pattern corresponding to the segment area is not within the effective imaging area of the CMOS image sensor 240, the segment area cannot be properly matched. However, since it is possible to perform matching appropriately in areas other than the end segment areas, there is little influence on object distance detection.

なお、端の領域についても、適正にマッチングを行う場合には、実測時のCMOSイメージセンサ240の撮像有効領域を、基準画像取得時のCMOSイメージセンサ240の撮像有効領域よりも、大きくすることができるものを用いれば良い。これにより、実測画像が基準画像よりも大きくなるが、端のセグメント領域についても、適正にマッチングを行うことができる。   In addition, when matching is performed appropriately for the end region, the effective imaging region of the CMOS image sensor 240 at the time of actual measurement may be made larger than the effective imaging region of the CMOS image sensor 240 at the time of acquiring the reference image. What can be used should be used. As a result, the actually measured image becomes larger than the reference image, but matching can be appropriately performed for the end segment area.

上記マッチング度合いの検出時には、まず、参照パターン領域の各画素の画素値と実測画像の各セグメント領域の各画素の画素値の階調数が減少される。たとえば、基準画像および実測画像の画素値が8ビットの階調の場合、0〜255の画素値が、0〜12の画素値に変換される。そして、変換された画素値がメモリ25に保持される。その後、比較領域とセグメント領域Siとの間の類似度が求められる。すなわち、セグメント領域Siの各画素の画素値と、比較領域の対応する画素の画素値との差分が求められる。そして、求めた差分を比較領域の全ての画素について加算した値Rsadが、類似度を示す値として取得される。   When detecting the matching degree, first, the number of gradations of the pixel value of each pixel in the reference pattern area and the pixel value of each pixel in each segment area of the actually measured image is reduced. For example, when the pixel values of the reference image and the actually measured image are 8-bit gradation, the pixel values of 0 to 255 are converted into the pixel values of 0 to 12. Then, the converted pixel value is held in the memory 25. Thereafter, the similarity between the comparison region and the segment region Si is obtained. That is, the difference between the pixel value of each pixel in the segment area Si and the pixel value of the corresponding pixel in the comparison area is obtained. A value Rsad obtained by adding the obtained difference to all the pixels in the comparison region is acquired as a value indicating the similarity.

たとえば、図5(c)のように、一つのセグメント領域中に、n列×m行の画素が含まれている場合、セグメント領域のi列、j行の画素の画素値T(i,j)と、比較領域のi列、j行の画素の画素値I(i,j)との差分が求められる。そして、セグメント領域の全ての画素について差分が求められ、その差分の総和により、図5(c)に示す式の値Rsadが求められる。値Rsadが小さい程、セグメント領域と比較領域との間の類似度が高い。   For example, as shown in FIG. 5C, when pixels in n columns × m rows are included in one segment area, the pixel values T (i, j) of the pixels in i columns and j rows in the segment area. ) And the pixel value I (i, j) of the pixel in the comparison area i column and j row. Then, the difference is obtained for all the pixels in the segment area, and the value Rsad of the equation shown in FIG. 5C is obtained from the sum of the differences. The smaller the value Rsad, the higher the degree of similarity between the segment area and the comparison area.

こうして、図5(d)に示すように、セグメント領域Siについて、探索領域Riの全ての比較領域に対して値Rsadが求められる。図5(e)は、探索領域Riの各送り位置における値Rsadが模式的に示されたグラフである。   Thus, as shown in FIG. 5D, the value Rsad is obtained for all the comparison regions of the search region Ri for the segment region Si. FIG. 5E is a graph schematically showing the value Rsad at each feed position in the search area Ri.

セグメント領域Siについて、探索領域Riの全ての比較領域に対して値Rsadが求められると、値Rsadの最小値Bt1が参照され、最小値Bt1に対応する比較領域Ciの位置が、セグメント領域Siの変位位置と判定される。ただし、かかる判定の際に、所定のエラー判定指標が適用されて、変位位置の適否が判定される。そして、このエラー判定指標がクリアされない場合には、変位位置の探索がエラーとされる。   When the value Rsad is obtained for all the comparison regions of the search region Ri for the segment region Si, the minimum value Bt1 of the value Rsad is referred to, and the position of the comparison region Ci corresponding to the minimum value Bt1 is the position of the segment region Si. The displacement position is determined. However, at the time of such determination, a predetermined error determination index is applied to determine whether the displacement position is appropriate. If this error determination index is not cleared, the search for the displacement position is an error.

こうして、実測時に取得されたDP光のドットパターンから、各セグメント領域の変位位置が探索されると、上記のように、その変位位置に基づいて、三角測量法により、各セグメント領域に対応する検出対象物体の部位までの距離が求められる。   Thus, when the displacement position of each segment region is searched from the dot pattern of DP light acquired at the time of actual measurement, detection corresponding to each segment region is performed by triangulation based on the displacement position as described above. The distance to the part of the target object is obtained.

図6(a)〜図6(c)は、変位位置の適否を判定するエラー判定指標の比較例を示す図である。図6(a)〜図6(c)のグラフは、値Rsadの分布例を示すグラフである。図6(a)〜図6(c)には、それぞれ、異なるエラー判定指標が示されている。   FIG. 6A to FIG. 6C are diagrams showing comparative examples of error determination indexes for determining the suitability of the displacement position. The graphs of FIGS. 6A to 6C are graphs showing examples of the distribution of the value Rsad. 6A to 6C show different error determination indexes.

図6(a)のグラフでは、画素ずれ量10の位置で、値Rsadが大きく立ち下がっている。また、図6(b)のグラフでは、画素ずれ量10の位置で、最も値Rsadが小さくなっており、画素ずれ量−5の位置でも、値Rsadがある程度小さくなっている。さらに、図6(c)のグラフでは、値Rsadの平均値Avが小さくなっている。   In the graph of FIG. 6A, the value Rsad falls significantly at the position of the pixel shift amount 10. In the graph of FIG. 6B, the value Rsad is the smallest at the position of the pixel deviation amount 10, and the value Rsad is somewhat reduced even at the position of the pixel deviation amount −5. Further, in the graph of FIG. 6C, the average value Av of the value Rsad is small.

図6(a)のエラー判定指標では、最小値Bt1の大きさによって、変位位置の探索の適否が判定される。具体的には、最小値Bt1が閾値Ta以上である場合、そのセグメント領域の探索はエラーとされる。他方、最小値Bt1が閾値Ta未満である場合、最小値Bt1に対応する比較領域の位置が、セグメント領域の変位位置と判定される。   In the error determination index of FIG. 6A, the suitability of the displacement position search is determined based on the magnitude of the minimum value Bt1. Specifically, when the minimum value Bt1 is equal to or greater than the threshold value Ta, the search for the segment area is regarded as an error. On the other hand, when the minimum value Bt1 is less than the threshold value Ta, the position of the comparison area corresponding to the minimum value Bt1 is determined as the displacement position of the segment area.

図6(b)のエラー判定指標では、値Rsadのうち、2番目に小さい値Bt2と最小値Bt1の比によって、変位位置の探索の適否が判定される。具体的には、Bt2とBt1の比(Bt2/Bt1)が所定の閾値Tα未満である場合、そのセグメント領域の探索はエラーとされる。他方、Bt2とBt1の比が所定の閾値Tα以上である場合、最小値Bt1に対応する比較領域の位置が、セグメント領域の変位位置と判定される。   In the error determination index of FIG. 6B, the suitability of the search for the displacement position is determined by the ratio of the second smallest value Bt2 to the minimum value Bt1 among the values Rsad. Specifically, when the ratio of Bt2 to Bt1 (Bt2 / Bt1) is less than a predetermined threshold value Tα, the search for the segment area is regarded as an error. On the other hand, when the ratio of Bt2 and Bt1 is equal to or greater than a predetermined threshold value Tα, the position of the comparison area corresponding to the minimum value Bt1 is determined as the displacement position of the segment area.

図6(c)のエラー判定指標では、値Rsadの平均値Avと最小値Bt1との比によって、変位位置の探索の適否が判定される。具体的には、平均値Avと最小値Bt1の比(Av/Bt1)が所定の閾値Tβ未満である場合、そのセグメント領域の探索はエラーとされる。他方、平均値Avと最小値Bt1の比が所定の閾値Tβ以上である場合、最小値Bt1に対応する比較領域の位置が、セグメント領域の変位位置と判定される。   In the error determination index of FIG. 6C, the suitability of the search for the displacement position is determined by the ratio between the average value Av of the value Rsad and the minimum value Bt1. Specifically, when the ratio (Av / Bt1) between the average value Av and the minimum value Bt1 is less than a predetermined threshold value Tβ, the search for the segment area is regarded as an error. On the other hand, when the ratio between the average value Av and the minimum value Bt1 is equal to or greater than a predetermined threshold value Tβ, the position of the comparison area corresponding to the minimum value Bt1 is determined as the displacement position of the segment area.

図6(a)のエラー判定指標では、セグメント領域に含まれるドットパターンが探索範囲内に含まれないような場合に、変位位置の探索が適正にエラーと判定される。すなわち、このような場合、値Rsadが全体的に大きくなるため、最小値Bt1が閾値Ta未満となりにくく、このため、変位位置の探索がエラーと判定され易い。たとえば、図6(a)の例では、最小値Bt1が閾値Ta未満であるため、最小値Bt1に対応する画素ずれ量10の位置が、変位位置として適正であると判定される。   With the error determination index of FIG. 6A, when the dot pattern included in the segment area is not included in the search range, the search for the displacement position is appropriately determined as an error. That is, in such a case, since the value Rsad increases as a whole, the minimum value Bt1 is unlikely to be less than the threshold value Ta, and therefore, the search for the displacement position is likely to be determined as an error. For example, in the example of FIG. 6A, since the minimum value Bt1 is less than the threshold value Ta, it is determined that the position of the pixel shift amount 10 corresponding to the minimum value Bt1 is appropriate as the displacement position.

なお、図6(a)のエラー判定指標では、最小値Bt1の大きさのみによって変位位置の適否が判定されるため、たとえば、図6(b)に示すグラフのように、最小値Bt1に近い値Bt2が存在する場合にも、最小値Bt1に対応する位置が変位位置として適正であると判定される。しかし、図6(b)の場合には、値Bt2に対応する位置も変位位置となる可能性が残るため、このような場合に一律、最小値Bt1に対応する位置を変位位置と判定すると、結果的に、判定結果が誤判定となる惧れがある。   In the error determination index of FIG. 6A, the suitability of the displacement position is determined only by the magnitude of the minimum value Bt1, and therefore, for example, as shown in the graph of FIG. 6B, it is close to the minimum value Bt1. Even when the value Bt2 exists, it is determined that the position corresponding to the minimum value Bt1 is appropriate as the displacement position. However, in the case of FIG. 6B, there is a possibility that the position corresponding to the value Bt2 also becomes the displacement position. Therefore, in this case, if the position corresponding to the minimum value Bt1 is determined as the displacement position, As a result, the determination result may be erroneously determined.

これに対し、図6(b)のエラー判定指標では、2番目に小さい値Bt2と最小値Bt1の比(Bt2/Bt1)が所定の閾値Tα未満である場合には、そのセグメント領域の探索はエラーとされるため、このような誤判定が抑制され得る。   On the other hand, in the error determination index of FIG. 6B, when the ratio (Bt2 / Bt1) between the second smallest value Bt2 and the minimum value Bt1 is less than a predetermined threshold value Tα, the search for the segment area is performed. Since it is considered as an error, such erroneous determination can be suppressed.

また、図6(a)のエラー判定指標では、値Rsadが全体的に小さいような場合には、最小値Bt1と他の値との差が小さいときにも、最小値Bt1が閾値未満であれば、最小値Bt1に対応する位置が変位位置として適正であると判定される。しかし、このような場合、最小値Bt1と他の値との差が小さいため、最小値Bt1に対応する位置が変位位置として適正である確からしさは、低いものと考えられる。このため、図6(a)のエラー判定指標では、このような場合に、判定結果が誤判定となり易い。   Further, in the error determination index of FIG. 6A, when the value Rsad is small as a whole, even when the difference between the minimum value Bt1 and other values is small, the minimum value Bt1 is less than the threshold value. For example, it is determined that the position corresponding to the minimum value Bt1 is appropriate as the displacement position. However, in such a case, since the difference between the minimum value Bt1 and other values is small, it is considered that the probability that the position corresponding to the minimum value Bt1 is appropriate as the displacement position is low. For this reason, in the error determination index of FIG. 6A, in such a case, the determination result is likely to be erroneously determined.

これに対し、図6(c)のエラー判定指標では、最小値Bt1と他の値との差が小さい場合にエラーと判定されるため、このような誤判定が抑制され得る。このエラー判定指標
では、図6(c)のように、平均値Avがある程度大きく、平均値Avと最小値Bt1の差が大きければ、最小値Bt1に対応する位置が変位位置として適正であると判定される。
On the other hand, in the error determination index of FIG. 6C, since an error is determined when the difference between the minimum value Bt1 and another value is small, such erroneous determination can be suppressed. In this error determination index, as shown in FIG. 6C, if the average value Av is large to some extent and the difference between the average value Av and the minimum value Bt1 is large, the position corresponding to the minimum value Bt1 is appropriate as the displacement position. Determined.

このように、変位位置の適否を判定するエラー判定指標は、種々のものが用いられ得る。また、それぞれの指標によって得られる結果は異なる。なお、本実施の形態では、上記3つのエラー判定指標とは別の指標をさらに用いて、変位位置の適否が判定される。かかるエラー判定指標については、追って、図9を参照して説明する。   As described above, various error determination indexes for determining the suitability of the displacement position can be used. Moreover, the result obtained by each parameter | index differs. In the present embodiment, the suitability of the displacement position is determined by further using an index different from the above three error determination indices. Such an error determination index will be described later with reference to FIG.

こうして取得された各セグメント領域に対応する距離情報は、図2のバッファメモリ26に出力される。そして、バッファメモリ26に蓄積された距離情報は、1ラインごとにラインバッファ方式で、情報処理装置3に出力される。このようにして、セグメント領域S1〜セグメント領域Snまでの全てのセグメント領域について、上記と同様のセグメント領域の探索が行われ、距離情報が取得される。   The distance information corresponding to each segment area acquired in this way is output to the buffer memory 26 in FIG. Then, the distance information stored in the buffer memory 26 is output to the information processing apparatus 3 by the line buffer method for each line. In this way, for all the segment areas from the segment area S1 to the segment area Sn, the same segment area search is performed, and the distance information is acquired.

情報取得装置2は、上記のようにして取得された各セグメント領域に対応する検出対象物体までの距離を白から黒の階調で表現された画素値に割り当てた画像として、バッファメモリ26に出力する。以下、各セグメント領域に対応する距離を画素値で表現した画像を「距離画像」と称する。   The information acquisition device 2 outputs to the buffer memory 26 as an image in which the distance to the detection target object corresponding to each segment area acquired as described above is assigned to pixel values expressed in white to black gradations. To do. Hereinafter, an image in which a distance corresponding to each segment area is expressed by a pixel value is referred to as a “distance image”.

上記のように、本実施の形態では、セグメント領域は、基準画像の参照パターン領域に対して、1画素間隔で設定されるため、距離画像は、基準画像と略同様のVGAサイズの解像度(略640×略480)を有する。例えば、距離画像の画素の階調は、8ビットの階調であり、近距離ほど黒(画素値0)に近く、遠距離ほど白(画素値255)に近い階調が割り当てられる。また、セグメント領域の探索がエラーとなった場合は、黒(画素値0)の階調が割り当てられる。   As described above, in the present embodiment, since the segment area is set at an interval of one pixel with respect to the reference pattern area of the standard image, the distance image has a resolution (substantially approximately the same VGA size as the standard image). 640 × approximately 480). For example, the gradation of the pixel of the distance image is an 8-bit gradation, and a gradation closer to black (pixel value 0) is assigned to the short distance and a gradation closer to white (pixel value 255) is assigned to the far distance. If the segment area search results in an error, a gray scale of black (pixel value 0) is assigned.

図7(a)〜図7(d)は、図6(c)に示す比較例のエラー判定指標を用いて距離検出を行った検証結果を示す図である。図7(a)、図7(b)は、検証に用いた実測画像を示す図であり、図7(c)、図7(d)は、検証結果の距離画像を示す図である。図7(c)は、図7(a)の実測画像から取得された距離画像であり、図7(d)は、図7(b)の実測画像から取得された距離画像である。なお、本検証において、セグメント領域の大きさは、15画素×15画素、探索範囲は、−30画素〜30画素である。   FIG. 7A to FIG. 7D are diagrams illustrating verification results obtained by performing distance detection using the error determination index of the comparative example illustrated in FIG. FIG. 7A and FIG. 7B are diagrams showing actual measurement images used for verification, and FIG. 7C and FIG. 7D are diagrams showing distance images as verification results. 7C is a distance image acquired from the actual measurement image of FIG. 7A, and FIG. 7D is a distance image acquired from the actual measurement image of FIG. 7B. In this verification, the size of the segment area is 15 pixels × 15 pixels, and the search range is −30 to 30 pixels.

図7(a)、図7(b)の実測画像では、それぞれ、基準面よりも前方に人物と机が位置付けられており、人物と机に照射されたドットが撮像されている。また、図7(b)では、図7(a)に比べて、手がより前方に突き出された状態で目標領域が撮像されている。図7(b)では、情報取得装置2の距離検出可能な範囲よりも近い距離に手が位置付けられており、このため、ドットパターンが基準画像よりも非常に強い光量で手に照射されている。なお、図7(a)、図7(b)において、天井等の人物の背景部分は、距離検出可能な範囲に存在しておらず、このため、これらの部分に照射されたドットは、実測画像中に写り込んでいない。   In the actually measured images of FIGS. 7A and 7B, the person and the desk are positioned in front of the reference plane, and the dots irradiated to the person and the desk are imaged. Further, in FIG. 7B, the target area is imaged with the hand protruding forward compared to FIG. 7A. In FIG. 7B, the hand is positioned at a distance closer to the distance detectable range of the information acquisition device 2, and therefore, the dot pattern is irradiated to the hand with a much stronger light amount than the reference image. . In FIGS. 7A and 7B, the background portion of the person such as the ceiling does not exist within the range where the distance can be detected. Therefore, the dots irradiated to these portions are actually measured. It is not reflected in the image.

図7(c)に示す距離画像を参照すると、人物の胴体の階調値よりも、手の方がやや黒に近い階調値になっており、手が人物よりも近距離にあることが適正に検出できていることがわかる。また、机、およびやや遠方にある物体についても、適正に距離が得られていることがわかる。   Referring to the distance image shown in FIG. 7C, the hand has a gradation value slightly closer to black than the gradation value of the human torso, and the hand is closer to the person than the person. It turns out that it can detect appropriately. In addition, it can be seen that the distance is appropriately obtained for a desk and an object at a distance.

他方、ドットが撮像されない天井等の背景部分については、黒とそれ以外の階調値が混在しており、エラーの他、種々の距離値が取得されていることがわかる。また、図7(d
)の手の領域についても、同様に、黒とそれ以外の階調値が混在しており、エラーの他、種々の距離値が取得されていることがわかる。
On the other hand, for background parts such as the ceiling where dots are not imaged, black and other gradation values are mixed, and it can be seen that various distance values are acquired in addition to errors. Further, FIG.
Similarly, in the hand area of (), black and other gradation values are mixed, and it can be seen that various distance values are acquired in addition to errors.

このように、比較例では、ドットが撮像されていない領域や、ドットが適正に検出され得ないような領域においても、一律にエラーとはならず、種々の距離値が混在している。すなわち、ドットが適正に検出できないような領域においても、値Rsadの分布が、図6(c)のエラー条件に合致しない確率がある程度高いことがわかる。このような現象は、図6(c)のエラー判定指標の他、図6(a)、(b)のエラー判定指標のように、閾値が一つのみ設定されている場合には、同様に起こり得る。なお、物体にドットが適正に照射されている領域であっても、物体の反射率や、形状等の違いによって、図6(a)〜図6(c)のエラー条件に合致することも考えられ得る。   Thus, in the comparative example, even in a region where dots are not imaged or a region where dots cannot be detected properly, errors do not occur uniformly, and various distance values are mixed. That is, it can be seen that even in a region where dots cannot be detected properly, the probability that the distribution of the value Rsad does not meet the error condition of FIG. Such a phenomenon is similarly caused when only one threshold is set as in the error determination index in FIGS. 6A and 6B in addition to the error determination index in FIG. Can happen. Note that even in a region where dots are appropriately irradiated on the object, it may be possible to meet the error conditions of FIGS. 6A to 6C due to differences in the reflectance and shape of the object. Can be.

このようにエラーが連続すべき領域や、物体が存在する領域に、不正確な距離情報や、エラーが混在すると、たとえば、図7(c)の天井の部分に何らかの物体があると誤認識され、あるいは、人物の手の位置が検出できなくなる等、物体の検出処理に悪影響を及ぼす惧れがある。   If inaccurate distance information or errors are mixed in a region where an error should continue or a region where an object exists in this way, for example, it is erroneously recognized that there is an object on the ceiling portion in FIG. Alternatively, there is a possibility that the object detection process may be adversely affected, such as the position of a person's hand being unable to be detected.

そこで、本実施の形態では、上記のエラー判定指標について、単一の閾値ではなく、複数の閾値を設けて、セグメント領域の探索位置が適正であるか否かをより細やかに判定するよう構成されている。   Therefore, the present embodiment is configured to provide a plurality of threshold values instead of a single threshold value for the above error determination index, and more precisely determine whether or not the search position of the segment area is appropriate. ing.

図8(a)〜図8(c)は、それぞれ、複数の閾値を設けたエラー判定指標を用いる例を示す図である。なお、図8(a)〜図8(c)のグラフ(値Rsadの分布例)は、図6(a)〜図6(c)と同様である。図8(a)〜図8(c)には、それぞれ、異なるエラー判定指標が示されている。   FIG. 8A to FIG. 8C are diagrams each illustrating an example using an error determination index provided with a plurality of threshold values. 8A to 8C (distribution example of the value Rsad) are the same as those in FIGS. 6A to 6C. FIGS. 8A to 8C show different error determination indexes.

図8(a)〜図8(c)のエラー判定指標では、それぞれ、2つの閾値Ta1、Ta2、閾値Tα1、Tα2、および閾値Tβ1、Tβ2が用いられる。閾値Ta1は、図6(a)の閾値Taよりも大きく、閾値Ta2は、図6(a)の閾値Taよりも小さい。また、閾値Tα1は、図6(b)の閾値Tαよりも小さく、閾値Tα2は、図6(b)の閾値Tαよりも大きい。さらに、また、閾値Tβ1は、図6(c)の閾値Tβよりも小さく、閾値Tβ2は、図6(b)の閾値Tβよりも大きい。   In the error determination indexes of FIGS. 8A to 8C, two threshold values Ta1, Ta2, threshold values Tα1, Tα2, and threshold values Tβ1, Tβ2 are used, respectively. The threshold Ta1 is larger than the threshold Ta in FIG. 6A, and the threshold Ta2 is smaller than the threshold Ta in FIG. The threshold value Tα1 is smaller than the threshold value Tα in FIG. 6B, and the threshold value Tα2 is larger than the threshold value Tα in FIG. Furthermore, the threshold Tβ1 is smaller than the threshold Tβ in FIG. 6C, and the threshold Tβ2 is larger than the threshold Tβ in FIG.

図8(a)のエラー判定指標では、最小値Bt1が閾値Ta1以上である場合、そのセグメント領域の探索はエラーとされる。また、最小値Bt1が閾値Ta1未満であって、閾値Ta2以上である場合、最小値Bt1に対応する位置は、変位位置として不確かであるとされる。以下、このような変位位置を「曖昧な変位位置」という。さらに、最小値Bt1が閾値Ta2未満である場合、最小値Bt1に対応する位置は、適正な変位位置であると判定される。   In the error determination index of FIG. 8A, when the minimum value Bt1 is equal to or greater than the threshold value Ta1, the search for the segment area is regarded as an error. When the minimum value Bt1 is less than the threshold value Ta1 and is equal to or greater than the threshold value Ta2, the position corresponding to the minimum value Bt1 is considered uncertain as the displacement position. Hereinafter, such a displacement position is referred to as an “ambiguous displacement position”. Furthermore, when the minimum value Bt1 is less than the threshold value Ta2, it is determined that the position corresponding to the minimum value Bt1 is an appropriate displacement position.

また、図8(b)の場合、2番目に小さい値Bt2と最小値Bt1の比(Bt2/Bt1)が所定の閾値Tα1未満である場合、そのセグメント領域の探索はエラーと判定される。また、2番目に小さい値Bt2と最小値Bt1の比が所定の閾値Tα1以上であって、所定の閾値Tα2未満である場合、最小値Bt1に対応する位置は曖昧な変位位置であるとされる。さらに、2番目に小さい値Bt2と最小値Bt1の比が所定の閾値Tα2以上である場合、最小値Bt1に対応する位置は適正な変位位置であると判定される。   In the case of FIG. 8B, when the ratio (Bt2 / Bt1) between the second smallest value Bt2 and the minimum value Bt1 is less than a predetermined threshold value Tα1, the search for the segment area is determined to be an error. Further, when the ratio between the second smallest value Bt2 and the minimum value Bt1 is equal to or greater than the predetermined threshold value Tα1 and less than the predetermined threshold value Tα2, the position corresponding to the minimum value Bt1 is an ambiguous displacement position. . Further, when the ratio between the second smallest value Bt2 and the minimum value Bt1 is equal to or greater than a predetermined threshold value Tα2, it is determined that the position corresponding to the minimum value Bt1 is an appropriate displacement position.

さらに、図8(c)の場合、平均値Avと最小値Bt1の比(Av/Bt1)が所定の閾値Tβ1未満である場合、そのセグメント領域の探索はエラーと判定される。また、平均値Avと最小値Bt1の比が所定の閾値Tβ1以上であって、所定の閾値Tβ2未満で
ある場合、最小値Bt1の位置は曖昧な変位位置であるとされる。平均値Avと最小値Bt1の比が所定の閾値Tβ2以上である場合、最小値Bt1に対応する位置は適正な変位位置とされる。
Further, in the case of FIG. 8C, if the ratio (Av / Bt1) between the average value Av and the minimum value Bt1 is less than a predetermined threshold value Tβ1, the search for the segment area is determined to be an error. Further, when the ratio between the average value Av and the minimum value Bt1 is equal to or greater than the predetermined threshold value Tβ1 and less than the predetermined threshold value Tβ2, the position of the minimum value Bt1 is regarded as an ambiguous displacement position. When the ratio between the average value Av and the minimum value Bt1 is equal to or greater than a predetermined threshold value Tβ2, the position corresponding to the minimum value Bt1 is an appropriate displacement position.

このように、複数の閾値によって、エラー判定を行うことにより、セグメント領域の探索結果は、適正な変位位置、エラー、曖昧な変位位置の3つに分類される。このように分類することによって、曖昧な変位位置を、適正な変位位置として扱うべきか、エラーとするべきかを判定するための種々の処理を適用することができ、これにより、距離情報の適正化を図ることができる。   As described above, by performing error determination based on a plurality of threshold values, the segment area search results are classified into three, that is, an appropriate displacement position, an error, and an ambiguous displacement position. By classifying in this way, it is possible to apply various processes for determining whether an ambiguous displacement position should be treated as an appropriate displacement position or an error. Can be achieved.

以下、曖昧な変位位置と判定された探索に対し適用される処理の具体例について説明する。   Hereinafter, a specific example of processing applied to a search determined to be an ambiguous displacement position will be described.

<実施例1>
本実施例1は、請求項3、4に記載の構成の一例である。実施例1において参照する図9中、S103、S105は、請求項3が従属する請求項1に記載の第1の判定指標の一例であり、また、S107は、請求項3に記載の第2の判定指標の一例である。
<Example 1>
The first embodiment is an example of a configuration described in claims 3 and 4. In FIG. 9 referred to in the first embodiment, S103 and S105 are examples of the first determination index according to claim 1 to which claim 3 is dependent, and S107 is the second determination index according to claim 3. This is an example of the determination index.

実施例1では、まず、図8(c)に示す第1のエラー判定指標に基づいて、セグメント領域の探索結果が、適正な変位位置、エラー、曖昧な変位位置に分類される。そして、この探索結果が曖昧な変位位置である場合に、さらに、図6(a)の第2のエラー判定指標が適用され、セグメント領域に対する変位位置の探索結果が確定される。   In the first embodiment, first, based on the first error determination index shown in FIG. 8C, the segment area search results are classified into appropriate displacement positions, errors, and ambiguous displacement positions. When the search result is an ambiguous displacement position, the second error determination index of FIG. 6A is further applied to determine the displacement position search result for the segment area.

図9は、実施例1に係る処理を示すフローチャートである。この処理は、図2のCPU21の距離取得部21bの機能によって行われる。   FIG. 9 is a flowchart illustrating the process according to the first embodiment. This process is performed by the function of the distance acquisition unit 21b of the CPU 21 in FIG.

図9を参照して、CPU21は、まず、所定のセグメント領域について、探索が完了し、値Rsadの取得が完了したか否かを判定する(S101)。値Rsadの取得が完了していない場合(S101:NO)、CPU21は、シャットダウンが行われない限り(S102:NO)、処理をS101に戻し、値Rsadの取得が完了するまで処理を待機する。   Referring to FIG. 9, CPU 21 first determines whether or not the search for a predetermined segment area is completed and acquisition of value Rsad is completed (S101). When the acquisition of the value Rsad has not been completed (S101: NO), the CPU 21 returns the process to S101 unless the shutdown is performed (S102: NO), and waits for the process until the acquisition of the value Rsad is completed.

所定のセグメント領域について、値Rsadの取得が完了すると(S101:YES)、CPU21は、平均値Avと最小値Bt1の比(Av/Bt1)が所定の閾値Tβ2以上であるか否かを判定する(S103)。平均値Avと最小値Bt1の比が所定の閾値Tβ2以上である場合(S103:YES)、CPU21は、最小値Bt1に対応する位置を適正な変位位置と判定し、最小値Bt1の画素ずれ量に応じた距離情報をバッファメモリ26に出力する(S104)。   When the acquisition of the value Rsad is completed for the predetermined segment area (S101: YES), the CPU 21 determines whether the ratio (Av / Bt1) between the average value Av and the minimum value Bt1 is equal to or greater than a predetermined threshold Tβ2. (S103). When the ratio between the average value Av and the minimum value Bt1 is equal to or greater than the predetermined threshold Tβ2 (S103: YES), the CPU 21 determines that the position corresponding to the minimum value Bt1 is an appropriate displacement position, and the pixel shift amount of the minimum value Bt1. Is output to the buffer memory 26 (S104).

平均値Avと最小値Bt1の比が所定の閾値Tβ2未満である場合(S103:NO)、CPU21は、平均値Avと最小値Bt1の比が所定の閾値Tβ1以上であるか否かを判定する(S105)。平均値Avと最小値Bt1の比が所定の閾値Tβ1未満である場合(S105:NO)、CPU21は、セグメント領域の探索をエラーと判定し、エラー値を示す距離情報をバッファメモリ26に出力する(S106)。エラー値は、たとえば、正常な距離情報と区別可能な値0が用いられる。   When the ratio between the average value Av and the minimum value Bt1 is less than the predetermined threshold value Tβ2 (S103: NO), the CPU 21 determines whether or not the ratio between the average value Av and the minimum value Bt1 is equal to or greater than the predetermined threshold value Tβ1. (S105). When the ratio between the average value Av and the minimum value Bt1 is less than the predetermined threshold Tβ1 (S105: NO), the CPU 21 determines that the segment area search is an error, and outputs distance information indicating the error value to the buffer memory 26. (S106). As the error value, for example, a value 0 that can be distinguished from normal distance information is used.

平均値Avと最小値Bt1の比が所定の閾値Tβ2未満であって(S103:NO)、所定の閾値Tβ1以上である場合(S105:YES)、CPU21は、第2のエラー判定指標を適用し、最小値Bt1が所定の閾値Ta未満であるか否かを判定する(S107)。   When the ratio between the average value Av and the minimum value Bt1 is less than the predetermined threshold Tβ2 (S103: NO) and is equal to or higher than the predetermined threshold Tβ1 (S105: YES), the CPU 21 applies the second error determination index. Then, it is determined whether or not the minimum value Bt1 is less than a predetermined threshold Ta (S107).

最小値Bt1が所定の閾値Ta未満である場合(S107:YES)、CPU21は、最小値Bt1に対応する位置を適正な変位位置と判定し、最小値Bt1の画素ずれ量に応じた距離情報をバッファメモリ26に出力する(S104)。他方、最小値Bt1が所定の閾値Ta以上である場合(S107:NO)、CPU21は、セグメント領域の探索をエラーと判定し、エラー値を示す距離情報をバッファメモリ26に出力する(S106)。   When the minimum value Bt1 is less than the predetermined threshold Ta (S107: YES), the CPU 21 determines that the position corresponding to the minimum value Bt1 is an appropriate displacement position, and provides distance information corresponding to the pixel shift amount of the minimum value Bt1. The data is output to the buffer memory 26 (S104). On the other hand, when the minimum value Bt1 is greater than or equal to the predetermined threshold Ta (S107: NO), the CPU 21 determines that the segment area search is an error, and outputs distance information indicating the error value to the buffer memory 26 (S106).

こうして、当該セグメント領域に対する処理が終了すると、CPU21は、処理をS101に戻し、次のセグメント領域について距離情報の取得処理を実行する。そして、CPU21は、参照パターン領域に設定された全てのセグメント領域について、第1のエラー判定指標と第2のエラー判定指標に基づく処理を実行する。   Thus, when the process for the segment area is completed, the CPU 21 returns the process to S101, and executes the distance information acquisition process for the next segment area. And CPU21 performs the process based on the 1st error determination parameter | index and the 2nd error determination parameter | index about all the segment area | regions set to the reference pattern area | region.

図10(a)は、第1のエラー判定指標による分類を模式的に示す図、図10(b)は、第2のエラー判定指標による分類を模式的に示す図である。なお、図10(a)、図10(b)は、図6(c)、図8(c)と同じ値Rsadの分布例を示すグラフである。   FIG. 10A is a diagram schematically illustrating classification based on the first error determination index, and FIG. 10B is a diagram schematically illustrating classification based on the second error determination index. 10A and 10B are graphs showing distribution examples of the same value Rsad as in FIGS. 6C and 8C.

図10(a)を参照して、第1のエラー判定指標では、たとえば、最小値Bt1が300、閾値Tβ1が2.5、閾値Tβ2が3.5の場合、平均値Avが、Tc1(750)以上であって、Tc2(1050)未満の場合に、最小値Bt1に対応する位置が曖昧な変位位置となる。たとえば、平均値Avが1000の場合、図9のS103およびS105の判定が、それぞれ、“NO”および“YES”となり、最小値Bt1に対応する位置が曖昧な変位位置と判定される。   Referring to FIG. 10A, in the first error determination index, for example, when minimum value Bt1 is 300, threshold value Tβ1 is 2.5, and threshold value Tβ2 is 3.5, average value Av is Tc1 (750). ) Or more, and when it is less than Tc2 (1050), the position corresponding to the minimum value Bt1 is an ambiguous displacement position. For example, when the average value Av is 1000, the determinations in S103 and S105 in FIG. 9 are “NO” and “YES”, respectively, and the position corresponding to the minimum value Bt1 is determined as an ambiguous displacement position.

こうして最小値Bt1に対応する位置が曖昧な変位位置と判定されると、図10(b)に示すように、さらに第2のエラー判定指標を用いて、最小値Bt1に対する判定が行われる。たとえば、閾値Taが600である場合、最小値Bt1は、略300であるため、図9のS107においてYESと判定され、最小値Bt1に対応する位置が適正な変位位置と判定される。   When it is determined that the position corresponding to the minimum value Bt1 is an ambiguous displacement position, the determination for the minimum value Bt1 is further performed using the second error determination index as shown in FIG. For example, when the threshold value Ta is 600, the minimum value Bt1 is approximately 300. Therefore, YES is determined in S107 of FIG. 9, and the position corresponding to the minimum value Bt1 is determined as an appropriate displacement position.

このように、複数の閾値を用いた第1のエラー判定指標により曖昧な変位位置と判定された領域について、さらに、第2のエラー判定指標を適用することにより、判定の適正化が図られる。これにより、図7(c)、図7(d)に示した距離画像において、エラーとされるべき領域に不確かな距離値が含まれ、あるいは、物体が存在する領域にエラー値(0)が含まれることが、抑制され得る。   As described above, by applying the second error determination index to the area determined as the ambiguous displacement position by the first error determination index using a plurality of thresholds, the determination can be optimized. Accordingly, in the distance images shown in FIGS. 7C and 7D, an uncertain distance value is included in the area to be an error, or an error value (0) is present in the area where the object exists. Inclusion can be suppressed.

なお、本実施例では、第1のエラー判定指標として図8(c)のエラー判定指標が適用され、第2のエラー判定指標として図6(a)のエラー判定指標が適用されたが、たとえば、第1のエラー判定指標を図8(b)のエラー判定指標に置き換える等、他のエラー判定指標の組合せが用いられても良い。ただし、図8(a)のエラー判定指標と図6(a)のエラー判定指標は、単に、閾値の数が異なるだけであり、判定指標の基本的原理は同じであるので、これらエラー判定指標の組合せは好ましいものとは言えない。すなわち、第1のエラー判定指標と第2のエラー判定指標として、異なる原理のエラー判定指標を組み合わせるのが望ましい。   In the present embodiment, the error determination index of FIG. 8C is applied as the first error determination index, and the error determination index of FIG. 6A is applied as the second error determination index. A combination of other error determination indices may be used, such as replacing the first error determination index with the error determination index of FIG. However, the error determination index in FIG. 8A and the error determination index in FIG. 6A are merely different in the number of thresholds, and the basic principle of the determination index is the same. This combination is not preferable. That is, it is desirable to combine error determination indexes of different principles as the first error determination index and the second error determination index.

<実施例1の効果>
上記実施例1によれば、以下の効果が奏され得る。
<Effect of Example 1>
According to the first embodiment, the following effects can be achieved.

複数の閾値を用いた第1のエラー判定指標により、エラー判定を行い、曖昧な変位位置とされた領域について、第2のエラー判定指標により、さらにエラー判定を行うことによ
り、適正な距離情報を取得することができる。これにより、物体の検出精度を高めることができる。
Error determination is performed with the first error determination index using a plurality of threshold values, and appropriate distance information is obtained by further performing error determination with the second error determination index for the area that is an ambiguous displacement position. Can be acquired. Thereby, the detection accuracy of an object can be improved.

また、値Rsadの演算結果のエラー判定指標を切り替えるだけで、曖昧な変位位置を別の指標で評価することができるため、演算量の増加を抑えつつ、適正な距離情報を取得することができる。   In addition, since it is possible to evaluate the ambiguous displacement position with another index simply by switching the error determination index of the calculation result of the value Rsad, it is possible to acquire appropriate distance information while suppressing an increase in the amount of calculation. .

<実施例2>
本実施例2は、請求項5ないし10に記載の構成の一例である。実施例2において参照する図11中、S103、S105は、請求項5が従属する請求項1に記載の第1の判定指標の一例であり、また、図13および図14は、請求項5に記載の第2の判定指標の一例である。
<Example 2>
The second embodiment is an example of a configuration according to claims 5 to 10. In FIG. 11 referred to in the second embodiment, S103 and S105 are examples of the first determination index according to claim 1 to which claim 5 is dependent, and FIG. 13 and FIG. It is an example of the 2nd determination parameter | index of description.

上記実施例1では、複数の閾値を用いたエラー判定指標によって、最小値Bt1に対応する位置の属性を分類し、分類が“曖昧な変位位置”である場合に、当該分類を他のエラー判定指標で評価したが、実施例2では、対象とされるセグメント領域の周囲のセグメント領域に適用された分類に基づいて、対象とされるセグメント領域に対する分類が補正される。   In the first embodiment, the attribute of the position corresponding to the minimum value Bt1 is classified by the error determination index using a plurality of threshold values, and when the classification is “ambiguous displacement position”, the classification is determined as another error determination. Although evaluated by the index, in the second embodiment, the classification for the target segment area is corrected based on the classification applied to the segment areas around the target segment area.

図11は、実施例2の処理を示すフローチャートである。この処理は、図2のCPU21の距離取得部21bの機能によって行われる。なお、図11は、図9と同様の処理については、同じ番号が付与されており、詳細な説明は省略する。   FIG. 11 is a flowchart illustrating the processing of the second embodiment. This process is performed by the function of the distance acquisition unit 21b of the CPU 21 in FIG. In FIG. 11, the same processes as those in FIG. 9 are given the same numbers, and detailed descriptions thereof are omitted.

図11を参照して、実施例1と同様に、図8(c)に示す複数の閾値を用いたエラー判定指標により、探索結果が、適正な変位位置と、曖昧な変位位置と、エラーに分類される。平均値Avと最小値Bt1の比が所定の閾値Tβ2以上であれば(S103:YES)、上記実施例1と同様、S104において、最小値Bt1に基づいて取得された距離情報がバッファメモリ26に出力される。また、平均値Avと最小値Bt1の比が所定の閾値Tβ1未満であれば(S105:NO)、上記実施例1と同様、S106において、距離情報としてエラー値がバッファメモリ26に出力される。   Referring to FIG. 11, in the same manner as in the first embodiment, the error determination index using a plurality of thresholds shown in FIG. 8C indicates that the search result is an appropriate displacement position, an ambiguous displacement position, and an error. being classified. If the ratio of the average value Av to the minimum value Bt1 is equal to or greater than the predetermined threshold value Tβ2 (S103: YES), the distance information acquired based on the minimum value Bt1 is stored in the buffer memory 26 in S104 as in the first embodiment. Is output. If the ratio between the average value Av and the minimum value Bt1 is less than the predetermined threshold Tβ1 (S105: NO), an error value is output to the buffer memory 26 as distance information in S106, as in the first embodiment.

さらに、本実施例2では、平均値Avと最小値Bt1の比が所定の閾値Tβ2未満であって(S103:NO)、所定の閾値Tβ1以上である場合(S105:YES)、CPU21は、最小値Bt1に基づいて取得された距離情報を、バッファメモリ26に出力する(S108)。   Furthermore, in the second embodiment, when the ratio between the average value Av and the minimum value Bt1 is less than the predetermined threshold Tβ2 (S103: NO) and is equal to or higher than the predetermined threshold Tβ1 (S105: YES), the CPU 21 The distance information acquired based on the value Bt1 is output to the buffer memory 26 (S108).

加えて、本実施例2では、バッファメモリ26に出力された各距離情報の分類が、バッファメモリ26に保持される。ここで、距離情報の分類は、当該距離情報が、“適正な変位位置”、“曖昧な変位位置”および“エラー”の何れに基づいて取得されたものであるかを示すものである。なお、本実施例2では、“適正な変位位置”、“曖昧な変位位置”および“エラー”に基づく距離情報の値を、それぞれ、“正常値”、“曖昧値”および“エラー値”と称する。   In addition, in the second embodiment, the classification of each distance information output to the buffer memory 26 is held in the buffer memory 26. Here, the classification of the distance information indicates whether the distance information is acquired based on “appropriate displacement position”, “ambiguous displacement position”, or “error”. In the second embodiment, the distance information values based on “proper displacement position”, “ambiguous displacement position”, and “error” are respectively “normal value”, “ambiguity value”, and “error value”. Called.

本実施例2において、バッファメモリ26には、距離情報を保持する領域(ラインメモリ)と、各距離情報の分類を示すフラグを保持する領域が準備されている。CPU21は、S104、S106およびS108において、距離情報をバッファメモリ26の対応する領域に書き込むとともに、当該距離情報の分類を示すフラグをバッファメモリ26の対応する領域に書き込む。   In the second embodiment, the buffer memory 26 is provided with an area for holding distance information (line memory) and an area for holding a flag indicating the classification of each distance information. In S104, S106, and S108, the CPU 21 writes the distance information in the corresponding area of the buffer memory 26 and writes a flag indicating the classification of the distance information in the corresponding area of the buffer memory 26.

このようにして、複数の閾値を用いたエラー判定指標により、正常値、曖昧値、エラー
値に分類されて、距離情報の値がバッファメモリ26に格納される。
In this way, the error information is classified into a normal value, an ambiguous value, and an error value according to an error determination index using a plurality of threshold values, and the value of the distance information is stored in the buffer memory 26.

図7(c)、図7(d)に示す比較例の検証結果では、ドットパターンが撮像されていない天井等の領域に、エラー値の他に、種々の距離値が混在している。これらの距離値は、図6(c)のエラー判定指標において、最小値Bt1と平均値Avの比が閾値Tβと同じかこれをやや超えるために、取得されたものと考えられる。これに対し、図11の処理フローでは、最小値Bt1と平均値Avの比が閾値Tβをやや超えるような場合には、S105における判定がYESとなるため、このような距離値の多くは、曖昧値と判定されるものと想定される。   In the verification results of the comparative example shown in FIGS. 7C and 7D, various distance values are mixed in addition to error values in a region such as a ceiling where the dot pattern is not imaged. These distance values are considered to have been acquired because the ratio between the minimum value Bt1 and the average value Av is the same as or slightly exceeds the threshold value Tβ in the error determination index of FIG. On the other hand, in the processing flow of FIG. 11, when the ratio between the minimum value Bt1 and the average value Av slightly exceeds the threshold value Tβ, the determination in S105 is YES, so many of such distance values are It is assumed to be determined as an ambiguous value.

また、上述したように、人物等、物体が存在する領域においても、値Rsadの精度が低下するようなセグメント領域については、取得された距離情報が曖昧値と判定されることも起こり得る。   Further, as described above, even in a region where an object such as a person is present, the obtained distance information may be determined to be an ambiguous value for a segment region where the accuracy of the value Rsad is lowered.

図12は、距離画像において、曖昧値が生じる傾向を模式的に示す図である。図12には、3つの物体が存在する目標領域にドットパターンが照射されたときの距離画像が示されている。   FIG. 12 is a diagram schematically illustrating a tendency that an ambiguous value is generated in a distance image. FIG. 12 shows a distance image when a dot pattern is irradiated onto a target area where three objects are present.

図12を参照して、この例では、3つの物体について正常値が取得され、その他の領域については、エラー値が取得されている。また、3つの物体に対応する領域と、その他の領域には、それぞれ、曖昧値が含まれている。図7(c)、図7(d)の比較例の検証結果から、曖昧値の出現頻度は、周囲がエラー値であるところが高く、周囲が正常値であるところは低くなることが想定される。また、エラー値が周囲にある場合、曖昧値はエラー値である可能性が高く、正常値が周囲にある場合、曖昧値は正常値である可能性が高いことが想定される。   Referring to FIG. 12, in this example, normal values are acquired for three objects, and error values are acquired for other regions. Further, an ambiguous value is included in each of the regions corresponding to the three objects and the other regions. From the verification results of the comparative examples of FIGS. 7C and 7D, it is assumed that the appearance frequency of the ambiguous value is high when the surrounding is an error value and low when the surrounding is a normal value. . Further, when the error value is in the surrounding area, the ambiguous value is likely to be an error value, and when the normal value is in the surrounding area, the ambiguous value is likely to be a normal value.

そこで、実施例2では、上記傾向に基づき、曖昧値の周囲がエラー値に囲まれている場合には、曖昧値をエラー値に補正し、曖昧値の周囲が正常値に囲まれている場合には、曖昧値を正常値に補正する。また、曖昧値の周囲が正常値とエラー値に同程度に囲まれている場合には、物体と背景の境界、または、物体内である可能性があるため、曖昧値を正常値に補正する。   Therefore, in the second embodiment, based on the above tendency, when an ambiguous value is surrounded by an error value, the ambiguous value is corrected to an error value, and the ambiguous value is surrounded by a normal value. The ambiguous value is corrected to a normal value. Also, if the area around the ambiguous value is surrounded by the normal value and the error value to the same extent, it may be within the boundary between the object and the background or within the object, so the ambiguous value is corrected to the normal value. .

図13、図14は、周囲のエラー判定結果に基づいて、曖昧値を補正する処理を示すフローチャートである。この処理は、図2のCPU21の距離取得部21bの機能によって行われる。   FIG. 13 and FIG. 14 are flowcharts showing processing for correcting an ambiguity value based on surrounding error determination results. This process is performed by the function of the distance acquisition unit 21b of the CPU 21 in FIG.

図13を参照して、CPU21は、まず、バッファメモリ26に出力された値のバッファメモリ26上の位置を示す変数kに1をセットする(S201)。そして、CPU21は、バッファメモリ26に値が出力されたか否かを判定する(S202)。バッファメモリ26に値が出力されていない場合(S202:NO)、CPU21は、シャットダウンが行われない限り(S203:NO)、処理をS202に戻し、バッファメモリ26に値が出力されるまで処理を待機する。   Referring to FIG. 13, the CPU 21 first sets 1 to a variable k indicating the position on the buffer memory 26 of the value output to the buffer memory 26 (S201). Then, the CPU 21 determines whether or not a value is output to the buffer memory 26 (S202). When the value is not output to the buffer memory 26 (S202: NO), the CPU 21 returns the process to S202 unless the shutdown is performed (S203: NO), and performs the process until the value is output to the buffer memory 26. stand by.

図11のフローにおいて、所定のセグメント領域についてのエラー判定結果が完了し、バッファメモリ26に値が出力されると(S202:YES)、CPU21は、バッファメモリ26のk番目の格納位置に書き込まれた値が曖昧値であるか否かを判定する(S204)。k番目の値が曖昧値でない場合(S204:NO)、CPU21は、変数kが1ラインの末尾を示す変数eであるか否かを判定する(S205)。変数eは、図4(a)に示すセグメント領域のX軸方向の数、すなわち、X軸方向の距離情報の数である。eには、たとえば、640が設定される。   In the flow of FIG. 11, when the error determination result for the predetermined segment area is completed and a value is output to the buffer memory 26 (S202: YES), the CPU 21 is written in the kth storage location of the buffer memory 26. It is determined whether the obtained value is an ambiguous value (S204). When the k-th value is not an ambiguous value (S204: NO), the CPU 21 determines whether or not the variable k is a variable e indicating the end of one line (S205). The variable e is the number of segment areas shown in FIG. 4A in the X-axis direction, that is, the number of distance information in the X-axis direction. For example, 640 is set in e.

変数kが1ラインの末尾でない場合(S205:NO)、CPU21は、変数kに1を加算し(S206)、処理をS202に戻す。これにより、変数kが1ラインの最終位置になるまで、S202〜S206の処理が繰り返され、各格納位置に書き込まれた値が曖昧値であるか否かが判定される。変数kが1ラインの最終位置(k=e)となった場合(S205:YES)、CPU21は、処理をS201に戻し、変数kを1にセットしてから、再度、バッファメモリ26の値を補正する。なお、バッファメモリ26には、1ライン分の値(例えば640個の値)が蓄積され、補正の処理が完了したタイミングで1ライン分の値が情報処理装置3に出力される。その後、次のラインのセグメント領域に対する距離情報の値が、再度、バッファメモリ26の先頭(k=1)から上書きされる。   When the variable k is not the end of one line (S205: NO), the CPU 21 adds 1 to the variable k (S206), and returns the process to S202. As a result, the processes of S202 to S206 are repeated until the variable k reaches the final position of one line, and it is determined whether or not the value written in each storage position is an ambiguous value. When the variable k reaches the final position of one line (k = e) (S205: YES), the CPU 21 returns the process to S201, sets the variable k to 1, and then sets the value of the buffer memory 26 again. to correct. The buffer memory 26 stores values for one line (for example, 640 values), and outputs values for one line to the information processing device 3 at the timing when the correction process is completed. Thereafter, the distance information value for the segment area of the next line is overwritten again from the head (k = 1) of the buffer memory 26.

バッファメモリ26に出力されたk番目の値が曖昧値であった場合(S204:YES)、CPU21は、kが1であるか否かを判定する(S211)。これにより、曖昧値の格納位置がバッファメモリ26の1番目であるか否かが判定される。当該曖昧値の格納位置がバッファメモリ26の1番目であった場合(S211:YES)、CPU21は、k番目(k=1)の曖昧値をエラー値に補正する(S212)。具体的には、バッファメモリ26の1番目に格納された距離値を0に置き換える。このとき同時に、1番目に格納された値の分類が、曖昧値からエラー値に変更される。   If the kth value output to the buffer memory 26 is an ambiguous value (S204: YES), the CPU 21 determines whether k is 1 (S211). Thereby, it is determined whether or not the storage position of the ambiguous value is the first in the buffer memory 26. When the storage position of the ambiguous value is the first in the buffer memory 26 (S211: YES), the CPU 21 corrects the kth (k = 1) ambiguous value to an error value (S212). Specifically, the first distance value stored in the buffer memory 26 is replaced with 0. At the same time, the classification of the first stored value is changed from an ambiguous value to an error value.

図15(a)〜図15(i)は、曖昧値の補正前後のバッファメモリ26に格納されている値の分類を概念的に示す模式図である。なお、図15(a)〜図15(g)のバッファメモリ26には、先頭から末尾まで1〜640の数字が添えられている。これらの数字が、図13、図14のフローチャートの変数kに相当する。   FIG. 15A to FIG. 15I are schematic diagrams conceptually showing the classification of values stored in the buffer memory 26 before and after ambiguous value correction. Note that the numbers 1 to 640 are attached to the buffer memory 26 in FIGS. 15A to 15G from the beginning to the end. These numbers correspond to the variable k in the flowcharts of FIGS.

図15(a)を参照して、バッファメモリ26の先頭(k=1)に曖昧値が出力された場合、適正に周囲のエラー判定結果から曖昧値を評価することができないため、曖昧値をエラー値に補正する。このような端の領域は、照射されるドットパターンの光量が小さくなり易いため、エラー値となり易い。また、通常、このような端の領域に、人物等の検出対象物体が位置付けられる可能性は低いため、このような端の領域に曖昧値が出力された場合は、曖昧値をエラー値に補正するのが望ましい。   Referring to FIG. 15A, when an ambiguous value is output at the head (k = 1) of the buffer memory 26, the ambiguous value cannot be properly evaluated from the surrounding error determination result. Correct the error value. Such an end region is likely to have an error value because the amount of light of the irradiated dot pattern tends to be small. In addition, since it is unlikely that a detection target object such as a person is positioned in such an end region, if an ambiguous value is output in such an end region, the ambiguous value is corrected to an error value. It is desirable to do.

図13に戻り、バッファメモリ26のk番目の格納位置に保持された値が曖昧値であって(S204:YES)、変数kが1でない場合(S211:NO)、CPU21は、変数kが変数eであるか否かを判定する(S214)。これにより、曖昧値の格納位置がバッファメモリ26の末尾であるか否かが判定される。変数kが変数eである場合(S214:YES)、CPU21は、バッファメモリ26のe番目の曖昧値をエラー値に補正する(S215)。   Returning to FIG. 13, when the value held at the kth storage position of the buffer memory 26 is an ambiguous value (S204: YES) and the variable k is not 1 (S211: NO), the CPU 21 determines that the variable k is a variable. It is determined whether it is e (S214). Thereby, it is determined whether or not the storage position of the ambiguous value is at the end of the buffer memory 26. When the variable k is the variable e (S214: YES), the CPU 21 corrects the e-th ambiguous value in the buffer memory 26 to an error value (S215).

たとえば、図15(b)、図15(c)に示すように、バッファメモリ26の末尾に曖昧値が格納された場合は、末尾から1つ前に格納された値が、正常値、エラー値のどちらであっても、エラー値に補正される。これは、バッファメモリ26の末尾に曖昧値が出力された場合は、1つ前の値に対するエラー判定結果からしか曖昧値を評価することができず、適正に周囲のエラー判定結果から曖昧値を評価することができないからである。また、このような端の領域は、バッファメモリ26の先頭(k=1)の場合と同様に、エラー値となり易いため、このような端の領域に出力された曖昧値は、エラー値に補正するのが望ましい。   For example, as shown in FIGS. 15B and 15C, when an ambiguous value is stored at the end of the buffer memory 26, the value stored immediately before the end is the normal value or error value. In either case, the error value is corrected. This is because, when an ambiguous value is output at the end of the buffer memory 26, the ambiguous value can be evaluated only from the error determination result for the previous value, and the ambiguous value is appropriately determined from the surrounding error determination result. This is because it cannot be evaluated. In addition, since such an end area is likely to be an error value as in the case of the top (k = 1) of the buffer memory 26, the ambiguous value output to such an end area is corrected to an error value. It is desirable to do.

図13に戻り、バッファメモリ26のk番目の格納位置に保持された値が曖昧値であって(S204:YES)、変数kが1より大きく、変数e未満の場合(S211:NO、S214:NO)、CPU21は、図14のS221に処理を進める。   Returning to FIG. 13, when the value held at the kth storage position of the buffer memory 26 is an ambiguous value (S204: YES) and the variable k is greater than 1 and less than the variable e (S211: NO, S214: NO), CPU21 advances a process to S221 of FIG.

図14を参照して、CPU21は、曖昧値が連続する数をカウントするための変数pに1をセットする(S221)。そして、CPU21は、バッファメモリ26のk+p番目の格納位置に値が出力されたか否かを判定する(S222)。k+p番目の格納位置に値が出力されていない場合(S222:NO)、CPU21は、シャットダウンが行われない限り(S223:NO)、処理をS222に戻し、k+p番目の格納位置に値が出力されるまで処理を待機する。たとえば、p=1の場合、処理対象の曖昧値の格納位置の次の格納位置に値が出力されるまで、処理が待機される。   Referring to FIG. 14, CPU 21 sets 1 to variable p for counting the number of consecutive ambiguous values (S221). Then, the CPU 21 determines whether or not a value has been output to the k + pth storage position of the buffer memory 26 (S222). When a value is not output to the k + pth storage location (S222: NO), the CPU 21 returns the process to S222 and outputs a value to the k + pth storage location unless shutdown is performed (S223: NO). Wait until processing is complete. For example, when p = 1, the process waits until a value is output to the storage position next to the storage position of the ambiguous value to be processed.

バッファメモリ26のk+p番目の格納位置に値が出力されると(S222:YES)、CPU21は、k+p番目の格納位置の値が曖昧値であるか否かを判定する(S224)。k+p番目の格納位置の値が曖昧値である場合(S224:YES)、CPU21は、k+pが1ラインの末尾を示す変数eに等しいか否かを判定する(S225)。   When a value is output to the k + pth storage location of the buffer memory 26 (S222: YES), the CPU 21 determines whether or not the value of the k + pth storage location is an ambiguous value (S224). When the value of the k + p-th storage position is an ambiguous value (S224: YES), the CPU 21 determines whether k + p is equal to a variable e indicating the end of one line (S225).

k+pが変数eに等しくない場合(S225:NO)、CPU21は、変数pに1を加算し(S226)、処理をS222に戻す。これにより、さらに次の格納位置に保持された値が曖昧値であるかが判定される(S224)。この格納位置に保持された値が曖昧値であれば(S224:YES)、再び、処理がS225に進められ、上記と同様の処理が行われる。こうして、曖昧値でない値が取得されるまで、参照対象の格納位置が一つずつ送られる。   When k + p is not equal to the variable e (S225: NO), the CPU 21 adds 1 to the variable p (S226), and returns the process to S222. Thereby, it is further determined whether or not the value held at the next storage position is an ambiguous value (S224). If the value held at this storage position is an ambiguous value (S224: YES), the process again proceeds to S225, and the same process as described above is performed. Thus, the storage location of the reference object is sent one by one until a value that is not an ambiguous value is acquired.

バッファメモリ26のk+p番目に出力された値が曖昧値でない場合(S224:NO)、CPU21は、最初に曖昧値が出力されたk番目の格納位置の1つ前(k−1番目)の格納位置の値がエラー値であるか否かを判定する(S231)。k−1番目の値がエラー値である場合(S231:YES)、CPU21は、曖昧値が連続しなくなったk+p番目の値がエラー値であるか否かを判定する(S232)。   When the k + p-th output value of the buffer memory 26 is not an ambiguous value (S224: NO), the CPU 21 stores the data immediately before the k-th storage position (k-1) from which the ambiguous value was output first. It is determined whether or not the position value is an error value (S231). When the k-1th value is an error value (S231: YES), the CPU 21 determines whether or not the k + pth value in which the ambiguous value is not continuous is an error value (S232).

k−1番目の値が正常値の場合(S231:NO)、CPU21は、k+p番目の値がエラー値と正常値の何れであるかにかかわらず、k番目〜k+p−1番目の曖昧値を、正常値に補正する(S233)。また、k−1番目の値がエラー値であって(S231:YES)、k+p番目の値が正常値の場合(S232:NO)も同様に、CPU21は、k番目〜k+p−1番目の曖昧値を、正常値に補正する(S233)。k−1番目の値がエラー値であって(S231:YES)、k+p番目の値もエラー値である場合(S232:YES)、CPU21は、k番目〜k+p−1番目の曖昧値を、エラー値に補正する(S234)。   When the k−1th value is a normal value (S231: NO), the CPU 21 determines the kth to k + p−1th ambiguous values regardless of whether the k + pth value is an error value or a normal value. Then, it is corrected to a normal value (S233). Similarly, when the k−1th value is an error value (S231: YES) and the k + pth value is a normal value (S232: NO), the CPU 21 similarly determines the kth to k + p−1th ambiguity. The value is corrected to a normal value (S233). When the k−1th value is an error value (S231: YES) and the k + pth value is also an error value (S232: YES), the CPU 21 sets the kth to k + p−1th ambiguous value as an error. The value is corrected (S234).

たとえば、図15(d)に示すように、1番目が正常値であって、2〜6番目が曖昧値、7番目が正常値の場合、2〜6番目の曖昧値は、正常値に補正される。また、図15(e)に示すように、1番目が正常値であって、2〜6番目が曖昧値、7番目がエラー値の場合、2〜6番目の曖昧値は、正常値に補正される。また、図15(f)に示すように、1番目がエラー値であって、2〜6番目が曖昧値、7番目が正常値の場合、2〜6番目の曖昧値は、正常値に補正される。さらに、図15(g)に示すように、1番目がエラー値であって、2〜6番目が曖昧値、7番目がエラー値の場合、2〜6番目の曖昧値は、エラー値に補正される。   For example, as shown in FIG. 15D, when the first is a normal value, the second to sixth are ambiguous values, and the seventh is a normal value, the second to sixth ambiguous values are corrected to normal values. Is done. Also, as shown in FIG. 15E, when the first is a normal value, the second to sixth are ambiguous values, and the seventh is an error value, the second to sixth ambiguous values are corrected to normal values. Is done. Further, as shown in FIG. 15F, when the first is an error value, the second to sixth are ambiguous values, and the seventh is a normal value, the second to sixth ambiguous values are corrected to normal values. Is done. Further, as shown in FIG. 15G, when the first is an error value, the second to sixth are ambiguous values, and the seventh is an error value, the second to sixth ambiguous values are corrected to error values. Is done.

なお、曖昧値がエラー値に補正される場合、上記のように、対応する格納位置に出力された距離値が0に置き換えられる。このとき、同時に、当該値の分類が、曖昧値からエラー値に変更される。また、曖昧値が正常値に補正される場合、対応する格納位置に出力された距離値は変更されず、当該距離値の分類が、曖昧値から正常値に補正される。   When the ambiguous value is corrected to the error value, the distance value output to the corresponding storage position is replaced with 0 as described above. At the same time, the classification of the value is changed from an ambiguous value to an error value. When the ambiguous value is corrected to the normal value, the distance value output to the corresponding storage position is not changed, and the classification of the distance value is corrected from the ambiguous value to the normal value.

このように、図14のS231〜S234の処理により、上記傾向にしたがって、前後がエラー値で挟まれた曖昧値は、エラー値に補正され、前後が正常値で挟まれた曖昧値と、前後が正常値とエラー値で挟まれた曖昧値は、正常値に補正される。   As described above, according to the processing of S231 to S234 in FIG. 14, the ambiguous value in which the front and rear are sandwiched by the error value is corrected to the error value according to the above tendency, and the ambiguous value in which the front and rear are sandwiched by the normal value The ambiguous value between the normal value and the error value is corrected to the normal value.

図14に戻り、S233またはS234の補正処理が完了すると、CPU21は、変数kに、曖昧値が連続しなくなるまでカウントアップした変数pと1を加算し(S235)、処理を図13のS202に戻す。そして、CPU21は、次の格納位置に出力された値に対する処理を行う。   Returning to FIG. 14, when the correction process of S233 or S234 is completed, the CPU 21 adds the variable p and 1 counted up until the ambiguity value is not continued to the variable k (S235), and the process proceeds to S202 of FIG. return. Then, the CPU 21 performs processing for the value output to the next storage position.

S222〜S225の処理により1ラインの末尾まで曖昧値が連続した場合、CPU21は、S241に処理を進める。すなわち、バッファメモリ26のk+p番目に出力された値が曖昧値であり(S224:YES)、k+pが1ラインの末尾を示す変数eである場合(S225:YES)、CPU21は、S215と同様に、e番目の曖昧値をエラー値に補正する(S241)。その後、CPU21は、k−1番目の値がエラー値であるか否かを判定する(S242)。k−1番目の値が正常値の場合(S242:NO)、CPU21は、k番目〜k+p−1番目の曖昧値を、正常値に補正する(S243)。k−1番目の値がエラー値の場合(S242:YES)、CPU21は、k番目〜k+p−1番目の曖昧値を、エラー値に補正する(S244)。このようにして、S231〜S234と同様の条件にしたがって、曖昧値が補正される。   When the ambiguous value continues to the end of one line by the processing of S222 to S225, the CPU 21 advances the processing to S241. That is, when the k + p-th output value of the buffer memory 26 is an ambiguous value (S224: YES) and k + p is a variable e indicating the end of one line (S225: YES), the CPU 21 performs the same as S215. The e-th ambiguous value is corrected to an error value (S241). Thereafter, the CPU 21 determines whether or not the (k−1) -th value is an error value (S242). When the k−1th value is a normal value (S242: NO), the CPU 21 corrects the kth to k + p−1th ambiguity value to a normal value (S243). When the k−1th value is an error value (S242: YES), the CPU 21 corrects the kth to k + p−1th ambiguity values to error values (S244). In this way, the ambiguous value is corrected according to the same conditions as in S231 to S234.

たとえば、図15(h)に示すように、631番目〜末尾まで曖昧値が連続し、630番目の値が正常値の場合、末尾(640番目)の曖昧値はエラー値に補正され、631〜639番目の曖昧値は正常値に補正される。また、図15(i)に示すように、631番目〜末尾まで曖昧値が連続し、630番目がエラー値の場合、631番目〜末尾(640番目)の曖昧値は、エラー値に補正される。   For example, as shown in FIG. 15 (h), when the ambiguous value continues from the 631st to the end and the 630th value is a normal value, the ambiguous value at the end (640th) is corrected to an error value. The 639th ambiguous value is corrected to a normal value. As shown in FIG. 15 (i), when the ambiguity value continues from the 631st to the end and the 630th is an error value, the ambiguity value from the 631st to the end (640th) is corrected to an error value. .

図14に戻り、S243またはS244の補正処理が完了すると、CPU21は、処理を図13のS201に戻す。そして、CPU21は、変数kを1に戻し(S201)、次の値がバッファメモリ26に出力されるまで、処理を待機する(S202:NO)。   Returning to FIG. 14, when the correction process of S243 or S244 is completed, the CPU 21 returns the process to S201 of FIG. Then, the CPU 21 returns the variable k to 1 (S201), and waits for processing until the next value is output to the buffer memory 26 (S202: NO).

このようにして、バッファメモリ26に出力された曖昧値が、周囲のエラー判定結果に基づいて、正常値、またはエラー値に補正される。   In this way, the ambiguous value output to the buffer memory 26 is corrected to a normal value or an error value based on the surrounding error determination result.

図16(a)、図16(b)は、本実施例2の曖昧値の補正処理を行って距離検出を行った検証結果を示す図である。図16(a)、図16(b)は、検証結果の距離画像を示す図である。なお、本検証に用いた実測画像、および、セグメント領域の大きさ、探索範囲は、図7(c)、図7(d)の比較例の場合と同様である。   FIGS. 16A and 16B are diagrams illustrating verification results obtained by performing distance detection by performing the ambiguous value correction process according to the second embodiment. FIG. 16A and FIG. 16B are diagrams showing distance images as verification results. The actual measurement image used for the verification, the size of the segment area, and the search range are the same as those in the comparative example of FIGS. 7C and 7D.

図7(c)、図7(d)に示す比較例の場合、天井等の背景の部分や極短に近付けた手の部分等、一様にエラー値となるべき領域についても、種々の距離値が取得されていた。他方、本実施例2の検証結果では、図16(a)の天井等の背景の部分と、図16(b)の手の部分が、略一様に黒となっており、比較例において誤って取得された距離値の多くが、適正にエラー値に修正されていることがわかる。また、人物等の部分については、適正に正常値が取得されている。   In the case of the comparative examples shown in FIGS. 7C and 7D, various distances are also obtained for regions that should have uniform error values, such as a background portion such as a ceiling and a hand portion that is extremely short. The value was being retrieved. On the other hand, in the verification result of the second embodiment, the background portion such as the ceiling in FIG. 16A and the hand portion in FIG. 16B are almost uniformly black. It can be seen that many of the distance values acquired in this way are appropriately corrected to error values. In addition, a normal value is appropriately acquired for a portion such as a person.

このように、本実施例2では、上記傾向をもとに、複数の閾値を用いて曖昧値を判定し、曖昧値について、周囲のエラー判定結果に基づいて、補正を行うことにより、背景等、エラー値が連続する領域では、適正にエラー値が取得され、人物等、物体の距離情報が連続する領域については、適正に距離値が取得される。したがって、物体検出の精度を高めることができる。   As described above, in the second embodiment, based on the above tendency, an ambiguity value is determined using a plurality of threshold values, and the ambiguity value is corrected based on a surrounding error determination result, thereby the background and the like. An error value is appropriately acquired in a region where error values are continuous, and a distance value is appropriately acquired for a region where distance information of an object such as a person is continuous. Therefore, the accuracy of object detection can be increased.

さらに、図16(a)、図16(b)に示す距離画像では、図7(c)、図7(d)に示す距離画像と比較すると、人物の輪郭の精鋭さも、ほぼ遜色なく得られていることがわかる。したがって、本実施例2では、曖昧値を周囲のエラー判定結果に基づいて補正しても、人物の輪郭抽出精度を適正に保つことができる。   Further, in the distance images shown in FIGS. 16A and 16B, compared to the distance images shown in FIGS. 7C and 7D, the sharpness of the outline of the person can be obtained almost inferior. You can see that Therefore, in the second embodiment, even when the ambiguous value is corrected based on the surrounding error determination result, the person's contour extraction accuracy can be maintained appropriately.

また、本実施例2の補正処理は、横方向の1ライン単位で曖昧値の補正処理を行うため、バッファメモリ26は、距離情報の値を保持するために少なくとも1ラインのラインメモリを有していれば良い。したがって、情報取得装置2のハードウェアリソースを増大させることなく、曖昧値の補正処理を行うことができる。なお、横方向の1ライン単位でのみ曖昧値の補正処理を行ったとしても、図16(a)、図16(b)に示すように、不確かな距離情報を効果的に抑制することができる。   Further, since the correction processing of the second embodiment performs ambiguous value correction processing in units of one line in the horizontal direction, the buffer memory 26 has a line memory of at least one line to hold the value of distance information. It should be. Therefore, ambiguous value correction processing can be performed without increasing the hardware resources of the information acquisition device 2. Even if ambiguous value correction processing is performed only in units of one line in the horizontal direction, as shown in FIGS. 16A and 16B, uncertain distance information can be effectively suppressed. .

<実施例2の効果>
上記実施例2によれば、以下の効果が奏され得る。
<Effect of Example 2>
According to the second embodiment, the following effects can be achieved.

複数の閾値を用いたエラー判定指標により抽出された曖昧値を、周囲のエラー判定結果に基づき補正することにより、距離情報の適正化を図ることができる。これにより、物体検出の精度を高めることができる。   By correcting the ambiguous value extracted by the error determination index using a plurality of threshold values based on the surrounding error determination result, the distance information can be optimized. Thereby, the accuracy of object detection can be improved.

また、横方向の1ライン単位で曖昧値の補正処理を行うため、ハードウェアリソースの増大を抑えつつ、適正に曖昧値の補正処理を行うことができる。   Further, since the ambiguous value correction process is performed in units of one line in the horizontal direction, the ambiguous value correction process can be appropriately performed while suppressing an increase in hardware resources.

なお、本実施例2では、図8(c)のエラー判定指標に基づいて、図11の処理フローにより、曖昧値の判定が行われたが、図8(a)、(b)のエラー判定指標に基づいて、曖昧値の判定が行われても良い。   In the second embodiment, the ambiguous value is determined by the processing flow of FIG. 11 based on the error determination index of FIG. 8C. However, the error determination of FIGS. 8A and 8B is performed. An ambiguous value may be determined based on the index.

以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、また、本発明の実施の形態も上記の他に種々の変更が可能である。   Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made to the embodiment of the present invention in addition to the above. .

たとえば、上記実施の形態では、バッファメモリ26は、距離情報の値を保持するために1ライン分のラインメモリを用いたが、複数のラインメモリ、または、フレーム単位で距離情報の値を保持するフレームメモリを用いても良い。この場合、情報取得装置2で生成された距離画像は、1フレームごとに、情報処理装置3に出力される。なお、1フレームとは、距離画像1枚の単位である。   For example, in the above embodiment, the buffer memory 26 uses a line memory for one line in order to hold the value of distance information. However, the buffer memory 26 holds the value of distance information in a plurality of line memories or in units of frames. A frame memory may be used. In this case, the distance image generated by the information acquisition device 2 is output to the information processing device 3 for each frame. One frame is a unit of one distance image.

このような場合、図15(a)、図15(b)に示すように、横方向の1ライン単位で曖昧値の補正処理を行った後、さらに、メディアンフィルタ等のノイズ除去フィルタを適用して、距離画像を生成するようにしても良い。   In such a case, as shown in FIGS. 15A and 15B, after performing ambiguous value correction processing in units of one line in the horizontal direction, a noise removal filter such as a median filter is further applied. Thus, a distance image may be generated.

図17(a)、図17(b)は、5画素×5画素の領域に分割して、メディアンフィルタをかける場合の補正例、図17(c)、図17(d)は、図16(a)、図16(b)の検証結果に対して、さらに、5画素×5画素のメディアンフィルタを適用した場合の検証結果の距離画像を示す図である。   17 (a) and 17 (b) are correction examples in the case where a median filter is applied by dividing the area into 5 × 5 pixels. FIGS. 17 (c) and 17 (d) are illustrated in FIG. It is a figure which shows the distance image of a verification result at the time of applying a median filter of 5 pixels x 5 pixels to the verification result of a) and FIG.16 (b) further.

図17(a)は、図13、図14の処理フローによって、曖昧値の補正が行われた後の、バッファメモリ26に格納された画素値(距離値)の例を示す図である。   FIG. 17A is a diagram illustrating an example of pixel values (distance values) stored in the buffer memory 26 after ambiguous value correction is performed according to the processing flows of FIGS. 13 and 14.

上記のようにして曖昧値の補正が行われ、1フレーム分の距離画像の値がバッファメモリ26に蓄積されると、情報取得装置2のCPU21は、バッファメモリ26上の距離画
像を5画素×5画素の領域に分割し、中央の注目画素を、この領域内における中央値に置き換える。たとえば、図17(a)の場合、領域内には、0、10、30、100、110の値が格納されているため、中央の注目画素の画素値は、図17(b)に示すように、30に置き換えられる。同様にして、全ての画素について、メディアンフィルタを適用することにより、図17(c)、図17(d)に示す距離画像が生成される。図17(a)の例では、全ての数値を昇順に並べてその中央値(13番目の数値)をとると100になる。
When the ambiguous value is corrected as described above, and the distance image value for one frame is accumulated in the buffer memory 26, the CPU 21 of the information acquisition device 2 converts the distance image on the buffer memory 26 into 5 pixels × The area is divided into 5 pixels, and the center pixel of interest is replaced with the median value in this area. For example, in the case of FIG. 17A, since the values 0, 10, 30, 100, and 110 are stored in the area, the pixel value of the center pixel of interest is as shown in FIG. To 30. Similarly, by applying the median filter to all the pixels, the distance images shown in FIGS. 17C and 17D are generated. In the example of FIG. 17A, when all numerical values are arranged in ascending order and the median value (13th numerical value) is taken, 100 is obtained.

図16(a)、図16(b)の検証結果では、横方向のエラー判定結果にのみ基づいて、曖昧値が補正されるため、人物の輪郭等に若干横方向のノイズが生じている。他方、図17(c)、図17(d)では、人物の輪郭等の部分においても、適正にノイズが除去できていることがわかる。   In the verification results shown in FIGS. 16A and 16B, the ambiguous value is corrected based only on the error determination result in the horizontal direction, so that a slight amount of horizontal noise is generated in the outline of the person. On the other hand, in FIGS. 17 (c) and 17 (d), it can be seen that noise can be properly removed even in portions such as the outline of a person.

このように、バッファメモリ26として、複数のラインメモリ、または、フレームメモリが用いられる場合は、上記実施例2の曖昧値の補正処理に加え、メディアンフィルタ等のノイズ除去フィルタを適用することにより、不適正な距離情報をさらに抑制することができる。これにより、物体検出の精度をさらに高めることができる。   Thus, when a plurality of line memories or frame memories are used as the buffer memory 26, in addition to the ambiguous value correction processing of the second embodiment, by applying a noise removal filter such as a median filter, Inappropriate distance information can be further suppressed. Thereby, the accuracy of object detection can be further increased.

なお、ノイズ除去フィルタは、メディアンフィルタの他、種々のものが用いられ得る。たとえば、最頻値フィルタを用いる場合、図17(a)の中央の注目画素は、領域内で最も出現頻度の高い0に補正される。   In addition to the median filter, various types of noise removal filters can be used. For example, when the mode filter is used, the pixel of interest in the center of FIG. 17A is corrected to 0, which has the highest appearance frequency in the region.

また、バッファメモリ26に、フレームメモリ等が用いられる場合、たとえば、曖昧値が正常値とエラー値に囲まれた場合、正常値として扱わず、さらに、縦方向のエラー判定結果に応じて、曖昧値を補正しても良い。   Further, when a frame memory or the like is used as the buffer memory 26, for example, when an ambiguous value is surrounded by a normal value and an error value, it is not treated as a normal value, and further, an ambiguous value is determined according to the vertical error determination result. The value may be corrected.

図18(a)、図18(b)は、この場合の曖昧値補正処理の流れを示すフローチャートである。この処理は、図2のCPU21の距離取得部21bの機能によって行われる。なお、図18(b)は、図14のフローチャートを一部変更するものであり、変更のない処理については、同一の番号が付与されている。   FIGS. 18A and 18B are flowcharts showing the flow of the ambiguous value correction process in this case. This process is performed by the function of the distance acquisition unit 21b of the CPU 21 in FIG. Note that FIG. 18B partially changes the flowchart of FIG. 14, and the same number is assigned to a process that does not change.

なお、図18に示す処理フローは、請求項5ないし10に記載の構成の他の一例である。   The process flow shown in FIG. 18 is another example of the configuration described in claims 5 to 10.

図18(a)を参照して、CPU21は、まず、バッファメモリ26に1フレーム分の距離情報の値(正常値、曖昧値、エラー値)が出力されたか否かを判定する(S301)。バッファメモリ26に1フレーム分の値が出力されると(S301:YES)、CPU21は、横方向のラインの位置を示す変数rに1をセットする(S303)。そして、CPU21は、rライン目について、上記実施例2で説明したように横方向の曖昧値補正処理を行う(S304)。   Referring to FIG. 18A, the CPU 21 first determines whether or not the distance information value (normal value, ambiguous value, error value) for one frame is output to the buffer memory 26 (S301). When the value for one frame is output to the buffer memory 26 (S301: YES), the CPU 21 sets 1 to a variable r indicating the position of the line in the horizontal direction (S303). Then, the CPU 21 performs the ambiguous value correction process in the horizontal direction for the r-th line as described in the second embodiment (S304).

なお、図14に示すように、上記実施例2では、k−1番目の値がエラー値であって(S231:YES)、k+p番目の値が正常値の場合(S232:NO)、CPU21は、処理をS233に進め、曖昧値を正常値と補正したが、本変更例では、図18(b)に示すように、k−1番目の値がエラー値であって(S231:YES)、k+p番目の値が正常値の場合(S251:NO)、CPU21は、曖昧値を補正せずに、処理をS235に進める。また、同様に、図14のS242において、NOと判定された場合も、曖昧値を補正せず、処理をS201に戻す。このように本変更例では、横方向の曖昧値補正処理で、正常値とエラー値に挟まれた曖昧値は、補正されない。   As shown in FIG. 14, in the second embodiment, when the k-1th value is an error value (S231: YES) and the k + pth value is a normal value (S232: NO), the CPU 21 Then, the process proceeds to S233, and the ambiguous value is corrected to the normal value. However, in this modified example, as shown in FIG. 18B, the k−1th value is an error value (S231: YES), When the k + p-th value is a normal value (S251: NO), the CPU 21 advances the process to S235 without correcting the ambiguous value. Similarly, if NO is determined in S242 of FIG. 14, the ambiguous value is not corrected and the process returns to S201. As described above, in the present modification example, the ambiguous value sandwiched between the normal value and the error value is not corrected in the ambiguous value correction process in the horizontal direction.

図18(a)に戻り、CPU21は、横方向の曖昧値補正処理で曖昧値を補正しなかった値があるか否かを判定する(S305)。横方向の曖昧値補正処理で曖昧値を補正しなかった値がある場合(S305:YES)、CPU21は、さらに、rライン目の曖昧値について、縦方向の曖昧値補正処理を行う(S306)。なお、縦方向の曖昧値補正処理は、図13、図14のフローチャートに示した横方向の曖昧値補正処理と同様のルールに従って行われるため、詳細な説明は省略する。   Returning to FIG. 18A, the CPU 21 determines whether or not there is a value for which the ambiguous value is not corrected in the horizontal ambiguous value correcting process (S305). When there is a value in which the ambiguous value is not corrected in the horizontal ambiguous value correction process (S305: YES), the CPU 21 further performs the ambiguous value correction process in the vertical direction for the ambiguous value of the r-th line (S306). . The vertical ambiguity value correction process is performed according to the same rules as the horizontal ambiguity value correction process shown in the flowcharts of FIGS.

たとえば、図18(c)に示すように、rライン目に正常値とエラー値に囲まれた曖昧値がある場合において、縦方向に正常値で囲まれる場合、この曖昧値は、正常値に補正される。   For example, as shown in FIG. 18C, when there is an ambiguous value surrounded by a normal value and an error value on the r-th line, when the normal value is surrounded in the vertical direction, the ambiguous value becomes a normal value. It is corrected.

rライン目の縦方向の曖昧値補正処理が完了すると、CPU21は、変数rが最終ラインを示す変数Lであるかを判定する(S307)。最終ラインでない場合(S307:NO)、CPU21は、変数rに1を加算し(S308)、処理をS304に戻す。これにより次のラインについて、横方向および縦方向の曖昧値補正処理が行われる。そして、最終ラインまで曖昧値補正処理が完了すると(S307:YES)、CPU21は、処理をS301に戻し、次のフレームが出力されるまで処理を待機する。   When the vertical ambiguity correction process for the r-th line is completed, the CPU 21 determines whether or not the variable r is a variable L indicating the final line (S307). If it is not the last line (S307: NO), the CPU 21 adds 1 to the variable r (S308), and returns the process to S304. Thereby, the ambiguous value correction process in the horizontal direction and the vertical direction is performed for the next line. When the ambiguous value correction process is completed up to the final line (S307: YES), the CPU 21 returns the process to S301 and waits until the next frame is output.

このようにして、1フレームごとに、横方向および縦方向の曖昧値補正処理が行われる。   In this way, the ambiguous value correction process in the horizontal direction and the vertical direction is performed for each frame.

本変更例の場合、横だけでなく、縦のエラー判定結果を考慮して曖昧値が補正されるため、より精度よく曖昧値が補正される。したがって、この場合、図16(a)、図16(b)に示される横方向のノイズは軽減されるものと想定される。   In the case of this modified example, the ambiguous value is corrected in consideration of not only the horizontal but also the vertical error determination result, so that the ambiguous value is corrected more accurately. Therefore, in this case, it is assumed that the lateral noise shown in FIGS. 16A and 16B is reduced.

なお、本変更例では、横方向と縦方向のエラー判定結果に基づいて、曖昧値を補正したが、図19(a)に示すように、斜め方向のエラー判定結果に基づいて、曖昧値補正しても良いし、さらには、図19(b)に示すように、曖昧値を中心として、領域を分割し、領域内のエラー判定結果に基づいて、曖昧値を補正しても良い。図19(b)の場合、たとえば、曖昧値は、領域内に最も頻度が高い分類に補正するようにしても良い。その場合、図19(b)の例では、曖昧値は、正常値に補正される。   In this modification, the ambiguous value is corrected based on the error determination result in the horizontal direction and the vertical direction. However, as shown in FIG. 19A, the ambiguous value correction is performed based on the error determination result in the oblique direction. Alternatively, as shown in FIG. 19B, the region may be divided around the ambiguous value, and the ambiguous value may be corrected based on the error determination result in the region. In the case of FIG. 19B, for example, the ambiguous value may be corrected to the classification having the highest frequency in the region. In that case, in the example of FIG. 19B, the ambiguous value is corrected to a normal value.

また、上記実施例1、2では、図8(a)〜図8(c)に示すように、2つの閾値を用いて、曖昧値を判定したが、たとえば、図19(c)に示すように、3つの閾値を用いても良いし、さらには、4つ以上の閾値が用いられても良い。   Moreover, in the said Example 1, 2, although the ambiguous value was determined using two threshold values, as shown to Fig.8 (a)-FIG.8 (c), as shown in FIG.19 (c), for example. In addition, three threshold values may be used, and four or more threshold values may be used.

この場合、値Rsadによって得られる距離情報の適正さをより細やかに区分することができる。たとえば、図19(c)のように3つの閾値を用いる場合、曖昧さの度合いを2つのレベルに区分することができ、曖昧さの度合いに応じて、曖昧値に対する処理を変えても良い。たとえば、図15(e)や図15(f)のように、曖昧値が正常値とエラー値に挟まれている場合、当該曖昧値が図19(c)の曖昧値Aであれば、エラー値である確率が高いとして、曖昧値をエラー値に補正し、当該曖昧値が図19(c)の曖昧値Bであれば、正常値である確率が高いとして、曖昧値を正常値に補正しても良い。また、曖昧さの度合いに応じて、上記実施例1や実施例2の処理を振り分けても良い。たとえば、エラー値に近い曖昧値Aの領域については、図18に示した横方向と縦方向を考慮した曖昧値補正処理が行われ、正常値に近い曖昧値Bの領域については、図13、図14に示した横方向のみを考慮した曖昧値補正処理が行われても良い。この他、曖昧値と判定された領域に対して、種々の処理を適用することができ、たとえば、曖昧値のみを、ノイズ除去等の所定のフィルタ処理を適用しても良い。   In this case, the appropriateness of the distance information obtained by the value Rsad can be classified more finely. For example, when three threshold values are used as shown in FIG. 19C, the degree of ambiguity can be divided into two levels, and the processing for the ambiguity value may be changed according to the degree of ambiguity. For example, as shown in FIG. 15E and FIG. 15F, when an ambiguous value is sandwiched between a normal value and an error value, if the ambiguous value is the ambiguous value A in FIG. If the ambiguity value is corrected to an error value if the ambiguity value is high, if the ambiguity value is the ambiguity value B in FIG. 19 (c), the ambiguity value is corrected to a normal value because the probability of being a normal value is high. You may do it. Further, the processing of the first embodiment and the second embodiment may be distributed according to the degree of ambiguity. For example, the ambiguous value A region close to the error value is subjected to the ambiguous value correction process in consideration of the horizontal direction and the vertical direction shown in FIG. 18, and the ambiguous value B region close to the normal value is shown in FIG. The ambiguous value correction process considering only the horizontal direction shown in FIG. 14 may be performed. In addition, various processes can be applied to a region determined to be an ambiguous value. For example, a predetermined filter process such as noise removal may be applied only to an ambiguous value.

また、上記実施例1、2では、図8(c)のエラー判定指標によって、曖昧値を判定したが、図8(a)、図8(b)のエラー判定指標によって、曖昧値を判定しても良い。また、上記実施例1では、図8(c)のエラー判定指標によって、曖昧値を判定した後、図6(a)のエラー判定指標が用いられたが、図6(b)のエラー判定指標が用いても良い。さらには、図8(c)のエラー判定指標の後、さらに、図8(b)のエラー判定指標を適用し、その後、図6(a)のエラー判定指標が適用されても良い。その他、複数の閾値を用いて、曖昧値を判定できれば、どのようなエラー判定指標が用いられても良い。   In the first and second embodiments, the ambiguous value is determined based on the error determination index shown in FIG. 8C. However, the ambiguous value is determined based on the error determination index shown in FIGS. 8A and 8B. May be. In the first embodiment, the error determination index of FIG. 6 (a) is used after the ambiguous value is determined by the error determination index of FIG. 8 (c), but the error determination index of FIG. 6 (b) is used. May be used. Furthermore, after the error determination index of FIG. 8C, the error determination index of FIG. 8B may be applied, and then the error determination index of FIG. 6A may be applied. In addition, any error determination index may be used as long as an ambiguous value can be determined using a plurality of threshold values.

また、上記実施の形態では、ドットパターンのマッチング度合いを算出するために、図5(c)に示す差分値の絶対値の総和の値SAD(Sum of Absolute Difference)を用いたが、これに替えて、差分値の2乗の総和の値SSD(Sum of Squared Difference)を用いても良い。   In the above embodiment, the sum of absolute values SAD (Sum of Absolute Difference) shown in FIG. 5C is used to calculate the matching degree of the dot pattern. Thus, a sum of squared differences (SSD) of the sum of the squares of the difference values may be used.

また、上記実施の形態では、隣り合うセグメント領域が互いに重なるように、セグメント領域が設定されたが、左右に隣り合うセグメント領域が、互いに重ならなくても良く、また、上下に隣り合うセグメント領域が、互いに重ならなくても良い。また、上下左右に隣り合うセグメント領域のずれ量は、1画素に限られるものではなく、ずれ量が他の画素数に設定されても良い。さらに、上記実施の形態では、セグメント領域は、正方形状に設定されたが、長方形であっても良い。   In the above embodiment, the segment areas are set so that the adjacent segment areas overlap with each other. However, the segment areas adjacent to each other on the left and right may not overlap with each other, and the segment areas adjacent to each other on the upper and lower sides. However, they do not have to overlap each other. Further, the shift amount of the segment areas adjacent in the vertical and horizontal directions is not limited to one pixel, and the shift amount may be set to another number of pixels. Furthermore, in the said embodiment, although the segment area | region was set to square shape, a rectangle may be sufficient.

また、上記実施の形態では、セグメント領域と比較領域のマッチング率を算出する前に、セグメント領域と比較領域に含まれる画素の画素値を0〜12の階調に減少したが、さらに階調を減少して2値化しても良いし、CMOSイメージセンサ240によって得られた画素値をそのまま用いて、マッチングしても良い。   In the above embodiment, the pixel values of the pixels included in the segment area and the comparison area are reduced to 0 to 12 before calculating the matching ratio between the segment area and the comparison area. It may be reduced and binarized, or matching may be performed using the pixel value obtained by the CMOS image sensor 240 as it is.

また、上記実施の形態では、三角測量法を用いて距離情報が求められ、メモリ25に記憶されたが、三角測量法による演算なしに、セグメント領域の変位量(画素ずれ量)を距離情報として取得しても良く、他の手法で距離情報を取得しても良い。   In the above embodiment, the distance information is obtained by using the triangulation method and stored in the memory 25. However, the displacement amount (pixel displacement amount) of the segment area is used as the distance information without calculation by the triangulation method. You may acquire and distance information may be acquired by another method.

また、上記実施の形態では、目標領域に照射されるレーザ光の波長帯以外の波長帯の光を除去するためにフィルタ230を配したが、たとえば、目標領域に照射されるレーザ光以外の光の信号成分を、CMOSイメージセンサ240から出力される信号から除去する回路構成が配されるような場合には、フィルタ230が省略され得る。 また、上記実施の形態では、受光素子として、CMOSイメージセンサ240を用いたが、これに替えて、CCDイメージセンサを用いることもできる。さらに、投射光学系100および受光光学系200の構成も、適宜変更可能である。また、右手を用いたテレビ等の制御入力以外の情報取得形態にも、本発明は適用可能である。   Further, in the above embodiment, the filter 230 is disposed to remove light in a wavelength band other than the wavelength band of the laser light irradiated to the target region. For example, light other than the laser light irradiated to the target region is used. In the case where a circuit configuration for removing the signal component from the signal output from the CMOS image sensor 240 is arranged, the filter 230 may be omitted. In the above embodiment, the CMOS image sensor 240 is used as the light receiving element, but a CCD image sensor may be used instead. Furthermore, the configurations of the projection optical system 100 and the light receiving optical system 200 can be changed as appropriate. In addition, the present invention can be applied to information acquisition forms other than control input such as a television using the right hand.

本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。   The embodiments of the present invention can be appropriately modified in various ways within the scope of the technical idea shown in the claims.

1 … 物体検出装置
2 … 情報取得装置
21b … 距離取得部
23 … 撮像信号処理回路(距離取得部)
3 … 情報処理装置
31a … 物体検出部
100 … 投射光学系
110 … レーザ光源
200 … 受光光学系
240 … CMOSイメージセンサ(イメージセンサ)
1 ... Object detection device
2 ... Information acquisition device 21b ... Distance acquisition unit 23 ... Imaging signal processing circuit (distance acquisition unit)
DESCRIPTION OF SYMBOLS 3 ... Information processing apparatus 31a ... Object detection part 100 ... Projection optical system 110 ... Laser light source 200 ... Light reception optical system 240 ... CMOS image sensor (image sensor)

Claims (11)

レーザ光源から出射されたレーザ光を所定のドットパターンで目標領域に投射する投射光学系と、
前記投射光学系に対して所定の距離だけ横に離れて並ぶように配置され、前記目標領域をイメージセンサにより撮像する受光光学系と、
基準面に前記レーザ光を照射したときに前記受光光学系により撮像された基準ドットパターンと、実測時に前記イメージセンサにより撮像された実測ドットパターンとに基づいて、前記目標領域に含まれる物体までの距離に関する距離情報を取得する距離取得部と、を備え、
前記距離取得部は、前記基準ドットパターンに設定された所定のセグメント領域の前記実測ドットパターン上における変位位置を、第1の判定指標に基づいて探索し、探索された前記変位位置に基づいて、前記セグメント領域に対する距離情報を取得し、
前記第1の判定指標は、前記変位位置の確からしさを評価するために、第1の閾値と当該第1の閾値よりも大きい第2の閾値とを有し、
前記距離取得部は、前記変位位置に関する第1のパラメータ値が、前記第1の閾値と前記第2の閾値との間にある場合に、前記変位位置に基づく前記距離情報の取得の適否を前記第2の判定指標に基づいて判定する、
ことを特徴とする情報取得装置。
A projection optical system that projects laser light emitted from a laser light source onto a target area with a predetermined dot pattern;
A light receiving optical system that is arranged so as to be laterally separated by a predetermined distance with respect to the projection optical system, and that captures the target area by an image sensor;
Based on the reference dot pattern imaged by the light receiving optical system when the laser beam is irradiated on the reference surface and the measured dot pattern imaged by the image sensor at the time of actual measurement, up to the object included in the target area A distance acquisition unit that acquires distance information about the distance,
The distance acquisition unit searches for a displacement position on the measured dot pattern of a predetermined segment area set in the reference dot pattern based on a first determination index, and based on the searched displacement position, Obtain distance information for the segment area,
The first determination index has a first threshold value and a second threshold value larger than the first threshold value in order to evaluate the likelihood of the displacement position.
The distance acquisition unit determines whether or not to acquire the distance information based on the displacement position when the first parameter value related to the displacement position is between the first threshold value and the second threshold value. Determining based on the second determination index;
An information acquisition apparatus characterized by that.
請求項1に記載の情報取得装置において、
前記第1のパラメータ値は、前記セグメント領域に含まれるドットと前記実測ドットパターン上のドットとの間のマッチング度合いに基づき生成される値である、
ことを特徴とする情報取得装置。
The information acquisition device according to claim 1,
The first parameter value is a value generated based on a matching degree between a dot included in the segment area and a dot on the measured dot pattern.
An information acquisition apparatus characterized by that.
請求項1または2に記載の情報取得装置において、
前記第2の判定指標は、前記第1のパラメータ値と異なる第2のパラメータ値に適用される第3の閾値を備え、
前記距離取得部は、前記変位位置に対応する前記第2のパラメータと前記第3の閾値とを比較して、前記変位位置の適否を判定し、当該判定において前記変位位置が適正である場合に、前記変位位置に基づき取得される距離情報を前記セグメント領域に対する前記距離情報とし、当該判定において前記変位位置が不適正である場合に、前記セグメント領域に対する距離情報をエラーに基づく情報に設定する、
ことを特徴とする情報取得装置。
In the information acquisition device according to claim 1 or 2,
The second determination index includes a third threshold value applied to a second parameter value different from the first parameter value,
The distance acquisition unit compares the second parameter corresponding to the displacement position with the third threshold value to determine whether the displacement position is appropriate, and when the displacement position is appropriate in the determination The distance information acquired based on the displacement position is the distance information for the segment area, and when the displacement position is inappropriate in the determination, the distance information for the segment area is set to information based on an error.
An information acquisition apparatus characterized by that.
請求項3に記載の情報取得装置において、
前記第2のパラメータ値は、前記セグメント領域に含まれるドットと前記実測ドットパターン上のドットとの間のマッチング度合いに基づき生成される値である、
ことを特徴とする情報取得装置。
In the information acquisition device according to claim 3,
The second parameter value is a value generated based on a matching degree between a dot included in the segment area and a dot on the measured dot pattern.
An information acquisition apparatus characterized by that.
請求項1または2に記載の情報取得装置において、
前記第2の判定指標は、前記距離情報の取得対象とされる第1のセグメント領域と当該第1のセグメント領域の周囲にある第2のセグメント領域との関係に基づいて前記変位位置をもとに取得された前記距離情報の適否を判定する判定条件を含む、
ことを特徴とする情報取得装置。
In the information acquisition device according to claim 1 or 2,
The second determination index is based on the displacement position based on a relationship between a first segment area from which the distance information is acquired and a second segment area around the first segment area. Including a determination condition for determining the suitability of the distance information acquired in
An information acquisition apparatus characterized by that.
請求項5に記載の情報取得装置において、
前記判定条件は、前記第2のセグメント領域に対する前記距離情報の取得の適否に関する分類を含む、
ことを特徴とする情報取得装置。
The information acquisition device according to claim 5,
The determination condition includes a classification relating to the suitability of acquisition of the distance information for the second segment region,
An information acquisition apparatus characterized by that.
請求項6に記載の情報取得装置において、
前記距離取得部は、前記距離情報の取得が適正であると分類された前記第2のセグメント領域の数が、前記距離情報の取得が不適正であると分類された前記第2のセグメント領域の数を超える場合は、前記第1のセグメント領域に対する距離情報の取得を適正として、前記変位位置に基づき取得される距離情報を当該第1のセグメント領域に対する前記距離情報に用い、前記距離情報の取得が不適正であると分類された前記第2のセグメント領域の前記数が、前記距離情報の取得が適正であると分類された前記第2のセグメント領域の前記数を超える場合は、前記第1のセグメント領域に対する距離情報の取得を不適正とし、当該第1のセグメント領域に対する前記距離情報をエラーに基づく情報に設定する、ことを特徴とする情報取得装置。
The information acquisition apparatus according to claim 6,
The distance acquisition unit is configured such that the number of the second segment areas classified as appropriate for acquiring the distance information is the number of the second segment areas classified as inappropriate for acquisition of the distance information. If the number exceeds, the distance information acquired based on the displacement position is used as the distance information with respect to the first segment area, and the distance information acquired with respect to the first segment area is acquired. If the number of the second segment areas classified as inappropriate is greater than the number of the second segment areas classified as appropriate for obtaining the distance information, Information acquisition apparatus characterized by improper acquisition of distance information for a segment area and setting the distance information for the first segment area to information based on an error
請求項6または7に記載の情報取得装置において、
前記距離取得部は、前記第1のセグメント領域が、前記距離情報の取得が適正であると分類された前記第2のセグメント領域によって挟まれた場合、前記第1のセグメント領域に対する距離情報の取得を適正として、前記変位位置に基づき取得される距離情報を当該第1のセグメント領域に対する前記距離情報に用いる、
ことを特徴とする情報取得装置。
In the information acquisition device according to claim 6 or 7,
The distance acquisition unit acquires distance information for the first segment area when the first segment area is sandwiched between the second segment areas classified as appropriate for acquiring the distance information. Using distance information acquired based on the displacement position as the distance information for the first segment region,
An information acquisition apparatus characterized by that.
請求項6ないし8の何れか一項に記載の情報取得装置において、
前記距離取得部は、前記第1のセグメント領域が、前記距離情報の取得が不適正であると分類された前記第2のセグメント領域によって挟まれた場合、前記第1のセグメント領域に対する距離情報の取得を不適正として、当該第1のセグメント領域に対する前記距離情報をエラーに基づく情報に設定する、
ことを特徴とする情報取得装置。
In the information acquisition device according to any one of claims 6 to 8,
The distance acquisition unit, when the first segment area is sandwiched between the second segment areas classified as inappropriate acquisition of the distance information, the distance information of the first segment area The acquisition is inappropriate, and the distance information for the first segment area is set to information based on an error.
An information acquisition apparatus characterized by that.
請求項6ないし9の何れか一項に記載の情報取得装置において、
前記距離取得部は、前記第1のセグメント領域が、前記距離情報の取得が適正であると分類された前記第2のセグメント領域と前記距離情報の取得が不適正であると分類された前記第2のセグメント領域によって挟まれた場合、前記第1のセグメント領域に対する距離情報の取得を適正として、前記変位位置に基づき取得される距離情報を当該第1のセグメント領域に対する前記距離情報に用いる、
ことを特徴とする情報取得装置。
In the information acquisition device according to any one of claims 6 to 9,
The distance acquisition unit is configured such that the first segment area is classified as inappropriate for acquisition of the distance information and the second segment area classified as appropriate for acquisition of the distance information. When it is sandwiched between two segment areas, it is appropriate to acquire distance information for the first segment area, and distance information acquired based on the displacement position is used for the distance information for the first segment area.
An information acquisition apparatus characterized by that.
請求項1ないし10の何れか一項に記載の情報取得装置と、
前記距離情報に基づいて、所定の対象物体を検出する物体検出部と、を備える、
ことを特徴とする物体検出装置。
The information acquisition device according to any one of claims 1 to 10,
An object detection unit that detects a predetermined target object based on the distance information,
An object detection apparatus characterized by that.
JP2012166279A 2012-07-26 2012-07-26 Information acquisition device and object detection device Pending JP2014025804A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012166279A JP2014025804A (en) 2012-07-26 2012-07-26 Information acquisition device and object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012166279A JP2014025804A (en) 2012-07-26 2012-07-26 Information acquisition device and object detection device

Publications (1)

Publication Number Publication Date
JP2014025804A true JP2014025804A (en) 2014-02-06

Family

ID=50199582

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012166279A Pending JP2014025804A (en) 2012-07-26 2012-07-26 Information acquisition device and object detection device

Country Status (1)

Country Link
JP (1) JP2014025804A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015175752A (en) * 2014-03-17 2015-10-05 スタンレー電気株式会社 Distance image generating device, object detecting device, and object detecting method
WO2019186641A1 (en) * 2018-03-26 2019-10-03 三菱電機株式会社 Object detection device, vehicle, object detection method, and object detection program
JP2020140715A (en) * 2019-03-01 2020-09-03 株式会社トプコン Image quality improving method for low coherence interference method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015175752A (en) * 2014-03-17 2015-10-05 スタンレー電気株式会社 Distance image generating device, object detecting device, and object detecting method
WO2019186641A1 (en) * 2018-03-26 2019-10-03 三菱電機株式会社 Object detection device, vehicle, object detection method, and object detection program
JPWO2019186641A1 (en) * 2018-03-26 2020-05-28 三菱電機株式会社 Object detection device, vehicle, object detection method, and object detection program
CN111868562A (en) * 2018-03-26 2020-10-30 三菱电机株式会社 Object detection device, vehicle, object detection method, and object detection program
JP2020140715A (en) * 2019-03-01 2020-09-03 株式会社トプコン Image quality improving method for low coherence interference method
JP7010983B2 (en) 2019-03-01 2022-01-26 株式会社トプコン Image quality improvement methods and systems for low coherence interferometry

Similar Documents

Publication Publication Date Title
KR102061522B1 (en) Apparatus and method for detecting object based on density using lidar sensor
JP6458734B2 (en) Passenger number measuring device, passenger number measuring method, and passenger number measuring program
JP5138119B2 (en) Object detection device and information acquisition device
JP5631025B2 (en) Information processing apparatus, processing method thereof, and program
US9052780B2 (en) Optical touch screen system and sensing method for the same
JP5214062B1 (en) Information acquisition device and object detection device
WO2014108976A1 (en) Object detecting device
JP2014137762A (en) Object detector
KR20130102400A (en) Time of flight sensor and time of flight camera
JP2012237604A (en) Information acquisition apparatus, projection device and object detection device
JP6361313B2 (en) Vehicle detection method and apparatus
JP2014025804A (en) Information acquisition device and object detection device
JP2014044113A (en) Information acquisition device and object detector
JP2016009396A (en) Input device
JP2013246009A (en) Object detection apparatus
JP2014021017A (en) Information acquisition device and object detection device
US20220201164A1 (en) Image registration apparatus, image generation system, image registration method, and image registration program product
JP2014035294A (en) Information acquisition device and object detector
JP5533739B2 (en) Optical information reader
JP2014085257A (en) Information acquisition device and object detection device
JPWO2020175085A1 (en) Image processing device and image processing method
JP2013246010A (en) Information acquisition device and object detection device
JP2013234956A (en) Information acquisition apparatus and object detection system
WO2019116518A1 (en) Object detection device and object detection method
JP6468755B2 (en) Feature point detection system, feature point detection method, and feature point detection program