JP2014181949A - Information acquisition device and object detection device - Google Patents

Information acquisition device and object detection device Download PDF

Info

Publication number
JP2014181949A
JP2014181949A JP2013055251A JP2013055251A JP2014181949A JP 2014181949 A JP2014181949 A JP 2014181949A JP 2013055251 A JP2013055251 A JP 2013055251A JP 2013055251 A JP2013055251 A JP 2013055251A JP 2014181949 A JP2014181949 A JP 2014181949A
Authority
JP
Japan
Prior art keywords
light
information acquisition
luminance
luminance value
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013055251A
Other languages
Japanese (ja)
Inventor
Mitsutaka Yamaguchi
光隆 山口
Hiroyuki Muto
裕之 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2013055251A priority Critical patent/JP2014181949A/en
Publication of JP2014181949A publication Critical patent/JP2014181949A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Geophysics And Detection Of Objects (AREA)
  • Position Input By Displaying (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information acquisition device and an object detection device provided with the information acquisition device that enable an influence of disturbance light to be prevented.SOLUTION: An information acquisition device comprises: a projection part 100 that projects infrared light to a target area; an imaging part 200 that images the target area by a CMOS image sensor 240; a light source control part 21a that controls the projection part 100; an imaging signal process circuit 23; and a distance acquisition part 21b that acquires distance information on the basis of a luminance value acquired by the imaging signal process circuit 23. The light source control part 21a emits the infrared light at a light-on timing p1, and stops emitting the infrared light at a light-off timing p2. The distance acquisition part 21b specifies a disturbance light area O on the basis of a difference between luminance values of a light-up image acquired in response to the light-up timing p1 and a light-off image acquired in response to the light-off timing p2, and acquires the distance information on the basis of a luminance value in an area other than the specified disturbance light area O.

Description

本発明は、目標領域内の情報を取得する情報取得装置および当該情報取得装置を備えた物体検出装置に関する。   The present invention relates to an information acquisition device that acquires information in a target area and an object detection device that includes the information acquisition device.

従来、光を用いた物体検出装置が種々の分野で開発されている。いわゆる距離画像センサを用いた物体検出装置では、2次元平面上の平面的な画像のみならず、検出対象物体の奥行き方向の形状や動きを検出することができる。   Conventionally, object detection devices using light have been developed in various fields. An object detection apparatus using a so-called distance image sensor can detect not only a planar image on a two-dimensional plane but also the shape and movement of the detection target object in the depth direction.

距離画像センサとして、所定のドットパターンを持つレーザ光を目標領域に照射するタイプの距離画像センサが知られている(たとえば、非特許文献1)。かかる距離画像センサでは、基準面にレーザ光を照射したときのドットパターンが撮像素子により撮像され、撮像されたドットパターンが基準ドットパターンとして保持される。そして、基準ドットパターンと、実測時に撮像された実測ドットパターンとが比較され、距離情報が取得される。具体的には、基準ドットパターン上に設定された参照領域の実測ドットパターン上における位置に基づいて、三角測量法により、当該参照領域に対する距離情報が取得される。   As a distance image sensor, a distance image sensor of a type that irradiates a target region with laser light having a predetermined dot pattern is known (for example, Non-Patent Document 1). In such a distance image sensor, a dot pattern when the reference surface is irradiated with laser light is picked up by the image pickup device, and the picked-up dot pattern is held as a reference dot pattern. Then, the reference dot pattern is compared with the actually measured dot pattern captured at the time of actual measurement, and distance information is acquired. Specifically, distance information with respect to the reference region is acquired by a triangulation method based on the position of the reference region set on the standard dot pattern on the measured dot pattern.

第19回日本ロボット学会学術講演会(2001年9月18−20日)予稿集、P1279−128019th Annual Conference of the Robotics Society of Japan (September 18-20, 2001) Proceedings, P1279-1280

しかしながら、上記距離画像センサでは、ドットパターンの光を生成する必要があるため、目標領域に光を投射する投射部の構成が複雑になるとの問題がある。また、参照領域に含まれるドットを実測ドットパターン上において探索する処理が必要となるため、距離情報の取得のために、煩雑な演算処理が必要になるとの問題もある。   However, since the distance image sensor needs to generate light of a dot pattern, there is a problem that the configuration of a projection unit that projects light onto a target area becomes complicated. In addition, since it is necessary to search for dots included in the reference area on the measured dot pattern, there is a problem that complicated calculation processing is required for obtaining distance information.

さらに、蛍光灯や太陽光等の外乱光がイメージセンサに入射すると、撮像した画像に外乱成分が含まれることが起こり得る。この場合、外乱光が入射した領域に何らかの物体があるように誤検知される惧れがある。   Furthermore, when disturbance light such as a fluorescent lamp or sunlight enters the image sensor, a disturbance component may be included in the captured image. In this case, there is a possibility that an error is detected such that there is some object in the area where the disturbance light is incident.

上記課題に鑑み、本発明は、外乱光の影響を抑えることが可能な情報取得装置および当該情報取得装置を備えた物体検出装置を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an information acquisition device capable of suppressing the influence of disturbance light and an object detection device including the information acquisition device.

本発明の第1の態様は、情報取得装置に関する。本態様に係る情報取得装置は、目標領域に光を投射する投射部と、前記目標領域をイメージセンサにより撮像する撮像部と、前記投射部を制御する光源制御部と、前記イメージセンサ上の所定の画素の輝度値を取得する輝度取得部と、前記輝度取得部により取得された輝度値に基づいて、前記目標領域上の物体を検出するための情報を取得する情報取得部と、を備える。前記光源制御部は、第1のタイミングと第2のタイミングで出射光量が異なるように前記光を出射し、前記情報取得部は、前記第1のタイミングに対応して取得された第1の輝度値と前記第2のタイミングに対応して取得された第2の輝度値に基づいて、物体検出の対象から除かれる画素範囲を特定し、特定した当該画素範囲以外の画素範囲に対応する前記第1の輝度値に基づいて
、前記物体を検出するための情報を取得する。
A first aspect of the present invention relates to an information acquisition device. An information acquisition apparatus according to this aspect includes a projection unit that projects light onto a target region, an imaging unit that captures the target region with an image sensor, a light source control unit that controls the projection unit, and a predetermined unit on the image sensor. A luminance acquisition unit that acquires a luminance value of the pixel, and an information acquisition unit that acquires information for detecting an object on the target area based on the luminance value acquired by the luminance acquisition unit. The light source control unit emits the light so that the amount of emitted light is different between the first timing and the second timing, and the information acquisition unit obtains the first luminance acquired corresponding to the first timing. Based on the value and the second luminance value acquired corresponding to the second timing, the pixel range excluded from the object detection target is specified, and the second pixel range corresponding to the pixel range other than the specified pixel range is specified. Based on the luminance value of 1, information for detecting the object is acquired.

本発明の第2の態様は、物体検出装置に関する。本態様に係る物体検出装置は、第1の態様に係る情報取得装置と、前記情報取得装置によって取得された前記物体を検出するための情報に基づいて、前記目標領域に存在する物体を検出する物体検出部と、を備える。   A 2nd aspect of this invention is related with an object detection apparatus. The object detection device according to this aspect detects an object present in the target region based on the information acquisition device according to the first aspect and information for detecting the object acquired by the information acquisition device. An object detection unit.

本発明によれば、外乱光の影響を抑えることが可能な情報取得装置および当該情報取得装置を備えた物体検出装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the object detection apparatus provided with the information acquisition apparatus which can suppress the influence of disturbance light, and the said information acquisition apparatus can be provided.

本発明の効果ないし意義は、以下に示す実施の形態の説明により更に明らかとなろう。ただし、以下に示す実施の形態は、あくまでも、本発明を実施化する際の一つの例示であって、本発明は、以下の実施の形態により何ら制限されるものではない。   The effects and significance of the present invention will become more apparent from the following description of embodiments. However, the embodiment described below is merely an example when the present invention is implemented, and the present invention is not limited to the following embodiment.

実施の形態に係る物体検出装置を内蔵したパーソナルコンピュータの外観構成を示す図である。It is a figure which shows the external appearance structure of the personal computer which incorporated the object detection apparatus which concerns on embodiment. 実施の形態に係る物体検出装置の構成を示す図である。It is a figure which shows the structure of the object detection apparatus which concerns on embodiment. 実施の形態に係る投射部と撮像部の構成を示す図である。It is a figure which shows the structure of the projection part and imaging part which concern on embodiment. 実施の形態に係るイメージセンサの感度、および、輝度値と距離の関係を規定する距離変換関数の波形を示す図である。It is a figure which shows the sensitivity of the image sensor which concerns on embodiment, and the waveform of the distance conversion function which prescribes | regulates the relationship between a luminance value and distance. 実施の形態に係る撮像画像と情報取得装置を横から見た模式図である。It is the schematic diagram which looked at the captured image and information acquisition apparatus which concern on embodiment from the side. 実施の形態に係る点灯画像と消灯画像および情報取得装置を横から見た模式図である。It is the schematic diagram which looked at the lighting image and light extinction image, and information acquisition apparatus which concern on embodiment from the side. 実施の形態に係る点灯画像と消灯画像および情報取得装置を横から見た模式図である。It is the schematic diagram which looked at the lighting image and light extinction image, and information acquisition apparatus which concern on embodiment from the side. 実施の形態に係る点灯画像と消灯画像および情報取得装置を横から見た模式図である。It is the schematic diagram which looked at the lighting image and light extinction image, and information acquisition apparatus which concern on embodiment from the side. 実施の形態に係る点灯画像と消灯画像および情報取得装置を横から見た模式図である。It is the schematic diagram which looked at the lighting image and light extinction image, and information acquisition apparatus which concern on embodiment from the side. 実施の形態に係る点灯画像から高輝度領域を設定する方法を説明する図である。It is a figure explaining the method to set a high-intensity area | region from the lighting image which concerns on embodiment. 実施の形態に係る点灯画像から外乱光領域を設定する方法を説明する図である。It is a figure explaining the method to set a disturbance light area | region from the lighting image which concerns on embodiment. 実施の形態に係る外乱光領域の閾値を設定する方法を説明する図である。It is a figure explaining the method to set the threshold value of the disturbance light area | region which concerns on embodiment. 実施の形態に係る発光制御処理を示すフローチャート、および点灯、消灯タイミング、撮像タイミングを示すタイミングチャートである。It is a flowchart which shows the light emission control processing which concerns on embodiment, and a timing chart which shows lighting, extinguishing timing, and imaging timing. 実施の形態に係る距離取得処理を示すフローチャートである。It is a flowchart which shows the distance acquisition process which concerns on embodiment. 実施の形態に係る物体検出処理を示すフローチャートである。It is a flowchart which shows the object detection process which concerns on embodiment. 変更例に係る発光制御処理を示すフローチャート、および点灯、消灯タイミング、撮像タイミングを示すタイミングチャートである。It is a flowchart which shows the light emission control process which concerns on the example of a change, and a timing chart which shows lighting, light extinction timing, and imaging timing. 変更例に係る距離取得処理を示すフローチャートである。It is a flowchart which shows the distance acquisition process which concerns on the example of a change. 変更例に係る高輝度領域および外乱光領域の閾値を設定する方法を説明する図である。It is a figure explaining the method to set the threshold value of the high-intensity area | region and disturbance light area | region which concerns on the example of a change. 変更例に係る距離取得処理および物体検出処理を示すフローチャートである。It is a flowchart which shows the distance acquisition process and object detection process which concern on the example of a change. 変更例に係る物体検出装置の構成を示す図、である。It is a figure which shows the structure of the object detection apparatus which concerns on the example of a change. 変更例に係る物体検出処理を示すフローチャートである。It is a flowchart which shows the object detection process which concerns on the example of a change.

以下、本発明の実施の形態につき図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

本実施の形態は、ノート型のパーソナルコンピュータに本発明に係る物体検出装置を適用したものである。この他、本発明に係る物体検出装置は、デスクトップ型のパーソナルコンピュータやテレビ等の他の機器にも適宜適用可能なものである。なお、本発明に係る物体検出装置は、必ずしも、他の機器に一体的に搭載されなくとも良く、単独で一つの装置を構成するものであっても良い。   In this embodiment, the object detection apparatus according to the present invention is applied to a notebook personal computer. In addition, the object detection apparatus according to the present invention can be appropriately applied to other devices such as a desktop personal computer and a television. Note that the object detection device according to the present invention does not necessarily have to be integrally mounted on other devices, and may constitute a single device alone.

以下に示す実施の形態において、距離取得部21bは、請求項に記載の「情報取得部」に相当する。撮像信号処理回路23は、請求項に記載の「輝度取得部」に相当する。CMOSイメージセンサ240は、請求項に記載の「イメージセンサ」に相当する。距離取得部21bによって取得される距離情報は、請求項に記載の「物体を検出するための情報」に相当する。高輝度領域Hは、請求項に記載の「物体の検出候補となり得る画素範囲」に相当する。外乱光領域Oは、請求項に記載の「物体検出の対象から除かれる画素範囲」に相当する。点灯タイミングp1は、請求項に記載の「第1のタイミング」に相当する。消灯タイミングp2は、請求項に記載の「第2のタイミング」に相当する。差ΔBは、請求項に記載の「差分値」に相当する。輝度差閾値ΔBshは、請求項に記載の「閾値」に相当する。距離取得範囲ΔLは、請求項に記載の「距離範囲」に相当する。また、情報取得装置2と情報処理部3とを含む構成が、請求項10に記載の物体検出装置に相当する。ただし、上記請求項と本実施の形態との対応の記載は、あくまで一例であって、請求項に係る発明を本実施の形態に限定するものではない。   In the embodiment described below, the distance acquisition unit 21b corresponds to an “information acquisition unit” recited in the claims. The imaging signal processing circuit 23 corresponds to a “luminance acquisition unit” recited in the claims. The CMOS image sensor 240 corresponds to an “image sensor” recited in the claims. The distance information acquired by the distance acquisition unit 21b corresponds to “information for detecting an object” recited in the claims. The high luminance region H corresponds to a “pixel range that can be an object detection candidate” described in the claims. The disturbance light region O corresponds to “a pixel range excluded from the object detection target” recited in the claims. The lighting timing p1 corresponds to a “first timing” recited in the claims. The extinguishing timing p2 corresponds to a “second timing” recited in the claims. The difference ΔB corresponds to a “difference value” recited in the claims. The luminance difference threshold value ΔBsh corresponds to a “threshold value” recited in the claims. The distance acquisition range ΔL corresponds to the “distance range” recited in the claims. A configuration including the information acquisition device 2 and the information processing unit 3 corresponds to the object detection device according to claim 10. However, the description of the correspondence between the above claims and the present embodiment is merely an example, and the invention according to the claims is not limited to the present embodiment.

図1は、本実施の形態に係るパーソナルコンピュータ1の概略構成を示す図である。図1に示すように、パーソナルコンピュータ1は、情報取得装置2と、情報処理部3を備えている。この他、パーソナルコンピュータ1は、キーボード4と、操作パッド5と、モニタ6を備えている。   FIG. 1 is a diagram showing a schematic configuration of a personal computer 1 according to the present embodiment. As shown in FIG. 1, the personal computer 1 includes an information acquisition device 2 and an information processing unit 3. In addition, the personal computer 1 includes a keyboard 4, an operation pad 5, and a monitor 6.

情報取得装置2は、目標領域全体に、可視光の波長帯よりも長い赤外の波長帯域の光(赤外光)を投射し、その反射光をCMOSイメージセンサにて受光することにより、目標領域に存在する物体までの距離(以下、「距離情報」という)を取得する。情報処理部3は、情報取得装置2により取得された距離情報に基づいて、目標領域に存在する所定の物体を検出し、さらに、当該物体の動きを検出する。そして、情報処理部3は、当該物体の動きに応じて、パーソナルコンピュータ1の機能を制御する。   The information acquisition device 2 projects light (infrared light) in an infrared wavelength band longer than the visible light wavelength band over the entire target region, and receives the reflected light with a CMOS image sensor, thereby achieving the target. A distance to an object existing in the region (hereinafter referred to as “distance information”) is acquired. Based on the distance information acquired by the information acquisition device 2, the information processing unit 3 detects a predetermined object existing in the target area, and further detects the movement of the object. Then, the information processing unit 3 controls the function of the personal computer 1 according to the movement of the object.

たとえば、ユーザが手を用いて所定のジェスチャを行うと、情報取得装置2からジェスチャに応じた距離情報が情報処理部3に送信される。この情報に基づき、情報処理部3は、ユーザの手を検出対象物体として検出し、手の動きに対応付けられた機能(画面の拡大・縮小や、画面の明るさ調整、ページ送り、等)を実行する。   For example, when the user performs a predetermined gesture using his / her hand, distance information corresponding to the gesture is transmitted from the information acquisition device 2 to the information processing unit 3. Based on this information, the information processing unit 3 detects the user's hand as a detection target object, and functions associated with the movement of the hand (screen enlargement / reduction, screen brightness adjustment, page turning, etc.) Execute.

図2は、情報取得装置2と情報処理部3の構成を示す図である。   FIG. 2 is a diagram illustrating the configuration of the information acquisition device 2 and the information processing unit 3.

情報取得装置2は、光学部の構成として、投射部100と撮像部200とを備えている。投射部100と撮像部200は、X軸方向に並ぶように、配置されている。   The information acquisition device 2 includes a projection unit 100 and an imaging unit 200 as the configuration of the optical unit. The projection unit 100 and the imaging unit 200 are arranged so as to be aligned in the X-axis direction.

投射部100は、赤外の波長帯域の光を出射する光源110を備えている。   The projection unit 100 includes a light source 110 that emits light in an infrared wavelength band.

撮像部200は、アパーチャ210と、撮像レンズ220と、フィルタ230と、CMOSイメージセンサ240とを備えている。この他、情報取得装置2は、回路部の構成として、CPU(Central Processing Unit)21と、赤外光源駆動回路22と、撮像信号処理回路23と、入出力回路24と、メモリ25を備えている。   The imaging unit 200 includes an aperture 210, an imaging lens 220, a filter 230, and a CMOS image sensor 240. In addition, the information acquisition device 2 includes a CPU (Central Processing Unit) 21, an infrared light source driving circuit 22, an imaging signal processing circuit 23, an input / output circuit 24, and a memory 25 as a circuit unit. Yes.

なお、このように、投射部100が赤外の波長帯域の光を出射する光源110を備え、撮像部200が撮像レンズ220とフィルタ230とを備える構成は、請求項9に記載の構成の一例である。   The configuration in which the projection unit 100 includes the light source 110 that emits light in the infrared wavelength band and the imaging unit 200 includes the imaging lens 220 and the filter 230 is an example of the configuration according to claim 9. It is.

光源110から目標領域に投射された光は、目標領域に存在する物体によって反射され、アパーチャ210を介して撮像レンズ220に入射する。   The light projected from the light source 110 onto the target area is reflected by an object existing in the target area and enters the imaging lens 220 via the aperture 210.

アパーチャ210は、撮像レンズ220のFナンバーに合うように、外部からの光を制限する。撮像レンズ220は、アパーチャ210を介して入射された光をCMOSイメージセンサ240上に集光する。フィルタ230は、光源110の出射波長を含む波長帯域の光を透過し、可視光の波長帯域の光をカットするバンドパスフィルタである。   The aperture 210 limits light from the outside so as to match the F number of the imaging lens 220. The imaging lens 220 collects the light incident through the aperture 210 on the CMOS image sensor 240. The filter 230 is a bandpass filter that transmits light in the wavelength band including the emission wavelength of the light source 110 and cuts light in the visible wavelength band.

CMOSイメージセンサ240は、後述のように、光源110から出射される赤外光の波長帯域に対して感度を有する。CMOSイメージセンサ240は、撮像レンズ220にて集光された光を受光して、画素毎に、受光量に応じた信号を撮像信号処理回路23に出力する。ここで、CMOSイメージセンサ240は、各画素における受光から高レスポンスでその画素の信号を撮像信号処理回路23に出力できるよう、信号の出力速度が高速化されている。   As will be described later, the CMOS image sensor 240 has sensitivity to the wavelength band of infrared light emitted from the light source 110. The CMOS image sensor 240 receives the light collected by the imaging lens 220 and outputs a signal corresponding to the amount of received light to the imaging signal processing circuit 23 for each pixel. Here, in the CMOS image sensor 240, the output speed of the signal is increased so that the signal of the pixel can be output to the imaging signal processing circuit 23 with high response from the light reception in each pixel.

本実施の形態において、CMOSイメージセンサ240の撮像有効領域(センサとして信号を出力する領域)は、たとえば、VGA(横640画素×縦480画素)のサイズである。CMOSイメージセンサ240の撮像有効領域は、XGA(横1024画素×縦768画素)のサイズや、SXGA(横1280画素×縦1024画素)のサイズ等、他のサイズであっても良い。   In the present embodiment, the effective imaging area of the CMOS image sensor 240 (area where signals are output as a sensor) is, for example, the size of VGA (640 horizontal pixels × 480 vertical pixels). The imaging effective area of the CMOS image sensor 240 may have other sizes such as an XGA (horizontal 1024 pixels × vertical 768 pixels) size or an SXGA (horizontal 1280 pixels × vertical 1024 pixels) size.

CPU21は、メモリ25に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU21には、光源制御部21aと、距離取得部21bとの機能が付与される。   The CPU 21 controls each unit according to a control program stored in the memory 25. With this control program, the functions of the light source control unit 21a and the distance acquisition unit 21b are given to the CPU 21.

光源制御部21aは、赤外光源駆動回路22を制御する。距離取得部21bは、CMOSイメージセンサ240から出力される信号に基づいて、後述のように距離情報を取得する。   The light source control unit 21 a controls the infrared light source driving circuit 22. The distance acquisition unit 21b acquires distance information as described later based on a signal output from the CMOS image sensor 240.

赤外光源駆動回路22は、CPU21からの制御信号に応じて光源110を駆動する。   The infrared light source driving circuit 22 drives the light source 110 according to a control signal from the CPU 21.

撮像信号処理回路23は、CPU21からの制御を受けてCMOSイメージセンサ240を駆動し、CMOSイメージセンサ240から出力される信号から、各画素の輝度信号を取得し、取得した輝度信号をCPU21に出力する。後述のように、撮像信号処理回路23は、CPU21により設定された露光時間をCMOSイメージセンサ240の各画素に適用し、さらに、CMOSイメージセンサ240から出力される信号に対してCPU21により設定されたゲインを適用して、画素毎に、輝度信号を取得する。   The imaging signal processing circuit 23 drives the CMOS image sensor 240 under the control of the CPU 21, acquires the luminance signal of each pixel from the signal output from the CMOS image sensor 240, and outputs the acquired luminance signal to the CPU 21. To do. As will be described later, the imaging signal processing circuit 23 applies the exposure time set by the CPU 21 to each pixel of the CMOS image sensor 240, and further sets the CPU 21 for the signal output from the CMOS image sensor 240. A gain signal is applied to obtain a luminance signal for each pixel.

CPU21は、撮像信号処理回路23から供給される輝度信号をもとに、情報取得装置2から検出対象物体の各部までの距離を、距離取得部21bによる処理によって算出する。距離情報は、CMOSイメージセンサ240の画素毎に取得される。距離情報の取得処理については、追って、図14を参照して説明する。   Based on the luminance signal supplied from the imaging signal processing circuit 23, the CPU 21 calculates the distance from the information acquisition device 2 to each part of the detection target object through processing by the distance acquisition unit 21b. The distance information is acquired for each pixel of the CMOS image sensor 240. The distance information acquisition process will be described later with reference to FIG.

入出力回路24は、情報処理部3とのデータ通信を制御する。   The input / output circuit 24 controls data communication with the information processing unit 3.

メモリ25は、CPU21により実行される制御プログラムの他、距離情報の取得に用いられる距離変換関数を保持している。この他、メモリ25は、CPU21における処理の際のワーク領域としても用いられる。なお、距離変換関数については、追って、図4(b)を参照して説明する。   In addition to the control program executed by the CPU 21, the memory 25 holds a distance conversion function used for acquiring distance information. In addition, the memory 25 is also used as a work area during processing in the CPU 21. The distance conversion function will be described later with reference to FIG.

情報処理部3は、CPU31と、入出力回路32と、メモリ33を備えている。なお、情報処理部3には、図2に示す構成の他、パーソナルコンピュータ1の各部を駆動および制御するための構成が配されるが、便宜上、これら周辺回路の構成は図示省略されている。   The information processing unit 3 includes a CPU 31, an input / output circuit 32, and a memory 33. In addition to the configuration shown in FIG. 2, the information processing unit 3 is provided with a configuration for driving and controlling each unit of the personal computer 1. For convenience, the configuration of these peripheral circuits is not shown.

CPU31は、メモリ33に格納された制御プログラムに従って各部を制御する。かかる制御プログラムによって、CPU31には、物体検出部31aの機能と、当該物体検出部31aからの信号に応じて、パーソナルコンピュータ1の機能を制御するための機能制御部31bの機能が付与される。   The CPU 31 controls each unit according to a control program stored in the memory 33. With this control program, the function of the function detection unit 31b for controlling the function of the personal computer 1 is given to the CPU 31 in accordance with the function of the object detection unit 31a and the signal from the object detection unit 31a.

物体検出部31aは、距離取得部21bによって取得される距離情報から物体の形状を抽出し、さらに、抽出した物体形状の動きを検出する。機能制御部31bは、物体検出部31aにより検出された物体の動きが所定の動きパターンに合致しているかを判定し、物体の動きが所定の動きパターンに合致している場合に、当該動きパターンに対応する制御を実行する。   The object detection unit 31a extracts the shape of the object from the distance information acquired by the distance acquisition unit 21b, and further detects the movement of the extracted object shape. The function control unit 31b determines whether the movement of the object detected by the object detection unit 31a matches a predetermined movement pattern. If the movement of the object matches the predetermined movement pattern, the movement pattern The control corresponding to is executed.

図3(a)、図3(b)は、投射部100および撮像部200の構成を示す図である。図3(a)は、回路基板300に設置された状態の投射部100および撮像部200を示す平面図であり、図3(b)は、図3(a)のA−A’断面図である。   FIG. 3A and FIG. 3B are diagrams illustrating configurations of the projection unit 100 and the imaging unit 200. 3A is a plan view showing the projection unit 100 and the imaging unit 200 installed on the circuit board 300, and FIG. 3B is a cross-sectional view taken along line AA ′ of FIG. is there.

図3(a)、(b)を参照して、光源110は、発光ダイオード(LED:LightEmitting Diode)、半導体レーザ等からなっている。光源110は、赤外光の利用効率を高めるため、レンズ等によって、目標領域において赤外光が撮像範囲の近傍に集まるように調整されている。光源110は、回路基板300上に実装されている。   Referring to FIGS. 3A and 3B, the light source 110 includes a light emitting diode (LED), a semiconductor laser, and the like. The light source 110 is adjusted by a lens or the like so that infrared light gathers in the vicinity of the imaging range in the target area in order to increase the use efficiency of infrared light. The light source 110 is mounted on the circuit board 300.

撮像部200は、上述のアパーチャ210、撮像レンズ220、フィルタ230およびCMOSイメージセンサ240の他、レンズバレル250と、撮像レンズホルダ260を備えている。CMOSイメージセンサ240は、回路基板300上に実装されている。撮像レンズ220は、レンズバレル250に装着され、レンズバレル250は、撮像レンズ220を保持した状態で撮像レンズホルダ260に装着される。撮像レンズホルダ260は、下面に凹部を有し、この凹部に、フィルタ230が装着される。こうして、撮像レンズ220とフィルタ230とを保持した状態で、撮像レンズホルダ260が、CMOSイメージセンサ240を覆うように、回路基板300上に設置される。   The imaging unit 200 includes a lens barrel 250 and an imaging lens holder 260 in addition to the aperture 210, the imaging lens 220, the filter 230, and the CMOS image sensor 240 described above. The CMOS image sensor 240 is mounted on the circuit board 300. The imaging lens 220 is attached to the lens barrel 250, and the lens barrel 250 is attached to the imaging lens holder 260 while holding the imaging lens 220. The imaging lens holder 260 has a recess on the lower surface, and the filter 230 is attached to the recess. In this way, the imaging lens holder 260 is installed on the circuit board 300 so as to cover the CMOS image sensor 240 while holding the imaging lens 220 and the filter 230.

本実施の形態において、撮像レンズ220は、4枚のレンズにより構成されている。しかしながら、撮像レンズ220を構成するレンズの数はこれに限られるものではなく、他の枚数のレンズから撮像レンズ220が構成されても良い。   In the present embodiment, the imaging lens 220 is composed of four lenses. However, the number of lenses constituting the imaging lens 220 is not limited to this, and the imaging lens 220 may be configured from other numbers of lenses.

回路基板300には、投射部100と撮像部200の他、情報取得装置2を構成する回路部400が実装される。図2に示すCPU21、赤外光源駆動回路22、撮像信号処理回路23、入出力回路24およびメモリ25は、かかる回路部400に含まれる。   In addition to the projection unit 100 and the imaging unit 200, the circuit unit 400 constituting the information acquisition device 2 is mounted on the circuit board 300. The CPU 21, the infrared light source driving circuit 22, the imaging signal processing circuit 23, the input / output circuit 24 and the memory 25 shown in FIG. 2 are included in the circuit unit 400.

図3(c)は、目標領域に対する赤外光の投射状態および撮像部200による目標領域の撮像状態を模式的に示す図である。   FIG. 3C is a diagram schematically illustrating a projection state of infrared light on the target region and an imaging state of the target region by the imaging unit 200.

図3(c)の下部には、投射部100による赤外光の投射状態と、撮像部200による目標領域の撮像状態が示されている。また、図3(c)の上部には、目標領域における赤外光の投射範囲と、目標領域に対する撮像部200の撮像範囲が模式的に示されている。さらに、図3(c)の上部には、CMOSイメージセンサ240の撮像有効領域に対応する領域が示されている。図3(c)において、ΔLは、情報取得装置2による距離取得範囲を示し、LmaxとLminは、それぞれ、情報取得装置2によって取得可能な最大距離と最小距離を示している。図3(c)の上部には、目標領域が最大距離Lmaxの位置にあるときの投射範囲、撮像範囲および撮像有効領域が示されている。   In the lower part of FIG. 3C, an infrared light projection state by the projection unit 100 and a target region imaging state by the imaging unit 200 are shown. 3C schematically shows the infrared light projection range in the target area and the imaging range of the imaging unit 200 for the target area. Furthermore, an area corresponding to the effective imaging area of the CMOS image sensor 240 is shown in the upper part of FIG. In FIG. 3C, ΔL indicates a distance acquisition range by the information acquisition device 2, and Lmax and Lmin indicate a maximum distance and a minimum distance that can be acquired by the information acquisition device 2, respectively. In the upper part of FIG. 3C, a projection range, an imaging range, and an imaging effective area when the target area is at the position of the maximum distance Lmax are shown.

図3(c)に示すように、撮像範囲と投射範囲は、目標領域において互いに重なり合っており、撮像範囲と投射範囲とが重なる範囲に、撮像有効領域が位置付けられる。   As shown in FIG. 3C, the imaging range and the projection range overlap each other in the target area, and the imaging effective region is positioned in a range where the imaging range and the projection range overlap.

目標領域をCMOSイメージセンサ240で撮像するためには、CMOSイメージセンサ240の撮像有効領域に対応する領域が、投射範囲内に含まれている必要がある。一方、距離が短くなるにつれて、投射範囲が狭くなり、やがて、投射範囲が撮像有効領域に対応する領域に掛らなくなる。したがって、最小距離Lminは、少なくとも、投射範囲が撮像有効領域全体に掛かり得る最小の限界距離よりも長く設定される必要がある。   In order to image the target area with the CMOS image sensor 240, an area corresponding to the effective imaging area of the CMOS image sensor 240 needs to be included in the projection range. On the other hand, as the distance becomes shorter, the projection range becomes narrower and eventually the projection range does not cover the area corresponding to the imaging effective area. Therefore, the minimum distance Lmin needs to be set to be longer than at least the minimum limit distance that the projection range can cover the entire imaging effective area.

一方、最大距離Lmaxは、手等の検出対象物体が存在し得る距離範囲を想定して設定される。最大距離Lmaxが長すぎると、検出対象物体の背景が撮像画像に映り込み、これにより、検出対象物体の検出精度が低下する惧れがある。したがって、最大距離Lmaxは、検出対象物体の背景が撮像画像に映り込まないよう、手等の検出対象物体が存在し得る距離範囲を想定して設定される。   On the other hand, the maximum distance Lmax is set assuming a distance range in which a detection target object such as a hand can exist. If the maximum distance Lmax is too long, the background of the detection target object is reflected in the captured image, which may reduce the detection accuracy of the detection target object. Therefore, the maximum distance Lmax is set assuming a distance range in which a detection target object such as a hand can exist so that the background of the detection target object does not appear in the captured image.

図4(a)は、CMOSイメージセンサ240上の各画素の感度を模式的に示す図である。   FIG. 4A is a diagram schematically illustrating the sensitivity of each pixel on the CMOS image sensor 240.

本実施の形態では、CMOSイメージセンサ240として、カラーセンサが用いられる。したがって、CMOSイメージセンサ240には、赤、緑、青をそれぞれ検知する3種の画素が含まれる。   In the present embodiment, a color sensor is used as the CMOS image sensor 240. Therefore, the CMOS image sensor 240 includes three types of pixels that detect red, green, and blue, respectively.

図4(a)において、R、G、Bは、それぞれ、CMOSイメージセンサ240に含まれる赤、緑、青の画素の感度を示している。図4(a)に示すとおり、赤、緑、青の画素の感度は、赤外の波長帯域である800nm以上の帯域において、略同じ感度となっている(図4(a)の斜線部分を参照)。したがって、図3(b)に示すフィルタ230によって、可視光の波長帯域が除去されると、CMOSイメージセンサ240の赤、緑、青の画素の感度は、互いに略等しくなる。このため、赤、緑、青の画素に、それぞれ、同じ光量の赤外光が入射すると、各色の画素から出力される信号の値は略等しくなる。よって、各画素からの信号を画素間で調整する必要はなく、各画素からの信号をそのまま距離情報の取得に用いることができる。   In FIG. 4A, R, G, and B indicate the sensitivity of red, green, and blue pixels included in the CMOS image sensor 240, respectively. As shown in FIG. 4A, the sensitivity of the red, green, and blue pixels is substantially the same in the infrared wavelength band of 800 nm or more (the hatched portion in FIG. 4A). reference). Therefore, when the wavelength band of visible light is removed by the filter 230 shown in FIG. 3B, the sensitivity of the red, green, and blue pixels of the CMOS image sensor 240 becomes substantially equal to each other. For this reason, when the same amount of infrared light is incident on the red, green, and blue pixels, the values of the signals output from the pixels of the respective colors are substantially equal. Therefore, there is no need to adjust the signal from each pixel between the pixels, and the signal from each pixel can be used as it is for obtaining distance information.

図4(b)は、メモリ25に保持された距離変換関数の波形を模式的に示す図である。便宜上、図4(b)には、図3(c)に示す最大距離Lmaxおよび最小距離Lminと、距離取得範囲ΔLが併せて示されている。   FIG. 4B is a diagram schematically illustrating the waveform of the distance conversion function held in the memory 25. For convenience, FIG. 4B shows the maximum distance Lmax and the minimum distance Lmin shown in FIG. 3C and the distance acquisition range ΔL.

図4(b)に示すように、距離変換関数は、CMOSイメージセンサ240を介して取得される輝度値と、当該輝度値に対応する距離の関係を規定する。一般に、直進する光の光量は、距離の2乗に反比例して減衰する。したがって、投射部100から出射された赤外光は、投射部100から目標領域までの距離と目標領域から撮像部200までの距離を加算した距離の2乗分の1に光量が減衰した状態で、撮像部200によって受光される。
このため、図4(b)に示すように、CMOSイメージセンサ240を介して取得される輝度値は、物体までの距離が長いほど小さくなり、物体までの距離が短いほど大きくなる。したがって、距離と輝度との関係を規定する距離変換関数は、図4(b)に示すような曲線波形になる。
As shown in FIG. 4B, the distance conversion function defines the relationship between the luminance value acquired via the CMOS image sensor 240 and the distance corresponding to the luminance value. In general, the amount of light traveling straight is attenuated in inverse proportion to the square of the distance. Accordingly, the infrared light emitted from the projection unit 100 is attenuated to one-quarter of the distance obtained by adding the distance from the projection unit 100 to the target area and the distance from the target area to the imaging unit 200. The light is received by the imaging unit 200.
For this reason, as shown in FIG. 4B, the luminance value acquired via the CMOS image sensor 240 decreases as the distance to the object increases, and increases as the distance to the object decreases. Therefore, the distance conversion function that defines the relationship between the distance and the luminance has a curved waveform as shown in FIG.

図5(a)は、光源110を点灯させた状態で手と窓を撮像した撮像画像を示す図である。図5(b)は、この場合の情報取得装置2を横から見た模式図である。なお、図5(a)の撮像画像は、ハッチングが濃いほど、輝度が低く、ハッチングが薄いほど輝度が高いことが示されている。   FIG. 5A is a diagram illustrating a captured image obtained by capturing the hand and the window with the light source 110 turned on. FIG. 5B is a schematic view of the information acquisition device 2 in this case as viewed from the side. 5A shows that the darker the hatching, the lower the luminance, and the lower the hatching, the higher the luminance.

図5(b)に示すように、目標領域には、検出対象物体として手が距離取得範囲ΔLに位置づけられ、最大距離Lmaxよりも遠方に壁面が配されている。壁面には、窓が備えられており、太陽光等、外部からの外乱光が入射している。   As shown in FIG. 5B, in the target area, a hand is positioned as the detection target object in the distance acquisition range ΔL, and a wall surface is arranged farther than the maximum distance Lmax. The wall surface is provided with a window, and external disturbance light such as sunlight enters.

このように、外乱光が入射した状態で検出対象物体を撮像すると、図5(a)に示すように、撮像画像に外乱光が写り込み、適正に手の形状を認識することができない。   As described above, when the detection target object is imaged in the state where the disturbance light is incident, the disturbance light is reflected in the captured image as shown in FIG. 5A, and the shape of the hand cannot be recognized properly.

そこで、本実施の形態では、撮像画像中における外乱光が入射した領域を特定するために、まず、光源110を点灯させた状態で目標領域を撮像し、その後、光源110の消灯させた状態で目標領域を撮像する。光源110を点灯させた状態で目標領域を撮像した撮像画像を「点灯画像」と称する。光源110を消灯させた状態で目標領域を撮像した撮像画像を「消灯画像」と称する。そして、点灯画像から高輝度領域を特定し、点灯画像の高輝度領域と消灯画像とを比較し、輝度値の変化が少ない領域を外乱領域と判定し、点灯画像から外乱領域を距離取得対象から除外する。   Therefore, in the present embodiment, in order to identify the region where disturbance light is incident in the captured image, first, the target region is imaged with the light source 110 turned on, and then the light source 110 is turned off. The target area is imaged. A captured image obtained by capturing the target area with the light source 110 turned on is referred to as a “lighted image”. A captured image obtained by capturing the target area with the light source 110 turned off is referred to as a “light-out image”. Then, the high luminance region is identified from the lit image, the high luminance region of the lit image is compared with the unlit image, the region with a small change in luminance value is determined as the disturbance region, and the disturbance region from the lit image is determined from the distance acquisition target. exclude.

図6(a)は、光源110を点灯させた状態で窓のみを撮像した点灯画像を示す図である。図6(b)は、この場合の情報取得装置2を横から見た模式図である。図6(c)は、光源110を消灯させた状態で窓のみを撮像した消灯画像を示す図である。図6(d)は、この場合の情報取得装置2を横から見た模式図である。   FIG. 6A is a diagram illustrating a lighting image obtained by capturing only a window in a state where the light source 110 is turned on. FIG. 6B is a schematic view of the information acquisition device 2 in this case as viewed from the side. FIG. 6C is a diagram illustrating a light-off image obtained by capturing only the window with the light source 110 turned off. FIG. 6D is a schematic view of the information acquisition apparatus 2 in this case as viewed from the side.

図6(b)に示すように、窓は、距離取得範囲ΔLよりも遠方に位置付けられているため、光源110が点灯状態であっても、CMOSイメージセンサ240に入射する反射光の光量は小さい。   As shown in FIG. 6B, since the window is positioned farther than the distance acquisition range ΔL, the amount of reflected light incident on the CMOS image sensor 240 is small even when the light source 110 is turned on. .

これに対し、図6(b)に示すように、光源110が点灯状態であっても、図6(d)に示すように、光源110が消灯状態であっても、窓を介して入射する外乱光の光量は非常に大きい。   On the other hand, as shown in FIG. 6B, even if the light source 110 is in the on state or as shown in FIG. 6D, the light source 110 enters through the window. The amount of disturbance light is very large.

したがって、図6(c)、図6(d)に示す光源110が消灯状態である場合のCMOSイメージセンサ240に入射する光の光量と、図6(a)、図6(b)に示す光源110が点灯状態である場合のCMOSイメージセンサ240に入射する光の光量の差は、非常に小さい。   Therefore, the amount of light incident on the CMOS image sensor 240 when the light source 110 shown in FIGS. 6C and 6D is turned off, and the light source shown in FIGS. 6A and 6B. The difference in the amount of light incident on the CMOS image sensor 240 when 110 is lit is very small.

図7(a)は、窓が距離取得範囲ΔLに位置付けられた場合の点灯画像を示す図である。図7(b)は、この場合の情報取得装置2を横から見た模式図である。図7(c)は、窓が距離取得範囲ΔLに位置付けられた場合の消灯画像を示す図である。図7(d)は、この場合の情報取得装置2を横から見た模式図である。   FIG. 7A is a diagram illustrating a lighting image when the window is positioned in the distance acquisition range ΔL. FIG. 7B is a schematic view of the information acquisition device 2 in this case as viewed from the side. FIG. 7C is a diagram showing a light-off image when the window is positioned in the distance acquisition range ΔL. FIG. 7D is a schematic view of the information acquisition device 2 in this case as viewed from the side.

通常、蛍光灯、太陽光等の外乱光の光量は、光源110から出射される赤外光の光量に比べて非常に大きいため、図7(b)に示すように、窓が距離取得範囲ΔLに位置付けら
れるほど情報取得装置2に近付けられた場合、CMOSイメージセンサ240の出力が飽和し、輝度値は、最大値となる。また、図7(c)、図7(d)に示すように、光源110が消灯状態であっても、CMOSイメージセンサ240の出力が飽和し、輝度値は、最大値となる。
Usually, the amount of disturbance light such as fluorescent light and sunlight is very large compared to the amount of infrared light emitted from the light source 110, and therefore, as shown in FIG. 7B, the window has a distance acquisition range ΔL. When the information acquisition device 2 is moved closer to the position, the output of the CMOS image sensor 240 is saturated and the luminance value becomes the maximum value. Further, as shown in FIGS. 7C and 7D, even when the light source 110 is turned off, the output of the CMOS image sensor 240 is saturated and the luminance value becomes the maximum value.

このように、外乱光の光源が情報取得装置2に近付いている場合、CMOSイメージセンサ240の出力が飽和し易い。   Thus, when the light source of disturbance light is approaching the information acquisition device 2, the output of the CMOS image sensor 240 is likely to be saturated.

したがって、図7(c)、図7(d)に示す光源110が消灯状態である場合のCMOSイメージセンサ240に入射する光の光量と、図7(a)、図7(b)に示す光源110が点灯状態である場合のCMOSイメージセンサ240に入射する光の光量の差は、略同じである。通常、光源110が点灯状態で外乱光が入射した領域における輝度と光源110が消灯状態で外乱光が入射した領域における輝度の差は、略同じまたは非常に小さいものとなる。   Accordingly, the amount of light incident on the CMOS image sensor 240 when the light source 110 shown in FIGS. 7C and 7D is turned off, and the light source shown in FIGS. 7A and 7B. The difference in the amount of light incident on the CMOS image sensor 240 when 110 is lit is substantially the same. Usually, the difference between the luminance in a region where disturbance light is incident with the light source 110 turned on and the luminance in a region where disturbance light is incident with the light source 110 turned off is substantially the same or very small.

図8(a)は、光源110を点灯させた状態で手のみを撮像した点灯画像を示す図である。図8(b)は、この場合の情報取得装置2を横からみた模式図である。図8(c)は、光源110を消灯させた状態で手のみを撮像した消灯画像を示す図である。図8(d)は、この場合の情報取得装置2を横から見た模式図である。   FIG. 8A is a diagram illustrating a lighting image obtained by capturing only the hand in a state where the light source 110 is turned on. FIG. 8B is a schematic view of the information acquisition device 2 in this case as viewed from the side. FIG. 8C is a diagram illustrating a light-off image obtained by capturing only the hand with the light source 110 turned off. FIG. 8D is a schematic view of the information acquisition apparatus 2 in this case as viewed from the side.

図8(b)に示すように、手は、距離取得範囲ΔLに位置付けられているため、光源110が点灯状態である場合、CMOSイメージセンサ240に入射する反射光の光量は大きい。   As shown in FIG. 8B, since the hand is positioned in the distance acquisition range ΔL, the amount of reflected light incident on the CMOS image sensor 240 is large when the light source 110 is in a lighting state.

これに対し、図8(d)に示すように、光源110が消灯状態である場合、距離取得範囲ΔLには物体が位置付けられておらず、遠方に配置された壁面による反射光のみが入射するため、CMOSイメージセンサ240に入射する反射光の光量は小さい。   On the other hand, as shown in FIG. 8D, when the light source 110 is in the extinguished state, no object is positioned in the distance acquisition range ΔL, and only the reflected light from the wall surface arranged in the distance is incident. Therefore, the amount of reflected light incident on the CMOS image sensor 240 is small.

したがって、図8(c)、図8(d)に示す光源110が消灯状態である場合のCMOSイメージセンサ240に入射光の光量と、図8(a)、図8(b)に示す光源110が点灯状態である場合のCMOSイメージセンサ240に入射する光の光量の差は、非常に大きい。   Therefore, the amount of incident light on the CMOS image sensor 240 when the light source 110 shown in FIGS. 8C and 8D is in the extinguished state, and the light source 110 shown in FIGS. 8A and 8B. The difference in the amount of light incident on the CMOS image sensor 240 when is turned on is very large.

このように、撮像画像中において、物体が写り込む領域は、光源110の点灯状態と消灯状態での輝度の差が大きく、外乱光が入射した領域は、光源110の点灯状態と消灯状態での輝度の差が非常に小さい、または略同じである。   In this way, in the captured image, the region where the object is reflected has a large difference in luminance between the lighting state and the unlighting state of the light source 110, and the region where the disturbance light is incident is between the lighting state and the unlighting state of the light source 110. The difference in brightness is very small or substantially the same.

したがって、点灯画像と消灯画像の輝度値を比較することにより、外乱光が入射した領域を判別することができる。なお、外乱光が入射した領域を外乱光領域と称する。   Therefore, by comparing the luminance values of the lit image and the unlit image, it is possible to determine the area where the disturbance light is incident. Note that a region where disturbance light is incident is referred to as a disturbance light region.

図9(a)は、光源110を点灯させた状態で手と窓を撮像した点灯画像を示す図である。図9(b)は、この場合の情報取得装置2を横からみた模式図である。図9(c)は、光源110を消灯させた状態で手と窓を撮像した消灯画像を示す図である。図9(d)は、この場合の情報取得装置2を横から見た模式図である。なお、図9(a)、図9(b)は、図5(a)、図5(b)と同様の図が示されている。   FIG. 9A is a diagram illustrating a lighting image obtained by imaging a hand and a window with the light source 110 turned on. FIG. 9B is a schematic view of the information acquisition apparatus 2 in this case as viewed from the side. FIG. 9C is a diagram illustrating a light-off image obtained by capturing the hand and the window with the light source 110 turned off. FIG. 9D is a schematic view of the information acquisition device 2 in this case as viewed from the side. Note that FIGS. 9A and 9B are similar to FIGS. 5A and 5B.

図9(a)に示す点灯画像から外乱光領域を特定するために、図9(c)に示すように、光源110を消灯させた状態で目標領域を撮像し、消灯画像を取得する。点灯画像と消灯画像の画素を比較するため、まず、点灯画像から高輝度の画素からなる領域を抽出する。なお、高輝度の画素からなる領域を高輝度領域と称する。   In order to identify the disturbance light region from the lit image shown in FIG. 9A, as shown in FIG. 9C, the target region is imaged with the light source 110 turned off, and the extinguished image is acquired. In order to compare the pixels of the lit image and the unlit image, first, an area composed of high-luminance pixels is extracted from the lit image. Note that an area composed of high-luminance pixels is referred to as a high-luminance area.

図10(a)〜図10(c)は、点灯画像から高輝度領域を設定する方法を説明する図である。   Fig.10 (a)-FIG.10 (c) are the figures explaining the method of setting a high-intensity area | region from a lighting image.

点灯画像から高輝度領域を抽出するため、点灯画像の画素ごとに輝度値を参照し、各画素の輝度値が所定の輝度閾値Bsh以上となる画素を抽出する。そして、輝度値が所定の輝度閾値Bsh以上となる領域が高輝度領域Hとして抽出される。これにより、図10(a)に示すように、手の位置と外乱光が入射した領域が高輝度領域Hとして抽出される。   In order to extract a high luminance region from the lighting image, the luminance value is referred to for each pixel of the lighting image, and pixels whose luminance value is equal to or higher than a predetermined luminance threshold Bsh are extracted. Then, a region where the luminance value is equal to or greater than a predetermined luminance threshold Bsh is extracted as the high luminance region H. Thereby, as shown in FIG. 10A, the position of the hand and the region where the disturbance light is incident are extracted as the high luminance region H.

なお、点灯画像に高輝度領域Hが設定される構成は、請求項4に記載の構成の一例である。また、輝度閾値Bsh以上の輝度値の領域が高輝度領域Hに設定される構成は、請求項5に記載の構成の一例である。   Note that the configuration in which the high luminance region H is set in the lighting image is an example of the configuration according to claim 4. A configuration in which a region having a luminance value equal to or higher than the luminance threshold Bsh is set as the high luminance region H is an example of a configuration according to claim 5.

通常、物体検出時には、図10(c)に示すように、距離取得範囲ΔLに検出対象物体が位置付けられるため、点灯画像における検出対象物体の位置の輝度値は、最大で最小距離Lminの距離に相当する輝度値が、最小で最大距離Lmaxの距離に相当する輝度値が出力される。したがって、点灯画像の画素の輝度値が距離取得範囲ΔLの最小距離Lminの距離に相当する輝度以上であれば、少なくとも外乱光が入射した領域であると想定される。さらに、点灯画像の画素の輝度値が距離取得範囲ΔLの最大距離Lmaxの距離に相当する輝度以上であれば、外乱光が入射した領域、または距離取得範囲ΔLに検出対象物体が位置付けられた領域であると想定される。   Normally, at the time of object detection, as shown in FIG. 10C, the detection target object is positioned in the distance acquisition range ΔL, so that the luminance value at the position of the detection target object in the lighting image is a maximum distance of the minimum distance Lmin. A luminance value corresponding to the minimum distance Lmax corresponding to the minimum luminance value is output. Therefore, if the luminance value of the pixel of the lighting image is equal to or higher than the luminance corresponding to the distance of the minimum distance Lmin of the distance acquisition range ΔL, it is assumed that at least the area where disturbance light is incident. Further, if the luminance value of the pixel of the lighting image is equal to or greater than the luminance corresponding to the distance of the maximum distance Lmax of the distance acquisition range ΔL, the region where the disturbance light is incident or the region where the detection target object is positioned in the distance acquisition range ΔL It is assumed that

本実施の形態では、高輝度領域Hを抽出するための輝度閾値Bshは、距離取得範囲ΔLの最大距離Lmaxの距離に相当する輝度値に設定される。   In the present embodiment, the brightness threshold Bsh for extracting the high brightness area H is set to a brightness value corresponding to the distance of the maximum distance Lmax of the distance acquisition range ΔL.

たとえば、最大距離Lmaxが100cmに設定され、100cmに相当する輝度値が30である場合、輝度閾値Bshは、30に設定される。これにより、物体が100cm以下に近付けられた領域または外乱光が入射した領域を特定することができる。   For example, when the maximum distance Lmax is set to 100 cm and the luminance value corresponding to 100 cm is 30, the luminance threshold value Bsh is set to 30. Thereby, the area | region where the object was brought close to 100 cm or less, or the area | region where disturbance light entered can be specified.

このように高輝度領域Hを抽出すると、後述の外乱光領域を抽出するための比較演算対象から、物体も外乱光も写り込んでいない背景の領域を除外することができる。これにより、外乱光領域の抽出にかかる演算量を抑えることができる。   When the high-luminance region H is extracted in this manner, a background region in which neither an object nor disturbance light is reflected can be excluded from a comparison calculation target for extracting a disturbance light region to be described later. Thereby, the amount of calculation concerning extraction of a disturbance light area | region can be suppressed.

たとえば、図10(a)に示す点灯画像の画素N0と、図10(b)に示す消灯画
像の画素F0は、高輝度領域H内に位置付けられていないため、外乱光領域の抽出にかかる比較演算対象から除外される。
For example, since the pixel N0 of the lit image shown in FIG. 10A and the pixel F0 of the unlit image shown in FIG. 10B are not positioned in the high luminance region H, a comparison related to the extraction of the disturbance light region is performed. Excluded from calculation.

また、本実施の形態では、輝度閾値Bshは、距離取得範囲ΔLの最大距離Lmaxに相当する輝度値に設定されるため、物体が写り込んだ位置も高輝度領域Hとして抽出される。したがって、外乱光の光量がやや小さく、距離取得範囲ΔLに相当する輝度が出力されるような場合であっても(たとえば、点灯時110、消灯時100)、外乱光領域の判定対象とすることができる。   In the present embodiment, the luminance threshold value Bsh is set to a luminance value corresponding to the maximum distance Lmax of the distance acquisition range ΔL, so that the position where the object is reflected is also extracted as the high luminance region H. Therefore, even if the amount of disturbance light is slightly small and the luminance corresponding to the distance acquisition range ΔL is output (for example, 110 when turned on, 100 when turned off), the disturbance light region should be determined. Can do.

図11(a)〜図11(e)は、点灯画像から外乱光領域を設定する方法を説明する図である。   Fig.11 (a)-FIG.11 (e) are the figures explaining the method of setting a disturbance light area | region from a lighting image.

高輝度領域Hが設定されると、高輝度領域Hに含まれる点灯画像の各画素の輝度値と、点灯画像の各画素に対応する位置の消灯画像の画素の輝度値の差が算出される。そして、点灯画像の各画素の輝度値と消灯画像の各画素の輝度値の差が所定の輝度差閾値ΔBsh以下となる画素を抽出する。そして、輝度値の差が所定の輝度差閾値ΔBsh以下となる
領域が外乱光領域Oとして抽出される。
When the high luminance area H is set, the difference between the luminance value of each pixel of the lit image included in the high luminance area H and the luminance value of the pixel of the unlit image at a position corresponding to each pixel of the lit image is calculated. . Then, a pixel in which the difference between the luminance value of each pixel of the lit image and the luminance value of each pixel of the unlit image is equal to or smaller than a predetermined luminance difference threshold ΔBsh is extracted. Then, a region where the difference in luminance value is equal to or smaller than a predetermined luminance difference threshold ΔBsh is extracted as the disturbance light region O.

たとえば、点灯画像の高輝度領域Hに含まれる画素N1の輝度値とこの画素N1に対応する位置の消灯画像の画素F1の輝度値の差が求められる。画素N1と画素F1には、それぞれ、外乱光が入射しており、輝度値の変化は略同じ、または非常に小さい。したがって、高輝度領域Hの画素N1の位置は、外乱光領域Oであると判定される。また、たとえば、点灯画像の高輝度領域Hに含まれる画素N2の輝度値とこの画素N2に対応する位置の消灯画像の画素F2の輝度値の差が求められる。画素N2には、光源110によって出射された赤外光の反射光が入射しており、画素F2には、光が入射しないため、輝度値の変化は大きい。したがって、高輝度領域Hの画素N2の位置は、外乱光領域Oではないと判定される。同様にして、高輝度領域Hに含まれる全ての画素について消灯画像の輝度値と比較され、図11(c)に示すように、高輝度領域Hのうち、輝度値の変化が小さい領域が外乱光領域Oとして抽出される。   For example, the difference between the luminance value of the pixel N1 included in the high luminance region H of the lit image and the luminance value of the pixel F1 of the unlit image at the position corresponding to the pixel N1 is obtained. Disturbance light is incident on each of the pixel N1 and the pixel F1, and the change in luminance value is substantially the same or very small. Therefore, the position of the pixel N1 in the high luminance region H is determined to be the ambient light region O. Further, for example, the difference between the luminance value of the pixel N2 included in the high luminance region H of the lit image and the luminance value of the pixel F2 of the extinguished image at a position corresponding to the pixel N2 is obtained. Since the reflected light of the infrared light emitted from the light source 110 is incident on the pixel N2 and no light is incident on the pixel F2, the change in the luminance value is large. Therefore, it is determined that the position of the pixel N2 in the high luminance region H is not the ambient light region O. Similarly, all pixels included in the high luminance area H are compared with the luminance value of the unlit image, and as shown in FIG. Extracted as light region O.

なお、高輝度領域Hのうち、輝度値の変化が小さい領域が外乱光領域Oとして設定される構成は、請求項1に記載の構成の一例である。また、光源110の点灯時と消灯時の輝度値の差に基づいて、外乱光領域Oが設定される構成は、請求項2に記載の構成の一例である。   In addition, the structure where the area | region where a change of a luminance value is small among the high-intensity area | regions H is set as the disturbance light area | region O is an example of the structure of Claim 1. The configuration in which the disturbance light region O is set based on the difference in luminance value between when the light source 110 is turned on and when the light source 110 is turned off is an example of a configuration according to claim 2.

図12(a)〜図12(c)は、外乱光領域Oの輝度差閾値ΔBshを設定する方法を説明する図である。   12A to 12C are diagrams illustrating a method for setting the luminance difference threshold ΔBsh of the disturbance light region O. FIG.

通常、物体検出時には、図12(c)に示すように、距離取得範囲ΔLに検出対象物体が位置付けられるため、光源110以外の光源がない場合、点灯画像における検出対象物体の位置(たとえば、画素N3)の輝度値は、少なくとも距離取得範囲ΔLの最大距離Lmaxの距離に相当する輝度値が出力される。また、物体検出時において、光源110以外の光源がない場合、消灯画像の各画素(たとえば、画素F3)の輝度値は、0が出力される。すなわち、高輝度領域H内であって、光源110の点灯時と消灯時の輝度の差が距離取得範囲ΔLの最大距離Lmaxの距離に相当する輝度以下であれば、外乱光が入射した領域であると想定される。   Normally, at the time of object detection, as shown in FIG. 12C, the detection target object is positioned in the distance acquisition range ΔL. Therefore, when there is no light source other than the light source 110, the position of the detection target object (for example, pixel) As the brightness value of N3), a brightness value corresponding to at least the distance of the maximum distance Lmax of the distance acquisition range ΔL is output. In addition, when there is no light source other than the light source 110 at the time of object detection, 0 is output as the luminance value of each pixel (for example, the pixel F3) of the extinguished image. That is, in the high luminance region H, if the difference in luminance between when the light source 110 is turned on and when the light source 110 is turned off is equal to or less than the luminance corresponding to the distance of the maximum distance Lmax of the distance acquisition range ΔL, the ambient light is incident. It is assumed that there is.

本実施の形態では、外乱光領域Oを抽出するための輝度差閾値ΔBshは、距離取得範囲ΔLの最大距離Lmaxの距離に相当する輝度値に設定される。   In the present embodiment, the luminance difference threshold ΔBsh for extracting the disturbance light region O is set to a luminance value corresponding to the distance of the maximum distance Lmax of the distance acquisition range ΔL.

なお、光源110の点灯時と消灯時の輝度の差が輝度差閾値ΔBsh以下となる領域が外乱光領域Oに設定される構成は、請求項3に記載の構成の一例である。また、光源110の点灯時と消灯時の輝度の差が距離取得範囲ΔLの最大距離Lmaxの距離に相当する輝度値に設定される構成は、請求項7に記載の構成の一例である。   The configuration in which the region in which the difference in luminance between when the light source 110 is turned on and when the light source 110 is not more than the luminance difference threshold ΔBsh is set as the disturbance light region O is an example of the configuration according to claim 3. A configuration in which the difference in luminance between when the light source 110 is turned on and when the light source 110 is turned off is set to a luminance value corresponding to the distance of the maximum distance Lmax of the distance acquisition range ΔL is an example of a configuration according to claim 7.

たとえば、最大距離Lmaxが100cmに設定され、100cmに相当する輝度値が30である場合、輝度差閾値ΔBshは、30に設定される。これにより、点灯時の輝度と消灯時の輝度の差が30以下である領域が外乱光領域Oとして抽出される。   For example, when the maximum distance Lmax is set to 100 cm and the luminance value corresponding to 100 cm is 30, the luminance difference threshold ΔBsh is set to 30. As a result, a region where the difference between the luminance at the time of lighting and the luminance at the time of lighting is 30 or less is extracted as the disturbance light region O.

こうして、外乱光領域Oが抽出されると、外乱光領域O内に含まれる各画素の輝度値がエラーに相当する値(たとえば、0)に補正される。これにより、図11(d)に示すように、点灯画像から外乱光領域Oが除外され、手の形状のみが写り込んだ画像が生成される。   Thus, when the disturbance light region O is extracted, the luminance value of each pixel included in the disturbance light region O is corrected to a value (for example, 0) corresponding to an error. Thereby, as shown in FIG. 11D, the disturbance light region O is excluded from the lighting image, and an image in which only the shape of the hand is reflected is generated.

このように、点灯画像から外乱光領域Oが除外されるため、適正に物体検出を行うことができる。   As described above, since the disturbance light region O is excluded from the lighting image, it is possible to appropriately detect the object.

図13(a)は、発光制御処理を示すフローチャートである。図13(b)は、光源110の点灯タイミングと消灯タイミング、およびCMOSイメージセンサ240の撮像タイミングを示すタイミングチャートである。図13(a)の処理は、図2に示すCPU21の機能のうち、光源制御部21aの機能によって実行される。   FIG. 13A is a flowchart showing the light emission control process. FIG. 13B is a timing chart showing the lighting timing and extinguishing timing of the light source 110 and the imaging timing of the CMOS image sensor 240. The process of FIG. 13A is executed by the function of the light source control unit 21a among the functions of the CPU 21 shown in FIG.

CPU21は、所定の発光間隔T1で光源110が点灯し、所定の消灯間隔T2で光源110が消灯するよう、赤外光源駆動回路22を駆動する(S11)。これにより、図13(b)に示すように、発光間隔T1、消灯間隔T2で、光源110がパルス発光される。発光間隔T1、消灯間隔T2は、あらかじめ、上記のように設定されたCMOSイメージセンサ240の露光時間Pよりも長くなるよう設定される。また、発光間隔T1は、消灯間隔T2と同じ時間間隔に設定される。   The CPU 21 drives the infrared light source driving circuit 22 so that the light source 110 is turned on at a predetermined light emission interval T1 and the light source 110 is turned off at a predetermined light emission interval T2 (S11). As a result, as shown in FIG. 13B, the light source 110 emits pulses at a light emission interval T1 and a light extinction interval T2. The light emission interval T1 and the turn-off interval T2 are set in advance to be longer than the exposure time P of the CMOS image sensor 240 set as described above. The light emission interval T1 is set to the same time interval as the turn-off interval T2.

そして、CPU21は、距離取得部21bによる距離取得の処理が終了したか否かを判定する(S12)。距離取得の処理が終了していない場合(S12:NO)、CPU21は、光源110のパルス発光を継続させる。距離取得処理が終了すると(S12:YES)、CPU21は、光源制御の処理を終了する。   Then, the CPU 21 determines whether or not the distance acquisition process by the distance acquisition unit 21b has ended (S12). When the distance acquisition process has not ended (S12: NO), the CPU 21 continues the pulse light emission of the light source 110. When the distance acquisition process ends (S12: YES), the CPU 21 ends the light source control process.

図14(a)、図14(b)は、距離取得処理を示すフローチャートである。図14(a)、図14(b)の処理は、図2に示すCPU21の機能のうち、距離取得部21bの機能によって実行される。   FIG. 14A and FIG. 14B are flowcharts showing the distance acquisition process. 14A and 14B is executed by the function of the distance acquisition unit 21b among the functions of the CPU 21 shown in FIG.

図14(a)を参照して、距離取得の処理が開始されると、まず、CPU21は、上記のように設定された露光時間Pとゲインをメモリ25から読み出して、撮像信号処理回路23に設定する(S101)。露光時間Pは、図13(b)に示すように、発光間隔T1、消灯間隔T2の半分の時間間隔となっている。撮像開始タイミングは、光源110の発光開始タイミングと一致するように設定される。これにより、光源110が発光したタイミングで、CMOSイメージセンサ240が1回目標領域を撮像し、光源110が消灯したタイミングで、CMOSイメージセンサ240が1回目標領域を撮像するように撮像処理が繰り返される。本実施の形態において、p1は、光源110の点灯タイミング、p2は、光源110の消灯タイミングである。   Referring to FIG. 14A, when the distance acquisition process is started, first, the CPU 21 reads the exposure time P and gain set as described above from the memory 25, and sends them to the imaging signal processing circuit 23. Set (S101). As shown in FIG. 13B, the exposure time P is a time interval that is half of the light emission interval T1 and the turn-off interval T2. The imaging start timing is set to coincide with the light emission start timing of the light source 110. Thus, the imaging process is repeated so that the CMOS image sensor 240 images the target area once at the timing when the light source 110 emits light, and the CMOS image sensor 240 images the target area once at the timing when the light source 110 turns off. It is. In the present embodiment, p1 is a lighting timing of the light source 110, and p2 is a lighting timing of the light source 110.

光源110の点灯タイミングp1が到来すると(S102:YES)、CPU21は、設定された露光時間Pとゲインをもって、CMOSイメージセンサ240から点灯画像を取得し(S103)、取得した点灯画像から、画素毎に輝度値を取得する(S104)。取得された輝度値は、CPU21に送信される。そして、CPU21は、撮像信号処理回路23から受信した各画素の輝度値をメモリ25に保持し、外乱光領域補正処理を実行する(S105)。   When the lighting timing p1 of the light source 110 arrives (S102: YES), the CPU 21 acquires a lighting image from the CMOS image sensor 240 with the set exposure time P and gain (S103), and for each pixel from the acquired lighting image. The luminance value is acquired (S104). The acquired luminance value is transmitted to the CPU 21. Then, the CPU 21 holds the luminance value of each pixel received from the imaging signal processing circuit 23 in the memory 25, and executes disturbance light region correction processing (S105).

図14(b)を参照して、点灯画像を取得すると、CPU21は、消灯タイミングp2が到来したか否かを判定する(S111)。消灯タイミングp2が到来していない場合(S111:NO)、CPU21は、消灯タイミングp2が到来するまで、処理を待機する。   Referring to FIG. 14B, when the lighting image is acquired, the CPU 21 determines whether or not the light extinguishing timing p2 has arrived (S111). When the turn-off timing p2 has not arrived (S111: NO), the CPU 21 waits for processing until the turn-off timing p2 has arrived.

消灯タイミングp2が到来すると(S111:YES)、CPU21は、点灯画像取得と同様に、設定された露光時間Pとゲインでもって、CMOSイメージセンサ240から消灯画像を取得し(S112)、取得した消灯画像から、画素毎に輝度値を取得する(S113)。取得された輝度値は、CPU21に送信される。   When the turn-off timing p2 arrives (S111: YES), the CPU 21 acquires a turn-off image from the CMOS image sensor 240 with the set exposure time P and gain, similarly to the turn-on image acquisition (S112). A luminance value is acquired for each pixel from the image (S113). The acquired luminance value is transmitted to the CPU 21.

CPU21は、撮像信号処理回路23から受信した各画素の輝度値をメモリ25に保持
し、さらに、輝度が輝度閾値Bsh以上の点灯画像の領域を高輝度領域Hに設定する(S114)。輝度閾値Bshは、距離取得範囲ΔLの最大距離Lmaxの距離に相当する輝度値に設定される。たとえば、輝度閾値Bshは30に設定され、輝度値30以上の画素のみからなる高輝度領域Hが抽出される。
The CPU 21 holds the luminance value of each pixel received from the imaging signal processing circuit 23 in the memory 25, and further sets the area of the lighting image whose luminance is equal to or higher than the luminance threshold Bsh as the high luminance area H (S114). The luminance threshold Bsh is set to a luminance value corresponding to the distance of the maximum distance Lmax of the distance acquisition range ΔL. For example, the luminance threshold value Bsh is set to 30, and a high luminance region H including only pixels having a luminance value of 30 or more is extracted.

高輝度領域Hが抽出されると、CPU21は、点灯画像の高輝度領域Hの各画素の輝度値から消灯画像の各画素の輝度値を減算し、差ΔBを算出する(S115)。そして、CPU21は、輝度値の差ΔBが輝度差閾値ΔBsh以下の点灯画像の領域を外乱光領域Oに設定する(S116)。輝度差閾値ΔBshは、距離取得範囲ΔLの最大距離Lmaxの距離に相当する輝度値に設定される。たとえば、輝度差閾値ΔBshは、30に設定され、輝度の差ΔBが30以下の画素のみからなる外乱光領域Oが抽出される。   When the high luminance area H is extracted, the CPU 21 calculates the difference ΔB by subtracting the luminance value of each pixel of the extinguished image from the luminance value of each pixel of the high luminance area H of the lit image (S115). Then, the CPU 21 sets the area of the lighting image in which the luminance value difference ΔB is equal to or less than the luminance difference threshold ΔBsh as the disturbance light area O (S116). The luminance difference threshold value ΔBsh is set to a luminance value corresponding to the distance of the maximum distance Lmax of the distance acquisition range ΔL. For example, the luminance difference threshold value ΔBsh is set to 30, and the disturbance light region O including only pixels having the luminance difference ΔB of 30 or less is extracted.

そして、CPU21は、点灯画像に外乱光領域Oが設定できたか否かを判定する(S117)。点灯画像に外乱光領域Oが設定できなかった場合(S117:NO)、CPU21は、点灯画像には、外乱光が含まれないと判断し、処理を図14(a)のS106に進める。点灯画像に外乱光領域Oが設定できた場合(S117:YES)、CPU21は、点灯画像の外乱光領域Oに含まれる各画素の輝度値をエラーに相当する値(たとえば、0)に補正する(S118)。   Then, the CPU 21 determines whether or not the disturbance light region O has been set in the lighting image (S117). When the disturbance light region O cannot be set in the lighting image (S117: NO), the CPU 21 determines that disturbance light is not included in the lighting image, and advances the processing to S106 in FIG. When the disturbance light region O can be set in the lighting image (S117: YES), the CPU 21 corrects the luminance value of each pixel included in the disturbance light region O of the lighting image to a value (for example, 0) corresponding to an error. (S118).

図14(a)に戻り、CPU21は、点灯画像の輝度値を、メモリ25に保持された距離変換関数に基づく演算により距離に変換し(S106)、かかる変換により取得された距離を、それぞれ、対応する画素に設定して距離画像を生成する(S107)。この際、CPU21は、S118においてエラーとなった画素は、エラーを示す値(たとえば、0)を設定する。   Returning to FIG. 14A, the CPU 21 converts the luminance value of the lighting image into a distance by a calculation based on the distance conversion function held in the memory 25 (S106), and the distance acquired by the conversion is respectively calculated. A distance image is generated by setting the corresponding pixel (S107). At this time, the CPU 21 sets a value (for example, 0) indicating an error for the pixel in error in S118.

こうして、距離画像が生成された後、CPU21は、距離情報の取得動作が終了したか否かを判定する(S108)。そして、距離情報の取得動作が終了していなければ(S108:NO)、CPU21は、処理をS101に戻して、次の距離情報の取得タイミングを待つ。   After the distance image is generated in this way, the CPU 21 determines whether or not the distance information acquisition operation has ended (S108). If the distance information acquisition operation is not completed (S108: NO), the CPU 21 returns the process to S101 and waits for the next distance information acquisition timing.

図15は、物体検出処理を示すフローチャートである。図15の処理は、図2に示すCPU31の機能のうち、物体検出部31aの機能によって実行される。   FIG. 15 is a flowchart showing the object detection process. The processing in FIG. 15 is executed by the function of the object detection unit 31a among the functions of the CPU 31 shown in FIG.

図15のS114において距離画像が取得されると(S201:YES)、CPU31は、距離画像における最高階調の距離値(最も情報取得装置2に接近することを表す距離値)から所定の値ΔDを減じた値を距離閾値Dshに設定する(S202)。   When the distance image is acquired in S114 of FIG. 15 (S201: YES), the CPU 31 determines a predetermined value ΔD from the distance value of the highest gradation in the distance image (the distance value that represents the closest approach to the information acquisition device 2). A value obtained by subtracting is set as the distance threshold value Dsh (S202).

次に、CPU31は、距離画像上において、距離値(階調値)が距離閾値Dshよりも高い領域を、対象領域として区分する(S203)。そして、CPU31は、輪郭抽出エンジンを実行し、区分した対象領域の輪郭と、メモリ25に保持された物体形状抽出テンプレートとを比較して、物体形状抽出テンプレートに保持された輪郭に対応する輪郭の対象領域を、検出対象物体に対応する領域として抽出する(S204)。なお、S204において検出対象物体が抽出されない場合、当該距離画像に対する検出対象物体の抽出は、エラーとされる。   Next, the CPU 31 classifies an area having a distance value (gradation value) higher than the distance threshold value Dsh as a target area on the distance image (S203). Then, the CPU 31 executes the contour extraction engine, compares the contour of the divided target area with the object shape extraction template held in the memory 25, and compares the contour corresponding to the contour held in the object shape extraction template. The target region is extracted as a region corresponding to the detection target object (S204). In addition, when a detection target object is not extracted in S204, extraction of the detection target object with respect to the distance image is an error.

こうして、検出対象物体の抽出処理が終了すると、CPU31は、物体検出動作が終了したか否かを判定する(S205)。物体検出動作が終了していない場合(S205:NO)、CPU31は、S201に戻り、次の距離画像が取得されるのを待つ。そして、次の距離画像が取得されると(S201:YES)、CPU21は、S202以降の処理を実行し、当該距離画像から検出対象物体を抽出する(S202〜S204)。   Thus, when the extraction process of the detection target object is finished, the CPU 31 determines whether or not the object detection operation is finished (S205). If the object detection operation has not ended (S205: NO), the CPU 31 returns to S201 and waits for the next distance image to be acquired. And if the next distance image is acquired (S201: YES), CPU21 will perform the process after S202 and will extract a detection target object from the said distance image (S202-S204).

<実施形態の効果>
以上、本実施の形態によれば、点灯画像から外乱光領域Oが除外されるため、適正に物体検出を行うことができる。
<Effect of embodiment>
As described above, according to the present embodiment, since the disturbance light region O is excluded from the lighting image, it is possible to appropriately detect the object.

また、本実施の形態によれば、外乱光領域Oの抽出の前に高輝度領域Hが抽出されるため、外乱光領域Oの抽出にかかる比較演算量を抑えることができる。   Further, according to the present embodiment, since the high-intensity region H is extracted before the disturbance light region O is extracted, the amount of comparison calculation required for the extraction of the disturbance light region O can be suppressed.

また、本実施の形態によれば、輝度閾値Bshは、距離取得範囲ΔLの最大距離Lmaxに相当する輝度値に設定されるため、外乱光の光量がやや小さい場合であっても、外乱光領域Oの判定対象とすることができる。   Further, according to the present embodiment, the luminance threshold value Bsh is set to a luminance value corresponding to the maximum distance Lmax of the distance acquisition range ΔL, so that even if the amount of disturbance light is slightly small, the disturbance light region O can be determined.

また、本実施の形態によれば、メモリ25に保持された距離変換関数に基づく演算より、距離情報が取得されるため、簡素な演算処理により距離情報を取得することができる。   Moreover, according to this Embodiment, since distance information is acquired from the calculation based on the distance conversion function hold | maintained at the memory 25, distance information can be acquired by simple calculation processing.

<変更例>
以上、本発明の実施の形態について説明したが、本発明は、上記実施の形態に何ら制限されるものではなく、本発明の構成例も他に種々の変更が可能である。
<Example of change>
While the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications can be made to the configuration example of the present invention.

たとえば、上記実施の形態では、消灯間隔T2において消灯画像が1回取得され、1枚の消灯画像が点灯画像と比較されたが、消灯間隔T2よりも長い消灯間隔T3が設定され、2枚の消灯画像と点灯画像が比較されても良い。   For example, in the above embodiment, the extinguishing image is acquired once in the extinguishing interval T2 and one extinguishing image is compared with the lighting image. However, the extinguishing interval T3 longer than the extinguishing interval T2 is set, The unlit image and the lit image may be compared.

以下に示す変更例において、点灯タイミングp1は、請求項に記載の「第1のタイミング」に相当する。また、第1消灯タイミングp21は、請求項に記載の「第2のタイミング」に相当し、第2消灯タイミングp22は、請求項に記載の「別のタイミング」に相当する。ただし、上記請求項と変更例との対応の記載は、あくまで一例であって、請求項に係る発明を本変更例に限定するものではない。   In the following modification example, the lighting timing p1 corresponds to a “first timing” recited in the claims. The first turn-off timing p21 corresponds to “second timing” described in the claims, and the second turn-off timing p22 corresponds to “another timing” described in the claims. However, the description of the correspondence between the claims and the modification is merely an example, and the claimed invention is not limited to the modification.

図16(a)は、変更例に係る発光制御処理を示すフローチャートである。図16(b)は、この場合の光源110の点灯タイミングと消灯タイミング、およびCMOSイメージセンサ240の撮像タイミングを示すタイミングチャートである。図16(a)の処理は、図2に示すCPU21の機能のうち、光源制御部21aの機能によって実行される。   FIG. 16A is a flowchart showing a light emission control process according to the modified example. FIG. 16B is a timing chart showing the lighting timing and extinguishing timing of the light source 110 and the imaging timing of the CMOS image sensor 240 in this case. The process of FIG. 16A is executed by the function of the light source control unit 21a among the functions of the CPU 21 shown in FIG.

CPU21は、所定の発光間隔T1で光源110が点灯し、所定の消灯間隔T3で光源110が消灯するよう、赤外光源駆動回路22を駆動する(S21)。これにより、図16(b)に示すように、発光間隔T1、消灯間隔T3で、光源110がパルス発光される。本変更例における発光間隔T1は、上記実施と同様に設定され、消灯間隔T3は、発光間隔T1の2倍の時間間隔に設定されている。   The CPU 21 drives the infrared light source driving circuit 22 so that the light source 110 is turned on at a predetermined light emission interval T1 and the light source 110 is turned off at a predetermined light emission interval T3 (S21). Accordingly, as shown in FIG. 16B, the light source 110 emits pulses at the light emission interval T1 and the extinction interval T3. The light emission interval T1 in this modification is set in the same manner as in the above embodiment, and the turn-off interval T3 is set to a time interval that is twice the light emission interval T1.

そして、CPU21は、距離取得部21bによる距離取得の処理が終了したか否かを判定する(S22)。距離取得の処理が終了していない場合(S22:NO)、CPU21は、光源110のパルス発光を継続させる。距離取得処理が終了すると(S12:YES)、CPU21は、光源制御の処理を終了する。   Then, the CPU 21 determines whether or not the distance acquisition process by the distance acquisition unit 21b has ended (S22). If the distance acquisition process has not ended (S22: NO), the CPU 21 continues the pulsed light emission of the light source 110. When the distance acquisition process ends (S12: YES), the CPU 21 ends the light source control process.

図17は、変更例に係る外乱光領域補正処理を示すフローチャートである。図17の処理は、図2に示すCPU21の機能のうち、距離取得部21bの機能によって実行される。   FIG. 17 is a flowchart illustrating disturbance light region correction processing according to the modified example. 17 is executed by the function of the distance acquisition unit 21b among the functions of the CPU 21 shown in FIG.

図14(a)に示すように、点灯タイミングp1において、点灯画像が取得されると(
S101〜S104)、CPU21は、第1消灯タイミングp21が到来したか否かを判定する(S121)。第1消灯タイミングp21が到来すると(S121:YES)、上記実施の形態と同様にして、点灯画像と第1消灯画像を比較し、外乱光領域Oが設定できるか否かを判定する(S122〜S127)。
As shown in FIG. 14A, when a lighting image is acquired at lighting timing p1 (
S101 to S104), the CPU 21 determines whether or not the first turn-off timing p21 has arrived (S121). When the first turn-off timing p21 arrives (S121: YES), the lighted image and the first light-off image are compared in the same manner as in the above embodiment, and it is determined whether or not the disturbance light region O can be set (S122 to S122). S127).

点灯画像と第1消灯画像を比較した結果、外乱光領域Oが設定できなかった場合(S127:NO)、CPU21は、点灯画像に外乱光が含まれないと判断し、処理を図14(a)のS106に進める。   As a result of comparing the lit image and the first unlit image, if the disturbance light region O cannot be set (S127: NO), the CPU 21 determines that the lit image does not include disturbance light, and the process is illustrated in FIG. ) To S106.

点灯画像に外乱光領域Oが設定できた場合(S127:YES)、カメラのフラッシュ等の何らかの一時的な外乱光が入射したかどうかを判定するため、CPU21は、第2消灯タイミングp22が到来したか否かを判定する(S131)。第2消灯タイミングp22が到来すると(S131:YES)、上記実施の形態と同様にして、点灯画像と第2消灯画像を比較し、外乱光領域Oが設定できるか否かを判定する(S132〜S137)。   When the disturbance light region O can be set in the lit image (S127: YES), the CPU 21 determines whether or not any temporary disturbance light such as a camera flash is incident, so that the second turn-off timing p22 has arrived. It is determined whether or not (S131). When the second turn-off timing p22 arrives (S131: YES), the lit image and the second turned-off image are compared in the same manner as in the above embodiment, and it is determined whether the disturbance light region O can be set (S132- S137).

点灯画像と第2消灯画像を比較した結果、外乱光領域Oが設定できなかった場合(S137:NO)、CPU21は、第1消灯画像と点灯画像との比較において抽出された外乱光領域Oは、一時的な外乱光によるものであるとして、処理を図14(a)のS106に進める。   When the disturbance light region O cannot be set as a result of comparing the lighting image and the second lighting image (S137: NO), the CPU 21 determines that the disturbance light region O extracted in the comparison between the first lighting image and the lighting image is Then, the process proceeds to S106 in FIG. 14A assuming that it is due to temporary disturbance light.

点灯画像と第2消灯画像を比較した結果、外乱光領域Oが設定できた場合(S137:YES)、CPU21は、太陽光等の継続的な外乱光がCMOSイメージセンサ240に入射していると判断し、点灯画像の外乱光領域Oに含まれる各画素の輝度値をエラーに相当する値(たとえば、0)に補正する(S138)。   As a result of comparing the lit image and the second unlit image, if the disturbance light region O can be set (S137: YES), the CPU 21 indicates that continuous disturbance light such as sunlight is incident on the CMOS image sensor 240. Judgment is made, and the luminance value of each pixel included in the disturbance light region O of the lit image is corrected to a value (for example, 0) corresponding to the error (S138).

本変更例とすれば、カメラのフラッシュ等の何らかの一時的な外乱光が消灯時にCMOSイメージセンサ240に入射したか否かを判定することができる。したがって、点灯画像から太陽光等の継続的な外乱光領域Oを除外することができるため、より適正に物体検出を行うことができる。   According to this modification, it can be determined whether or not any temporary disturbance light such as a camera flash is incident on the CMOS image sensor 240 when it is turned off. Accordingly, since the continuous disturbance light region O such as sunlight can be excluded from the lighting image, the object detection can be performed more appropriately.

このように、点灯タイミングp1で取得した点灯画像と第1消灯タイミングp21で取得した第1消灯画像を比較した後に、点灯画像と第2消灯タイミングp22で取得した第2消灯画像を比較して、外乱光領域Oを設定する構成は、請求項8に記載の構成の一例である。   Thus, after comparing the lighting image acquired at the lighting timing p1 and the first lighting image acquired at the first lighting timing p21, the lighting image and the second lighting image acquired at the second lighting timing p22 are compared, The configuration for setting the disturbance light region O is an example of a configuration according to claim 8.

なお、本変更例では、2枚の消灯画像と点灯画像とを比較したが、消灯画像の取得タイミングが3回以上設定され、3枚以上の消灯画像と点灯画像とが比較されても良い。こうすると、消灯期間が長くなり、演算量が大きくなるものの、消灯時に入射した外乱光が一時的な外乱光か継続的な外乱光であるかをより確実に判断することができる。   In this modified example, the two unlit images and the lit image are compared, but the acquisition timing of the unlit image may be set three or more times, and the three or more unlit images and the lit image may be compared. In this way, although the extinguishing period becomes longer and the amount of calculation increases, it is possible to more reliably determine whether the disturbance light incident upon extinguishing is temporary disturbance light or continuous disturbance light.

また、上記実施の形態では、高輝度領域Hを抽出するための輝度閾値Bshは、距離取得範囲ΔLの最大距離Lmaxに相当する輝度値に設定されたが、これに限られるものではない。たとえば、図18(a)に示すようで最大距離Lmaxに相当する輝度値よりもやや高い輝度値に設定されても良い。   In the above embodiment, the luminance threshold value Bsh for extracting the high luminance region H is set to a luminance value corresponding to the maximum distance Lmax of the distance acquisition range ΔL, but is not limited to this. For example, as shown in FIG. 18A, a luminance value slightly higher than the luminance value corresponding to the maximum distance Lmax may be set.

こうすると、図18(b)に示すように、点灯画像の背景が照明等によって輝度が少し大きくなっているような場合であっても、検出対象物体および外乱光が入射した領域を、背景と適正に区別できるように高輝度領域Hを設定することができる。   In this way, as shown in FIG. 18B, even if the background of the lit image is a little bright due to illumination or the like, the detection target object and the area where the disturbance light is incident are defined as the background. The high luminance region H can be set so that it can be properly distinguished.

また、上記実施の形態では、外乱光領域Oを抽出するための輝度差閾値ΔBshは、距
離取得範囲ΔLの最大距離Lmaxに相当する輝度値に設定されたが、距離取得範囲ΔLの最大距離Lmaxに相当する輝度値以下であれば、その他の値に設定されても良い。
In the above embodiment, the luminance difference threshold ΔBsh for extracting the disturbance light region O is set to a luminance value corresponding to the maximum distance Lmax of the distance acquisition range ΔL, but the maximum distance Lmax of the distance acquisition range ΔL. As long as it is less than or equal to the luminance value corresponding to, other values may be set.

たとえば、図18(c)に示すように、CMOSイメージセンサ240の画素の輝度値の最大階調256の10%の25であっても良い。   For example, as shown in FIG. 18C, 25 may be 10% of the maximum gradation 256 of the luminance value of the pixel of the CMOS image sensor 240.

上述のように、点灯時の外乱光の輝度値と、消灯時の外乱光の輝度値の差は略同じまたは非常に小さいため、この場合であっても、適正に外乱光領域Oを判定することができる。   As described above, since the difference between the luminance value of the disturbance light at the time of lighting and the luminance value of the disturbance light at the time of extinction is substantially the same or very small, even in this case, the disturbance light region O is appropriately determined. be able to.

なお、輝度差閾値ΔBshが、距離取得範囲ΔLの最大距離Lmaxに相当する輝度値以下に設定される構成は、請求項6に記載の構成の一例である。   The configuration in which the brightness difference threshold ΔBsh is set to be equal to or less than the brightness value corresponding to the maximum distance Lmax of the distance acquisition range ΔL is an example of a configuration according to claim 6.

しかしながら、外乱光が入射した領域であっても、距離取得範囲ΔLの最大距離Lmaxと背景の壁面との距離が短い場合等には、光源110から出射された赤外光が壁面を反射し、光源110の点灯時と消灯時の輝度値の差は、やや大きくなることも想定され得る。したがって、輝度差閾値ΔBshは、上記実施の形態のように、距離取得範囲ΔLの最大距離Lmaxに相当する輝度値に設定されるのが望ましい。   However, even in a region where disturbance light is incident, when the distance between the maximum distance Lmax of the distance acquisition range ΔL and the wall surface of the background is short, the infrared light emitted from the light source 110 reflects the wall surface, It can be assumed that the difference in luminance value between when the light source 110 is turned on and when the light source 110 is turned off is slightly larger. Therefore, it is desirable that the luminance difference threshold ΔBsh is set to a luminance value corresponding to the maximum distance Lmax of the distance acquisition range ΔL as in the above embodiment.

また、上記実施の形態では、光源110の点灯時と消灯時の輝度値の差に基づいて、外乱光領域Oを判定したが、第1の出射パワーで赤外光を出射したときの輝度値と、第1の出射パワーと異なる第2の出射パワーで赤外光を出射したときの輝度値の差に基づいて、外乱光領域Oが判定されても良い。   Moreover, in the said embodiment, although the disturbance light area | region O was determined based on the difference of the luminance value at the time of lighting of the light source 110 and light extinction, the luminance value when infrared light is radiate | emitted with 1st output power. And the disturbance light area | region O may be determined based on the difference of the luminance value when infrared light is radiate | emitted with 2nd output power different from 1st output power.

たとえば、まず、100%の出射パワーで赤外光を出射したときの撮像画像を取得し、その後、50%の出射パワーで赤外光を出射したときの撮像画像を取得する。それぞれの撮像画像で輝度値の差を算出し、輝度値の差が所定の輝度差閾値ΔBsh以下となる領域を外乱光領域Oに設定する。そして、上記実施の形態と同様に、外乱光領域Oに含まれる各画素の輝度値をエラーに相当する値(たとえば、0)に補正する。   For example, first, a captured image when infrared light is emitted with 100% output power is acquired, and then a captured image when infrared light is output with 50% output power is acquired. A luminance value difference is calculated for each captured image, and an area where the luminance value difference is equal to or smaller than a predetermined luminance difference threshold ΔBsh is set as the disturbance light area O. Then, as in the above embodiment, the luminance value of each pixel included in the disturbance light region O is corrected to a value (for example, 0) corresponding to an error.

なお、本変更例における輝度差閾値ΔBshは、第1の出射パワーで赤外光を出射したときの距離取得範囲ΔLの最大距離Lmaxに相当する輝度と第2の出射パワーで赤外光を出射したときの距離取得範囲ΔLの最大距離Lmaxに相当する輝度の差以下に設定される。   Note that the luminance difference threshold value ΔBsh in the present modified example emits infrared light with the luminance corresponding to the maximum distance Lmax of the distance acquisition range ΔL when the infrared light is emitted with the first emission power and the second emission power. Is set to be equal to or less than the luminance difference corresponding to the maximum distance Lmax of the distance acquisition range ΔL.

たとえば、100%の出射パワーで距離取得範囲ΔLの最大距離Lmaxに相当する輝度が30に設定された場合、50%の出射パワーで距離取得範囲ΔLの最大距離Lmaxに相当する輝度は、15となり、輝度差閾値ΔBshは、15に設定される。   For example, when the luminance corresponding to the maximum distance Lmax of the distance acquisition range ΔL is set to 30 with the emission power of 100%, the luminance corresponding to the maximum distance Lmax of the distance acquisition range ΔL is 15 with the emission power of 50%. The brightness difference threshold ΔBsh is set to 15.

このように、輝度差閾値ΔBshが、第1の出射パワーで赤外光を出射したときの距離取得範囲ΔLの最大距離Lmaxに相当する輝度と第2の出射パワーで赤外光を出射したときの距離取得範囲ΔLの最大距離Lmaxに相当する輝度の差以下に設定される構成は、請求項6に記載の構成の一例である。   As described above, when the brightness difference threshold ΔBsh emits infrared light with the brightness corresponding to the maximum distance Lmax of the distance acquisition range ΔL when the infrared light is emitted with the first emission power and the second emission power. A configuration that is set to be equal to or smaller than the difference in luminance corresponding to the maximum distance Lmax of the distance acquisition range ΔL is an example of a configuration according to claim 6.

本変更例とすれば、上記実施の形態と同様に、撮像画像から外乱光領域Oが除外されるため、適正に物体検出を行うことができる。   According to this modified example, the disturbance light region O is excluded from the captured image as in the above-described embodiment, so that object detection can be performed appropriately.

なお、本変更例の場合、輝度差閾値ΔBshは、上記実施の形態と比べ小さいものとなるため、できるだけ広い範囲で輝度差閾値ΔBshを設定するためには、上記実施の形態のように、100%の出射パワーで赤外光を出射したときの点灯画像と、赤外光を出射し
ないときの消灯画像を比較する方が望ましい。
In the case of this modified example, the luminance difference threshold ΔBsh is smaller than that in the above embodiment. Therefore, in order to set the luminance difference threshold ΔBsh in the widest possible range, as in the above embodiment, 100 is set. It is desirable to compare a lighting image when infrared light is emitted with a% emission power and a light-off image when infrared light is not emitted.

また、本変更例では、100%の出射パワーで赤外光を出射した場合と50%の出射パワーで赤外光を出射した場合を例示したが、その他の出射パワーの組み合わせであっても良い。   Further, in this modified example, the case where infrared light is emitted with 100% emission power and the case where infrared light is emitted with 50% emission power are illustrated, but other combinations of emission powers may be used. .

また、上記実施の形態では、点灯画像と消灯画像の比較演算の処理を軽減するため、高輝度領域Hが設定されたが、高輝度領域Hが設定されず、点灯画像の全画素の輝度値と、消灯画像の全画素の輝度値を比較することにより、外乱光領域Oが抽出されても良い。   In the above embodiment, the high brightness area H is set in order to reduce the comparison calculation process between the lit image and the unlit image. However, the high brightness area H is not set, and the brightness values of all the pixels of the lit image are set. The ambient light region O may be extracted by comparing the luminance values of all the pixels of the extinguished image.

本変更例とすると、上記実施の形態に比べ、演算量は増大するものの、高輝度領域Hの設定によって誤って外乱光が入射した領域が除外されることを抑えることができる。   In this modified example, although the amount of calculation increases compared to the above-described embodiment, it is possible to prevent the area where disturbance light is incident by mistake by setting the high luminance area H.

なお、高輝度領域Hを設定しない場合、背景等、CMOSイメージセンサ240に光源110から出射された赤外光の反射光も外乱光も入射していない領域においても外乱光領域Oに設定されることが想定される。しかしながら、図15のS202に示すように、所定の距離(輝度値)に満たない領域は、物体検出対象として抽出されないため、背景等が距離取得対象から除外されたとしても、物体検出処理に対する影響はない。   When the high luminance region H is not set, the disturbance light region O is set even in a region where the reflected light or disturbance light of the infrared light emitted from the light source 110 is not incident on the CMOS image sensor 240 such as a background. It is assumed that However, as shown in S202 of FIG. 15, since an area that is less than the predetermined distance (luminance value) is not extracted as an object detection target, even if the background or the like is excluded from the distance acquisition target, the influence on the object detection processing There is no.

また、上記実施の形態では、距離変換関数に基づいて輝度値を距離に変換して距離情報を取得したが、輝度値をそのまま距離に関する情報として取得しても良い。   In the above embodiment, the distance value is acquired by converting the luminance value into the distance based on the distance conversion function. However, the luminance value may be acquired as it is as information about the distance.

図19(a)は、輝度値をそのまま距離に関する情報として取得する場合の輝度画像生成処理を示すフローチャートである。   FIG. 19A is a flowchart showing a luminance image generation process in the case where the luminance value is directly acquired as information on the distance.

図19(a)のフローチャートでは、図14(a)のS106が省略され、さらに、図14(a)のS107がS109に変更されている。すなわち、図19(a)のフローチャートでは、各画素の輝度値が距離値に変換されることなく、対応する画素に輝度値が設定されて輝度画像が生成される(S109)。上記実施の形態と同様、S118においてエラーが設定された画素には、エラーを示す値(たとえば、0)が設定される。   In the flowchart of FIG. 19A, S106 of FIG. 14A is omitted, and S107 of FIG. 14A is changed to S109. That is, in the flowchart of FIG. 19A, the luminance value is set to the corresponding pixel without generating the luminance value of each pixel, and the luminance image is generated (S109). Similar to the above embodiment, a value indicating an error (for example, 0) is set to the pixel for which an error has been set in S118.

図19(b)は、物体検出処理を示すフローチャートである。図19(b)のフローチャートでは、距離画像に代えて輝度画像が参照される。   FIG. 19B is a flowchart showing the object detection process. In the flowchart of FIG. 19B, a luminance image is referred to instead of the distance image.

すなわち、図19(a)のS109において輝度画像が取得されると(S211:YES)、CPU31は、輝度画像における最高階調の輝度値(最も情報取得装置2に接近することを表す輝度値)から所定の値ΔB2を減じた値を輝度閾値Bsh2に設定する(S212)。   That is, when a luminance image is acquired in S109 of FIG. 19A (S211: YES), the CPU 31 determines the luminance value of the highest gradation in the luminance image (the luminance value indicating the closest approach to the information acquisition device 2). A value obtained by subtracting the predetermined value ΔB2 from the value is set as the luminance threshold Bsh2 (S212).

次に、CPU31は、輝度画像上において、輝度値(階調値)が輝度閾値Bsh2よりも高い領域を、対象領域として区分する(S213)。そして、CPU31は、区分した対象領域のうち、輝度値の平均が最も高い領域を、検出対象物体に対応する領域として抽出する(S214)。なお、S214において検出対象物体が抽出されない場合、当該輝度画像に対する検出対象物体の抽出は、エラーとされる。   Next, the CPU 31 classifies a region having a luminance value (gradation value) higher than the luminance threshold Bsh2 as a target region on the luminance image (S213). Then, the CPU 31 extracts a region having the highest average luminance value among the divided target regions as a region corresponding to the detection target object (S214). In addition, when a detection target object is not extracted in S214, extraction of the detection target object with respect to the said brightness | luminance image is made into an error.

こうして、検出対象物体の抽出処理が終了すると、CPU31は、物体検出動作が終了したか否かを判定する(S215)。物体検出動作が終了していない場合(S215:NO)、CPU31は、S211に戻り、次の輝度画像が取得されるのを待つ。そして、次の輝度画像が取得されると(S211:YES)、CPU31は、S212以降の処理を実行し、当該距離画像から検出対象物体を抽出する(S212〜S214)。   Thus, when the extraction process of the detection target object is completed, the CPU 31 determines whether or not the object detection operation is completed (S215). If the object detection operation has not ended (S215: NO), the CPU 31 returns to S211 and waits for the next luminance image to be acquired. Then, when the next luminance image is acquired (S211: YES), the CPU 31 executes the processing after S212 and extracts the detection target object from the distance image (S212 to S214).

図19(a)のフローチャートでは、距離変換関数に基づいて輝度値が距離に変換されないため、輝度画像上の各画素の輝度値は、正確な距離を表現するものとはならない。すなわち、図4(b)に示すように、輝度と距離は、曲線状のグラフによって表わされる関係を有するため、輝度値を正確な距離として取得するためには、輝度値をこの曲線に従って調整する必要がある。図19(a)のフローチャートでは、取得された輝度値がそのまま輝度画像に設定されるため、輝度画像上の各画素の輝度値は、正確な距離を表わさず、誤差を含むものとなる。   In the flowchart of FIG. 19A, since the luminance value is not converted to the distance based on the distance conversion function, the luminance value of each pixel on the luminance image does not represent an accurate distance. That is, as shown in FIG. 4B, since the luminance and the distance have a relationship represented by a curved graph, the luminance value is adjusted according to this curve in order to obtain the luminance value as an accurate distance. There is a need. In the flowchart of FIG. 19A, since the acquired luminance value is set as it is in the luminance image, the luminance value of each pixel on the luminance image does not represent an accurate distance and includes an error.

しかしながら、この場合も、各画素の輝度値は、大まかな距離を表わすものとなるため、輝度画像を用いて検出対象物体を検出することは可能である。したがって、本変更例によっても、図19(b)のフローチャートによって、検出対象物体を検出することができる。   However, in this case as well, the luminance value of each pixel represents a rough distance, so it is possible to detect the detection target object using the luminance image. Therefore, even in this modification, the detection target object can be detected by the flowchart of FIG.

なお、図19(a)のフローチャートでは、S103で取得された輝度値が、S121において、そのまま輝度画像に設定されたが、輝度画像に設定される値は、輝度値でなくとも良く、輝度を表わすことが可能な情報であれば良い。   In the flowchart of FIG. 19A, the luminance value acquired in S103 is set as the luminance image as it is in S121. However, the value set in the luminance image does not have to be a luminance value. Any information that can be expressed may be used.

また、上記実施の形態では、情報取得装置2と情報処理部3側の物体検出部31aによって物体検出装置が構成されたが、一つの装置によって物体検出装置が構成されても良い。   Moreover, in the said embodiment, although the object detection apparatus was comprised by the information acquisition apparatus 2 and the object detection part 31a by the side of the information processing part 3, an object detection apparatus may be comprised by one apparatus.

図20は、この場合の構成例を示す図である。図20の構成例では、図2の情報取得装置2が物体検出装置7に置き換えられている。なお、説明の便宜上、図20において、図2の構成と同一の構成には同一の符号が付されている。   FIG. 20 is a diagram showing a configuration example in this case. In the configuration example of FIG. 20, the information acquisition device 2 of FIG. 2 is replaced with the object detection device 7. For convenience of explanation, the same reference numerals in FIG. 20 denote the same parts as in FIG.

図20の構成例では、CPU31から物体検出部31aの機能が除かれ、CPU21に物体検出部21dの機能が付加されている。さらに、図20の構成例では、図2の距離取得部21bが輝度情報取得部21cに置き換えられている。輝度情報取得部21cは、CMOSイメージセンサ240から取得される輝度値に基づいて輝度画像を生成する。また、物体形状抽出テンプレートは、メモリ25に保持される。   In the configuration example of FIG. 20, the function of the object detection unit 31 a is removed from the CPU 31, and the function of the object detection unit 21 d is added to the CPU 21. Further, in the configuration example of FIG. 20, the distance acquisition unit 21b of FIG. 2 is replaced with a luminance information acquisition unit 21c. The luminance information acquisition unit 21c generates a luminance image based on the luminance value acquired from the CMOS image sensor 240. The object shape extraction template is held in the memory 25.

本変更例において、輝度情報取得部21cは、請求項に記載の「情報取得部」に相当する。また、物体検出装置7が、請求項10に記載の物体検出装置に相当する。ただし、上記請求項と本変更例との対応の記載は、あくまで一例であって、請求項に係る発明を本実施の形態に限定するものではない。   In the present modification, the luminance information acquisition unit 21c corresponds to an “information acquisition unit” recited in the claims. The object detection device 7 corresponds to the object detection device according to claim 10. However, the description of the correspondence between the above claims and this modification is merely an example, and the claimed invention is not limited to this embodiment.

図21は、本変更例における物体検出処理を示すフローチャートである。図21のフローチャートのうち、S101〜S109は、図20の輝度情報取得部21cにより行われ、S212〜S214は、図13の物体検出部21dにより行われる。S101〜S109の処理は、図19(a)のS101〜S109と同じであり、S212〜S214の処理は、図19(b)のS212〜S214と同じであるので、ここでは、これらステップの説明は省略する。   FIG. 21 is a flowchart showing object detection processing in the present modification. In the flowchart of FIG. 21, S101 to S109 are performed by the luminance information acquisition unit 21c of FIG. 20, and S212 to S214 are performed by the object detection unit 21d of FIG. The processing of S101 to S109 is the same as S101 to S109 of FIG. 19A, and the processing of S212 to S214 is the same as S212 to S214 of FIG. Is omitted.

点灯画像と消灯画像の比較により外乱光領域Oがエラーを示す値に補正され(S101〜S105)、輝度画像が生成されると(S109)、CPU21は、S212〜S214の処理を実行し、検出対象物体を検出する。そして、点灯画像と消灯画像の比較、輝度画像の生成および物体検出処理(S101〜S214)は、物体検出動作が終了するまで繰り返し実行される(S216)。   When the disturbance light region O is corrected to a value indicating an error by comparing the lit image and the unlit image (S101 to S105), and a luminance image is generated (S109), the CPU 21 executes the processing of S212 to S214 and detects it. The target object is detected. The comparison between the lit image and the unlit image, generation of the luminance image, and object detection processing (S101 to S214) are repeatedly executed until the object detection operation is completed (S216).

本変更例とすれば、上記実施の形態同様、点灯画像から外乱光領域Oが除外されるため、適正に物体検出を行うことができる。   According to this modified example, since the disturbance light region O is excluded from the lighting image as in the above embodiment, the object detection can be performed appropriately.

また、上記実施の形態および変更例では、CMOSイメージセンサ240上の全ての画素について距離および輝度値が取得されたが、必ずしも全ての画素について距離および輝度値が取得されなくとも良く、たとえば、数画素おきに距離および輝度値が取得されても良い。   In the above embodiment and the modification, the distance and the luminance value are acquired for all the pixels on the CMOS image sensor 240, but the distance and the luminance value are not necessarily acquired for all the pixels. A distance and a luminance value may be acquired every other pixel.

また、上記実施の形態では、撮像部200のフィルタ230が撮像レンズ220とCMOSイメージセンサ240との間に配置されたが、フィルタ230の配置位置は、これに限られるものではなく、撮像レンズ220よりも目標領域側であっても良い。   In the above embodiment, the filter 230 of the imaging unit 200 is arranged between the imaging lens 220 and the CMOS image sensor 240. However, the arrangement position of the filter 230 is not limited to this, and the imaging lens 220 is not limited thereto. It may be closer to the target area.

また、上記実施の形態では、CPU21による機能によってソフトウエア処理により距離情報が取得されたが、距離情報の取得が回路によるハードウエア処理により実現されても良い。   In the above embodiment, the distance information is acquired by software processing by the function of the CPU 21, but acquisition of the distance information may be realized by hardware processing by a circuit.

さらに、上記実施の形態では、受光素子として、CMOSイメージセンサ240を用いたが、これに替えて、CCDイメージセンサを用いることもできる。また、赤外以外の波長帯域の光を距離取得に用いることもできる。   Furthermore, in the above-described embodiment, the CMOS image sensor 240 is used as the light receiving element, but a CCD image sensor can be used instead. Also, light in a wavelength band other than infrared can be used for distance acquisition.

この他、本発明の実施の形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。   In addition, the embodiment of the present invention can be variously modified as appropriate within the scope of the technical idea shown in the claims.

1 … パーソナルコンピュータ
2 … 物体検出装置
3 … 情報処理部
21a … 光源制御部
21b … 距離取得部(情報取得部)
21c … 輝度情報取得部(情報取得部)
21d … 物体検出部
23 … 撮像信号処理回路(輝度取得部)
31a … 物体検出部
100 … 投射部
110 … 光源
200 … 撮像部
220 … 撮像レンズ
230 … フィルタ
240 … CMOSイメージセンサ(イメージセンサ)
H … 高輝度領域(物体の検出候補となり得る画素範囲)
Lmax … 最大距離
Lmin … 最小距離
O … 外乱光領域(物体検出の対象から除かれる画素範囲)
p1 … 点灯タイミング(第1のタイミング)
p2 … 消灯タイミング(第2のタイミング)
p21 … 第1消灯タイミング(第2のタイミング)
p22 … 第2消灯タイミング(別のタイミング)
ΔB … 差(差分値)
ΔBsh … 輝度差閾値(閾値)
ΔL … 距離取得範囲(距離範囲)
DESCRIPTION OF SYMBOLS 1 ... Personal computer 2 ... Object detection apparatus 3 ... Information processing part 21a ... Light source control part 21b ... Distance acquisition part (information acquisition part)
21c ... Luminance information acquisition unit (information acquisition unit)
21d: Object detection unit 23: Imaging signal processing circuit (luminance acquisition unit)
31a ... Object detection unit 100 ... Projection unit 110 ... Light source 200 ... Imaging unit 220 ... Imaging lens 230 ... Filter 240 ... CMOS image sensor (image sensor)
H ... High luminance region (pixel range that can be a candidate for object detection)
Lmax ... maximum distance Lmin ... minimum distance O ... disturbance light region (pixel range excluded from object detection target)
p1 ... lighting timing (first timing)
p2 ... extinguishing timing (second timing)
p21 ... 1st extinction timing (2nd timing)
p22 ... Second turn-off timing (another timing)
ΔB ... Difference (difference value)
ΔBsh ... Brightness difference threshold (threshold)
ΔL ... Distance acquisition range (distance range)

Claims (10)

目標領域に光を投射する投射部と、
前記目標領域をイメージセンサにより撮像する撮像部と、
前記投射部を制御する光源制御部と、
前記イメージセンサ上の所定の画素の輝度値を取得する輝度取得部と、
前記輝度取得部により取得された輝度値に基づいて、前記目標領域上の物体を検出するための情報を取得する情報取得部と、を備え、
前記光源制御部は、第1のタイミングと第2のタイミングで出射光量が異なるように前記光を出射し、
前記情報取得部は、前記第1のタイミングに対応して取得された第1の輝度値と前記第2のタイミングに対応して取得された第2の輝度値に基づいて、物体検出の対象から除かれる画素範囲を特定し、特定した当該画素範囲以外の画素範囲に対応する前記第1の輝度値に基づいて、前記物体を検出するための情報を取得する、
ことを特徴とする情報取得装置。
A projection unit that projects light onto the target area;
An imaging unit for imaging the target area by an image sensor;
A light source control unit for controlling the projection unit;
A luminance acquisition unit for acquiring a luminance value of a predetermined pixel on the image sensor;
An information acquisition unit that acquires information for detecting an object on the target region based on the luminance value acquired by the luminance acquisition unit;
The light source control unit emits the light so that the amount of emitted light is different between the first timing and the second timing,
The information acquisition unit is configured to detect an object from an object detection target based on a first luminance value acquired corresponding to the first timing and a second luminance value acquired corresponding to the second timing. Specifying a pixel range to be excluded, and acquiring information for detecting the object based on the first luminance value corresponding to a pixel range other than the specified pixel range;
An information acquisition apparatus characterized by that.
請求項1に記載の情報取得装置において、
前記光源制御部は、前記第1のタイミングで前記光を出射し、前記第2のタイミングで前記光の出射を停止する、
ことを特徴とする情報取得装置。
The information acquisition device according to claim 1,
The light source controller emits the light at the first timing and stops emitting the light at the second timing;
An information acquisition apparatus characterized by that.
請求項1または2に記載の情報取得装置において、
前記情報取得部は、前記第1の輝度値と前記第2の輝度値の差分値が所定の閾値以下となる画素の範囲を、前記物体検出の対象から除かれる前記画素範囲として特定する、
ことを特徴とする情報取得装置。
In the information acquisition device according to claim 1 or 2,
The information acquisition unit specifies a pixel range in which a difference value between the first luminance value and the second luminance value is a predetermined threshold or less as the pixel range excluded from the object detection target.
An information acquisition apparatus characterized by that.
請求項3に記載の情報取得装置において、
前記情報取得部は、前記第1の輝度値に基づいて、物体の検出候補となり得る画素範囲を設定し、設定した当該画素範囲に対して、前記物体検出の対象から除かれる前記画素範囲を特定する、
ことを特徴とする情報取得装置。
In the information acquisition device according to claim 3,
The information acquisition unit sets a pixel range that can be an object detection candidate based on the first luminance value, and identifies the pixel range that is excluded from the object detection target for the set pixel range. To
An information acquisition apparatus characterized by that.
請求項4に記載の情報取得装置において、
前記情報取得部は、前記第1の輝度値が所定値以上となる画素範囲を、前記物体の検出候補となり得る前記画素範囲として設定する、
ことを特徴とする情報取得装置。
The information acquisition device according to claim 4,
The information acquisition unit sets a pixel range in which the first luminance value is a predetermined value or more as the pixel range that can be a detection candidate of the object.
An information acquisition apparatus characterized by that.
請求項3ないし5の何れか一項に記載の情報取得装置において、
前記閾値は、予め設定された距離範囲のうち最大距離の位置に前記物体があるときに、前記輝度取得部によって取得されるべき前記第1の輝度値と前記第2の輝度値との差分値以下の値に設定される、
ことを特徴とする情報取得装置。
In the information acquisition device according to any one of claims 3 to 5,
The threshold value is a difference value between the first luminance value and the second luminance value to be acquired by the luminance acquisition unit when the object is located at the maximum distance in a preset distance range. Set to the following values:
An information acquisition apparatus characterized by that.
請求項6に記載の情報取得装置において、
前記閾値は、前記最大距離の位置に前記物体があるときに、前記輝度取得部によって取得されるべき前記第1の輝度値と前記第2の輝度値との差分値に設定される、
ことを特徴とする情報取得装置。
The information acquisition apparatus according to claim 6,
The threshold is set to a difference value between the first luminance value and the second luminance value to be acquired by the luminance acquisition unit when the object is at the position of the maximum distance.
An information acquisition apparatus characterized by that.
請求項1ないし7の何れか一項に記載の情報取得装置において、
前記光源制御部は、さらに、前記第1のタイミングおよび前記第2のタイミングとは異
なる少なくとも一つ別のタイミングで、前記第1のタイミングにおける出射光量と異なる出射光量で前記光を出射し、
前記情報取得部は、前記第1の輝度値と前記第2の輝度値とともに、前記第1の輝度値と前記別のタイミングに対応して取得された輝度値とに基づいて、物体検出の対象から除かれる前記画素範囲を特定する、
ことを特徴とする情報取得装置。
In the information acquisition device according to any one of claims 1 to 7,
The light source controller further emits the light with an emitted light amount different from the emitted light amount at the first timing at at least one different timing different from the first timing and the second timing,
The information acquisition unit is configured to detect an object based on the first luminance value and the second luminance value, as well as the first luminance value and the luminance value acquired corresponding to the other timing. Identifying the pixel range to be excluded from,
An information acquisition apparatus characterized by that.
請求項1ないし8の何れか一項に記載の情報取得装置において、
前記投射部は、赤外の波長帯域の光を出射する光源を含み、
前記撮像部は、前記赤外の波長帯域の光を透過するフィルタと、前記目標領域に照射された前記光を前記イメージセンサに集光する撮像レンズと、を備える、
ことを特徴とする情報取得装置。
In the information acquisition device according to any one of claims 1 to 8,
The projection unit includes a light source that emits light in an infrared wavelength band,
The imaging unit includes a filter that transmits light in the infrared wavelength band, and an imaging lens that focuses the light irradiated on the target region onto the image sensor.
An information acquisition apparatus characterized by that.
請求項1ないし9の何れか一項に記載の情報取得装置と、
前記情報取得装置によって取得された前記物体を検出するための情報に基づいて、前記目標領域に存在する物体を検出する物体検出部と、を備える、
ことを特徴とする物体検出装置。
An information acquisition device according to any one of claims 1 to 9,
An object detection unit that detects an object present in the target area based on information for detecting the object acquired by the information acquisition device;
An object detection apparatus characterized by that.
JP2013055251A 2013-03-18 2013-03-18 Information acquisition device and object detection device Pending JP2014181949A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013055251A JP2014181949A (en) 2013-03-18 2013-03-18 Information acquisition device and object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013055251A JP2014181949A (en) 2013-03-18 2013-03-18 Information acquisition device and object detection device

Publications (1)

Publication Number Publication Date
JP2014181949A true JP2014181949A (en) 2014-09-29

Family

ID=51700811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013055251A Pending JP2014181949A (en) 2013-03-18 2013-03-18 Information acquisition device and object detection device

Country Status (1)

Country Link
JP (1) JP2014181949A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019159759A1 (en) * 2018-02-19 2019-08-22 株式会社村上開明堂 Operation detection device and operation detection method
CN113631944A (en) * 2019-03-27 2021-11-09 松下知识产权经营株式会社 Distance measuring device and image generating method
JP2021181952A (en) * 2020-05-20 2021-11-25 株式会社日立エルジーデータストレージ Range finder and light emission diagnosis method of light source
DE102022118932A1 (en) 2021-07-30 2023-02-02 Canon Kabushiki Kaisha Image capture device, control method and program
WO2024062874A1 (en) * 2022-09-20 2024-03-28 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program
US12088924B2 (en) 2021-07-30 2024-09-10 Canon Kabushiki Kaisha Image capture apparatus, control method, and computer-executable medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019159759A1 (en) * 2018-02-19 2019-08-22 株式会社村上開明堂 Operation detection device and operation detection method
JPWO2019159759A1 (en) * 2018-02-19 2021-01-28 株式会社村上開明堂 Operation detection device and operation detection method
US11380000B2 (en) 2018-02-19 2022-07-05 Murakami Corporation Operation detection device and operation detection method
JP7286612B2 (en) 2018-02-19 2023-06-05 株式会社村上開明堂 Operation detection device and operation detection method
CN113631944A (en) * 2019-03-27 2021-11-09 松下知识产权经营株式会社 Distance measuring device and image generating method
JP2021181952A (en) * 2020-05-20 2021-11-25 株式会社日立エルジーデータストレージ Range finder and light emission diagnosis method of light source
JP7297714B2 (en) 2020-05-20 2023-06-26 株式会社日立エルジーデータストレージ Ranging device and light emission diagnosis method for light source
DE102022118932A1 (en) 2021-07-30 2023-02-02 Canon Kabushiki Kaisha Image capture device, control method and program
US12088924B2 (en) 2021-07-30 2024-09-10 Canon Kabushiki Kaisha Image capture apparatus, control method, and computer-executable medium
WO2024062874A1 (en) * 2022-09-20 2024-03-28 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP2014181949A (en) Information acquisition device and object detection device
TWI516990B (en) Navigation device with adjustable tracking parameter
JP2011095403A5 (en) Imaging apparatus and light emission control method
TWI731206B (en) Systems and methods for compensating for vignetting
TWI801637B (en) Infrared pre-flash for camera
KR20190033462A (en) Power control method, distance measurement module and electronic device
CN109076155B (en) Method and optoelectronic lighting device for illuminating a face of a person, camera and mobile terminal
WO2014122713A1 (en) Information acquisition device and object detection device
JP7401013B2 (en) Information processing device, control device, information processing method and program
US10652508B2 (en) Projector and method for projecting an image pixel by pixel
JP2011160380A (en) Image processing device, image processing method, program, and electronic device
JP7341145B2 (en) Device that images the skin
KR102258568B1 (en) Reward for vignetting
JP2019009062A5 (en)
WO2022181097A1 (en) Distance measurement device, method for controlling same, and distance measurement system
JP4973836B2 (en) Displacement sensor with automatic measurement area setting means
US11580654B2 (en) Alternating light distributions for active depth sensing
US11657526B2 (en) Distance measurement device
JP6538871B2 (en) Operation detection apparatus, operation detection method, and video display system
JP2015148565A (en) Information acquisition device and object detection device
JP2014163830A (en) Information acquisition device and object detection device
JP2014174101A (en) Object detection device
WO2014122712A1 (en) Information acquisition device and object detection device
JP2021043297A (en) Image detection device, pulse illumination device, and pulse illumination method
JP2010023626A (en) Driver monitoring device