JP2017117341A - Object detection method, device and program - Google Patents

Object detection method, device and program Download PDF

Info

Publication number
JP2017117341A
JP2017117341A JP2015254421A JP2015254421A JP2017117341A JP 2017117341 A JP2017117341 A JP 2017117341A JP 2015254421 A JP2015254421 A JP 2015254421A JP 2015254421 A JP2015254421 A JP 2015254421A JP 2017117341 A JP2017117341 A JP 2017117341A
Authority
JP
Japan
Prior art keywords
luminance
image
distance
distance image
reflection intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015254421A
Other languages
Japanese (ja)
Inventor
伸之 原
Nobuyuki Hara
伸之 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015254421A priority Critical patent/JP2017117341A/en
Publication of JP2017117341A publication Critical patent/JP2017117341A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately extract an area which indicates an object performing a touch operation to an operation object, from an image in which the operation object is imaged.SOLUTION: An acquisition part 21 acquires a depth image and a reflection intensity image. A setting part 22 approximates a function similar to a shape of a luminance histogram of an operation object which is operated by an object which is a detection object in the depth image, to a luminance histogram of the depth image, thereby estimating the luminance histogram of the operation object. An extraction part 23 extracts a candidate area indicating the object which is the detection object from the depth image, using a depth to the operation object determined based on the estimated luminance histogram of the operation object. A division part 24 divides the reflection intensity image into plural areas. An integration part 25 detects an area which is obtained by integrating the extraction area in which a contour line and a shape of the extracted candidate area are similar to each other, and the candidate area, as an area indicating the object which is the detection object.SELECTED DRAWING: Figure 3

Description

本発明は、物体検出方法、物体検出装置、及び物体検出プログラムに関する。   The present invention relates to an object detection method, an object detection apparatus, and an object detection program.

近年、例えば工場等の現場において、拡張現実機能(AR:Augmented Reality)を利用して、作業者の作業を支援する手法が提案されている。具体的には、現場の特定の場所にカメラで識別可能なマーカーを設置し、カメラ機能を有するタブレット端末でマーカーを撮影した際に、マーカーに対応付けられた情報をタブレット端末の画面に重畳して表示する例が提案されている。この場合、作業者は、作業に関する様々なマニュアル等を現場で持ち運ばなくても、タブレット端末を持参しさえすれば、マーカーを撮影するだけでマーカーが設置された場所に必要なマニュアル等を参照することができる。   2. Description of the Related Art In recent years, for example, on the site of a factory or the like, a method for supporting an operator's work using an augmented reality function (AR: Augmented Reality) has been proposed. Specifically, when a marker that can be identified by a camera is installed at a specific location on the site and the marker is photographed by a tablet terminal having a camera function, information associated with the marker is superimposed on the screen of the tablet terminal. An example of display is proposed. In this case, even if the operator does not carry various manuals related to the work, if he / she only brings a tablet terminal, he / she only needs to shoot the marker and refer to the manuals necessary for the place where the marker is installed. can do.

特開2010−182014号公報JP 2010-182014 A

石井裕剛、外5名、「拡張現実感を利用した原子力発電プラントの解体支援方法の提案と評価」、日本バーチャルリアリティ学会論文誌、日本バーチャルリアリティ学会、平成20年6月30日、Vol.13、 No.2、p.289-300Yugo Ishii, 5 others, “Proposal and Evaluation of Nuclear Power Plant Disassembly Support Method Using Augmented Reality”, Transactions of the Virtual Reality Society of Japan, Virtual Reality Society of Japan, June 30, 2008, Vol.13 , No.2, p.289-300

しかしながら、こうした現場では、作業者は両手で作業を行うことが多いため、マニュアルの参照などのためにタブレット端末を使用することは、現場での作業の妨げとなる場合がある。したがって、図31に示すように、タブレット端末の代わりに、例えばヘッドマウントカメラ90及び眼鏡型ディスプレイ91といったウェアラブル機器を組み合わせるなどして、作業環境におけるハンズフリー化を実現することが求められている。   However, in such a field, since an operator often works with both hands, the use of a tablet terminal for referring to a manual may hinder the work on the field. Therefore, as shown in FIG. 31, it is required to realize hands-free operation in a work environment by combining wearable devices such as a head-mounted camera 90 and a glasses-type display 91 instead of a tablet terminal.

こうしたハンズフリー化を実現するウェアラブル機器を用いた場合、タブレット端末のように画面をタッチして必要な情報を呼び出したり切り替えたりする操作が困難になる。そこで、例えば、手の動きによってウェアラブル機器に指示を与えるジェスチャー操作が用いられることがある。ジェスチャー操作では、ヘッドマウントカメラ90によって作業者の手が撮影され、手の位置及び形状を解析することで操作内容を特定し、特定した操作内容に応じた処理が、眼鏡型ディスプレイ91に表示された情報に対して実行される。   When a wearable device that realizes such hands-free operation is used, it is difficult to call or switch necessary information by touching the screen like a tablet terminal. Thus, for example, a gesture operation that gives an instruction to the wearable device by a hand movement may be used. In the gesture operation, the operator's hand is photographed by the head-mounted camera 90, the operation content is specified by analyzing the position and shape of the hand, and a process corresponding to the specified operation content is displayed on the glasses-type display 91. It is executed on the received information.

対象物上の特定の箇所を指定する作業例としては、点検作業時に壁面のひび割れといった異常箇所を発見した場合に、当該箇所を指定して対象物や位置に関する情報を電子的に記録することが考えられる。   As an example of work that specifies a specific location on an object, if an abnormal location such as a crack on a wall surface is found during inspection work, the location and the information on the location or object can be recorded electronically. Conceivable.

このような作業に対し、ウェアラブル機器向けのジェスチャー操作の多くは、指や手の形状や空中での動作を用いるため、特定の箇所を指定する際に位置ずれが生じ易いという課題がある。   For such work, many gesture operations for wearable devices use the shape of a finger or hand or an action in the air, and therefore there is a problem that misalignment tends to occur when a specific location is designated.

一方、対象物が作業者の手が届く場所にある場合は、対象物上の該当箇所を作業者が直接触れて指定する操作(タッチ操作)を行うことが可能である。ジェスチャー操作としてタッチ操作を用いれば、指定した箇所の位置ずれが生じ難いという効果がある。   On the other hand, when the object is in a place where the worker can reach, an operation (touch operation) in which the operator directly touches and designates the corresponding part on the object can be performed. If the touch operation is used as the gesture operation, there is an effect that the position shift of the designated portion is difficult to occur.

ウェアラブル機器を用いてタッチ操作を認識するためには、撮影画像から、タッチ操作される対象物、並びに対象物に対してタッチ操作を行う物体(例えば、作業者の手や指など)の位置及び形状が、できるだけ正確に抽出されることが望ましい。   In order to recognize a touch operation using a wearable device, the position of an object to be touch-operated and an object (for example, an operator's hand or finger) that performs the touch operation on the object are determined from a captured image. It is desirable to extract the shape as accurately as possible.

一つの側面として、本発明は、操作対象物を撮影した画像から、操作対象物へのタッチ操作を行う物体を示す領域を精度良く抽出することを目的とする。   As one aspect, an object of the present invention is to accurately extract a region indicating an object that performs a touch operation on an operation target from an image obtained by photographing the operation target.

一つの態様では、物体との距離を該距離に応じた輝度で表す距離画像、及び物体からの反射光の強度を輝度で表す反射強度画像を取得する。そして、前記距離画像の輝度ヒストグラムに対して、該距離画像における検出対象の物体により操作される操作対象物の輝度ヒストグラムの形状に類似する関数を近似させることにより、前記操作対象物の輝度ヒストグラムを推定する。推定された前記操作対象物の輝度ヒストグラムに基づいて定まる前記操作対象物までの距離を用いて、前記距離画像から前記検出対象の物体を表す候補領域を抽出する。また、前記反射強度画像を、該反射強度画像の各画素の輝度に基づいて複数の領域に分割する。そして、前記複数の領域のうち、抽出された前記候補領域の輪郭線と形状が類似する抽出領域と、該候補領域とを統合した領域を、前記検出対象の物体を表す領域として検出する。   In one aspect, a distance image that represents the distance to the object with luminance corresponding to the distance and a reflection intensity image that represents the intensity of reflected light from the object with luminance are acquired. Then, by approximating the brightness histogram of the distance image with a function similar to the shape of the brightness histogram of the operation target operated by the detection target object in the distance image, the brightness histogram of the operation target is obtained. presume. A candidate area representing the object to be detected is extracted from the distance image using a distance to the operation target determined based on the estimated luminance histogram of the operation target. The reflection intensity image is divided into a plurality of regions based on the luminance of each pixel of the reflection intensity image. Then, an extracted area whose shape is similar to the contour line of the extracted candidate area and an area obtained by integrating the candidate areas are detected as an area representing the object to be detected.

一つの側面として、操作対象物を撮影した画像から、操作対象物へのタッチ操作を行う物体を示す領域を精度良く抽出することができる、という効果を有する。   As one aspect, there is an effect that it is possible to accurately extract a region indicating an object that performs a touch operation on the operation target from an image obtained by photographing the operation target.

距離画像の一例を示す図である。It is a figure which shows an example of a distance image. 反射強度画像の一例を示す図である。It is a figure which shows an example of a reflection intensity image. 物体検出システムの構成の一例を示す図である。It is a figure which shows an example of a structure of an object detection system. 距離画像の輝度ヒストグラムの一例を示す図である。It is a figure which shows an example of the brightness | luminance histogram of a distance image. 距離画像における手指及びタッチ操作対象物の一例を示す図である。It is a figure which shows an example of the finger and touch operation target object in a distance image. 距離画像の輝度ヒストグラム及び勾配変化率の概略を示す図である。It is a figure which shows the outline of the brightness | luminance histogram and gradient change rate of a distance image. タッチ操作対象物の輝度ヒストグラムの一例を示す図である。It is a figure which shows an example of the brightness | luminance histogram of a touch operation target object. 物体検出装置をコンピュータで実現する場合の構成の一例を示す図である。It is a figure which shows an example of a structure in the case of implement | achieving an object detection apparatus with a computer. 物体検出処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an object detection process. 第1実施形態における手指候補領域輝度設定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a finger candidate area | region brightness | luminance setting process in 1st Embodiment. 輝度ヒストグラムの勾配変化率とピークとの関係を説明するための図である。It is a figure for demonstrating the relationship between the gradient change rate of a brightness | luminance histogram, and a peak. 距離画像の輝度ヒストグラムに対するガウス関数の近似を説明するための図である。It is a figure for demonstrating the approximation of the Gaussian function with respect to the brightness | luminance histogram of a distance image. 距離画像から近傍領域及び手指候補領域を抽出した結果の一例を示す図である。It is a figure which shows an example of the result of having extracted the vicinity area | region and the finger candidate area | region from the distance image. 反射強度画像での反射強度の差異の一例を示す図である。It is a figure which shows an example of the difference in the reflection intensity in a reflection intensity image. 反射強度画像の輝度ヒストグラムを用いた分割対象範囲の設定方法の一例を示す図である。It is a figure which shows an example of the setting method of the division | segmentation target range using the brightness | luminance histogram of a reflection intensity image. 分割対象範囲の設定の流れの一例を示す図である。It is a figure which shows an example of the flow of a setting of a division | segmentation object range. 反射強度画像分割処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a reflection intensity image division process. 反射強度画像の分割の処理過程の一例を示した図である。It is the figure which showed an example of the process of a division | segmentation of a reflection intensity image. 統合処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an integration process. 誤結合した抽出領域の一例を示す図である。It is a figure which shows an example of the extraction area | region which carried out incorrect coupling | bonding. 抽出領域の過分割の一例を示す図である。It is a figure which shows an example of the excessive division | segmentation of an extraction area | region. 手指候補領域の輪郭線の一例を示す図である。It is a figure which shows an example of the outline of a finger candidate area | region. 抽出領域の輪郭線の一例を示す図である。It is a figure which shows an example of the outline of an extraction area | region. 範囲を縮小した分割対象領域の一例を示す図である。It is a figure which shows an example of the division | segmentation object area | region which reduced the range. 統合処理によって統合された手指領域の一例を示す図である。It is a figure which shows an example of the finger area | region integrated by the integration process. 判定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a determination process. 手指候補領域の輪郭線の他の例を示す図である。It is a figure which shows the other example of the outline of a finger candidate area | region. 抽出領域の輪郭線の他の例を示す図である。It is a figure which shows the other example of the outline of an extraction area | region. 第2実施形態における手指候補領域輝度設定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a finger candidate area | region brightness | luminance setting process in 2nd Embodiment. 第3実施形態における手指候補領域輝度設定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a finger candidate area | region brightness | luminance setting process in 3rd Embodiment. 作業者の装備の一例を示す図である。It is a figure which shows an example of an operator's equipment.

以下、図面を参照して本発明の実施形態の一例を詳細に説明する。なお、同じ働きを担う構成要素又は処理には、全図面を通して同じ符号を付与し、重複する説明を適宜省略する場合がある。   Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. In addition, the same code | symbol is provided to the component or process which bears the same function through all the drawings, and the overlapping description may be abbreviate | omitted suitably.

ウェアラブル機器を用いたジェスチャー操作として、例えば、特定の操作に対応付けられた指や手の形状、又は空中での動作を用いて、眼鏡型ディスプレイ91等に表示された情報の操作や作業現場内の対象物を指定する方法(モーション操作)がある。   As a gesture operation using a wearable device, for example, the operation of information displayed on the glasses-type display 91 or the like using the shape of a finger or a hand associated with a specific operation or an operation in the air There is a method (motion operation) to specify the target object.

しかし、モーション操作の場合、例えば、作業者が情報を操作する意図がないにもかかわらず、ウェアラブル機器の特定の操作に対応付けられた手の動きを偶然に実行してしまい、誤操作を引き起こしてしまう場合が考えられる。また、空中で指や手を動かすモーション操作では、例えば腕を固定しての動作に比べて指や手の位置が変化し易くなり、対象物上の特定の箇所を指示する操作では位置ずれが生じ易い状況が発生する。   However, in the case of a motion operation, for example, even though the operator does not intend to operate information, a hand movement associated with a specific operation of the wearable device is accidentally executed, causing an erroneous operation. It may be possible to end up. Also, in motion operations that move fingers and hands in the air, for example, the positions of fingers and hands are likely to change compared to operations with arms fixed. A situation that tends to occur occurs.

ここで、操作対象物が作業者の手が届く範囲内にある場合は、作業者が直接操作対象物を指で触れることで特定の箇所を指定する操作(タッチ操作)が用いられることがある。   Here, when the operation target is within the reach of the operator's hand, an operation (touch operation) in which a specific point is specified by the operator directly touching the operation target with a finger may be used. .

こうしたタッチ操作であれば、操作対象物へのタッチ操作の有無を判定することで、意図しない動きによる誤操作を回避でき、更に、空中での指や手の動作であるモーション操作に比べて操作対象物上の特定の箇所を指定する際の位置ずれが生じ難くなる。   With such touch operations, it is possible to avoid erroneous operations due to unintended movements by determining the presence or absence of touch operations on the operation target, and moreover, compared to motion operations that are the motion of fingers and hands in the air. Misalignment when specifying a specific location on the object is less likely to occur.

タッチ操作では、例えば、撮影画像から作業者の手の位置及び形状を検出する検出処理、並びに、タッチ操作対象物と手との接触を判定する判定処理を行うことになる。   In the touch operation, for example, detection processing for detecting the position and shape of the operator's hand from the captured image and determination processing for determining contact between the touch operation target and the hand are performed.

手の検出処理の一例としては、予め取得した手の肌の色及び外観の特徴に基づいて、可視光を利用した光学カメラの撮影画像から、手と推定される領域を検出する方法が用いられることがある。しかし、この場合、例えば手を照射する光源が太陽光か、又は照明器具からの光かといった光源の相違によって、撮影画像の手に対応する領域の色が予め取得した手の肌の色と異なってしまうことがある。また、光学カメラに対する手の向き、又は拳を握る等の手の形状の変化によって、撮影画像の手に対応する領域の形状が予め取得した手の外観と異なってしまうことがある。その結果、撮影画像から手に対応する領域を検出することが困難になることがある。   As an example of the hand detection process, a method of detecting an area estimated to be a hand from an image captured by an optical camera using visible light based on the hand color and appearance characteristics acquired in advance is used. Sometimes. However, in this case, the color of the region corresponding to the hand of the photographed image differs from the skin color of the hand acquired in advance due to the difference in the light source, for example, whether the light source that irradiates the hand is sunlight or light from a lighting fixture. May end up. Further, the shape of the region corresponding to the hand of the photographed image may differ from the appearance of the hand acquired in advance depending on the direction of the hand with respect to the optical camera or the change in the shape of the hand such as grasping the fist. As a result, it may be difficult to detect the region corresponding to the hand from the captured image.

その他の撮影画像からの手の検出処理の例としては、手と背景との特徴量(例えば彩度)の差分を利用する方法、又は時間的に連続する撮影画像のフレーム間におけるフレーム毎の特徴量の差分を利用する方法がある。しかし、光学カメラを装着した作業者は現場内を移動して作業することから、手の撮影場所や撮影角度が逐次変化するため、特徴量の差分を利用する方法では、撮影画像から手に対応する領域を抽出することが困難である場合が多い。   Other examples of hand detection processing from captured images include a method that uses a difference in feature quantities (for example, saturation) between a hand and a background, or a feature for each frame between frames of temporally continuous captured images. There is a method of using the difference in quantity. However, since the worker wearing the optical camera moves and works in the field, the shooting location and shooting angle of the hand changes sequentially, so the method that uses the difference in the feature amount supports the hand from the shot image. In many cases, it is difficult to extract a region to be processed.

また、判定処理の一例としては、例えば物体を異なる複数の方向から撮影する光学ステレオカメラを用いて、カメラからタッチ操作対象物及び指までの距離の各々を測定する方法がある。また、作業者の指先に接触センサを装着して、タッチ操作対象物への接触を検出する方法がある。しかし、光学ステレオカメラを用いる場合、作業者の移動に伴う照明位置や角度の変化によって、検出対象の物体の色や明るさが変わるため対応が困難になったり、作業者の体に装着し難くなったりという問題がある。また、指先に接触センサを装着する場合には、接触センサが作業者の様々な作業の妨げになることが想定される。   As an example of the determination process, for example, there is a method of measuring each of the distance from the camera to the touch operation object and the finger using an optical stereo camera that captures an object from a plurality of different directions. Further, there is a method of detecting contact with a touch operation target by attaching a contact sensor to the fingertip of the worker. However, when using an optical stereo camera, the color and brightness of the object to be detected changes due to changes in the illumination position and angle accompanying the movement of the worker, making it difficult to handle and difficult to wear on the worker's body. There is a problem of becoming. Further, when a contact sensor is attached to the fingertip, it is assumed that the contact sensor hinders various operations of the operator.

一方、近年、従来に比べて安価な赤外光を用いる距離センサが普及しつつある。距離センサには複数の測定方式があり、その中の一つに距離測定対象の物体に赤外光を照射し、物体からの反射光を受光するまでの時間差に基づいて、物体までの距離を計測する測定方式(TOF:Time-of-Flight方式)がある。   On the other hand, in recent years, distance sensors using infrared light that is less expensive than conventional ones are becoming widespread. There are multiple measurement methods for distance sensors, and one of them is based on the time difference between irradiating the object whose distance is to be measured with infrared light and receiving the reflected light from the object. There is a measurement method (TOF: Time-of-Flight method) to measure.

赤外光を用いる距離センサは、光学カメラに比べて光源の違いによる影響を受け難く、物体までの距離を精度良く計測することができる。なお、計測結果は、距離センサから物体までの距離計測結果に基づいた距離画像として出力される。距離画像は、物体までの距離計測結果に応じて輝度が変化する画像であり、例えば、距離センサから物体までの距離が遠くなる程、距離画像における当該物体に対応する画素の輝度が高くなる。なお、距離画像は、距離センサから物体までの距離が遠くなる程、距離画像における当該物体に対応する画素の輝度が低くなるものであってもよい。また、距離画像は、距離に応じて各画素の輝度を変化させる場合に限らず、輝度以外の画素値、例えば彩度や色情報等を距離に応じて変化させてもよい。   A distance sensor using infrared light is less affected by the difference in the light source than an optical camera, and can accurately measure the distance to an object. The measurement result is output as a distance image based on the distance measurement result from the distance sensor to the object. The distance image is an image whose luminance changes according to the distance measurement result to the object. For example, as the distance from the distance sensor to the object increases, the luminance of the pixel corresponding to the object in the distance image increases. The distance image may be one in which the brightness of the pixel corresponding to the object in the distance image decreases as the distance from the distance sensor to the object increases. The distance image is not limited to changing the luminance of each pixel according to the distance, and pixel values other than the luminance, such as saturation and color information, may be changed according to the distance.

図1は、距離画像3の一例を示す図である。タッチ操作の際、作業者はタッチ操作対象物に触れる指先92に注目することから、図1に示すように、指先92に対応する領域が距離画像3の中央部付近に位置する場合が多くなる。一方、手首から手の甲にかけての手背部93に対応する領域は、指先92に対応する領域が距離画像3の中央部付近にくることから、距離画像3の周辺部に位置する場合が多くなる。   FIG. 1 is a diagram illustrating an example of the distance image 3. At the time of the touch operation, the operator pays attention to the fingertip 92 that touches the touch operation target, so that the area corresponding to the fingertip 92 is often located near the center of the distance image 3 as shown in FIG. . On the other hand, the region corresponding to the hand back portion 93 from the wrist to the back of the hand is often located in the periphery of the distance image 3 because the region corresponding to the fingertip 92 comes near the center of the distance image 3.

また、タッチ操作対象物に対して指先92でタッチ操作を行う場合、指先92とタッチ操作対象物との間の距離の差が小さくなる。したがって、距離画像3上で、タッチ操作対象物に対応する領域と指先92に対応する領域の輝度差も小さくなる。一方、タッチ操作対象物と手背部93との距離の差は、タッチ操作対象物と指先92との距離の差に比べて大きい。したがって、距離画像3におけるタッチ操作対象物に対応する領域と手背部93に対応する領域との輝度差は、タッチ操作対象物に対応する領域と指先92に対応する領域との輝度差に比べて大きくなる。   Further, when a touch operation is performed on the touch operation target with the fingertip 92, a difference in distance between the fingertip 92 and the touch operation target is reduced. Therefore, the luminance difference between the area corresponding to the touch operation object and the area corresponding to the fingertip 92 on the distance image 3 is also reduced. On the other hand, the difference in the distance between the touch operation object and the back of the hand 93 is larger than the difference in the distance between the touch operation object and the fingertip 92. Therefore, the luminance difference between the area corresponding to the touch operation object and the area corresponding to the hand back part 93 in the distance image 3 is compared with the luminance difference between the area corresponding to the touch operation object and the area corresponding to the fingertip 92. growing.

すなわち、距離画像3の輝度に基づいて、タッチ操作対象物から手背部93を分離することは比較的容易であるが、タッチ操作対象物から指先92を分離することは、タッチ操作対象物と手背部93とを分離する場合に比べて困難になる。また、タッチ操作対象物と指先92の輝度差が、距離センサが有する固有の計測誤差(ノイズ)内に含まれる程度に小さい場合、タッチ操作対象物から指先92を分離することが更に困難になる。   That is, it is relatively easy to separate the hand back portion 93 from the touch operation target based on the brightness of the distance image 3, but separating the fingertip 92 from the touch operation target is equivalent to the touch operation target and the hand. It becomes difficult compared with the case where the back part 93 is separated. Further, when the luminance difference between the touch operation target and the fingertip 92 is small enough to be included in the inherent measurement error (noise) of the distance sensor, it becomes more difficult to separate the fingertip 92 from the touch operation target. .

図1の手指領域検出結果94は、輝度に基づいて距離画像3から手指5を検出した際の画像の一例を示す。ここで、手指5とは、指先92及び手背部93を合わせた部分のことをいう。手指領域検出結果94から、手背部93に対応する領域は距離画像3から検出し易いが、指先92に対応する領域は輪郭がはっきりとせず、距離画像3から検出し難いことがわかる。   The finger region detection result 94 in FIG. 1 shows an example of an image when the finger 5 is detected from the distance image 3 based on the luminance. Here, the finger 5 refers to a portion where the fingertip 92 and the hand back portion 93 are combined. From the finger region detection result 94, it can be seen that the region corresponding to the hand back portion 93 is easy to detect from the distance image 3, but the region corresponding to the fingertip 92 is not clear and difficult to detect from the distance image 3.

距離センサの距離測定方式がTOF方式の場合は、前述した距離画像3の他、反射光の強度が輝度に比例する反射強度画像を取得可能な場合がある。この反射強度画像と同じ距離センサから得られる距離画像3は、共通の照射部及び受光部を用いることから、撮影範囲、すなわち画角も共通であり、各々の画像において同じ位置にある画素は、同一物体の同じ位置を表しているとみなすことができる。   When the distance measurement method of the distance sensor is the TOF method, in addition to the distance image 3 described above, a reflection intensity image in which the intensity of reflected light is proportional to the luminance may be acquired. Since the distance image 3 obtained from the same distance sensor as the reflection intensity image uses a common irradiation unit and light receiving unit, the imaging range, that is, the angle of view is also common, and pixels at the same position in each image are It can be regarded as representing the same position of the same object.

反射強度画像は、物体からの反射光の強度に応じて輝度が変化する画像であり、例えば、反射光の強度が強くなる程、反射強度画像における当該物体に対応する画素の輝度が高くなる。なお、反射強度画像は、物体からの反射光の強度が強くなる程、反射強度画像における当該物体に対応する画素の輝度が低くなるものであってもよい。また、反射強度画像は、反射光の強度に応じて各画素の輝度を変化させる場合に限らず、輝度以外の画素値、例えば彩度や色情報等を反射光の強度に応じて変化させてもよい。   The reflection intensity image is an image whose luminance changes according to the intensity of the reflected light from the object. For example, as the intensity of the reflected light increases, the luminance of the pixel corresponding to the object in the reflection intensity image increases. The reflection intensity image may be one in which the luminance of the pixel corresponding to the object in the reflection intensity image decreases as the intensity of the reflected light from the object increases. In addition, the reflection intensity image is not limited to the case where the luminance of each pixel is changed according to the intensity of the reflected light, but pixel values other than the luminance, such as saturation and color information, are changed according to the intensity of the reflected light. Also good.

反射強度画像は、物体へ照射した赤外光の反射光の強度を利用しており、光学カメラを用いる場合に比べて、物体表面の色及び外観の特徴に影響され難い特徴がある。しかし、反射光の強度は、距離センサを基準とした物体の位置及び姿勢と共に、物体表面の材質に基づく赤外光への反射率に大きく依存する。また、距離センサから照射する赤外光が点光源の場合には、例えば対象とする物体上に同心円状の照射ムラが生じることがある。   The reflection intensity image uses the intensity of reflected light of infrared light applied to the object, and has a characteristic that is less susceptible to the color and appearance characteristics of the object surface than when an optical camera is used. However, the intensity of reflected light largely depends on the reflectance to infrared light based on the material of the object surface as well as the position and orientation of the object with reference to the distance sensor. When the infrared light emitted from the distance sensor is a point light source, for example, concentric irradiation unevenness may occur on the target object.

図2は、反射強度画像の一例を示す図である。反射強度画像4では、一見すると図1に示した距離画像3に比べて、指先92が明確に撮影されているように見える。例えば反射強度画像4から個々の物体に対応する領域を抽出するため、隣接する画素の輝度の類似性に基づいて反射強度画像4を複数の領域に分割した分割結果95の一例を示す。分割結果95に示すように、部材96の一部分が手指5と同じ物体に対応する領域として分割され、手指5に対応する領域の形状が領域97のようないびつな形状で抽出される場合がある。このような領域分割の失敗の原因としては、上述したような物体表面の材質の相違や赤外光の照射ムラの影響が考えられる。領域分割の失敗には、複数の物体を1つの領域として誤って結合する場合(誤結合)、反対に同一の物体であっても対応する領域が複数に分割される場合(過分割)がある。   FIG. 2 is a diagram illustrating an example of a reflection intensity image. In the reflected intensity image 4, at first glance, it appears that the fingertip 92 is clearly photographed as compared with the distance image 3 shown in FIG. For example, an example of a division result 95 in which the reflection intensity image 4 is divided into a plurality of areas based on the similarity in luminance between adjacent pixels in order to extract areas corresponding to individual objects from the reflection intensity image 4 is shown. As shown in the division result 95, a part of the member 96 may be divided as a region corresponding to the same object as the finger 5, and the shape of the region corresponding to the finger 5 may be extracted as an irregular shape such as the region 97. . The cause of such a region division failure may be the influence of the difference in the material of the object surface as described above or the irradiation unevenness of infrared light. The failure of area division includes a case where a plurality of objects are mistakenly combined as one area (erroneous combination), and a corresponding area is divided into a plurality of areas even if the object is the same (overdivision). .

したがって、反射強度画像4の領域分割結果から手指5の形状と大きさの類似度が高い領域を選択するには、領域分割結果から選択した領域に対して、誤結合や過分割の有無も含めた、手指5の形状、大きさについての類似性を評価する方法が必要となる。   Therefore, in order to select a region having a high similarity between the shape and size of the finger 5 from the region division result of the reflection intensity image 4, the region selected from the region division result includes the presence or absence of misconnection or overdivision. In addition, a method for evaluating the similarity of the shape and size of the fingers 5 is required.

ここで、反射強度画像4での領域分割における誤結合や過分割の発生に対する照射ムラの影響を考えると、誤結合及び過分割は、照射強度が弱い画像周辺部において発生し易く、照射強度が強い画像中央部では発生し難い傾向にある。   Here, considering the influence of irradiation unevenness on the occurrence of misconnection and overdivision in region division in the reflection intensity image 4, misconnection and overdivision are likely to occur in the periphery of an image with low irradiation intensity, and the irradiation intensity is low. It tends to be difficult to occur at the center of a strong image.

更に、タッチ操作時の手指5は指先92に対応する領域が画像中央部に位置する場合が多いことを考えると、反射強度画像4上で誤結合及び過分割が発生し易い画像周辺部に位置する手背部93と手指5との類似性を評価することが重要となる。   Furthermore, considering that the finger 5 at the time of the touch operation often has a region corresponding to the fingertip 92 at the center of the image, the finger 5 is positioned at the periphery of the image where misconnection and overdivision are likely to occur on the reflection intensity image 4. It is important to evaluate the similarity between the hand back portion 93 and the finger 5.

一方、距離画像3における手指5に対応する領域において、指先92を除いた手背部93に対応する部分は手指5との類似性が高くなる傾向が見られる。したがって、距離画像3から得た手指5に対応する領域を基準として、反射強度画像4から得た領域との類似度を評価することで、誤結合や過分割も考慮した評価ができると考えられる。   On the other hand, in the region corresponding to the finger 5 in the distance image 3, the portion corresponding to the hand back portion 93 excluding the fingertip 92 tends to be highly similar to the finger 5. Therefore, it is considered that evaluation can be performed in consideration of misconnection and overdivision by evaluating the similarity with the region obtained from the reflection intensity image 4 on the basis of the region corresponding to the finger 5 obtained from the distance image 3. .

ここで、距離画像3と反射強度画像4とにおける手背部93に対応する領域の形状及び大きさを比較すると、画角及び撮影距離はどちらの画像でも同じである。したがって、反射強度画像4において誤結合又は過分割が発生していない場合、手背部93に対応する領域の形状及び大きさは、距離画像3における手背部93に対応する領域と同一とみなすことができる程度に近似する。しかし、画素単位で見た場合、以下に示す各画像の特徴から差異が生じる。   Here, when comparing the shape and size of the area corresponding to the back portion 93 in the distance image 3 and the reflection intensity image 4, the angle of view and the shooting distance are the same in both images. Therefore, when no erroneous coupling or excessive division occurs in the reflection intensity image 4, the shape and size of the region corresponding to the back of the hand 93 can be regarded as the same as the region corresponding to the back of the hand 93 in the distance image 3. Approximate as much as possible. However, when viewed in pixel units, differences occur from the characteristics of each image shown below.

例えば、反射強度画像4での輝度に対応する反射光強度の特徴として、カメラからの距離がほぼ等しい物体でも照射方向に垂直な面(例えば手背部93における手の甲)での反射光の強度は強くなる。また、照射方向に平行な面(例えば手背部93の側面)の反射光の強度は距離の変化以上に弱くなる。   For example, as a characteristic of the reflected light intensity corresponding to the luminance in the reflected intensity image 4, the intensity of the reflected light on the surface perpendicular to the irradiation direction (for example, the back of the hand 93 on the back of the hand) is strong even for an object having an approximately equal distance from the camera. Become. In addition, the intensity of the reflected light on the surface parallel to the irradiation direction (for example, the side surface of the hand back portion 93) becomes weaker than the change in distance.

一方、距離測定結果は、反射光の強度ではなく対象物への照射から反射光の受光までの時間差に強く依存する。これらの特徴から、手背部93に対応する距離画像3及び反射強度画像4の各画像上での領域の輪郭線の形状は、全体としては類似するが画素単位では差異が生じ、単純な画素単位での領域の形状比較では類似性を正しく評価できないことがあるといえる。   On the other hand, the distance measurement result strongly depends not on the intensity of the reflected light but on the time difference from irradiation of the object to reception of the reflected light. From these characteristics, the shape of the outline of the region on each image of the distance image 3 and the reflection intensity image 4 corresponding to the back of the hand 93 is similar as a whole, but a difference occurs in pixel units. It can be said that there is a case where similarity cannot be correctly evaluated by comparing the shapes of the regions in FIG.

また、手背部93又は手指5に対応する距離画像3及び反射強度画像4の各画像での領域の面積(画素数)の比較による領域の類似性評価も考えられる。しかし、反射強度画像4から得た領域において誤結合及び過分割の両方が発生した場合、面積としては適切と評価されるが形状としては適切でない場合も考えられるため、面積比較だけでは十分な評価とはならない場合がある。   Further, similarity evaluation of regions by comparing the area (number of pixels) of the regions in the distance image 3 and the reflection intensity image 4 corresponding to the back of the hand 93 or the finger 5 is also conceivable. However, if both incorrect coupling and over-division occur in the region obtained from the reflection intensity image 4, it is considered that the area is appropriate but the shape is not appropriate. It may not be.

そこで、以降では、手指5を例にして、画像から手指5の大きさ、位置、及び形状を精度良く抽出することができる物体検出装置について説明する。   Therefore, hereinafter, the object detection apparatus that can accurately extract the size, position, and shape of the finger 5 from the image will be described using the finger 5 as an example.

<第1実施形態>
図3は、第1実施形態に係る物体検出システム1の構成例を示す図である。物体検出システム1は、撮影装置10、物体検出装置20、及び表示装置30を含む。
<First Embodiment>
FIG. 3 is a diagram illustrating a configuration example of the object detection system 1 according to the first embodiment. The object detection system 1 includes an imaging device 10, an object detection device 20, and a display device 30.

撮影装置10は、撮影範囲内に存在する物体に赤外光を照射する赤外光源、及び距離センサを含み、距離センサで生成した距離画像3及び反射強度画像4を出力する。なお、撮影装置10は、撮影範囲を所定時間間隔で連続的に撮影し、距離画像3及び反射強度画像4の各々を、時系列のフレーム画像として生成し、生成したフレーム画像を順次出力する。   The imaging device 10 includes an infrared light source that irradiates an object existing within the imaging range with infrared light, and a distance sensor, and outputs a distance image 3 and a reflection intensity image 4 generated by the distance sensor. Note that the imaging device 10 continuously captures an imaging range at predetermined time intervals, generates each of the distance image 3 and the reflection intensity image 4 as a time-series frame image, and sequentially outputs the generated frame images.

撮影装置10の設置形態としては、ハンズフリー環境を実現するため、物体検出システム1を利用する作業者等の人(ユーザ)の頭部に装着される形態、例えば前述したヘッドマウントカメラ90のような形態が用いられる。   As an installation form of the photographing apparatus 10, in order to realize a hands-free environment, a form that is mounted on the head of a person (user) such as an operator who uses the object detection system 1, for example, the head mounted camera 90 described above. Are used.

なお、撮影装置10は、赤外光源及び距離センサを含む形態とするが、これに限らず、例えば赤外光源と距離センサとを分離し、それぞれをユーザの頭部に装着するようにしてもよい。また、撮影装置10は、距離画像3及び反射強度画像4の画角が、撮影装置10を装着したユーザの視界と同じ範囲に近づくよう調整され、ユーザに装着されているものとする。   In addition, although the imaging device 10 is configured to include an infrared light source and a distance sensor, the present invention is not limited thereto. For example, the infrared light source and the distance sensor are separated and each is mounted on the user's head. Good. In addition, it is assumed that the photographing apparatus 10 is attached to the user after the angle of view of the distance image 3 and the reflection intensity image 4 is adjusted so as to approach the same range as the field of view of the user wearing the photographing apparatus 10.

物体検出装置20は、撮影装置10から、時系列のフレーム画像として順次出力される距離画像3及び反射強度画像4の各々を入力として受け付ける。物体検出装置20は、距離画像3及び反射強度画像4を用いて、手指5の位置及び形状(手指領域)を検出する。物体検出装置20は、図3に示すように、機能的には、取得部21、設定部22、抽出部23、分割部24、統合部25、及び判定部26を含む。   The object detection device 20 receives each of the distance image 3 and the reflection intensity image 4 sequentially output as time-series frame images from the imaging device 10 as inputs. The object detection device 20 detects the position and shape (finger region) of the finger 5 using the distance image 3 and the reflection intensity image 4. As shown in FIG. 3, the object detection device 20 functionally includes an acquisition unit 21, a setting unit 22, an extraction unit 23, a division unit 24, an integration unit 25, and a determination unit 26.

取得部21は、撮影装置10から入力される距離画像3及び反射強度画像4を取得し、取得した距離画像3を設定部22に受け渡すと共に、取得した反射強度画像4を分割部24に受け渡す。   The acquisition unit 21 acquires the distance image 3 and the reflection intensity image 4 input from the imaging device 10, passes the acquired distance image 3 to the setting unit 22, and receives the acquired reflection intensity image 4 to the division unit 24. hand over.

設定部22は、取得部21から受け渡された距離画像3における各画素の輝度の分布を示す輝度ヒストグラムを生成する。そして、設定部22は、輝度ヒストグラムの勾配変化率に基づいて、抽出部23が距離画像3からユーザの手指5に対応する領域の候補となる領域を抽出するための閾値を設定する。以下、距離画像3又は反射強度画像4におけるユーザの手指5に対応する領域を「手指領域」、手指領域の候補となる領域を「手指候補領域」という。また、手指候補領域を抽出するための閾値を「手指候補領域輝度」という。   The setting unit 22 generates a luminance histogram indicating the luminance distribution of each pixel in the distance image 3 passed from the acquisition unit 21. Then, the setting unit 22 sets a threshold for the extraction unit 23 to extract a region that is a candidate region corresponding to the user's finger 5 from the distance image 3 based on the gradient change rate of the luminance histogram. Hereinafter, a region corresponding to the user's finger 5 in the distance image 3 or the reflection intensity image 4 is referred to as a “finger region”, and a region that is a candidate for the finger region is referred to as a “hand candidate region”. The threshold for extracting the finger candidate region is referred to as “hand candidate region luminance”.

ここで、手指候補領域の役割、及び手指候補領域を抽出するための閾値である手指候補領域輝度(以下、「閾値v2」ともいう)について詳細を説明する。なお、本実施形態では、タッチ操作対象物の形状は平面であり、ユーザがタッチ操作対象物にタッチ操作する際には、ユーザはタッチ操作対象物に略正対することを前提とする。   Here, the role of the finger candidate region and the finger candidate region luminance (hereinafter also referred to as “threshold value v2”), which is a threshold for extracting the finger candidate region, will be described in detail. In the present embodiment, the shape of the touch operation target is a plane, and it is assumed that when the user performs a touch operation on the touch operation target, the user substantially faces the touch operation target.

手指候補領域は、後述する反射強度画像から選択した抽出候補領域の形状判定に用いるため、距離画像3上の手指5の大きさ及び形状を再現し、かつ、タッチ操作対象物等の他の物体を含まない領域として抽出されることが望ましい。   Since the finger candidate region is used for determining the shape of the extraction candidate region selected from the reflection intensity image described later, the size and shape of the finger 5 on the distance image 3 are reproduced, and other objects such as a touch operation object are reproduced. It is desirable to extract as a region that does not include.

ここで、図4(A)は、撮影装置10による距離画像3の撮影環境の一例を側面から見た図であり、撮影装置10、手指5、及びタッチ操作対象物98の位置関係を示している。   Here, FIG. 4A is a side view of an example of the photographing environment of the distance image 3 by the photographing device 10, and shows the positional relationship between the photographing device 10, the finger 5, and the touch operation target 98. Yes.

手指候補領域として、手指5だけを含む領域の抽出を行うための閾値v2は、撮影装置10からの距離のうち、タッチ操作対象物98に到達しない距離の中で、最大の距離に対応する値に設定することが好ましい。   The threshold v2 for extracting an area including only the finger 5 as the finger candidate area is a value corresponding to the maximum distance among the distances from the imaging apparatus 10 that do not reach the touch operation target 98. It is preferable to set to.

例えば、閾値v2が小さすぎる(撮影距離が短い)場合は、抽出した手指候補領域が本来の手指領域よりも小さくなる。また、閾値v2が大きすぎる(撮影距離が長い)場合は、手指5に加えてタッチ操作対象物98まで手指候補領域に含まれるため、得られた手指候補領域の形状は本来の手指領域と形状が異なり、反射強度画像から選択した抽出候補領域の形状判定に用いることが困難となる場合がある。   For example, if the threshold value v2 is too small (the shooting distance is short), the extracted finger candidate area is smaller than the original finger area. When the threshold value v2 is too large (the shooting distance is long), the finger candidate area includes the finger operation area 98 in addition to the finger 5, and thus the obtained finger candidate area has the same shape as the original finger area. May be difficult to use for determining the shape of the extraction candidate region selected from the reflection intensity image.

次に、手指5及びタッチ操作対象物98を含む距離画像3における輝度ヒストグラム、及び輝度ヒストグラムの勾配変化率の差異について詳細を説明する。   Next, details of the luminance histogram in the distance image 3 including the finger 5 and the touch operation target 98 and the difference in the gradient change rate of the luminance histogram will be described.

図4(B)は、図4(A)に示した撮影環境下で得られた距離画像3の輝度ヒストグラムの一例を示す図であり、横軸に輝度、縦軸に各輝度における画素数を示している。距離画像3の輝度は、撮影装置10から物体までの距離(撮影距離)に相当するため、輝度ヒストグラムは、撮影距離毎の画素数を表しているともいえる。なお、設定部22は、輝度ヒストグラムを生成する際、各画素の輝度を8ビット、すなわち0から255に正規化する。なお、輝度の正規化範囲は一例であり、8ビットより少ないビット数、又は多いビット数で輝度を正規化してもよい。   FIG. 4B is a diagram showing an example of a luminance histogram of the distance image 3 obtained under the shooting environment shown in FIG. 4A. The horizontal axis represents the luminance, and the vertical axis represents the number of pixels at each luminance. Show. Since the luminance of the distance image 3 corresponds to the distance from the photographing apparatus 10 to an object (photographing distance), it can be said that the luminance histogram represents the number of pixels for each photographing distance. The setting unit 22 normalizes the luminance of each pixel from 8 bits, that is, from 0 to 255 when generating the luminance histogram. Note that the luminance normalization range is an example, and the luminance may be normalized with a bit number smaller than or greater than eight bits.

ここで、撮影距離の最大値をMTとすると、距離画像3の輝度範囲を8ビット(0〜255)で正規化する場合、ある撮影距離Tに対する輝度Lは(1)式で示される。   Here, assuming that the maximum value of the shooting distance is MT, when the luminance range of the distance image 3 is normalized by 8 bits (0 to 255), the luminance L with respect to a certain shooting distance T is expressed by equation (1).

L=( T * 255 ) / MT ・・・(1)     L = (T * 255) / MT (1)

例えば、撮影距離の最大値MTが1500mm、撮影距離Tが600mm、及び輝度範囲を8ビットで正規化した場合、撮影距離Tに対する輝度Lは、(1)式より、“102”となる。   For example, when the shooting distance maximum value MT is 1500 mm, the shooting distance T is 600 mm, and the luminance range is normalized by 8 bits, the luminance L with respect to the shooting distance T is “102” from the equation (1).

本実施形態では、タッチ操作対象物98は平面状の形状であることを前提とする。また、ユーザがタッチ操作対象物98にタッチする際、多くの場合、ユーザはタッチ操作対象物98に略正対した位置に移動すると考えられる。このため、図4(A)に示すように、タッチ操作対象物98は、撮影装置10の撮影方向に対して略垂直とみなせる範囲に存在すると考えられる。したがって、撮影距離の変化に対するタッチ操作対象物98の面積の変化は、タッチ操作対象物98が存在する位置で大きくなる。すなわち、図4(B)に示すように、距離画像3におけるタッチ操作対象物98に対応する領域の輝度ヒストグラムにおいて、タッチ操作対象物98までの距離に相当する輝度を中心に、輝度変化に対する画素数の変化が大きくなる。   In the present embodiment, it is assumed that the touch operation target 98 has a planar shape. In many cases, when the user touches the touch operation target 98, it is considered that the user moves to a position substantially facing the touch operation target 98. For this reason, as shown in FIG. 4A, the touch operation target 98 is considered to exist in a range that can be regarded as being substantially perpendicular to the shooting direction of the shooting device 10. Therefore, the change in the area of the touch operation target 98 with respect to the change in the shooting distance becomes large at the position where the touch operation target 98 exists. That is, as shown in FIG. 4B, in the luminance histogram of the region corresponding to the touch operation target 98 in the distance image 3, the pixels corresponding to the luminance change centering on the luminance corresponding to the distance to the touch operation target 98. The change in the number will increase.

一方、タッチ操作を行う際の手指5は、略撮影方向に沿って伸びるため、撮影距離の変化に対する手指5の面積の変化は、タッチ操作対象物98の面積の変化に比べて小さくなる。したがって、手指5に対応する領域の輝度ヒストグラムにおける輝度変化に対する画素数の変化も小さくなる。言い換えると、距離画像3の輝度ヒストグラムにおいて、タッチ操作対象物98に対応する部分の勾配変化率は、手指5に対応する部分の勾配変化率に比べて大きくなる。   On the other hand, since the finger 5 when performing the touch operation extends substantially along the shooting direction, the change in the area of the finger 5 with respect to the change in the shooting distance is smaller than the change in the area of the touch operation target 98. Therefore, the change in the number of pixels with respect to the luminance change in the luminance histogram of the region corresponding to the finger 5 is also reduced. In other words, in the luminance histogram of the distance image 3, the gradient change rate of the portion corresponding to the touch operation target 98 is larger than the gradient change rate of the portion corresponding to the finger 5.

次に、閾値v2の推定について詳細に説明する。   Next, estimation of the threshold value v2 will be described in detail.

距離画像3の輝度ヒストグラムの勾配変化率を輝度の最小値から最大値に向かって探索し、勾配変化率が所定の閾値以上となる輝度を、タッチ操作対象物98の撮影距離に相当する輝度v0とする。   The gradient change rate of the luminance histogram of the distance image 3 is searched from the minimum value of the luminance toward the maximum value, and the luminance v0 corresponding to the shooting distance of the touch operation target 98 is the luminance at which the gradient change rate is equal to or greater than a predetermined threshold. And

図4(C)は、図4(B)において、輝度v0の付近を拡大した図であり、これを輝度ヒストグラム82とする、また、図4(D)は、図4(C)に示す輝度ヒストグラム82の勾配変化率を示したグラフである。   FIG. 4C is an enlarged view of the vicinity of the luminance v0 in FIG. 4B, which is a luminance histogram 82, and FIG. 4D is the luminance shown in FIG. 6 is a graph showing a gradient change rate of a histogram 82.

前述したように、閾値v2は、タッチ操作対象物98に到達しない撮影距離の中で、最大の距離に対応する値に設定することが好ましい。しかし、距離測定結果に含まれるノイズの影響によって閾値v2を直接求めることは困難であることが多いため、輝度v0から所定の調整値f1(例えば30mmに相当する輝度値)だけ小さい輝度値を閾値v2としてもよい。調整値f1については、実際の作業を通じて事前に求めておくことが好ましい。また、コンピュータシミュレーション等により、調整値f1を事前に求めておいてもよい。   As described above, the threshold value v2 is preferably set to a value corresponding to the maximum distance among the shooting distances that do not reach the touch operation target 98. However, since it is often difficult to directly determine the threshold value v2 due to the influence of noise included in the distance measurement result, a luminance value that is smaller than the luminance value v0 by a predetermined adjustment value f1 (for example, a luminance value corresponding to 30 mm) is used as the threshold value. It may be v2. The adjustment value f1 is preferably obtained in advance through actual work. The adjustment value f1 may be obtained in advance by computer simulation or the like.

ここで、想定する撮影環境において、ユーザはタッチ操作対象物98に近づきすぎるとタッチ操作が困難となることから、タッチ操作対象物98の撮影距離は少なくとも100mm以上と考えられる。そこで、タッチ操作に必要なタッチ操作対象物98の撮影距離の最小値(例えば、100mm)に相当する輝度を閾値v1とする。この場合、距離画像3上の輝度0から閾値v1までの画素を含む領域を近傍領域81とすると、近傍領域81には手指5及び腕の一部が含まれるが、タッチ操作対象物98は含まれないと考えられる。   Here, in the assumed shooting environment, if the user gets too close to the touch operation target 98, the touch operation becomes difficult. Therefore, the shooting distance of the touch operation target 98 is considered to be at least 100 mm. Accordingly, the luminance corresponding to the minimum value (for example, 100 mm) of the shooting distance of the touch operation target 98 necessary for the touch operation is set as the threshold value v1. In this case, if a region including pixels from the luminance 0 to the threshold value v1 on the distance image 3 is set as the neighborhood region 81, the neighborhood region 81 includes the finger 5 and a part of the arm, but the touch operation target 98 is included. It is thought that it is not possible.

そこで、図4(D)に示すように、閾値v2は、輝度ヒストグラム82の勾配変化率が予め定めた勾配変化率r1より大きくなる輝度値v0を、閾値v1から輝度が高くなる方向に向かって探索し、得られた輝度値v0から調整値f1だけ小さくすることにより求められる。なお、閾値v1から輝度が高くなる方向に向かって閾値v0を探索する理由は、閾値v1未満の近傍領域81は、ユーザの手指5及び腕の一部しか含まれない領域であるため、あえて閾値v1未満の輝度から閾値v0の探索を開始する必要がないためである。   Therefore, as shown in FIG. 4D, the threshold value v2 is set so that the luminance value v0 at which the gradient change rate of the luminance histogram 82 is larger than the predetermined gradient change rate r1 is increased from the threshold value v1 to the luminance increasing direction. This is obtained by searching and reducing the obtained luminance value v0 by the adjustment value f1. The reason why the threshold value v0 is searched from the threshold value v1 toward the direction in which the luminance increases is that the neighborhood area 81 less than the threshold value v1 is an area that includes only part of the user's fingers 5 and arms. This is because it is not necessary to start searching for the threshold value v0 from the luminance less than v1.

しかし、上記のように閾値v2を求める方法は、距離画像3において、タッチ操作対象物98に対応する領域が、ユーザの手指領域に比べて大きい領域である場合に成立するものである。例えば、図5に示すように、距離画像3において、手指領域とタッチ操作対象物98に対応する領域との面積差が小さい場合には、問題が生じる。   However, the method for obtaining the threshold value v2 as described above is established when the area corresponding to the touch operation target 98 is larger in the distance image 3 than the user's finger area. For example, as shown in FIG. 5, a problem arises when the area difference between the finger region and the region corresponding to the touch operation target 98 is small in the distance image 3.

図6に、距離画像3において、手指領域とタッチ操作対象物98に対応する領域との面積差が小さい場合の輝度ヒストグラム、及びこの輝度ヒストグラムの勾配変化率を示す。両領域の面積差が小さい場合、輝度ヒストグラムにおいて、タッチ操作対象物98に対応する部分の勾配変化率と、手指領域の部分の勾配変化率との差異も減少する。この場合において、上述したように、手指領域の勾配変化率とタッチ操作対象物98に対応する部分の勾配変化率とを識別可能な閾値となる勾配変化率r1を設定したとする。手指領域とタッチ操作対象物98に対応する領域との面積差が小さい場合には、タッチ操作対象物98に対応する部分の勾配変化率の最大値が、この勾配変化率r1を超えない場合が生じ得る。この場合、勾配変化率r1に対応する輝度値v0を基準に閾値v2を求めることができない。   FIG. 6 shows a luminance histogram when the area difference between the finger region and the region corresponding to the touch operation target 98 in the distance image 3 is small, and the gradient change rate of the luminance histogram. When the area difference between the two regions is small, the difference between the gradient change rate of the portion corresponding to the touch operation target 98 and the gradient change rate of the finger region portion is also reduced in the luminance histogram. In this case, as described above, it is assumed that the gradient change rate r1 is set as a threshold value that can identify the gradient change rate of the finger region and the gradient change rate of the portion corresponding to the touch operation target 98. When the area difference between the finger region and the region corresponding to the touch operation target 98 is small, the maximum value of the gradient change rate of the portion corresponding to the touch operation target 98 may not exceed the gradient change rate r1. Can occur. In this case, the threshold value v2 cannot be obtained based on the luminance value v0 corresponding to the gradient change rate r1.

そこで、本実施形態における設定部22は、距離画像3において、手指領域とタッチ操作対象物98に対応する領域との面積差が小さい場合でも、手指候補領域を適切に抽出可能な閾値v2を設定する。   Therefore, the setting unit 22 in the present embodiment sets a threshold value v2 that can appropriately extract a finger candidate region even when the area difference between the finger region and the region corresponding to the touch operation target 98 is small in the distance image 3. To do.

具体的には、設定部22は、距離画像3の輝度ヒストグラムに対して、タッチ操作対象物98に対応する領域を表す輝度ヒストグラムに類似する形状の関数を近似させ、近似させた関数に基づいて、タッチ操作対象物98の撮影距離を推定する。そして、設定部22は、推定したタッチ操作対象物98の撮影距離に基づいて閾値v2を設定する。   Specifically, the setting unit 22 approximates a function having a shape similar to the brightness histogram representing the area corresponding to the touch operation target 98 with respect to the brightness histogram of the distance image 3, and based on the approximated function. The shooting distance of the touch operation object 98 is estimated. Then, the setting unit 22 sets the threshold value v2 based on the estimated shooting distance of the touch operation target 98.

ここで、図7に、距離画像3におけるタッチ操作対象物98に対応する領域の輝度ヒストグラム(以下、「タッチ操作対象物98の輝度ヒストグラム」という)を示す。上述したように、タッチ操作対象物98は、撮影装置10の撮影方向に対して垂直とみなせる範囲に存在し、その形状は平面状である。すなわち、タッチ操作対象物98上の各位置における撮影距離は、その位置によらず略一定である。そのため、タッチ操作対象物98の輝度ヒストグラムは、図7に示すように、ある撮影距離に相当する輝度をピークとし、左右に対照的に広がる形状になるという特徴がある。   Here, FIG. 7 shows a luminance histogram of an area corresponding to the touch operation target 98 in the distance image 3 (hereinafter referred to as “the luminance histogram of the touch operation target 98”). As described above, the touch operation target 98 exists in a range that can be regarded as being perpendicular to the shooting direction of the shooting apparatus 10 and has a flat shape. That is, the shooting distance at each position on the touch operation target 98 is substantially constant regardless of the position. Therefore, as shown in FIG. 7, the luminance histogram of the touch operation target 98 has a characteristic that the luminance corresponding to a certain shooting distance has a peak and has a shape that spreads in contrast to the left and right.

したがって、設定部22は、タッチ操作対象物98の輝度ヒストグラムに類似する形状の関数として、あるピークを中心に左右対称に広がる形状になるという特徴を表す関数、例えばガウス関数を用いる。距離画像3の輝度ヒストグラムにおいて、この関数と近似される部分は、タッチ操作対象物98の輝度ヒストグラムを表しているといえる。そこで、設定部22は、この近似した関数のピーク及び分散等を用いて、タッチ操作対象物98の撮影距離を推定する。以下では、タッチ操作対象物98の輝度ヒストグラムに類似する形状の関数として、ガウス関数を用いる例について説明する。   Therefore, the setting unit 22 uses a function representing a feature of a shape spreading symmetrically around a certain peak, for example, a Gaussian function, as a function of a shape similar to the luminance histogram of the touch operation target 98. In the luminance histogram of the distance image 3, it can be said that the portion approximated to this function represents the luminance histogram of the touch operation target 98. Therefore, the setting unit 22 estimates the shooting distance of the touch operation target 98 using the peak and variance of the approximate function. Hereinafter, an example in which a Gaussian function is used as a function having a shape similar to the luminance histogram of the touch operation target 98 will be described.

抽出部23は、設定部22により設定された手指候補領域輝度(閾値v2)に基づいて、距離画像3から手指候補領域を抽出する。抽出部23は、抽出した手指候補領域に関する情報を統合部25に受け渡す。   The extraction unit 23 extracts a finger candidate region from the distance image 3 based on the finger candidate region luminance (threshold value v2) set by the setting unit 22. The extraction unit 23 delivers the information regarding the extracted finger candidate area to the integration unit 25.

分割部24は、取得部21から受け渡された反射強度画像4を、隣接する画素の輝度差に基づく予め定めた分割アルゴリズムに従って、複数の領域に分割する。分割部24は、分割した複数の領域に関する情報を統合部25に受け渡す。   The dividing unit 24 divides the reflection intensity image 4 delivered from the acquiring unit 21 into a plurality of regions according to a predetermined dividing algorithm based on a luminance difference between adjacent pixels. The dividing unit 24 passes information related to the divided areas to the integrating unit 25.

統合部25は、距離画像3における手指候補領域に関する情報を抽出部23から取得すると共に、分割された反射強度画像4の複数の領域に関する情報を分割部24から取得する。統合部25は、反射強度画像4の複数の領域の中から、輪郭線が手指候補領域と最も類似する領域を抽出領域として選択し、手指候補領域と抽出領域とを統合することで、ユーザの手指領域を確定する。そして、統合部25は、確定したユーザの手指領域に関する情報を判定部26に受け渡す。   The integration unit 25 acquires information about the finger candidate area in the distance image 3 from the extraction unit 23 and also acquires information about a plurality of areas of the divided reflection intensity image 4 from the division unit 24. The integration unit 25 selects, from among a plurality of regions of the reflection intensity image 4, a region whose contour is most similar to the finger candidate region as an extraction region, and integrates the finger candidate region and the extraction region, thereby Determine the finger area. Then, the integration unit 25 delivers information regarding the determined user's finger area to the determination unit 26.

判定部26は、統合部25から受け渡された手指領域に関する情報に基づいて、タッチ操作対象物98に対してタッチ操作が行われたか否かを判定する。タッチ操作が行われた場合、判定部26は、タッチ操作に応じた画像が表示装置30に表示されるように、表示装置30を制御する。   The determination unit 26 determines whether or not a touch operation has been performed on the touch operation target 98 based on the information related to the finger region delivered from the integration unit 25. When the touch operation is performed, the determination unit 26 controls the display device 30 so that an image corresponding to the touch operation is displayed on the display device 30.

なお、設定部22、抽出部23、分割部24、統合部25、及び判定部26の各々の処理の詳細については後述する。   Details of the processing of the setting unit 22, the extraction unit 23, the division unit 24, the integration unit 25, and the determination unit 26 will be described later.

表示装置30は、例えば、液晶画面、有機エレクトロルミネッセンス画面等の画面を備える。表示装置30の画面上には、判定部26による表示制御により、タッチ操作に応じた画像等の各種情報が表示される。表示装置30の設置形態としては、ハンズフリー環境を実現するため、例えば前述した眼鏡型ディスプレイ91のような形態が用いられる。なお、表示装置30に必ずしも画面は必要なく、例えばユーザの網膜上にレーザを走査しながら照射することで、網膜上に映像を描画する網膜ディスプレイを用いてもよい。   The display device 30 includes a screen such as a liquid crystal screen or an organic electroluminescence screen. Various information such as an image corresponding to the touch operation is displayed on the screen of the display device 30 by display control by the determination unit 26. As an installation form of the display device 30, for example, a form like the above-described glasses-type display 91 is used in order to realize a hands-free environment. The display device 30 does not necessarily have a screen. For example, a retina display that draws an image on the retina by irradiating the user's retina while scanning with a laser may be used.

図3では、一例として、物体検出装置20を撮影装置10及び表示装置30と分離させた形態を示しているが、物体検出システム1の装置形態はこれに限られない。例えば、物体検出装置20を撮影装置10及び表示装置30の一方と統合してもよく、また、撮影装置10、物体検出装置20、及び表示装置30を1つの装置として統合してもよい。   In FIG. 3, as an example, a configuration in which the object detection device 20 is separated from the imaging device 10 and the display device 30 is shown, but the device configuration of the object detection system 1 is not limited to this. For example, the object detection device 20 may be integrated with one of the imaging device 10 and the display device 30, or the imaging device 10, the object detection device 20, and the display device 30 may be integrated as one device.

次に、図8に、物体検出装置20をコンピュータで実現する場合の構成図の一例を示す。   Next, FIG. 8 shows an example of a configuration diagram when the object detection device 20 is realized by a computer.

コンピュータ100は、CPU102、メモリ104、及び不揮発性の記憶部106を含む。また、コンピュータ100は、入力装置112、撮影装置10、及び表示装置30の各々とコンピュータ100とを接続してデータを送受信するI/O(Input/Output)108を含む。CPU102、メモリ104、記憶部106、及びI/O108の各々は、バス110を介して互いに接続される。   The computer 100 includes a CPU 102, a memory 104, and a nonvolatile storage unit 106. The computer 100 also includes an input / output (I / O) 108 that connects the computer 100 to each of the input device 112, the imaging device 10, and the display device 30 to transmit and receive data. Each of the CPU 102, the memory 104, the storage unit 106, and the I / O 108 is connected to each other via the bus 110.

入力装置112は、例えばキーボード及びマウス等の、コンピュータ100の操作者がコンピュータ100に指示を与えるための入力デバイスを含む。また、入力装置112は、例えばCD−ROM、フラッシュメモリ等の記録媒体116に記録されたデータの読み取り、及び記録媒体116へのデータの書き込みを行う装置を含む。なお、入力装置112を必ずしもI/O110に接続する必要はない。   The input device 112 includes an input device for giving an instruction to the computer 100 by an operator of the computer 100 such as a keyboard and a mouse. The input device 112 includes a device that reads data recorded on the recording medium 116 such as a CD-ROM or a flash memory and writes data to the recording medium 116. Note that the input device 112 is not necessarily connected to the I / O 110.

なお、記憶部106は、HDD(Hard Disk Drive)、フラッシュメモリ等によって実現できる。   The storage unit 106 can be realized by an HDD (Hard Disk Drive), a flash memory, or the like.

記憶部106には、コンピュータ100を図3に示す物体検出装置20として機能させるための物体検出プログラム120が記憶される。物体検出プログラム120は、取得プロセス121、設定プロセス122、抽出プロセス123、分割プロセス124、統合プロセス125、及び判定プロセス126を含む。   The storage unit 106 stores an object detection program 120 for causing the computer 100 to function as the object detection device 20 illustrated in FIG. The object detection program 120 includes an acquisition process 121, a setting process 122, an extraction process 123, a division process 124, an integration process 125, and a determination process 126.

CPU102は、物体検出プログラム120を記憶部106から読み出してメモリ104に展開し、物体検出プログラム120に含まれる各プロセスを実行する。CPU102は、取得プロセス121を実行することで、図3に示す取得部21として動作する。また、CPU102は、設定プロセス122を実行することで、図3に示す設定部22として動作する。また、CPU102は、抽出プロセス123を実行することで、図3に示す抽出部23として動作する。また、CPU102は、分割プロセス124を実行することで、図3に示す分割部24として動作する。また、CPU102は、統合プロセス125を実行することで、図3に示す統合部25として動作する。また、CPU102は、判定プロセス126を実行することで、図3に示す判定部26として動作する。これにより、物体検出プログラム120を実行したコンピュータ100が物体検出装置20として動作する。   The CPU 102 reads the object detection program 120 from the storage unit 106 and expands it in the memory 104, and executes each process included in the object detection program 120. The CPU 102 operates as the acquisition unit 21 illustrated in FIG. 3 by executing the acquisition process 121. Further, the CPU 102 operates as the setting unit 22 illustrated in FIG. 3 by executing the setting process 122. Further, the CPU 102 operates as the extraction unit 23 illustrated in FIG. 3 by executing the extraction process 123. Further, the CPU 102 operates as the dividing unit 24 illustrated in FIG. 3 by executing the dividing process 124. Further, the CPU 102 operates as the integration unit 25 illustrated in FIG. 3 by executing the integration process 125. Further, the CPU 102 operates as the determination unit 26 illustrated in FIG. 3 by executing the determination process 126. As a result, the computer 100 that has executed the object detection program 120 operates as the object detection device 20.

なお、物体検出プログラム120により実現される機能は、例えば半導体集積回路、より詳しくはASIC(Application Specific Integrated Circuit)等で実現することも可能である。   The function realized by the object detection program 120 can also be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC (Application Specific Integrated Circuit).

次に、第1実施形態に係る物体検出システム1の作用について説明する。例えば、撮影装置10が、距離画像3及び反射強度画像4の生成及び出力を開始することを示す撮影通知を物体検出装置20に通知する。物体検出装置20は、この撮影通知を取得すると、図9に示す物体検出処理を実行する。   Next, the operation of the object detection system 1 according to the first embodiment will be described. For example, the photographing apparatus 10 notifies the object detection apparatus 20 of a photographing notification indicating that generation and output of the distance image 3 and the reflection intensity image 4 are started. When the object detection apparatus 20 acquires this shooting notification, the object detection apparatus 20 executes an object detection process shown in FIG.

なお、以降では、撮影装置10で撮影された各画像からユーザの手指5を検出する例を示すが、物体検出装置20で検出する物体は手指5に限られず、例えば指示棒などの物体上の特定の箇所でもよい。また、距離画像3は、撮影装置10から物体までの距離が遠くなる程、対応する部分の輝度が高く表示され、反射強度画像4は、物体での赤外光の反射強度が強くなる程、対応する部分の輝度が高く表示される場合を例に説明する。   In the following, an example in which the user's finger 5 is detected from each image captured by the imaging device 10 will be described, but the object detected by the object detection device 20 is not limited to the finger 5, for example, on an object such as a pointer. It may be a specific part. Further, the distance image 3 is displayed with higher brightness of the corresponding portion as the distance from the photographing apparatus 10 to the object is longer, and the reflection intensity image 4 is higher as the reflection intensity of infrared light on the object is higher. A case where the corresponding portion is displayed with high brightness will be described as an example.

図9に示す物体検出処理のステップS100で、取得部21が、撮影装置10から物体検出装置20に入力された距離画像3及び反射強度画像4を取得し、例えばメモリ104の予め定めた領域にそれぞれ記憶する。   In step S100 of the object detection process illustrated in FIG. 9, the acquisition unit 21 acquires the distance image 3 and the reflection intensity image 4 input from the imaging device 10 to the object detection device 20, and stores them in a predetermined area of the memory 104, for example. Remember each one.

ステップS200で、設定部22が、距離画像3をメモリ104から取得し、距離画像3に基づいて、抽出部23で使用する手指候補領域輝度(閾値v2)を設定する手指候補領域輝度設定処理を実行する。   In step S200, the setting unit 22 acquires the distance image 3 from the memory 104, and performs finger candidate region luminance setting processing for setting the finger candidate region luminance (threshold value v2) used by the extraction unit 23 based on the distance image 3. Run.

図10は、手指候補領域輝度設定処理の流れの一例を示すフローチャートである。   FIG. 10 is a flowchart showing an exemplary flow of the finger candidate region luminance setting process.

ステップS205で、設定部22が、取得した距離画像3から、輝度ヒストグラムを生成する。   In step S205, the setting unit 22 generates a luminance histogram from the acquired distance image 3.

次に、ステップS210で、設定部22が、距離画像3の輝度ヒストグラムにおいて、距離画像3の輝度ヒストグラムに近似させるガウス関数のピークに対応する輝度(基準輝度)の探索範囲における最大輝度を、注目輝度に設定する。基準輝度の探索範囲は、距離画像3の輝度ヒストグラムの全範囲としてもよいし、ユーザによるタッチ操作が可能な距離(例えば、1m)に相当する輝度までの範囲としてもよい。   Next, in step S210, the setting unit 22 pays attention to the maximum luminance in the search range of the luminance (reference luminance) corresponding to the Gaussian function peak approximated to the luminance histogram of the distance image 3 in the luminance histogram of the distance image 3. Set to brightness. The reference luminance search range may be the entire range of the luminance histogram of the distance image 3 or may be a range up to a luminance corresponding to a distance (for example, 1 m) that can be touched by the user.

次に、ステップS215で、設定部22が、探索範囲を全て探索したか否かを判定する。探索範囲内に、注目輝度として未設定の輝度が存在する場合には、処理はステップS220へ移行する。一方、探索範囲を全て探索した場合には、処理は図9に示す物体検出処理のステップS100に戻る。   Next, in step S215, the setting unit 22 determines whether or not the entire search range has been searched. If there is an unset luminance as the target luminance in the search range, the process proceeds to step S220. On the other hand, when the entire search range has been searched, the process returns to step S100 of the object detection process shown in FIG.

ステップS220では、設定部22が、距離画像3の輝度ヒストグラムの注目輝度における勾配変化率を算出すると共に、距離画像3の輝度ヒストグラムの注目輝度における画素数を取得する。設定部22は、注目輝度における勾配変化率が、所定の閾値−a1〜+a1の範囲内で、かつ注目輝度における画素数が所定の閾値a2以上か否かを判定する。閾値−a1〜+a1の範囲としては、勾配変化率が略0と見做せる範囲を予め定めておく。図11に示すように、ある輝度における勾配変化率が略0であることは、その輝度が輝度ヒストグラムにおいてピークを有する輝度であることを表す。また、閾値a2は、距離画像3上の微小領域をノイズとして除去するための閾値である。   In step S <b> 220, the setting unit 22 calculates the gradient change rate at the target luminance of the luminance histogram of the distance image 3 and acquires the number of pixels at the target luminance of the luminance histogram of the distance image 3. The setting unit 22 determines whether the gradient change rate in the target luminance is within a predetermined threshold value −a1 to + a1 and the number of pixels in the target luminance is equal to or greater than the predetermined threshold value a2. As a range of the thresholds −a1 to + a1, a range in which the gradient change rate can be regarded as approximately 0 is determined in advance. As shown in FIG. 11, the fact that the gradient change rate at a certain luminance is approximately 0 indicates that the luminance is a luminance having a peak in the luminance histogram. The threshold value a2 is a threshold value for removing a minute region on the distance image 3 as noise.

注目輝度における勾配変化率が閾値−a1〜+a1の範囲内で、かつ画素数が閾値a2以上の場合には、処理はステップS225へ移行する。一方、注目輝度における勾配変化率が閾値−a1〜+a1の範囲を超えているか、又は画素数が閾値a2未満の場合には、処理はステップS240へ移行する。   If the gradient change rate in the target luminance is within the range of the threshold values −a1 to + a1 and the number of pixels is equal to or greater than the threshold value a2, the process proceeds to step S225. On the other hand, when the gradient change rate in the target luminance exceeds the range of the threshold values −a1 to + a1 or the number of pixels is less than the threshold value a2, the process proceeds to step S240.

ステップS225では、設定部22が、注目輝度を基準輝度に設定する。そして、設定部22が、基準輝度を平均輝度、距離画像3の輝度ヒストグラムの基準輝度における画素数をピーク値、及び分散値を変数とするガウス関数を定義する。設定部22は、分散値を適宜変更しながら、最小二乗法等を用いて、ガウス関数を距離画像3の輝度ヒストグラムに近似させる。   In step S225, the setting unit 22 sets the target luminance as the reference luminance. Then, the setting unit 22 defines a Gaussian function in which the reference luminance is the average luminance, the number of pixels in the reference luminance of the luminance histogram of the distance image 3 is the peak value, and the variance value is the variable. The setting unit 22 approximates the Gaussian function to the luminance histogram of the distance image 3 using the least square method or the like while appropriately changing the variance value.

なお、図6の上図に示すように、距離画像3の輝度ヒストグラムにおいて、タッチ操作対象物98に相当する部分よりも撮影装置10に近い距離に相当する輝度の部分には、手指や腕等に相当する画素が多数含まれる。そのため、距離が撮影装置10に近い側、すなわち輝度が小さい側も含めて、タッチ操作対象物98の輝度ヒストグラムを想定したガウス関数を距離画像3の輝度ヒストグラムに近似させる場合には、適切な近似が行えない場合がある。そこで、例えば、図12に示すように、基準輝度より輝度が高い範囲を近似対象範囲として、近似を行ってもよい。   As shown in the upper diagram of FIG. 6, in the luminance histogram of the distance image 3, a portion having a luminance corresponding to a distance closer to the photographing apparatus 10 than a portion corresponding to the touch operation target 98 is a finger, an arm, or the like. Many pixels corresponding to are included. Therefore, when approximating the Gaussian function assuming the luminance histogram of the touch operation target 98 to the luminance histogram of the distance image 3 including the side where the distance is close to the photographing apparatus 10, that is, the side where the luminance is low, an appropriate approximation. May not be possible. Therefore, for example, as shown in FIG. 12, approximation may be performed using a range whose luminance is higher than the reference luminance as an approximation target range.

次に、ステップS230で、設定部22が、上記ステップS225において、距離画像3の輝度ヒストグラムに近似させたガウス関数の分散値が、所定の閾値a3以下か否かを判定する。上述したように、タッチ操作対象物98は、撮影装置10の撮影方向に略正対した平面状の物体であることを前提としているため、タッチ操作対象物98の輝度ヒストグラムを想定したガウス関数の分散値は、ある程度の値以下になると考えられる。この値を閾値a3として予め定めておく。すなわち、近似したガウス関数の分散値が閾値a3を超える場合には、そのガウス関数に対応する距離画像3の輝度ヒストグラムの部分は、例えば、撮影装置10の撮影方向に対して傾きを持った物体を表す部分であることが考えられる。このような物体は、本実施形態で前提とするタッチ操作対象物98には当てはまらないため、近似したガウス関数に対応する距離画像3の輝度ヒストグラムの部分は、タッチ操作対象物98の輝度ヒストグラムを表す部分ではないと判定するものである。   Next, in step S230, the setting unit 22 determines whether the variance value of the Gaussian function approximated to the luminance histogram of the distance image 3 in step S225 is equal to or less than a predetermined threshold value a3. As described above, since the touch operation target 98 is assumed to be a planar object that is substantially directly opposite to the shooting direction of the shooting apparatus 10, a Gaussian function that assumes a luminance histogram of the touch operation target 98 is assumed. The variance value is considered to be a certain value or less. This value is determined in advance as a threshold value a3. That is, when the variance value of the approximated Gaussian function exceeds the threshold value a3, the luminance histogram portion of the distance image 3 corresponding to the Gaussian function is, for example, an object having an inclination with respect to the imaging direction of the imaging device 10 It is considered that this is a part representing Since such an object does not apply to the touch operation target 98 assumed in the present embodiment, the brightness histogram portion of the distance image 3 corresponding to the approximated Gaussian function is the brightness histogram of the touch operation target 98. It is determined that it is not a part to represent.

距離画像3の輝度ヒストグラムに近似させたガウス関数の分散値が、閾値a3以下の場合には、処理はステップS235へ移行し、分散値が閾値a3を超えている場合には、処理はステップS240へ移行する。   If the variance value of the Gaussian function approximated to the luminance histogram of the distance image 3 is equal to or smaller than the threshold value a3, the process proceeds to step S235. If the variance value exceeds the threshold value a3, the process proceeds to step S240. Migrate to

ステップS235では、設定部22が、近似したガウス関数と、距離画像3の輝度ヒストグラムとの誤差が、所定の閾値a4以下か否かを判定する。誤差は、例えば、各輝度におけるガウス関数の値と、距離画像3の輝度ヒストグラムの値との差の絶対値又は二乗の総和とすることができる。また、誤差を求める範囲を、上記ステップS225で距離画像3の輝度ヒストグラムにガウス関数を近似させる際に適用した近似対象範囲に限定してもよい。誤差が閾値a4以下の場合には、処理はステップS245へ移行し、誤差が閾値a4を超える場合には、処理はステップS240へ移行する。   In step S235, the setting unit 22 determines whether the error between the approximated Gaussian function and the luminance histogram of the distance image 3 is equal to or less than a predetermined threshold value a4. The error can be, for example, the absolute value of the difference between the value of the Gaussian function at each luminance and the value of the luminance histogram of the distance image 3 or the sum of the squares. Further, the range for obtaining the error may be limited to the approximation target range applied when approximating the Gaussian function to the luminance histogram of the distance image 3 in step S225. If the error is equal to or smaller than the threshold value a4, the process proceeds to step S245. If the error exceeds the threshold value a4, the process proceeds to step S240.

ステップS240へ移行した場合には、現在設定中の注目輝度が基準輝度ではない、又は、現在設定中の注目輝度を基準輝度とするガウス関数の近似が失敗したことを表す。そこで、設定部22が、現在設定中の注目輝度より1つ小さい輝度値を新たな注目輝度に設定する。そして、処理はステップS215に戻る。   When the process proceeds to step S240, it indicates that the attention brightness currently set is not the reference brightness, or approximation of the Gaussian function using the attention brightness currently set as the reference brightness has failed. Therefore, the setting unit 22 sets a brightness value that is one smaller than the currently set target brightness as a new target brightness. Then, the process returns to step S215.

一方、ステップS245へ移行した場合には、現在設定中の注目輝度を基準輝度とした場合に、距離画像3の輝度ヒストグラムに対するガウス関数の近似が成功したことを表す。そこで、設定部22が、上記ステップS225で近似されたガウス関数に基づいて、手指候補領域輝度(閾値v2)を設定する。上述したように、閾値v2としては、タッチ操作対象物98に到達しない撮影距離の中で、最大の距離に対応する値、言い換えると、タッチ操作対象物98までの最近傍距離を設定することが好ましい。具体的には、設定部22は、図12に示すように、近似したガウス関数の輝度が小さい側の裾野の所定値、例えば、1σ(σはガウス関数の標準偏差)に相当する輝度を、閾値v2とすることができる。   On the other hand, when the process proceeds to step S245, it indicates that the approximation of the Gaussian function to the luminance histogram of the distance image 3 has succeeded when the target luminance currently set is set as the reference luminance. Therefore, the setting unit 22 sets the finger candidate region luminance (threshold value v2) based on the Gaussian function approximated in step S225. As described above, as the threshold value v <b> 2, a value corresponding to the maximum distance among shooting distances that do not reach the touch operation target 98, in other words, the nearest distance to the touch operation target 98 can be set. preferable. Specifically, as shown in FIG. 12, the setting unit 22 sets a luminance corresponding to a predetermined value on the lower side of the approximate Gaussian function, for example, 1σ (σ is the standard deviation of the Gaussian function), The threshold value v2 can be set.

閾値v2が設定されると、処理は図9に示す物体検出処理に戻る。   When the threshold value v2 is set, the process returns to the object detection process shown in FIG.

なお、手指候補領域輝度設定処理における閾値a1〜a4の各々は、実測又はコンピュータシミュレーション等により得られる、タッチ操作対象物98の距離画像3上での大きさ等に基づいて事前に求めておく。これらの閾値a1〜a4は、物体検出プログラム120と共に、記憶部106の所定の記憶領域に予め記憶しておく。   Each of the threshold values a1 to a4 in the finger candidate region luminance setting process is obtained in advance based on the size of the touch operation target 98 on the distance image 3 obtained by actual measurement or computer simulation. These threshold values a1 to a4 are stored in advance in a predetermined storage area of the storage unit 106 together with the object detection program 120.

次に、図9に示す物体検出処理のステップS300で、抽出部23が、ステップS100で取得された距離画像3、ステップS200で設定された閾値v2、及びメモリ104に予め記憶しておいた閾値v1を取得する。   Next, in step S300 of the object detection process shown in FIG. 9, the extraction unit 23 stores the distance image 3 acquired in step S100, the threshold value v2 set in step S200, and the threshold value stored in advance in the memory 104. Get v1.

そして、抽出部23は、閾値v1以下の輝度を有する画素の集まりを近傍領域81(図4(D)参照)として距離画像3から抽出する。次に、抽出部23は、近傍領域81に含まれる画素に隣接し、かつ閾値v2以下の輝度を有する画素を距離画像3から抽出する。更に、抽出部23は、閾値v2以下の輝度を有する抽出した画素に隣接し、かつ閾値v2以下の輝度を有する画素を距離画像3から抽出する処理を繰り返し実行することで、手指候補領域80を距離画像3から抽出する。   Then, the extraction unit 23 extracts from the distance image 3 a collection of pixels having a luminance equal to or lower than the threshold value v1 as the neighborhood area 81 (see FIG. 4D). Next, the extraction unit 23 extracts, from the distance image 3, pixels that are adjacent to the pixels included in the neighborhood area 81 and have a luminance equal to or lower than the threshold value v2. Furthermore, the extraction unit 23 repeatedly performs a process of extracting from the distance image 3 a pixel that is adjacent to the extracted pixel having a luminance equal to or lower than the threshold value v2 and has a luminance equal to or lower than the threshold value v2. Extracted from the distance image 3.

このように手指候補領域80を距離画像3から抽出する理由は、手指5から離れた場所に存在する、輝度が閾値v1より高く閾値v2以下であって、かつ手指5とは異なる異物を、手指5として距離画像3から誤抽出してしまうことを防ぐためである。   The reason for extracting the finger candidate region 80 from the distance image 3 in this manner is that a foreign object that exists at a location away from the finger 5 and has a luminance higher than the threshold value v1 and lower than or equal to the threshold value v2 and different from the finger 5 This is to prevent erroneous extraction from the distance image 3 as 5.

図13は、距離画像3から近傍領域81及び手指候補領域80を抽出した結果の一例を示す図である。距離画像3には手指5の他、輝度が閾値v1より高く閾値v2以下である異物83が含まれている。しかし、距離画像3から近傍領域81を抽出した近傍領域抽出結果画像3A、及び距離画像3から手指候補領域80を抽出した抽出結果画像3Bには、共に異物83は含まれず、手指5だけが抽出されている。   FIG. 13 is a diagram illustrating an example of a result of extracting the neighborhood area 81 and the finger candidate area 80 from the distance image 3. In addition to the finger 5, the distance image 3 includes a foreign object 83 whose luminance is higher than the threshold value v1 and lower than or equal to the threshold value v2. However, both the neighborhood region extraction result image 3A obtained by extracting the neighborhood region 81 from the distance image 3 and the extraction result image 3B obtained by extracting the finger candidate region 80 from the distance image 3 do not include the foreign matter 83 and only the finger 5 is extracted. Has been.

次に、ステップS350で、分割部24が、反射強度画像4をメモリ104から取得し、反射強度画像4に含まれる各画素の輝度に基づいて、ステップS400での反射強度画像分割処理による反射強度画像4の分割対象範囲を設定する。   Next, in step S350, the dividing unit 24 acquires the reflection intensity image 4 from the memory 104, and based on the luminance of each pixel included in the reflection intensity image 4, the reflection intensity by the reflection intensity image dividing process in step S400. The division target range of the image 4 is set.

ここで、分割対象範囲を設定する理由について説明する。例えば、距離センサから照射する赤外光が点光源の場合などには、光源から対象物までの距離や角度によって、物体上に同心円状の照射ムラが発生する。その結果、物体からの反射光の強度に、物体の材質等に基づく本来の反射強度の差異とは別に、照射ムラに起因する強弱も生じてしまう。これにより、反射強度画像4における輝度にも、本来の輝度差とは異なる輝度差が生じてしまい、別々の物体に対応する複数の領域を精度良く分割できない場合がある。   Here, the reason for setting the division target range will be described. For example, when the infrared light emitted from the distance sensor is a point light source, concentric irradiation unevenness occurs on the object depending on the distance and angle from the light source to the object. As a result, the intensity of the reflected light from the object is also different from the original difference in the reflection intensity based on the material of the object and the like due to irradiation unevenness. As a result, a luminance difference different from the original luminance difference also occurs in the luminance in the reflection intensity image 4, and a plurality of areas corresponding to different objects may not be divided with high accuracy.

例えば、赤外光の照射ムラが大きくなるにつれて、図14に示すように、反射強度画像4の中央部54と周辺部55との間で輝度に差異が生じることがある。   For example, as the infrared light irradiation unevenness increases, as shown in FIG. 14, there may be a difference in luminance between the central portion 54 and the peripheral portion 55 of the reflection intensity image 4.

ユーザは、タッチ操作を行う場合、タッチ操作対象物98を視野の中央に合わせるように頭部や身体の姿勢を調整する傾向がある。このため、頭部等に装着した撮影装置10から照射する赤外光は視野の中央、すなわち反射強度画像4の中央部54で最も強くなり、視野の周辺に広がるにつれて弱まるためである。   When performing a touch operation, the user tends to adjust the posture of the head or body so that the touch operation target 98 is aligned with the center of the visual field. For this reason, the infrared light emitted from the imaging device 10 mounted on the head or the like is strongest at the center of the visual field, that is, the central part 54 of the reflection intensity image 4, and is weakened as it spreads around the visual field.

反射強度画像4の中央部54は赤外光の照射強度が強いため、反射光の強度も強くなり、それに伴いタッチ操作対象物98と手指5との反射強度の差異も大きくなる。   Since the central portion 54 of the reflection intensity image 4 has a high infrared light irradiation intensity, the intensity of the reflected light also increases, and accordingly, the difference in the reflection intensity between the touch operation object 98 and the finger 5 also increases.

例えば、図14の例では、反射強度画像4の中央部54は周辺部55に比べて反射光の強度が大きいため、中央部54では周辺部55に比べてタッチ操作対象物98と手指5との反射光の強度の差異が大きくなる。したがって、中央部54のように、反射強度画像4の反射光の強度が所定値以上の範囲では、周辺部55に比べて反射強度画像4のタッチ操作対象物98に対応する領域から検出対象である手指5に対応する領域が抽出し易くなる。その結果、図14に示すように、反射強度画像4の分割結果である分割画像6(詳細は後述)において、手背部93より指先92に対応する領域の方が精度良く抽出できる。   For example, in the example of FIG. 14, since the central portion 54 of the reflection intensity image 4 has a higher reflected light intensity than the peripheral portion 55, the touch operation target 98 and the fingers 5 are compared in the central portion 54 compared to the peripheral portion 55. The difference in the intensity of the reflected light increases. Therefore, in the range where the intensity of the reflected light of the reflection intensity image 4 is not less than a predetermined value as in the central portion 54, the detection target is detected from the region corresponding to the touch operation target 98 of the reflection intensity image 4 compared to the peripheral portion 55. A region corresponding to a certain finger 5 can be easily extracted. As a result, as shown in FIG. 14, in a divided image 6 (details will be described later) that is a result of dividing the reflection intensity image 4, a region corresponding to the fingertip 92 can be extracted with higher accuracy than the hand back portion 93.

すなわち、反射強度画像4の反射強度が所定値以上の領域に対して反射強度画像4の分割処理を実行することで、手指5に対応した抽出領域を精度良く抽出することができる。そのため、反射強度が所定値以上の領域を、分割対象範囲として設定するものである。   That is, by performing the division processing of the reflection intensity image 4 on the area where the reflection intensity of the reflection intensity image 4 is equal to or greater than a predetermined value, the extraction area corresponding to the finger 5 can be extracted with high accuracy. Therefore, an area having a reflection intensity equal to or greater than a predetermined value is set as a division target range.

具体的には、まず、分割部24は、反射強度画像4に対して平滑化処理を実行して平滑化画像を生成する。反射強度画像4を平滑化することで、反射強度画像4に含まれるノイズ成分を除去し、分割対象範囲に含まれるべき画素が欠落し、領域の分割が失敗することを回避するためである。   Specifically, first, the dividing unit 24 performs a smoothing process on the reflection intensity image 4 to generate a smoothed image. This is because by smoothing the reflection intensity image 4, noise components included in the reflection intensity image 4 are removed, and pixels that should be included in the division target range are lost, and the region division is not failed.

図15は、反射強度画像4の分割対象範囲の設定方法を説明する図である。図15に示すように、分割部24は、横軸を輝度、縦軸を画素数として、反射強度画像4を平滑化した平滑化画像に含まれる各画素の輝度ヒストグラム85を生成する。分割部24は、輝度ヒストグラム85を生成する際、一例として、各画素の輝度を8ビット、すなわち0から255に正規化しているが、8ビットより少ないビット数、又は8ビットより多いビット数で輝度を正規化してもよい。   FIG. 15 is a diagram for explaining a method for setting the division target range of the reflection intensity image 4. As illustrated in FIG. 15, the dividing unit 24 generates a luminance histogram 85 of each pixel included in the smoothed image obtained by smoothing the reflection intensity image 4 with the horizontal axis representing luminance and the vertical axis representing the number of pixels. When generating the luminance histogram 85, for example, the dividing unit 24 normalizes the luminance of each pixel from 8 bits, that is, from 0 to 255, but the number of bits is less than 8 bits or more than 8 bits. The luminance may be normalized.

そして、分割部24は、例えば輝度が閾値ir0以上の画素で形成される領域を、反射強度画像4の分割対象範囲として設定する。   Then, the dividing unit 24 sets, for example, an area formed by pixels having a luminance equal to or higher than the threshold value ir0 as a division target range of the reflection intensity image 4.

なお、閾値ir0は、例えば手指5に対応した抽出候補領域を精度良く反射強度画像4から抽出することができる値として、コンピュータシミュレーション等により予め求められた値であり、例えばメモリ104の所定領域に予め記憶しておけばよい。   The threshold value ir0 is a value obtained in advance by computer simulation or the like as a value that can extract the extraction candidate region corresponding to the finger 5 from the reflection intensity image 4 with high accuracy. You may memorize it beforehand.

図16は、反射強度画像4の分割対象範囲の設定の流れの一例を示す図である。分割部24によって反射強度画像4から平滑化画像11が生成され、更に、平滑化画像11の輝度ヒストグラム85から分割対象範囲12が設定される。   FIG. 16 is a diagram illustrating an example of the flow of setting the division target range of the reflection intensity image 4. The dividing unit 24 generates the smoothed image 11 from the reflection intensity image 4, and further sets the division target range 12 from the luminance histogram 85 of the smoothed image 11.

次に、ステップS400で、分割部24が、反射強度画像4をメモリ104から取得し、反射強度画像4に含まれる各画素の輝度に基づいて、反射強度画像4を複数の領域に分割する反射強度画像分割処理を実行する。なお、反射強度画像分割処理は、反射強度画像4内の分割対象範囲12に対して実行される。   Next, in step S <b> 400, the dividing unit 24 acquires the reflection intensity image 4 from the memory 104, and reflects the reflection intensity image 4 into a plurality of regions based on the luminance of each pixel included in the reflection intensity image 4. Intensity image division processing is executed. The reflection intensity image division processing is executed for the division target range 12 in the reflection intensity image 4.

図17は、反射強度画像分割処理の流れの一例を示すフローチャートである。   FIG. 17 is a flowchart illustrating an example of the flow of the reflection intensity image division processing.

まず、ステップS405で、分割部24が、反射強度画像4の各画素にラベルを割り当てる。各画素に割り当てる各ラベルには、例えば画素が含まれる領域を示す識別子が含まれる。ステップS405では、まだ各画素が何れの領域に含まれるか不明であるため、分割部24は、画素毎に異なる領域を示すラベルを各々の画素に割り当てる。   First, in step S <b> 405, the dividing unit 24 assigns a label to each pixel of the reflection intensity image 4. Each label assigned to each pixel includes, for example, an identifier indicating an area including the pixel. In step S405, since it is unknown which region each pixel is included in, the dividing unit 24 assigns a label indicating a different region for each pixel to each pixel.

次に、ステップS410で、分割部24が、同じ領域を示すラベル(以降、「同じラベル」という)が割り当てられている画素の画素数をラベル毎に算出すると共に、同じラベルが割り当てられている画素の輝度平均値をラベル毎に算出する。なお、ステップS405の直後の本ステップの処理では、各々の画素に割り当てられたラベルは全て異なっている。そのため、同じラベルが割り当てられている画素の画素数は“1”であり、同じラベルが割り当てられている画素の輝度平均値は、各々の画素の輝度値となる。   Next, in step S410, the dividing unit 24 calculates, for each label, the number of pixels to which a label indicating the same region (hereinafter, “same label”) is assigned, and the same label is assigned. The average luminance value of the pixels is calculated for each label. Note that in the process of this step immediately after step S405, the labels assigned to the respective pixels are all different. Therefore, the number of pixels to which the same label is assigned is “1”, and the average luminance value of the pixels to which the same label is assigned is the luminance value of each pixel.

次に、ステップS415で、分割部24が、反射強度画像4の中から未選択の画素を、注目画素として1つ選択する。   Next, in step S415, the dividing unit 24 selects one unselected pixel from the reflection intensity image 4 as a target pixel.

次に、ステップS420で、分割部24が、注目画素と同じラベルを割り当てられている画素数が閾値b1以下であるか否かを判定する。肯定判定の場合には、処理はステップS425へ移行する。   Next, in step S420, the dividing unit 24 determines whether or not the number of pixels assigned the same label as the target pixel is equal to or less than the threshold value b1. If the determination is affirmative, the process proceeds to step S425.

ステップS425では、分割部24が、注目画素と、その注目画素に隣接する隣接画素とに各々割り当てられているラベルが異なり、かつ注目画素と隣接画素との輝度差が閾値b2以下か否かを判定する。肯定判定の場合には、処理はステップS430へ移行する。   In step S425, the dividing unit 24 determines whether or not the labels assigned to the target pixel and the adjacent pixels adjacent to the target pixel are different, and whether the luminance difference between the target pixel and the adjacent pixel is equal to or less than a threshold value b2. judge. If the determination is affirmative, the process proceeds to step S430.

なお、反射強度画像4の画素は、横方向及び縦方向に規則正しく碁盤目状(グリッド状)の配置であるため、隣接画素は、例えば注目画素の上、下、左、右、右斜め上、右斜め下、左斜め上、及び左斜め下の最大8個存在する。したがって、ステップS425では、分割部24は、隣接画素のうち何れか1つを参照する。   In addition, since the pixels of the reflection intensity image 4 are regularly arranged in a grid pattern (grid shape) in the horizontal direction and the vertical direction, the adjacent pixels are, for example, above, below, left, right, diagonally up right, There are a maximum of 8 diagonally below right, diagonally up left, and diagonally down left. Accordingly, in step S425, the dividing unit 24 refers to any one of the adjacent pixels.

ステップS430では、分割部24が、注目画素と同じラベルをステップS425で参照した隣接画素に割り当てる。分割部24は、新たなラベルを割り当てた画素数をカウントするための変数であるラベル変更画素数に“1”を加算して、例えばメモリ104の予め定めた領域に記憶する。   In step S430, the dividing unit 24 assigns the same label as the target pixel to the adjacent pixel referenced in step S425. The dividing unit 24 adds “1” to the number of label change pixels that is a variable for counting the number of pixels to which a new label is assigned, and stores the result in, for example, a predetermined area of the memory 104.

前述したように、例えば物体の材質の相違及び物体の向きによって赤外光の反射強度が変動することがあるが、一般的に見て、同じ物体の赤外光に対する反射強度は比較的近い値を取ることが多い。したがって、ステップS425で、注目画素と隣接画素との輝度差が閾値b2以下と判定された場合、注目画素と隣接画素とは、同じ物体に対応する同じ領域に含まれる画素である可能性が高いと判断できる。   As described above, the reflection intensity of infrared light may vary depending on, for example, the difference in material of the object and the orientation of the object. In general, the reflection intensity of the same object with respect to infrared light is a relatively close value. Often take. Therefore, when it is determined in step S425 that the luminance difference between the target pixel and the adjacent pixel is equal to or less than the threshold value b2, the target pixel and the adjacent pixel are highly likely to be pixels included in the same region corresponding to the same object. It can be judged.

すなわち、分割部24は、注目画素と隣接画素との輝度値が近い場合には、それぞれ同じ物体に対応する領域に含まれる画素であると判定し、注目画素と隣接画素とに同じラベルを割り当てる。この処理を繰り返すことで、ラベルに基づいて生成した領域を広げていく。   In other words, when the luminance values of the target pixel and the adjacent pixel are close to each other, the dividing unit 24 determines that the pixel is included in a region corresponding to the same object, and assigns the same label to the target pixel and the adjacent pixel. . By repeating this process, the area generated based on the label is expanded.

一方、ステップS425が否定判定の場合には、ステップS430の処理は実行されず、処理はステップS440へ移行する。   On the other hand, if step S425 is negative, the process of step S430 is not executed, and the process proceeds to step S440.

ステップS440では、分割部24が、ステップS415で選択した注目画素に、他の隣接画素が存在するか否か判定する。肯定判定の場合には、処理はステップS420に戻り、分割部24がステップS420〜S435の処理を繰り返すことで、輝度差が予め定めた閾値b2以下である隣接する画素同士を結合し、同じ物体と考えられる領域の範囲を広げていく。   In step S440, the dividing unit 24 determines whether another adjacent pixel exists in the target pixel selected in step S415. In the case of an affirmative determination, the process returns to step S420, and the dividing unit 24 repeats the processes of steps S420 to S435 to combine adjacent pixels whose luminance difference is equal to or less than a predetermined threshold value b2 so that the same object We will expand the range of possible areas.

なお、ステップS420が否定判定となった場合に実行されるステップS435の処理については、後ほど説明する。   Note that the processing of step S435 executed when step S420 is negative will be described later.

ステップS440が否定判定、すなわち、ステップS415で選択した注目画素と、注目画素の周囲にある全ての隣接画素との輝度差を比較して画素の結合を行った場合は、処理はステップS445へ移行する。   If the determination in step S440 is negative, that is, if the pixels are combined by comparing the luminance difference between the target pixel selected in step S415 and all adjacent pixels around the target pixel, the process proceeds to step S445. To do.

ステップS445では、分割部24が、反射強度画像4に含まれる全ての画素をステップS415で選択したか否か判定し、否定判定の場合には、処理はステップS415に戻り、分割部24が未選択の他の画素を新たな注目画素として選択する。こうして、分割部24は、反射強度画像4の分割対象範囲12に含まれる全ての画素についてステップS415〜S445の処理を繰り返すことで、同じ物体と考えられる領域の範囲を更に広げていく。   In step S445, the dividing unit 24 determines whether or not all the pixels included in the reflection intensity image 4 have been selected in step S415. If the determination is negative, the process returns to step S415, and the dividing unit 24 has not been processed. The other selected pixel is selected as a new pixel of interest. Thus, the dividing unit 24 repeats the processes of steps S415 to S445 for all the pixels included in the division target range 12 of the reflection intensity image 4, thereby further expanding the range of regions that are considered to be the same object.

このように、同じ物体と考えられる領域の範囲を広げていった場合、同じ領域内の画素の輝度にばらつきが生じることがある。その結果、異なる物体に対応する別々の領域に含まれるべき画素を同一の領域に含まれる画素であると誤って判定し、別々の領域を誤って結合する場合が考えられる。このため、ステップS425で、単に注目画素と隣接画素との輝度差を比較して、隣接画素が注目画素と同じ領域に含まれる画素か否かを判定するだけでは、画素の結合に関して誤判定を生じる可能性がある。   As described above, when the range of the region considered to be the same object is expanded, the luminance of the pixels in the same region may vary. As a result, there may be a case where pixels that should be included in different areas corresponding to different objects are erroneously determined as pixels included in the same area, and the different areas are erroneously combined. For this reason, in Step S425, by simply comparing the luminance difference between the target pixel and the adjacent pixel and determining whether or not the adjacent pixel is included in the same region as the target pixel, an erroneous determination regarding pixel combination is made. It can happen.

そこで、分割部24は、注目画素を含む領域の大きさ(画素数)を所定の閾値と比較する。具体的には、ステップS420で、領域内の画素数が閾値b1を超えたと判定された場合(すなわち、否定判定の場合)は、処理はステップS435へ移行し、分割部24が、画素間の結合の判定について新たな条件を追加して判定する。   Therefore, the dividing unit 24 compares the size (number of pixels) of the region including the target pixel with a predetermined threshold value. Specifically, when it is determined in step S420 that the number of pixels in the region has exceeded the threshold value b1 (that is, in the case of negative determination), the process proceeds to step S435, and the dividing unit 24 determines whether the pixel is between pixels. A new condition is added to determine the connection.

具体的には、ステップS435において、分割部24が、注目画素と同じラベルが割り当てられた各画素の輝度平均値と、隣接画素と同じラベルが割り当てられた各画素の輝度平均値とを算出し、これらの輝度平均値差が閾値b3以下か否かを判定する。これは、注目画素を含む領域内、及び隣接画素を含む領域内のそれぞれで輝度のばらつきがあったとしても、各々の領域内における輝度平均値が閾値b3以下であれば、各々の領域は同じ物体を表している可能性が高いと考えられるからである。したがって、肯定判定の場合には、処理はステップS425へ移行して、分割部24が、更に画素間の輝度差を判定した上で、ステップS430で各々の画素に同じラベルを割り当てて領域を結合する。   Specifically, in step S435, the dividing unit 24 calculates the average brightness value of each pixel assigned the same label as the target pixel and the average brightness value of each pixel assigned the same label as the adjacent pixel. Then, it is determined whether or not these luminance average value differences are equal to or less than the threshold value b3. Even if there is a variation in luminance in the region including the target pixel and in the region including the adjacent pixel, each region is the same if the average luminance value in each region is equal to or less than the threshold value b3. This is because the possibility of representing an object is high. Therefore, in the case of an affirmative determination, the process proceeds to step S425, and the division unit 24 further determines the luminance difference between the pixels, and then assigns the same label to each pixel in step S430 to combine the regions. To do.

一方、ステップS435の判定処理が否定判定の場合には、注目画素を含む領域、及び隣接画素を含む領域は異なる物体の領域を表していると考えられるため、注目画素と隣接画素とを結合させることなく、処理はステップS440へ移行する。   On the other hand, if the determination process in step S435 is negative, the region including the target pixel and the region including the adjacent pixel are considered to represent different object regions, and thus the target pixel and the adjacent pixel are combined. Instead, the process proceeds to step S440.

そして、ステップS445が肯定判定の場合には、処理はステップS450へ移行する。   If step S445 is affirmative, the process proceeds to step S450.

ステップS450では、分割部24が、反射強度画像4の分割対象範囲12に含まれる全ての画素に対する結合した画素の割合に基づいて、反射強度画像4の分割を終了するか否かを判定する。具体的には、分割部24は、ステップS430で記憶した、新たなラベルに変更したラベル変更画素数をメモリ104から取得し、反射強度画像4の分割対象範囲12に含まれる全ての画素数に対するラベル変更画素数の割合が閾値b4以下であるか否かを判定する。   In step S450, the dividing unit 24 determines whether or not to end the division of the reflection intensity image 4 based on the ratio of the combined pixels to all the pixels included in the division target range 12 of the reflection intensity image 4. Specifically, the division unit 24 acquires the number of label change pixels changed to the new label stored in step S430 from the memory 104, and performs the process for all the numbers of pixels included in the division target range 12 of the reflection intensity image 4. It is determined whether or not the ratio of the number of label change pixels is equal to or less than the threshold value b4.

否定判定の場合には、処理はステップS410に戻り、分割部24が、ステップS410〜S450の処理を繰り返すことで、反射強度画像4の分割を更に実行する。分割当初はラベルが変更される画素が多いが、分割が進むにつれて、ラベルが変更される画素が減少していく傾向にある。したがって、ラベルが更新された画素の割合が所定の割合より多い場合には、まだ分割途中であると考えられるため、ステップS450が否定判定となり、更に反射強度画像4の分割が行われる。すなわち、ラベルが更新された画素の割合が閾値b4より多い場合には、更に反射強度画像4の分割を継続した方が、検出対象である手指5等の物体に近似した領域を得ることができる。   In the case of negative determination, the process returns to step S410, and the dividing unit 24 further executes the division of the reflection intensity image 4 by repeating the processes of steps S410 to S450. Although there are many pixels whose labels are changed at the beginning of the division, the number of pixels whose labels are changed tends to decrease as the division proceeds. Accordingly, when the ratio of the pixels whose labels are updated is larger than the predetermined ratio, it is considered that the division is still in progress. Therefore, the determination in step S450 is negative, and the reflection intensity image 4 is further divided. That is, when the ratio of the pixel whose label is updated is larger than the threshold value b4, a region that approximates an object such as a finger 5 that is a detection target can be obtained by further dividing the reflection intensity image 4. .

なお、ステップS450が否定判定となって、処理がステップS410に戻る際には、分割部24は、ラベル変更画素数を“0”に初期化してから、ステップS410〜S450の処理を繰り返す。   When step S450 is negative and the process returns to step S410, the dividing unit 24 initializes the number of label change pixels to “0” and then repeats the processes of steps S410 to S450.

一方、ステップS450が肯定判定の場合には、反射強度画像分割処理は終了し、図9に示す物体検出処理に戻る。   On the other hand, if the determination in step S450 is affirmative, the reflection intensity image division process ends, and the process returns to the object detection process shown in FIG.

以上により図9に示すステップS400の反射強度画像分割処理が終了し、反射強度画像4の分割対象範囲12が各画像の輝度に基づいて複数の領域に分割される。   Thus, the reflection intensity image division processing in step S400 shown in FIG. 9 is completed, and the division target range 12 of the reflection intensity image 4 is divided into a plurality of regions based on the luminance of each image.

図18は、ステップS400の反射強度画像分割処理によって反射強度画像4が複数の領域に分割され、分割画像6が生成される状況を示した図である。なお、図18では、反射強度画像4の全体が分割対象範囲12である例を示している。また、画像41は、反射強度画像分割処理前の反射強度画像4の指先92部分を拡大した図であり、反射強度画像分割処理が進むに従い、画像42→画像43→画像44→画像45の順に指先92の分割状況が変化することを示している。   FIG. 18 is a diagram illustrating a situation in which the reflected intensity image 4 is divided into a plurality of regions and the divided image 6 is generated by the reflected intensity image dividing process in step S400. 18 shows an example in which the entire reflection intensity image 4 is the division target range 12. Further, the image 41 is an enlarged view of the fingertip 92 portion of the reflection intensity image 4 before the reflection intensity image dividing process. As the reflection intensity image dividing process proceeds, the image 42 → the image 43 → the image 44 → the image 45 are sequentially displayed. It shows that the division status of the fingertip 92 changes.

次に、図9に示す物体検出処理のステップS500で、統合部25が、距離画像3から抽出された手指候補領域80と、反射強度画像から抽出された抽出領域とを統合した領域を、手指5を表す領域として検出する統合処理を実行する。以下、ステップS500における統合処理の詳細について説明する。なお、反射強度画像分割処理の結果、反射強度画像4から得られた複数の領域を含む画像を分割画像6といい、分割画像6の複数の領域のうち、手指候補領域80の輪郭線と類似する領域を抽出領域という。   Next, in step S500 of the object detection process shown in FIG. 9, the integration unit 25 defines an area obtained by integrating the finger candidate area 80 extracted from the distance image 3 and the extraction area extracted from the reflection intensity image. An integration process for detecting the area representing 5 is executed. Details of the integration process in step S500 will be described below. Note that an image including a plurality of regions obtained from the reflection intensity image 4 as a result of the reflection intensity image division processing is referred to as a divided image 6, and is similar to the outline of the finger candidate region 80 among the plurality of regions of the divided image 6. The area to be performed is called an extraction area.

図19は、統合処理の流れの一例を示すフローチャートである。   FIG. 19 is a flowchart illustrating an example of the flow of integration processing.

まず、ステップS505で、統合部25が、ステップS400で取得した分割画像6の複数の領域の中から、ステップS300で抽出した手指候補領域80と重複する画素数が最も多い領域(抽出候補領域7)を選択する。   First, in step S505, the integration unit 25 has the largest number of pixels that overlap with the finger candidate region 80 extracted in step S300 from among the plurality of regions of the divided image 6 acquired in step S400 (extraction candidate region 7). ) Is selected.

次に、ステップS510で、統合部25が、ステップS505で選択した抽出候補領域7の画素数に対する、手指候補領域80との重複部分の画素数の割合が閾値c1以上であるか否かを判定する。閾値c1は、抽出候補領域7が手指5を表す領域であるか否かを判定するための値として、コンピュータシミュレーション等によって予め定められた値であり、例えばメモリ104の予め定めた領域に記憶されている。   Next, in step S510, the integration unit 25 determines whether the ratio of the number of pixels overlapping the finger candidate region 80 to the number of pixels in the extraction candidate region 7 selected in step S505 is greater than or equal to a threshold value c1. To do. The threshold c1 is a value determined in advance by computer simulation or the like as a value for determining whether or not the extraction candidate region 7 is a region representing the finger 5 and is stored in a predetermined region of the memory 104, for example. ing.

ステップS510が肯定判定の場合には、抽出候補領域7に占める手指候補領域80との重複部分の割合が閾値c1以上であることを示している。したがって、統合部25は、ステップS505で選択した抽出候補領域7は手指5を表す領域の候補であると判定し、処理はステップS515へ移行する。   If the determination in step S510 is affirmative, it indicates that the ratio of the overlapping portion with the finger candidate region 80 in the extraction candidate region 7 is equal to or greater than the threshold c1. Therefore, the integration unit 25 determines that the extraction candidate area 7 selected in step S505 is a candidate for an area representing the finger 5, and the process proceeds to step S515.

一方、否定判定の場合には、抽出候補領域7に占める手指候補領域80との重複部分の割合が閾値c1未満であることから、ステップS505で選択した抽出候補領域7は、手指5を表す領域としては手指候補領域80との重複部分の割合が少ないと考えられる。したがって、統合部25は、ステップS505で選択した抽出候補領域7は手指5を表す領域ではないと判定し、処理はステップS555へ移行する。   On the other hand, in the case of negative determination, since the ratio of the overlapping part with the finger candidate area 80 in the extraction candidate area 7 is less than the threshold c1, the extraction candidate area 7 selected in step S505 is an area representing the finger 5 It is considered that the ratio of the overlapping part with the finger candidate region 80 is small. Therefore, the integration unit 25 determines that the extraction candidate area 7 selected in step S505 is not an area representing the finger 5, and the process proceeds to step S555.

この場合、図20に示すように、図9のステップS350で設定した分割対象範囲12が広すぎて、抽出候補領域7が手指5以外の他の領域と誤って結合し、抽出候補領域7の大きさが分割対象範囲12内の手指候補領域80より大きくなったと考えられる。   In this case, as illustrated in FIG. 20, the division target range 12 set in step S <b> 350 in FIG. 9 is too wide, and the extraction candidate region 7 is erroneously combined with other regions other than the finger 5. It is considered that the size is larger than the finger candidate area 80 in the division target range 12.

そこで、ステップS555では、統合部25が、例えばメモリ104の所定領域に予め記憶されている分割対象範囲縮小フラグをオンに設定する。分割対象範囲縮小フラグは、反射強度画像4の分割対象範囲12を更に縮小するか否かを表す識別子であり、統合部25は、分割対象範囲縮小フラグをオンに設定することで、分割対象範囲12の縮小を分割部24に指示する。そして、統合処理は終了し、図9に示す分割処理に戻る。   Therefore, in step S555, the integration unit 25 sets ON a division target range reduction flag stored in advance in a predetermined area of the memory 104, for example. The division target range reduction flag is an identifier indicating whether or not the division target range 12 of the reflection intensity image 4 is further reduced, and the integration unit 25 sets the division target range reduction flag to ON so that the division target range is turned on. 12 divisions 24 are instructed. Then, the integration process ends, and the process returns to the division process shown in FIG.

ステップS515では、統合部25が、手指候補領域80の画素数に対する抽出候補領域7の画素数の割合が閾値c2以上であるか否かを判定する。閾値c2は、抽出候補領域7が手指5を表す領域であるか否かを判定するための値として、コンピュータシミュレーション等によって予め定められた値であり、例えばメモリ104の予め定めた領域に記憶されている。   In step S515, the integration unit 25 determines whether the ratio of the number of pixels in the extraction candidate area 7 to the number of pixels in the finger candidate area 80 is equal to or greater than the threshold c2. The threshold value c2 is a value determined in advance by computer simulation or the like as a value for determining whether or not the extraction candidate region 7 is a region representing the finger 5, and is stored in a predetermined region of the memory 104, for example. ing.

ステップS515が肯定判定の場合には、手指候補領域80に占める抽出候補領域7の割合が閾値c2以上であることから、統合部25は、ステップS505で選択した抽出候補領域7は手指5を表す領域の候補であると判定し、処理はステップS520へ移行する。   When the determination in step S515 is affirmative, since the ratio of the extraction candidate area 7 to the finger candidate area 80 is equal to or greater than the threshold value c2, the integration unit 25 represents the finger 5 in the extraction candidate area 7 selected in step S505. It determines with it being an area | region candidate, and a process transfers to step S520.

一方、ステップS515が否定判定の場合には、手指候補領域80に占める抽出候補領域7の割合が閾値c2未満であることから、ステップS505で選択した抽出候補領域7は手指5を表す領域としては手指候補領域80との重複部分の割合が少ないと考えられる。したがって、統合部25は、ステップS505で選択した抽出候補領域7は手指5を表す領域ではないと判定し、統合処理は終了し、図9に示す分割処理に戻る。   On the other hand, when the determination in step S515 is negative, since the ratio of the extraction candidate area 7 in the finger candidate area 80 is less than the threshold value c2, the extraction candidate area 7 selected in step S505 is an area representing the finger 5. It is considered that the ratio of the overlapping part with the finger candidate area 80 is small. Therefore, the integration unit 25 determines that the extraction candidate area 7 selected in step S505 is not an area representing the finger 5, ends the integration process, and returns to the division process illustrated in FIG.

このように、ステップS515で否定判定となる原因としては、例えば赤外光の照射ムラ等の理由により、図21に示すように、例えば抽出候補領域7が手指候補領域80の大きさに比べて過剰に分割され、小さくなってしまったためと考えられる。この場合、例えば手指5を照らす光源の数又は位置等の調整を促すようなメッセージをユーザに提示するようにしてもよい。   As described above, the cause of the negative determination in step S515 is, for example, that the extraction candidate region 7 is larger than the size of the finger candidate region 80 as shown in FIG. This is thought to be due to excessive division and reduction. In this case, for example, a message that prompts the user to adjust the number or position of the light sources that illuminate the finger 5 may be presented to the user.

ステップS520では、統合部25が、手指候補領域80及び抽出候補領域7の輪郭線をそれぞれ抽出する。なお、輪郭線の抽出には、例えばガウシアンフィルタを用いて輪郭を強調することで輪郭線を抽出するCanny法等、公知の抽出方法を用いることができる。   In step S520, the integration unit 25 extracts the contour lines of the finger candidate area 80 and the extraction candidate area 7, respectively. For extracting the contour line, for example, a known extraction method such as the Canny method of extracting the contour line by emphasizing the contour using a Gaussian filter can be used.

次に、ステップS525で、統合部25が、手指候補領域80の輪郭線から、抽出候補領域7の輪郭線との類似度の比較に用いない比較対象外の部分(除外輪郭線)を抽出する。   Next, in step S525, the integration unit 25 extracts, from the contour line of the finger candidate area 80, a non-comparison part (excluded contour line) that is not used for comparison of the similarity with the contour line of the extraction candidate area 7. .

具体的には、統合部25は、ステップS520で抽出した手指候補領域80の輪郭線に含まれる各画素と、手指候補領域80の輪郭線に含まれる各画素に隣接し、かつ手指候補領域80の領域外にある隣接画素との輝度差を算出する。そして、統合部25は、手指候補領域80の輪郭線に含まれる各画素のうち、当該輝度差が所定の値より小さい画素を抽出する。   Specifically, the integration unit 25 is adjacent to each pixel included in the contour line of the finger candidate region 80 extracted in step S520 and each pixel included in the contour line of the finger candidate region 80, and the finger candidate region 80 A luminance difference with an adjacent pixel outside the area is calculated. Then, the integration unit 25 extracts pixels whose luminance difference is smaller than a predetermined value from the pixels included in the contour line of the finger candidate region 80.

なお、手指候補領域80の輪郭線に含まれる画素について、複数の隣接画素が存在する場合、例えば、手指候補領域80の輪郭線に含まれる画素と、その画素についての複数の隣接画素の各々との輝度差の平均値と、所定の値とを比較してもよい。また、手指候補領域80の輪郭線に含まれる画素と、その画素についての複数の隣接画素の各々との輝度差の最大値と、所定の値とを比較してもよい。   In addition, for a pixel included in the contour line of the finger candidate region 80, when there are a plurality of adjacent pixels, for example, a pixel included in the contour line of the finger candidate region 80 and each of the plurality of adjacent pixels for the pixel The average value of the luminance differences may be compared with a predetermined value. Further, the maximum value of the luminance difference between the pixel included in the contour line of the finger candidate region 80 and each of a plurality of adjacent pixels for the pixel may be compared with a predetermined value.

更に、統合部25は、輝度差が所定の値より小さい画素が所定の数以上連続する部分を除外輪郭線として手指候補領域80の輪郭線から抽出すると共に、距離画像3における除外輪郭線の各々の端点の座標を取得する。   Furthermore, the integration unit 25 extracts, from the contour line of the finger candidate region 80 as an excluded contour line, a portion where a predetermined number of pixels having a luminance difference smaller than a predetermined value continue, and each of the excluded contour lines in the distance image 3. Get the coordinates of the endpoint of.

既に説明したように、距離画像3では、タッチ操作対象物98と指先92との距離が近いため、ステップS520で指先92の輪郭線が距離画像3から抽出されない場合が多い。すなわち、ステップS520で抽出された手指候補領域80の輪郭線は、本来の物体の輪郭線ではない場合が多い。手指候補領域80の輪郭線に含まれる画素との輝度差が所定の値より小さい隣接画素は、手指候補領域80と同じ物体(この場合、指先92)を表している可能性が高いと考えられる。したがって、画素間の輝度差に関して上記条件を満たす手指候補領域80の輪郭線を除外輪郭線として手指候補領域80の輪郭線から抽出することで、本来の物体の輪郭線とは異なる輪郭線の部分を取得することができる。   As already described, in the distance image 3, since the distance between the touch operation target 98 and the fingertip 92 is short, the outline of the fingertip 92 is often not extracted from the distance image 3 in step S520. That is, in many cases, the contour line of the finger candidate region 80 extracted in step S520 is not the contour line of the original object. It is considered that there is a high possibility that an adjacent pixel whose luminance difference from a pixel included in the contour line of the finger candidate region 80 is smaller than a predetermined value represents the same object (in this case, the fingertip 92) as the finger candidate region 80. . Therefore, by extracting the contour line of the finger candidate region 80 that satisfies the above condition regarding the luminance difference between pixels as the excluded contour line from the contour line of the finger candidate region 80, a portion of the contour line different from the contour line of the original object Can be obtained.

図22は、手指候補領域80の輪郭線について説明する図である。例えば、図22(A)に示す手指候補領域80が距離画像3から抽出された場合、図22(B)に示すように手指候補領域80の輪郭線上から除外輪郭線50が抽出される。また、手指候補領域80の輪郭線上における除外輪郭線50の端部が、端点50A、50Bとして抽出される。   FIG. 22 is a diagram for explaining the outline of the finger candidate region 80. For example, when the finger candidate region 80 shown in FIG. 22A is extracted from the distance image 3, the excluded contour line 50 is extracted from the contour line of the finger candidate region 80 as shown in FIG. Further, the end portions of the excluded contour line 50 on the contour line of the finger candidate region 80 are extracted as end points 50A and 50B.

次に、ステップS530で、統合部25が、ステップS525で手指候補領域80の輪郭線から抽出した端点50A、50Bに対応する抽出候補領域7の輪郭線上の位置を取得する。具体的には、統合部25は、ステップS520で抽出した抽出候補領域7の輪郭線に含まれる各画素の中から、ステップS525で取得した除外輪郭線50の各々の端点50A、50Bの座標に最も近い画素である最近傍画素の座標を各々取得する。取得した各々の最近傍画素の座標は、手指候補領域80の端点50A、50Bに対応した端点を表す。   Next, in step S530, the integration unit 25 acquires the position on the contour line of the extraction candidate region 7 corresponding to the end points 50A and 50B extracted from the contour line of the finger candidate region 80 in step S525. Specifically, the integration unit 25 sets the coordinates of the end points 50A and 50B of the excluded contour line 50 acquired in step S525 from the pixels included in the contour line of the extraction candidate region 7 extracted in step S520. Each of the coordinates of the nearest pixel that is the nearest pixel is acquired. The acquired coordinates of each nearest pixel represent the end points corresponding to the end points 50A and 50B of the finger candidate region 80.

図23は、抽出候補領域7の輪郭線について説明する図である。例えば、図23(A)に示す抽出候補領域7が反射強度画像4から選択された場合、図23(B)に示すように、抽出候補領域7の輪郭線上から、手指候補領域80の端点50A、50Bにそれぞれ対応した端点52A、52Bが取得される。   FIG. 23 is a diagram for explaining the outline of the extraction candidate region 7. For example, when the extraction candidate area 7 shown in FIG. 23A is selected from the reflection intensity image 4, as shown in FIG. 23B, the end point 50A of the finger candidate area 80 from the outline of the extraction candidate area 7 is displayed. , 50B, respectively, end points 52A, 52B are obtained.

次に、ステップS535で、統合部25が、図9のステップS350で設定した反射強度画像4の分割対象範囲12を距離画像3上に重ね合わせる。そして、統合部25は、距離画像3の手指候補領域80の輪郭線と、距離画像3上に重ね合わせた分割対象範囲12との交点の座標を、分割対象範囲12と交差する手指候補領域80の輪郭線の端点として取得する。   Next, in step S535, the integration unit 25 superimposes the division target range 12 of the reflection intensity image 4 set in step S350 of FIG. Then, the integration unit 25 intersects the coordinates of the intersection between the contour line of the finger candidate region 80 of the distance image 3 and the division target range 12 superimposed on the distance image 3 with the finger candidate region 80 that intersects the division target range 12. Acquired as the end point of the contour line.

例えば、図22(A)に示すように、距離画像3上に分割対象範囲12が重ね合わされた場合、図22(B)に示すように、分割対象範囲12と交差する手指候補領域80の輪郭線の端点56A、56Bが取得される。なお、端点56Aと端点56Bとを接続する線を手指候補領域80における分割輪郭線56という。   For example, as shown in FIG. 22A, when the division target range 12 is superimposed on the distance image 3, the contour of the finger candidate region 80 that intersects the division target range 12 as shown in FIG. Line end points 56A and 56B are acquired. A line connecting the end point 56A and the end point 56B is referred to as a divided contour line 56 in the finger candidate region 80.

分割輪郭線56は、分割対象範囲12によって生成される輪郭線であるため、除外輪郭線50と同様に、本来の物体の輪郭線とは異なる輪郭線を示している。したがって、分割対象範囲12に含まれる手指候補領域80の輪郭線のうち、除外輪郭線50及び分割輪郭線56以外の他の輪郭線が比較輪郭線8となる。   Since the divided contour line 56 is a contour line generated by the division target range 12, similarly to the excluded contour line 50, a contour line different from the contour line of the original object is shown. Therefore, of the contour lines of the finger candidate region 80 included in the division target range 12, the contour lines other than the excluded contour line 50 and the divided contour line 56 become the comparative contour line 8.

更に、統合部25は、反射強度画像4の抽出候補領域7の輪郭線と分割対象範囲12との交点の座標を、分割対象範囲12と交差する抽出候補領域7の輪郭線の端点として取得する。   Further, the integration unit 25 acquires the coordinates of the intersection of the contour of the extraction candidate region 7 of the reflection intensity image 4 and the division target range 12 as the end point of the contour of the extraction candidate region 7 that intersects the division target range 12. .

例えば、図23(A)に示すように分割対象範囲12が設定された反射強度画像4から抽出候補領域7が選択された場合、図23(B)に示すように、分割対象範囲12と交差する抽出候補領域7の輪郭線の端点57A、57Bが取得される。なお、端点57Aと端点57Bとを接続する線を抽出候補領域7における分割輪郭線57という。   For example, when the extraction candidate region 7 is selected from the reflection intensity image 4 in which the division target range 12 is set as shown in FIG. 23A, it intersects with the division target range 12 as shown in FIG. The end points 57A and 57B of the outline of the extraction candidate area 7 to be acquired are acquired. A line connecting the end point 57A and the end point 57B is referred to as a divided contour line 57 in the extraction candidate region 7.

分割輪郭線57は、手指候補領域80における分割輪郭線56と同様に、分割対象範囲12によって生成される輪郭線であるため、本来の物体の輪郭線とは異なる輪郭線を示している。したがって、抽出候補領域7の輪郭線のうち、端点52Aと端点57Aとの間の輪郭線、及び端点52Bと端点57Bとの間の輪郭線が抽出候補領域7における比較輪郭線9となる。   Similar to the divided contour line 56 in the finger candidate region 80, the divided contour line 57 is a contour line generated by the division target range 12, and thus shows a contour line different from the original object contour line. Therefore, among the contour lines of the extraction candidate region 7, the contour line between the end point 52A and the end point 57A and the contour line between the end point 52B and the end point 57B are the comparison contour line 9 in the extraction candidate region 7.

次に、ステップS540では、統合部25が、手指候補領域80における比較輪郭線8の形状特徴と、抽出候補領域7における比較輪郭線9の形状特徴とを取得し、各々の比較輪郭線8、9の形状特徴の差異を算出する。比較輪郭線8、9の形状特徴は、例えば、比較輪郭線8、9に含まれる各々の画素を積分することで算出される輪郭モーメントによって数値化される。輪郭モーメントの算出方法には公知の方法を用いることができるが、例えば輪郭線の相似、並進、回転に不変な性質を有するHu不変モーメントを用いればよい。   Next, in step S540, the integration unit 25 acquires the shape feature of the comparison contour 8 in the finger candidate region 80 and the shape feature of the comparison contour 9 in the extraction candidate region 7, and each of the comparison contours 8, The difference of the shape feature of 9 is calculated. The shape features of the comparative contour lines 8 and 9 are quantified by, for example, the contour moment calculated by integrating each pixel included in the comparative contour lines 8 and 9. As a method for calculating the contour moment, a known method can be used. For example, a Hu invariant moment having properties that are invariant to contour similarity, translation, and rotation may be used.

したがって、統合部25は、手指候補領域80における比較輪郭線8のHu不変モーメントの値と、抽出候補領域7における比較輪郭線9のHu不変モーメントの値との差分を算出する。なお、Hu不変モーメントの差分が小さい程、比較輪郭線8、9の形状特徴が類似していることを表す。   Therefore, the integration unit 25 calculates the difference between the Hu invariant moment value of the comparison contour 8 in the finger candidate region 80 and the Hu invariant moment value of the comparison contour 9 in the extraction candidate region 7. In addition, it represents that the shape characteristics of the comparison outlines 8 and 9 are similar, so that the difference of Hu invariant moment is small.

ステップS545では、統合部25が、ステップS540で算出した比較輪郭線8、9のHu不変モーメントの差分が閾値c0以下であるか否かを判定する。閾値c0は、比較輪郭線8、9の形状特徴が互いに類似しているか否かを判定するための値として、コンピュータシミュレーション等によって予め定められた値であり、例えばメモリ104の予め定めた領域に記憶されている。   In step S545, the integration unit 25 determines whether the difference between the Hu invariant moments of the comparison contour lines 8 and 9 calculated in step S540 is equal to or less than the threshold value c0. The threshold value c0 is a value determined in advance by computer simulation or the like as a value for determining whether or not the shape features of the comparison contour lines 8 and 9 are similar to each other. It is remembered.

ステップS545が肯定判定の場合には、手指候補領域80における比較輪郭線8の形状特徴と、抽出候補領域7における比較輪郭線9の形状特徴とが類似しているとみなすことができる。すなわち、図9のステップS400での反射強度画像分割処理で、手指5に対応する領域が反射強度画像4から正しく分割されたことになる。したがって、統合部25は、手指候補領域80と抽出候補領域7とは同じ手指5を表していると判定し、処理はステップS550へ移行する。なお、ステップS545が肯定判定となる場合の抽出候補領域7が抽出領域となる。   When the determination in step S545 is affirmative, it can be considered that the shape feature of the comparison contour 8 in the finger candidate region 80 is similar to the shape feature of the comparison contour 9 in the extraction candidate region 7. That is, the region corresponding to the finger 5 is correctly divided from the reflection intensity image 4 by the reflection intensity image division processing in step S400 of FIG. Therefore, the integration unit 25 determines that the finger candidate area 80 and the extraction candidate area 7 represent the same finger 5 and the process proceeds to step S550. In addition, the extraction candidate area | region 7 in case step S545 becomes affirmation determination becomes an extraction area | region.

ステップS550では、統合部25が、ステップS300で距離画像3から抽出された手指候補領域80と、ステップS505で反射強度画像4から選択した抽出領域とを統合して、ユーザの手指領域を確定する。ここで、手指候補領域80と抽出領域とを統合するとは、手指候補領域80に含まれる画素の位置と、抽出領域に含まれる画素の位置とに関して各々論理和をとり、手指候補領域80と抽出領域とを重ね合わせて1つの手指領域とすることをいう。そして、統合処理を終了し、図9に示す物体検出処理に戻る。   In step S550, the integration unit 25 integrates the finger candidate area 80 extracted from the distance image 3 in step S300 and the extraction area selected from the reflection intensity image 4 in step S505 to determine the user's finger area. . Here, integrating the finger candidate area 80 and the extraction area means that a logical OR is performed on the position of the pixel included in the finger candidate area 80 and the position of the pixel included in the extraction area to extract the finger candidate area 80. This means that one finger area is formed by overlapping the areas. Then, the integration process ends, and the process returns to the object detection process shown in FIG.

一方、ステップS545が否定判定の場合には、統合部25は、図9のステップS400での反射強度画像分割処理で、手指5に対応する領域が反射強度画像4から正しく分割されなかったとみなす。したがって、統合部25は、手指候補領域80と抽出候補領域7とは異なる物体を表していると判定し、手指候補領域80と抽出候補領域7とを統合することなく、統合処理を終了し、図9に示す物体検出処理に戻る。   On the other hand, if step S545 is negative, the integration unit 25 considers that the region corresponding to the finger 5 has not been correctly divided from the reflection intensity image 4 in the reflection intensity image division processing in step S400 of FIG. Therefore, the integration unit 25 determines that the finger candidate area 80 and the extraction candidate area 7 represent different objects, ends the integration process without integrating the finger candidate area 80 and the extraction candidate area 7, Returning to the object detection process shown in FIG.

次に、図9に示す物体検出処理のステップS600で、分割部24が、分割対象範囲縮小フラグがオンに設定されているか否かを判定する。否定判定の場合には、ステップS350で反射強度画像4の分割対象範囲12が適切に設定されたとみなし、処理はステップS800へ移行する。   Next, in step S600 of the object detection process shown in FIG. 9, the dividing unit 24 determines whether or not the division target range reduction flag is set to ON. In the case of negative determination, it is considered that the division target range 12 of the reflection intensity image 4 is appropriately set in step S350, and the process proceeds to step S800.

なお、ステップS500の統合処理で、手指候補領域80と抽出領域とが統合されず、ユーザの手指領域84が確定しなかった場合、分割画像6の分割条件を修正して、ステップS400の反射強度画像分割処理を再度実行してもよい。   If the finger candidate area 80 and the extraction area are not integrated in the integration process in step S500 and the user's finger area 84 is not confirmed, the division condition of the divided image 6 is corrected and the reflection intensity in step S400 is corrected. The image division process may be executed again.

例えば、図19のステップS515の判定処理が否定判定となったことでユーザの手指領域84が確定しなかった場合、分割画像6上で、手指5に対応する領域が複数の領域に細かく分割されてしまったことが原因の1つとして考えられる。したがって、例えば、図9のステップS400における反射強度画像分割処理で隣接画素との結合条件を決定する閾値b2を大きくする等して、反射強度画像分割処理を再度実行してもよい。   For example, when the determination process in step S515 in FIG. 19 is negative, the user's finger area 84 is not confirmed, and the area corresponding to the finger 5 is finely divided into a plurality of areas on the divided image 6. One of the causes is considered to have been. Therefore, for example, the reflection intensity image division process may be executed again by increasing the threshold value b2 for determining the coupling condition with the adjacent pixels in the reflection intensity image division process in step S400 of FIG.

一方、ステップS600の判定処理が肯定判定の場合には、処理はステップS700に移行する。   On the other hand, if the determination process in step S600 is affirmative, the process proceeds to step S700.

ステップS700では、分割部24が、ステップS350で反射強度画像4の分割対象範囲12を設定する際に用いた輝度に関する閾値を上げる。例えば、図15に示すように、当初の分割対象範囲12を設定する際に用いた閾値がir0であれば、分割部24は、閾値ir0に対して閾値をirほど上げたir1を新たな分割対象範囲12の閾値とする。このように、分割部24が、分割対象範囲12を設定する際に用いる閾値を更新した後、処理はステップS350に戻る。   In step S700, the dividing unit 24 increases the threshold value related to the luminance used when setting the division target range 12 of the reflection intensity image 4 in step S350. For example, as illustrated in FIG. 15, if the threshold used when setting the initial division target range 12 is ir0, the dividing unit 24 newly divides ir1 with the threshold increased by ir with respect to the threshold ir0. The threshold value of the target range 12 is used. Thus, after the dividing unit 24 updates the threshold value used when setting the division target range 12, the process returns to step S350.

ステップS350では、分割部24が、ステップS700で更新された閾値(例えば閾値ir1)以上の輝度を有する画素で形成される領域を、反射強度画像4の分割対象範囲12として設定する。   In step S350, the dividing unit 24 sets an area formed by pixels having a luminance equal to or higher than the threshold (for example, the threshold ir1) updated in step S700 as the division target range 12 of the reflection intensity image 4.

図24は、閾値をir1に上昇した場合の反射強度画像4の分割対象範囲12の例を示す図である。閾値をir1に上昇した場合、閾値ir1より低い閾値ir0を用いた場合の分割対象範囲12(図20参照)より、分割対象範囲12が狭くなる。したがって、閾値更新前に比べて、手指5に対応する領域が他の領域と誤って結合する可能性が低くなることから、ステップS400において、分割部24は、手指5の形状に近づくように反射強度画像4を分割することができる。   FIG. 24 is a diagram illustrating an example of the division target range 12 of the reflection intensity image 4 when the threshold value is increased to ir1. When the threshold value is increased to ir1, the division target range 12 becomes narrower than the division target range 12 (see FIG. 20) when the threshold value ir0 lower than the threshold ir1 is used. Therefore, since the possibility that the region corresponding to the finger 5 is erroneously combined with another region is lower than before the threshold update, in step S400, the dividing unit 24 reflects the shape closer to the shape of the finger 5. The intensity image 4 can be divided.

図25は、図19に示す統合処理によって統合された手指領域84の一例を示す図である。図25に示すように、手指領域84は、距離画像3の手指候補領域80と、反射強度画像4を分割した分割画像6の抽出領域とを統合した領域として表される。   FIG. 25 is a diagram illustrating an example of the finger region 84 integrated by the integration process illustrated in FIG. As shown in FIG. 25, the finger region 84 is represented as a region obtained by integrating the finger candidate region 80 of the distance image 3 and the extraction region of the divided image 6 obtained by dividing the reflection intensity image 4.

図9に示す物体検出処理のステップS800で、判定部26が、上記ステップS500で確定された手指領域84に基づいて、ユーザの手指5がタッチ操作対象物98にタッチしたか否かを判定する判定処理を実行する。以下、ステップS800における判定処理の詳細について説明する。   In step S800 of the object detection process shown in FIG. 9, the determination unit 26 determines whether or not the user's finger 5 has touched the touch operation target 98 based on the finger region 84 determined in step S500. Execute the judgment process. Hereinafter, details of the determination process in step S800 will be described.

図26は、判定処理の流れの一例を示すフローチャートである。   FIG. 26 is a flowchart illustrating an example of the flow of determination processing.

まず、ステップS805で、判定部26が、上記ステップS500において、手指領域84が確定しているか否かを判定する。上記ステップS515で否定判定されて本ステップへ移行した場合には、手指領域84が確定していないため否定判定される。この場合、判定処理を終了すると共に、図9に示す物体検出処理自体も終了する。一方、手指領域84が確定している場合には、処理はステップS810へ移行する。   First, in step S805, the determination unit 26 determines whether or not the finger region 84 is confirmed in step S500. When a negative determination is made in step S515 and the process proceeds to this step, a negative determination is made because the finger area 84 has not been determined. In this case, the determination process ends and the object detection process itself shown in FIG. 9 also ends. On the other hand, if the finger area 84 is confirmed, the process proceeds to step S810.

ステップS810では、判定部26が、手指領域84の形状から、タッチ操作対象物98にタッチする部位であると考えられる指先位置を推定する。例えば、判定部26は、手指領域84の輪郭線上の各点について曲率を算出し、最も曲率が高い部分を指先位置として推定することができる。また、判定部26は、パターンマッチング等により予め定めた位置を指先位置として推定するようにしてもよい。   In step S <b> 810, the determination unit 26 estimates a fingertip position that is considered to be a part that touches the touch operation target 98 from the shape of the finger region 84. For example, the determination unit 26 can calculate the curvature for each point on the contour line of the finger region 84 and estimate the portion with the highest curvature as the fingertip position. Further, the determination unit 26 may estimate a predetermined position as a fingertip position by pattern matching or the like.

次に、ステップS815で、判定部26が、推定した指先位置に相当する距離画像3の画素の輝度値に基づいて、指先位置までの撮影距離を取得する。また、判定部26は、指先で隠蔽されたタッチ操作対象物98上の位置までの撮影距離を推定する。指先で隠蔽されたタッチ操作対象物98上の位置までの撮影距離は、タッチ操作対象物98が平面状であることを利用して、距離画像3における手指領域84の周辺画素の輝度値を用いて推定することができる。なお、手指領域84の周辺画素は、タッチ操作対象物98に対応する領域上の画素である必要がある。したがって、手指領域84外の画素で、かつ手指領域84から所定範囲内に存在する画素を、周辺画素として用いる。また、手指領域84外の画素で、かつ上記ステップS200で得られた基準輝度を中心とした所定範囲内の輝度値を有する画素を、周辺画素として用いてもよい。基準輝度は、タッチ操作対象物98までの撮影距離に相当する輝度値として推定された輝度値だからである。   Next, in step S815, the determination unit 26 acquires a shooting distance to the fingertip position based on the luminance value of the pixel of the distance image 3 corresponding to the estimated fingertip position. Further, the determination unit 26 estimates the shooting distance to a position on the touch operation target 98 concealed by the fingertip. The shooting distance to the position on the touch operation target 98 concealed by the fingertip is obtained by using the luminance values of the peripheral pixels of the finger region 84 in the distance image 3 using the fact that the touch operation target 98 is planar. Can be estimated. The peripheral pixels of the finger region 84 need to be pixels on the region corresponding to the touch operation target 98. Therefore, pixels that are outside the finger region 84 and are within a predetermined range from the finger region 84 are used as peripheral pixels. In addition, a pixel outside the finger region 84 and having a luminance value within a predetermined range centered on the reference luminance obtained in step S200 may be used as the peripheral pixel. This is because the reference luminance is a luminance value estimated as a luminance value corresponding to the shooting distance to the touch operation target 98.

より具体的には、判定部26は、距離画像3において、手指領域84の周辺の少なくとも2つの周辺画素と指先位置に相当する画素とを通る直線を求め、周辺画素の各々の輝度値を用いた線形補間により、指先位置に相当する画素の位置における輝度値を算出する。そして、判定部26は、線形補間により算出した輝度値に相当する撮影距離を、指先で隠蔽されたタッチ操作対象物98上の位置までの撮影距離として推定することができる。また、判定部26は、距離画像3における手指領域84の周辺の複数の周辺画素の画素位置及び輝度値から、その複数の周辺画素に相当する位置を含む平面を算出し、その平面をタッチ操作対象物98に相当する平面とする。そして、判定部26は、タッチ操作対象物98に相当する平面上で、推定した指先位置に相当する位置を求め、その位置と撮影装置10との距離を、指先で隠蔽されたタッチ操作対象物98上の位置までの撮影距離として推定することができる。   More specifically, the determination unit 26 obtains a straight line passing through at least two peripheral pixels around the finger region 84 and a pixel corresponding to the fingertip position in the distance image 3, and uses each luminance value of the peripheral pixels. The luminance value at the pixel position corresponding to the fingertip position is calculated by the linear interpolation. Then, the determination unit 26 can estimate the shooting distance corresponding to the luminance value calculated by linear interpolation as the shooting distance to the position on the touch operation target 98 concealed by the fingertip. Further, the determination unit 26 calculates a plane including positions corresponding to the plurality of peripheral pixels from the pixel positions and luminance values of the plurality of peripheral pixels around the finger region 84 in the distance image 3, and performs a touch operation on the plane. A plane corresponding to the object 98 is used. Then, the determination unit 26 obtains a position corresponding to the estimated fingertip position on a plane corresponding to the touch operation object 98, and the touch operation object whose distance between the position and the imaging device 10 is concealed by the fingertip. It can be estimated as a shooting distance up to a position on 98.

次に、ステップS820で、判定部26が、上記ステップS815で取得した又は推定した指先位置までの撮影距離と、指先で隠蔽されたタッチ操作対象物98上の位置までの撮影距離との差が、所定の閾値d1以下か否かを判定する。閾値d1は、指先の厚みを考慮した値(例えば、1cm)を、例えばメモリ104の所定領域に予め記憶しておけばよい。両撮影距離の差が閾値d1より大きい場合には、判定部26は、タッチ操作対象物98に対するタッチ操作は行われていないと判定し、判定処理を終了すると共に、図9に示す物体検出処理自体も終了する。両撮影距離の差が閾値d1以下の場合には、処理はステップS825へ移行し、判定部26が、タッチ操作に応じた画面が表示されるように表示装置30を制御する。   Next, in step S820, the determination unit 26 determines the difference between the shooting distance to the fingertip position acquired or estimated in step S815 and the shooting distance to the position on the touch operation target 98 concealed by the fingertip. Then, it is determined whether or not it is equal to or less than a predetermined threshold value d1. As the threshold value d1, a value considering the thickness of the fingertip (for example, 1 cm) may be stored in advance in a predetermined area of the memory 104, for example. When the difference between the two shooting distances is larger than the threshold value d1, the determination unit 26 determines that the touch operation on the touch operation target 98 has not been performed, ends the determination process, and performs the object detection process illustrated in FIG. It also ends. If the difference between the two shooting distances is equal to or smaller than the threshold value d1, the process proceeds to step S825, and the determination unit 26 controls the display device 30 so that a screen corresponding to the touch operation is displayed.

例えば、判定部26は、文字列やバーコードとしてタッチ操作対象物98に表示されたタッチ操作対象物98の識別情報や設置位置等のタッチ操作情報を、距離画像3及び反射強度画像4の少なくとも一方を画像処理することにより取得する。そして、判定部26は、取得したタッチ操作情報に予め対応付けられている提示情報、例えばマニュアル等の画像データを所定の記憶装置から取得し、取得した提示情報を表示装置30に表示する。   For example, the determination unit 26 uses the touch operation information such as the identification information and the installation position of the touch operation target 98 displayed on the touch operation target 98 as a character string or barcode as at least the distance image 3 and the reflection intensity image 4. One is obtained by image processing. Then, the determination unit 26 acquires presentation information associated in advance with the acquired touch operation information, for example, image data such as a manual from a predetermined storage device, and displays the acquired presentation information on the display device 30.

なお、タッチ操作情報は、距離画像3及び反射強度画像4の少なくとも一方を画像処理することにより取得される場合に限定されない。例えば、撮影装置10とは別に光学カメラをユーザに装着し、判定部26は、その光学カメラで撮影された画像を画像処理して、タッチ操作情報を取得してもよい。また、ユーザの位置を検出する位置センサをユーザに装着し、判定部26は、タッチ操作が行われたと判定した際のユーザの位置情報をタッチ操作情報として取得してもよい。   The touch operation information is not limited to the case where the touch operation information is acquired by performing image processing on at least one of the distance image 3 and the reflection intensity image 4. For example, an optical camera may be attached to the user separately from the photographing apparatus 10, and the determination unit 26 may perform image processing on an image photographed by the optical camera and acquire touch operation information. In addition, a position sensor that detects the position of the user may be attached to the user, and the determination unit 26 may acquire the position information of the user when it is determined that the touch operation has been performed as touch operation information.

タッチ操作に応じた表示装置30への表示制御が終了すると、判定処理を終了すると共に、図9に示す物体検出処理自体も終了する。   When the display control on the display device 30 according to the touch operation is finished, the determination process is finished and the object detection process itself shown in FIG. 9 is also finished.

以上、第1実施形態に係る物体検出装置20によれば、距離画像3から手指候補領域80を抽出するための閾値v2を設定する際に、距離画像3の輝度ヒストグラムが用いられる。そして、距離画像3の輝度ヒストグラムにおいて、タッチ操作対象物98の輝度ヒストグラムの形状に類似する関数を近似させ、近似させた関数に基づいて、タッチ操作対象物98の撮影距離を推定する。この推定したタッチ操作対象物98の撮影距離に基づいて、手指候補領域80を抽出するための閾値v2を設定する。これにより、手指領域とタッチ操作対象物98に対応する領域との面積差が小さい場合でも、輝度ヒストグラムの勾配変化率に基づいて閾値を設定する場合に比べ、閾値を適切に設定することができ、精度良く手指領域を抽出することができる。   As described above, according to the object detection device 20 according to the first embodiment, the luminance histogram of the distance image 3 is used when setting the threshold value v2 for extracting the finger candidate region 80 from the distance image 3. Then, in the luminance histogram of the distance image 3, a function similar to the shape of the luminance histogram of the touch operation target 98 is approximated, and the shooting distance of the touch operation target 98 is estimated based on the approximated function. Based on the estimated shooting distance of the touch operation target 98, a threshold value v2 for extracting the finger candidate region 80 is set. Thereby, even when the area difference between the finger region and the region corresponding to the touch operation target 98 is small, the threshold value can be set appropriately as compared with the case where the threshold value is set based on the gradient change rate of the luminance histogram. The finger region can be extracted with high accuracy.

また、第1実施形態に係る物体検出装置20によれば、反射強度画像4を複数の領域に分割し、分割した領域の中から、輪郭線に基づいて距離画像3から抽出した手指候補領域80と類似する抽出領域を取得する。そして、物体検出装置20は、手指候補領域80と抽出領域とを統合し、撮影装置10の画像上における物体の位置及び形状を特定する。したがって、各領域の輪郭線の類似度を判定することなく、単に手指候補領域80と重複する反射強度画像4の抽出候補領域7と手指候補領域80とを統合する場合に比べて、撮影装置10の画像から物体の大きさ、位置、及び形状を精度良く抽出することができる。   Further, according to the object detection device 20 according to the first embodiment, the reflection intensity image 4 is divided into a plurality of regions, and the finger candidate region 80 extracted from the distance image 3 based on the contour line from the divided regions. Get the extraction area similar to. Then, the object detection device 20 integrates the finger candidate region 80 and the extraction region, and specifies the position and shape of the object on the image of the imaging device 10. Therefore, as compared with the case where the extraction candidate region 7 and the finger candidate region 80 of the reflection intensity image 4 that overlaps with the finger candidate region 80 are simply integrated without determining the similarity of the contour lines of each region, the imaging device 10. The size, position, and shape of the object can be accurately extracted from the image.

また、第1実施形態に係る物体検出装置20によれば、各領域の輪郭線の類似度を判定する際、手指候補領域80及び抽出候補領域7の各々の輪郭線のうち、比較輪郭線8、9を用いて手指候補領域80及び抽出候補領域7の類似度を判定する。したがって、手指候補領域80及び抽出候補領域7を囲む全ての輪郭線を用いて、手指候補領域80及び抽出候補領域7の類似度を判定する場合に比べて、撮影装置10の画像から物体の大きさ、位置、及び形状を更に精度良く抽出することができる。   Further, according to the object detection device 20 according to the first embodiment, when determining the similarity of the contour lines of each region, the comparison contour line 8 among the contour lines of the finger candidate region 80 and the extraction candidate region 7 is compared. , 9 are used to determine the similarity between the finger candidate region 80 and the extraction candidate region 7. Therefore, compared to the case where the similarity between the finger candidate region 80 and the extraction candidate region 7 is determined using all the contour lines surrounding the finger candidate region 80 and the extraction candidate region 7, the size of the object from the image of the imaging device 10 is determined. The position, shape, and shape can be extracted with higher accuracy.

また、第1実施形態に係る物体検出装置20によれば、反射強度画像4の反射強度が所定値以上の領域に対して反射強度画像分割処理を実行する。したがって、物体検出装置20は、例えば検出対象である物体に光源の照射ムラがある場合であっても、撮影装置10で撮影した画像から物体の大きさ、位置、及び形状を精度良く抽出することができる。   In addition, according to the object detection device 20 according to the first embodiment, the reflection intensity image dividing process is executed on a region where the reflection intensity of the reflection intensity image 4 is equal to or greater than a predetermined value. Therefore, the object detection device 20 accurately extracts the size, position, and shape of the object from the image captured by the imaging device 10 even when the object to be detected has light source unevenness. Can do.

また、第1実施形態に係る物体検出装置20によれば、反射強度画像4から選択した抽出候補領域7に占める手指候補領域80との重複部分の割合が閾値より小さい場合、反射強度画像4の分割対象範囲12を縮小して、抽出候補領域7を選択し直す。したがって、例えば検出対象である物体に光源の照射ムラがある場合であっても、物体検出装置20は、実際の手指5の大きさ、位置、及び形状に近い抽出領域を反射強度画像4から抽出することができる。   Further, according to the object detection device 20 according to the first embodiment, when the ratio of the overlapping portion with the finger candidate region 80 in the extraction candidate region 7 selected from the reflection intensity image 4 is smaller than the threshold value, the reflection intensity image 4 The division target range 12 is reduced, and the extraction candidate area 7 is selected again. Therefore, for example, even when the object to be detected has light source irradiation unevenness, the object detection device 20 extracts the extraction region close to the actual size, position, and shape of the finger 5 from the reflection intensity image 4. can do.

なお、物体検出システム1において撮影装置10は必ずしも必要ではない。例えば、取得部21は、予め撮影され、コンピュータ等の電子機器に記憶されている距離画像3及び反射強度画像4を、インターネット等のネットワークを経由して当該電子機器から取得してもよい。   Note that the imaging device 10 is not necessarily required in the object detection system 1. For example, the acquisition unit 21 may acquire the distance image 3 and the reflection intensity image 4 that have been captured in advance and stored in an electronic device such as a computer from the electronic device via a network such as the Internet.

また、第1実施形態では、反射強度画像分割処理において、分割対象範囲を設定する場合について説明したが、分割対象範囲を設定することなく、反射強度画像4の全体を分割処理の対象としてもよい。この場合、図27及び図28に示すように、比較輪郭線8、9を定義すればよい。   In the first embodiment, the case where the division target range is set in the reflection intensity image division processing has been described. However, the entire reflection intensity image 4 may be the target of the division processing without setting the division target range. . In this case, comparison outlines 8 and 9 may be defined as shown in FIGS.

具体的には、例えば、図27(A)に示す手指候補領域80が距離画像3から抽出された場合、図27(B)に示すように、手指候補領域80の輪郭線と距離画像3の枠線との交点を求める。そして、この交点を枠線と交差する手指候補領域80の輪郭線の端点51A、51Bとして取得する。手指候補領域80の輪郭線のうち、距離画像3の枠線と重複する輪郭線(枠輪郭線51)は、距離画像3の画角によって生成された輪郭線であるため、除外輪郭線50と同様に、本来の物体の輪郭線とは異なる輪郭線を示している。したがって、手指候補領域80の輪郭線のうち、除外輪郭線50及び枠輪郭線51以外の他の輪郭線を比較輪郭線8とすればよい。   Specifically, for example, when the finger candidate region 80 shown in FIG. 27A is extracted from the distance image 3, as shown in FIG. 27B, the contour line of the finger candidate region 80 and the distance image 3 Find the intersection with the border. And this intersection is acquired as the end points 51A and 51B of the outline of the finger candidate area | region 80 which cross | intersects a frame line. Of the contour lines of the finger candidate region 80, the contour line overlapping with the frame line of the distance image 3 (frame contour line 51) is a contour line generated by the angle of view of the distance image 3. Similarly, a contour line different from the contour line of the original object is shown. Therefore, among the contour lines of the finger candidate region 80, a contour line other than the excluded contour line 50 and the frame contour line 51 may be used as the comparative contour line 8.

また、例えば、図28(A)に示す抽出候補領域7が反射強度画像4から抽出された場合、図28(B)に示すように、抽出候補領域7の輪郭線と反射強度画像4の枠線との交点を求める。そして、この交点を枠線と交差する抽出候補領域7の輪郭線の端点53A、53Bとして取得する。抽出候補領域7の輪郭線のうち、反射強度画像4の枠線と重複する輪郭線(枠輪郭線53)は、反射強度画像4の画角によって生成された輪郭線であるため、本来の物体の輪郭線とは異なる輪郭線を示している。したがって、抽出候補領域7の輪郭線のうち、端点52Aと端点53Aとの間の輪郭線、及び端点52Bと端点53Bとの間の輪郭線を比較輪郭線9とすればよい。   For example, when the extraction candidate area 7 shown in FIG. 28A is extracted from the reflection intensity image 4, the outline of the extraction candidate area 7 and the frame of the reflection intensity image 4 are shown in FIG. Find the intersection with the line. And this intersection is acquired as the end points 53A and 53B of the outline of the extraction candidate area | region 7 which cross | intersects a frame line. Of the contour lines of the extraction candidate region 7, the contour line (frame contour line 53) that overlaps the frame line of the reflection intensity image 4 is a contour line generated by the angle of view of the reflection intensity image 4. A contour line different from the contour line is shown. Therefore, among the contour lines of the extraction candidate region 7, the contour line between the end point 52A and the end point 53A and the contour line between the end point 52B and the end point 53B may be used as the comparative contour line 9.

また、分割対象領域を設定しない場合には、図19に示す統合処理のステップS555、図9に示す物体検出処理のステップS600及びS700の処理は省略する。また、この場合、図19に示す統合処理のステップS510で否定判定された場合には、上記ステップS515で否定判定された場合と同様に、例えば手指5を照らす光源の数又は位置等の調整を促すようなメッセージをユーザに提示するようにしてもよい。   Further, when the division target area is not set, step S555 of the integration process shown in FIG. 19 and steps S600 and S700 of the object detection process shown in FIG. 9 are omitted. Also, in this case, if a negative determination is made in step S510 of the integration process shown in FIG. 19, for example, the number or position of the light source that illuminates the finger 5 is adjusted, as in the case where a negative determination is made in step S515. A message prompting the user may be presented to the user.

<第2実施形態>
次に、第2実施形態について説明する。なお、第2実施形態に係る物体検出システムにおいて、第1実施形態に係る物体検出システム1と同様の部分については、同一符号を付して詳細な説明を省略する。
Second Embodiment
Next, a second embodiment will be described. In the object detection system according to the second embodiment, the same parts as those of the object detection system 1 according to the first embodiment are denoted by the same reference numerals, and detailed description thereof is omitted.

図3に示すように、物体検出システム1Aは、撮影装置10、物体検出装置20A、及び表示装置30を含む。物体検出装置20Aは、機能的には、取得部21、設定部22A、抽出部23、分割部24、統合部25、及び判定部26を含む。   As illustrated in FIG. 3, the object detection system 1A includes an imaging device 10, an object detection device 20A, and a display device 30. Functionally, the object detection apparatus 20A includes an acquisition unit 21, a setting unit 22A, an extraction unit 23, a division unit 24, an integration unit 25, and a determination unit 26.

ここで、タッチ操作対象物98とユーザの頭部等に装着された撮影装置10との相対的な距離や姿勢の変化は、タッチ操作時においては小さいと考えられる。したがって、距離画像3のフレーム間における輝度ヒストグラムの変化も小さいと考えられる。距離画像3の輝度ヒストグラムの変化が小さいということは、タッチ操作対象物98の輝度ヒストグラムを想定したガウス関数を近似させる際の基準輝度の変化も小さいと考えられる。   Here, changes in the relative distance and posture between the touch operation target 98 and the photographing apparatus 10 mounted on the user's head or the like are considered to be small during the touch operation. Therefore, it is considered that the change in the luminance histogram between the frames of the distance image 3 is small. The fact that the change in the brightness histogram of the distance image 3 is small is considered that the change in the reference brightness when approximating a Gaussian function assuming the brightness histogram of the touch operation target 98 is also small.

そこで、第2実施形態における設定部22Aは、前フレームでガウス関数の近似に成功している場合には、現フレームでの基準輝度の探索の際に、前フレームにおける基準輝度を中心とした所定範囲に探索範囲を限定する。その他の設定部22Aの機能については、第1実施形態における設定部22と同様である。   Accordingly, when the setting unit 22A in the second embodiment succeeds in approximating the Gaussian function in the previous frame, the setting unit 22A performs a predetermined process centering on the reference luminance in the previous frame when searching for the reference luminance in the current frame. Limit the search range to a range. Other functions of the setting unit 22A are the same as those of the setting unit 22 in the first embodiment.

物体検出装置20Aは、図8に示すコンピュータ100で実現することができる。コンピュータ100の記憶部106には、コンピュータ100を図3に示す物体検出装置20Aとして機能させるための物体検出プログラム120Aが記憶される。物体検出プログラム120Aは、取得プロセス121、設定プロセス122A、抽出プロセス123、分割プロセス124、統合プロセス125、及び判定プロセス126を含む。   The object detection device 20A can be realized by a computer 100 shown in FIG. The storage unit 106 of the computer 100 stores an object detection program 120A for causing the computer 100 to function as the object detection device 20A illustrated in FIG. The object detection program 120A includes an acquisition process 121, a setting process 122A, an extraction process 123, a division process 124, an integration process 125, and a determination process 126.

CPU102は、物体検出プログラム120Aを記憶部106から読み出してメモリ104に展開し、物体検出プログラム120Aに含まれる各プロセスを実行する。CPU102は、設定プロセス122Aを実行することで、図3に示す設定部22Aとして動作する。他のプロセスについては、第1実施形態における物体検出プログラム120と同様である。これにより、物体検出プログラム120Aを実行したコンピュータ100が物体検出装置20Aとして動作する。   The CPU 102 reads the object detection program 120A from the storage unit 106, expands it in the memory 104, and executes each process included in the object detection program 120A. The CPU 102 operates as the setting unit 22A illustrated in FIG. 3 by executing the setting process 122A. Other processes are the same as those of the object detection program 120 in the first embodiment. Thereby, the computer 100 which executed the object detection program 120A operates as the object detection apparatus 20A.

なお、物体検出プログラム120Aにより実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。   The function realized by the object detection program 120A can be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC.

次に、第2実施形態に係る物体検出システム1Aの作用について説明する。第2実施形態では、図9に示す物体検出処理のステップS200で実行される手指候補領域輝度設定処理が第1実施形態とは異なる。そこで、以下では、図29を参照して、第2実施形態における手指候補領域輝度設定処理について説明する。なお、第1実施形態における手指候補領域輝度設定処理と同様の処理については、同一符号を付して詳細な説明を省略する。   Next, the operation of the object detection system 1A according to the second embodiment will be described. In the second embodiment, the finger candidate region luminance setting process executed in step S200 of the object detection process shown in FIG. 9 is different from the first embodiment. Therefore, in the following, with reference to FIG. 29, the finger candidate region luminance setting process in the second embodiment will be described. In addition, about the process similar to the finger candidate area | region brightness setting process in 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

まず、ステップS205で、設定部22Aが、距離画像3から輝度ヒストグラムを生成する。そして、次のステップS206で、設定部22Aが、前フレームの距離画像3について、距離画像3の輝度ヒストグラムに対する、タッチ操作対象物98を想定したガウス関数の近似が成功しているか否かを判定する。具体的には、設定部22Aは、所定の記憶領域に、前フレームのフレーム番号に対応付けて基準輝度が記録されているか否かを確認する。この記憶領域には、前フレームの距離画像3に対する手指候補領域輝度設定処理を実行した際に、ガウス関数の近似に成功している場合には、後述するステップS290において、近似に成功したガウス関数の基準輝度が記録されている。したがって、この記憶領域に前フレームの基準輝度が記録されている場合には、設定部22Aは、前フレームでガウス関数の近似が成功していると判定し、その基準輝度の情報を取得して、処理はステップS207へ移行する。前フレームの基準輝度が記録されていない場合には、設定部22Aは、前フレームでガウス関数の近似が失敗していると判定し、処理はステップS201へ移行する。   First, in step S205, the setting unit 22A generates a luminance histogram from the distance image 3. Then, in the next step S206, the setting unit 22A determines whether or not the approximation of the Gaussian function assuming the touch operation target 98 with respect to the luminance histogram of the distance image 3 is successful for the distance image 3 of the previous frame. To do. Specifically, the setting unit 22A checks whether or not the reference luminance is recorded in a predetermined storage area in association with the frame number of the previous frame. In this storage area, when the finger candidate area luminance setting process for the distance image 3 of the previous frame is executed, if the approximation of the Gaussian function is successful, the Gaussian function that has been successfully approximated in step S290 described later. The reference brightness is recorded. Therefore, when the reference luminance of the previous frame is recorded in this storage area, the setting unit 22A determines that approximation of the Gaussian function has succeeded in the previous frame, and acquires information on the reference luminance. The processing moves to step S207. If the reference luminance of the previous frame is not recorded, the setting unit 22A determines that approximation of the Gaussian function has failed in the previous frame, and the process proceeds to step S201.

ステップS207では、設定部22Aが、上記ステップS206で取得した前フレームの基準輝度を中心とする所定範囲を、現フレームでの基準輝度の探索範囲として決定する。所定範囲は、現フレームの距離画像3の輝度ヒストグラムの全輝度範囲よりも小さな範囲とする。   In step S207, the setting unit 22A determines a predetermined range centered on the reference luminance of the previous frame acquired in step S206 as a reference luminance search range in the current frame. The predetermined range is a range smaller than the entire luminance range of the luminance histogram of the distance image 3 of the current frame.

以降、ステップS250〜S285において、第1実施形態における手指候補領域輝度設定処理のステップS210〜S245と同様の処理が実行される。なお、ステップS255で否定判定された場合には、ステップS100に戻るのではなく、ステップS201へ移行する。   Thereafter, in steps S250 to S285, processing similar to that in steps S210 to S245 of the finger candidate region luminance setting processing in the first embodiment is executed. When a negative determination is made in step S255, the process proceeds to step S201 instead of returning to step S100.

ステップS201では、設定部22Aが、第1実施形態における手指候補領域輝度設定処理を実行する。具体的には、図10に示すステップS210〜S245と同様である。そして、処理はステップS285の次のステップS290へ移行する。   In step S201, the setting unit 22A executes the finger candidate area luminance setting process in the first embodiment. Specifically, this is the same as steps S210 to S245 shown in FIG. Then, the process proceeds to step S290 after step S285.

ステップS290では、設定部22Aが、現在の基準輝度を、現フレームのフレーム番号に対応付けて所定の記憶領域に記憶し、処理はステップS300へ移行する。   In step S290, setting unit 22A stores the current reference luminance in a predetermined storage area in association with the frame number of the current frame, and the process proceeds to step S300.

以上、第2実施形態に係る物体検出装置20Aによれば、距離画像3の輝度ヒストグラムにガウス関数を近似させる際の基準輝度の探索範囲が限定されるため、基準輝度の探索処理の計算量を低減することができる。   As described above, according to the object detection device 20A according to the second embodiment, the search range of the reference luminance when the Gaussian function is approximated to the luminance histogram of the distance image 3 is limited. Can be reduced.

<第3実施形態>
次に、第3実施形態について説明する。なお、第3実施形態に係る物体検出システムにおいて、第1及び第2実施形態に係る物体検出システム1、1Aと同様の部分については、同一符号を付して詳細な説明を省略する。
<Third Embodiment>
Next, a third embodiment will be described. Note that in the object detection system according to the third embodiment, the same parts as those of the object detection systems 1 and 1A according to the first and second embodiments are denoted by the same reference numerals, and detailed description thereof is omitted.

図3に示すように、物体検出システム1Bは、撮影装置10、物体検出装置20B、及び表示装置30を含む。物体検出装置20Bは、機能的には、取得部21、設定部22B、抽出部23、分割部24、統合部25、及び判定部26を含む。   As illustrated in FIG. 3, the object detection system 1B includes an imaging device 10, an object detection device 20B, and a display device 30. Functionally, the object detection apparatus 20B includes an acquisition unit 21, a setting unit 22B, an extraction unit 23, a division unit 24, an integration unit 25, and a determination unit 26.

ここで、タッチ操作対象物98とユーザの頭部等に装着された撮影装置10との相対的な距離や姿勢の変化は、タッチ操作時においては小さいと考えられる。また、タッチ操作対象物98に手指を近づける動作は、撮影装置10の撮影方向に沿った動作となるため、撮影装置10による撮影範囲内での手指の位置及び大きさの変化は小さいと考えられる。したがって、距離画像3のフレーム間における輝度ヒストグラムの変化も小さいと考えられる。距離画像3の輝度ヒストグラムの変化が小さいということは、距離画像3の輝度ヒストグラムに近似させたガウス関数のパラメータ(平均に相当する基準輝度、基準輝度における画素数、及び分散値)の変化も小さいと考えられる。   Here, changes in the relative distance and posture between the touch operation target 98 and the photographing apparatus 10 mounted on the user's head or the like are considered to be small during the touch operation. In addition, since the operation of bringing the finger close to the touch operation target 98 is an operation along the shooting direction of the imaging device 10, the change in the position and size of the finger within the imaging range by the imaging device 10 is considered to be small. . Therefore, it is considered that the change in the luminance histogram between the frames of the distance image 3 is small. The fact that the change in the brightness histogram of the distance image 3 is small means that the change in the parameters of the Gaussian function approximated to the brightness histogram of the distance image 3 (the reference brightness corresponding to the average, the number of pixels in the reference brightness, and the variance value) is also small. it is conceivable that.

そこで、第3実施形態における設定部22Bは、前フレームでガウス関数の近似に成功している場合には、前フレームで近似が成功したガウス関数と、現フレームの距離画像3の輝度ヒストグラムとの誤差を閾値a4と比較する。そして、設定部22Bは、誤差が閾値a4以下であれば、前フレームで近似が成功したガウス関数が、現フレームにおいても近似に成功したものとする。その他の設定部22Bの機能については、第1及び第2実施形態における設定部22、22Aと同様である。   Accordingly, when the setting unit 22B in the third embodiment succeeds in approximating the Gaussian function in the previous frame, the setting unit 22B calculates the Gaussian function that has been approximated in the previous frame and the luminance histogram of the distance image 3 in the current frame. The error is compared with a threshold value a4. If the error is equal to or smaller than the threshold value a4, the setting unit 22B assumes that the Gaussian function that has been successfully approximated in the previous frame has also been successfully approximated in the current frame. Other functions of the setting unit 22B are the same as those of the setting units 22 and 22A in the first and second embodiments.

物体検出装置20Bは、図8に示すコンピュータ100で実現することができる。コンピュータ100の記憶部106には、コンピュータ100を図3に示す物体検出装置20Bとして機能させるための物体検出プログラム120Bが記憶される。物体検出プログラム120Bは、取得プロセス121、設定プロセス122B、抽出プロセス123、分割プロセス124、統合プロセス125、及び判定プロセス126を含む。   The object detection device 20B can be realized by the computer 100 shown in FIG. The storage unit 106 of the computer 100 stores an object detection program 120B for causing the computer 100 to function as the object detection device 20B illustrated in FIG. The object detection program 120B includes an acquisition process 121, a setting process 122B, an extraction process 123, a division process 124, an integration process 125, and a determination process 126.

CPU102は、物体検出プログラム120Bを記憶部106から読み出してメモリ104に展開し、物体検出プログラム120Bに含まれる各プロセスを実行する。CPU102は、設定プロセス122Bを実行することで、図3に示す設定部22Bとして動作する。他のプロセスについては、第1実施形態における物体検出プログラム120と同様である。これにより、物体検出プログラム120Bを実行したコンピュータ100が物体検出装置20Bとして動作する。   The CPU 102 reads out the object detection program 120B from the storage unit 106, expands it in the memory 104, and executes each process included in the object detection program 120B. The CPU 102 operates as the setting unit 22B illustrated in FIG. 3 by executing the setting process 122B. Other processes are the same as those of the object detection program 120 in the first embodiment. As a result, the computer 100 that has executed the object detection program 120B operates as the object detection device 20B.

なお、物体検出プログラム120Bにより実現される機能は、例えば半導体集積回路、より詳しくはASIC等で実現することも可能である。   The function realized by the object detection program 120B can be realized by, for example, a semiconductor integrated circuit, more specifically, an ASIC or the like.

次に、第3実施形態に係る物体検出システム1Bの作用について説明する。第3実施形態では、図9に示す物体検出処理のステップS200で実行される手指候補領域輝度設定処理が第1実施形態とは異なる。そこで、以下では、図30を参照して、第3実施形態における手指候補領域輝度設定処理について説明する。なお、第1又は第2実施形態における手指候補領域輝度設定処理と同様の処理については、同一符号を付して詳細な説明を省略する。   Next, the operation of the object detection system 1B according to the third embodiment will be described. In the third embodiment, the finger candidate region luminance setting process executed in step S200 of the object detection process shown in FIG. 9 is different from the first embodiment. Therefore, hereinafter, the finger candidate region luminance setting process in the third embodiment will be described with reference to FIG. In addition, about the process similar to the finger candidate area | region brightness setting process in 1st or 2nd embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

まず、ステップS205で、設定部22Bが、距離画像3から輝度ヒストグラムを生成する。そして、次のステップS208で、設定部22Bが、前フレームの距離画像3について、距離画像3の輝度ヒストグラムに対する、タッチ操作対象物98を想定したガウス関数の近似が成功しているか否かを判定する。具体的には、設定部22Bは、所定の記憶領域に、前フレームのフレーム番号に対応付けてガウス関数のパラメータが記録されているか否かを確認する。この記憶領域には、前フレームの距離画像3に対する手指候補領域輝度設定処理を実行した際に、ガウス関数の近似に成功している場合には、後述するステップS291において、近似に成功したガウス関数のパラメータが記録されている。したがって、この記憶領域に前フレームのガウス関数のパラメータが記録されている場合には、設定部22Bは、前フレームでガウス関数の近似が成功していると判定し、処理はステップS209へ移行する。前フレームのガウス関数のパラメータが記録されていない場合には、設定部22Aは、前フレームでガウス関数の近似が失敗していると判定し、処理はステップS201へ移行する。   First, in step S205, the setting unit 22B generates a luminance histogram from the distance image 3. Then, in the next step S208, the setting unit 22B determines whether or not the approximation of the Gaussian function assuming the touch operation target 98 with respect to the luminance histogram of the distance image 3 is successful for the distance image 3 of the previous frame. To do. Specifically, the setting unit 22B checks whether or not a Gaussian function parameter is recorded in a predetermined storage area in association with the frame number of the previous frame. In this storage area, when the finger candidate area luminance setting process for the distance image 3 of the previous frame is executed, if the approximation of the Gaussian function is successful, the Gaussian function that has been successfully approximated in step S291 described later. The parameters are recorded. Therefore, when the parameter of the Gaussian function of the previous frame is recorded in this storage area, the setting unit 22B determines that the approximation of the Gaussian function has succeeded in the previous frame, and the process proceeds to Step S209. . If the parameter of the Gaussian function of the previous frame is not recorded, the setting unit 22A determines that approximation of the Gaussian function has failed in the previous frame, and the process proceeds to step S201.

ステップS209では、設定部22Bが、所定の記憶領域から、前フレームのガウス関数のパラメータを取得する。次に、ステップS276で、設定部22Bが、ステップS209で取得したパラメータで定義されるガウス関数と、上記ステップS205で生成した現フレームの距離画像3の輝度ヒストグラムとの誤差を算出し、誤差が閾値a4以下か否かを判定する。誤差が閾値a4以下の場合には、処理はステップS286へ移行し、誤差が閾値a4を超えている場合には、処理はステップS201へ移行する。   In step S209, the setting unit 22B acquires the parameter of the Gauss function of the previous frame from a predetermined storage area. Next, in step S276, the setting unit 22B calculates an error between the Gaussian function defined by the parameter acquired in step S209 and the luminance histogram of the distance image 3 of the current frame generated in step S205. It is determined whether or not the threshold value is a4 or less. If the error is equal to or smaller than the threshold value a4, the process proceeds to step S286. If the error exceeds the threshold value a4, the process proceeds to step S201.

ステップS286では、設定部22Bが、第1実施形態における手指候補領域輝度設定処理のステップS245と同様に、上記ステップS209で取得したパラメータにより定義されるガウス関数に基づいて、閾値v2を設定する。   In step S286, the setting unit 22B sets the threshold value v2 based on the Gaussian function defined by the parameter acquired in step S209 as in step S245 of the finger candidate region luminance setting process in the first embodiment.

一方、ステップS201では、設定部22Bが、第1実施形態における手指候補領域輝度設定処理を実行する。具体的には、図10に示すステップS210〜S245と同様である。   On the other hand, in step S201, the setting unit 22B executes the finger candidate region luminance setting process in the first embodiment. Specifically, this is the same as steps S210 to S245 shown in FIG.

次に、ステップS291で、設定部22Bが、上記ステップS209で取得したガウス関数のパラメータを、現フレームのフレーム番号に対応付けて所定の記憶領域に記憶し、処理はステップS300へ移行する。   Next, in step S291, the setting unit 22B stores the parameters of the Gaussian function acquired in step S209 in a predetermined storage area in association with the frame number of the current frame, and the process proceeds to step S300.

以上、第3実施形態に係る物体検出装置20Bによれば、近似に成功している前フレームのガウス関数を用いて、現フレームの距離画像の輝度ヒストグラムとの比較を行うため、基準輝度の探索処理やガウス関数の近似の計算量を低減することができる。   As described above, according to the object detection device 20B according to the third embodiment, the Gaussian function of the previous frame that has been successfully approximated is used for comparison with the luminance histogram of the distance image of the current frame. It is possible to reduce the calculation amount of processing and approximation of Gaussian function.

なお、上記各実施形態では、距離画像の輝度ヒストグラムに近似させる関数として、ガウス関数を用いる場合について説明したが、これに限定されない。タッチ操作対象物98の輝度ヒストグラムの形状に類似する関数であればよく、具体的には、ある輝度を中心に左右対称の形状となる関数であればよい。ガウス関数以外の関数を用いる場合には、その関数に応じたパラメータを用いればよい。例えば、関数の中心となる輝度を基準輝度とすればよく、また、その関数の広がりを示す指標を、ガウス関数における分散値と同様の指標として用いればよい。   In each of the above embodiments, the case where a Gaussian function is used as a function approximated to the luminance histogram of the distance image has been described, but the present invention is not limited to this. Any function that is similar to the shape of the luminance histogram of the touch operation object 98 may be used. Specifically, any function that has a bilaterally symmetric shape around a certain luminance may be used. When a function other than a Gaussian function is used, a parameter corresponding to the function may be used. For example, the luminance at the center of the function may be used as the reference luminance, and an index indicating the spread of the function may be used as an index similar to the variance value in the Gaussian function.

また、各実施形態では手指5を例にして、画像から手指5の大きさ、位置、及び形状を精度良く抽出することができる物体検出装置について説明した。しかし、本発明に係る物体検出装置は、手指5以外の物体であっても画像から物体の大きさ、位置、及び形状を精度良く抽出できることは言うまでもない。   Moreover, in each embodiment, the finger 5 was taken as an example and the object detection apparatus which can extract the size, position, and shape of the finger 5 from an image with high accuracy has been described. However, it goes without saying that the object detection apparatus according to the present invention can accurately extract the size, position, and shape of an object from an image even if it is an object other than the finger 5.

以上、各実施形態を用いて本発明を説明したが、本発明は各実施形態に記載の範囲には限定されない。本発明の要旨を逸脱しない範囲で各実施形態に多様な変更又は改良を加えることができ、当該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。例えば、本発明の要旨を逸脱しない範囲で処理の順序を変更してもよい。   As mentioned above, although this invention was demonstrated using each embodiment, this invention is not limited to the range as described in each embodiment. Various changes or improvements can be added to each embodiment without departing from the gist of the present invention, and embodiments to which the changes or improvements are added are also included in the technical scope of the present invention. For example, the processing order may be changed without departing from the scope of the present invention.

また、各実施形態では、物体検出プログラム120、120A、120Bが記憶部に予め記憶(インストール)されている態様を説明したが、これに限定されるものではない。開示の技術に係る物体検出プログラムは、コンピュータ読取可能な記録媒体116に記録されている形態で提供することも可能である。例えば、開示の技術に係る物体検出プログラムは、CD−ROM、DVD−ROM、及びUSBメモリ等の可搬型記録媒体に記録されている形態で提供することも可能である。また、開示の技術に係る物体検出プログラムは、フラッシュメモリ等の半導体メモリ等に記録されている形態で提供することも可能である。   Moreover, although each embodiment demonstrated the aspect by which the object detection program 120, 120A, 120B was beforehand memorize | stored (installed) in the memory | storage part, it is not limited to this. The object detection program according to the disclosed technology can also be provided in a form recorded on a computer-readable recording medium 116. For example, the object detection program according to the disclosed technology can be provided in a form recorded in a portable recording medium such as a CD-ROM, a DVD-ROM, and a USB memory. The object detection program according to the disclosed technique can also be provided in a form recorded in a semiconductor memory such as a flash memory.

以上の各実施形態を含む実施形態に関し、更に以下の付記を開示する。   Regarding the embodiments including the above embodiments, the following additional notes are disclosed.

(付記1)
コンピュータに、
物体との距離を該距離に応じた輝度で表す距離画像、及び物体からの反射光の強度を輝度で表す反射強度画像を取得し、
前記距離画像の輝度ヒストグラムに対して、該距離画像における検出対象の物体により操作される操作対象物の輝度ヒストグラムの形状に類似する関数を近似させることにより、前記操作対象物の輝度ヒストグラムを推定し、
推定された前記操作対象物の輝度ヒストグラムに基づいて定まる前記操作対象物までの距離を用いて、前記距離画像から前記検出対象の物体を表す候補領域を抽出し、
前記反射強度画像を、該反射強度画像の各画素の輝度に基づいて複数の領域に分割し、
前記複数の領域のうち、抽出された前記候補領域の輪郭線と形状が類似する抽出領域と、該候補領域とを統合した領域を、前記検出対象の物体を表す領域として検出する
ことを含む処理を実行させる物体検出方法。
(Appendix 1)
On the computer,
Obtain a distance image that represents the distance to the object with the luminance according to the distance, and a reflection intensity image that represents the intensity of the reflected light from the object with the luminance,
By approximating the brightness histogram of the distance image with a function similar to the shape of the brightness histogram of the operation target operated by the object to be detected in the distance image, the brightness histogram of the operation target is estimated. ,
Using the distance to the operation target determined based on the estimated brightness histogram of the operation target, extract a candidate area representing the detection target object from the distance image;
Dividing the reflection intensity image into a plurality of regions based on the luminance of each pixel of the reflection intensity image;
A process including detecting an extracted area whose shape is similar to the contour line of the extracted candidate area, and an area obtained by integrating the candidate areas, as an area representing the detection target object, among the plurality of areas. The object detection method which performs.

(付記2)
前記関数を、前記距離画像の輝度ヒストグラムにおいて、輝度の変化率が所定値以下となる基準輝度をピークとする左右対称な関数とする付記1記載の物体検出方法。
(Appendix 2)
The object detection method according to supplementary note 1, wherein the function is a left-right symmetric function having a reference luminance peaking at a luminance change rate of a predetermined value or less in the luminance histogram of the distance image.

(付記3)
前記関数を前記距離画像の輝度ヒストグラムに近似させる際に、前記基準輝度に対応する距離以上の距離に対応する輝度の部分を近似させる付記2記載の物体検出方法。
(Appendix 3)
The object detection method according to claim 2, wherein when the function is approximated to a luminance histogram of the distance image, a luminance portion corresponding to a distance greater than or equal to a distance corresponding to the reference luminance is approximated.

(付記4)
前記関数をガウス関数とする付記2又は付記3記載の物体検出方法。
(Appendix 4)
The object detection method according to supplementary note 2 or supplementary note 3, wherein the function is a Gaussian function.

(付記5)
前記距離画像として、時系列に複数のフレームを順次取得し、
前フレームにおいて、前記関数と前記距離画像の輝度ヒストグラムとの誤差が所定値以下であった場合、現フレームにおける前記基準輝度を、前フレームで探索された基準輝度を中心とする所定範囲から探索する
付記2〜付記4のいずれか1項記載の物体検出方法。
(Appendix 5)
As the distance image, a plurality of frames are sequentially acquired in time series,
If an error between the function and the brightness histogram of the distance image is less than or equal to a predetermined value in the previous frame, the reference brightness in the current frame is searched from a predetermined range centered on the reference brightness searched in the previous frame. The object detection method according to any one of appendix 2 to appendix 4.

(付記6)
前記距離画像として、時系列に複数のフレームを順次取得し、
前フレームにおいて、前記関数と前記距離画像の輝度ヒストグラムとの誤差が所定値以下であった場合、前記前フレームの関数と、現フレームの距離画像の輝度ヒストグラムとの誤差が所定値以下か否かを判定し、該誤差が所定値以下の場合は、前記前フレームの関数を、前記操作対象物の現フレームの輝度ヒストグラムとして推定する
付記2〜付記5のいずれか1項記載の物体検出方法。
(Appendix 6)
As the distance image, a plurality of frames are sequentially acquired in time series,
In the previous frame, if the error between the function and the brightness histogram of the distance image is less than or equal to a predetermined value, whether or not the error between the function of the previous frame and the brightness histogram of the distance image of the current frame is less than or equal to a predetermined value The object detection method according to any one of claims 2 to 5, wherein the function of the previous frame is estimated as a luminance histogram of the current frame of the operation target object when the error is equal to or less than a predetermined value.

(付記7)
前記複数の領域のうち、抽出された前記候補領域と重複する割合が予め定めた割合以上で、かつ、前記候補領域の輪郭線の形状の特徴量と、前記候補領域の輪郭線に対応した輪郭線の形状の特徴量との差分が閾値以下である領域を、前記抽出領域とする付記1〜付記6のいずれか1項記載の物体検出方法。
(Appendix 7)
Of the plurality of areas, the ratio of overlapping with the extracted candidate area is equal to or greater than a predetermined ratio, and the feature amount of the shape of the outline of the candidate area and the outline corresponding to the outline of the candidate area The object detection method according to any one of supplementary notes 1 to 6, wherein a region where a difference from a feature amount of a line shape is equal to or less than a threshold is the extraction region.

(付記8)
前記候補領域の輪郭線の形状の特徴量を、前記候補領域の輪郭線に含まれる各々の輪郭画素のうち、前記輪郭画素の輝度と、前記候補領域外で、かつ、前記輪郭画素から予め定めた範囲にある近傍画素の輝度との差分が閾値より小さい画素が連続する区間、及び前記距離画像の枠線と重複する区間を前記候補領域の輪郭線から取り除いた区間から求める付記7記載の物体検出方法。
(Appendix 8)
The feature amount of the shape of the contour line of the candidate region is determined in advance from the contour pixel and the brightness of the contour pixel, out of the candidate region and out of the contour pixel among the contour pixels included in the contour line of the candidate region. The object according to appendix 7, which is obtained from a section in which pixels having a difference in luminance from neighboring pixels in a range that is smaller than a threshold are continuous and a section that overlaps a frame line of the distance image is removed from the outline of the candidate area. Detection method.

(付記9)
前記複数の領域に分割される前記反射強度画像の分割対象範囲を、予め定めた輝度以上を有する範囲に縮小する付記1〜付記8のいずれか1項記載の物体検出方法。
(Appendix 9)
The object detection method according to any one of appendix 1 to appendix 8, wherein a division target range of the reflection intensity image divided into the plurality of regions is reduced to a range having a predetermined luminance or more.

(付記10)
前記複数の領域のうち、前記候補領域と重複する割合が最も大きい抽出領域が前記予め定めた割合未満である場合、前記候補領域と重複する割合が前記予め定めた割合以上になるまで、前記予め定めた輝度を大きくして、前記複数の領域に分割される前記反射強度画像の分割対象範囲を更に縮小する付記9記載の物体検出方法。
(Appendix 10)
When the extraction area having the largest ratio of overlapping with the candidate area is less than the predetermined ratio among the plurality of areas, until the ratio of overlapping with the candidate area becomes equal to or higher than the predetermined ratio, The object detection method according to appendix 9, wherein the predetermined luminance is increased to further reduce the division target range of the reflection intensity image divided into the plurality of regions.

(付記11)
前記検出対象の物体は人間の手指である付記1〜付記10のいずれか1項記載の物体検出方法。
(Appendix 11)
The object detection method according to claim 1, wherein the object to be detected is a human finger.

(付記12)
前記距離画像及び前記反射強度画像は、人間の体に装着された撮影装置で撮像された画像である付記1〜付記10のいずれか1項記載の物体検出方法。
(Appendix 12)
The object detection method according to any one of appendix 1 to appendix 10, wherein the distance image and the reflection intensity image are images captured by an imaging device attached to a human body.

(付記13)
物体との距離を該距離に応じた輝度で表す距離画像、及び物体からの反射光の強度を輝度で表す反射強度画像を取得する取得部と、
前記距離画像の輝度ヒストグラムに対して、該距離画像における検出対象の物体により操作される操作対象物の輝度ヒストグラムの形状に類似する関数を近似させることにより、前記操作対象物の輝度ヒストグラムを推定する推定部と、
推定された前記操作対象物の輝度ヒストグラムに基づいて定まる前記操作対象物までの距離を用いて、前記距離画像から前記検出対象の物体を表す候補領域を抽出する抽出部と、
前記反射強度画像を、該反射強度画像の各画素の輝度に基づいて複数の領域に分割する分割部と、
前記複数の領域のうち、抽出された前記候補領域の輪郭線と形状が類似する抽出領域と、該候補領域とを統合した領域を、前記検出対象の物体を表す領域として検出する統合部と、
を含む物体検出装置。
(Appendix 13)
An acquisition unit that acquires a distance image representing the distance to the object with luminance corresponding to the distance, and a reflection intensity image representing the intensity of reflected light from the object with luminance;
By approximating the brightness histogram of the distance image with a function similar to the shape of the brightness histogram of the operation target operated by the detection target object in the distance image, the brightness histogram of the operation target is estimated. An estimation unit;
An extraction unit that extracts a candidate area representing the detection target object from the distance image using a distance to the operation target determined based on the estimated luminance histogram of the operation target;
A dividing unit that divides the reflection intensity image into a plurality of regions based on the luminance of each pixel of the reflection intensity image;
An integration unit that detects an extracted region similar in shape to the contour line of the extracted candidate region, and a region obtained by integrating the candidate regions, as a region representing the detection target object, among the plurality of regions;
An object detection apparatus including:

(付記14)
前記関数を、前記距離画像の輝度ヒストグラムにおいて、輝度の変化率が所定値以下となる基準輝度をピークとする左右対称な関数とする付記13記載の物体検出装置。
(Appendix 14)
The object detection device according to supplementary note 13, wherein the function is a left-right symmetric function having a peak at a reference luminance at which a luminance change rate is a predetermined value or less in the luminance histogram of the distance image.

(付記15)
前記推定部は、前記関数を前記距離画像の輝度ヒストグラムに近似させる際に、前記基準輝度に対応する距離以上の距離に対応する輝度の部分を近似させる付記14記載の物体検出装置。
(Appendix 15)
15. The object detection apparatus according to appendix 14, wherein the estimation unit approximates a luminance portion corresponding to a distance equal to or greater than a distance corresponding to the reference luminance when the function is approximated to a luminance histogram of the distance image.

(付記16)
前記関数をガウス関数とする付記14又は付記15記載の物体検出装置。
(Appendix 16)
The object detection apparatus according to appendix 14 or appendix 15, wherein the function is a Gaussian function.

(付記17)
前記取得部は、前記距離画像として、時系列に複数のフレームを順次取得し、
前記推定部は、前フレームにおいて、前記関数と前記距離画像の輝度ヒストグラムとの誤差が所定値以下であった場合、現フレームにおける前記基準輝度を、前フレームで探索された基準輝度を中心とする所定範囲から探索する
付記14〜付記16のいずれか1項記載の物体検出装置。
(Appendix 17)
The acquisition unit sequentially acquires a plurality of frames in time series as the distance image,
When the error between the function and the brightness histogram of the distance image is less than or equal to a predetermined value in the previous frame, the estimation unit centers on the reference brightness searched in the previous frame. The object detection device according to any one of Supplementary Note 14 to Supplementary Note 16, wherein search is performed from a predetermined range.

(付記18)
前記取得部は、前記距離画像として、時系列に複数のフレームを順次取得し、
前記推定部は、前フレームにおいて、前記関数と前記距離画像の輝度ヒストグラムとの誤差が所定値以下であった場合、前記前フレームの関数と、現フレームの距離画像の輝度ヒストグラムとの誤差が所定値以下か否かを判定し、該誤差が所定値以下の場合は、前記前フレームの関数を、前記操作対象物の現フレームの輝度ヒストグラムとして推定する
付記14〜付記17のいずれか1項記載の物体検出装置。
(Appendix 18)
The acquisition unit sequentially acquires a plurality of frames in time series as the distance image,
When the error between the function and the brightness histogram of the distance image is equal to or less than a predetermined value in the previous frame, the estimation unit determines that the error between the function of the previous frame and the brightness histogram of the distance image of the current frame is predetermined. It is determined whether or not the value is equal to or less than a value, and when the error is equal to or less than a predetermined value, the function of the previous frame is estimated as a luminance histogram of the current frame of the operation target. Object detection device.

(付記19)
コンピュータに、
物体との距離を該距離に応じた輝度で表す距離画像、及び物体からの反射光の強度を輝度で表す反射強度画像を取得し、
前記距離画像の輝度ヒストグラムに対して、該距離画像における検出対象の物体により操作される操作対象物の輝度ヒストグラムの形状に類似する関数を近似させることにより、前記操作対象物の輝度ヒストグラムを推定し、
推定された前記操作対象物の輝度ヒストグラムに基づいて定まる前記操作対象物までの距離を用いて、前記距離画像から前記検出対象の物体を表す候補領域を抽出し、
前記反射強度画像を、該反射強度画像の各画素の輝度に基づいて複数の領域に分割し、
前記複数の領域のうち、抽出された前記候補領域の輪郭線と形状が類似する抽出領域と、該候補領域とを統合した領域を、前記検出対象の物体を表す領域として検出する
ことを含む処理を実行させる物体検出プログラム。
(Appendix 19)
On the computer,
Obtain a distance image that represents the distance to the object with the luminance according to the distance, and a reflection intensity image that represents the intensity of the reflected light from the object with the luminance,
By approximating the brightness histogram of the distance image with a function similar to the shape of the brightness histogram of the operation target operated by the object to be detected in the distance image, the brightness histogram of the operation target is estimated. ,
Using the distance to the operation target determined based on the estimated brightness histogram of the operation target, extract a candidate area representing the detection target object from the distance image;
Dividing the reflection intensity image into a plurality of regions based on the luminance of each pixel of the reflection intensity image;
A process including detecting an extracted area whose shape is similar to the contour line of the extracted candidate area, and an area obtained by integrating the candidate areas, as an area representing the detection target object, among the plurality of areas. An object detection program that executes

(付記20)
前記関数を、前記距離画像の輝度ヒストグラムにおいて、輝度の変化率が所定値以下となる基準輝度をピークとする左右対称な関数とする付記19記載の物体検出プログラム。
(Appendix 20)
Item 20. The object detection program according to Item 19, wherein the function is a left-right symmetric function having a peak at a reference luminance at which a luminance change rate is a predetermined value or less in the luminance histogram of the distance image.

(付記21)
前記関数を前記距離画像の輝度ヒストグラムに近似させる際に、前記基準輝度に対応する距離以上の距離に対応する輝度の部分を近似させる付記20記載の物体検出プログラム。
(Appendix 21)
The object detection program according to appendix 20, wherein when the function is approximated to a luminance histogram of the distance image, a luminance portion corresponding to a distance greater than or equal to a distance corresponding to the reference luminance is approximated.

(付記22)
前記関数をガウス関数とする付記20又は付記21記載の物体検出プログラム。
(Appendix 22)
Item 22. The object detection program according to appendix 20 or appendix 21, wherein the function is a Gaussian function.

(付記23)
前記距離画像として、時系列に複数のフレームを順次取得し、
前フレームにおいて、前記関数と前記距離画像の輝度ヒストグラムとの誤差が所定値以下であった場合、現フレームにおける前記基準輝度を、前フレームで探索された基準輝度を中心とする所定範囲から探索する
付記20〜付記22のいずれか1項記載の物体検出プログラム。
(Appendix 23)
As the distance image, a plurality of frames are sequentially acquired in time series,
If an error between the function and the brightness histogram of the distance image is less than or equal to a predetermined value in the previous frame, the reference brightness in the current frame is searched from a predetermined range centered on the reference brightness searched in the previous frame. The object detection program according to any one of appendix 20 to appendix 22.

(付記24)
前記距離画像として、時系列に複数のフレームを順次取得し、
前フレームにおいて、前記関数と前記距離画像の輝度ヒストグラムとの誤差が所定値以下であった場合、前記前フレームの関数と、現フレームの距離画像の輝度ヒストグラムとの誤差が所定値以下か否かを判定し、該誤差が所定値以下の場合は、前記前フレームの関数を、前記操作対象物の現フレームの輝度ヒストグラムとして推定する
付記20〜付記23のいずれか1項記載の物体検出プログラム。
(Appendix 24)
As the distance image, a plurality of frames are sequentially acquired in time series,
In the previous frame, if the error between the function and the brightness histogram of the distance image is less than or equal to a predetermined value, whether or not the error between the function of the previous frame and the brightness histogram of the distance image of the current frame is less than or equal to a predetermined value The object detection program according to any one of appendices 20 to 23, wherein the function of the previous frame is estimated as a luminance histogram of the current frame of the operation target.

(付記25)
コンピュータに、
物体との距離を該距離に応じた輝度で表す距離画像、及び物体からの反射光の強度を輝度で表す反射強度画像を取得し、
前記距離画像の輝度ヒストグラムに対して、該距離画像における検出対象の物体により操作される操作対象物の輝度ヒストグラムの形状に類似する関数を近似させることにより、前記操作対象物の輝度ヒストグラムを推定し、
推定された前記操作対象物の輝度ヒストグラムに基づいて定まる前記操作対象物までの距離を用いて、前記距離画像から前記検出対象の物体を表す候補領域を抽出し、
前記反射強度画像を、該反射強度画像の各画素の輝度に基づいて複数の領域に分割し、
前記複数の領域のうち、抽出された前記候補領域の輪郭線と形状が類似する抽出領域と、該候補領域とを統合した領域を、前記検出対象の物体を表す領域として検出する
ことを含む処理を実行させる物体検出プログラムを記憶した記憶媒体。
(Appendix 25)
On the computer,
Obtain a distance image that represents the distance to the object with the luminance according to the distance, and a reflection intensity image that represents the intensity of the reflected light from the object with the luminance,
By approximating the brightness histogram of the distance image with a function similar to the shape of the brightness histogram of the operation target operated by the object to be detected in the distance image, the brightness histogram of the operation target is estimated. ,
Using the distance to the operation target determined based on the estimated brightness histogram of the operation target, extract a candidate area representing the detection target object from the distance image;
Dividing the reflection intensity image into a plurality of regions based on the luminance of each pixel of the reflection intensity image;
A process including detecting an extracted area whose shape is similar to the contour line of the extracted candidate area, and an area obtained by integrating the candidate areas, as an area representing the detection target object, among the plurality of areas. The storage medium which memorize | stored the object detection program which performs.

1、1A、1B 物体検出システム
3 距離画像
4 反射強度画像
7 抽出候補領域
10 撮影装置
20、20A、20B 物体検出装置
21 取得部
22、22A、22B 設定部
23 抽出部
24 分割部
25 統合部
26 判定部
30 表示装置
80 手指候補領域
84 手指領域
98 タッチ操作対象物
100 コンピュータ
102 CPU
104 メモリ
106 記憶部
112 入力装置
116 記録媒体
120、120A、120B 物体検出プログラム
1, 1A, 1B Object detection system 3 Distance image 4 Reflection intensity image 7 Extraction candidate area 10 Imaging device 20, 20A, 20B Object detection device 21 Acquisition unit 22, 22A, 22B Setting unit 23 Extraction unit 24 Division unit 25 Integration unit 26 Determination unit 30 Display device 80 Finger candidate area 84 Finger area 98 Touch operation object 100 Computer 102 CPU
104 Memory 106 Storage unit 112 Input device 116 Recording medium 120, 120A, 120B Object detection program

Claims (8)

コンピュータに、
物体との距離を該距離に応じた輝度で表す距離画像、及び物体からの反射光の強度を輝度で表す反射強度画像を取得し、
前記距離画像の輝度ヒストグラムに対して、該距離画像における検出対象の物体により操作される操作対象物の輝度ヒストグラムの形状に類似する関数を近似させることにより、前記操作対象物の輝度ヒストグラムを推定し、
推定された前記操作対象物の輝度ヒストグラムに基づいて定まる前記操作対象物までの距離を用いて、前記距離画像から前記検出対象の物体を表す候補領域を抽出し、
前記反射強度画像を、該反射強度画像の各画素の輝度に基づいて複数の領域に分割し、
前記複数の領域のうち、抽出された前記候補領域の輪郭線と形状が類似する抽出領域と、該候補領域とを統合した領域を、前記検出対象の物体を表す領域として検出する
ことを含む処理を実行させる物体検出方法。
On the computer,
Obtain a distance image that represents the distance to the object with the luminance according to the distance, and a reflection intensity image that represents the intensity of the reflected light from the object with the luminance,
By approximating the brightness histogram of the distance image with a function similar to the shape of the brightness histogram of the operation target operated by the object to be detected in the distance image, the brightness histogram of the operation target is estimated. ,
Using the distance to the operation target determined based on the estimated brightness histogram of the operation target, extract a candidate area representing the detection target object from the distance image;
Dividing the reflection intensity image into a plurality of regions based on the luminance of each pixel of the reflection intensity image;
A process including detecting an extracted area whose shape is similar to the contour line of the extracted candidate area, and an area obtained by integrating the candidate areas, as an area representing the detection target object, among the plurality of areas. The object detection method which performs.
前記関数を、前記距離画像の輝度ヒストグラムにおいて、輝度の変化率が所定値以下となる基準輝度をピークとする左右対称な関数とする請求項1記載の物体検出方法。   The object detection method according to claim 1, wherein the function is a left-right symmetric function having a peak at a reference luminance at which a luminance change rate is a predetermined value or less in a luminance histogram of the distance image. 前記関数を前記距離画像の輝度ヒストグラムに近似させる際に、前記基準輝度に対応する距離以上の距離に対応する輝度の部分を近似させる請求項2記載の物体検出方法。   3. The object detection method according to claim 2, wherein when approximating the function to a luminance histogram of the distance image, an object portion having a luminance corresponding to a distance equal to or greater than a distance corresponding to the reference luminance is approximated. 前記関数をガウス関数とする請求項2又は請求項3記載の物体検出方法。   The object detection method according to claim 2, wherein the function is a Gaussian function. 前記距離画像として、時系列に複数のフレームを順次取得し、
前フレームにおいて、前記関数と前記距離画像の輝度ヒストグラムとの誤差が所定値以下であった場合、現フレームにおける前記基準輝度を、前フレームで探索された基準輝度を中心とする所定範囲から探索する
請求項2〜請求項4のいずれか1項記載の物体検出方法。
As the distance image, a plurality of frames are sequentially acquired in time series,
If an error between the function and the brightness histogram of the distance image is less than or equal to a predetermined value in the previous frame, the reference brightness in the current frame is searched from a predetermined range centered on the reference brightness searched in the previous frame. The object detection method of any one of Claims 2-4.
前記距離画像として、時系列に複数のフレームを順次取得し、
前フレームにおいて、前記関数と前記距離画像の輝度ヒストグラムとの誤差が所定値以下であった場合、前記前フレームの関数と、現フレームの距離画像の輝度ヒストグラムとの誤差が所定値以下か否かを判定し、該誤差が所定値以下の場合は、前記前フレームの関数を、前記操作対象物の現フレームの輝度ヒストグラムとして推定する
請求項2〜請求項5のいずれか1項記載の物体検出方法。
As the distance image, a plurality of frames are sequentially acquired in time series,
In the previous frame, if the error between the function and the brightness histogram of the distance image is less than or equal to a predetermined value, whether or not the error between the function of the previous frame and the brightness histogram of the distance image of the current frame is less than or equal to a predetermined value The object detection according to any one of claims 2 to 5, wherein when the error is equal to or less than a predetermined value, the function of the previous frame is estimated as a luminance histogram of the current frame of the operation target. Method.
物体との距離を該距離に応じた輝度で表す距離画像、及び物体からの反射光の強度を輝度で表す反射強度画像を取得する取得部と、
前記距離画像の輝度ヒストグラムに対して、該距離画像における検出対象の物体により操作される操作対象物の輝度ヒストグラムの形状に類似する関数を近似させることにより、前記操作対象物の輝度ヒストグラムを推定する推定部と、
推定された前記操作対象物の輝度ヒストグラムに基づいて定まる前記操作対象物までの距離を用いて、前記距離画像から前記検出対象の物体を表す候補領域を抽出する抽出部と、
前記反射強度画像を、該反射強度画像の各画素の輝度に基づいて複数の領域に分割する分割部と、
前記複数の領域のうち、抽出された前記候補領域の輪郭線と形状が類似する抽出領域と、該候補領域とを統合した領域を、前記検出対象の物体を表す領域として検出する統合部と、
を含む物体検出装置。
An acquisition unit that acquires a distance image representing the distance to the object with luminance corresponding to the distance, and a reflection intensity image representing the intensity of reflected light from the object with luminance;
By approximating the brightness histogram of the distance image with a function similar to the shape of the brightness histogram of the operation target operated by the detection target object in the distance image, the brightness histogram of the operation target is estimated. An estimation unit;
An extraction unit that extracts a candidate area representing the detection target object from the distance image using a distance to the operation target determined based on the estimated luminance histogram of the operation target;
A dividing unit that divides the reflection intensity image into a plurality of regions based on the luminance of each pixel of the reflection intensity image;
An integration unit that detects an extracted region similar in shape to the contour line of the extracted candidate region, and a region obtained by integrating the candidate regions, as a region representing the detection target object, among the plurality of regions;
An object detection apparatus including:
コンピュータに、
物体との距離を該距離に応じた輝度で表す距離画像、及び物体からの反射光の強度を輝度で表す反射強度画像を取得し、
前記距離画像の輝度ヒストグラムに対して、該距離画像における検出対象の物体により操作される操作対象物の輝度ヒストグラムの形状に類似する関数を近似させることにより、前記操作対象物の輝度ヒストグラムを推定し、
推定された前記操作対象物の輝度ヒストグラムに基づいて定まる前記操作対象物までの距離を用いて、前記距離画像から前記検出対象の物体を表す候補領域を抽出し、
前記反射強度画像を、該反射強度画像の各画素の輝度に基づいて複数の領域に分割し、
前記複数の領域のうち、抽出された前記候補領域の輪郭線と形状が類似する抽出領域と、該候補領域とを統合した領域を、前記検出対象の物体を表す領域として検出する
ことを含む処理を実行させる物体検出プログラム。
On the computer,
Obtain a distance image that represents the distance to the object with the luminance according to the distance, and a reflection intensity image that represents the intensity of the reflected light from the object with the luminance,
By approximating the brightness histogram of the distance image with a function similar to the shape of the brightness histogram of the operation target operated by the object to be detected in the distance image, the brightness histogram of the operation target is estimated. ,
Using the distance to the operation target determined based on the estimated brightness histogram of the operation target, extract a candidate area representing the detection target object from the distance image;
Dividing the reflection intensity image into a plurality of regions based on the luminance of each pixel of the reflection intensity image;
A process including detecting an extracted area whose shape is similar to the contour line of the extracted candidate area, and an area obtained by integrating the candidate areas, as an area representing the detection target object, among the plurality of areas. An object detection program that executes
JP2015254421A 2015-12-25 2015-12-25 Object detection method, device and program Pending JP2017117341A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015254421A JP2017117341A (en) 2015-12-25 2015-12-25 Object detection method, device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015254421A JP2017117341A (en) 2015-12-25 2015-12-25 Object detection method, device and program

Publications (1)

Publication Number Publication Date
JP2017117341A true JP2017117341A (en) 2017-06-29

Family

ID=59234326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015254421A Pending JP2017117341A (en) 2015-12-25 2015-12-25 Object detection method, device and program

Country Status (1)

Country Link
JP (1) JP2017117341A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110651300A (en) * 2017-07-14 2020-01-03 欧姆龙株式会社 Object detection device, object detection method, and program
CN111488776A (en) * 2019-01-25 2020-08-04 北京地平线机器人技术研发有限公司 Object detection method, object detection device and electronic equipment
JP2020128925A (en) * 2019-02-08 2020-08-27 コベルコ建機株式会社 Obstacle detection device for construction machine
WO2020255226A1 (en) * 2019-06-17 2020-12-24 日本電信電話株式会社 Object-likeness estimation device, object-likeness estimation method, and object-likeness estimation program
CN112749714A (en) * 2019-10-29 2021-05-04 中国科学院长春光学精密机械与物理研究所 Method for detecting polymorphic dark and weak small target in single-frame infrared image
WO2021225044A1 (en) * 2020-05-08 2021-11-11 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method based on user input operation, and computer program for executing said method
CN114821677A (en) * 2022-06-29 2022-07-29 珠海视熙科技有限公司 Human body detection method and device, storage medium and passenger flow statistics camera
JP7496016B2 (en) 2022-05-25 2024-06-05 ジック アーゲー Method and device for acquiring master data of an object

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110651300A (en) * 2017-07-14 2020-01-03 欧姆龙株式会社 Object detection device, object detection method, and program
CN110651300B (en) * 2017-07-14 2023-09-12 欧姆龙株式会社 Object detection device, object detection method, and program
CN111488776A (en) * 2019-01-25 2020-08-04 北京地平线机器人技术研发有限公司 Object detection method, object detection device and electronic equipment
CN111488776B (en) * 2019-01-25 2023-08-08 北京地平线机器人技术研发有限公司 Object detection method, object detection device and electronic equipment
JP2020128925A (en) * 2019-02-08 2020-08-27 コベルコ建機株式会社 Obstacle detection device for construction machine
JP7059956B2 (en) 2019-02-08 2022-04-26 コベルコ建機株式会社 Obstacle detector for construction machinery
WO2020255226A1 (en) * 2019-06-17 2020-12-24 日本電信電話株式会社 Object-likeness estimation device, object-likeness estimation method, and object-likeness estimation program
CN112749714A (en) * 2019-10-29 2021-05-04 中国科学院长春光学精密机械与物理研究所 Method for detecting polymorphic dark and weak small target in single-frame infrared image
WO2021225044A1 (en) * 2020-05-08 2021-11-11 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing method based on user input operation, and computer program for executing said method
JP7496016B2 (en) 2022-05-25 2024-06-05 ジック アーゲー Method and device for acquiring master data of an object
CN114821677A (en) * 2022-06-29 2022-07-29 珠海视熙科技有限公司 Human body detection method and device, storage medium and passenger flow statistics camera

Similar Documents

Publication Publication Date Title
JP2017117341A (en) Object detection method, device and program
KR101514169B1 (en) Information processing device, information processing method, and recording medium
US10082879B2 (en) Head mounted display device and control method
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US8705868B2 (en) Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
JP5986656B2 (en) Taekwondomeuse recognition and ascending screening device based on human skeleton using depth camera and method
EP3076334A1 (en) Image analyzing apparatus and image analyzing method
JP5077956B2 (en) Information terminal equipment
US9672628B2 (en) Method for partitioning area, and inspection device
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
US9836130B2 (en) Operation input device, operation input method, and program
KR20150055543A (en) Gesture recognition device and gesture recognition device control method
JP2016091457A (en) Input device, fingertip-position detection method, and computer program for fingertip-position detection
JP6066093B2 (en) Finger shape estimation device, finger shape estimation method, and finger shape estimation program
JP2014165660A (en) Method of input with virtual keyboard, program, storage medium, and virtual keyboard system
JP2017199289A (en) Information processor, control method thereof, program, and storage medium
JP6604271B2 (en) Gaze position detection device, gaze position detection method, and computer program for gaze position detection
JP6452369B2 (en) Information processing apparatus, control method therefor, program, and storage medium
US9690430B2 (en) Touch detection apparatus, touch detection method and recording medium
KR101745601B1 (en) method for finger counting by using image processing and apparatus adopting the method
KR101404018B1 (en) Device for recognizing the hand gesture and method thereof
KR101167784B1 (en) A method for recognizing pointers and a method for recognizing control commands, based on finger motions on the back of the portable information terminal
JP2017068437A (en) Body detection apparatus, body detection method, and body detection program
JP5464661B2 (en) Information terminal equipment
JP2007334810A (en) Image area tracking device and method therefor