JP2019087022A - Solid object detection device, its control method, and program - Google Patents

Solid object detection device, its control method, and program Download PDF

Info

Publication number
JP2019087022A
JP2019087022A JP2017214756A JP2017214756A JP2019087022A JP 2019087022 A JP2019087022 A JP 2019087022A JP 2017214756 A JP2017214756 A JP 2017214756A JP 2017214756 A JP2017214756 A JP 2017214756A JP 2019087022 A JP2019087022 A JP 2019087022A
Authority
JP
Japan
Prior art keywords
dimensional object
measurement data
distance measurement
plane
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017214756A
Other languages
Japanese (ja)
Inventor
裕介 村松
Yusuke Murakami
裕介 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017214756A priority Critical patent/JP2019087022A/en
Publication of JP2019087022A publication Critical patent/JP2019087022A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a solid object detection device capable of accurately determining whether or not a solid object is placed on a flat surface.SOLUTION: A solid object detection device 100 generates a distance image containing distance measurement data from the solid object detection device 100 to a subject, and generates first reference distance measurement data on the basis of the distance measurement data, and detects a solid object on a flat surface 101 on the basis of a result obtained by comparing the distance measurement data with the first reference distance measurement data.SELECTED DRAWING: Figure 4

Description

本発明は、立体物検知装置及びその制御方法、並びにプログラムに関する。   The present invention relates to a three-dimensional object detection device, a control method therefor, and a program.

被写体までの距離を測定する距離画像センサを備える立体物検知装置が知られている。立体物検知装置は、距離画像センサを用いて机等の平面を撮像し、撮像して得られた画像に基づいて平面上に立体物が置かれているか否かを判別する判別処理を行う(例えば、特許文献1参照)。立体物検知装置では、立体物検知装置の起動時等に予め撮像された画像から得られた上記平面までの測距結果に基づいて基準距離が設定される。立体物検知装置は、例えば、撮像して得られた画像において基準距離より近い測距結果となる被写体を立体物として検知し、検知結果に基づいて平面上に立体物が置かれていると判別する。   There is known a three-dimensional object detection device provided with a distance image sensor that measures the distance to a subject. The three-dimensional object detection apparatus performs a determination process of capturing an image of a plane such as a desk using a distance image sensor and determining whether a three-dimensional object is placed on the plane based on an image obtained by imaging ( For example, refer to Patent Document 1). In the three-dimensional object detection device, a reference distance is set based on a result of ranging to the plane obtained from an image captured in advance when the three-dimensional object detection device is activated or the like. The three-dimensional object detection apparatus detects, for example, an object resulting in a distance measurement result closer than the reference distance in an image obtained by imaging as a three-dimensional object, and determines that a three-dimensional object is placed on a plane based on the detection result Do.

特開2016−128970号公報JP, 2016-128970, A

しかしながら、従来の立体物検知装置では、平面上に立体物が置かれているか否かを正確に判別することができない場合がある。立体物検知装置では、該立体物検知装置の起動時の測距結果に基づいて基準距離が設定されるが、距離画像センサの性能上、距離画像センサから出力される測距結果は測距タイミングに応じて変動することがある。このため、従来の立体物検知装置は、判別処理を実行するタイミングに適した基準距離を設定することができず、平面上に立体物が置かれているか否かを正確に判別することができない。   However, in the conventional three-dimensional object detection apparatus, it may not be possible to accurately determine whether or not a three-dimensional object is placed on a plane. In the three-dimensional object detection device, the reference distance is set based on the distance measurement result at the time of activation of the three-dimensional object detection device. However, in view of the performance of the distance image sensor, the distance measurement result output from the distance image sensor is the distance measurement timing It may change depending on the situation. For this reason, the conventional three-dimensional object detection device can not set the reference distance suitable for the timing at which the determination process is performed, and can not accurately determine whether or not the three-dimensional object is placed on the plane. .

本発明の目的は、平面上に立体物が置かれているか否かを正確に判別することができる立体物検知装置及びその制御方法、並びにプログラムを提供することにある。   An object of the present invention is to provide a three-dimensional object detection device capable of accurately determining whether a three-dimensional object is placed on a plane, a control method thereof, and a program.

上記目的を達成するために、本発明の立体物検知装置は、平面を含む被写体を撮像して前記平面上の立体物を検知する立体物検知装置であって、前記立体物検知装置から前記被写体までの測距データを含む距離画像を取得する距離画像取得手段と、前記測距データに基づいて前記距離画像の基準測距データを生成する基準測距データ生成手段と、前記測距データ及び前記基準測距データを比較した結果に基づいて前記平面上の立体物を検知する検知手段とを備えることを特徴とする。   In order to achieve the above object, a three-dimensional object detection device according to the present invention is a three-dimensional object detection device which picks up an object including a plane and detects a three-dimensional object on the plane, the object from the three-dimensional object detection device Distance image acquisition means for acquiring a distance image including distance measurement data up to, reference distance measurement data generation means for generating reference distance measurement data of the distance image based on the distance measurement data, the distance measurement data, and And detection means for detecting a three-dimensional object on the plane based on a result of comparison of reference distance measurement data.

本発明によれば、平面上に立体物が置かれているか否かを正確に判別することができる。   According to the present invention, it can be accurately determined whether or not a three-dimensional object is placed on a plane.

本発明の実施の形態に係る立体物検知装置の外観図である。It is an outline view of a solid thing detection device concerning an embodiment of the invention. 図1の立体物検知装置のハードウェア構成を概略的に示すブロック図である。It is a block diagram which shows roughly the hardware constitutions of the three-dimensional object detection apparatus of FIG. 図1の立体物検知装置の機能構成を概略的に示すブロック図である。It is a block diagram which shows roughly the function structure of the three-dimensional object detection apparatus of FIG. 図1の立体物検知装置によって実行されるユーザ操作検知処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the user operation detection process performed by the solid-object detection apparatus of FIG. 図1の立体物検知装置によって生成される距離画像を説明するためのである。It is for demonstrating the distance image produced | generated by the solid-object detection apparatus of FIG. 図4のステップS105の判定を説明するための図である。It is a figure for demonstrating determination of FIG.4 S105. 図4のステップS106の判定を説明するための図である。It is a figure for demonstrating determination of FIG.4 S106. 図4のステップS108の処理を説明するための図である。It is a figure for demonstrating the process of FIG.4 S108. 図3の立体物検知装置の機能構成の変形例を示すブロック図である。It is a block diagram which shows the modification of the function structure of the three-dimensional object detection apparatus of FIG. 図4のユーザ操作検知処理の変形例の手順を示すフローチャートである。It is a flowchart which shows the procedure of the modification of the user operation detection process of FIG. 図10の処理を説明するための図である。It is a figure for demonstrating the process of FIG.

以下、本発明の実施の形態を図面を参照しながら詳述する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態に係る立体物検知装置100の外観図である。なお、本実施の形態では、3次元空間内の位置情報を定義する世界座標系が用いられ、図1のx軸、y軸、z軸は世界座標系の座標軸を示す。   FIG. 1 is an external view of a three-dimensional object detection device 100 according to an embodiment of the present invention. In the present embodiment, a world coordinate system that defines position information in a three-dimensional space is used, and the x axis, the y axis, and the z axis in FIG. 1 indicate the coordinate axes of the world coordinate system.

図1において、立体物検知装置100は距離画像センサ105及びプロジェクタ106を備える。   In FIG. 1, the three-dimensional object detection device 100 includes a distance image sensor 105 and a projector 106.

立体物検知装置100はプロジェクタ106から平面101に画像、例えば、UI画像102を投影する。ユーザは自身の手103によって平面101に投影されたUI画像102に対してタップ操作等のユーザ操作を行う。タップ操作は、ユーザがUI画像102における各アイテム、例えば、アイテム104に指先を接触させる、若しくは近接させる操作(以下、「タッチ」という。)を行い、その後、タッチしたアイテム104から指先を離す操作である。ユーザはタップ操作を行ってUI画像102における各アイテムを選択可能である。本実施の形態では、ユーザがタッチした位置を検知するタッチセンサ等を平面101に設けず、立体物検知装置100は距離画像センサ105から取得した距離画像に基づいて平面101上の立体物である手103を検知し、また、ユーザ操作を認識する。距離画像は複数の画素で構成され、各画素には距離画像センサ105のレンズ中心から被写体までの測距データが設定される。ユーザがアイテム104に対してタップ操作を行った場合、立体物検知装置100はアイテム104の色を変化させる。また、ユーザが画像切り替えを指示するアイテム(不図示)に対してタップ操作を行った場合、立体物検知装置100は平面101に投影されるUI画像102を他の画像に切り替える。   The three-dimensional object detection apparatus 100 projects an image, for example, a UI image 102 from the projector 106 onto the plane 101. The user performs a user operation such as a tap operation on the UI image 102 projected on the plane 101 by his / her hand 103. In the tap operation, the user performs an operation (hereinafter, referred to as "touch") to bring a fingertip into contact with or approach an item in the UI image 102, for example, the item 104, and then an operation to release the fingertip from the touched item 104 It is. The user can select each item in the UI image 102 by performing a tap operation. In the present embodiment, a touch sensor or the like for detecting the position touched by the user is not provided on the plane 101, and the three-dimensional object detection device 100 is a three-dimensional object on the plane 101 based on the distance image acquired from the distance image sensor 105. The hand 103 is detected, and user operation is recognized. The distance image is composed of a plurality of pixels, and distance measurement data from the lens center of the distance image sensor 105 to the subject is set to each pixel. When the user taps on the item 104, the three-dimensional object detection device 100 changes the color of the item 104. In addition, when the user performs a tap operation on an item (not shown) for instructing image switching, the three-dimensional object detection device 100 switches the UI image 102 projected on the plane 101 to another image.

距離画像センサ105は、平面101上を撮像可能な位置、例えば、平面101の上方に設置される。なお、本実施の形態では、距離画像センサ105は平面101を上方から眺めた画像が得られる位置に設置されていれば良い。例えば、平面101の上方にミラー(不図示)を設置し、ミラーを介して平面101上を撮像可能な位置に距離画像センサ105を設置しても良い。距離画像センサ105は、該距離画像センサ105から出力したレーザ光が被写体に反射して戻ってくるまでの時間差(位相差)に基づいて上記被写体までの距離を計測するTOF方式のセンサであり、予め設定された所定の間隔で平面101を撮像する。距離画像センサ105は、撮像した画像に基づいて距離画像センサ105から被写体までの距離を測定し、測距データを含む距離画像を生成し、上記距離画像を立体物検知装置100に出力する。距離画像センサ105は、距離画像を生成するための撮像を行う際に、環境光や平面101上の投影への影響が小さい赤外光を用いる方式、又は視差方式等を利用する。   The distance image sensor 105 is installed at a position at which imaging on the plane 101 can be performed, for example, above the plane 101. In the present embodiment, the distance image sensor 105 may be installed at a position where an image of the plane 101 viewed from above can be obtained. For example, a mirror (not shown) may be installed above the plane 101, and the distance image sensor 105 may be installed at a position at which the plane 101 can be imaged via the mirror. The distance image sensor 105 is a TOF sensor that measures the distance to the subject based on the time difference (phase difference) until the laser light output from the distance image sensor 105 is reflected by the subject and returns. The plane 101 is imaged at predetermined intervals set in advance. The distance image sensor 105 measures the distance from the distance image sensor 105 to the subject based on the captured image, generates a distance image including distance measurement data, and outputs the distance image to the three-dimensional object detection device 100. The distance image sensor 105 uses an ambient light or a method using infrared light with a small influence on the projection on the plane 101, a parallax method, or the like when performing imaging for generating a distance image.

プロジェクタ106は平面101にUI画像102等を投影可能な位置、例えば、平面101の上方に設置される。なお、本実施の形態では、プロジェクタ106が平面101の上方以外の位置に設置されても良い。平面101の上方以外の位置に設置されたプロジェクタ106はミラー(不図示)等を利用して投影光を反射させて平面101上にUI画像102等を投影する。   The projector 106 is installed at a position where the UI image 102 and the like can be projected on the plane 101, for example, above the plane 101. In the present embodiment, projector 106 may be installed at a position other than above plane 101. The projector 106 installed at a position other than above the plane 101 reflects projection light using a mirror (not shown) or the like to project the UI image 102 or the like on the plane 101.

図2は、図1の立体物検知装置100のハードウェア構成を概略的に示すブロック図である。   FIG. 2 is a block diagram schematically showing the hardware configuration of the three-dimensional object detection device 100 of FIG.

図2において、立体物検知装置100は、図1の距離画像センサ105及びプロジェクタ106の他に、制御部200を備える。制御部200は距離画像センサ105及びプロジェクタ106と接続されている。また、制御部200は、CPU201、ROM202、RAM203、及び記憶装置204を備える。CPU201、ROM202、RAM203、及び記憶装置204はシステムバス205を介して互いに接続されている。   In FIG. 2, the three-dimensional object detection device 100 includes a control unit 200 in addition to the distance image sensor 105 and the projector 106 in FIG. 1. The control unit 200 is connected to the distance image sensor 105 and the projector 106. The control unit 200 also includes a CPU 201, a ROM 202, a RAM 203, and a storage device 204. The CPU 201, the ROM 202, the RAM 203, and the storage device 204 are connected to one another via a system bus 205.

制御部200は立体物検知装置100全体を制御する。CPU201はROM202や記憶装置204に格納されたOSやプログラムを実行して、各処理の演算や論理判定等を行う。ROM202はCPU201によって実行されるプログラムや各データを格納する。RAM203はCPU201の作業領域として、また、各データの一時格納領域として用いられる。記憶装置204は、ハードディスクドライブやUSBメモリ等の外部記憶装置であり、プログラムやデータを格納する。   The control unit 200 controls the entire three-dimensional object detection device 100. The CPU 201 executes an OS or a program stored in the ROM 202 or the storage device 204 to perform calculation of each processing, logical determination, and the like. The ROM 202 stores programs executed by the CPU 201 and respective data. The RAM 203 is used as a work area of the CPU 201 and as a temporary storage area of each data. The storage device 204 is an external storage device such as a hard disk drive or a USB memory, and stores programs and data.

図3は、図1の立体物検知装置100の機能構成を概略的に示すブロック図である。   FIG. 3 is a block diagram schematically showing a functional configuration of the three-dimensional object detection device 100 of FIG.

図3において、立体物検知装置100は、距離画像取得部301、分割部302、近似平面計算部303、補間部304、基準画像取得部305、指先検出部306、座標変換部307、認識部308、及び表示制御部309の各機能部を備える。上述した各機能部の処理は、CPU201がROM202や記憶装置204に格納されたプログラムを実行することによって行われる。   In FIG. 3, the three-dimensional object detection device 100 includes a distance image acquisition unit 301, a division unit 302, an approximate plane calculation unit 303, an interpolation unit 304, a reference image acquisition unit 305, a fingertip detection unit 306, a coordinate conversion unit 307, and a recognition unit 308. , And each functional unit of the display control unit 309. The processing of each functional unit described above is performed by the CPU 201 executing a program stored in the ROM 202 or the storage device 204.

距離画像取得部301は予め設定された所定の間隔で距離画像センサ105から距離画像を取得し、取得した距離画像をRAM203に記憶する。分割部302は距離画像を所定の大きさの複数の分割領域に分割する。近似平面計算部303は距離画像に含まれる測距データに基づいて第1の基準測距データを分割領域毎に生成する。第1の基準測距データは、各分割領域の測距データを近似したデータであり、立体物の検知処理における基準距離として用いられる。すなわち、第1の基準測距データは上記測距データと同じ測距タイミングの基準測距データである。また、近似平面計算部303は各分割領域における測距データ及び第1の基準測距データの差を算出する。さらに、近似平面計算部303は上記差に基づいて各分割領域が立体物の輪郭部に相当する立体物輪郭領域であるか否かを判定する。近似平面計算部303は立体物輪郭領域であると判定された複数の分割領域で囲まれた領域を立体物領域として特定する。   The distance image acquisition unit 301 acquires a distance image from the distance image sensor 105 at predetermined intervals set in advance, and stores the acquired distance image in the RAM 203. The dividing unit 302 divides the distance image into a plurality of divided areas of a predetermined size. The approximate plane calculation unit 303 generates first reference distance measurement data for each divided area based on distance measurement data included in the distance image. The first reference distance measurement data is data obtained by approximating the distance measurement data of each divided area, and is used as a reference distance in the detection process of a three-dimensional object. That is, the first reference distance measurement data is reference distance measurement data having the same distance measurement timing as the above-described distance measurement data. Further, the approximate plane calculation unit 303 calculates the difference between the distance measurement data and the first reference distance measurement data in each divided area. Furthermore, the approximate plane calculation unit 303 determines whether or not each divided area is a solid object outline area corresponding to the outline of the solid object based on the difference. The approximate plane calculation unit 303 specifies, as a three-dimensional object region, a region surrounded by a plurality of divided regions determined to be three-dimensional object contour regions.

基準画像取得部305は基準画像を取得する。基準画像は平面101に物体等が置かれていない状態の距離画像であり、立体物検知装置100から平面101までの測距値である第2の基準測距データを含む。基準画像は、例えば、工場出荷時に記憶装置204に予め格納され、また、平面101に物体が置かれていない立体物検知装置100の起動時に撮像して得られた画像に基づいて生成される。すなわち、第2の基準測距データは上記測距データと異なる測距タイミングの基準測距データである。   The reference image acquisition unit 305 acquires a reference image. The reference image is a distance image in a state where no object or the like is placed on the plane 101, and includes second reference distance measurement data which is a distance measurement value from the three-dimensional object detection device 100 to the plane 101. The reference image is generated, for example, based on an image obtained by imaging at the time of activation of the three-dimensional object detection apparatus 100 in which the object is not placed in the plane 101 and stored in advance in the storage device 204 at the time of factory shipment. That is, the second reference distance measurement data is reference distance measurement data of distance measurement timing different from the above-described distance measurement data.

補間部304は近似平面計算部303によって特定された立体物領域に対し後述する補間処理を施す。例えば、補間部304は特定された立体物領域のうち、立体物輪郭領域以外の領域を補間する。指先検出部306は補間処理を施した立体物領域(以下、「補間後立体物領域」という。)からユーザの指先位置を特定する。本実施の形態では、補間部304は、例えば、補間後立体物領域のうち距離画像の外周から最も遠い画素の座標を指先位置として特定する。   The interpolation unit 304 performs interpolation processing described later on the three-dimensional object region specified by the approximate plane calculation unit 303. For example, the interpolation unit 304 interpolates a region other than the three-dimensional object contour region among the specified three-dimensional object regions. The fingertip detection unit 306 identifies the position of the user's fingertip from the three-dimensional object region subjected to the interpolation processing (hereinafter, referred to as “interpolated three-dimensional object region”). In the present embodiment, for example, the interpolation unit 304 specifies, as the fingertip position, the coordinates of the pixel farthest from the outer periphery of the distance image in the three-dimensional object region after interpolation.

座標変換部307は上記指先位置を世界座標系に変換する。本実施の形態では、距離画像センサ105のレンズ特性及び世界座標系の並進・回転移動パラメータを用いることにより、距離画像における指先位置の座標を世界座標に変換する。認識部308は変換した指先位置の座標の軌跡に基づいてユーザ操作を認識する。表示制御部309は、ROM202や記憶装置204に記憶された情報を用いて、投影する画像、例えば、UI画像102を生成し、上記UI画像102を平面101に投影する。   The coordinate conversion unit 307 converts the fingertip position into the world coordinate system. In the present embodiment, the coordinates of the fingertip position in the distance image are converted into world coordinates by using the lens characteristics of the distance image sensor 105 and the translation / rotational movement parameters of the world coordinate system. The recognition unit 308 recognizes the user operation based on the locus of coordinates of the converted fingertip position. The display control unit 309 generates an image to be projected, for example, a UI image 102 using information stored in the ROM 202 or the storage device 204, and projects the UI image 102 on the plane 101.

図4は、図1の立体物検知装置によって実行されるユーザ操作検知処理の手順を示すフローチャートである。   FIG. 4 is a flowchart showing a procedure of user operation detection processing executed by the three-dimensional object detection device of FIG.

図4の処理は、CPU201がROM202や記憶装置204に格納されたプログラムを実行することによって行われ、CPU201が距離画像センサ105から距離画像を取得した際に実行される。図4の処理は、距離画像センサ105から距離画像を取得する毎に実行され、距離画像センサ105から距離画像を取得する周期は、距離画像センサ105の撮像映像のフレームレートと一致する。図4の処理では、ユーザ操作の一例として、タップ操作を検知する処理について説明する。   The process in FIG. 4 is performed by the CPU 201 executing a program stored in the ROM 202 or the storage device 204, and is executed when the CPU 201 acquires a distance image from the distance image sensor 105. The process of FIG. 4 is executed each time a distance image is acquired from the distance image sensor 105, and the cycle of acquiring the distance image from the distance image sensor 105 matches the frame rate of the captured image of the distance image sensor 105. In the process of FIG. 4, a process of detecting a tap operation will be described as an example of the user operation.

図4において、まず、CPU201は距離画像センサ105から図5(a)の距離画像500を取得する(ステップS101)(距離画像取得手段)。距離画像500は平面101を示す平面領域501及びユーザの手を示す手領域502を含む。次いで、CPU201は取得した距離画像500を図5(b)に示すように、所定の大きさの複数の分割領域に分割する。分割領域の大きさはユーザによって設定される、若しくは距離画像センサ105の傾き等に応じてCPU201によって動的に調整される。次いで、CPU201は距離画像500を構成する複数の分割領域の中から一の分割領域を抽出する(ステップS102)(抽出手段)。次いで、CPU201は最小二乗法を用いて一の分割領域の測距データを近似した第1の基準測距データを生成する(ステップS103)(基準測距データ生成手段)。ステップS103では、例えば、CPU201は、平面領域の一部である図5(b)の分割領域503を抽出すると、分割領域503の図6(a)の測距データ601を近似して、近似平面特性を有する図6(b)の第1の基準測距データ602を生成する。次いで、CPU201は一の分割領域における測距データ及び第1の基準測距データを比較し、比較した結果が予め設定された所定の閾値以下であるか否かを判別する(ステップS104)。具体的に、CPU201は、一の分割領域における測距データ及び第1の基準測距データの差を画素単位で算出し、各画素の算出結果の合計値が上記所定の閾値以下であるか否かを判別する。   In FIG. 4, first, the CPU 201 acquires the distance image 500 of FIG. 5A from the distance image sensor 105 (step S101) (distance image acquisition means). The distance image 500 includes a flat area 501 showing the plane 101 and a hand area 502 showing the user's hand. Next, as shown in FIG. 5B, the CPU 201 divides the acquired distance image 500 into a plurality of divided areas of a predetermined size. The size of the divided area is set by the user, or dynamically adjusted by the CPU 201 in accordance with the inclination of the distance image sensor 105 or the like. Next, the CPU 201 extracts one divided area from the plurality of divided areas constituting the distance image 500 (step S102) (extraction means). Next, the CPU 201 generates first reference distance measurement data by approximating distance measurement data of one divided area using the least squares method (step S103) (reference distance measurement data generation means). In step S103, for example, when the CPU 201 extracts the divided area 503 of FIG. 5B that is a part of the plane area, the CPU 201 approximates the distance measurement data 601 of FIG. First reference ranging data 602 of FIG. 6 (b) having characteristics is generated. Next, the CPU 201 compares the distance measurement data and the first reference distance measurement data in one divided area, and determines whether the comparison result is equal to or less than a predetermined threshold (step S104). Specifically, the CPU 201 calculates the difference between the distance measurement data and the first reference distance measurement data in one divided area in pixel units, and the total value of the calculation results of each pixel is less than or equal to the predetermined threshold value. Determine if

ステップS104の判別の結果、比較した結果が所定の閾値以下であるとき、CPU201は、一の分割領域を立体物輪郭領域ではないと判定する(ステップS105)。例えば、分割領域503において、測距データ601における或るx座標のyz特性を図6(c)で示し、第1の基準測距データ602における図6(c)と同じx座標のyz特性を図6(d)で示す。分割領域503は平面領域501の一部であり、測距データ601の特性の変化量が比較的小さいので、例えば、測距データ601及び第1の基準測距データ602の同じx座標のyz特性を比較しても図6(e)に示すように、この差は小さく、また、各画素の算出結果の合計値が所定の閾値以下となる。本実施の形態では、測距データの特性の変化量が比較的小さい分割領域が立体物輪郭領域ではないと判定される。その後、CPU201はステップS107の処理を行う。   If it is determined in step S104 that the compared result is equal to or less than the predetermined threshold value, the CPU 201 determines that one divided area is not a three-dimensional object outline area (step S105). For example, in the divided area 503, the yz characteristic of a certain x coordinate in the distance measurement data 601 is shown in FIG. 6C, and the yz characteristic of the same x coordinate in the first reference distance measurement data 602 as in FIG. It shows in FIG.6 (d). The divided area 503 is a part of the plane area 501, and the variation of the characteristic of the distance measurement data 601 is relatively small. For example, the yz characteristic of the same x coordinate of the distance measurement data 601 and the first reference distance measurement data 602 As shown in FIG. 6 (e), the difference is small, and the total value of the calculation results of each pixel is equal to or less than a predetermined threshold value. In the present embodiment, it is determined that the divided area in which the amount of change in the characteristic of the distance measurement data is relatively small is not the three-dimensional object outline area. Thereafter, the CPU 201 performs the process of step S107.

ステップS104の判別の結果、比較した結果が所定の閾値より大きいとき、CPU201は、一の分割領域を立体物輪郭領域であると判定する(ステップS106)。例えば、平面領域501及び手領域502の境界を含む図5(b)の分割領域504において、図7(a)の測距データ701における或るx座標のyz特性を図7(c)で示し、図7(b)の第1の基準測距データ702における図7(c)と同じx座標のyz特性を図7(d)で示す。分割領域504では、測距データ701における一部、具体的に、平面領域501及び手領域502の境界に相当する特性の変化量が大きい。このため、例えば、測距データ701及び第1の基準測距データ702の同じx座標のyz特性を比較した際、図7(e)に示すように、測距データ701及び第1の基準測距データ702の差が大きく、各画素の算出結果の合計値が所定の閾値より大きくなる。本実施の形態では、測距データにおける一部の特性の変化量が大きい分割領域が立体物輪郭領域であると判定される。次いで、CPU201は距離画像500における全ての分割領域の判定を完了したか否かを判別する(ステップS107)。   As a result of the determination in step S104, when the compared result is larger than the predetermined threshold, the CPU 201 determines that one divided area is a three-dimensional object outline area (step S106). For example, in the divided area 504 of FIG. 5B including the boundary of the plane area 501 and the hand area 502, the yz characteristic of a certain x coordinate in the distance measurement data 701 of FIG. 7A is shown in FIG. FIG. 7D shows the yz characteristics of the same x coordinate as in FIG. 7C in the first reference distance measurement data 702 of FIG. 7B. In the divided area 504, the amount of change in characteristics corresponding to a part of the distance measurement data 701, specifically, the boundary between the plane area 501 and the hand area 502, is large. Therefore, for example, when the yz characteristics at the same x coordinate of the distance measurement data 701 and the first reference distance measurement data 702 are compared, as shown in FIG. 7E, the distance measurement data 701 and the first reference measurement The difference of the distance data 702 is large, and the total value of the calculation results of each pixel is larger than a predetermined threshold value. In the present embodiment, it is determined that the divided area in which the amount of change in part of the characteristics of the distance measurement data is large is the solid object outline area. Next, the CPU 201 determines whether the determination of all divided areas in the distance image 500 has been completed (step S107).

ステップS107の判別の結果、距離画像500における何れかの分割領域の判定を完了しないとき、CPU201はステップS103の処理に戻る。一方、ステップS107の判別の結果、距離画像500における全ての分割領域の判定を完了したとき、CPU201はステップS106において立体物輪郭領域と判定された複数の分割領域で囲まれた領域の補間処理を行う(ステップS108)。本実施の形態では、CPU201は、測距データ及び第1の基準測距データを比較することで、立体物輪郭領域、例えば、図8(a)の分割領域801を特定可能であるが、立体物に相当する分割領域であっても測距データ601の特性の変化量が比較的小さい分割領域、例えば、図8(a)の分割領域802を特定することができない。これに対し、本実施の形態では、CPU201は図8(b)に示すように、分割領域802も分割領域に含まれるように補間する。CPU201は立体物輪郭領域及び補間した領域を含む立体物領域を特定する。これにより、立体物検知装置100は平面101上の立体物であるユーザの手103を検知する。次いで、CPU201は立体物領域801における指先位置を特定し(ステップS109)、上記指先位置を示す座標を世界座標系に変換する(ステップS110)。次いで、CPU201は上記指先位置の軌跡に基づいてタップ操作が行われたか否かを判別する(ステップS111)。ステップS111では、指先及び平面101の距離が所定の距離に近付いてから離れるまでの時間が所定の時間以下であり、且つ指先が平面101の水平方向へ移動した量が所定の量以下である場合のみ、CPU201はタップ操作が行われたと判別する。一方、それ以外の場合、CPU201はタップ操作が行われないと判別する。なお、CPU201は、距離画像センサ105が撮像した一つの画像だけでなく、連続で撮像した複数の画像から特定された指先位置の軌跡に基づいてステップS111の処理を行っても良い。   As a result of the determination in step S107, when the determination of any divided area in the distance image 500 is not completed, the CPU 201 returns to the process of step S103. On the other hand, when the determination of all divided areas in the distance image 500 is completed as a result of the determination in step S107, the CPU 201 performs interpolation processing of an area surrounded by a plurality of divided areas determined as solid object outline areas in step S106. The operation is performed (step S108). In the present embodiment, the CPU 201 can specify a three-dimensional object contour region, for example, the divided region 801 in FIG. 8A by comparing the distance measurement data and the first reference distance measurement data. Even if it is a divided area corresponding to an object, a divided area having a relatively small amount of change in the characteristics of the distance measurement data 601, for example, the divided area 802 in FIG. 8A can not be identified. On the other hand, in the present embodiment, as shown in FIG. 8B, the CPU 201 interpolates so that the divided area 802 is also included in the divided area. The CPU 201 specifies a three-dimensional object area including a three-dimensional object outline area and an interpolated area. Thereby, the three-dimensional object detection device 100 detects the user's hand 103 which is a three-dimensional object on the plane 101. Next, the CPU 201 specifies the fingertip position in the three-dimensional object area 801 (step S109), and converts the coordinates indicating the fingertip position into the world coordinate system (step S110). Next, the CPU 201 determines whether a tap operation has been performed based on the locus of the fingertip position (step S111). In step S111, the time taken for the distance between the fingertip and the plane 101 to approach and leave the predetermined distance is equal to or less than the predetermined time, and the amount of movement of the fingertip in the horizontal direction of the plane 101 is equal to or less than the predetermined amount. Only, the CPU 201 determines that the tap operation has been performed. On the other hand, in the other cases, the CPU 201 determines that the tap operation is not performed. Note that the CPU 201 may perform the process of step S111 based on not only one image captured by the distance image sensor 105, but also the locus of the fingertip position identified from a plurality of images captured continuously.

ステップS111の判別の結果、タップ操作が行われたとき、CPU201は、上記タップ操作がUI画像102におけるアイテム104に対するタップ操作であるか否かを判別する(ステップS112)。   As a result of the determination in step S111, when a tap operation is performed, the CPU 201 determines whether the tap operation is a tap operation on the item 104 in the UI image 102 (step S112).

ステップS112の判別の結果、上記タップ操作がUI画像102におけるアイテム104に対するタップ操作であるとき、CPU201は内容を変更したUI画像102を平面101に投影する(ステップS113)。例えば、CPU201はアイテム104の色を変更したUI画像102を平面101に投影する。また、CPU201はアイテム104を点滅させたUI画像102を平面101に投影する。その後、CPU201は本処理を終了する。   When it is determined in step S112 that the tap operation is a tap operation on the item 104 in the UI image 102, the CPU 201 projects the UI image 102 whose content has been changed on the plane 101 (step S113). For example, the CPU 201 projects the UI image 102 in which the color of the item 104 is changed on the plane 101. Further, the CPU 201 projects the UI image 102 in which the item 104 is blinked on the plane 101. Thereafter, the CPU 201 ends the present process.

ステップS111の判別の結果、タップ操作が行われないとき、又はステップS112の判別の結果、上記タップ操作がアイテム104に対するタップ操作でないとき、CPU201は本処理を終了する。   As a result of the determination in step S111, when the tap operation is not performed or as a result of the determination in step S112, when the tap operation is not the tap operation for the item 104, the CPU 201 ends the present process.

上述した図4の処理によれば、測距データに基づいて第1の基準測距データが生成され、距離画像500に含まれる測距データ及び第1の基準測距データを比較した結果に基づいて平面101上の立体物が検知される。すなわち、測距データと同じ測距タイミングの第1の基準測距データが立体物の検知処理における基準距離として設定される。これにより、距離画像センサ105から出力される測距データが測距タイミングに応じて変動しても、上記測距データに適した基準距離を設定することができ、平面101上に立体物が置かれているか否かを正確に判別することができる。   According to the process of FIG. 4 described above, the first reference distance measurement data is generated based on the distance measurement data, and the distance measurement data and the first reference distance measurement data included in the distance image 500 are compared. Thus, a three-dimensional object on the plane 101 is detected. That is, the first reference distance measurement data having the same distance measurement timing as the distance measurement data is set as the reference distance in the detection process of the three-dimensional object. Thereby, even if the distance measurement data outputted from the distance image sensor 105 fluctuates according to the distance measurement timing, the reference distance suitable for the distance measurement data can be set, and the three-dimensional object is placed on the plane 101 It is possible to accurately determine whether the

また、上述した図4の処理では、各分割領域の測距データ及び各分割領域の第1の基準測距データを比較した結果に基づいて平面101上の立体物が検知される。これにより、立体物の検知処理の処理対象である測距データを分割して立体物の検知処理における処理負荷を軽減することができる。   Further, in the process of FIG. 4 described above, the three-dimensional object on the plane 101 is detected based on the result of comparing the distance measurement data of each divided region and the first reference distance measurement data of each divided region. As a result, it is possible to divide the distance measurement data, which is the processing target of the three-dimensional object detection process, and reduce the processing load in the three-dimensional object detection process.

さらに、上述した図4の処理では、各画素の差の合計値が所定の閾値より大きい分割領域が平面101上の立体物として検知され、上記合計値が所定の閾値以下である分割領域が平面101上の立体物として検知されない。これにより、距離画像500における平面501及び手領域502等のように測距データにおける一部の特性の変化量が大きい立体物の輪郭部を検知することができ、検知結果に基づいて平面101上に立体物が置かれているか否かを判別することができる。   Furthermore, in the process of FIG. 4 described above, a divided area in which the total value of differences between pixels is larger than a predetermined threshold is detected as a solid object on the plane 101, and a divided area whose total value is equal to or smaller than the predetermined threshold is a plane. It is not detected as a three-dimensional object on 101. As a result, it is possible to detect an outline portion of a solid object having a large amount of change in characteristics of a part of the distance measurement data, such as the plane 501 and the hand area 502 in the distance image 500. It can be determined whether or not a three-dimensional object is placed.

以上、本発明について、上述した実施の形態を用いて説明したが、本発明は上述した実施の形態に限定されるものではない。例えば、図示しない可視光センサや赤外センサを平面101の上方に設置してもよい。撮像された画像中の肌色領域を可視光センサを用いて抽出することで、立体物領域の検知精度を向上することができる。   As mentioned above, although this invention was demonstrated using embodiment mentioned above, this invention is not limited to embodiment mentioned above. For example, a visible light sensor or an infrared sensor (not shown) may be installed above the plane 101. The detection accuracy of the three-dimensional object region can be improved by extracting the skin color region in the captured image using a visible light sensor.

また、上述した実施の形態では、肌色領域を抽出する場合、プロジェクタ106が投影するUI画像102の色調や光量を制限することが好ましい。   Further, in the embodiment described above, when extracting a skin color area, it is preferable to limit the color tone and the light amount of the UI image 102 projected by the projector 106.

さらに、上述した実施の形態では、プロジェクタ106の投影周期と可視光センサの撮像周期とを同期させ、ユーザが視認できないレベルで高速に投影及び撮像を交互に行っても良い。これにより、投影光の影響を受けずに肌色領域を抽出することができる。   Furthermore, in the embodiment described above, the projection cycle of the projector 106 and the imaging cycle of the visible light sensor may be synchronized, and projection and imaging may be alternately performed at high speed at a level invisible to the user. Thereby, the skin color area can be extracted without being affected by the projection light.

上述した実施の形態では、距離画像センサ105は、被写体までの距離を計測可能なパターン光投影方式のセンサ、赤外光センサ、又はステレオカメラであっても良い。   In the embodiment described above, the distance image sensor 105 may be a pattern light projection type sensor capable of measuring the distance to the subject, an infrared light sensor, or a stereo camera.

上述した実施の形態では、平面101上において検知される立体物はユーザの手に限られず、ユーザ操作を行うためのスタイラスやロボットアーム等であっても良い。   In the embodiment described above, the three-dimensional object detected on the plane 101 is not limited to the user's hand, and may be a stylus, a robot arm, or the like for performing a user operation.

また、上述した実施の形態では、平面101は地面に対して水平な机上に限られず、地面に対して垂直なスクリーン上やホワイトボード上であっても良い。   Further, in the embodiment described above, the plane 101 is not limited to a desk that is horizontal to the ground, and may be on a screen or a white board that is perpendicular to the ground.

上述した実施の形態では、距離画像500における一部の領域に対してのみ、ステップS103〜S106に相当する処理を行っても良い。   In the embodiment described above, the processing corresponding to steps S103 to S106 may be performed only on a partial region of the distance image 500.

図9は、図3の立体物検知装置100の機能構成の変形例を示すブロック図である。   FIG. 9 is a block diagram showing a modification of the functional configuration of the three-dimensional object detection device 100 of FIG.

図9において、立体物検知装置100は、図1の距離画像取得部301、近似平面計算部303、基準画像取得部305、指先検出部306、座標変換部307、認識部308、及び表示制御部309の他に、仮想立体物領域特定部901、仮想立体物領域拡張部902の各機能部を備える。上述した各機能部の処理は、CPU201がROM202や記憶装置204に格納されたプログラムを実行することによって行われる。   In FIG. 9, the three-dimensional object detection device 100 includes the distance image acquisition unit 301, the approximate plane calculation unit 303, the reference image acquisition unit 305, the fingertip detection unit 306, the coordinate conversion unit 307, the recognition unit 308, and the display control unit in FIG. In addition to 309, each function part of the virtual solid object area | region specification part 901 and the virtual solid object area expansion part 902 is provided. The processing of each functional unit described above is performed by the CPU 201 executing a program stored in the ROM 202 or the storage device 204.

仮想立体物領域特定部901は距離画像500における仮想立体物領域を特定する。本実施の形態では、距離画像500の測距データ及び基準画像に含まれる第2の基準測距データの差を画素単位で算出し、例えば、測距データが第2の基準測距データより小さい画素を抽出し、抽出した画素が隣接する領域を仮想立体物領域と特定する。仮想立体物領域拡張部902は、測距データが第2の基準測距データより小さい画素以外の画素であって且つ仮想立体物領域周辺の画素を所定の数仮想立体物領域に加えることで上記仮想立体物領域を拡張する。   The virtual three-dimensional object area specifying unit 901 specifies a virtual three-dimensional object area in the distance image 500. In the present embodiment, the difference between the distance measurement data of distance image 500 and the second reference distance measurement data included in the reference image is calculated in pixel units. For example, the distance measurement data is smaller than the second reference distance measurement data A pixel is extracted, and a region adjacent to the extracted pixel is specified as a virtual three-dimensional object region. The virtual three-dimensional object region expanding unit 902 adds the pixels around the virtual three-dimensional object region to the predetermined number of virtual three-dimensional object regions that are pixels other than the pixels whose distance measurement data is smaller than the second reference distance measurement data. Expand virtual three-dimensional object area.

図10は、図4のユーザ操作検知処理の変形例の手順を示すフローチャートである。   FIG. 10 is a flowchart showing the procedure of a modification of the user operation detection process of FIG.

図10の処理も、CPU201がROM202や記憶装置204に格納されたプログラムを実行することによって行われ、CPU201が距離画像センサ105から距離画像を取得した際に実行される。図10の処理でも、ユーザ操作の一例として、タップ操作を検知する処理について説明する。   The process in FIG. 10 is also performed by the CPU 201 executing a program stored in the ROM 202 or the storage device 204, and is executed when the CPU 201 acquires a distance image from the distance image sensor 105. Also in the process of FIG. 10, a process of detecting a tap operation will be described as an example of the user operation.

図10において、CPU201はステップS101の処理を行う。次いで、CPU201は距離画像500及び基準画像を比較して仮想立体物領域を特定し(ステップS201)(仮想立体物領域特定手段)、仮想立体物領域を拡張する(ステップS202)。例えば、ステップS201において図11(a)の仮想立体物領域1101、1102が特定された場合、CPU201はステップS202において仮想立体物領域1101、1102をそれぞれ拡張する。例えば、CPU201は、測距データが第2の基準測距データより小さい画素以外の画素であって且つ仮想立体物領域1101周辺の画素を所定の数仮想立体物領域1101に加えることで図11(b)のように仮想立体物領域1101を拡張する。CPU201は仮想立体物領域1102に対しても同様の処理を行う。次いで、CPU201は、最小二乗法を用いて、拡張仮想立体物領域の測距データを近似して第1の基準測距データを生成する(ステップS203)。次いで、CPU201は拡張仮想立体物領域における測距データ及び第1の基準測距データを比較し、比較した結果が所定の閾値以下であるか否かを判別する(ステップS204)。具体的に、CPU201は、拡張仮想立体物領域における測距データ及び第1の基準測距データの差を画素単位で算出し、各画素の算出結果の合計値が所定の閾値以下であるか否かを判別する。   In FIG. 10, the CPU 201 performs the process of step S101. Next, the CPU 201 compares the distance image 500 with the reference image to specify a virtual three-dimensional object region (step S201) (virtual three-dimensional object region specifying means), and expands the virtual three-dimensional object region (step S202). For example, when the virtual three-dimensional object regions 1101 and 1102 in FIG. 11A are specified in step S201, the CPU 201 expands the virtual three-dimensional object regions 1101 and 1102 in step S202. For example, the CPU 201 adds pixels other than pixels whose distance measurement data is smaller than the second reference distance measurement data and around the virtual three-dimensional object region 1101 to the predetermined number of virtual three-dimensional object regions 1101 (FIG. The virtual three-dimensional object region 1101 is expanded as in b). The CPU 201 performs the same process on the virtual three-dimensional object area 1102 as well. Next, the CPU 201 approximates distance measurement data of the extended virtual three-dimensional object region using the least squares method to generate first reference distance measurement data (step S203). Next, the CPU 201 compares the distance measurement data and the first reference distance measurement data in the extended virtual three-dimensional object region, and determines whether the comparison result is equal to or less than a predetermined threshold (step S204). Specifically, the CPU 201 calculates the difference between the distance measurement data and the first reference distance measurement data in the extended virtual three-dimensional object region in pixel units, and the total value of the calculation results of each pixel is equal to or less than a predetermined threshold value Determine if

ステップS204の判別の結果、比較した結果が所定の閾値以下であるとき、CPU201は、拡張仮想立体物領域を立体物領域ではないと判定し(ステップS205)、後述するステップS207の処理を行う。一方、ステップS204の判別の結果、比較した結果が所定の閾値より大きいとき、CPU201は、拡張仮想立体物領域を立体物領域であると判定する(ステップS206)。ここで、例えば、仮想立体物領域1101が平面101に投影されたUI画像102を指し示すユーザの手領域であるとする。また、仮想立体物領域1102が平面101に立体物が置かれていないにも関わらず、仮想立体物領域として検出された領域であるとする。このとき、実際に平面101上にユーザの手が存在する仮想立体物領域1101において測距データ及び第1の基準測距データを比較した結果は、所定の閾値より大きくなり、仮想立体物領域1101は立体物領域であると判定される。一方、実際には平面101に立体物が存在しない仮想立体物領域1102において測距データ及び第1の基準測距データを比較した結果は、所定の閾値以下となり、仮想立体物領域1102は立体物領域でないと判定される。このようにして、本実施の形態では、仮想立体物領域1101、1102のうち、図11(c)に示すように、仮想立体物領域1101のみが立体物領域として特定され、上記立体物領域が平面101上の立体物として検知される。次いで、CPU201は全ての仮想立体物領域の判定を完了したか否かを判別する(ステップS207)。   As a result of the determination in step S204, when the compared result is equal to or less than the predetermined threshold value, the CPU 201 determines that the extended virtual three-dimensional object region is not a three-dimensional object region (step S205), and performs processing in step S207 described later. On the other hand, as a result of the determination in step S204, when the compared result is larger than the predetermined threshold, the CPU 201 determines that the extended virtual three-dimensional object region is a three-dimensional object region (step S206). Here, for example, it is assumed that the virtual three-dimensional object area 1101 is a user's hand area pointing to the UI image 102 projected on the plane 101. Further, it is assumed that the virtual three-dimensional object region 1102 is a region detected as a virtual three-dimensional object region although no three-dimensional object is placed on the plane 101. At this time, the result of comparing the distance measurement data and the first reference distance measurement data in the virtual three-dimensional object region 1101 in which the user's hand actually exists on the plane 101 becomes larger than a predetermined threshold. Is determined to be a three-dimensional object region. On the other hand, the result of comparing the distance measurement data and the first reference distance measurement data in the virtual three-dimensional object region 1102 in which no three-dimensional object actually exists in the plane 101 is less than a predetermined threshold, and the virtual three-dimensional object region 1102 is a three-dimensional object It is determined not to be a region. Thus, in the present embodiment, only the virtual three-dimensional object region 1101 is specified as the three-dimensional object region among the virtual three-dimensional object regions 1101 and 1102 as shown in FIG. It is detected as a three-dimensional object on the plane 101. Next, the CPU 201 determines whether the determination of all virtual three-dimensional object regions has been completed (step S207).

ステップS207の判別の結果、何れかの仮想立体物領域の判定を完了しないとき、CPU201はステップS203の処理に戻る。一方、ステップS207の判別の結果、全ての仮想立体物領域の判定を完了したとき、CPU201はステップS109以降の処理を行う。   As a result of the determination in step S207, when the determination of any virtual three-dimensional object region is not completed, the CPU 201 returns to the process of step S203. On the other hand, when the determination of all the virtual three-dimensional object regions is completed as a result of the determination in step S207, the CPU 201 performs the process of step S109 and subsequent steps.

上述した図10の処理では、距離画像500における各仮想立体物領域の測距データ及び各仮想立体物領域の第1の基準測距データを比較した結果に基づいて平面101上の立体物が検知される。すなわち、距離画像500の一部の領域に対してのみ立体物の検知処理が行われる。これにより、距離画像500における全ての領域に対して立体物の検知処理を行う場合より立体物の検知処理における処理負荷を軽減することができる。   In the process of FIG. 10 described above, the solid object on the plane 101 is detected based on the result of comparing the distance measurement data of each virtual solid object region in the distance image 500 and the first reference distance measurement data of each virtual solid object region. Be done. That is, the detection process of the three-dimensional object is performed only on a partial region of the distance image 500. Thereby, the processing load in the detection process of the three-dimensional object can be reduced compared to the case where the detection process of the three-dimensional object is performed on all the regions in the distance image 500.

また、上述した図10の処理では、仮想立体物領域において、測距データ及び第1の基準測距データの差が画素単位で算出され、各画素の差の合計値が所定の閾値より大きい仮想立体物領域が平面101上の立体物として検知される。また、上記合計値が上記閾値以下である仮想立体物領域が平面101上の立体物として検知されない。これにより、仮想立体物領域として特定された領域が実際に立体物領域であるか否かを判別して平面101上に立体物が置かれているか否かを正確に判別することができる。   Further, in the process of FIG. 10 described above, in the virtual three-dimensional object region, the difference between the distance measurement data and the first reference distance measurement data is calculated in pixel units, and the total value of the differences of each pixel is larger than a predetermined threshold value A three-dimensional object region is detected as a three-dimensional object on the plane 101. In addition, a virtual three-dimensional object region whose total value is equal to or less than the threshold is not detected as a three-dimensional object on the plane 101. Thus, it can be determined whether or not the region specified as the virtual three-dimensional object region is actually a three-dimensional object region, and it can be accurately determined whether or not a three-dimensional object is placed on the plane 101.

上述した図10の処理では、仮想立体物領域は距離画像500において測距データが第2の基準測距データより小さい領域である。すなわち、仮想立体物領域は平面101に立体物が置かれていると想定される領域である。これにより、平面101に立体物が置かれていると想定される領域のみに立体物の検知処理を行うことができ、もって、立体物の検知処理を効率的に行うことができる。   In the process of FIG. 10 described above, the virtual three-dimensional object area is an area in the distance image 500 where the distance measurement data is smaller than the second reference distance measurement data. That is, the virtual three-dimensional object region is a region assumed to be where a three-dimensional object is placed on the plane 101. Thus, the detection process of the three-dimensional object can be performed only in the region assumed to be where the three-dimensional object is placed on the plane 101, and the detection process of the three-dimensional object can be efficiently performed.

また、上述した図10の処理では、拡張仮想立体物領域は、距離画像500において測距データが第2の基準測距データより小さい領域以外の領域を含む。すなわち、拡張仮想立体物領域には平面101を撮像した画素と立体物を撮像した画素の両方が含まれる。これにより、平面101に立体物が置かれていた場合の各仮想立体物領域の測距データ及び各仮想立体物領域の第1の基準測距データの差をより顕著にして立体物を検知し易くすることができる。   Further, in the processing of FIG. 10 described above, the extended virtual three-dimensional object region includes a region other than the region where the distance measurement data is smaller than the second reference distance measurement data in the distance image 500. That is, the extended virtual three-dimensional object region includes both a pixel obtained by imaging the plane 101 and a pixel obtained by imaging the three-dimensional object. Thereby, the difference between the distance measurement data of each virtual three-dimensional object region and the first reference distance measurement data of each virtual three-dimensional object region when the three-dimensional object is placed on the plane 101 is made more noticeable to detect the three-dimensional object It can be made easy.

上述した図10の処理では、ステップS109以降の処理を行う際、そのままのサイズの立体物領域ではなく、ステップS202の処理において拡張した分を元に戻したサイズの立体物領域を用いても良い。   In the process of FIG. 10 described above, when performing the process after step S109, a three-dimensional object area of a size obtained by restoring the portion expanded in the process of step S202 may be used instead of the three-dimensional object area of the same size. .

また、上述した図10の処理では、距離画像500の測距データ及び基準画像に含まれる第2の基準測距データの差を画素単位で算出し、差が所定の閾値以上である画素を抽出し、抽出した画素が隣接する領域を仮想立体物領域として特定しても良い。   Further, in the process of FIG. 10 described above, the difference between the distance measurement data of the distance image 500 and the second reference distance measurement data included in the reference image is calculated in pixel units, and the pixels whose difference is equal to or more than a predetermined threshold value are extracted. Alternatively, a region adjacent to the extracted pixels may be specified as a virtual three-dimensional object region.

本発明は、上述の実施の形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、該システム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。   The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read the program. It can also be realized by the process to be executed. The present invention can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

100 立体物検知装置
101 平面
103 手
500 距離画像
503、504 分割領域
601、701 測距データ
602、702 第1の基準測距データ
1101、1102 仮想立体物領域
Reference Signs List 100 three-dimensional object detection apparatus 101 plane 103 hand 500 distance image 503, 504 divided area 601, 701 distance measurement data 602, 702 first reference distance measurement data 1101, 1102 virtual three-dimensional object area

Claims (10)

平面を含む被写体を撮像して前記平面上の立体物を検知する立体物検知装置であって、
前記立体物検知装置から前記被写体までの測距データを含む距離画像を取得する距離画像取得手段と、
前記測距データに基づいて前記距離画像の基準測距データを生成する基準測距データ生成手段と、
前記測距データ及び前記基準測距データを比較した結果に基づいて前記平面上の立体物を検知する検知手段とを備えることを特徴とする立体物検知装置。
A three-dimensional object detection apparatus for imaging a subject including a plane to detect a three-dimensional object on the plane, comprising:
Distance image acquisition means for acquiring a distance image including distance measurement data from the three-dimensional object detection device to the subject;
Reference distance measurement data generating means for generating reference distance measurement data of the distance image based on the distance measurement data;
What is claimed is: 1. A three-dimensional object detection device comprising: detection means for detecting a three-dimensional object on the plane based on a result of comparing the distance measurement data and the reference distance measurement data.
前記距離画像を複数の分割領域に分割する分割手段と、
各前記分割領域を抽出する抽出手段とを更に備え、
前記基準測距データ生成手段は、前記測距データに基づいて各前記分割領域の基準測距データを生成し、
前記検知手段は、各前記分割領域の測距データ及び各前記分割領域の基準測距データを比較した結果に基づいて前記平面上の立体物を検知することを特徴とする請求項1記載の立体物検知装置。
Division means for dividing the distance image into a plurality of divided areas;
And extraction means for extracting each of the divided areas,
The reference distance measurement data generation unit generates reference distance measurement data of each of the divided areas based on the distance measurement data,
The three-dimensional object according to claim 1, wherein the detection means detects a three-dimensional object on the plane based on a result of comparison of distance measurement data of each of the divided regions and reference distance measurement data of each of the divided regions. Object detection device.
前記分割領域は複数の画素で構成され、
前記分割領域において、前記測距データ及び前記基準測距データの差を前記画素単位で算出する算出手段を更に備え、
前記検知手段は、各前記画素の差の合計値が予め設定された閾値より大きい分割領域を前記平面上の立体物として検知し、前記合計値が前記閾値以下である分割領域を前記平面上の立体物として検知しないことを特徴とする請求項2記載の立体物検知装置。
The divided area is composed of a plurality of pixels,
And calculating means for calculating the difference between the distance measurement data and the reference distance measurement data in the pixel unit in the divided area.
The detection means detects, as a solid object on the plane, a divided area in which a total value of differences of the respective pixels is larger than a preset threshold value, and on the plane, a divided area having the total value equal to or less than the threshold The three-dimensional object detection device according to claim 2, wherein the three-dimensional object is not detected as a three-dimensional object.
前記距離画像における仮想立体物領域を特定する仮想立体物領域特定手段を更に備え、
前記基準測距データ生成手段は、前記測距データに基づいて各前記仮想立体物領域の基準測距データを生成し、
前記検知手段は、各前記仮想立体物領域の測距データ及び各前記仮想立体物領域の基準測距データを比較した結果に基づいて前記平面上の立体物を検知することを特徴とする請求項1記載の立体物検知装置。
It further comprises virtual three-dimensional object region specifying means for specifying a virtual three-dimensional object region in the distance image,
The reference distance measurement data generation unit generates reference distance measurement data of each of the virtual three-dimensional object regions based on the distance measurement data,
The said detection means detects the solid object on the said plane based on the result of having compared the ranging data of each said virtual solid object area | region, and the reference ranging data of each said virtual solid object area | region. The three-dimensional object detection device according to 1.
前記仮想立体物領域は複数の画素で構成され、
前記仮想立体物領域において、前記測距データ及び前記基準測距データの差を前記画素単位で算出する算出手段を更に備え、
前記検知手段は、各前記画素の差の合計値が予め設定された閾値より大きい仮想立体物領域を前記平面上の立体物として検知し、前記合計値が前記閾値以下である仮想立体物領域を前記平面上の立体物として検知しないことを特徴とする請求項4記載の立体物検知装置。
The virtual three-dimensional object region is composed of a plurality of pixels,
The virtual three-dimensional object region further includes calculation means for calculating the difference between the distance measurement data and the reference distance measurement data in the pixel unit,
The detection means detects a virtual three-dimensional object region in which the total value of differences of the respective pixels is larger than a preset threshold value as a three-dimensional object on the plane, and the virtual solid object region having the total value equal to or less than the threshold The three-dimensional object detection device according to claim 4, wherein the three-dimensional object detection device does not detect the three-dimensional object on the plane.
前記測距データと異なる測距タイミングの他の測距データを含む基準画像が取得され、
前記他の測距データは、前記立体物検知装置から前記平面までの測距値であり、
前記仮想立体物領域は、前記距離画像において前記測距データが前記他の基準測距データより小さい領域であることを特徴とする請求項5記載の立体物検知装置。
A reference image including other ranging data of ranging timing different from the ranging data is acquired,
The other ranging data is a ranging value from the three-dimensional object detection device to the plane,
The three-dimensional object detection device according to claim 5, wherein the virtual three-dimensional object region is a region where the distance measurement data is smaller than the other reference distance measurement data in the distance image.
前記仮想立体物領域を拡張する拡張手段を更に備え、
前記拡張された仮想立体物領域は、前記距離画像において前記測距データが前記他の基準測距データより小さい領域以外の領域を含むことを特徴とする請求項6記載の立体物検知装置。
It further comprises expansion means for expanding the virtual three-dimensional object region,
7. The three-dimensional object detection device according to claim 6, wherein the extended virtual three-dimensional object region includes a region other than a region where the distance measurement data is smaller than the other reference distance measurement data in the distance image.
前記基準測距データは、最小二乗法を用いて前記測距データを近似したデータであることを特徴とする請求項1乃至7のいずれか1項に記載の立体物検知装置。   The three-dimensional object detection device according to any one of claims 1 to 7, wherein the reference distance measurement data is data obtained by approximating the distance measurement data using a least squares method. 平面を含む被写体を撮像して前記平面上の立体物を検知する立体物検知装置の制御方法であって、
前記立体物検知装置から前記被写体までの測距データを含む距離画像を取得する距離画像取得ステップと、
前記測距データに基づいて前記距離画像の基準測距データを生成する基準測距データ生成ステップと、
前記測距データ及び前記基準測距データを比較した結果に基づいて前記平面上の立体物を検知する検知ステップとを有することを特徴とする立体物検知装置の制御方法。
A control method of a three-dimensional object detection device for imaging a subject including a plane and detecting a three-dimensional object on the plane,
A distance image acquisition step of acquiring a distance image including distance measurement data from the three-dimensional object detection device to the subject;
A reference ranging data generation step of generating reference ranging data of the distance image based on the ranging data;
And a detection step of detecting a solid object on the plane based on a result of comparison between the distance measurement data and the reference distance measurement data.
平面を含む被写体を撮像して前記平面上の立体物を検知する立体物検知装置の制御方法をコンピュータに実行させるプログラムであって、
前記立体物検知装置の制御方法は、
前記立体物検知装置から前記被写体までの測距データを含む距離画像を取得する距離画像取得ステップと、
前記測距データに基づいて前記距離画像の基準測距データを生成する基準測距データ生成ステップと、
前記測距データ及び前記基準測距データを比較した結果に基づいて前記平面上の立体物を検知する検知ステップとを有することを特徴とするプログラム。
A program that causes a computer to execute a control method of a three-dimensional object detection apparatus for capturing an object including a plane and detecting a three-dimensional object on the plane,
The control method of the three-dimensional object detection device is
A distance image acquisition step of acquiring a distance image including distance measurement data from the three-dimensional object detection device to the subject;
A reference ranging data generation step of generating reference ranging data of the distance image based on the ranging data;
A detection step of detecting a solid object on the plane based on a result of comparison between the distance measurement data and the reference distance measurement data.
JP2017214756A 2017-11-07 2017-11-07 Solid object detection device, its control method, and program Pending JP2019087022A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017214756A JP2019087022A (en) 2017-11-07 2017-11-07 Solid object detection device, its control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017214756A JP2019087022A (en) 2017-11-07 2017-11-07 Solid object detection device, its control method, and program

Publications (1)

Publication Number Publication Date
JP2019087022A true JP2019087022A (en) 2019-06-06

Family

ID=66763099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017214756A Pending JP2019087022A (en) 2017-11-07 2017-11-07 Solid object detection device, its control method, and program

Country Status (1)

Country Link
JP (1) JP2019087022A (en)

Similar Documents

Publication Publication Date Title
US10082879B2 (en) Head mounted display device and control method
JP5773944B2 (en) Information processing apparatus and information processing method
CN107424186B (en) Depth information measuring method and device
US10642422B2 (en) Information processing apparatus, control method for the information processing apparatus, and storage medium
JP6201379B2 (en) Position calculation system, position calculation program, and position calculation method
JP6075122B2 (en) System, image projection apparatus, information processing apparatus, information processing method, and program
JP2015526927A (en) Context-driven adjustment of camera parameters
JP6028589B2 (en) Input program, input device, and input method
WO2017029749A1 (en) Information processing device, control method therefor, program, and storage medium
JP6127564B2 (en) Touch determination device, touch determination method, and touch determination program
US10254893B2 (en) Operating apparatus, control method therefor, and storage medium storing program
JP2016143414A (en) Interactive system, remote controller, and operating method therefor
GB2530150A (en) Information processing apparatus for detecting object from image, method for controlling the apparatus, and storage medium
JP2016177491A (en) Input device, fingertip position detection method, and fingertip position detection computer program
US20220254123A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP6314688B2 (en) Input device
US10073614B2 (en) Information processing device, image projection apparatus, and information processing method
US10379678B2 (en) Information processing device, operation detection method, and storage medium that determine the position of an operation object in a three-dimensional space based on a histogram
JP2017219942A (en) Contact detection device, projector device, electronic blackboard system, digital signage device, projector device, contact detection method, program and recording medium
JP6393409B2 (en) Image recognition system, camera state estimation device, and program
US10416814B2 (en) Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium
US10365770B2 (en) Information processing apparatus, method for controlling the same, and storage medium
JP2019087022A (en) Solid object detection device, its control method, and program
JP2016139396A (en) User interface device, method and program
JP2018181169A (en) Information processor, and information processor control method, computer program, and storage medium