JP2019087022A - Solid object detection device, its control method, and program - Google Patents
Solid object detection device, its control method, and program Download PDFInfo
- Publication number
- JP2019087022A JP2019087022A JP2017214756A JP2017214756A JP2019087022A JP 2019087022 A JP2019087022 A JP 2019087022A JP 2017214756 A JP2017214756 A JP 2017214756A JP 2017214756 A JP2017214756 A JP 2017214756A JP 2019087022 A JP2019087022 A JP 2019087022A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional object
- measurement data
- distance measurement
- plane
- detection device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、立体物検知装置及びその制御方法、並びにプログラムに関する。 The present invention relates to a three-dimensional object detection device, a control method therefor, and a program.
被写体までの距離を測定する距離画像センサを備える立体物検知装置が知られている。立体物検知装置は、距離画像センサを用いて机等の平面を撮像し、撮像して得られた画像に基づいて平面上に立体物が置かれているか否かを判別する判別処理を行う(例えば、特許文献1参照)。立体物検知装置では、立体物検知装置の起動時等に予め撮像された画像から得られた上記平面までの測距結果に基づいて基準距離が設定される。立体物検知装置は、例えば、撮像して得られた画像において基準距離より近い測距結果となる被写体を立体物として検知し、検知結果に基づいて平面上に立体物が置かれていると判別する。 There is known a three-dimensional object detection device provided with a distance image sensor that measures the distance to a subject. The three-dimensional object detection apparatus performs a determination process of capturing an image of a plane such as a desk using a distance image sensor and determining whether a three-dimensional object is placed on the plane based on an image obtained by imaging ( For example, refer to Patent Document 1). In the three-dimensional object detection device, a reference distance is set based on a result of ranging to the plane obtained from an image captured in advance when the three-dimensional object detection device is activated or the like. The three-dimensional object detection apparatus detects, for example, an object resulting in a distance measurement result closer than the reference distance in an image obtained by imaging as a three-dimensional object, and determines that a three-dimensional object is placed on a plane based on the detection result Do.
しかしながら、従来の立体物検知装置では、平面上に立体物が置かれているか否かを正確に判別することができない場合がある。立体物検知装置では、該立体物検知装置の起動時の測距結果に基づいて基準距離が設定されるが、距離画像センサの性能上、距離画像センサから出力される測距結果は測距タイミングに応じて変動することがある。このため、従来の立体物検知装置は、判別処理を実行するタイミングに適した基準距離を設定することができず、平面上に立体物が置かれているか否かを正確に判別することができない。 However, in the conventional three-dimensional object detection apparatus, it may not be possible to accurately determine whether or not a three-dimensional object is placed on a plane. In the three-dimensional object detection device, the reference distance is set based on the distance measurement result at the time of activation of the three-dimensional object detection device. However, in view of the performance of the distance image sensor, the distance measurement result output from the distance image sensor is the distance measurement timing It may change depending on the situation. For this reason, the conventional three-dimensional object detection device can not set the reference distance suitable for the timing at which the determination process is performed, and can not accurately determine whether or not the three-dimensional object is placed on the plane. .
本発明の目的は、平面上に立体物が置かれているか否かを正確に判別することができる立体物検知装置及びその制御方法、並びにプログラムを提供することにある。 An object of the present invention is to provide a three-dimensional object detection device capable of accurately determining whether a three-dimensional object is placed on a plane, a control method thereof, and a program.
上記目的を達成するために、本発明の立体物検知装置は、平面を含む被写体を撮像して前記平面上の立体物を検知する立体物検知装置であって、前記立体物検知装置から前記被写体までの測距データを含む距離画像を取得する距離画像取得手段と、前記測距データに基づいて前記距離画像の基準測距データを生成する基準測距データ生成手段と、前記測距データ及び前記基準測距データを比較した結果に基づいて前記平面上の立体物を検知する検知手段とを備えることを特徴とする。 In order to achieve the above object, a three-dimensional object detection device according to the present invention is a three-dimensional object detection device which picks up an object including a plane and detects a three-dimensional object on the plane, the object from the three-dimensional object detection device Distance image acquisition means for acquiring a distance image including distance measurement data up to, reference distance measurement data generation means for generating reference distance measurement data of the distance image based on the distance measurement data, the distance measurement data, and And detection means for detecting a three-dimensional object on the plane based on a result of comparison of reference distance measurement data.
本発明によれば、平面上に立体物が置かれているか否かを正確に判別することができる。 According to the present invention, it can be accurately determined whether or not a three-dimensional object is placed on a plane.
以下、本発明の実施の形態を図面を参照しながら詳述する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の実施の形態に係る立体物検知装置100の外観図である。なお、本実施の形態では、3次元空間内の位置情報を定義する世界座標系が用いられ、図1のx軸、y軸、z軸は世界座標系の座標軸を示す。
FIG. 1 is an external view of a three-dimensional
図1において、立体物検知装置100は距離画像センサ105及びプロジェクタ106を備える。
In FIG. 1, the three-dimensional
立体物検知装置100はプロジェクタ106から平面101に画像、例えば、UI画像102を投影する。ユーザは自身の手103によって平面101に投影されたUI画像102に対してタップ操作等のユーザ操作を行う。タップ操作は、ユーザがUI画像102における各アイテム、例えば、アイテム104に指先を接触させる、若しくは近接させる操作(以下、「タッチ」という。)を行い、その後、タッチしたアイテム104から指先を離す操作である。ユーザはタップ操作を行ってUI画像102における各アイテムを選択可能である。本実施の形態では、ユーザがタッチした位置を検知するタッチセンサ等を平面101に設けず、立体物検知装置100は距離画像センサ105から取得した距離画像に基づいて平面101上の立体物である手103を検知し、また、ユーザ操作を認識する。距離画像は複数の画素で構成され、各画素には距離画像センサ105のレンズ中心から被写体までの測距データが設定される。ユーザがアイテム104に対してタップ操作を行った場合、立体物検知装置100はアイテム104の色を変化させる。また、ユーザが画像切り替えを指示するアイテム(不図示)に対してタップ操作を行った場合、立体物検知装置100は平面101に投影されるUI画像102を他の画像に切り替える。
The three-dimensional
距離画像センサ105は、平面101上を撮像可能な位置、例えば、平面101の上方に設置される。なお、本実施の形態では、距離画像センサ105は平面101を上方から眺めた画像が得られる位置に設置されていれば良い。例えば、平面101の上方にミラー(不図示)を設置し、ミラーを介して平面101上を撮像可能な位置に距離画像センサ105を設置しても良い。距離画像センサ105は、該距離画像センサ105から出力したレーザ光が被写体に反射して戻ってくるまでの時間差(位相差)に基づいて上記被写体までの距離を計測するTOF方式のセンサであり、予め設定された所定の間隔で平面101を撮像する。距離画像センサ105は、撮像した画像に基づいて距離画像センサ105から被写体までの距離を測定し、測距データを含む距離画像を生成し、上記距離画像を立体物検知装置100に出力する。距離画像センサ105は、距離画像を生成するための撮像を行う際に、環境光や平面101上の投影への影響が小さい赤外光を用いる方式、又は視差方式等を利用する。
The
プロジェクタ106は平面101にUI画像102等を投影可能な位置、例えば、平面101の上方に設置される。なお、本実施の形態では、プロジェクタ106が平面101の上方以外の位置に設置されても良い。平面101の上方以外の位置に設置されたプロジェクタ106はミラー(不図示)等を利用して投影光を反射させて平面101上にUI画像102等を投影する。
The
図2は、図1の立体物検知装置100のハードウェア構成を概略的に示すブロック図である。
FIG. 2 is a block diagram schematically showing the hardware configuration of the three-dimensional
図2において、立体物検知装置100は、図1の距離画像センサ105及びプロジェクタ106の他に、制御部200を備える。制御部200は距離画像センサ105及びプロジェクタ106と接続されている。また、制御部200は、CPU201、ROM202、RAM203、及び記憶装置204を備える。CPU201、ROM202、RAM203、及び記憶装置204はシステムバス205を介して互いに接続されている。
In FIG. 2, the three-dimensional
制御部200は立体物検知装置100全体を制御する。CPU201はROM202や記憶装置204に格納されたOSやプログラムを実行して、各処理の演算や論理判定等を行う。ROM202はCPU201によって実行されるプログラムや各データを格納する。RAM203はCPU201の作業領域として、また、各データの一時格納領域として用いられる。記憶装置204は、ハードディスクドライブやUSBメモリ等の外部記憶装置であり、プログラムやデータを格納する。
The
図3は、図1の立体物検知装置100の機能構成を概略的に示すブロック図である。
FIG. 3 is a block diagram schematically showing a functional configuration of the three-dimensional
図3において、立体物検知装置100は、距離画像取得部301、分割部302、近似平面計算部303、補間部304、基準画像取得部305、指先検出部306、座標変換部307、認識部308、及び表示制御部309の各機能部を備える。上述した各機能部の処理は、CPU201がROM202や記憶装置204に格納されたプログラムを実行することによって行われる。
In FIG. 3, the three-dimensional
距離画像取得部301は予め設定された所定の間隔で距離画像センサ105から距離画像を取得し、取得した距離画像をRAM203に記憶する。分割部302は距離画像を所定の大きさの複数の分割領域に分割する。近似平面計算部303は距離画像に含まれる測距データに基づいて第1の基準測距データを分割領域毎に生成する。第1の基準測距データは、各分割領域の測距データを近似したデータであり、立体物の検知処理における基準距離として用いられる。すなわち、第1の基準測距データは上記測距データと同じ測距タイミングの基準測距データである。また、近似平面計算部303は各分割領域における測距データ及び第1の基準測距データの差を算出する。さらに、近似平面計算部303は上記差に基づいて各分割領域が立体物の輪郭部に相当する立体物輪郭領域であるか否かを判定する。近似平面計算部303は立体物輪郭領域であると判定された複数の分割領域で囲まれた領域を立体物領域として特定する。
The distance
基準画像取得部305は基準画像を取得する。基準画像は平面101に物体等が置かれていない状態の距離画像であり、立体物検知装置100から平面101までの測距値である第2の基準測距データを含む。基準画像は、例えば、工場出荷時に記憶装置204に予め格納され、また、平面101に物体が置かれていない立体物検知装置100の起動時に撮像して得られた画像に基づいて生成される。すなわち、第2の基準測距データは上記測距データと異なる測距タイミングの基準測距データである。
The reference
補間部304は近似平面計算部303によって特定された立体物領域に対し後述する補間処理を施す。例えば、補間部304は特定された立体物領域のうち、立体物輪郭領域以外の領域を補間する。指先検出部306は補間処理を施した立体物領域(以下、「補間後立体物領域」という。)からユーザの指先位置を特定する。本実施の形態では、補間部304は、例えば、補間後立体物領域のうち距離画像の外周から最も遠い画素の座標を指先位置として特定する。
The
座標変換部307は上記指先位置を世界座標系に変換する。本実施の形態では、距離画像センサ105のレンズ特性及び世界座標系の並進・回転移動パラメータを用いることにより、距離画像における指先位置の座標を世界座標に変換する。認識部308は変換した指先位置の座標の軌跡に基づいてユーザ操作を認識する。表示制御部309は、ROM202や記憶装置204に記憶された情報を用いて、投影する画像、例えば、UI画像102を生成し、上記UI画像102を平面101に投影する。
The coordinate
図4は、図1の立体物検知装置によって実行されるユーザ操作検知処理の手順を示すフローチャートである。 FIG. 4 is a flowchart showing a procedure of user operation detection processing executed by the three-dimensional object detection device of FIG.
図4の処理は、CPU201がROM202や記憶装置204に格納されたプログラムを実行することによって行われ、CPU201が距離画像センサ105から距離画像を取得した際に実行される。図4の処理は、距離画像センサ105から距離画像を取得する毎に実行され、距離画像センサ105から距離画像を取得する周期は、距離画像センサ105の撮像映像のフレームレートと一致する。図4の処理では、ユーザ操作の一例として、タップ操作を検知する処理について説明する。
The process in FIG. 4 is performed by the
図4において、まず、CPU201は距離画像センサ105から図5(a)の距離画像500を取得する(ステップS101)(距離画像取得手段)。距離画像500は平面101を示す平面領域501及びユーザの手を示す手領域502を含む。次いで、CPU201は取得した距離画像500を図5(b)に示すように、所定の大きさの複数の分割領域に分割する。分割領域の大きさはユーザによって設定される、若しくは距離画像センサ105の傾き等に応じてCPU201によって動的に調整される。次いで、CPU201は距離画像500を構成する複数の分割領域の中から一の分割領域を抽出する(ステップS102)(抽出手段)。次いで、CPU201は最小二乗法を用いて一の分割領域の測距データを近似した第1の基準測距データを生成する(ステップS103)(基準測距データ生成手段)。ステップS103では、例えば、CPU201は、平面領域の一部である図5(b)の分割領域503を抽出すると、分割領域503の図6(a)の測距データ601を近似して、近似平面特性を有する図6(b)の第1の基準測距データ602を生成する。次いで、CPU201は一の分割領域における測距データ及び第1の基準測距データを比較し、比較した結果が予め設定された所定の閾値以下であるか否かを判別する(ステップS104)。具体的に、CPU201は、一の分割領域における測距データ及び第1の基準測距データの差を画素単位で算出し、各画素の算出結果の合計値が上記所定の閾値以下であるか否かを判別する。
In FIG. 4, first, the
ステップS104の判別の結果、比較した結果が所定の閾値以下であるとき、CPU201は、一の分割領域を立体物輪郭領域ではないと判定する(ステップS105)。例えば、分割領域503において、測距データ601における或るx座標のyz特性を図6(c)で示し、第1の基準測距データ602における図6(c)と同じx座標のyz特性を図6(d)で示す。分割領域503は平面領域501の一部であり、測距データ601の特性の変化量が比較的小さいので、例えば、測距データ601及び第1の基準測距データ602の同じx座標のyz特性を比較しても図6(e)に示すように、この差は小さく、また、各画素の算出結果の合計値が所定の閾値以下となる。本実施の形態では、測距データの特性の変化量が比較的小さい分割領域が立体物輪郭領域ではないと判定される。その後、CPU201はステップS107の処理を行う。
If it is determined in step S104 that the compared result is equal to or less than the predetermined threshold value, the
ステップS104の判別の結果、比較した結果が所定の閾値より大きいとき、CPU201は、一の分割領域を立体物輪郭領域であると判定する(ステップS106)。例えば、平面領域501及び手領域502の境界を含む図5(b)の分割領域504において、図7(a)の測距データ701における或るx座標のyz特性を図7(c)で示し、図7(b)の第1の基準測距データ702における図7(c)と同じx座標のyz特性を図7(d)で示す。分割領域504では、測距データ701における一部、具体的に、平面領域501及び手領域502の境界に相当する特性の変化量が大きい。このため、例えば、測距データ701及び第1の基準測距データ702の同じx座標のyz特性を比較した際、図7(e)に示すように、測距データ701及び第1の基準測距データ702の差が大きく、各画素の算出結果の合計値が所定の閾値より大きくなる。本実施の形態では、測距データにおける一部の特性の変化量が大きい分割領域が立体物輪郭領域であると判定される。次いで、CPU201は距離画像500における全ての分割領域の判定を完了したか否かを判別する(ステップS107)。
As a result of the determination in step S104, when the compared result is larger than the predetermined threshold, the
ステップS107の判別の結果、距離画像500における何れかの分割領域の判定を完了しないとき、CPU201はステップS103の処理に戻る。一方、ステップS107の判別の結果、距離画像500における全ての分割領域の判定を完了したとき、CPU201はステップS106において立体物輪郭領域と判定された複数の分割領域で囲まれた領域の補間処理を行う(ステップS108)。本実施の形態では、CPU201は、測距データ及び第1の基準測距データを比較することで、立体物輪郭領域、例えば、図8(a)の分割領域801を特定可能であるが、立体物に相当する分割領域であっても測距データ601の特性の変化量が比較的小さい分割領域、例えば、図8(a)の分割領域802を特定することができない。これに対し、本実施の形態では、CPU201は図8(b)に示すように、分割領域802も分割領域に含まれるように補間する。CPU201は立体物輪郭領域及び補間した領域を含む立体物領域を特定する。これにより、立体物検知装置100は平面101上の立体物であるユーザの手103を検知する。次いで、CPU201は立体物領域801における指先位置を特定し(ステップS109)、上記指先位置を示す座標を世界座標系に変換する(ステップS110)。次いで、CPU201は上記指先位置の軌跡に基づいてタップ操作が行われたか否かを判別する(ステップS111)。ステップS111では、指先及び平面101の距離が所定の距離に近付いてから離れるまでの時間が所定の時間以下であり、且つ指先が平面101の水平方向へ移動した量が所定の量以下である場合のみ、CPU201はタップ操作が行われたと判別する。一方、それ以外の場合、CPU201はタップ操作が行われないと判別する。なお、CPU201は、距離画像センサ105が撮像した一つの画像だけでなく、連続で撮像した複数の画像から特定された指先位置の軌跡に基づいてステップS111の処理を行っても良い。
As a result of the determination in step S107, when the determination of any divided area in the
ステップS111の判別の結果、タップ操作が行われたとき、CPU201は、上記タップ操作がUI画像102におけるアイテム104に対するタップ操作であるか否かを判別する(ステップS112)。
As a result of the determination in step S111, when a tap operation is performed, the
ステップS112の判別の結果、上記タップ操作がUI画像102におけるアイテム104に対するタップ操作であるとき、CPU201は内容を変更したUI画像102を平面101に投影する(ステップS113)。例えば、CPU201はアイテム104の色を変更したUI画像102を平面101に投影する。また、CPU201はアイテム104を点滅させたUI画像102を平面101に投影する。その後、CPU201は本処理を終了する。
When it is determined in step S112 that the tap operation is a tap operation on the
ステップS111の判別の結果、タップ操作が行われないとき、又はステップS112の判別の結果、上記タップ操作がアイテム104に対するタップ操作でないとき、CPU201は本処理を終了する。
As a result of the determination in step S111, when the tap operation is not performed or as a result of the determination in step S112, when the tap operation is not the tap operation for the
上述した図4の処理によれば、測距データに基づいて第1の基準測距データが生成され、距離画像500に含まれる測距データ及び第1の基準測距データを比較した結果に基づいて平面101上の立体物が検知される。すなわち、測距データと同じ測距タイミングの第1の基準測距データが立体物の検知処理における基準距離として設定される。これにより、距離画像センサ105から出力される測距データが測距タイミングに応じて変動しても、上記測距データに適した基準距離を設定することができ、平面101上に立体物が置かれているか否かを正確に判別することができる。
According to the process of FIG. 4 described above, the first reference distance measurement data is generated based on the distance measurement data, and the distance measurement data and the first reference distance measurement data included in the
また、上述した図4の処理では、各分割領域の測距データ及び各分割領域の第1の基準測距データを比較した結果に基づいて平面101上の立体物が検知される。これにより、立体物の検知処理の処理対象である測距データを分割して立体物の検知処理における処理負荷を軽減することができる。
Further, in the process of FIG. 4 described above, the three-dimensional object on the
さらに、上述した図4の処理では、各画素の差の合計値が所定の閾値より大きい分割領域が平面101上の立体物として検知され、上記合計値が所定の閾値以下である分割領域が平面101上の立体物として検知されない。これにより、距離画像500における平面501及び手領域502等のように測距データにおける一部の特性の変化量が大きい立体物の輪郭部を検知することができ、検知結果に基づいて平面101上に立体物が置かれているか否かを判別することができる。
Furthermore, in the process of FIG. 4 described above, a divided area in which the total value of differences between pixels is larger than a predetermined threshold is detected as a solid object on the
以上、本発明について、上述した実施の形態を用いて説明したが、本発明は上述した実施の形態に限定されるものではない。例えば、図示しない可視光センサや赤外センサを平面101の上方に設置してもよい。撮像された画像中の肌色領域を可視光センサを用いて抽出することで、立体物領域の検知精度を向上することができる。
As mentioned above, although this invention was demonstrated using embodiment mentioned above, this invention is not limited to embodiment mentioned above. For example, a visible light sensor or an infrared sensor (not shown) may be installed above the
また、上述した実施の形態では、肌色領域を抽出する場合、プロジェクタ106が投影するUI画像102の色調や光量を制限することが好ましい。
Further, in the embodiment described above, when extracting a skin color area, it is preferable to limit the color tone and the light amount of the
さらに、上述した実施の形態では、プロジェクタ106の投影周期と可視光センサの撮像周期とを同期させ、ユーザが視認できないレベルで高速に投影及び撮像を交互に行っても良い。これにより、投影光の影響を受けずに肌色領域を抽出することができる。
Furthermore, in the embodiment described above, the projection cycle of the
上述した実施の形態では、距離画像センサ105は、被写体までの距離を計測可能なパターン光投影方式のセンサ、赤外光センサ、又はステレオカメラであっても良い。
In the embodiment described above, the
上述した実施の形態では、平面101上において検知される立体物はユーザの手に限られず、ユーザ操作を行うためのスタイラスやロボットアーム等であっても良い。
In the embodiment described above, the three-dimensional object detected on the
また、上述した実施の形態では、平面101は地面に対して水平な机上に限られず、地面に対して垂直なスクリーン上やホワイトボード上であっても良い。
Further, in the embodiment described above, the
上述した実施の形態では、距離画像500における一部の領域に対してのみ、ステップS103〜S106に相当する処理を行っても良い。
In the embodiment described above, the processing corresponding to steps S103 to S106 may be performed only on a partial region of the
図9は、図3の立体物検知装置100の機能構成の変形例を示すブロック図である。
FIG. 9 is a block diagram showing a modification of the functional configuration of the three-dimensional
図9において、立体物検知装置100は、図1の距離画像取得部301、近似平面計算部303、基準画像取得部305、指先検出部306、座標変換部307、認識部308、及び表示制御部309の他に、仮想立体物領域特定部901、仮想立体物領域拡張部902の各機能部を備える。上述した各機能部の処理は、CPU201がROM202や記憶装置204に格納されたプログラムを実行することによって行われる。
In FIG. 9, the three-dimensional
仮想立体物領域特定部901は距離画像500における仮想立体物領域を特定する。本実施の形態では、距離画像500の測距データ及び基準画像に含まれる第2の基準測距データの差を画素単位で算出し、例えば、測距データが第2の基準測距データより小さい画素を抽出し、抽出した画素が隣接する領域を仮想立体物領域と特定する。仮想立体物領域拡張部902は、測距データが第2の基準測距データより小さい画素以外の画素であって且つ仮想立体物領域周辺の画素を所定の数仮想立体物領域に加えることで上記仮想立体物領域を拡張する。
The virtual three-dimensional object
図10は、図4のユーザ操作検知処理の変形例の手順を示すフローチャートである。 FIG. 10 is a flowchart showing the procedure of a modification of the user operation detection process of FIG.
図10の処理も、CPU201がROM202や記憶装置204に格納されたプログラムを実行することによって行われ、CPU201が距離画像センサ105から距離画像を取得した際に実行される。図10の処理でも、ユーザ操作の一例として、タップ操作を検知する処理について説明する。
The process in FIG. 10 is also performed by the
図10において、CPU201はステップS101の処理を行う。次いで、CPU201は距離画像500及び基準画像を比較して仮想立体物領域を特定し(ステップS201)(仮想立体物領域特定手段)、仮想立体物領域を拡張する(ステップS202)。例えば、ステップS201において図11(a)の仮想立体物領域1101、1102が特定された場合、CPU201はステップS202において仮想立体物領域1101、1102をそれぞれ拡張する。例えば、CPU201は、測距データが第2の基準測距データより小さい画素以外の画素であって且つ仮想立体物領域1101周辺の画素を所定の数仮想立体物領域1101に加えることで図11(b)のように仮想立体物領域1101を拡張する。CPU201は仮想立体物領域1102に対しても同様の処理を行う。次いで、CPU201は、最小二乗法を用いて、拡張仮想立体物領域の測距データを近似して第1の基準測距データを生成する(ステップS203)。次いで、CPU201は拡張仮想立体物領域における測距データ及び第1の基準測距データを比較し、比較した結果が所定の閾値以下であるか否かを判別する(ステップS204)。具体的に、CPU201は、拡張仮想立体物領域における測距データ及び第1の基準測距データの差を画素単位で算出し、各画素の算出結果の合計値が所定の閾値以下であるか否かを判別する。
In FIG. 10, the
ステップS204の判別の結果、比較した結果が所定の閾値以下であるとき、CPU201は、拡張仮想立体物領域を立体物領域ではないと判定し(ステップS205)、後述するステップS207の処理を行う。一方、ステップS204の判別の結果、比較した結果が所定の閾値より大きいとき、CPU201は、拡張仮想立体物領域を立体物領域であると判定する(ステップS206)。ここで、例えば、仮想立体物領域1101が平面101に投影されたUI画像102を指し示すユーザの手領域であるとする。また、仮想立体物領域1102が平面101に立体物が置かれていないにも関わらず、仮想立体物領域として検出された領域であるとする。このとき、実際に平面101上にユーザの手が存在する仮想立体物領域1101において測距データ及び第1の基準測距データを比較した結果は、所定の閾値より大きくなり、仮想立体物領域1101は立体物領域であると判定される。一方、実際には平面101に立体物が存在しない仮想立体物領域1102において測距データ及び第1の基準測距データを比較した結果は、所定の閾値以下となり、仮想立体物領域1102は立体物領域でないと判定される。このようにして、本実施の形態では、仮想立体物領域1101、1102のうち、図11(c)に示すように、仮想立体物領域1101のみが立体物領域として特定され、上記立体物領域が平面101上の立体物として検知される。次いで、CPU201は全ての仮想立体物領域の判定を完了したか否かを判別する(ステップS207)。
As a result of the determination in step S204, when the compared result is equal to or less than the predetermined threshold value, the
ステップS207の判別の結果、何れかの仮想立体物領域の判定を完了しないとき、CPU201はステップS203の処理に戻る。一方、ステップS207の判別の結果、全ての仮想立体物領域の判定を完了したとき、CPU201はステップS109以降の処理を行う。
As a result of the determination in step S207, when the determination of any virtual three-dimensional object region is not completed, the
上述した図10の処理では、距離画像500における各仮想立体物領域の測距データ及び各仮想立体物領域の第1の基準測距データを比較した結果に基づいて平面101上の立体物が検知される。すなわち、距離画像500の一部の領域に対してのみ立体物の検知処理が行われる。これにより、距離画像500における全ての領域に対して立体物の検知処理を行う場合より立体物の検知処理における処理負荷を軽減することができる。
In the process of FIG. 10 described above, the solid object on the
また、上述した図10の処理では、仮想立体物領域において、測距データ及び第1の基準測距データの差が画素単位で算出され、各画素の差の合計値が所定の閾値より大きい仮想立体物領域が平面101上の立体物として検知される。また、上記合計値が上記閾値以下である仮想立体物領域が平面101上の立体物として検知されない。これにより、仮想立体物領域として特定された領域が実際に立体物領域であるか否かを判別して平面101上に立体物が置かれているか否かを正確に判別することができる。
Further, in the process of FIG. 10 described above, in the virtual three-dimensional object region, the difference between the distance measurement data and the first reference distance measurement data is calculated in pixel units, and the total value of the differences of each pixel is larger than a predetermined threshold value A three-dimensional object region is detected as a three-dimensional object on the
上述した図10の処理では、仮想立体物領域は距離画像500において測距データが第2の基準測距データより小さい領域である。すなわち、仮想立体物領域は平面101に立体物が置かれていると想定される領域である。これにより、平面101に立体物が置かれていると想定される領域のみに立体物の検知処理を行うことができ、もって、立体物の検知処理を効率的に行うことができる。
In the process of FIG. 10 described above, the virtual three-dimensional object area is an area in the
また、上述した図10の処理では、拡張仮想立体物領域は、距離画像500において測距データが第2の基準測距データより小さい領域以外の領域を含む。すなわち、拡張仮想立体物領域には平面101を撮像した画素と立体物を撮像した画素の両方が含まれる。これにより、平面101に立体物が置かれていた場合の各仮想立体物領域の測距データ及び各仮想立体物領域の第1の基準測距データの差をより顕著にして立体物を検知し易くすることができる。
Further, in the processing of FIG. 10 described above, the extended virtual three-dimensional object region includes a region other than the region where the distance measurement data is smaller than the second reference distance measurement data in the
上述した図10の処理では、ステップS109以降の処理を行う際、そのままのサイズの立体物領域ではなく、ステップS202の処理において拡張した分を元に戻したサイズの立体物領域を用いても良い。 In the process of FIG. 10 described above, when performing the process after step S109, a three-dimensional object area of a size obtained by restoring the portion expanded in the process of step S202 may be used instead of the three-dimensional object area of the same size. .
また、上述した図10の処理では、距離画像500の測距データ及び基準画像に含まれる第2の基準測距データの差を画素単位で算出し、差が所定の閾値以上である画素を抽出し、抽出した画素が隣接する領域を仮想立体物領域として特定しても良い。
Further, in the process of FIG. 10 described above, the difference between the distance measurement data of the
本発明は、上述の実施の形態の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、該システム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read the program. It can also be realized by the process to be executed. The present invention can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.
100 立体物検知装置
101 平面
103 手
500 距離画像
503、504 分割領域
601、701 測距データ
602、702 第1の基準測距データ
1101、1102 仮想立体物領域
Claims (10)
前記立体物検知装置から前記被写体までの測距データを含む距離画像を取得する距離画像取得手段と、
前記測距データに基づいて前記距離画像の基準測距データを生成する基準測距データ生成手段と、
前記測距データ及び前記基準測距データを比較した結果に基づいて前記平面上の立体物を検知する検知手段とを備えることを特徴とする立体物検知装置。 A three-dimensional object detection apparatus for imaging a subject including a plane to detect a three-dimensional object on the plane, comprising:
Distance image acquisition means for acquiring a distance image including distance measurement data from the three-dimensional object detection device to the subject;
Reference distance measurement data generating means for generating reference distance measurement data of the distance image based on the distance measurement data;
What is claimed is: 1. A three-dimensional object detection device comprising: detection means for detecting a three-dimensional object on the plane based on a result of comparing the distance measurement data and the reference distance measurement data.
各前記分割領域を抽出する抽出手段とを更に備え、
前記基準測距データ生成手段は、前記測距データに基づいて各前記分割領域の基準測距データを生成し、
前記検知手段は、各前記分割領域の測距データ及び各前記分割領域の基準測距データを比較した結果に基づいて前記平面上の立体物を検知することを特徴とする請求項1記載の立体物検知装置。 Division means for dividing the distance image into a plurality of divided areas;
And extraction means for extracting each of the divided areas,
The reference distance measurement data generation unit generates reference distance measurement data of each of the divided areas based on the distance measurement data,
The three-dimensional object according to claim 1, wherein the detection means detects a three-dimensional object on the plane based on a result of comparison of distance measurement data of each of the divided regions and reference distance measurement data of each of the divided regions. Object detection device.
前記分割領域において、前記測距データ及び前記基準測距データの差を前記画素単位で算出する算出手段を更に備え、
前記検知手段は、各前記画素の差の合計値が予め設定された閾値より大きい分割領域を前記平面上の立体物として検知し、前記合計値が前記閾値以下である分割領域を前記平面上の立体物として検知しないことを特徴とする請求項2記載の立体物検知装置。 The divided area is composed of a plurality of pixels,
And calculating means for calculating the difference between the distance measurement data and the reference distance measurement data in the pixel unit in the divided area.
The detection means detects, as a solid object on the plane, a divided area in which a total value of differences of the respective pixels is larger than a preset threshold value, and on the plane, a divided area having the total value equal to or less than the threshold The three-dimensional object detection device according to claim 2, wherein the three-dimensional object is not detected as a three-dimensional object.
前記基準測距データ生成手段は、前記測距データに基づいて各前記仮想立体物領域の基準測距データを生成し、
前記検知手段は、各前記仮想立体物領域の測距データ及び各前記仮想立体物領域の基準測距データを比較した結果に基づいて前記平面上の立体物を検知することを特徴とする請求項1記載の立体物検知装置。 It further comprises virtual three-dimensional object region specifying means for specifying a virtual three-dimensional object region in the distance image,
The reference distance measurement data generation unit generates reference distance measurement data of each of the virtual three-dimensional object regions based on the distance measurement data,
The said detection means detects the solid object on the said plane based on the result of having compared the ranging data of each said virtual solid object area | region, and the reference ranging data of each said virtual solid object area | region. The three-dimensional object detection device according to 1.
前記仮想立体物領域において、前記測距データ及び前記基準測距データの差を前記画素単位で算出する算出手段を更に備え、
前記検知手段は、各前記画素の差の合計値が予め設定された閾値より大きい仮想立体物領域を前記平面上の立体物として検知し、前記合計値が前記閾値以下である仮想立体物領域を前記平面上の立体物として検知しないことを特徴とする請求項4記載の立体物検知装置。 The virtual three-dimensional object region is composed of a plurality of pixels,
The virtual three-dimensional object region further includes calculation means for calculating the difference between the distance measurement data and the reference distance measurement data in the pixel unit,
The detection means detects a virtual three-dimensional object region in which the total value of differences of the respective pixels is larger than a preset threshold value as a three-dimensional object on the plane, and the virtual solid object region having the total value equal to or less than the threshold The three-dimensional object detection device according to claim 4, wherein the three-dimensional object detection device does not detect the three-dimensional object on the plane.
前記他の測距データは、前記立体物検知装置から前記平面までの測距値であり、
前記仮想立体物領域は、前記距離画像において前記測距データが前記他の基準測距データより小さい領域であることを特徴とする請求項5記載の立体物検知装置。 A reference image including other ranging data of ranging timing different from the ranging data is acquired,
The other ranging data is a ranging value from the three-dimensional object detection device to the plane,
The three-dimensional object detection device according to claim 5, wherein the virtual three-dimensional object region is a region where the distance measurement data is smaller than the other reference distance measurement data in the distance image.
前記拡張された仮想立体物領域は、前記距離画像において前記測距データが前記他の基準測距データより小さい領域以外の領域を含むことを特徴とする請求項6記載の立体物検知装置。 It further comprises expansion means for expanding the virtual three-dimensional object region,
7. The three-dimensional object detection device according to claim 6, wherein the extended virtual three-dimensional object region includes a region other than a region where the distance measurement data is smaller than the other reference distance measurement data in the distance image.
前記立体物検知装置から前記被写体までの測距データを含む距離画像を取得する距離画像取得ステップと、
前記測距データに基づいて前記距離画像の基準測距データを生成する基準測距データ生成ステップと、
前記測距データ及び前記基準測距データを比較した結果に基づいて前記平面上の立体物を検知する検知ステップとを有することを特徴とする立体物検知装置の制御方法。 A control method of a three-dimensional object detection device for imaging a subject including a plane and detecting a three-dimensional object on the plane,
A distance image acquisition step of acquiring a distance image including distance measurement data from the three-dimensional object detection device to the subject;
A reference ranging data generation step of generating reference ranging data of the distance image based on the ranging data;
And a detection step of detecting a solid object on the plane based on a result of comparison between the distance measurement data and the reference distance measurement data.
前記立体物検知装置の制御方法は、
前記立体物検知装置から前記被写体までの測距データを含む距離画像を取得する距離画像取得ステップと、
前記測距データに基づいて前記距離画像の基準測距データを生成する基準測距データ生成ステップと、
前記測距データ及び前記基準測距データを比較した結果に基づいて前記平面上の立体物を検知する検知ステップとを有することを特徴とするプログラム。 A program that causes a computer to execute a control method of a three-dimensional object detection apparatus for capturing an object including a plane and detecting a three-dimensional object on the plane,
The control method of the three-dimensional object detection device is
A distance image acquisition step of acquiring a distance image including distance measurement data from the three-dimensional object detection device to the subject;
A reference ranging data generation step of generating reference ranging data of the distance image based on the ranging data;
A detection step of detecting a solid object on the plane based on a result of comparison between the distance measurement data and the reference distance measurement data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017214756A JP2019087022A (en) | 2017-11-07 | 2017-11-07 | Solid object detection device, its control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017214756A JP2019087022A (en) | 2017-11-07 | 2017-11-07 | Solid object detection device, its control method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019087022A true JP2019087022A (en) | 2019-06-06 |
Family
ID=66763099
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017214756A Pending JP2019087022A (en) | 2017-11-07 | 2017-11-07 | Solid object detection device, its control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019087022A (en) |
-
2017
- 2017-11-07 JP JP2017214756A patent/JP2019087022A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10082879B2 (en) | Head mounted display device and control method | |
JP5773944B2 (en) | Information processing apparatus and information processing method | |
CN107424186B (en) | Depth information measuring method and device | |
US10642422B2 (en) | Information processing apparatus, control method for the information processing apparatus, and storage medium | |
JP6201379B2 (en) | Position calculation system, position calculation program, and position calculation method | |
JP6075122B2 (en) | System, image projection apparatus, information processing apparatus, information processing method, and program | |
JP2015526927A (en) | Context-driven adjustment of camera parameters | |
JP6028589B2 (en) | Input program, input device, and input method | |
WO2017029749A1 (en) | Information processing device, control method therefor, program, and storage medium | |
JP6127564B2 (en) | Touch determination device, touch determination method, and touch determination program | |
US10254893B2 (en) | Operating apparatus, control method therefor, and storage medium storing program | |
JP2016143414A (en) | Interactive system, remote controller, and operating method therefor | |
GB2530150A (en) | Information processing apparatus for detecting object from image, method for controlling the apparatus, and storage medium | |
JP2016177491A (en) | Input device, fingertip position detection method, and fingertip position detection computer program | |
US20220254123A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
JP6314688B2 (en) | Input device | |
US10073614B2 (en) | Information processing device, image projection apparatus, and information processing method | |
US10379678B2 (en) | Information processing device, operation detection method, and storage medium that determine the position of an operation object in a three-dimensional space based on a histogram | |
JP2017219942A (en) | Contact detection device, projector device, electronic blackboard system, digital signage device, projector device, contact detection method, program and recording medium | |
JP6393409B2 (en) | Image recognition system, camera state estimation device, and program | |
US10416814B2 (en) | Information processing apparatus to display an image on a flat surface, method of controlling the same, and storage medium | |
US10365770B2 (en) | Information processing apparatus, method for controlling the same, and storage medium | |
JP2019087022A (en) | Solid object detection device, its control method, and program | |
JP2016139396A (en) | User interface device, method and program | |
JP2018181169A (en) | Information processor, and information processor control method, computer program, and storage medium |