JP2012242901A - Operation input device and program - Google Patents

Operation input device and program Download PDF

Info

Publication number
JP2012242901A
JP2012242901A JP2011109586A JP2011109586A JP2012242901A JP 2012242901 A JP2012242901 A JP 2012242901A JP 2011109586 A JP2011109586 A JP 2011109586A JP 2011109586 A JP2011109586 A JP 2011109586A JP 2012242901 A JP2012242901 A JP 2012242901A
Authority
JP
Japan
Prior art keywords
angle
event
distance image
unit
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011109586A
Other languages
Japanese (ja)
Other versions
JP5658618B2 (en
Inventor
Satoshi Furukawa
聡 古川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011109586A priority Critical patent/JP5658618B2/en
Publication of JP2012242901A publication Critical patent/JP2012242901A/en
Application granted granted Critical
Publication of JP5658618B2 publication Critical patent/JP5658618B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an operation input device capable of detecting a motion of a target article corresponding to a hand and a forearm, and recognizing a motion close to the natural movement of a person in turning pages.SOLUTION: Distance image generation means 10 generates a motion image of a distance image of a target article including a first element corresponding to a hand and a second element corresponding to a forearm. Element extraction means 2 extracts a target surface corresponding to a palm of the first element and a region corresponding to the second element from the distance image. Motion extraction means 3 extracts changes in positions and orientations of the target surface and the second element that are extracted by the element extraction means 2. The motion extraction means 3 detects an angle with which the orientation of a normal vector on the target surface rotates around the principal axis of the second element and an angle with which the orientation of a directional vector along the principal axis of the second element changes, and determines a motion to turn pages to be made if an angle detected within a specified determination period after starting detection of an angle is within a specified detection range.

Description

本発明は、対象物までの距離を画素値に持つ距離画像を用いることにより対象物が規定の動作を行っているか否かを判断し、その判断結果に応じて制御対象の対応制御を行う操作入力装置、およびこの操作入力装置を実現するためのプログラムに関するものである。   The present invention determines whether or not a target object is performing a prescribed operation by using a distance image having a pixel value as a distance to the target object, and performs an operation for performing correspondence control of the control target according to the determination result The present invention relates to an input device and a program for realizing the operation input device.

従来から、対象物までの距離を画素値に持つ距離画像を用いて対象物の動作を検出し、対象物の動作に応じて制御対象の対応制御を行うようにした入力装置が提案されている(たとえば、特許文献1参照)。特許文献1に記載された技術は、距離画像の中で距離の極小点を求め、極小点の位置変化に応じて制御対象に指示を与えている。すなわち、特許文献1に記載された技術は、距離の極小点を前方に差し出した指先の位置とみなし、指先の位置を追跡することによって、リモコン装置などを持つことなく、機器の操作を可能にしている。   Conventionally, an input device has been proposed in which a motion of a target is detected using a distance image having a pixel value as a distance to the target, and corresponding control of the control target is performed according to the motion of the target. (For example, refer to Patent Document 1). The technique described in Patent Document 1 obtains a minimum point of distance in a distance image, and gives an instruction to a control object according to a change in position of the minimum point. That is, the technique described in Patent Document 1 regards the minimum point of the distance as the position of the fingertip that is forwarded, and tracks the position of the fingertip, thereby enabling operation of the device without having a remote control device or the like. ing.

また、近年では、タッチパネルを用いることにより、2次元平面上での指先やペン先の動きを検出し、検出した動きに応じて機器の操作を行う入力装置も実用化されている。   In recent years, an input device that detects the movement of a fingertip or a penpoint on a two-dimensional plane by using a touch panel and operates a device in accordance with the detected movement has been put into practical use.

特許第3544739号公報Japanese Patent No. 3544739

ところで、タッチパネルを用いる入力装置は、タッチパネルに触れる必要があり、たとえば、床上に置かれたテレビジョン受像機に対する操作を行うために用いようとすれば、テレビジョン受像機に触れる位置まで移動することになる。したがって、リモコン装置のように制御対象から離れた場所から制御の指示を与えることはできない。   By the way, an input device using a touch panel needs to touch the touch panel. For example, if an input device is used to operate a television receiver placed on the floor, the input device moves to a position touching the television receiver. become. Therefore, it is not possible to give a control instruction from a place away from the control target as in the case of a remote control device.

一方、特許文献1に記載された技術を採用すれば、制御対象から離れた場所から制御の指示を与えることができる。しかしながら、特許文献1に記載された技術は、距離の極小点を指先の位置とみなし、かつ極小点の位置の変化を指先の位置の変化とみなしているから、識別可能な動きの種類は比較的少なくなる。   On the other hand, if the technique described in Patent Document 1 is adopted, a control instruction can be given from a place away from the control target. However, since the technique described in Patent Document 1 regards the minimum point of the distance as the position of the fingertip and regards the change in the position of the minimum point as the change in the position of the fingertip, Less.

最近では、電子ブックやウェブ版の新聞が提供されており、この種のコンテンツに対応するために頁めくりの操作は必須になりつつある。タッチパネルで頁めくりの操作を行う場合は、2次元平面上で指先などを移動させるだけであり、また、特許文献1に記載の技術を採用したとしてもタッチパネルと同様の動きになる。つまり、人の自然な動きを画面上での頁めくりに対応付けることができない。   Recently, electronic books and web versions of newspapers have been provided, and page turning operations are becoming indispensable in order to handle this type of content. When a page turning operation is performed on the touch panel, only a fingertip or the like is moved on a two-dimensional plane, and even if the technique described in Patent Document 1 is adopted, the movement is the same as that on the touch panel. That is, it is not possible to associate a natural movement of a person with page turning on the screen.

本発明は、手と前腕とに相当する対象物の動作を検出することによって、本や新聞の頁めくりを行う際の人の自然な動作に近い動きを認識できるようにした操作入力装置、およびこの操作入力装置を実現するためのプログラムを提供することを目的とする。   The present invention relates to an operation input device capable of recognizing a movement close to a natural movement of a person when turning a page of a book or a newspaper by detecting the movement of an object corresponding to a hand and a forearm, and this It is an object to provide a program for realizing an operation input device.

本発明に係る操作入力装置は、上述の目的を達成するために、手に相当する第1要素と前腕に相当する第2要素とについて距離画像の動画像を生成する距離画像生成手段と、第2要素の主軸の周りにおける第1要素の角度の変化を検出する角度検出部と、角度検出部が検出した角度が規定の検出範囲であるときに規定の動作が行われたと判断する動作判定部とを備えることを特徴とする。   In order to achieve the above-described object, the operation input device according to the present invention includes a distance image generating unit that generates a moving image of a distance image for a first element corresponding to a hand and a second element corresponding to a forearm, An angle detection unit that detects a change in the angle of the first element around the principal axis of the two elements, and an operation determination unit that determines that a specified operation has been performed when the angle detected by the angle detection unit is within a specified detection range. It is characterized by providing.

本発明に係る操作入力装置は、少なくとも手に相当する第1要素と前腕に相当する第2要素とを含む対象物に関して対象物までの距離を画素値に持つ距離画像の動画像を生成する距離画像生成手段と、距離画像から第1要素に対応する領域と第2要素に対応する領域とを抽出するとともに第1要素において手のひらに相当する対象面を抽出する要素抽出手段と、要素抽出手段が抽出した第1要素と第2要素との位置および向きの変化を距離画像の動画像から抽出する動作抽出手段と、動作抽出手段が第1要素と第2要素との規定の動作を検出したときに制御対象への対応制御を行う制御手段とを備え、動作抽出手段は、距離画像により形成される3次元の仮想空間において、前記対象面の法線ベクトルの向きが第2要素の主軸の周りで回転する第1事象と、第2要素の主軸に沿った方向ベクトルの向きが変化する第2事象とを検出する事象検出部と、事象検出部が検出した第1事象における回転する角度および第2事象における変化する角度を検出する角度検出部と、事象検出部が第1事象および第2事象の検出を開始してから規定の判定時間内において角度検出部が検出した角度が規定の検出範囲であるときに前記規定の動作が行われたと判断する動作判定部とを備えることを特徴とする。   The operation input device according to the present invention generates a moving image of a distance image having a pixel value as a distance to the object with respect to the object including at least a first element corresponding to a hand and a second element corresponding to a forearm. An element generating means for extracting an area corresponding to the first element and an area corresponding to the second element from the distance image, and extracting a target surface corresponding to a palm in the first element; A motion extracting means for extracting a change in the position and orientation of the extracted first element and second element from the moving image of the distance image; and when the motion extracting means detects a prescribed motion of the first element and the second element. Control means for performing correspondence control to the controlled object, and the motion extracting means has a normal vector direction of the target surface around the principal axis of the second element in a three-dimensional virtual space formed by the distance image. Rotate with An event detection unit that detects a first event and a second event in which the direction of a direction vector along the main axis of the second element changes, a rotation angle in the first event detected by the event detection unit, and a second event An angle detection unit that detects a changing angle, and an angle detected by the angle detection unit within a predetermined determination time after the event detection unit starts detecting the first event and the second event is within a predetermined detection range. And an operation determination unit that determines that the prescribed operation has been performed.

この操作入力装置において、事象検出部は、第1要素と第2要素との移動の向きを識別し、動作判定部は、事象検出部が識別した移動の向きに応じて動作の種類を識別することが好ましい。   In this operation input device, the event detection unit identifies the direction of movement between the first element and the second element, and the operation determination unit identifies the type of operation according to the direction of movement identified by the event detection unit. It is preferable.

この操作入力装置において、動作判定部は、角度検出部が検出した角度に対する検出範囲を設定する設定部を備えることが好ましい。   In this operation input device, it is preferable that the motion determination unit includes a setting unit that sets a detection range for the angle detected by the angle detection unit.

この操作入力装置において、設定部は、検出範囲を設定する設定モードと、検出範囲を使用して前記規定の動作を判断する使用モードとの2つの動作モードを有し、設定モードでは、対象物に前記規定の動作を複数回行わせたときに角度検出部が検出した角度に基づいて検出範囲を設定することが好ましい。   In this operation input device, the setting unit has two operation modes: a setting mode for setting a detection range, and a use mode for determining the specified operation using the detection range. Preferably, the detection range is set based on the angle detected by the angle detection unit when the prescribed operation is performed a plurality of times.

この操作入力装置において、要素抽出手段は、距離画像を用いて対象物に関して第1要素および第2要素を抽出した後、第1要素の主軸に沿う方向において当該主軸に直交する面内での最大幅を計測し、計測した最大幅の変化が規定条件を満たす位置を第1要素と第2要素との境界とみなすことが好ましい。   In this operation input device, the element extracting means extracts the first element and the second element from the object using the distance image, and then extracts the first element and the second element in the plane perpendicular to the main axis in the direction along the main axis of the first element. It is preferable to measure a large amount and consider a position where the change in the measured maximum width satisfies a specified condition as a boundary between the first element and the second element.

この操作入力装置において、要素抽出手段は、距離画像を用いて対象物に関して第1要素および第2要素を抽出した後、第1要素の主軸に沿う方向において当該主軸に直交する面内での曲率を計測し、計測した曲率の変化が規定条件を満たす位置を第1要素と第2要素との境界とみなすことが好ましい。   In this operation input device, the element extraction means extracts the first element and the second element with respect to the object using the distance image, and then, in the direction along the principal axis of the first element, the curvature in the plane perpendicular to the principal axis. It is preferable to regard the position where the measured change in curvature satisfies the specified condition as the boundary between the first element and the second element.

この操作入力装置において、要素抽出手段は、距離画像を用いて対象物に関して第1要素および第2要素を抽出した後、第1要素の主軸に沿う方向において第1要素と第2要素とを合計した長さ寸法に対して規定の比率で区分される位置を第1要素と第2要素との境界とみなすことが好ましい。   In this operation input device, the element extraction means extracts the first element and the second element with respect to the object using the distance image, and then sums the first element and the second element in the direction along the main axis of the first element. It is preferable that the position divided at a specified ratio with respect to the length dimension is regarded as the boundary between the first element and the second element.

本発明に係るプログラムは、コンピュータを、手に相当する第1要素と前腕に相当する第2要素とについて距離画像の動画像を距離画像生成手段から取得するとともに、第1要素と第2要素との規定の動作を検出する演算処理装置として機能させるためのプログラムであって、コンピュータを、第2要素の主軸の周りにおける第1要素の角度の変化を検出する角度検出部と、角度検出部が検出した角度が規定の検出範囲であるときに規定の動作が行われたと判断する動作判定部とを備える演算処理装置として機能させるものである。   The program according to the present invention acquires a moving image of a distance image from the distance image generation means for the first element corresponding to the hand and the second element corresponding to the forearm, and the first element and the second element. A program for causing the computer to function as an arithmetic processing unit that detects a prescribed operation of the first and second computers, wherein an angle detector that detects a change in the angle of the first element around the main axis of the second element, and an angle detector The information processing apparatus functions as an arithmetic processing device including an operation determination unit that determines that a specified operation has been performed when the detected angle is within a specified detection range.

また、本発明に係るプログラムは、コンピュータを、少なくとも手に相当する第1要素と前腕に相当する第2要素とを含む対象物に関して対象物までの距離を画素値に持つ距離画像の動画像を生成する距離画像生成手段から距離画像を取得するとともに、第1要素と第2要素との規定の動作を検出したときに制御対象への対応制御を行う演算処理装置として機能させるためのプログラムであって、コンピュータを、距離画像から第1要素に対応する領域と第2要素に対応する領域とを抽出するとともに第1要素において手のひらに相当する対象面を抽出する要素抽出手段と、要素抽出手段が抽出した第1要素と第2要素との位置および向きの変化を距離画像の動画像から抽出する動作抽出手段と、動作抽出手段が第1要素と第2要素との規定の動作を検出したときに制御対象への対応制御を行う制御手段とを備え、動作抽出手段が、距離画像により形成される3次元の仮想空間において、前記対象面の法線ベクトルの向きが第2要素の主軸の周りで回転する第1事象と、第2要素の主軸に沿った方向ベクトルの向きが変化する第2事象とを検出する事象検出部と、事象検出部が検出した第1事象における回転する角度および第2事象における変化する角度を検出する角度検出部と、事象検出部が第1事象および第2事象の検出を開始してから規定の判定時間内において角度検出部が検出した角度が規定の検出範囲であるときに前記規定の動作が行われたと判断する動作判定部とを備える演算処理装置として機能させるものである。   Further, the program according to the present invention allows a computer to generate a moving image of a distance image having a pixel value as a distance to an object with respect to an object including at least a first element corresponding to a hand and a second element corresponding to a forearm. A program for obtaining a distance image from a distance image generating means to be generated and for causing a function to function as an arithmetic processing unit that performs control of correspondence to a control target when a prescribed operation of the first element and the second element is detected. The computer extracts an area corresponding to the first element and an area corresponding to the second element from the distance image, and extracts an object plane corresponding to the palm in the first element; Action extraction means for extracting changes in position and orientation between the extracted first element and second element from the moving image of the distance image, and the action extraction means defines the first element and the second element Control means for performing correspondence control to the control object when the motion is detected, and the motion extraction means has a second direction of the normal vector of the target surface in the three-dimensional virtual space formed by the distance image. An event detector that detects a first event that rotates about the principal axis of the element and a second event that changes the orientation of the direction vector along the principal axis of the second element, and a first event detected by the event detector An angle detection unit for detecting a rotation angle and a changing angle in the second event, and an angle detected by the angle detection unit within a predetermined determination time after the event detection unit starts detecting the first event and the second event Is operated as an arithmetic processing unit including an operation determination unit that determines that the specified operation has been performed when is within a specified detection range.

本発明の構成によれば、手と前腕とに相当する対象物の動作を個別に検出し、本や新聞の頁めくりを行う際の人の自然な動作に近い動きを認識することができるから、使用者は操作方法を覚えなくとも頁めくりの際の普通の動作をするだけで、制御対象に対応制御を行わせることができるという効果がある。   According to the configuration of the present invention, it is possible to individually detect the movement of the object corresponding to the hand and the forearm and recognize a movement close to a natural movement of a person when turning a page of a book or a newspaper. Even if the user does not learn the operation method, the user can cause the control target to perform the corresponding control only by performing a normal operation when turning the page.

実施形態を示すブロック図である。It is a block diagram which shows embodiment. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above. 同上の動作説明図である。It is operation | movement explanatory drawing same as the above.

以下に説明する操作入力装置は、図1に示すように、距離画像の動画像を生成する距離画像生成手段10と、距離画像生成手段10から距離画像を取得するとともに対象物の規定の動作を検出したときに制御対象への対応制御を行う演算処理装置20とを備える。演算処理装置20は、ハードウェア要素としてのコンピュータを備え、適宜のプログラムをコンピュータで実行することにより以下に説明する機能を実現する。   As shown in FIG. 1, the operation input device described below is a distance image generation unit 10 that generates a moving image of a distance image, acquires a distance image from the distance image generation unit 10, and performs a prescribed operation of an object. And an arithmetic processing unit 20 that performs control corresponding to the control target when detected. The arithmetic processing unit 20 includes a computer as a hardware element, and implements the functions described below by executing an appropriate program on the computer.

本実施形態では、距離画像生成手段10が認識対象とする対象物は、人体の手に相当する第1要素と、人体の前腕に相当する第2要素とを含んでいることを想定している。ただし、対象物は人型のロボットや人形であってもよく、第1要素が手として認識されかつ第2要素が前腕として認識される形状を有していれば、対象物が人体か否かは問わない。また、手や前腕は、露出していることが望ましいが、手にミトンが装着されている場合や、前腕が冬服の袖で覆われている場合でも、頁めくりの動きを認識することが可能である。したがって、屋内で使用する場合だけでなく、屋外であっても季節を問わずに頁めくりの動作を認識することが可能である。   In the present embodiment, it is assumed that the object to be recognized by the distance image generating unit 10 includes a first element corresponding to the hand of the human body and a second element corresponding to the forearm of the human body. . However, the object may be a humanoid robot or a doll. If the first element is recognized as a hand and the second element is recognized as a forearm, whether or not the object is a human body. Does not matter. Hands and forearms are preferably exposed, but they can recognize page-turning movements even when mittens are worn on the hands or when the forearms are covered with winter clothes sleeves. Is possible. Therefore, it is possible to recognize the page turning operation not only when used indoors but also outdoors, regardless of the season.

距離画像生成手段10は、実空間における対象物までの距離を計測するセンサ部11と、センサ部11が計測した対象物までの距離を画素値に持つ距離画像を生成する距離演算部12とを備える。   The distance image generation means 10 includes a sensor unit 11 that measures a distance to a target object in real space, and a distance calculation unit 12 that generates a distance image whose pixel value is the distance to the target object measured by the sensor unit 11. Prepare.

センサ部11は、アクティブ型の構成とパッシブ型の構成とのいずれでも採用可能である。本実施形態のセンサ部11は、対象物が存在する空間に投光するとともに、空間に存在する物体からの反射光を受光し、投光から受光までの時間差に相当する情報を用いて物体までの距離を検出するアクティブ型の構成を備える。すなわち、センサ部11は、飛行時間(TOF=Time Of Flight)法により対象物までの距離を計測する。   The sensor unit 11 can employ either an active configuration or a passive configuration. The sensor unit 11 of the present embodiment projects light into a space where an object exists, receives reflected light from an object existing in the space, and uses information corresponding to a time difference from light projection to light reception to the object. It has an active configuration for detecting the distance. That is, the sensor unit 11 measures the distance to the object by the time of flight (TOF = Time Of Flight) method.

以下では、センサ部11の一例として、発光源から空間に投光し、空間に存在する対象物からの反射光を撮像素子で受光するアクティブ型の構成を想定する。   In the following, as an example of the sensor unit 11, an active configuration is assumed in which light is emitted from a light emitting source into a space, and reflected light from an object existing in the space is received by an image sensor.

発光源は、時間とともに強度が変化する強度変調光を投光し、対象物で反射され撮像素子で受光された強度変調光(反射光)と投光した強度変調光との位相差を、投光から受光までの時間差に相当する情報として用いる。変調光の変調波形は、正弦波が望ましいが、三角波、鋸歯状波、方形波などから選択することも可能である。また、変調光の周期は一定とする。   The light source emits intensity-modulated light whose intensity changes with time, and projects the phase difference between the intensity-modulated light (reflected light) reflected by the object and received by the image sensor and the intensity-modulated light thus projected. It is used as information corresponding to the time difference from light to light reception. The modulation waveform of the modulated light is preferably a sine wave, but can also be selected from a triangular wave, a sawtooth wave, a square wave, and the like. The period of the modulated light is assumed to be constant.

一方、撮像素子は、複数個の受光領域(画素)が2次元配列されたCCDイメージセンサやCMOSイメージセンサのような周知の構成のものが用いられる。ただし、撮像素子は、センサ部11に適する特別な構造を有するように設計されていてもよい。撮像素子の受光のタイミングは、発光源が投光する強度変調光の周期に同期させて設定され、たとえば、強度変調光の周期内において90度ずつ異なる位相に相当するタイミングの受光量を個別に取り出す。強度変調光の強度変化の周波数は、実用上は数MHz〜数十MHzに設定され、撮像素子が受光する受光量は、強度変調光の1周期分の反射光の光量では不十分である。したがって、撮像素子では複数周期分(たとえば、10000周期分)の受光量に相当する電荷を蓄積した後、蓄積した電荷を前記位相の受光量に相当する電荷として出力する。   On the other hand, an image pickup device having a known configuration such as a CCD image sensor or a CMOS image sensor in which a plurality of light receiving regions (pixels) are two-dimensionally arranged is used. However, the imaging element may be designed to have a special structure suitable for the sensor unit 11. The light receiving timing of the image sensor is set in synchronization with the period of the intensity modulated light emitted by the light source. For example, the amount of light received at a timing corresponding to a phase different by 90 degrees within the period of the intensity modulated light is individually set Take out. The intensity change frequency of the intensity-modulated light is practically set to several MHz to several tens of MHz, and the amount of received light received by the image sensor is insufficient with the amount of reflected light for one period of the intensity-modulated light. Accordingly, the image sensor accumulates charges corresponding to the amount of light received for a plurality of periods (for example, 10,000 periods), and then outputs the accumulated charge as charges corresponding to the amount of light received in the phase.

ところで、発光源が強度変調光を投光し撮像素子が反射光を受光する構成のセンサ部11は、撮像素子の視野全体において対象物までの距離を一括して計測することができるから、比較的短い時間で1枚の距離画像に相当する情報が得られる。したがって、通常の濃淡画像やカラー画像と同様に、1秒間に30フレーム以上を得ることが可能である。   By the way, the sensor unit 11 having a configuration in which the light source emits intensity-modulated light and the image sensor receives reflected light can collectively measure the distance to the object in the entire field of view of the image sensor. Information corresponding to one distance image can be obtained in a short time. Therefore, it is possible to obtain 30 frames or more per second, as in a normal gray image or color image.

センサ部11では強度変調光の各位相に対応する複数種類(たとえば、4種類)の電荷量が得られ、これらの電荷量は、強度変調光の位相を示す信号とともに距離演算部12に入力される。   The sensor unit 11 obtains a plurality of types (for example, four types) of charge amounts corresponding to each phase of the intensity-modulated light, and these charge amounts are input to the distance calculation unit 12 together with a signal indicating the phase of the intensity-modulated light. The

いま、強度変調光が正弦波であって、センサ部11からは90度ずつ異なる4位相に対応する電荷量が得られるとする。各電荷量をA0,A1,A2,A3とすると、投受光の位相差φ[rad]は下式で表される。
φ=tan−1{(A0−A2)/(A1−A3)}
強度変調光の周波数をf〔Hz〕とすれば、投光から受光までの時間差Δtは位相差φを用いて、Δt=φ/2π・fと表されるから、光速をc〔m/s〕とすると、物体までの距離は、c・φ/4π・fと表される。すなわち、4種類の電荷量A0,A1,A2,A3により対象物までの距離を求めることができる。
Now, it is assumed that the intensity-modulated light is a sine wave, and the sensor unit 11 can obtain charge amounts corresponding to four phases that differ by 90 degrees. When each charge amount is A0, A1, A2, and A3, the phase difference φ [rad] of light transmission / reception is expressed by the following equation.
φ = tan −1 {(A0−A2) / (A1−A3)}
If the frequency of intensity-modulated light is f [Hz], the time difference Δt from light projection to light reception is expressed as Δt = φ / 2π · f using the phase difference φ, so the speed of light is c [m / s. ], The distance to the object is expressed as c · φ / 4π · f. That is, the distance to the object can be obtained from the four types of charge amounts A0, A1, A2, and A3.

距離演算部12は、センサ部11から得られた情報を用いて、各画素ごとに上述した計算を行うことにより、各画素の画素値として距離を対応付けた距離画像を生成する。ただし、得られた距離画像は、センサ部11から対象物を見込む方向における距離であって、画素の位置が角度に対応している。画素の位置に対応する角度は既知であるから、距離演算部12は、画素の位置と画素値である距離とを用いることにより、対象物の位置が実空間に対応する3次元の直交座標系で表されるように座標変換を行う。したがって、距離演算部12からは、対象物の位置が直交座標系で表された距離画像の動画像が得られる。言い換えると、撮像素子の画素に距離を対応付けた距離画像を、直交座標系で表される3次元の仮想空間にマッピングした距離画像が得られる。なお、上述した距離画像生成手段10の構成は周知であるから詳述しない。   The distance calculation unit 12 generates the distance image in which the distance is associated as the pixel value of each pixel by performing the above-described calculation for each pixel using the information obtained from the sensor unit 11. However, the obtained distance image is a distance in the direction in which the object is viewed from the sensor unit 11, and the pixel position corresponds to the angle. Since the angle corresponding to the position of the pixel is known, the distance calculation unit 12 uses the position of the pixel and the distance that is the pixel value to thereby obtain a three-dimensional orthogonal coordinate system in which the position of the object corresponds to the real space. Coordinate transformation is performed as represented by Therefore, the distance calculation unit 12 can obtain a moving image of a distance image in which the position of the object is represented in an orthogonal coordinate system. In other words, a distance image obtained by mapping a distance image in which a distance is associated with a pixel of an image sensor in a three-dimensional virtual space represented by an orthogonal coordinate system is obtained. The configuration of the distance image generation means 10 described above is well known and will not be described in detail.

距離画像生成手段10は、距離画像の動画像を要素抽出手段2に与える。要素抽出手段2は、距離画像の視野内において手に相当する第1要素と前腕に相当する第2要素とを対象物として抽出する。言い換えると、少なくとも第1要素と第2要素とを含む対象物が距離画像に含まれていることが必要である。   The distance image generation unit 10 gives a moving image of the distance image to the element extraction unit 2. The element extraction means 2 extracts the first element corresponding to the hand and the second element corresponding to the forearm as objects in the field of view of the distance image. In other words, it is necessary that the object including at least the first element and the second element is included in the distance image.

要素抽出手段2は、距離画像から第1要素と第2要素とを抽出するために、距離画像における距離の分布を求めるとともに、距離画像から対象物の輪郭の抽出を行い、前腕から手までの範囲に相当する領域の画素を抽出する。すなわち、要素抽出手段2は、距離の分布においてクラスタを形成する画素群であって、画素に連続性がある場合に当該画素群を対象物の一部であると認識する。ここに、距離画像において、隣接する各一対の画素の間の距離が規定した範囲内であるときに両画素は連続していると判断され、連続している画素からなる領域について形状および他の領域との接続関係を用いて対象物Obの一部と判断される。また、抽出された領域の包絡線が対象物Obの輪郭になる。   In order to extract the first element and the second element from the distance image, the element extraction means 2 obtains the distribution of distances in the distance image, extracts the contour of the object from the distance image, and extracts from the forearm to the hand. Pixels in the area corresponding to the range are extracted. That is, the element extraction unit 2 recognizes the pixel group as a part of the object when the pixel group forms a cluster in the distance distribution and the pixel has continuity. Here, in the distance image, when the distance between each pair of adjacent pixels is within a specified range, it is determined that both pixels are continuous, and the shape and other areas of the region composed of continuous pixels are determined. It is determined as a part of the object Ob using the connection relationship with the region. Further, the envelope of the extracted region becomes the contour of the object Ob.

要素抽出手段2は、対象物の一部であると認識された画素群を、さらに別の判定基準を用いることにより、手に相当する第1要素と、前腕に相当する第2要素とに分類する。要素抽出手段2は、常時動作させることが可能であるが、センサ部11の視野内に設定された規定の空間領域において物体が検出されるようになるまでは、要素抽出手段2を動作させないようにするのが望ましい。すなわち、演算処理装置20の動作モードを2段階に切り替えるのが望ましい。   The element extraction unit 2 classifies the pixel group recognized as a part of the object into a first element corresponding to the hand and a second element corresponding to the forearm by using another criterion. To do. The element extraction unit 2 can be operated at all times, but the element extraction unit 2 is not operated until an object is detected in a predetermined spatial region set in the field of view of the sensor unit 11. It is desirable to make it. That is, it is desirable to switch the operation mode of the arithmetic processing unit 20 to two stages.

要素抽出手段2は、距離画像の1フレーム毎に第1要素と第2要素とを抽出する。さらに、要素抽出手段2は、第1要素21(図2参照)について手のひらに相当する面領域である対象面を抽出し、この対象面の向きから手のひらの向きに相当する法線ベクトルV11,V12を決定する。この法線ベクトルV11,V12は、たとえば、手のひらとして抽出した対象面の重心を求め、この重心の近傍において小面積の面要素を複数設定し、各面要素の法線ベクトルを合成して得られる向きを法線ベクトルV11,V12の向きとして採用する。なお、法線ベクトルV11,V12は向きのみが必要であり、大きさは問わない。   The element extraction unit 2 extracts the first element and the second element for each frame of the distance image. Further, the element extraction unit 2 extracts a target surface that is a surface region corresponding to the palm of the first element 21 (see FIG. 2), and normal vectors V11 and V12 corresponding to the direction of the palm from the direction of the target surface. To decide. The normal vectors V11 and V12 are obtained, for example, by obtaining the center of gravity of the target surface extracted as a palm, setting a plurality of small surface elements in the vicinity of the center of gravity, and synthesizing the normal vectors of the surface elements. The direction is adopted as the direction of the normal vectors V11 and V12. Note that the normal vectors V11 and V12 need only have an orientation and can be of any size.

また、要素抽出手段2は、第2要素22(図2参照)について主軸Axを求め、主軸Axに沿った方向ベクトルV21,V22を決定する。第2要素22の主軸Axは、前腕として抽出した部位の画素の分布を用いて求める。方向ベクトルV21,V22は、法線ベクトルV11,V12と同様に、向きのみが必要であり、大きさは問わない。   Further, the element extraction unit 2 obtains the principal axis Ax for the second element 22 (see FIG. 2), and determines the direction vectors V21 and V22 along the principal axis Ax. The principal axis Ax of the second element 22 is obtained using the pixel distribution of the part extracted as the forearm. As with the normal vectors V11 and V12, only the direction is required for the direction vectors V21 and V22, and the size is not limited.

要素抽出手段2が抽出した第1要素21および第2要素22と、第1要素21の法線ベクトルV11,V12および第2要素22の方向ベクトルV21,V22とは、動作抽出手段3に入力される。動作抽出手段3は、要素抽出手段2が抽出した第1要素21と第2要素22との位置および向きの変化を距離画像の動画像から抽出する。そのため、動作抽出手段3は、図1に示すように、事象検出部31と角度検出部32と動作判定部33とを備える。   The first element 21 and the second element 22 extracted by the element extraction unit 2, the normal vectors V11 and V12 of the first element 21, and the direction vectors V21 and V22 of the second element 22 are input to the operation extraction unit 3. The The motion extraction unit 3 extracts changes in the position and orientation of the first element 21 and the second element 22 extracted by the element extraction unit 2 from the moving image of the distance image. Therefore, the motion extraction unit 3 includes an event detection unit 31, an angle detection unit 32, and a motion determination unit 33, as shown in FIG.

図2に示すように、事象検出部31は、距離画像として形成されている3次元の仮想空間において、第1要素21から求めた手のひらに相当する対象面の法線ベクトルV11,V12の向きが第2要素22の主軸Axの周りで回転する第1事象を検出する。また、事象検出部31は、第2要素22の主軸Axに沿った方向ベクトルV21,V22の向きが変化する第2事象とを検出する。すなわち、事象検出部31は、第1要素21から得られる法線ベクトルV11,V12の向きと、第2要素22から得られる方向ベクトルV21,V22の向きとに変化があるか否かを判断する。   As shown in FIG. 2, the event detection unit 31 has the orientation of the normal vectors V11 and V12 of the target surface corresponding to the palm obtained from the first element 21 in the three-dimensional virtual space formed as the distance image. A first event rotating around the main axis Ax of the second element 22 is detected. In addition, the event detection unit 31 detects a second event in which the direction of the direction vectors V21 and V22 along the main axis Ax of the second element 22 changes. That is, the event detection unit 31 determines whether or not there is a change in the direction of the normal vectors V11 and V12 obtained from the first element 21 and the direction of the direction vectors V21 and V22 obtained from the second element 22. .

なお、図2は、センサ部11が人体よりも上方に配置されている場合を想定した例を示しているが、人体の正面にセンサ部11を配置する使用形態では、対象物の表裏が逆になる。   Note that FIG. 2 shows an example in which the sensor unit 11 is arranged above the human body. However, in the usage mode in which the sensor unit 11 is arranged in front of the human body, the front and back of the object are reversed. become.

事象検出部31が、法線ベクトルV11,V12および方向ベクトルV21,V22について向きの変化が生じたと判断すると、角度検出部32は、向きの変化分に相当する角度を検出する。すなわち、角度検出部32は、第1事象における法線ベクトルV11,V12の向きの変化分である角度φと、第2事象における方向ベクトルV21,V22の向きの変化分である角度θとを検出する。角度φは、第2要素22の主軸Axの周りで回転した角度であり、角度θは、仮想空間において主軸Axの向きが変化した角度である。   When the event detection unit 31 determines that the direction change has occurred with respect to the normal vectors V11 and V12 and the direction vectors V21 and V22, the angle detection unit 32 detects an angle corresponding to the change in direction. That is, the angle detection unit 32 detects an angle φ that is a change in the direction of the normal vectors V11 and V12 in the first event and an angle θ that is a change in the direction of the direction vectors V21 and V22 in the second event. To do. The angle φ is an angle rotated around the main axis Ax of the second element 22, and the angle θ is an angle at which the direction of the main axis Ax is changed in the virtual space.

本実施形態は、対象物が頁めくりの動作に相当する動きを行っているか否かを判断することが目的であるから、事象検出部31が検出する第1事象および第2事象は連動しているという条件が必要である。また、角度検出部32が検出する角度は、規定の検出範囲内であるという条件も必要である。さらに、第1事象および第2事象の検出が開始されてから、角度が検出範囲内に達するまでの時間は、規定の判定時間内であるという条件も要求される。これらの3つの条件が満たされるか否かを判断するために、動作判定部33が設けられている。動作判定部33は、上述した3つの条件を判断し、すべての条件が満足されたときに、頁めくりに相当する規定の動作が行われたと判断する。   Since the present embodiment is intended to determine whether or not the object is moving corresponding to the page turning operation, the first event and the second event detected by the event detection unit 31 are interlocked. The condition of being is necessary. Moreover, the condition that the angle which the angle detection part 32 detects is in a regular detection range is also required. Furthermore, the condition that the time from when the detection of the first event and the second event is started until the angle reaches the detection range is within a predetermined determination time is also required. In order to determine whether or not these three conditions are satisfied, an operation determination unit 33 is provided. The operation determination unit 33 determines the above-described three conditions, and determines that a prescribed operation corresponding to page turning has been performed when all the conditions are satisfied.

上述した処理によって、距離画像の動画像に基づいて頁めくりに相当する動作が行われたと判断されると、動作抽出手段3は、制御手段4に頁めくりに相当する動作が行われたことを通知する。この通知を受けて制御手段4は、制御対象5への対応制御を行う。たとえば、制御対象5がモニタ装置の画面に電子ブックやウェブ新聞の頁を表示する装置であるとすれば、当該装置への対応制御として頁の更新を指示する。   When it is determined that the operation corresponding to the page turning is performed based on the moving image of the distance image by the above-described processing, the operation extracting unit 3 confirms that the operation corresponding to the page turning is performed by the control unit 4. Notice. Upon receipt of this notification, the control means 4 performs response control to the control object 5. For example, if the control target 5 is a device that displays an electronic book or a web newspaper page on the screen of the monitor device, the updating of the page is instructed as a corresponding control to the device.

角度検出部32は、角度が変化した向きも検出しており、図2に矢印で示す向きに角度が変化した場合には、頁を更新する向きを逆転させる。たとえば、図2に矢印で示す向きの角度変化に対して頁が増加する向きに頁を更新するとすれば、矢印とは逆向きの角度変化に対しては頁が減少する向きに頁を更新する。なお、縦書きの頁と横書きの頁とで、頁の増加と減少とを逆にすれば、電子ブックなどの頁めくりを書籍と同感覚で行うことが可能になる。   The angle detection unit 32 also detects the direction in which the angle has changed. When the angle changes in the direction indicated by the arrow in FIG. 2, the direction in which the page is updated is reversed. For example, if the page is updated in the direction in which the page increases with respect to the angle change in the direction indicated by the arrow in FIG. 2, the page is updated in the direction in which the page decreases with respect to the angle change in the direction opposite to the arrow. . Note that if the increase and decrease of pages are reversed between vertically written pages and horizontally written pages, page turning of an electronic book or the like can be performed in the same manner as a book.

ところで、上述した例において、事象検出部31は、第1要素21から法線ベクトルV11,V12を抽出し、第2要素22から方向ベクトルV21,V22を抽出し、さらに向きの変化の有無を判断している。この判断でも頁めくりの動作を検出することが可能であるが、第1要素21および第2要素22の移動の向きを識別する機能が事象検出部31に付加されていることが望ましい。   In the above-described example, the event detection unit 31 extracts the normal vectors V11 and V12 from the first element 21, extracts the direction vectors V21 and V22 from the second element 22, and determines whether or not there is a change in direction. doing. Although it is possible to detect the page turning operation by this determination as well, it is desirable that a function for identifying the direction of movement of the first element 21 and the second element 22 is added to the event detection unit 31.

この機能を実現するために、事象検出部31は、方向ベクトルV21,V22の向きの変化を検出するだけではなく、仮想空間に規定した方向(たとえば、座標軸の方向)に対する方向ベクトルV21,V22の向きを表す角度を知ることが必要である。この角度を用いると、事象検出部31は、仮想空間に対する対象物(第1要素21および第2要素22)の移動の向きを検出することが可能になる。また、動作判定部33は、事象検出部31が検出した対象物の移動の向きに応じて動作の種類を識別し、動作の種類に応じて制御対象4の対応制御を変更することが可能になる。   In order to realize this function, the event detection unit 31 not only detects the change in the direction of the direction vectors V21 and V22, but also detects the direction vectors V21 and V22 with respect to the direction defined in the virtual space (for example, the direction of the coordinate axes). It is necessary to know the angle that represents the direction. Using this angle, the event detection unit 31 can detect the direction of movement of the object (the first element 21 and the second element 22) with respect to the virtual space. Further, the motion determination unit 33 can identify the type of motion according to the direction of movement of the object detected by the event detection unit 31, and can change the corresponding control of the control target 4 according to the type of motion. Become.

たとえば、事象検出部31が対象物の左右方向の移動を検出すると動作判定部33が左右の頁めくりを指示し、事象検出部31において対象物の上下方向の移動を検出すると動作判定部33が上下の頁めくりを指示するように動作の選択が可能になる。また、同様にして、左右や上下ではない頁めくりの動作が制御対象5に対する対応制御として必要であれば、動作判定部33において、対象物の移動方向に応じて適宜の方向の頁めくりを指示することが可能である。   For example, when the event detection unit 31 detects the movement of the object in the left-right direction, the operation determination unit 33 instructs the left and right pages to be turned. When the event detection unit 31 detects the movement of the object in the up-down direction, the operation determination unit 33 The operation can be selected so as to instruct up and down page turning. Similarly, if a page turning operation that is not left / right or up / down is necessary as control corresponding to the control target 5, the operation determination unit 33 instructs the page turning in an appropriate direction according to the moving direction of the object. Is possible.

動作判定部33が判断する条件のうち角度の検出範囲は、センサ部11と利用者との位置関係によって変化する。すなわち、センサ部11を設置する位置によって、規定の動作と判断するための角度は異なることが予想される。したがって、動作判定部33は、角度検出部32が検出した角度に対する検出範囲を設定する設定部(図示せず)を備えることが好ましい。   Of the conditions determined by the motion determination unit 33, the angle detection range varies depending on the positional relationship between the sensor unit 11 and the user. That is, it is expected that the angle for determining the prescribed operation differs depending on the position where the sensor unit 11 is installed. Therefore, it is preferable that the operation determination unit 33 includes a setting unit (not shown) that sets a detection range for the angle detected by the angle detection unit 32.

この設定部は、施工時に手作業で検出範囲を設定する構成を採用することが可能であるが、検出範囲の設定は自動化されていることが好ましい。検出範囲を自動的に設定する場合、設定部には、検出範囲を設定する設定モードと、検出範囲を使用して頁めくりの動作を判断する使用モードとの2つの動作モードが設けられる。   Although this setting unit can adopt a configuration in which the detection range is manually set at the time of construction, it is preferable that the setting of the detection range is automated. When the detection range is automatically set, the setting unit is provided with two operation modes: a setting mode for setting the detection range and a use mode for determining the page turning operation using the detection range.

設定モードでは、利用者あるいは施工者に頁めくりの動作を複数回行わせ、このとき角度検出部32が検出した角度を用いて検出範囲を設定する。すなわち、頁めくりの動作を実際に行ったときに角度検出部32により検出される角度について、平均値と標準偏差とを用いて統計的に検出範囲を決定すればよい。また、設定部に学習機能を付与し、角度検出部32が検出した角度を学習させることにより、検出範囲を決定してもよい。   In the setting mode, the user or the contractor performs the page turning operation a plurality of times, and the detection range is set using the angle detected by the angle detection unit 32 at this time. That is, the detection range may be statistically determined using the average value and the standard deviation for the angle detected by the angle detection unit 32 when the page turning operation is actually performed. Further, the detection range may be determined by giving a learning function to the setting unit and learning the angle detected by the angle detection unit 32.

ところで、上述した動作は、第1要素21と第2要素22とを厳密に分離しなくとも頁めくりの動作を検出することができる点で優れているが、第1要素21と第2要素22との境界を決めることができれば、動作の判断が容易になると考えられる。   The above-described operation is excellent in that the page turning operation can be detected without strictly separating the first element 21 and the second element 22, but the first element 21 and the second element 22 are detected. If it is possible to determine the boundary, it will be easy to judge the operation.

そこで、要素抽出手段2に、第1要素21と第2要素22とを抽出した後に、第1要素21と第2要素22との境界を決める機能が付加されていることが好ましい。境界を決めるためには、たとえば、第1要素21の主軸Axに沿う方向において主軸Axに直交する面内での最大幅W1,W2(図3参照)を計測し、計測した最大幅W1,W2の変化が規定条件を満たす位置を第1要素21と第2要素22との境界とみなす処理を行う。この場合の規定条件は、主軸Ax(図2参照)に沿って対象物の先端側(指先側)から前記最大幅W1,W2を求め、最大幅W1,W2が極小になった後に最大幅W1,W2の変化率が所定値以下になることを条件とし、極小となった位置を境界23と判断する。図3に示すように、第1要素21の最大幅W2は、第2要素22の最大幅W1よりも大きいから、この判定条件で境界23を検出することが可能である。   Therefore, it is preferable that a function for determining the boundary between the first element 21 and the second element 22 is added to the element extraction unit 2 after extracting the first element 21 and the second element 22. In order to determine the boundary, for example, the maximum widths W1 and W2 (see FIG. 3) in the plane orthogonal to the main axis Ax in the direction along the main axis Ax of the first element 21 are measured, and the measured maximum widths W1 and W2 are measured. A process is performed in which the position where the change satisfies the specified condition is regarded as the boundary between the first element 21 and the second element 22. The defining condition in this case is that the maximum widths W1 and W2 are obtained from the tip side (fingertip side) of the object along the main axis Ax (see FIG. 2), and the maximum width W1 is reached after the maximum widths W1 and W2 are minimized. , W2 is determined to be the boundary 23 on the condition that the change rate of W2 is equal to or less than a predetermined value. As shown in FIG. 3, since the maximum width W2 of the first element 21 is larger than the maximum width W1 of the second element 22, the boundary 23 can be detected under this determination condition.

また、主軸Axに直交する面内で対象物の外形の曲率κ(図3参照)を求め、曲率κが規定条件を満たす位置を境界23としてもよい。この場合の規定条件は、主軸Ax(図2参照)に沿って対象物の先端側(指先側)から曲率κを求め、曲率κの変化率が極大になった後に曲率κの変化率が所定値以上になった後、曲率κの変化率が所定値以下になることを条件とし、曲率κの変化率が極大になった位置を境界23と判断する。   Further, the curvature κ (see FIG. 3) of the outer shape of the target object is obtained in a plane orthogonal to the main axis Ax, and the position where the curvature κ satisfies the specified condition may be set as the boundary 23. The defining condition in this case is that the curvature κ is obtained from the tip side (fingertip side) of the object along the main axis Ax (refer to FIG. 2), and the change rate of the curvature κ is predetermined after the change rate of the curvature κ is maximized. After the value becomes greater than or equal to the value, the position where the change rate of the curvature κ becomes maximum is determined as the boundary 23 on condition that the change rate of the curvature κ becomes equal to or less than a predetermined value.

上述した最大幅W1,W2や曲率κは距離画像に基づいて容易に検出することができるから、第1要素21と第2要素22との境界23を容易に検出することが可能である。さらに、より簡易に境界23を求めるには、主軸Axに沿う方向において、第1要素21と第2要素22とを合計した長さ寸法に対して、規定の比率で区分される位置を第1要素21と第2要素22との境界23とみなしてもよい。一般に、人体では種々の部位の比率が測定されているから、長さ寸法に対する比率によって境界23を求めても、統計的に正しい結果を得ることができる。しかも、第1要素21と第2要素22との合計の長さ寸法がわかれば境界23が求められるから、他の方法を用いる場合よりも計算量が少なくなる。   Since the maximum widths W1 and W2 and the curvature κ described above can be easily detected based on the distance image, the boundary 23 between the first element 21 and the second element 22 can be easily detected. Furthermore, in order to obtain the boundary 23 more easily, the position divided at a prescribed ratio with respect to the total length of the first element 21 and the second element 22 in the direction along the main axis Ax is the first position. It may be regarded as a boundary 23 between the element 21 and the second element 22. In general, since the ratio of various parts is measured in the human body, a statistically correct result can be obtained even if the boundary 23 is obtained by the ratio to the length dimension. In addition, since the boundary 23 is obtained if the total length dimension of the first element 21 and the second element 22 is known, the amount of calculation is smaller than when other methods are used.

2 要素抽出手段
3 動作抽出手段
4 制御手段
10 距離画像生成手段
20 演算処理装置
21 第1要素
22 第2要素
31 事象検出部
32 角度検出部
33 動作判定部
2 element extraction means 3 action extraction means 4 control means 10 distance image generation means 20 arithmetic processing device 21 first element 22 second element 31 event detection part 32 angle detection part 33 action determination part

Claims (10)

手に相当する第1要素と前腕に相当する第2要素とについて距離画像の動画像を生成する距離画像生成手段と、前記第2要素の主軸の周りにおける前記第1要素の角度の変化を検出する角度検出部と、前記角度検出部が検出した角度が規定の検出範囲であるときに規定の動作が行われたと判断する動作判定部とを備えることを特徴とする操作入力装置。   Distance image generating means for generating a moving image of the distance image for the first element corresponding to the hand and the second element corresponding to the forearm, and detecting a change in the angle of the first element around the principal axis of the second element An operation input device comprising: an angle detection unit configured to perform an operation determination unit configured to determine that a predetermined operation has been performed when the angle detected by the angle detection unit is within a predetermined detection range. 少なくとも手に相当する第1要素と前腕に相当する第2要素とを含む対象物に関して対象物までの距離を画素値に持つ距離画像の動画像を生成する距離画像生成手段と、前記距離画像から前記第1要素に対応する領域と前記第2要素に対応する領域とを抽出するとともに前記第1要素において手のひらに相当する対象面を抽出する要素抽出手段と、前記要素抽出手段が抽出した前記第1要素と前記第2要素との位置および向きの変化を前記距離画像の動画像から抽出する動作抽出手段と、前記動作抽出手段が前記第1要素と前記第2要素との規定の動作を検出したときに制御対象への対応制御を行う制御手段とを備え、前記動作抽出手段は、前記距離画像により形成される3次元の仮想空間において、前記対象面の法線ベクトルの向きが前記第2要素の主軸の周りで回転する第1事象と、前記第2要素の主軸に沿った方向ベクトルの向きが変化する第2事象とを検出する事象検出部と、前記事象検出部が検出した第1事象における回転する角度および第2事象における変化する角度を検出する角度検出部と、前記事象検出部が第1事象および第2事象の検出を開始してから規定の判定時間内において前記角度検出部が検出した角度が規定の検出範囲であるときに前記規定の動作が行われたと判断する動作判定部とを備えることを特徴とする操作入力装置。   A distance image generating means for generating a moving image of a distance image having a distance to the object as a pixel value with respect to an object including at least a first element corresponding to a hand and a second element corresponding to a forearm; An element extraction means for extracting an area corresponding to the first element and an area corresponding to the second element and extracting a target surface corresponding to a palm in the first element; and the first element extracted by the element extraction means. A motion extracting means for extracting a change in position and orientation between one element and the second element from the moving image of the distance image; and the motion extracting means detects a prescribed motion between the first element and the second element. Control means for performing correspondence control to the control object when the image is extracted, and the motion extraction means has a normal vector orientation of the target surface in the three-dimensional virtual space formed by the distance image. An event detector that detects a first event that rotates about a principal axis of two elements and a second event that changes the orientation of a direction vector along the principal axis of the second element; and the event detector detects An angle detection unit that detects a rotation angle in the first event and a changing angle in the second event; and the event detection unit starts detecting the first event and the second event within a predetermined determination time. An operation input device comprising: an operation determination unit that determines that the specified operation has been performed when the angle detected by the angle detection unit is within a specified detection range. 前記事象検出部は、前記第1要素と前記第2要素との移動の向きを識別し、前記動作判定部は、前記事象検出部が識別した移動の向きに応じて動作の種類を識別することを特徴とする請求項2記載の操作入力装置。   The event detection unit identifies the direction of movement of the first element and the second element, and the operation determination unit identifies the type of operation according to the direction of movement identified by the event detection unit The operation input device according to claim 2, wherein: 前記動作判定部は、前記角度検出部が検出した角度に対する前記検出範囲を設定する設定部を備えることを特徴とする請求項2又は3記載の操作入力装置。   The operation input device according to claim 2, wherein the motion determination unit includes a setting unit that sets the detection range for the angle detected by the angle detection unit. 前記設定部は、前記検出範囲を設定する設定モードと、前記検出範囲を使用して前記規定の動作を判断する使用モードとの2つの動作モードを有し、前記設定モードでは、前記対象物に前記規定の動作を複数回行わせたときに前記角度検出部が検出した角度に基づいて前記検出範囲を設定することを特徴とする請求項4記載の操作入力装置。   The setting unit has two operation modes, a setting mode for setting the detection range and a use mode for determining the specified operation using the detection range. In the setting mode, the setting unit The operation input device according to claim 4, wherein the detection range is set based on an angle detected by the angle detection unit when the prescribed operation is performed a plurality of times. 前記要素抽出手段は、前記距離画像を用いて前記対象物に関して前記第1要素および前記第2要素を抽出した後、前記第1要素の主軸に沿う方向において当該主軸に直交する面内での最大幅を計測し、計測した最大幅の変化が規定条件を満たす位置を前記第1要素と前記第2要素との境界とみなすことを特徴とする請求項2〜5のいずれか1項に記載の操作入力装置。   The element extraction means extracts the first element and the second element with respect to the object using the distance image, and then extracts the first element and the second element in a direction perpendicular to the principal axis in a direction along the principal axis of the first element. 6. The method according to claim 2, wherein a position where the change in the measured maximum width satisfies a specified condition is regarded as a boundary between the first element and the second element. Operation input device. 前記要素抽出手段は、前記距離画像を用いて前記対象物に関して前記第1要素および前記第2要素を抽出した後、前記第1要素の主軸に沿う方向において当該主軸に直交する面内での曲率を計測し、計測した曲率の変化が規定条件を満たす位置を前記第1要素と前記第2要素との境界とみなすことを特徴とする請求項2〜5のいずれか1項に記載の操作入力装置。   The element extraction means extracts the first element and the second element with respect to the object using the distance image, and then has a curvature in a plane perpendicular to the principal axis in a direction along the principal axis of the first element. The operation input according to any one of claims 2 to 5, wherein a position where a change in the measured curvature satisfies a specified condition is regarded as a boundary between the first element and the second element. apparatus. 前記要素抽出手段は、前記距離画像を用いて前記対象物に関して前記第1要素および前記第2要素を抽出した後、前記第1要素の主軸に沿う方向において前記第1要素と前記第2要素とを合計した長さ寸法に対して規定の比率で区分される位置を前記第1要素と前記第2要素との境界とみなすことを特徴とする請求項2〜5のいずれか1項に記載の操作入力装置。   The element extraction means extracts the first element and the second element with respect to the object using the distance image, and then, in the direction along the main axis of the first element, the first element and the second element The position divided at a prescribed ratio with respect to the total length dimension is regarded as a boundary between the first element and the second element. Operation input device. コンピュータを、手に相当する第1要素と前腕に相当する第2要素とについて距離画像の動画像を距離画像生成手段から取得するとともに、前記第1要素と前記第2要素との規定の動作を検出する演算処理装置として機能させるためのプログラムであって、コンピュータを、前記第2要素の主軸の周りにおける前記第1要素の角度の変化を検出する角度検出部と、前記角度検出部が検出した角度が規定の検出範囲であるときに規定の動作が行われたと判断する動作判定部とを備える演算処理装置として機能させるプログラム。   The computer obtains a moving image of the distance image for the first element corresponding to the hand and the second element corresponding to the forearm from the distance image generating means, and performs a prescribed operation of the first element and the second element. A program for causing a computer to function as an arithmetic processing unit for detection, wherein the computer detects an angle detection unit that detects a change in the angle of the first element around the main axis of the second element, and the angle detection unit detects the computer. A program that functions as an arithmetic processing unit including an operation determination unit that determines that a specified operation has been performed when the angle is within a specified detection range. コンピュータを、少なくとも手に相当する第1要素と前腕に相当する第2要素とを含む対象物に関して対象物までの距離を画素値に持つ距離画像の動画像を生成する距離画像生成手段から前記距離画像を取得するとともに、前記第1要素と前記第2要素との規定の動作を検出したときに制御対象への対応制御を行う演算処理装置として機能させるためのプログラムであって、コンピュータを、前記距離画像から前記第1要素に対応する領域と前記第2要素に対応する領域とを抽出するとともに前記第1要素において手のひらに相当する対象面を抽出する要素抽出手段と、前記要素抽出手段が抽出した前記第1要素と前記第2要素との位置および向きの変化を前記距離画像の動画像から抽出する動作抽出手段と、前記動作抽出手段が前記第1要素と前記第2要素との規定の動作を検出したときに制御対象への対応制御を行う制御手段とを備え、前記動作抽出手段が、前記距離画像により形成される3次元の仮想空間において、前記対象面の法線ベクトルの向きが前記第2要素の主軸の周りで回転する第1事象と、前記第2要素の主軸に沿った方向ベクトルの向きが変化する第2事象とを検出する事象検出部と、前記事象検出部が検出した第1事象における回転する角度および第2事象における変化する角度を検出する角度検出部と、前記事象検出部が第1事象および第2事象の検出を開始してから規定の判定時間内において前記角度検出部が検出した角度が規定の検出範囲であるときに前記規定の動作が行われたと判断する動作判定部とを備える演算処理装置として機能させるプログラム。   The distance from a distance image generating means for generating a moving image of a distance image having a pixel value as a distance to the object with respect to the object including at least a first element corresponding to a hand and a second element corresponding to a forearm. A program for acquiring an image and causing a computer to function as an arithmetic processing device that performs control corresponding to a control target when a prescribed operation of the first element and the second element is detected. An element extraction unit that extracts a region corresponding to the first element and a region corresponding to the second element from a distance image and extracts a target surface corresponding to a palm in the first element, and the element extraction unit extracts Action extracting means for extracting a change in position and orientation between the first element and the second element from the moving image of the distance image; and the action extracting means includes the first element. And a control unit that performs control corresponding to a control target when a prescribed motion between the second element and the second element is detected, and the motion extraction unit is configured in the three-dimensional virtual space formed by the distance image. Event detection for detecting a first event in which the direction of the normal vector of the target surface rotates around the main axis of the second element and a second event in which the direction of the direction vector along the main axis of the second element changes An angle detection unit that detects a rotation angle in the first event detected by the event detection unit and a changing angle in the second event, and the event detection unit detects the first event and the second event. A program that functions as an arithmetic processing unit including an operation determination unit that determines that the specified operation has been performed when the angle detected by the angle detection unit is within a specified detection range within a specified determination time from the start. Beam.
JP2011109586A 2011-05-16 2011-05-16 Operation input device, program Expired - Fee Related JP5658618B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011109586A JP5658618B2 (en) 2011-05-16 2011-05-16 Operation input device, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011109586A JP5658618B2 (en) 2011-05-16 2011-05-16 Operation input device, program

Publications (2)

Publication Number Publication Date
JP2012242901A true JP2012242901A (en) 2012-12-10
JP5658618B2 JP5658618B2 (en) 2015-01-28

Family

ID=47464591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011109586A Expired - Fee Related JP5658618B2 (en) 2011-05-16 2011-05-16 Operation input device, program

Country Status (1)

Country Link
JP (1) JP5658618B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9524003B2 (en) 2014-01-08 2016-12-20 Fujitsu Limited Input device that is worn by user and input method
US9529445B2 (en) 2014-01-08 2016-12-27 Fujitsu Limited Input device and input method
US10444617B2 (en) 2015-04-30 2019-10-15 Sony Corporation Image processing apparatus and image processing method
CN110443224A (en) * 2019-08-14 2019-11-12 广东小天才科技有限公司 Page turning detection method, device, electronic equipment and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07219703A (en) * 1994-02-03 1995-08-18 Canon Inc Gesture input method and its device
JP2000040147A (en) * 1998-07-24 2000-02-08 Atr Media Integration & Communications Res Lab Handshake recognition device
JP2001056861A (en) * 1999-06-08 2001-02-27 Matsushita Electric Ind Co Ltd Device and method for recognizing shape and attitude of hand and recording medium where program implementing the method is recorded
WO2008029467A1 (en) * 2006-09-07 2008-03-13 Osaka Electro-Communication University Gesture input system, method and program
US7565295B1 (en) * 2003-08-28 2009-07-21 The George Washington University Method and apparatus for translating hand gestures
JP2011065652A (en) * 2004-05-14 2011-03-31 Honda Motor Co Ltd Sign based man-machine interaction

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07219703A (en) * 1994-02-03 1995-08-18 Canon Inc Gesture input method and its device
JP2000040147A (en) * 1998-07-24 2000-02-08 Atr Media Integration & Communications Res Lab Handshake recognition device
JP2001056861A (en) * 1999-06-08 2001-02-27 Matsushita Electric Ind Co Ltd Device and method for recognizing shape and attitude of hand and recording medium where program implementing the method is recorded
US7565295B1 (en) * 2003-08-28 2009-07-21 The George Washington University Method and apparatus for translating hand gestures
JP2011065652A (en) * 2004-05-14 2011-03-31 Honda Motor Co Ltd Sign based man-machine interaction
WO2008029467A1 (en) * 2006-09-07 2008-03-13 Osaka Electro-Communication University Gesture input system, method and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9524003B2 (en) 2014-01-08 2016-12-20 Fujitsu Limited Input device that is worn by user and input method
US9529445B2 (en) 2014-01-08 2016-12-27 Fujitsu Limited Input device and input method
US10444617B2 (en) 2015-04-30 2019-10-15 Sony Corporation Image processing apparatus and image processing method
CN110443224A (en) * 2019-08-14 2019-11-12 广东小天才科技有限公司 Page turning detection method, device, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP5658618B2 (en) 2015-01-28

Similar Documents

Publication Publication Date Title
US10518414B1 (en) Navigation method, navigation system, movement control system and mobile robot
TWI722280B (en) Controller tracking for multiple degrees of freedom
US20200097091A1 (en) Method and Apparatus of Interactive Display Based on Gesture Recognition
EP2371434B1 (en) Image generation system, image generation method, and information storage medium
JP6054831B2 (en) Image processing apparatus, image processing method, and image processing program
JP2017529635A5 (en)
Saputra et al. Indoor human tracking application using multiple depth-cameras
US20140009384A1 (en) Methods and systems for determining location of handheld device within 3d environment
TW201142745A (en) Information processing apparatus, information processing system, and information processing method
KR102147430B1 (en) virtual multi-touch interaction apparatus and method
RU2012118591A (en) DEVICE FOR AUTOSTEREOSCOPIC RENDERING AND DISPLAY
KR101892735B1 (en) Apparatus and Method for Intuitive Interaction
US20190004599A1 (en) Information processing device, information processing method, and program
WO2017021902A1 (en) System and method for gesture based measurement of virtual reality space
WO2011146070A1 (en) System and method for reporting data in a computer vision system
JP2018119833A (en) Information processing device, system, estimation method, computer program, and storage medium
JP5658618B2 (en) Operation input device, program
CN113474816A (en) Elastic dynamic projection mapping system and method
US11729367B2 (en) Wide viewing angle stereo camera apparatus and depth image processing method using the same
US20130069939A1 (en) Character image processing apparatus and method for footskate cleanup in real time animation
Chen et al. Camera networks for healthcare, teleimmersion, and surveillance
Grewal et al. Autonomous wheelchair navigation in unmapped indoor environments
WO2020040277A1 (en) Mixed reality system, program, mobile terminal device, and method
JP5863984B2 (en) User interface device and user interface method
KR102097033B1 (en) System for estimating motion by sensing interaction of point body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140926

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141128

R150 Certificate of patent or registration of utility model

Ref document number: 5658618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees