JP6008911B2 - Motion recognition device, motion recognition method, and program - Google Patents
Motion recognition device, motion recognition method, and program Download PDFInfo
- Publication number
- JP6008911B2 JP6008911B2 JP2014149239A JP2014149239A JP6008911B2 JP 6008911 B2 JP6008911 B2 JP 6008911B2 JP 2014149239 A JP2014149239 A JP 2014149239A JP 2014149239 A JP2014149239 A JP 2014149239A JP 6008911 B2 JP6008911 B2 JP 6008911B2
- Authority
- JP
- Japan
- Prior art keywords
- space
- data
- user
- still
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000001514 detection method Methods 0.000 claims description 24
- 230000008569 process Effects 0.000 claims description 21
- 238000013459 approach Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 49
- 238000003384 imaging method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000009434 installation Methods 0.000 description 2
- 238000005406 washing Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
本発明は、動作認識装置、動作認識方法、及び、プログラムに関する。 The present invention relates to a motion recognition device, a motion recognition method, and a program.
近年、例えばPC等の情報処理装置の分野において、ユーザーの身振り、手振り(以下「ジェスチャー」という。)などを装置側に設けたカメラによって撮影し、撮影された画像に基づいて特定のジェスチャーが認識されたとき、認識されたジェスチャーに予め対応させた機能を実現させるジェスチャー認識技術が広く知られている。 In recent years, for example, in the field of information processing devices such as PCs, user gestures and hand gestures (hereinafter referred to as “gestures”) are photographed by a camera provided on the device side, and specific gestures are recognized based on the photographed images. When this is done, a gesture recognition technique that realizes a function corresponding to a recognized gesture in advance is widely known.
上記のジェスチャー認識技術に関し、例えば特許文献1には、ユーザーの動作を入力インタフェースとして利用するゲームなどのアプリケーションにおいて、動作検出部により検出された顔の動作に対応するイベントをテーブルから検索してそのイベントを実行するユーザーインタフェースプログラムが開示されている。また、同文献には、画面に映し出されたユーザーの鏡像画面に表示された「?」オブジェクトにユーザーが手で触れる動作をすると、接触が判定されて、「使い方ガイド」の文字が画面上に表示されることが記載されている。
With respect to the gesture recognition technology described above, for example, in
ところで、特許文献1のように、ユーザーの顔の動作を装置側に設けたカメラによって撮影し、所定の機能を実現させる技術の場合、顔の動作が認識されるためには、ユーザーは顔を常に装置側に向けていなければならない。また、このような技術は、所定の機能を実現する上で、常に顔を装置側に向けていなければならないことを、ユーザーに強要してしまっているということになる。また、そもそも、顔の動きだけを操作に用いて所定の機能を実現させることは、いくら顔の動作そのものが自然な動きに準じているとしても、人間の動作全体に鑑みると不自然であると言わざるを得ない。
By the way, in the case of a technique in which a user's face motion is photographed by a camera provided on the apparatus side and a predetermined function is realized as in
本発明は、このような実情に鑑みてなされたものであって、ユーザーに強要することのない、より自然な動作によって所望の機能を実現する動作認識装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide an operation recognition device that realizes a desired function by a more natural operation that is not compelled by a user.
上記の課題を解決するため、本発明の動作認識装置は、1以上の静物が配置された空間を撮影する撮影手段と、空間内におけるユーザーの身体の少なくとも一部を検出する検出手段と、撮影手段により撮影された撮影画像に基づいて空間の3Dモデルデータを生成する3Dモデリング手段と、検出手段による検出結果からユーザーの身体の少なくとも一部の位置を特定する三次元座標データからなる部位データを取得する部位データ取得手段と、3Dモデリング手段により生成された空間の3Dモデルデータに含まれる1以上の静物モデルのうちの少なくとも1の静物モデルが占有する空間の周囲の空間を少なくとも含む囲み空間に、部位データ取得手段により取得された部位データが含まれるかどうかを判定する判定手段と、判定手段により、囲み空間に部位データが含まれると判定されたとき、所定機能を実行する機能実行手段と、を備えることを特徴とする。 In order to solve the above-described problems, the motion recognition apparatus of the present invention includes a photographing unit that photographs a space in which one or more still objects are arranged, a detecting unit that detects at least a part of the user's body in the space, and a photographing unit. 3D modeling means for generating 3D model data of the space based on the photographed image taken by the means, and part data comprising three-dimensional coordinate data for specifying the position of at least a part of the user's body from the detection result by the detection means In a surrounding space including at least a space around a space occupied by at least one still-life model among one or more still-life models included in the 3D model data of the space generated by the part data acquisition means to be acquired and the 3D modeling means Determination means for determining whether or not the part data acquired by the part data acquisition means is included; and , When it is determined to contain a site data enclosed space, characterized in that it comprises a function executing unit that executes a predetermined function, a.
本発明によれば、ユーザーに強要することのない、より自然な動作によって所望の機能を実現することが可能となる。 According to the present invention, it is possible to realize a desired function by a more natural operation that does not force the user.
本発明の実施形態における動作認識装置について図面を用いて以下説明する。なお、各図中、同一又は相当する部分には同一の符号を付しており、その重複説明は適宜に簡略化乃至省略する。なお、以下では、本実施形態における動作認識装置を説明する上で、一例として、一体型のパーソナルコンピュータ(以下「PC」という。)を用いているが、これに限定されず、例えば、デスクトップ型のPCでも、ノート型のPCでも、多機能型携帯電話(スマートフォン)、PDA(Personal Digital Assistant)、携帯電話等の携帯端末でも、情報処理機能を有するテレビジョン(TV)でも、あるいは、情報処理機能を有する、例えば冷蔵庫や洗濯機等の家庭用電化製品等、さらには自家用車等に本実施形態の動作認識装置が適用されるものであってもよい。 An operation recognition apparatus according to an embodiment of the present invention will be described below with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected to the part which is the same or it corresponds, The duplication description is simplified thru | or abbreviate | omitted suitably. In the following description, an integrated personal computer (hereinafter referred to as “PC”) is used as an example in describing the motion recognition apparatus according to the present embodiment. However, the present invention is not limited to this. PC, notebook PC, multi-function mobile phone (smartphone), PDA (Personal Digital Assistant), mobile terminal such as mobile phone, television (TV) with information processing function, or information processing For example, the motion recognition apparatus of the present embodiment may be applied to a household appliance such as a refrigerator or a washing machine having a function, or a private car.
本実施形態における動作認識装置は、ユーザーの身体の少なくとも一部を用いた所定の動作を認識するものであるが、本実施形態においては、ユーザーの手指を用いた動作を例として、以下説明するものとする。なお、動作認識装置が認識する動作は、身体の少なくとも一部を用いた動作であればよく、手指に限らず、腕や脚、顔、あるいは全身等を用いたあらゆる動作を認識し、認識された各動作内容に対応する所定の機能を実現するものであってもよい。なお、動作としているが、必ずしもユーザーの手指等が動いている状態に限らず、動いている途中の手指等を撮影した瞬間の手指等の状態も含まれるものとして以下に説明する。 The motion recognition apparatus according to the present embodiment recognizes a predetermined motion using at least a part of the user's body. In the present embodiment, the motion recognition using the user's fingers will be described below as an example. Shall. The motion recognized by the motion recognition device may be any motion that uses at least a part of the body, and is not limited to fingers and recognizes and recognizes any motion using arms, legs, face, or the whole body. Alternatively, a predetermined function corresponding to each operation content may be realized. The operation is not limited to the state in which the user's finger or the like is moving, but will be described below as including the state of the finger or the like at the moment of shooting the moving finger or the like.
本実施形態における動作認識装置の一例である一体型PC(以下、単に「PC」という。)1を用いた動作概略について図1を参照して説明する。PC1は、例えば、家具などの静物が1以上配置された室内空間を撮影するカメラ11と、IR(Infrared)カメラ12と、ディスプレイ13を備えている。なお、PC1は、その他、図示はしないが、例えば、キーボード、タッチパッド、又はタッチパネル等の入力デバイスを備えるものであってもよい。図1に示す室内空間Sには、例示的に、机2と、スタンドライト3と、ソファ4が配置されており、ユーザーの身体の一部である手Mを模式的に図示している。また、本実施形態においては、室内空間Sに配置された机2等の静物に対するタッチ等の動作をIRカメラ12等によって検出するものである。
An outline of an operation using an integrated PC (hereinafter simply referred to as “PC”) 1 which is an example of an operation recognition apparatus in the present embodiment will be described with reference to FIG. The PC 1 includes, for example, a
カメラ11は、例えば、図1において破線で示すような室内空間Sを撮影し、撮影画像をPC1内に取り込む撮影手段である。カメラ11は、室内空間に配置された机2に代表されるような家具等をできるだけ漏れなく撮影する観点から、広角レンズを備えていることが好ましい。ただし、室内空間に配置された家具等の位置によっては、例えば、室内の中心付近に家具等が配置されているような場合は、必ずしも広角レンズである必要もなく、家具等の配置状況に応じて、画角の異なるレンズを用いるものであってもよい。つまり、本実施形態においては、IRカメラ12により机2等の静物を介したユーザーの動作を検出する場合に、例えばユーザーが触れる可能性のある静物が配置される室内空間を撮影できればよいからである。なお、本実施形態においては、カメラ11をディスプレイ13の上方に設けているが、これに限定されず、室内空間Sのように一定の範囲の空間を撮影することができれば、装置に対する設置位置を問わない。他方、例えば、カメラの設置位置を固定として、不図示の可動手段を用いてカメラの向きを変えることにより所定の空間を撮影できるものとしてもよい。
For example, the
IRカメラ12は、ユーザーの身体の一部である手M等を検出する検出手段である。一点鎖線で示した範囲は、検出エリアを模式的に示したものであり、当該範囲に限定されるものでないことは言うまでもない。なお、検出手段として、本実施形態では赤外線を利用して物体の熱映像を取得するIRカメラを用いているが、これに限定されるものではなく、少なくともユーザーの身体の一部を、3次元的に検出することができるものであれば、例えば、複数台のカメラを用いたステレオカメラシステムや、赤外線を物体に照射して戻る時間を測定することで距離画像イメージを取得するシステム等であってもよい。カメラ11同様に、IRカメラ12についても、装置に対する設置位置等は問わない。
The
ディスプレイ13は画像や映像を表示する表示手段である。なお、本実施形態においては、動作認識装置の例示としてPC1を用いているため、ディスプレイ13を備えている構成としているが、本発明として、ディスプレイは必須の構成ではない。ただし、ユーザーによる動作の結果として、実行される処理内容を画像等の情報によって確認する場合は、ディスプレイ等の表示手段にその情報を映し出す必要があることは言うまでもない。例えば、冷蔵庫や洗濯機等の家電製品等に本発明を適用するような場合、ユーザーによる動作の結果として、これらの家電製品の機能が実行される様子が人間の視覚以外の五感を介して認識できるような場合が、ディスプレイが不要な場合の一例である。
The
本実施形態においては、例えば、カメラ11で撮影した室内空間Sにおける机2に手Mが接触したか否かを、撮影した室内空間Sの撮影画像に基づいて取得した室内空間Sの座標データとIRカメラ12による手Mの検出結果を用いて判定するものとして、以下に説明する。
In the present embodiment, for example, whether or not the hand M touches the
次に、本実施形態における動作認識装置のハードウェア構成について図2を参照して説明する。本実施形態における動作認識装置は、例えば、制御部21と、RAM(Random Access Memory)22と、ROM(Read Only Memory)23と、HDD(Hard Disk Drive)24と、撮影部25と、検出部26と、表示部27と、を備える。
Next, the hardware configuration of the motion recognition apparatus in the present embodiment will be described with reference to FIG. The motion recognition apparatus in the present embodiment includes, for example, a
制御部21は、動作認識装置の全体制御に加え、例えば、後述する3Dモデリング処理、位置座標データ取得処理、判定処理、機能実行処理等を行う、CPU(Central Processing Unit)等である。また、制御部21は、本実施形態における、認識した動作に対応させた所定の機能を実行させるために、上述した各デバイスを制御する。
The
RAM22は、例えば、制御部21の作業用領域として利用されるとともに、各種データの一時記憶領域として利用されるものであればよい。また、ROM23は、例えば、制御部21が実行するBIOS(Basic Input Output System)等の制御プログラムのほか、制御に必要な各種データ等が格納されるものであればよい。
For example, the
HDD24は、例えば、撮影部25を用いて撮影した室内空間Sの撮影画像に基づいて、制御部21により所定の3Dモデリングプログラムを実行させることによりモデル化された3Dモデルデータ等を記憶する大容量記憶装置である。なお、本実施形態においては、例えば、HDD24はPC1に内蔵されているが、HDD24は外付けであってもよい。
The
撮影部25は、室内空間Sを撮影する、例えば上述のカメラ11等の撮影手段である。撮影部25としては、例えば、光を電気信号に変換する撮像素子として、CCD(Charge Coupled Device)、CMOS(Complementary Metal−Oxide Semiconductor)等を備えたデジタルカメラであってよい。なお、撮像素子の解像度は、室内空間Sの撮影画像から当該空間に配置された家具等を好適に認識し得ることができれば、特段、高解像度である必要はない。ただし、例えば、図1に示したような机2等の家具の特定の部位にユーザーの手Mを接触させて、その特定の部位に対応させた機能を実現するような場合、上記特定の部位とその他の部位とが識別可能となる程に、高画質な撮影画像を撮影できることが好ましい。
The
検出部26は、ユーザーの動作として、例えば手M等、ユーザーの身体の一部による動作を検出する、上述したIRカメラ12等の検出手段である。検出手段としては、上述したように、IRカメラだけでなく、ステレオカメラシステム等を用いて、例えば手M等を3次元的に認識可能なものであってもよい。
The
表示部27は、各種画像を表示する、例えば液晶ディスプレイや有機ELディスプレイ等の表示デバイスである。上述したように、本発明として液晶ディスプレイ等の表示デバイスは必須の構成ではないが、本実施形態のように、本発明を適用する装置としてPC1を用いるような場合は、液晶ディスプレイ等の表示デバイスを用いて所定の表示画像を表示すればよい。
The
次に、本実施形態における動作認識装置の機能ブロックについて、図3を参照して説明する。本実施形態における動作認識装置は、機能ブロックとして、撮影部25と、検出部26と、3Dモデリング部31と、部位データ取得部32と、判定部33と、機能実行部34と、を含み構成されている。撮影部25及び検出部26については、上述したため、ここでの説明を省略する。
Next, functional blocks of the motion recognition apparatus in the present embodiment will be described with reference to FIG. The motion recognition apparatus in the present embodiment includes, as function blocks, an
3Dモデリング部31は、撮影部25により撮影された撮影画像に基づいて、例えば室内空間S等の空間の3Dモデルデータを生成する3Dモデリング手段である。生成される3Dモデルデータとしては、例えば図1における室内空間Sにおいて、机2、スタンドライト3、ソファ4を座標データを用いて、それぞれの室内空間Sにおける位置を特定することが好ましい。なお、3Dモデルデータの生成については、既存の技術を用いて行うものであってよい。
The
また、3Dモデリング部31は、少なくとも撮影画像に含まれる1以上の静物の色情報の差異に基づいて撮影画像中の1以上の静物を識別する識別子を1以上の静物の3Dモデルデータ毎に付与する。例えば図1における机2とスタンドライト3は、3Dモデリング部31によってそれぞれの座標データとして取得されているだけであるため、当該データのみでは机2とスタンドライト3とを識別することが困難である。そのため、静物の色情報の差異によって例えば机2とスタンドライト3とを識別する識別子を付与する。付与される識別子と机2等との対応関係については、例えば、予めその対応関係を規定したテーブルデータを図2に示したHDD24等に記憶させておくものとすればよい。なお、色情報とともに、又は、色情報に代えて、例えば、撮影画像に基づいて取得した座標データ数点を指定して、机2等の概略形状を特定することによって、机2等を識別することとしてもよい。
Further, the
部位データ取得部32は、検出部26による検出結果からユーザーの身体の少なくとも一部の位置を特定する三次元座標データからなる部位データを取得する部位データ取得手段である。例えば、部位データ取得部32は、IRカメラ12を用いてユーザーの手Mを検出し、例えば、検出された熱エネルギーを視覚化し、視覚化された熱エネルギーのデータ毎の相対的な差異を用いて手Mの一部、例えば人差し指の指先等の三次元座標データを取得する。
The part
判定部33は、3Dモデリング部31により生成された空間の3Dモデルデータに含まれる1以上の静物モデルのうちの少なくとも1の静物モデルが占有する空間の周囲の空間を少なくとも含む囲み空間に、部位データ取得部32により取得された部位データが含まれるかどうかを判定する。本処理の詳細については、図5を参照して後述する。
The
機能実行部34は、判定部33により、囲み空間に部位データが含まれると判定されたとき、所定機能を実行する機能実行手段である。本処理の詳細については、判定部33の処理と共に、図6から8を参照して後述する。
The
次に、本実施形態における3Dモデリング処理について、図4を参照して説明する。まず、撮影部25が図4(a)に示すように室内空間Sを、机2、スタンドライト3、ソファ4とともに、撮影する。3Dモデリング部31は、撮影された室内空間Sの撮影画像データに基づいて3Dモデル化処理を行う。
Next, 3D modeling processing in the present embodiment will be described with reference to FIG. First, the photographing
3Dモデリング部31は、3Dモデル化処理された室内空間Sを、撮影画像データに含まれる色情報の差異に基づいて、室内空間Sを構成する各パーツとして分割処理を行う。例えば、図4(b)に示すように机2が含まれる領域、図4(c)に示すようにスタンドライト3が含まれる領域、図4(d)に示すようにソファ4が含まれる領域、図4(e)に示すように机2の上に置かれた物品50が含まれる領域にそれぞれ分割する。
The
そして、3Dモデリング部31は、分割された各領域について、机2が含まれる領域であること、スタンドライト3が含まれる領域であること、ソファ4が含まれる領域であること、物品50が含まれる領域であること、を識別するための識別子を分割された各領域の3Dモデルデータに紐付けて付与する。
The
次に、本実施形態における、動作認識処理について、判定部33による処理と共に、図5を参照して説明する。ここでは、図1に示した机2にユーザーの手M、あるいはその人差し指の指先等の部位が近接したかどうかの判定処理を例に説明する。
Next, the action recognition process in this embodiment is demonstrated with reference to FIG. 5 with the process by the
まず、机2の3Dモデルデータとして、座標Aから座標Hで囲まれる机2を含む領域の3Dモデルデータが3Dモデリング部31により得られているとする。なお、実際には、図4に示したように、3Dモデリング部31は机2を含む領域として室内空間Sの3Dモデルデータを分割しているため、図5に示すように必ずしも机2の角8点に座標Aから座標Hが対応するものではないが、ここでは、説明の便宜上、机2の角8点に座標Aから座標Hが対応するものとして説明する。
First, it is assumed that 3D model data of a region including the
ここでは、座標Aを原点とする三次元座標空間を規定する。そして、規定された三次元座標空間における横軸をX軸とし、縦軸をY軸とし、奥行き方向の軸をZ軸とし、さらに、X軸における原点より右側に正の値をとり、原点より左側に負の値をとるものとする。また、Y軸における原点より上側に正の値をとり、原点より下側に負の値をとるものとする。さらに、Z軸における原点より奥側に正の値をとり、原点より手前側に負の値をとるものとする。そして、例えば、座標Aは[0,0,0]であり、座標Bは[x,0,0]であり、座標Cは[0,0,z]であり、座標Dは[x,0,0]であるとする。また、座標Eは[0,−y,0]であり、座標Fは[x,−y,0]であり、座標Gは[0,−y,z]であり、座標Hは[x,−y,z]であるとする。 Here, a three-dimensional coordinate space with the coordinate A as the origin is defined. The horizontal axis in the specified three-dimensional coordinate space is the X axis, the vertical axis is the Y axis, the depth axis is the Z axis, and a positive value is taken to the right of the origin on the X axis. A negative value is assumed on the left side. It is assumed that a positive value is taken above the origin on the Y axis and a negative value is taken below the origin. Further, assume that a positive value is taken on the back side from the origin on the Z axis, and a negative value is taken on the near side from the origin. For example, the coordinate A is [0, 0, 0], the coordinate B is [x, 0, 0], the coordinate C is [0, 0, z], and the coordinate D is [x, 0]. , 0]. The coordinate E is [0, -y, 0], the coordinate F is [x, -y, 0], the coordinate G is [0, -y, z], and the coordinate H is [x, −y, z].
また、判定部33は、手Mが机2に近接したかどうかを判定する判定領域を設定する。例えば、座標A〜Hのそれぞれから、数値±α分ずつ、X軸、Y軸、Z軸方向へ移動させた座標位置として、座標A’〜H’からなる直方体で囲まれる囲み空間を設定する。なお、数値αは一例であり、ここでは座標A〜Hすべてに同じ数値分を移動させているが、これに限定されず、それぞれ異なる数値分を移動させるものであってもよい。
Further, the
例えば、座標A’は[−α,α,−α]であり、座標B’は[x+α,α,−α]であり、座標C’は[−α,α,z+α]であり、座標D’は[x+α,α,z+α]であるとする。また、座標E’は[−α,−y−α,−α]であり、座標F’は[x+α,−y−α,−α]であり、座標G’は[−α,−y−α,z+α]であり、座標H’は[x+α,−y−α,z+α]であるとする。 For example, the coordinate A ′ is [−α, α, −α], the coordinate B ′ is [x + α, α, −α], the coordinate C ′ is [−α, α, z + α], and the coordinate D It is assumed that “x” is [x + α, α, z + α]. The coordinate E ′ is [−α, −y−α, −α], the coordinate F ′ is [x + α, −y−α, −α], and the coordinate G ′ is [−α, −y−. α, z + α], and the coordinate H ′ is [x + α, −y−α, z + α].
そして、判定部33は、判定領域を、座標A〜Hと、座標A’〜 H’との間の空間領域と設定する。この判定領域である空間領域は、簡易式で表すと図示のように[A’〜 H’]−[A〜H]となる。判定部33は、部位データ取得部32により手Mにおける人差し指の指先の部位データとして取得した、例えば座標M1[xi、yi、zi]が、[A’〜 H’]−[A〜H]の判定領域に含まれるとき、手Mにおける人差し指の指先が机2に近接しているものと判定する。これを簡易式で表すと図示のように「[A’〜 H’]−[A〜H]≧M」となる。なお、判定領域が小さいほど、認識感度がアップすることは言うまでもない。また、ここでは、囲み空間を規定する直方体を8つの座標に基づいて規定しているが、一例であり、例えば、机2等の家具の周囲における任意の三次元座標2点を設定し、ここからX軸方向、Y軸方向、又はZ軸方向のうち2軸方向に所定距離延伸させた2辺からなる平面3面を三次元座標2点毎に規定することで、6面からなる直方体を規定することとしてもよい。
Then, the
なお、ここでは、例えば机2の3Dモデルデータとして座標Aから座標Hの8点からなる座標空間に基づいて上記囲み空間を設定しているため、囲み空間は直方体となっているが、これに限定されず、空間に配置された家具等の立体形状に応じて、囲み空間としての判定領域が変化するものであってもよい。つまり、例えば、立方体や、球や、円柱や、円錐や、三角錐や、平行六面体や、五角柱や、六角柱等の立体形状からなる判定領域であってもよい。
Here, for example, the enclosed space is a rectangular parallelepiped because the enclosed space is set based on a coordinate space consisting of 8 points from coordinates A to H as 3D model data of the
次に、判定部33により手Mが判定領域に含まれると判定された場合に、機能実行部34により実行される機能の具体例とともに、機能実行処理について図6から8を参照して説明する。なお、ここでは、手Mが判定領域に含まれることを、例えば机2の判定領域であれば、机2に手Mがタッチしたものとして説明する。
Next, a function execution process will be described with reference to FIGS. 6 to 8 together with a specific example of a function executed by the
図6に示すように、手Mがスタンドライト3の判定領域に含まれたとき、つまり、手Mがスタンドライト3にタッチしたとき、例えば、図1に示したPC1の電源がONされる機能が機能実行部34により実行される。機能実行処理としては、例えば、上述の分割された各領域の3Dモデルデータに紐付けて付与された識別子と各機能を対応させたテーブルを設定しておき、判定部33による判定の結果、手Mが各判定領域に含まれると判定されたとき、各判定領域の3Dモデルデータに紐付けた識別子に対応させた所定機能を実行すればよい。
As shown in FIG. 6, when the hand M is included in the determination area of the
なお、判定部33は、手Mがスタンドライト3の判定領域に含まれる場合において、部位データ取得部32により取得した2以上の部位データと、その部位データに紐付けられた時刻情報とに基づいて、囲み空間におけるユーザーの身体の少なくとも一部の移動量を判定してもよい。そして、機能実行部34は、判定部33により判定された移動量に応じて所定機能の発揮状態を調整することとしてもよい。
Note that, when the hand M is included in the determination region of the
図6において、例えば、スタンドライト3の傘にタッチしている場合、その傘の表面上を一定方向にスライドさせるように手Mを移動させる動作を検出部26が検出するものとする。この際、部位データ取得部32により、手Mの移動開始点としての部位データと、手Mの移動終了点としての部位データと、それらの部位データに紐付けられたクロック情報等とを取得する。そして、判定部33は、それらの取得データに基づいて、手Mの移動量を判定する。機能実行部34は、手Mの移動量に応じて、所定機能の発揮状態として、例えば、スタンドライト3の明るさを調整する。つまり、ここでの「所定機能の発揮状態」とは、上記例のように明るさの調節機能が発揮される状態として明暗状態を言う。なお、本例は一例であり、これに限定されるものではない。
In FIG. 6, for example, when the umbrella of the
また、図7に示すように、手Mが机2の判定領域に含まれ、尚且つ、机2の所定位置に近接したとき、つまり、手Mが机2の所定位置にタッチしたとき、機能実行部34により各位置に対応させた機能を実行してもよい。例えば、手Mが机2上の2cにタッチしたとき、PC1においてTVアプリを起動させる機能が機能実行部34により実行されてもよい。また、手Mが机2上の2rfにタッチしたとき、PC1においてN局にチャンネルを選局させる機能が機能実行部34により実行されてもよい。さらに、手Mが机2上の2lrにタッチしたとき、PC1においてW局にチャンネルを選局させる機能が機能実行部34により実行されてもよい。
Further, as shown in FIG. 7, when the hand M is included in the determination area of the
さらに、図8に示すように、手Mがソファ4の判定領域に含まれ、且つ、例えばソファ4の両肘掛けに近接したとき、つまり、手Mがソファ4の肘掛けにタッチしたとき、例えば、PC1において、音量調節機能が機能実行部34により実行されてもよい。例えば、手Mが4rにタッチしたとき、音量を大へ調節し、手Mが4lにタッチしたとき、音量を小へ調節するものとしてもよい。
Furthermore, as shown in FIG. 8, when the hand M is included in the determination region of the sofa 4 and, for example, close to both armrests of the sofa 4, that is, when the hand M touches the armrest of the sofa 4, In the
なお、判定部33が、移動量と時刻情報に基づいてユーザーの身体の少なくとも一部の移動速度を判定し、機能実行部34が、判定された移動速度に応じて決定する、ユーザーの身体の少なくとも一部が静物に近接する強さに応じて発揮状態の調整レベルを変更することとしてもよい。ここで、「発揮状態の調整レベル」とは、例えば図8を用いて説明すれば、音量の調節が実行されている状態における、その音量調節具合をいう。より具体的には、手Mが肘掛け4l又は4rにタッチする強さが強ければ、音量変化の度合を大きくすればよいし、手Mが肘掛けにタッチする強さが弱ければ、音量変化の度合を小さくすればよい。例えば、肘掛けを強くタッチすれば、音量を素早く大きくしたり、小さくしたりすればよく、肘掛けを弱くタッチすれば、音量をゆっくり小刻みに大きくしたり、小さくしたりするなど細かい音量調節をすればよい。
The
次に、本実施形態における動作認識処理手順について図9を参照して説明する。まず、撮影部25により撮影された室内空間Sの撮影画像に基づいて、3Dモデリング部31は室内空間Sを3Dモデル化する(ステップS1)。
Next, the operation recognition processing procedure in this embodiment will be described with reference to FIG. First, the
次に、室内空間Sにおいて検出部26により手Mを検出したとき(ステップS2、YES)、部位データ取得部32は手Mの部位データである座標データを取得する(ステップS3)。他方、室内空間Sにおいて検出部26により手Mを検出されないとき(ステップS2、NO)は、引き続き検出部26により手Mの検出処理を行う(ステップS2)。
Next, when the hand M is detected by the
その後、判定部33により、手Mが3Dモデリングされた室内空間Sにおける机2等の家具等にタッチしたと判定されたとき(ステップS4、YES)、機能実行部34は、タッチされた机2等に対応させた機能を実行する(ステップS5)。一方、判定部33により、タッチ判定がされなかったとき(ステップS4、NO)、処理を終了する。
Thereafter, when the
なお、上述する各実施の形態は、本発明の好適な実施の形態であり、本発明の要旨を逸脱しない範囲内において種々変更実施が可能である。例えば、上述した本実施形態の動作認識装置における各処理を、ハードウェア、又は、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。 Each of the above-described embodiments is a preferred embodiment of the present invention, and various modifications can be made without departing from the scope of the present invention. For example, each process in the above-described motion recognition apparatus of the present embodiment can be executed using hardware, software, or a combined configuration of both.
なお、ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリ等の記憶部にインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。 When executing processing using software, a program in which a processing sequence is recorded can be installed and executed in a storage unit such as a memory in a computer incorporated in dedicated hardware. . Alternatively, the program can be installed and executed on a general-purpose computer capable of executing various processes.
また、特許文献1のような撮影されたジェスチャーに基づいて所定の機能を実行させるような技術の場合、例えばジェスチャーによって所定の機能が実行されなかったとき、ユーザーは、それがジェスチャーの認識不備によるものか、それ以外の原因によるものか分からない。他方、本実施形態のように、静物への接触動作として認識させるようにすることで、例えば、その接触動作が認識されれば、ユーザーは静物への接触動作を通じた触感により、確かにジェスチャーを行ったという実感を得ることができる。
Further, in the case of a technique for executing a predetermined function based on a photographed gesture as in
1 PC
2 机
3 スタンドライト
4 ソファ
11 カメラ
12 IRカメラ
13 ディスプレイ
21 制御部
22 RAM
23 ROM
24 HDD
25 撮影部
26 検出部
27 表示部
31 3Dモデリング部
32 部位データ取得部
33 判定部
34 機能実行部
1 PC
2
23 ROM
24 HDD
25
Claims (6)
前記空間内におけるユーザーの身体の少なくとも一部を検出する検出手段と、
前記撮影手段により撮影された撮影画像に基づいて前記空間の3Dモデルデータを生成する3Dモデリング手段と、
前記検出手段による検出結果から前記ユーザーの身体の少なくとも一部の位置を特定する三次元座標データからなる部位データを取得する部位データ取得手段と、
前記3Dモデリング手段により生成された前記空間の3Dモデルデータに含まれる前記1以上の静物モデルのうちの少なくとも1の静物モデルが占有する空間の周囲の空間を少なくとも含む囲み空間に、前記部位データ取得手段により取得された部位データが含まれるかどうかを判定する判定手段と、
前記判定手段により、前記囲み空間に前記部位データが含まれると判定されたとき、所定機能を実行する機能実行手段と、
を備えることを特徴とする動作認識装置。 Photographing means for photographing a space in which one or more still lifes are arranged;
Detecting means for detecting at least part of the user's body in the space;
3D modeling means for generating 3D model data of the space based on a photographed image photographed by the photographing means;
Part data acquisition means for acquiring part data consisting of three-dimensional coordinate data specifying the position of at least a part of the user's body from the detection result by the detection means;
Obtaining the part data in a surrounding space including at least a space around a space occupied by at least one of the one or more still life models included in the 3D model data of the space generated by the 3D modeling means Determining means for determining whether or not the part data acquired by the means is included;
A function execution unit that executes a predetermined function when the determination unit determines that the part data is included in the enclosed space;
A motion recognition apparatus comprising:
前記機能実行手段は、前記判定された移動量に応じて所定機能の発揮状態を調整することを特徴とする請求項1又は2記載の動作認識装置。 The determination means is based on two or more part data acquired by the part data acquisition means and time information associated with the part data, and a movement amount of at least a part of the user's body in the enclosed space Determine
The motion recognition apparatus according to claim 1, wherein the function execution unit adjusts a state of performing a predetermined function according to the determined movement amount.
前記機能実行手段は、前記判定された移動速度に応じて決定する、前記ユーザーの身体の少なくとも一部が前記静物に近接する強さに応じて前記発揮状態の調整レベルを変更することを特徴とする請求項3記載の動作認識装置。 The determination means determines a movement speed of at least a part of the user's body based on the movement amount and the time information,
The function execution means changes the adjustment level of the display state according to the strength with which at least a part of the user's body approaches the still life, which is determined according to the determined moving speed. The motion recognition apparatus according to claim 3.
前記空間内におけるユーザーの身体の少なくとも一部を検出する工程と、
前記撮影された撮影画像に基づいて前記空間の3Dモデルデータを生成し記憶部に記憶する工程と、
前記検出結果から前記ユーザーの身体の少なくとも一部の位置を特定する三次元座標データからなる部位データを取得して前記記憶部に記憶する工程と、
前記記憶部に記憶された前記空間の3Dモデルデータに含まれる前記1以上の静物モデルのうちの少なくとも1の静物モデルが占有する空間の周囲の空間を少なくとも含む囲み空間に、前記記憶部に記憶された部位データが含まれるかどうかを判定する工程と、
前記囲み空間に前記部位データが含まれると判定されたとき、所定機能を実行する工程と、
を備えることを特徴とする動作認識方法。 Photographing a space in which one or more still lifes are arranged;
Detecting at least a portion of a user's body in the space;
Generating 3D model data of the space based on the captured image and storing it in a storage unit;
Acquiring part data consisting of three-dimensional coordinate data specifying the position of at least a part of the user's body from the detection result, and storing it in the storage unit;
Stored in the storage unit in an enclosed space including at least a space surrounding a space occupied by at least one still-life model of the one or more still-life models included in the 3D model data of the space stored in the storage unit Determining whether the included site data is included;
A step of executing a predetermined function when it is determined that the part data is included in the enclosed space;
A motion recognition method comprising:
前記空間内におけるユーザーの身体の少なくとも一部を検出する処理と、
前記撮影された撮影画像に基づいて前記空間の3Dモデルデータを生成し記憶部に記憶する処理と、
前記検出結果から前記ユーザーの身体の少なくとも一部の位置を特定する三次元座標データからなる部位データを取得して前記記憶部に記憶する処理と、
前記記憶部に記憶された前記空間の3Dモデルデータに含まれる前記1以上の静物モデルのうちの少なくとも1の静物モデルが占有する空間の周囲の空間を少なくとも含む囲み空間に、前記記憶部に記憶された部位データが含まれるかどうかを判定する処理と、
前記囲み空間に前記部位データが含まれると判定されたとき、所定機能を実行する処理と、
をコンピュータに実行させることを特徴とするプログラム。 A process of photographing a space in which one or more still lifes are arranged;
Detecting at least part of the user's body in the space;
Processing for generating 3D model data of the space based on the captured image and storing it in a storage unit;
A process of acquiring part data consisting of three-dimensional coordinate data for specifying the position of at least a part of the user's body from the detection result and storing it in the storage unit;
Stored in the storage unit in an enclosed space including at least a space surrounding a space occupied by at least one still-life model of the one or more still-life models included in the 3D model data of the space stored in the storage unit A process for determining whether or not included part data is included,
A process of executing a predetermined function when it is determined that the part data is included in the enclosed space;
A program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014149239A JP6008911B2 (en) | 2014-07-22 | 2014-07-22 | Motion recognition device, motion recognition method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014149239A JP6008911B2 (en) | 2014-07-22 | 2014-07-22 | Motion recognition device, motion recognition method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016024690A JP2016024690A (en) | 2016-02-08 |
JP6008911B2 true JP6008911B2 (en) | 2016-10-19 |
Family
ID=55271379
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014149239A Active JP6008911B2 (en) | 2014-07-22 | 2014-07-22 | Motion recognition device, motion recognition method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6008911B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106326890A (en) * | 2016-08-24 | 2017-01-11 | 深圳市虚拟现实技术有限公司 | Space positioning method based on image recognition and space positioning system thereof |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07175587A (en) * | 1993-10-28 | 1995-07-14 | Hitachi Ltd | Information processor |
JP4035610B2 (en) * | 2002-12-18 | 2008-01-23 | 独立行政法人産業技術総合研究所 | Interface device |
US8745541B2 (en) * | 2003-03-25 | 2014-06-03 | Microsoft Corporation | Architecture for controlling a computer using hand gestures |
US9213405B2 (en) * | 2010-12-16 | 2015-12-15 | Microsoft Technology Licensing, Llc | Comprehension and intent-based content for augmented reality displays |
JP5565331B2 (en) * | 2011-01-28 | 2014-08-06 | コニカミノルタ株式会社 | Display system, display processing apparatus, display method, and display program |
JP2013114466A (en) * | 2011-11-29 | 2013-06-10 | Nikon Corp | Display system, display method and program |
-
2014
- 2014-07-22 JP JP2014149239A patent/JP6008911B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016024690A (en) | 2016-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220382379A1 (en) | Touch Free User Interface | |
RU2720356C1 (en) | Control device, control method and storage medium | |
US9911235B2 (en) | Spatial interaction in augmented reality | |
US9292089B1 (en) | Gestural object selection | |
JP6090140B2 (en) | Information processing apparatus, information processing method, and program | |
US20130257736A1 (en) | Gesture sensing apparatus, electronic system having gesture input function, and gesture determining method | |
US9632592B1 (en) | Gesture recognition from depth and distortion analysis | |
EP2558924B1 (en) | Apparatus, method and computer program for user input using a camera | |
JP2011081480A (en) | Image input system | |
KR101441882B1 (en) | method for controlling electronic devices by using virtural surface adjacent to display in virtual touch apparatus without pointer | |
US20160232708A1 (en) | Intuitive interaction apparatus and method | |
US10607069B2 (en) | Determining a pointing vector for gestures performed before a depth camera | |
JP6632681B2 (en) | Control device, control method, and program | |
US11755119B2 (en) | Scene controlling method, device and electronic equipment | |
Lee et al. | Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality | |
JP6008911B2 (en) | Motion recognition device, motion recognition method, and program | |
JP2013168120A (en) | Stereoscopic image processing apparatus, stereoscopic image processing method, and program | |
KR20160055407A (en) | Holography touch method and Projector touch method | |
JP6643825B2 (en) | Apparatus and method | |
JP6008904B2 (en) | Display control apparatus, display control method, and program | |
US9551922B1 (en) | Foreground analysis on parametric background surfaces | |
TWI496028B (en) | Cell phone with contact free controllable function | |
Narayan et al. | Augmenting Moving Planar Surfaces and Spatial Control of Interactive Surfaces Application through Virtual Touch Screen (VIRTOS)-A Case Study | |
JP2020053088A (en) | Control device, control method, and program | |
KR20160013501A (en) | Holography touch method and Projector touch method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160512 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160722 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160816 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160913 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6008911 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |