JP6008911B2 - Motion recognition device, motion recognition method, and program - Google Patents

Motion recognition device, motion recognition method, and program Download PDF

Info

Publication number
JP6008911B2
JP6008911B2 JP2014149239A JP2014149239A JP6008911B2 JP 6008911 B2 JP6008911 B2 JP 6008911B2 JP 2014149239 A JP2014149239 A JP 2014149239A JP 2014149239 A JP2014149239 A JP 2014149239A JP 6008911 B2 JP6008911 B2 JP 6008911B2
Authority
JP
Japan
Prior art keywords
space
data
user
still
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014149239A
Other languages
Japanese (ja)
Other versions
JP2016024690A (en
Inventor
怜央 海保
怜央 海保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Personal Computers Ltd
Original Assignee
NEC Personal Computers Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Personal Computers Ltd filed Critical NEC Personal Computers Ltd
Priority to JP2014149239A priority Critical patent/JP6008911B2/en
Publication of JP2016024690A publication Critical patent/JP2016024690A/en
Application granted granted Critical
Publication of JP6008911B2 publication Critical patent/JP6008911B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本発明は、動作認識装置、動作認識方法、及び、プログラムに関する。   The present invention relates to a motion recognition device, a motion recognition method, and a program.

近年、例えばPC等の情報処理装置の分野において、ユーザーの身振り、手振り(以下「ジェスチャー」という。)などを装置側に設けたカメラによって撮影し、撮影された画像に基づいて特定のジェスチャーが認識されたとき、認識されたジェスチャーに予め対応させた機能を実現させるジェスチャー認識技術が広く知られている。   In recent years, for example, in the field of information processing devices such as PCs, user gestures and hand gestures (hereinafter referred to as “gestures”) are photographed by a camera provided on the device side, and specific gestures are recognized based on the photographed images. When this is done, a gesture recognition technique that realizes a function corresponding to a recognized gesture in advance is widely known.

上記のジェスチャー認識技術に関し、例えば特許文献1には、ユーザーの動作を入力インタフェースとして利用するゲームなどのアプリケーションにおいて、動作検出部により検出された顔の動作に対応するイベントをテーブルから検索してそのイベントを実行するユーザーインタフェースプログラムが開示されている。また、同文献には、画面に映し出されたユーザーの鏡像画面に表示された「?」オブジェクトにユーザーが手で触れる動作をすると、接触が判定されて、「使い方ガイド」の文字が画面上に表示されることが記載されている。   With respect to the gesture recognition technology described above, for example, in Patent Document 1, in an application such as a game that uses a user's motion as an input interface, an event corresponding to the facial motion detected by the motion detection unit is searched from the table. A user interface program for executing an event is disclosed. Also, in this document, when the user touches the “?” Object displayed on the mirror image screen of the user displayed on the screen, the contact is judged and the “Usage Guide” text appears on the screen. It is described that it is displayed.

特開2008−15942号公報JP 2008-155942 A

ところで、特許文献1のように、ユーザーの顔の動作を装置側に設けたカメラによって撮影し、所定の機能を実現させる技術の場合、顔の動作が認識されるためには、ユーザーは顔を常に装置側に向けていなければならない。また、このような技術は、所定の機能を実現する上で、常に顔を装置側に向けていなければならないことを、ユーザーに強要してしまっているということになる。また、そもそも、顔の動きだけを操作に用いて所定の機能を実現させることは、いくら顔の動作そのものが自然な動きに準じているとしても、人間の動作全体に鑑みると不自然であると言わざるを得ない。   By the way, in the case of a technique in which a user's face motion is photographed by a camera provided on the apparatus side and a predetermined function is realized as in Patent Document 1, in order for the face motion to be recognized, the user must Must always face the device. In addition, such a technique forces the user to always have his face facing the apparatus side in order to realize a predetermined function. Also, in the first place, realizing a predetermined function using only the movement of the face for the operation is unnatural in view of the whole human movement, no matter how much the movement of the face conforms to the natural movement. I must say.

本発明は、このような実情に鑑みてなされたものであって、ユーザーに強要することのない、より自然な動作によって所望の機能を実現する動作認識装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an operation recognition device that realizes a desired function by a more natural operation that is not compelled by a user.

上記の課題を解決するため、本発明の動作認識装置は、1以上の静物が配置された空間を撮影する撮影手段と、空間内におけるユーザーの身体の少なくとも一部を検出する検出手段と、撮影手段により撮影された撮影画像に基づいて空間の3Dモデルデータを生成する3Dモデリング手段と、検出手段による検出結果からユーザーの身体の少なくとも一部の位置を特定する三次元座標データからなる部位データを取得する部位データ取得手段と、3Dモデリング手段により生成された空間の3Dモデルデータに含まれる1以上の静物モデルのうちの少なくとも1の静物モデルが占有する空間の周囲の空間を少なくとも含む囲み空間に、部位データ取得手段により取得された部位データが含まれるかどうかを判定する判定手段と、判定手段により、囲み空間に部位データが含まれると判定されたとき、所定機能を実行する機能実行手段と、を備えることを特徴とする。   In order to solve the above-described problems, the motion recognition apparatus of the present invention includes a photographing unit that photographs a space in which one or more still objects are arranged, a detecting unit that detects at least a part of the user's body in the space, and a photographing unit. 3D modeling means for generating 3D model data of the space based on the photographed image taken by the means, and part data comprising three-dimensional coordinate data for specifying the position of at least a part of the user's body from the detection result by the detection means In a surrounding space including at least a space around a space occupied by at least one still-life model among one or more still-life models included in the 3D model data of the space generated by the part data acquisition means to be acquired and the 3D modeling means Determination means for determining whether or not the part data acquired by the part data acquisition means is included; and , When it is determined to contain a site data enclosed space, characterized in that it comprises a function executing unit that executes a predetermined function, a.

本発明によれば、ユーザーに強要することのない、より自然な動作によって所望の機能を実現することが可能となる。   According to the present invention, it is possible to realize a desired function by a more natural operation that does not force the user.

本発明の実施形態における動作認識装置の一例としてのパーソナルコンピュータを用いた動作説明概略図である。It is operation | movement explanatory schematic using the personal computer as an example of the operation | movement recognition apparatus in embodiment of this invention. 本発明の実施形態における動作認識装置のハードウェア構成例を示す図である。It is a figure which shows the hardware structural example of the operation | movement recognition apparatus in embodiment of this invention. 本発明の実施形態における動作認識装置の機能ブロック図である。It is a functional block diagram of the action recognition device in the embodiment of the present invention. 本発明の実施形態における動作認識処理における3Dモデリング処理について説明する模式図である。It is a schematic diagram explaining the 3D modeling process in the action recognition process in the embodiment of the present invention. 本発明の実施形態における動作認識処理における近接判定処理について説明する模式図である。It is a schematic diagram explaining the proximity determination process in the action recognition process in the embodiment of the present invention. 本発明の実施形態における動作認識処理の動作例を示す模式図である。It is a schematic diagram which shows the operation example of the movement recognition process in embodiment of this invention. 本発明の実施形態における動作認識処理の動作例を示す模式図である。It is a schematic diagram which shows the operation example of the movement recognition process in embodiment of this invention. 本発明の実施形態における動作認識処理の動作例を示す模式図である。It is a schematic diagram which shows the operation example of the movement recognition process in embodiment of this invention. 本発明の実施形態における動作認識処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement recognition process sequence in embodiment of this invention.

本発明の実施形態における動作認識装置について図面を用いて以下説明する。なお、各図中、同一又は相当する部分には同一の符号を付しており、その重複説明は適宜に簡略化乃至省略する。なお、以下では、本実施形態における動作認識装置を説明する上で、一例として、一体型のパーソナルコンピュータ(以下「PC」という。)を用いているが、これに限定されず、例えば、デスクトップ型のPCでも、ノート型のPCでも、多機能型携帯電話(スマートフォン)、PDA(Personal Digital Assistant)、携帯電話等の携帯端末でも、情報処理機能を有するテレビジョン(TV)でも、あるいは、情報処理機能を有する、例えば冷蔵庫や洗濯機等の家庭用電化製品等、さらには自家用車等に本実施形態の動作認識装置が適用されるものであってもよい。   An operation recognition apparatus according to an embodiment of the present invention will be described below with reference to the drawings. In addition, in each figure, the same code | symbol is attached | subjected to the part which is the same or it corresponds, The duplication description is simplified thru | or abbreviate | omitted suitably. In the following description, an integrated personal computer (hereinafter referred to as “PC”) is used as an example in describing the motion recognition apparatus according to the present embodiment. However, the present invention is not limited to this. PC, notebook PC, multi-function mobile phone (smartphone), PDA (Personal Digital Assistant), mobile terminal such as mobile phone, television (TV) with information processing function, or information processing For example, the motion recognition apparatus of the present embodiment may be applied to a household appliance such as a refrigerator or a washing machine having a function, or a private car.

本実施形態における動作認識装置は、ユーザーの身体の少なくとも一部を用いた所定の動作を認識するものであるが、本実施形態においては、ユーザーの手指を用いた動作を例として、以下説明するものとする。なお、動作認識装置が認識する動作は、身体の少なくとも一部を用いた動作であればよく、手指に限らず、腕や脚、顔、あるいは全身等を用いたあらゆる動作を認識し、認識された各動作内容に対応する所定の機能を実現するものであってもよい。なお、動作としているが、必ずしもユーザーの手指等が動いている状態に限らず、動いている途中の手指等を撮影した瞬間の手指等の状態も含まれるものとして以下に説明する。   The motion recognition apparatus according to the present embodiment recognizes a predetermined motion using at least a part of the user's body. In the present embodiment, the motion recognition using the user's fingers will be described below as an example. Shall. The motion recognized by the motion recognition device may be any motion that uses at least a part of the body, and is not limited to fingers and recognizes and recognizes any motion using arms, legs, face, or the whole body. Alternatively, a predetermined function corresponding to each operation content may be realized. The operation is not limited to the state in which the user's finger or the like is moving, but will be described below as including the state of the finger or the like at the moment of shooting the moving finger or the like.

本実施形態における動作認識装置の一例である一体型PC(以下、単に「PC」という。)1を用いた動作概略について図1を参照して説明する。PC1は、例えば、家具などの静物が1以上配置された室内空間を撮影するカメラ11と、IR(Infrared)カメラ12と、ディスプレイ13を備えている。なお、PC1は、その他、図示はしないが、例えば、キーボード、タッチパッド、又はタッチパネル等の入力デバイスを備えるものであってもよい。図1に示す室内空間Sには、例示的に、机2と、スタンドライト3と、ソファ4が配置されており、ユーザーの身体の一部である手Mを模式的に図示している。また、本実施形態においては、室内空間Sに配置された机2等の静物に対するタッチ等の動作をIRカメラ12等によって検出するものである。   An outline of an operation using an integrated PC (hereinafter simply referred to as “PC”) 1 which is an example of an operation recognition apparatus in the present embodiment will be described with reference to FIG. The PC 1 includes, for example, a camera 11 that captures an indoor space in which one or more still life such as furniture is arranged, an IR (Infrared) camera 12, and a display 13. In addition, although not shown in figure, PC1 may be provided with input devices, such as a keyboard, a touchpad, or a touch panel, for example. In the indoor space S shown in FIG. 1, a desk 2, a standlight 3, and a sofa 4 are exemplarily disposed, and a hand M that is a part of the user's body is schematically illustrated. In the present embodiment, the IR camera 12 or the like detects an operation such as a touch on a still object such as the desk 2 disposed in the indoor space S.

カメラ11は、例えば、図1において破線で示すような室内空間Sを撮影し、撮影画像をPC1内に取り込む撮影手段である。カメラ11は、室内空間に配置された机2に代表されるような家具等をできるだけ漏れなく撮影する観点から、広角レンズを備えていることが好ましい。ただし、室内空間に配置された家具等の位置によっては、例えば、室内の中心付近に家具等が配置されているような場合は、必ずしも広角レンズである必要もなく、家具等の配置状況に応じて、画角の異なるレンズを用いるものであってもよい。つまり、本実施形態においては、IRカメラ12により机2等の静物を介したユーザーの動作を検出する場合に、例えばユーザーが触れる可能性のある静物が配置される室内空間を撮影できればよいからである。なお、本実施形態においては、カメラ11をディスプレイ13の上方に設けているが、これに限定されず、室内空間Sのように一定の範囲の空間を撮影することができれば、装置に対する設置位置を問わない。他方、例えば、カメラの設置位置を固定として、不図示の可動手段を用いてカメラの向きを変えることにより所定の空間を撮影できるものとしてもよい。   For example, the camera 11 is an imaging unit that captures an indoor space S as indicated by a broken line in FIG. 1 and takes the captured image into the PC 1. The camera 11 is preferably provided with a wide-angle lens from the viewpoint of photographing furniture and the like represented by the desk 2 arranged in the indoor space as much as possible. However, depending on the position of the furniture etc. arranged in the indoor space, for example, when the furniture etc. is arranged near the center of the room, it is not always necessary to use a wide-angle lens, depending on the arrangement situation of the furniture etc. In addition, lenses having different angles of view may be used. In other words, in the present embodiment, when the user's movement through the still life such as the desk 2 is detected by the IR camera 12, it is only necessary to be able to shoot an indoor space in which a still life that the user may touch is arranged. is there. In the present embodiment, the camera 11 is provided above the display 13. However, the present invention is not limited to this, and if a certain range of space such as the indoor space S can be photographed, the installation position with respect to the apparatus is determined. It doesn't matter. On the other hand, for example, a predetermined space may be photographed by fixing the camera installation position and changing the direction of the camera using a movable means (not shown).

IRカメラ12は、ユーザーの身体の一部である手M等を検出する検出手段である。一点鎖線で示した範囲は、検出エリアを模式的に示したものであり、当該範囲に限定されるものでないことは言うまでもない。なお、検出手段として、本実施形態では赤外線を利用して物体の熱映像を取得するIRカメラを用いているが、これに限定されるものではなく、少なくともユーザーの身体の一部を、3次元的に検出することができるものであれば、例えば、複数台のカメラを用いたステレオカメラシステムや、赤外線を物体に照射して戻る時間を測定することで距離画像イメージを取得するシステム等であってもよい。カメラ11同様に、IRカメラ12についても、装置に対する設置位置等は問わない。   The IR camera 12 is detection means for detecting a hand M that is a part of the user's body. It goes without saying that the range indicated by the alternate long and short dash line schematically shows the detection area and is not limited to this range. In this embodiment, an IR camera that uses infrared rays to acquire a thermal image of an object is used as detection means. However, the present invention is not limited to this, and at least a part of the user's body is three-dimensionally detected. For example, a stereo camera system using a plurality of cameras or a system that obtains a distance image by measuring the return time after irradiating an object with infrared rays can be used. May be. As with the camera 11, the IR camera 12 may be installed at any position with respect to the apparatus.

ディスプレイ13は画像や映像を表示する表示手段である。なお、本実施形態においては、動作認識装置の例示としてPC1を用いているため、ディスプレイ13を備えている構成としているが、本発明として、ディスプレイは必須の構成ではない。ただし、ユーザーによる動作の結果として、実行される処理内容を画像等の情報によって確認する場合は、ディスプレイ等の表示手段にその情報を映し出す必要があることは言うまでもない。例えば、冷蔵庫や洗濯機等の家電製品等に本発明を適用するような場合、ユーザーによる動作の結果として、これらの家電製品の機能が実行される様子が人間の視覚以外の五感を介して認識できるような場合が、ディスプレイが不要な場合の一例である。   The display 13 is display means for displaying images and videos. In the present embodiment, since the PC 1 is used as an example of the motion recognition device, the display 13 is provided. However, the display is not an essential configuration in the present invention. However, when the processing content to be executed is confirmed by information such as an image as a result of the operation by the user, it goes without saying that the information needs to be displayed on a display means such as a display. For example, when the present invention is applied to home appliances such as a refrigerator and a washing machine, the state in which the functions of these home appliances are executed as a result of user operation is recognized through the five senses other than human vision. This is an example of the case where a display is not necessary.

本実施形態においては、例えば、カメラ11で撮影した室内空間Sにおける机2に手Mが接触したか否かを、撮影した室内空間Sの撮影画像に基づいて取得した室内空間Sの座標データとIRカメラ12による手Mの検出結果を用いて判定するものとして、以下に説明する。   In the present embodiment, for example, whether or not the hand M touches the desk 2 in the indoor space S photographed by the camera 11 and the coordinate data of the indoor space S acquired based on the photographed image of the indoor space S photographed. A description will be given below of determination using the detection result of the hand M by the IR camera 12.

次に、本実施形態における動作認識装置のハードウェア構成について図2を参照して説明する。本実施形態における動作認識装置は、例えば、制御部21と、RAM(Random Access Memory)22と、ROM(Read Only Memory)23と、HDD(Hard Disk Drive)24と、撮影部25と、検出部26と、表示部27と、を備える。   Next, the hardware configuration of the motion recognition apparatus in the present embodiment will be described with reference to FIG. The motion recognition apparatus in the present embodiment includes, for example, a control unit 21, a RAM (Random Access Memory) 22, a ROM (Read Only Memory) 23, an HDD (Hard Disk Drive) 24, a photographing unit 25, and a detection unit. 26 and a display unit 27.

制御部21は、動作認識装置の全体制御に加え、例えば、後述する3Dモデリング処理、位置座標データ取得処理、判定処理、機能実行処理等を行う、CPU(Central Processing Unit)等である。また、制御部21は、本実施形態における、認識した動作に対応させた所定の機能を実行させるために、上述した各デバイスを制御する。   The control unit 21 is, for example, a CPU (Central Processing Unit) that performs 3D modeling processing, position coordinate data acquisition processing, determination processing, function execution processing, and the like, which will be described later, in addition to the overall control of the motion recognition apparatus. Further, the control unit 21 controls each device described above in order to execute a predetermined function corresponding to the recognized operation in the present embodiment.

RAM22は、例えば、制御部21の作業用領域として利用されるとともに、各種データの一時記憶領域として利用されるものであればよい。また、ROM23は、例えば、制御部21が実行するBIOS(Basic Input Output System)等の制御プログラムのほか、制御に必要な各種データ等が格納されるものであればよい。   For example, the RAM 22 may be used as a work area for the control unit 21 and as a temporary storage area for various data. The ROM 23 only needs to store various data necessary for control in addition to a control program such as BIOS (Basic Input Output System) executed by the control unit 21.

HDD24は、例えば、撮影部25を用いて撮影した室内空間Sの撮影画像に基づいて、制御部21により所定の3Dモデリングプログラムを実行させることによりモデル化された3Dモデルデータ等を記憶する大容量記憶装置である。なお、本実施形態においては、例えば、HDD24はPC1に内蔵されているが、HDD24は外付けであってもよい。   The HDD 24 has a large capacity for storing, for example, 3D model data modeled by causing the control unit 21 to execute a predetermined 3D modeling program based on a captured image of the indoor space S captured using the capturing unit 25. It is a storage device. In the present embodiment, for example, the HDD 24 is built in the PC 1, but the HDD 24 may be externally attached.

撮影部25は、室内空間Sを撮影する、例えば上述のカメラ11等の撮影手段である。撮影部25としては、例えば、光を電気信号に変換する撮像素子として、CCD(Charge Coupled Device)、CMOS(Complementary Metal−Oxide Semiconductor)等を備えたデジタルカメラであってよい。なお、撮像素子の解像度は、室内空間Sの撮影画像から当該空間に配置された家具等を好適に認識し得ることができれば、特段、高解像度である必要はない。ただし、例えば、図1に示したような机2等の家具の特定の部位にユーザーの手Mを接触させて、その特定の部位に対応させた機能を実現するような場合、上記特定の部位とその他の部位とが識別可能となる程に、高画質な撮影画像を撮影できることが好ましい。   The imaging unit 25 is an imaging unit that images the indoor space S, such as the camera 11 described above. The imaging unit 25 may be, for example, a digital camera that includes a charge coupled device (CCD), a complementary metal-oxide semiconductor (CMOS), or the like as an image sensor that converts light into an electrical signal. Note that the resolution of the image sensor does not need to be particularly high as long as furniture and the like arranged in the space can be suitably recognized from the captured image of the indoor space S. However, for example, when the user's hand M is brought into contact with a specific part of the furniture such as the desk 2 as shown in FIG. 1 to realize a function corresponding to the specific part, the specific part It is preferable that a high-quality photographed image can be taken so that it can be distinguished from other parts.

検出部26は、ユーザーの動作として、例えば手M等、ユーザーの身体の一部による動作を検出する、上述したIRカメラ12等の検出手段である。検出手段としては、上述したように、IRカメラだけでなく、ステレオカメラシステム等を用いて、例えば手M等を3次元的に認識可能なものであってもよい。   The detection unit 26 is a detection unit such as the above-described IR camera 12 that detects an operation performed by a part of the user's body, such as the hand M, as the user's operation. As described above, as the detection means, not only the IR camera but also a stereo camera system or the like may be used, and for example, the hand M may be recognized three-dimensionally.

表示部27は、各種画像を表示する、例えば液晶ディスプレイや有機ELディスプレイ等の表示デバイスである。上述したように、本発明として液晶ディスプレイ等の表示デバイスは必須の構成ではないが、本実施形態のように、本発明を適用する装置としてPC1を用いるような場合は、液晶ディスプレイ等の表示デバイスを用いて所定の表示画像を表示すればよい。   The display unit 27 is a display device such as a liquid crystal display or an organic EL display that displays various images. As described above, a display device such as a liquid crystal display is not indispensable for the present invention. However, when the PC 1 is used as an apparatus to which the present invention is applied as in the present embodiment, a display device such as a liquid crystal display is used. A predetermined display image may be displayed using.

次に、本実施形態における動作認識装置の機能ブロックについて、図3を参照して説明する。本実施形態における動作認識装置は、機能ブロックとして、撮影部25と、検出部26と、3Dモデリング部31と、部位データ取得部32と、判定部33と、機能実行部34と、を含み構成されている。撮影部25及び検出部26については、上述したため、ここでの説明を省略する。   Next, functional blocks of the motion recognition apparatus in the present embodiment will be described with reference to FIG. The motion recognition apparatus in the present embodiment includes, as function blocks, an imaging unit 25, a detection unit 26, a 3D modeling unit 31, a part data acquisition unit 32, a determination unit 33, and a function execution unit 34. Has been. Since the imaging unit 25 and the detection unit 26 have been described above, description thereof is omitted here.

3Dモデリング部31は、撮影部25により撮影された撮影画像に基づいて、例えば室内空間S等の空間の3Dモデルデータを生成する3Dモデリング手段である。生成される3Dモデルデータとしては、例えば図1における室内空間Sにおいて、机2、スタンドライト3、ソファ4を座標データを用いて、それぞれの室内空間Sにおける位置を特定することが好ましい。なお、3Dモデルデータの生成については、既存の技術を用いて行うものであってよい。   The 3D modeling unit 31 is a 3D modeling unit that generates 3D model data of a space such as the indoor space S based on the captured image captured by the capturing unit 25. As the 3D model data to be generated, for example, in the indoor space S in FIG. 1, it is preferable to specify the positions of the desk 2, the standlight 3, and the sofa 4 in the indoor space S using coordinate data. In addition, about the production | generation of 3D model data, you may carry out using the existing technique.

また、3Dモデリング部31は、少なくとも撮影画像に含まれる1以上の静物の色情報の差異に基づいて撮影画像中の1以上の静物を識別する識別子を1以上の静物の3Dモデルデータ毎に付与する。例えば図1における机2とスタンドライト3は、3Dモデリング部31によってそれぞれの座標データとして取得されているだけであるため、当該データのみでは机2とスタンドライト3とを識別することが困難である。そのため、静物の色情報の差異によって例えば机2とスタンドライト3とを識別する識別子を付与する。付与される識別子と机2等との対応関係については、例えば、予めその対応関係を規定したテーブルデータを図2に示したHDD24等に記憶させておくものとすればよい。なお、色情報とともに、又は、色情報に代えて、例えば、撮影画像に基づいて取得した座標データ数点を指定して、机2等の概略形状を特定することによって、机2等を識別することとしてもよい。   Further, the 3D modeling unit 31 assigns an identifier for identifying one or more still objects in the captured image based on at least a difference in color information of one or more still objects included in the captured image for each of the 3D model data of the one or more still objects. To do. For example, since the desk 2 and the standlight 3 in FIG. 1 are only acquired as the respective coordinate data by the 3D modeling unit 31, it is difficult to identify the desk 2 and the standlight 3 only by the data. . Therefore, for example, an identifier for identifying the desk 2 and the standlight 3 is given based on the difference in the color information of the still life. As for the correspondence between the assigned identifier and the desk 2 or the like, for example, table data that prescribes the correspondence may be stored in the HDD 24 or the like shown in FIG. Note that the desk 2 or the like is identified by specifying the approximate shape of the desk 2 or the like by specifying several coordinate data points acquired based on the photographed image together with the color information or instead of the color information, for example. It is good as well.

部位データ取得部32は、検出部26による検出結果からユーザーの身体の少なくとも一部の位置を特定する三次元座標データからなる部位データを取得する部位データ取得手段である。例えば、部位データ取得部32は、IRカメラ12を用いてユーザーの手Mを検出し、例えば、検出された熱エネルギーを視覚化し、視覚化された熱エネルギーのデータ毎の相対的な差異を用いて手Mの一部、例えば人差し指の指先等の三次元座標データを取得する。   The part data acquisition unit 32 is part data acquisition means for acquiring part data consisting of three-dimensional coordinate data that specifies the position of at least a part of the user's body from the detection result of the detection unit 26. For example, the part data acquisition unit 32 detects the user's hand M using the IR camera 12, visualizes the detected thermal energy, and uses the relative difference for each visualized thermal energy data. Then, three-dimensional coordinate data such as a part of the hand M, for example, the fingertip of the index finger is acquired.

判定部33は、3Dモデリング部31により生成された空間の3Dモデルデータに含まれる1以上の静物モデルのうちの少なくとも1の静物モデルが占有する空間の周囲の空間を少なくとも含む囲み空間に、部位データ取得部32により取得された部位データが含まれるかどうかを判定する。本処理の詳細については、図5を参照して後述する。   The determination unit 33 includes a part in an enclosed space including at least a space around a space occupied by at least one still-life model among one or more still-life models included in the 3D model data of the space generated by the 3D modeling unit 31. It is determined whether or not the part data acquired by the data acquisition unit 32 is included. Details of this processing will be described later with reference to FIG.

機能実行部34は、判定部33により、囲み空間に部位データが含まれると判定されたとき、所定機能を実行する機能実行手段である。本処理の詳細については、判定部33の処理と共に、図6から8を参照して後述する。   The function execution unit 34 is a function execution unit that executes a predetermined function when the determination unit 33 determines that the part data is included in the enclosed space. Details of this process will be described later with reference to FIGS.

次に、本実施形態における3Dモデリング処理について、図4を参照して説明する。まず、撮影部25が図4(a)に示すように室内空間Sを、机2、スタンドライト3、ソファ4とともに、撮影する。3Dモデリング部31は、撮影された室内空間Sの撮影画像データに基づいて3Dモデル化処理を行う。   Next, 3D modeling processing in the present embodiment will be described with reference to FIG. First, the photographing unit 25 photographs the indoor space S together with the desk 2, the standlight 3, and the sofa 4 as shown in FIG. The 3D modeling unit 31 performs 3D modeling processing based on the captured image data of the captured indoor space S.

3Dモデリング部31は、3Dモデル化処理された室内空間Sを、撮影画像データに含まれる色情報の差異に基づいて、室内空間Sを構成する各パーツとして分割処理を行う。例えば、図4(b)に示すように机2が含まれる領域、図4(c)に示すようにスタンドライト3が含まれる領域、図4(d)に示すようにソファ4が含まれる領域、図4(e)に示すように机2の上に置かれた物品50が含まれる領域にそれぞれ分割する。   The 3D modeling unit 31 performs a division process on the 3D modeled indoor space S as each part constituting the indoor space S based on the difference in color information included in the captured image data. For example, an area including the desk 2 as shown in FIG. 4B, an area including the standlight 3 as shown in FIG. 4C, and an area including the sofa 4 as shown in FIG. 4D. As shown in FIG. 4 (e), the image is divided into regions each containing the article 50 placed on the desk 2.

そして、3Dモデリング部31は、分割された各領域について、机2が含まれる領域であること、スタンドライト3が含まれる領域であること、ソファ4が含まれる領域であること、物品50が含まれる領域であること、を識別するための識別子を分割された各領域の3Dモデルデータに紐付けて付与する。   The 3D modeling unit 31 includes, for each of the divided areas, an area including the desk 2, an area including the standlight 3, an area including the sofa 4, and the article 50. An identifier for identifying the region is assigned to the 3D model data of each divided region.

次に、本実施形態における、動作認識処理について、判定部33による処理と共に、図5を参照して説明する。ここでは、図1に示した机2にユーザーの手M、あるいはその人差し指の指先等の部位が近接したかどうかの判定処理を例に説明する。   Next, the action recognition process in this embodiment is demonstrated with reference to FIG. 5 with the process by the determination part 33. FIG. Here, an example of a process for determining whether or not a part of the user's hand M or the fingertip of the index finger has approached the desk 2 shown in FIG. 1 will be described.

まず、机2の3Dモデルデータとして、座標Aから座標Hで囲まれる机2を含む領域の3Dモデルデータが3Dモデリング部31により得られているとする。なお、実際には、図4に示したように、3Dモデリング部31は机2を含む領域として室内空間Sの3Dモデルデータを分割しているため、図5に示すように必ずしも机2の角8点に座標Aから座標Hが対応するものではないが、ここでは、説明の便宜上、机2の角8点に座標Aから座標Hが対応するものとして説明する。   First, it is assumed that 3D model data of a region including the desk 2 surrounded by the coordinates A to H is obtained by the 3D modeling unit 31 as the 3D model data of the desk 2. In practice, as shown in FIG. 4, the 3D modeling unit 31 divides the 3D model data of the indoor space S as an area including the desk 2, so that the corner of the desk 2 is not necessarily shown in FIG. The coordinates A to H do not correspond to the eight points, but here, for convenience of explanation, it is assumed that the coordinates A to the coordinates H correspond to the eight corners of the desk 2.

ここでは、座標Aを原点とする三次元座標空間を規定する。そして、規定された三次元座標空間における横軸をX軸とし、縦軸をY軸とし、奥行き方向の軸をZ軸とし、さらに、X軸における原点より右側に正の値をとり、原点より左側に負の値をとるものとする。また、Y軸における原点より上側に正の値をとり、原点より下側に負の値をとるものとする。さらに、Z軸における原点より奥側に正の値をとり、原点より手前側に負の値をとるものとする。そして、例えば、座標Aは[0,0,0]であり、座標Bは[x,0,0]であり、座標Cは[0,0,z]であり、座標Dは[x,0,0]であるとする。また、座標Eは[0,−y,0]であり、座標Fは[x,−y,0]であり、座標Gは[0,−y,z]であり、座標Hは[x,−y,z]であるとする。   Here, a three-dimensional coordinate space with the coordinate A as the origin is defined. The horizontal axis in the specified three-dimensional coordinate space is the X axis, the vertical axis is the Y axis, the depth axis is the Z axis, and a positive value is taken to the right of the origin on the X axis. A negative value is assumed on the left side. It is assumed that a positive value is taken above the origin on the Y axis and a negative value is taken below the origin. Further, assume that a positive value is taken on the back side from the origin on the Z axis, and a negative value is taken on the near side from the origin. For example, the coordinate A is [0, 0, 0], the coordinate B is [x, 0, 0], the coordinate C is [0, 0, z], and the coordinate D is [x, 0]. , 0]. The coordinate E is [0, -y, 0], the coordinate F is [x, -y, 0], the coordinate G is [0, -y, z], and the coordinate H is [x, −y, z].

また、判定部33は、手Mが机2に近接したかどうかを判定する判定領域を設定する。例えば、座標A〜Hのそれぞれから、数値±α分ずつ、X軸、Y軸、Z軸方向へ移動させた座標位置として、座標A’〜H’からなる直方体で囲まれる囲み空間を設定する。なお、数値αは一例であり、ここでは座標A〜Hすべてに同じ数値分を移動させているが、これに限定されず、それぞれ異なる数値分を移動させるものであってもよい。   Further, the determination unit 33 sets a determination region for determining whether or not the hand M has approached the desk 2. For example, a surrounding space surrounded by a rectangular parallelepiped composed of coordinates A ′ to H ′ is set as a coordinate position moved in the X axis, Y axis, and Z axis directions by a numerical value ± α from each of the coordinates A to H. . In addition, although the numerical value (alpha) is an example and the same numerical value is moved to all the coordinates AH here, it is not limited to this, You may move a different numerical value, respectively.

例えば、座標A’は[−α,α,−α]であり、座標B’は[x+α,α,−α]であり、座標C’は[−α,α,z+α]であり、座標D’は[x+α,α,z+α]であるとする。また、座標E’は[−α,−y−α,−α]であり、座標F’は[x+α,−y−α,−α]であり、座標G’は[−α,−y−α,z+α]であり、座標H’は[x+α,−y−α,z+α]であるとする。   For example, the coordinate A ′ is [−α, α, −α], the coordinate B ′ is [x + α, α, −α], the coordinate C ′ is [−α, α, z + α], and the coordinate D It is assumed that “x” is [x + α, α, z + α]. The coordinate E ′ is [−α, −y−α, −α], the coordinate F ′ is [x + α, −y−α, −α], and the coordinate G ′ is [−α, −y−. α, z + α], and the coordinate H ′ is [x + α, −y−α, z + α].

そして、判定部33は、判定領域を、座標A〜Hと、座標A’〜 H’との間の空間領域と設定する。この判定領域である空間領域は、簡易式で表すと図示のように[A’〜 H’]−[A〜H]となる。判定部33は、部位データ取得部32により手Mにおける人差し指の指先の部位データとして取得した、例えば座標M1[xi、yi、zi]が、[A’〜 H’]−[A〜H]の判定領域に含まれるとき、手Mにおける人差し指の指先が机2に近接しているものと判定する。これを簡易式で表すと図示のように「[A’〜 H’]−[A〜H]≧M」となる。なお、判定領域が小さいほど、認識感度がアップすることは言うまでもない。また、ここでは、囲み空間を規定する直方体を8つの座標に基づいて規定しているが、一例であり、例えば、机2等の家具の周囲における任意の三次元座標2点を設定し、ここからX軸方向、Y軸方向、又はZ軸方向のうち2軸方向に所定距離延伸させた2辺からなる平面3面を三次元座標2点毎に規定することで、6面からなる直方体を規定することとしてもよい。   Then, the determination unit 33 sets the determination region as a space region between the coordinates A to H and the coordinates A ′ to H ′. The spatial area that is the determination area is represented by [A ′ to H ′] − [A to H] as illustrated in a simplified manner. The determination unit 33 acquires, for example, coordinates M1 [xi, yi, zi] of [A ′ to H ′] − [A to H] as the region data of the fingertip of the index finger in the hand M by the region data acquisition unit 32. When it is included in the determination area, it is determined that the fingertip of the index finger in the hand M is close to the desk 2. When this is expressed by a simple formula, “[A′˜H ′] − [A˜H] ≧ M” as shown in the figure. Needless to say, the smaller the determination area, the higher the recognition sensitivity. In addition, here, the rectangular parallelepiped that defines the enclosed space is defined based on eight coordinates, but is an example. For example, two arbitrary three-dimensional coordinates around a furniture such as a desk 2 are set, A rectangular parallelepiped composed of six surfaces is defined by defining three planes each having two sides that are extended by a predetermined distance in the two axis directions of the X axis direction, the Y axis direction, or the Z axis direction from each of the two three-dimensional coordinates. It may be specified.

なお、ここでは、例えば机2の3Dモデルデータとして座標Aから座標Hの8点からなる座標空間に基づいて上記囲み空間を設定しているため、囲み空間は直方体となっているが、これに限定されず、空間に配置された家具等の立体形状に応じて、囲み空間としての判定領域が変化するものであってもよい。つまり、例えば、立方体や、球や、円柱や、円錐や、三角錐や、平行六面体や、五角柱や、六角柱等の立体形状からなる判定領域であってもよい。   Here, for example, the enclosed space is a rectangular parallelepiped because the enclosed space is set based on a coordinate space consisting of 8 points from coordinates A to H as 3D model data of the desk 2, for example. It is not limited, The determination area as enclosed space may change according to solid shapes, such as furniture arranged in space. That is, for example, the determination region may be a three-dimensional shape such as a cube, a sphere, a cylinder, a cone, a triangular pyramid, a parallelepiped, a pentagonal column, or a hexagonal column.

次に、判定部33により手Mが判定領域に含まれると判定された場合に、機能実行部34により実行される機能の具体例とともに、機能実行処理について図6から8を参照して説明する。なお、ここでは、手Mが判定領域に含まれることを、例えば机2の判定領域であれば、机2に手Mがタッチしたものとして説明する。   Next, a function execution process will be described with reference to FIGS. 6 to 8 together with a specific example of a function executed by the function execution unit 34 when the determination unit 33 determines that the hand M is included in the determination region. . Here, it is described that the hand M is included in the determination area, for example, if the hand M touches the desk 2 in the determination area of the desk 2.

図6に示すように、手Mがスタンドライト3の判定領域に含まれたとき、つまり、手Mがスタンドライト3にタッチしたとき、例えば、図1に示したPC1の電源がONされる機能が機能実行部34により実行される。機能実行処理としては、例えば、上述の分割された各領域の3Dモデルデータに紐付けて付与された識別子と各機能を対応させたテーブルを設定しておき、判定部33による判定の結果、手Mが各判定領域に含まれると判定されたとき、各判定領域の3Dモデルデータに紐付けた識別子に対応させた所定機能を実行すればよい。   As shown in FIG. 6, when the hand M is included in the determination area of the standlight 3, that is, when the hand M touches the standlight 3, for example, the function of turning on the power of the PC 1 shown in FIG. Is executed by the function execution unit 34. As the function execution processing, for example, a table is set in which identifiers associated with the 3D model data of each divided area are associated with the respective functions. When it is determined that M is included in each determination region, a predetermined function corresponding to the identifier associated with the 3D model data of each determination region may be executed.

なお、判定部33は、手Mがスタンドライト3の判定領域に含まれる場合において、部位データ取得部32により取得した2以上の部位データと、その部位データに紐付けられた時刻情報とに基づいて、囲み空間におけるユーザーの身体の少なくとも一部の移動量を判定してもよい。そして、機能実行部34は、判定部33により判定された移動量に応じて所定機能の発揮状態を調整することとしてもよい。   Note that, when the hand M is included in the determination region of the standlight 3, the determination unit 33 is based on two or more region data acquired by the region data acquisition unit 32 and time information associated with the region data. Thus, the movement amount of at least a part of the user's body in the enclosed space may be determined. Then, the function execution unit 34 may adjust the performance state of the predetermined function according to the movement amount determined by the determination unit 33.

図6において、例えば、スタンドライト3の傘にタッチしている場合、その傘の表面上を一定方向にスライドさせるように手Mを移動させる動作を検出部26が検出するものとする。この際、部位データ取得部32により、手Mの移動開始点としての部位データと、手Mの移動終了点としての部位データと、それらの部位データに紐付けられたクロック情報等とを取得する。そして、判定部33は、それらの取得データに基づいて、手Mの移動量を判定する。機能実行部34は、手Mの移動量に応じて、所定機能の発揮状態として、例えば、スタンドライト3の明るさを調整する。つまり、ここでの「所定機能の発揮状態」とは、上記例のように明るさの調節機能が発揮される状態として明暗状態を言う。なお、本例は一例であり、これに限定されるものではない。   In FIG. 6, for example, when the umbrella of the standlight 3 is touched, the detection unit 26 detects the movement of moving the hand M so as to slide on the surface of the umbrella in a certain direction. At this time, the part data acquisition unit 32 acquires part data as the movement start point of the hand M, part data as the movement end point of the hand M, clock information associated with the part data, and the like. . And the determination part 33 determines the moving amount | distance of the hand M based on those acquisition data. The function execution unit 34 adjusts, for example, the brightness of the standlight 3 as a predetermined function display state according to the amount of movement of the hand M. In other words, the “state of exhibiting the predetermined function” here refers to a light / dark state as a state in which the function of adjusting brightness is exhibited as in the above example. In addition, this example is an example and is not limited to this.

また、図7に示すように、手Mが机2の判定領域に含まれ、尚且つ、机2の所定位置に近接したとき、つまり、手Mが机2の所定位置にタッチしたとき、機能実行部34により各位置に対応させた機能を実行してもよい。例えば、手Mが机2上の2cにタッチしたとき、PC1においてTVアプリを起動させる機能が機能実行部34により実行されてもよい。また、手Mが机2上の2rfにタッチしたとき、PC1においてN局にチャンネルを選局させる機能が機能実行部34により実行されてもよい。さらに、手Mが机2上の2lrにタッチしたとき、PC1においてW局にチャンネルを選局させる機能が機能実行部34により実行されてもよい。   Further, as shown in FIG. 7, when the hand M is included in the determination area of the desk 2 and close to a predetermined position of the desk 2, that is, when the hand M touches the predetermined position of the desk 2, The execution unit 34 may execute a function corresponding to each position. For example, when the hand M touches 2c on the desk 2, the function execution unit 34 may execute a function of starting the TV application in the PC 1. Further, when the hand M touches 2rf on the desk 2, the function execution unit 34 may execute a function of causing the N station to select a channel in the PC1. Further, when the hand M touches 2lr on the desk 2, the function execution unit 34 may execute a function of causing the W station to select a channel in the PC 1.

さらに、図8に示すように、手Mがソファ4の判定領域に含まれ、且つ、例えばソファ4の両肘掛けに近接したとき、つまり、手Mがソファ4の肘掛けにタッチしたとき、例えば、PC1において、音量調節機能が機能実行部34により実行されてもよい。例えば、手Mが4rにタッチしたとき、音量を大へ調節し、手Mが4lにタッチしたとき、音量を小へ調節するものとしてもよい。   Furthermore, as shown in FIG. 8, when the hand M is included in the determination region of the sofa 4 and, for example, close to both armrests of the sofa 4, that is, when the hand M touches the armrest of the sofa 4, In the PC 1, the volume adjustment function may be executed by the function execution unit 34. For example, when the hand M touches 4r, the volume may be adjusted to high, and when the hand M touches 4l, the volume may be adjusted to low.

なお、判定部33が、移動量と時刻情報に基づいてユーザーの身体の少なくとも一部の移動速度を判定し、機能実行部34が、判定された移動速度に応じて決定する、ユーザーの身体の少なくとも一部が静物に近接する強さに応じて発揮状態の調整レベルを変更することとしてもよい。ここで、「発揮状態の調整レベル」とは、例えば図8を用いて説明すれば、音量の調節が実行されている状態における、その音量調節具合をいう。より具体的には、手Mが肘掛け4l又は4rにタッチする強さが強ければ、音量変化の度合を大きくすればよいし、手Mが肘掛けにタッチする強さが弱ければ、音量変化の度合を小さくすればよい。例えば、肘掛けを強くタッチすれば、音量を素早く大きくしたり、小さくしたりすればよく、肘掛けを弱くタッチすれば、音量をゆっくり小刻みに大きくしたり、小さくしたりするなど細かい音量調節をすればよい。   The determination unit 33 determines the movement speed of at least a part of the user's body based on the movement amount and the time information, and the function execution unit 34 determines according to the determined movement speed. It is good also as changing the adjustment level of a display state according to the intensity | strength at least one part adjoins to a still life. Here, the “adjusted state adjustment level” means, for example, FIG. 8, the volume adjustment level in a state where the volume adjustment is being performed. More specifically, if the strength with which the hand M touches the armrest 4l or 4r is strong, the degree of volume change may be increased, and if the strength with which the hand M touches the armrest is weak, the degree of volume change. Should be reduced. For example, if you touch the armrest strongly, you can increase or decrease the volume quickly. Good.

次に、本実施形態における動作認識処理手順について図9を参照して説明する。まず、撮影部25により撮影された室内空間Sの撮影画像に基づいて、3Dモデリング部31は室内空間Sを3Dモデル化する(ステップS1)。   Next, the operation recognition processing procedure in this embodiment will be described with reference to FIG. First, the 3D modeling unit 31 converts the indoor space S into a 3D model based on the captured image of the indoor space S photographed by the photographing unit 25 (step S1).

次に、室内空間Sにおいて検出部26により手Mを検出したとき(ステップS2、YES)、部位データ取得部32は手Mの部位データである座標データを取得する(ステップS3)。他方、室内空間Sにおいて検出部26により手Mを検出されないとき(ステップS2、NO)は、引き続き検出部26により手Mの検出処理を行う(ステップS2)。   Next, when the hand M is detected by the detection unit 26 in the indoor space S (step S2, YES), the part data acquisition unit 32 acquires coordinate data that is part data of the hand M (step S3). On the other hand, when the hand M is not detected by the detection unit 26 in the indoor space S (step S2, NO), the detection unit 26 continues to detect the hand M (step S2).

その後、判定部33により、手Mが3Dモデリングされた室内空間Sにおける机2等の家具等にタッチしたと判定されたとき(ステップS4、YES)、機能実行部34は、タッチされた机2等に対応させた機能を実行する(ステップS5)。一方、判定部33により、タッチ判定がされなかったとき(ステップS4、NO)、処理を終了する。   Thereafter, when the determination unit 33 determines that the hand M has touched furniture such as the desk 2 in the 3D modeled indoor space S (step S4, YES), the function execution unit 34 determines that the touched desk 2 is touched. A function corresponding to the above is executed (step S5). On the other hand, when the touch determination is not made by the determination unit 33 (step S4, NO), the process ends.

なお、上述する各実施の形態は、本発明の好適な実施の形態であり、本発明の要旨を逸脱しない範囲内において種々変更実施が可能である。例えば、上述した本実施形態の動作認識装置における各処理を、ハードウェア、又は、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。   Each of the above-described embodiments is a preferred embodiment of the present invention, and various modifications can be made without departing from the scope of the present invention. For example, each process in the above-described motion recognition apparatus of the present embodiment can be executed using hardware, software, or a combined configuration of both.

なお、ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリ等の記憶部にインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。   When executing processing using software, a program in which a processing sequence is recorded can be installed and executed in a storage unit such as a memory in a computer incorporated in dedicated hardware. . Alternatively, the program can be installed and executed on a general-purpose computer capable of executing various processes.

また、特許文献1のような撮影されたジェスチャーに基づいて所定の機能を実行させるような技術の場合、例えばジェスチャーによって所定の機能が実行されなかったとき、ユーザーは、それがジェスチャーの認識不備によるものか、それ以外の原因によるものか分からない。他方、本実施形態のように、静物への接触動作として認識させるようにすることで、例えば、その接触動作が認識されれば、ユーザーは静物への接触動作を通じた触感により、確かにジェスチャーを行ったという実感を得ることができる。   Further, in the case of a technique for executing a predetermined function based on a photographed gesture as in Patent Document 1, for example, when a predetermined function is not executed by a gesture, the user is caused by a gesture recognition defect. I don't know if it is due to something else or something else. On the other hand, by making it recognize as a contact operation to a still life as in this embodiment, for example, if the contact operation is recognized, the user can surely make a gesture by tactile sensation through the contact operation to the still life. You can feel that you have gone.

1 PC
2 机
3 スタンドライト
4 ソファ
11 カメラ
12 IRカメラ
13 ディスプレイ
21 制御部
22 RAM
23 ROM
24 HDD
25 撮影部
26 検出部
27 表示部
31 3Dモデリング部
32 部位データ取得部
33 判定部
34 機能実行部
1 PC
2 desks 3 standlights 4 sofa 11 camera 12 IR camera 13 display 21 control unit 22 RAM
23 ROM
24 HDD
25 imaging unit 26 detection unit 27 display unit 31 3D modeling unit 32 part data acquisition unit 33 determination unit 34 function execution unit

Claims (6)

1以上の静物が配置された空間を撮影する撮影手段と、
前記空間内におけるユーザーの身体の少なくとも一部を検出する検出手段と、
前記撮影手段により撮影された撮影画像に基づいて前記空間の3Dモデルデータを生成する3Dモデリング手段と、
前記検出手段による検出結果から前記ユーザーの身体の少なくとも一部の位置を特定する三次元座標データからなる部位データを取得する部位データ取得手段と、
前記3Dモデリング手段により生成された前記空間の3Dモデルデータに含まれる前記1以上の静物モデルのうちの少なくとも1の静物モデルが占有する空間の周囲の空間を少なくとも含む囲み空間に、前記部位データ取得手段により取得された部位データが含まれるかどうかを判定する判定手段と、
前記判定手段により、前記囲み空間に前記部位データが含まれると判定されたとき、所定機能を実行する機能実行手段と、
を備えることを特徴とする動作認識装置。
Photographing means for photographing a space in which one or more still lifes are arranged;
Detecting means for detecting at least part of the user's body in the space;
3D modeling means for generating 3D model data of the space based on a photographed image photographed by the photographing means;
Part data acquisition means for acquiring part data consisting of three-dimensional coordinate data specifying the position of at least a part of the user's body from the detection result by the detection means;
Obtaining the part data in a surrounding space including at least a space around a space occupied by at least one of the one or more still life models included in the 3D model data of the space generated by the 3D modeling means Determining means for determining whether or not the part data acquired by the means is included;
A function execution unit that executes a predetermined function when the determination unit determines that the part data is included in the enclosed space;
A motion recognition apparatus comprising:
前記3Dモデリング手段は、少なくとも前記撮影画像に含まれる前記1以上の静物の色情報の差異に基づいて前記撮影画像中の1以上の静物を識別する識別子を前記1以上の静物の3Dモデルデータ毎に付与することを特徴とする請求項1記載の動作認識装置。   The 3D modeling means assigns an identifier for identifying one or more still objects in the captured image based on at least a difference in color information of the one or more still objects included in the captured image for each of the 3D model data of the one or more still objects. The motion recognition apparatus according to claim 1, further comprising: 前記判定手段は、前記部位データ取得手段により取得した2以上の部位データと、該部位データに紐付けられた時刻情報とに基づいて、前記囲み空間における前記ユーザーの身体の少なくとも一部の移動量を判定し、
前記機能実行手段は、前記判定された移動量に応じて所定機能の発揮状態を調整することを特徴とする請求項1又は2記載の動作認識装置。
The determination means is based on two or more part data acquired by the part data acquisition means and time information associated with the part data, and a movement amount of at least a part of the user's body in the enclosed space Determine
The motion recognition apparatus according to claim 1, wherein the function execution unit adjusts a state of performing a predetermined function according to the determined movement amount.
前記判定手段は、前記移動量と前記時刻情報に基づいて前記ユーザーの身体の少なくとも一部の移動速度を判定し、
前記機能実行手段は、前記判定された移動速度に応じて決定する、前記ユーザーの身体の少なくとも一部が前記静物に近接する強さに応じて前記発揮状態の調整レベルを変更することを特徴とする請求項3記載の動作認識装置。
The determination means determines a movement speed of at least a part of the user's body based on the movement amount and the time information,
The function execution means changes the adjustment level of the display state according to the strength with which at least a part of the user's body approaches the still life, which is determined according to the determined moving speed. The motion recognition apparatus according to claim 3.
1以上の静物が配置された空間を撮影する工程と、
前記空間内におけるユーザーの身体の少なくとも一部を検出する工程と、
前記撮影された撮影画像に基づいて前記空間の3Dモデルデータを生成し記憶部に記憶する工程と、
前記検出結果から前記ユーザーの身体の少なくとも一部の位置を特定する三次元座標データからなる部位データを取得して前記記憶部に記憶する工程と、
前記記憶部に記憶された前記空間の3Dモデルデータに含まれる前記1以上の静物モデルのうちの少なくとも1の静物モデルが占有する空間の周囲の空間を少なくとも含む囲み空間に、前記記憶部に記憶された部位データが含まれるかどうかを判定する工程と、
前記囲み空間に前記部位データが含まれると判定されたとき、所定機能を実行する工程と、
を備えることを特徴とする動作認識方法。
Photographing a space in which one or more still lifes are arranged;
Detecting at least a portion of a user's body in the space;
Generating 3D model data of the space based on the captured image and storing it in a storage unit;
Acquiring part data consisting of three-dimensional coordinate data specifying the position of at least a part of the user's body from the detection result, and storing it in the storage unit;
Stored in the storage unit in an enclosed space including at least a space surrounding a space occupied by at least one still-life model of the one or more still-life models included in the 3D model data of the space stored in the storage unit Determining whether the included site data is included;
A step of executing a predetermined function when it is determined that the part data is included in the enclosed space;
A motion recognition method comprising:
1以上の静物が配置された空間を撮影する処理と、
前記空間内におけるユーザーの身体の少なくとも一部を検出する処理と、
前記撮影された撮影画像に基づいて前記空間の3Dモデルデータを生成し記憶部に記憶する処理と、
前記検出結果から前記ユーザーの身体の少なくとも一部の位置を特定する三次元座標データからなる部位データを取得して前記記憶部に記憶する処理と、
前記記憶部に記憶された前記空間の3Dモデルデータに含まれる前記1以上の静物モデルのうちの少なくとも1の静物モデルが占有する空間の周囲の空間を少なくとも含む囲み空間に、前記記憶部に記憶された部位データが含まれるかどうかを判定する処理と、
前記囲み空間に前記部位データが含まれると判定されたとき、所定機能を実行する処理と、
をコンピュータに実行させることを特徴とするプログラム。
A process of photographing a space in which one or more still lifes are arranged;
Detecting at least part of the user's body in the space;
Processing for generating 3D model data of the space based on the captured image and storing it in a storage unit;
A process of acquiring part data consisting of three-dimensional coordinate data for specifying the position of at least a part of the user's body from the detection result and storing it in the storage unit;
Stored in the storage unit in an enclosed space including at least a space surrounding a space occupied by at least one still-life model of the one or more still-life models included in the 3D model data of the space stored in the storage unit A process for determining whether or not included part data is included,
A process of executing a predetermined function when it is determined that the part data is included in the enclosed space;
A program that causes a computer to execute.
JP2014149239A 2014-07-22 2014-07-22 Motion recognition device, motion recognition method, and program Active JP6008911B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014149239A JP6008911B2 (en) 2014-07-22 2014-07-22 Motion recognition device, motion recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014149239A JP6008911B2 (en) 2014-07-22 2014-07-22 Motion recognition device, motion recognition method, and program

Publications (2)

Publication Number Publication Date
JP2016024690A JP2016024690A (en) 2016-02-08
JP6008911B2 true JP6008911B2 (en) 2016-10-19

Family

ID=55271379

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014149239A Active JP6008911B2 (en) 2014-07-22 2014-07-22 Motion recognition device, motion recognition method, and program

Country Status (1)

Country Link
JP (1) JP6008911B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106326890A (en) * 2016-08-24 2017-01-11 深圳市虚拟现实技术有限公司 Space positioning method based on image recognition and space positioning system thereof

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07175587A (en) * 1993-10-28 1995-07-14 Hitachi Ltd Information processor
JP4035610B2 (en) * 2002-12-18 2008-01-23 独立行政法人産業技術総合研究所 Interface device
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
JP5565331B2 (en) * 2011-01-28 2014-08-06 コニカミノルタ株式会社 Display system, display processing apparatus, display method, and display program
JP2013114466A (en) * 2011-11-29 2013-06-10 Nikon Corp Display system, display method and program

Also Published As

Publication number Publication date
JP2016024690A (en) 2016-02-08

Similar Documents

Publication Publication Date Title
US20220382379A1 (en) Touch Free User Interface
RU2720356C1 (en) Control device, control method and storage medium
US9911235B2 (en) Spatial interaction in augmented reality
US9292089B1 (en) Gestural object selection
JP6090140B2 (en) Information processing apparatus, information processing method, and program
US20130257736A1 (en) Gesture sensing apparatus, electronic system having gesture input function, and gesture determining method
US9632592B1 (en) Gesture recognition from depth and distortion analysis
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
JP2011081480A (en) Image input system
KR101441882B1 (en) method for controlling electronic devices by using virtural surface adjacent to display in virtual touch apparatus without pointer
US20160232708A1 (en) Intuitive interaction apparatus and method
US10607069B2 (en) Determining a pointing vector for gestures performed before a depth camera
JP6632681B2 (en) Control device, control method, and program
US11755119B2 (en) Scene controlling method, device and electronic equipment
Lee et al. Tunnelslice: Freehand subspace acquisition using an egocentric tunnel for wearable augmented reality
JP6008911B2 (en) Motion recognition device, motion recognition method, and program
JP2013168120A (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
KR20160055407A (en) Holography touch method and Projector touch method
JP6643825B2 (en) Apparatus and method
JP6008904B2 (en) Display control apparatus, display control method, and program
US9551922B1 (en) Foreground analysis on parametric background surfaces
TWI496028B (en) Cell phone with contact free controllable function
Narayan et al. Augmenting Moving Planar Surfaces and Spatial Control of Interactive Surfaces Application through Virtual Touch Screen (VIRTOS)-A Case Study
JP2020053088A (en) Control device, control method, and program
KR20160013501A (en) Holography touch method and Projector touch method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160913

R150 Certificate of patent or registration of utility model

Ref document number: 6008911

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250