JP2012181809A - Apparatus controller, apparatus control method, apparatus control program and integrated circuit - Google Patents

Apparatus controller, apparatus control method, apparatus control program and integrated circuit Download PDF

Info

Publication number
JP2012181809A
JP2012181809A JP2011046118A JP2011046118A JP2012181809A JP 2012181809 A JP2012181809 A JP 2012181809A JP 2011046118 A JP2011046118 A JP 2011046118A JP 2011046118 A JP2011046118 A JP 2011046118A JP 2012181809 A JP2012181809 A JP 2012181809A
Authority
JP
Japan
Prior art keywords
user
gesture
virtual
input
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011046118A
Other languages
Japanese (ja)
Inventor
Kotaro Hakoda
航太郎 箱田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011046118A priority Critical patent/JP2012181809A/en
Publication of JP2012181809A publication Critical patent/JP2012181809A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable gesture-based operation for an operation apparatus that does not have gesture registration, gesture recognition, or action execution functions.SOLUTION: When an apparatus selecting instruction is inputted by making a gesture of touching a certain operation apparatus with a finger, a function information acquiring section 506 acquires function information indicating a list of functions possessed by the operation apparatus from a function information storage section 507. A virtual UI generating section 508 generates a virtual UI based on the function information acquired by the function information acquiring section 506 and stores the generated virtual UI and the gesture made by the user at the time of inputting the apparatus selecting instruction in a virtual UI storage section 509 such that they are associated with each other. When the same gesture as the apparatus selecting instruction is made, a display superimposing section 511 superimposes the virtual UI corresponding to the gesture on image data for a real space so as to generate image data for an augmented reality space and causes a display 513 to display the generated image data.

Description

本発明は、拡張現実空間に含まれる操作機器をヘッドマウントディスプレイを装着したユーザにより操作させる技術に関するものである。   The present invention relates to a technique for operating an operating device included in an augmented reality space by a user wearing a head mounted display.

近年、高速通信技術の発展及び普及、並びに任天堂社製のWii(登録商標)及びSONY社製のPLAYSTATION(登録商標)MOVE等の登場に伴い、ジェスチャを用いて機器を操作するというような、新しいユーザエクスペリエンス(以下、UX)を提供するゲームやアプリケーションが盛んに開発され始めている。   In recent years, with the development and spread of high-speed communication technology and the appearance of Wii (registered trademark) made by Nintendo and PLAYSTATION (registered trademark) MOVE made by Sony, new devices such as operating devices using gestures Games and applications that provide a user experience (hereinafter referred to as UX) are being actively developed.

例えば、任天堂のWiiでは、ユーザのジェスチャ操作に対応したアクションを機器にあらかじめ登録しておくことで、実際にユーザがそのジェスチャを行ったときにそのジェスチャを認識し、認識したジェスチャに対応する機能を実行するユーザインターフェース(以降、UIと記述する)が提供されている。   For example, in Nintendo's Wii, a function corresponding to a recognized gesture is recognized when an action corresponding to the user's gesture operation is registered in advance in the device so that the user actually recognizes the gesture. A user interface (hereinafter referred to as UI) is provided.

図10は従来技術の概要図である。図10において、操作機器100は、ユーザがジェスチャを行う際に把持される。まず、ジェスチャ登録段階(段階1)において、操作機器100は、ユーザにより行われたジェスチャを認識し、そのジェスチャを登録する。ジェスチャ登録後、そのジェスチャがユーザにより行われると、操作機器100はそのジェスチャを認識する(段階2:ジェスチャ認識段階)。操作機器100はユーザにより行われたジェスチャを認識すると、そのジェスチャに対応したアクション及び表示を行うように機器101に命令する(段階3:機能実行段階)。命令を受けた機器101はその命令に従った、アクションを行い、アクションの結果を表示機器102に表示する(段階4:表示段階)。このように従来の技術では、現実の操作機器100にジェスチャ登録機能とジェスチャ認識機能を持たせ、操作機器100により認識されたジェスチャに対応したアクション及び表示を実行するアクション実行機能を機器101に予め持たせることによって、UXを実現していた。   FIG. 10 is a schematic diagram of the prior art. In FIG. 10, the operating device 100 is gripped when the user performs a gesture. First, in the gesture registration stage (stage 1), the operating device 100 recognizes a gesture made by the user and registers the gesture. After the gesture registration, when the gesture is performed by the user, the operating device 100 recognizes the gesture (stage 2: gesture recognition stage). When the operation device 100 recognizes a gesture made by the user, the operation device 100 instructs the device 101 to perform an action and display corresponding to the gesture (step 3: function execution step). The device 101 that has received the command performs an action in accordance with the command, and displays the result of the action on the display device 102 (step 4: display step). As described above, in the conventional technology, the actual operation device 100 is provided with the gesture registration function and the gesture recognition function, and the action execution function for executing the action and display corresponding to the gesture recognized by the operation device 100 is provided in the device 101 in advance. UX was realized by having it.

“NINTENDO Wii モーションプラスとは”[ONLINE]、「平成22年12月15日検索」、インターネット<URL:http://www.nintendo.co.jp/wii/rztj/motionplus/index.html>“What is NINTENDO Wii Motion Plus” [ONLINE], “Search December 15, 2010”, Internet <URL: http://www.nintendo.co.jp/wii/rztj/motionplus/index.html>

しかしながら、上記の従来の技術では、予め操作機器100及び機器101にジェスチャ認識機能、ジェスチャ登録機能、及びアクション実行機能を持たせなければならない。したがって、これらの機能を持たない機器では、ジェスチャ登録機能、ジェスチャ認識機能、及びアクション実行機能を実現できないという課題がある。例えば、現在普及しているデジタル家電機器では、これらの機能を持っていないケースも多い。したがって、ユーザは、デジタル家電機器をジェスチャを用いて操作することができないという問題がある。   However, in the above-described conventional technology, the operation device 100 and the device 101 must have a gesture recognition function, a gesture registration function, and an action execution function in advance. Therefore, there is a problem that a device that does not have these functions cannot realize a gesture registration function, a gesture recognition function, and an action execution function. For example, digital home appliances that are currently popular often do not have these functions. Therefore, there is a problem that the user cannot operate the digital home appliance using a gesture.

一方、デジタル家電機器に上記のジェスチャ登録機能、ジェスチャ認識機能、及びアクション実行機能を搭載するとコストが増大するという問題が発生する。   On the other hand, when the above-described gesture registration function, gesture recognition function, and action execution function are installed in a digital home appliance, there is a problem that costs increase.

本発明の目的は、ジェスチャ登録機能、ジェスチャ認識機能、およびアクション実行機能を有しない操作機器に対して、ジェスチャを用いた操作を可能とする技術を提供することである。   The objective of this invention is providing the technique which enables operation using a gesture with respect to the operating device which does not have a gesture registration function, a gesture recognition function, and an action execution function.

(1)本発明による機器制御装置は、拡張現実空間に含まれる操作機器をヘッドマウントディスプレイを装着したユーザにより操作させる機器制御装置であって、前記拡張現実空間においてユーザにより行われるジェスチャを認識するユーザ入力認識部と、前記ユーザ入力認識部により認識されたジェスチャに基づいてユーザにより入力された入力指示を判定するユーザ入力判定部と、前記ユーザ入力判定部により、ある操作機器を選択するための機器選択指示が前記入力指示として入力されたと判定された場合、当該操作機器が持つ機能の一覧を示す機能情報を取得する機能情報取得部と、前記機器選択指示によりユーザが選択した操作機器の前記機能情報と、前記機器選択指示を入力する際にユーザにより行われたジェスチャとを対応付けて入力ジェスチャ登録情報を生成するジェスチャ情報登録部と、前記機能情報取得部により取得された機能情報に基づいて仮想ユーザインターフェイスを生成し、生成した仮想ユーザインターフェイスと、前記機器選択指示を入力する際にユーザにより行われたジェスチャとを対応付けてユーザインターフェイス登録情報を生成する仮想UI生成部と、前記ユーザ入力判定部により、前記ユーザインターフェイス登録情報に登録されたジェスチャが入力されたと判定された場合、当該ジェスチャに対応する仮想ユーザインターフェイスを現実空間の映像データに重畳表示する重畳表示部と、前記ユーザ入力判定部により、前記仮想ユーザインターフェイスを用いたユーザからの機器操作指示が前記入力指示として入力されたと判定された場合、当該機器操作指示に対応する機能を前記入力ジェスチャ登録情報に含まれる前記機能情報から検索する機能情報検索部と、前記機能情報検索部により検索された機能が実行されるように前記操作機器に命令を行う機能実行要求部とを備える。   (1) A device control device according to the present invention is a device control device that operates an operation device included in an augmented reality space by a user wearing a head-mounted display, and recognizes a gesture performed by the user in the augmented reality space. A user input recognizing unit, a user input determining unit that determines an input instruction input by a user based on a gesture recognized by the user input recognizing unit, and the user input determining unit for selecting a certain operating device When it is determined that a device selection instruction is input as the input instruction, a function information acquisition unit that acquires a function information indicating a list of functions of the operation device, and the operation device selected by the user according to the device selection instruction Correspondence between function information and gesture made by user when inputting the device selection instruction A gesture information registration unit that generates input gesture registration information, a virtual user interface is generated based on the function information acquired by the function information acquisition unit, and the generated virtual user interface and the device selection instruction are input. A user interface registration information is generated by associating a gesture made by a user with the user, and the user input determination unit determines that the gesture registered in the user interface registration information is input A superimposing display unit that superimposes and displays a virtual user interface corresponding to the gesture on video data in real space, and a device operation instruction from the user using the virtual user interface is input as the input instruction by the user input determination unit. If it is determined that A function information search unit that searches the function information included in the input gesture registration information for a function corresponding to the device operation instruction, and the function device searched to execute the function searched by the function information search unit. A function execution requesting unit for executing instructions.

また、本発明による機器制御方法、機器制御プログラム及び集積回路は、上記の機器制御装置と同様の構成を持っている。   The device control method, device control program, and integrated circuit according to the present invention have the same configuration as the above-described device control apparatus.

この構成によれば、ユーザはある操作機器を選択するためにあるジェスチャを行って機器選択指示を入力すると、ユーザにより選択された操作機器の機能情報が取得され、取得された機能情報とジェスチャとが対応付けて入力ジェスチャ登録情報が生成される。また、取得された機能情報から仮想ユーザインターフェイス(仮想UI)が生成され、生成された仮想UIがユーザにより行われたジェスチャと対応付けてユーザインターフェイス登録情報が生成される。以上によりユーザが行ったジェスチャと操作機器の機能情報と、操作機器の仮想UIとが対応付けられる。   According to this configuration, when the user performs a gesture to select a certain operation device and inputs a device selection instruction, the function information of the operation device selected by the user is acquired, and the acquired function information and gesture Are associated with each other to generate input gesture registration information. Also, a virtual user interface (virtual UI) is generated from the acquired function information, and user interface registration information is generated by associating the generated virtual UI with a gesture made by the user. As described above, the gesture performed by the user, the function information of the operation device, and the virtual UI of the operation device are associated with each other.

そして、ユーザにより、機器選択指示を入力したときと同じジェスチャが行われると、そのジェスチャに対応付けられた仮想UIが表示される。そして、ユーザは、表示された仮想UIに対して操作指示を入力すると、操作指示に対応する機能が入力ジェスチャ登録情報に含まれる機能情報から検索されて実行される。   When the user performs the same gesture as when the device selection instruction is input, a virtual UI associated with the gesture is displayed. When the user inputs an operation instruction to the displayed virtual UI, a function corresponding to the operation instruction is searched from the function information included in the input gesture registration information and executed.

したがって、ジェスチャ登録機能、ジェスチャ認識機能、及びアクション実行機能を有しない操作機器であっても、ジェスチャを用いた操作が可能になる。そのため、ユーザの利便性を向上させることができる。   Therefore, even an operating device that does not have a gesture registration function, a gesture recognition function, and an action execution function can be operated using the gesture. Therefore, user convenience can be improved.

(2)前記ユーザ入力認識部は、前記ヘッドマウントディスプレイに装着されたカメラ、又は現実空間に設置されたカメラにより取得された映像データに基づいて前記ジェスチャを認識することが好ましい。   (2) It is preferable that the user input recognition unit recognizes the gesture based on video data acquired by a camera mounted on the head mounted display or a camera installed in a real space.

この構成によれば、カメラによりユーザを撮影することで、ジェスチャを認識することができるため、ジェスチャを精度良く認識することができる。   According to this configuration, since the gesture can be recognized by photographing the user with the camera, the gesture can be recognized with high accuracy.

(3)前記機能情報取得部は、前記ヘッドマウントディスプレイ又はサーバ機器に設けられていることが好ましい。   (3) It is preferable that the function information acquisition unit is provided in the head mounted display or server device.

この構成によれば、ヘッドマウントディスプレイ又はサーバ機器に機能情報を取得させることができる。   According to this configuration, the function information can be acquired by the head mounted display or the server device.

(4)前記仮想ユーザインターフェイスは、前記操作機器の実際のリモコンを模擬した仮想リモコンであることが好ましい。   (4) It is preferable that the virtual user interface is a virtual remote controller that simulates an actual remote controller of the operating device.

この構成によれば、仮想UIが操作機器の実際のリモコンと同じ外観を持つため、ユーザは既存のリモコンと同じ感覚で仮想UIを操作することができる。   According to this configuration, since the virtual UI has the same appearance as the actual remote controller of the operating device, the user can operate the virtual UI with the same feeling as an existing remote controller.

(5)前記機能情報取得部は、前記操作機器又は前記機能情報を予め記憶するサーバ機器から前記機能情報を取得することが好ましい。   (5) It is preferable that the said function information acquisition part acquires the said function information from the server apparatus which memorize | stores the said operation apparatus or the said function information previously.

この構成によれば、操作機器が機能情報を外部に出力する機能を持つ場合、その操作機器から直接機能情報を取得することで、操作機器と同一の機能情報を確実に得ることができる。また、操作機器の機能情報がサーバ機器で管理されている場合、サーバ機器から機能情報を取得することで、操作機器の最新の機能情報を得ることができる。   According to this configuration, when the operating device has a function of outputting the function information to the outside, it is possible to reliably obtain the same function information as the operating device by directly acquiring the function information from the operating device. When the function information of the operating device is managed by the server device, the latest function information of the operating device can be obtained by acquiring the function information from the server device.

(6)前記ユーザ入力判定部は、前記ユーザ入力認識部により認識されたジェスチャが、ある操作機器に触れるジェスチャである場合、当該操作機器を選択するための前記機器選択指示が前記入力指示として入力されたと判定することが好ましい。   (6) When the gesture recognized by the user input recognition unit is a gesture that touches a certain operation device, the user input determination unit inputs the device selection instruction for selecting the operation device as the input instruction. It is preferable to determine that it has been done.

この構成によれば、ユーザは操作機器に触れることで機器選択指示を入力することができ、ユーザは直感的に理解し易いジェスチャを用いて機器選択指示を入力することができる。   According to this configuration, the user can input a device selection instruction by touching the operating device, and the user can input the device selection instruction using a gesture that is intuitively easy to understand.

(7)前記仮想ユーザインターフェイスが表示されている状態で、ユーザにより現実空間の位置を指定するジェスチャが行われて表示位置指定指示が入力されたと前記ユーザ入力判定部により判定された場合、前記表示位置指定指示により指定された位置を前記仮想ユーザインターフェイスの表示位置として認識する接触点認識部を更に備え、前記重畳表示部は、前記接触点認識部により認識された位置に表示されるように、前記仮想ユーザインターフェイスを前記現実空間の映像データに重畳することが好ましい。   (7) When the user input determination unit determines that a display position specifying instruction is input by a user performing a gesture for specifying a position in the real space while the virtual user interface is displayed, the display A contact point recognizing unit that recognizes a position designated by a position designation instruction as a display position of the virtual user interface; and the superimposed display unit is displayed at a position recognized by the contact point recognizing unit. The virtual user interface is preferably superimposed on the video data in the real space.

この構成によれば、ユーザは表示位置指定指示を入力することで拡張現実空間上の好みの位置に仮想UIを表示させることができる。   According to this configuration, the user can display the virtual UI at a desired position in the augmented reality space by inputting a display position designation instruction.

(8)前記接触点認識部は、前記ユーザ入力判定部により、前記表示位置指定指示が入力されたと判定された場合、ユーザが前記表示位置指定指示を入力する際に触れた物体を認識し、前記重畳表示部は、前記接触点認識部により認識された物体に貼り付けられるように、前記仮想ユーザインターフェイスを前記現実空間の映像データに重畳することが好ましい。   (8) When it is determined by the user input determination unit that the display position designation instruction is input, the contact point recognition unit recognizes an object touched when the user inputs the display position designation instruction, It is preferable that the superimposing display unit superimposes the virtual user interface on video data in the real space so that the virtual user interface is pasted on the object recognized by the contact point recognition unit.

この構成によれば、仮想UIが物体に貼り付けて表示されるため、ユーザは仮想UIを操作した際、指先が物体に触れることになり、仮想UIを操作したことを実感することができる。   According to this configuration, since the virtual UI is pasted and displayed on the object, when the user operates the virtual UI, the fingertip touches the object and can feel that the virtual UI has been operated.

(9)前記仮想UI生成部は、ユーザ毎に前記仮想ユーザインターフェイスのレイアウトをカスタマイズすることが好ましい。   (9) It is preferable that the virtual UI generation unit customizes the layout of the virtual user interface for each user.

この構成によれば、ユーザにとって使い勝手のよい仮想UIを提供することができる。   According to this configuration, a user-friendly virtual UI can be provided.

(10)前記仮想UI生成部は、前記機能情報に含まれる各機能に対応する機器操作指示の入力頻度に基づいて、前記仮想ユーザインターフェイスをカスタマイズすることが好ましい。   (10) Preferably, the virtual UI generation unit customizes the virtual user interface based on an input frequency of a device operation instruction corresponding to each function included in the function information.

この構成によれば、ユーザによってほとんど使用されない機能に対応するボタン等が仮想UIから省かれ、仮想UIの情報量が低下して、真にユーザが必要な機能に対応するボタンのみ仮想UIに含ませることができる。   According to this configuration, buttons corresponding to functions that are rarely used by the user are omitted from the virtual UI, the amount of information on the virtual UI is reduced, and only buttons corresponding to functions that are truly required by the user are included in the virtual UI. Can be made.

(11)前記仮想UI生成部は、ユーザの年齢又はユーザからの選択指示に基づいて、前記仮想ユーザインターフェイスをカスタマイズすることが好ましい。   (11) It is preferable that the virtual UI generation unit customizes the virtual user interface based on a user's age or a selection instruction from the user.

この構成によれば、ユーザの年齢やユーザの好みに応じて適切な仮想ユーザインターフェイスを提供することができる。   According to this configuration, an appropriate virtual user interface can be provided according to the user's age and the user's preference.

本発明によれば、ジェスチャ登録機能、ジェスチャ認識機能、およびアクション実行機能を有しない操作機器に対して、ジェスチャを用いた操作が可能になる。そのため、ユーザの利便性を向上させることができる。   ADVANTAGE OF THE INVENTION According to this invention, operation using a gesture is attained with respect to the operating device which does not have a gesture registration function, a gesture recognition function, and an action execution function. Therefore, user convenience can be improved.

ユーザがジェスチャを行ってから、仮想UIが生成されるまでの流れを示した図である。It is the figure which showed the flow until a virtual UI is produced | generated after a user performs a gesture. 図1において生成され、保存された仮想UIが表示されるまでの流れを示した図である。FIG. 2 is a diagram illustrating a flow until a virtual UI generated and stored in FIG. 1 is displayed. 仮想UIが表示されている状態において、ユーザが仮想UIの表示位置を指定する際の流れを示した図である。FIG. 10 is a diagram illustrating a flow when a user designates a display position of a virtual UI in a state where a virtual UI is displayed. 本発明の実施の形態における機器制御装置の機能ブロック図である。It is a functional block diagram of the apparatus control apparatus in embodiment of this invention. 本発明の実施の形態による機器制御装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the apparatus control apparatus by embodiment of this invention. 本発明の実施の形態による機器制御装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the apparatus control apparatus by embodiment of this invention. 本発明の実施の形態による機器制御装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the apparatus control apparatus by embodiment of this invention. 本発明の実施の形態による機器制御装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the apparatus control apparatus by embodiment of this invention. 仮想UI生成部により生成されるあるユーザのユーザインターフェイス登録情報のデータ構造の一例を示した図である。It is the figure which showed an example of the data structure of the user interface registration information of a certain user produced | generated by the virtual UI production | generation part. 従来技術の概要図である。It is a schematic diagram of a prior art.

図1から図3は、本発明の実施の形態における機器制御装置の処理の概要を示した図である。図1から図3において、同じ構成要素については同じ符号を用い、説明を省略する。本実施の形態による機器制御装置は、カメラ201、ヘッドマウントディスプレイ(以下、“HMD”と記述する。)202、及びサーバ機器203を備えている。カメラ201は、現実空間の映像データを取得する。HMD202は、カメラ201により取得された映像データに仮想ユーザインターフェイス(以下、“仮想UI”と記述する)等を重畳し、拡張現実空間の映像データを生成して表示する。サーバ機器203は、HMD202と所定の通信回線NTを介して接続され、HMD202に種々のサービスを提供する。また、サーバ機器203は通信回線NTを操作機器204と接続されている。ここで、通信回線NTとしては、例えば、インターネット、携帯電話通信網、又は専用回線等が採用されている。   1 to 3 are diagrams showing an outline of processing of the device control apparatus according to the embodiment of the present invention. 1 to 3, the same components are denoted by the same reference numerals, and description thereof is omitted. The device control apparatus according to the present embodiment includes a camera 201, a head mounted display (hereinafter referred to as “HMD”) 202, and a server device 203. The camera 201 acquires real space video data. The HMD 202 superimposes a virtual user interface (hereinafter referred to as “virtual UI”) or the like on the video data acquired by the camera 201 to generate and display video data in the augmented reality space. The server device 203 is connected to the HMD 202 via a predetermined communication line NT, and provides various services to the HMD 202. The server device 203 is connected to the operation device 204 through the communication line NT. Here, as the communication line NT, for example, the Internet, a mobile phone communication network, a dedicated line, or the like is adopted.

図1は、ユーザ200がジェスチャを行ってから、仮想UIが生成されるまでの流れを示した図である。まず、段階1において、ユーザ200が操作機器204を選択するために操作機器204に触れるジェスチャを行う。段階2において、カメラ201は、ジェスチャ自体を認識すると共に、ユーザが選択した操作機器204を認識する。   FIG. 1 is a diagram illustrating a flow from when a user 200 performs a gesture until a virtual UI is generated. First, in step 1, the user 200 performs a gesture for touching the operation device 204 in order to select the operation device 204. In step 2, the camera 201 recognizes the gesture itself and recognizes the operation device 204 selected by the user.

段階3において、カメラ201は認識したジェスチャとそのジェスチャにより選択された操作機器204とを示す情報をHMD202に通知する。   In step 3, the camera 201 notifies the HMD 202 of information indicating the recognized gesture and the operation device 204 selected by the gesture.

段階4において、HMD202は、サーバ機器203に対して、仮想UIを生成する要求を送信する。段階5において、サーバ機器203は、操作機器204から、操作機器204が持つ機能の一覧を示す機能情報を取得する。段階6において、サーバ機器203はその機能情報に基づいて仮想UIを生成する。段階7において、サーバ機器203は、ユーザ200によって行われたジェスチャと、生成した仮想UIとを対応付けて保存する。   In step 4, the HMD 202 transmits a request for generating a virtual UI to the server device 203. In step 5, the server device 203 acquires function information indicating a list of functions of the operation device 204 from the operation device 204. In step 6, the server device 203 generates a virtual UI based on the function information. In step 7, the server device 203 stores the gesture made by the user 200 in association with the generated virtual UI.

図2は、図1において生成され、保存された仮想UIが表示されるまでの流れを示した図である。段階1において、ユーザ200が操作機器204を選択したときと同じジェスチャを行う。段階2において、カメラ201はそのジェスチャを認識する。段階3において、カメラ201は、認識したジェスチャをHMD202に通知する。段階4において、HMD202は、どのジェスチャが行われたかをサーバ機器203に対して通知する。段階5において、サーバ機器203は、そのジェスチャに対応する仮想UIが保存されているかを判定する。ジェスチャに対応する仮想UIが保存されている場合、段階6において、サーバ機器203は、HMD202にその仮想UIを送信する。段階7において、HMD202は、サーバ機器203から送信された仮想UIを表示する。   FIG. 2 is a diagram illustrating a flow until the virtual UI generated and stored in FIG. 1 is displayed. In stage 1, the same gesture as when the user 200 selects the operating device 204 is performed. In step 2, the camera 201 recognizes the gesture. In step 3, the camera 201 notifies the HMD 202 of the recognized gesture. In step 4, the HMD 202 notifies the server device 203 which gesture has been performed. In step 5, the server device 203 determines whether a virtual UI corresponding to the gesture is stored. When the virtual UI corresponding to the gesture is stored, the server device 203 transmits the virtual UI to the HMD 202 in Step 6. In step 7, the HMD 202 displays the virtual UI transmitted from the server device 203.

図3は、仮想UIが表示されている状態において、ユーザ200が仮想UIの表示位置を指定する際の流れを示した図である。段階1において、ユーザ200がジェスチャを行う。ここでは、ユーザ200は、例えば、現実空間のある物体に指先を触れるジェスチャを行ったとする。段階2において、カメラ201は、指と物体とが接触した位置を認識する。段階3において、カメラ201は、認識した位置をHMD202に通知する。段階4において、HMD202は、表示中である仮想UIが物体に貼り付けられるように、仮想UIを現実空間の映像データに重畳する。そして、ユーザは、仮想UIを操作して、操作機器204の操作を行う。以上が本実施の形態による機器制御装置の処理の概要である。以下、本実施の形態による機器制御装置の処理を詳細に説明する。   FIG. 3 is a diagram illustrating a flow when the user 200 designates the display position of the virtual UI in a state where the virtual UI is displayed. In stage 1, the user 200 makes a gesture. Here, it is assumed that the user 200 performs a gesture of touching a fingertip with an object in the real space, for example. In step 2, the camera 201 recognizes the position where the finger and the object are in contact. In step 3, the camera 201 notifies the HMD 202 of the recognized position. In step 4, the HMD 202 superimposes the virtual UI on the video data in the real space so that the virtual UI being displayed is pasted on the object. Then, the user operates the operation device 204 by operating the virtual UI. The above is the outline of the processing of the device control apparatus according to the present embodiment. Hereinafter, processing of the device control apparatus according to the present embodiment will be described in detail.

図4は、本発明の実施の形態における機器制御装置の機能ブロック図である。図4に示すように、機器制御装置は、ユーザ入力認識部500、ユーザ入力判定部501、ジェスチャ情報登録部502、ジェスチャ情報保存部503、機能情報検索部504、機能実行要求部505、機能情報取得部506、機能情報保存部507、仮想UI生成部508、仮想UI保存部509、接触点認識部510、表示重畳部511、映像取得部512、及び表示部513を備えている。   FIG. 4 is a functional block diagram of the device control apparatus according to the embodiment of the present invention. As illustrated in FIG. 4, the device control apparatus includes a user input recognition unit 500, a user input determination unit 501, a gesture information registration unit 502, a gesture information storage unit 503, a function information search unit 504, a function execution request unit 505, and function information. An acquisition unit 506, a function information storage unit 507, a virtual UI generation unit 508, a virtual UI storage unit 509, a contact point recognition unit 510, a display superimposing unit 511, a video acquisition unit 512, and a display unit 513 are provided.

以下の説明では、映像取得部512、ユーザ入力認識部500、ユーザ入力判定部501、及び接触点認識部510はカメラ201で構成され、ジェスチャ情報登録部502、ジェスチャ情報保存部503、機能情報検索部504、機能実行要求部505、表示重畳部511、及び表示部513はHMD202で構成され、機能情報取得部506、機能情報保存部507、仮想UI生成部508、及び仮想UI保存部509はサーバ機器203により構成されているものとする。但し、これは一例であり、図4に示す映像取得部512及び表示部513以外の各機能は、カメラ201、HMD202、及びサーバ機器203のいずれに実行させてもよい。   In the following description, the video acquisition unit 512, the user input recognition unit 500, the user input determination unit 501, and the contact point recognition unit 510 are configured by the camera 201, and include a gesture information registration unit 502, a gesture information storage unit 503, and a function information search. The unit 504, the function execution request unit 505, the display superimposing unit 511, and the display unit 513 are configured by the HMD 202. The function information acquisition unit 506, the function information storage unit 507, the virtual UI generation unit 508, and the virtual UI storage unit 509 are servers. It is assumed that the device 203 is configured. However, this is merely an example, and each function other than the video acquisition unit 512 and the display unit 513 illustrated in FIG. 4 may be executed by any of the camera 201, the HMD 202, and the server device 203.

また、カメラ201はHMD202に設けてもよいし、現実空間内にある位置に配置された定点カメラにより構成してもよい。   The camera 201 may be provided in the HMD 202 or may be configured by a fixed point camera arranged at a position in the real space.

映像取得部512は、例えば、深度センサにより構成され、所定のフレームレートで現実空間の映像データを取得する。つまり、映像取得部512は、現実空間の動画像を取得する。なお、映像取得部512としては、深度センサに限定されずステレオ法で奥行き座標の位置を検出することができるステレオ画像センサを採用してもよい。   The video acquisition unit 512 is constituted by, for example, a depth sensor, and acquires real space video data at a predetermined frame rate. That is, the video acquisition unit 512 acquires a moving image in the real space. Note that the video acquisition unit 512 is not limited to a depth sensor, and may be a stereo image sensor that can detect the position of depth coordinates by a stereo method.

ユーザ入力認識部500は、拡張現実空間においてユーザにより行われるジェスチャを認識する。ここで、ユーザ入力認識部500は、映像取得部512により取得された映像データから所定のフレームレートで順次に現実空間の映像データが入力される。そして、ユーザ入力認識部500は、入力される映像データからユーザの腕を検出する。そして、ユーザ入力認識部500は、映像データからユーザの腕を検出できた場合、以後入力される映像データを用いてユーザの左右の腕の動きを追尾する。そして、ユーザ入力認識部500は、ユーザの左右の腕の動きを検出するとユーザの左右の腕の肘、手、及び各指等の各部位の移動方向と移動量とを含むジェスチャ認識情報を周期的に求めユーザ入力判定部501に供給する。   The user input recognition unit 500 recognizes a gesture performed by the user in the augmented reality space. Here, the user input recognizing unit 500 receives real-space video data sequentially from the video data acquired by the video acquisition unit 512 at a predetermined frame rate. Then, the user input recognition unit 500 detects the user's arm from the input video data. When the user input recognition unit 500 can detect the user's arm from the video data, the user input recognition unit 500 tracks the movement of the left and right arms of the user using the video data input thereafter. When the user input recognition unit 500 detects the movement of the left and right arms of the user, the user input recognition unit 500 periodically generates gesture recognition information including the movement direction and the movement amount of each part such as the elbow, hand, and each finger of the left and right arms of the user. To the user input determination unit 501.

本実施の形態では、映像取得部512は、例えば深度センサにより構成されている。そのため、ジェスチャ認識情報に含まれる移動方向と移動量とは、垂直座標成分、水平座標成分に加えて奥行き座標成分からなる3次元データにより構成される。ここで、垂直座標成分は深度センサの映像データの垂直方向(縦方向)の座標成分であり、水平座標成分は深度センサの水平方向(横方向)の座標成分であり、奥行き座標成分は深度センサのセンサ面に直交する奥行き方向の座標成分である。   In the present embodiment, the video acquisition unit 512 is configured by a depth sensor, for example. Therefore, the movement direction and the movement amount included in the gesture recognition information are configured by three-dimensional data including a depth coordinate component in addition to a vertical coordinate component and a horizontal coordinate component. Here, the vertical coordinate component is a coordinate component in the vertical direction (vertical direction) of the video data of the depth sensor, the horizontal coordinate component is a coordinate component in the horizontal direction (lateral direction) of the depth sensor, and the depth coordinate component is the depth sensor. This is a coordinate component in the depth direction perpendicular to the sensor surface.

ユーザ入力判定部501は、ユーザ入力認識部500により認識されたジェスチャに基づいてユーザにより入力された入力指示を判定する。本実施の形態では、入力指示として、機器選択指示、仮想UI表示指示、機器操作指示、及び表示位置指定指示等が含まれる。機器選択指示は、ユーザ200がある操作機器を選択する入力指示である。ユーザ200は例えばある操作機器204をある指で触れるジェスチャを行うことで機器選択指示を入力する。したがって、ユーザ入力判定部501は、ジェスチャ認識情報がユーザ200のある指がある操作機器204に触れたジェスチャを示す場合、ユーザ200により機器選択指示が入力されたと判定する。   The user input determination unit 501 determines an input instruction input by the user based on the gesture recognized by the user input recognition unit 500. In the present embodiment, a device selection instruction, a virtual UI display instruction, a device operation instruction, a display position designation instruction, and the like are included as input instructions. The device selection instruction is an input instruction for selecting a certain operation device by the user 200. For example, the user 200 inputs a device selection instruction by performing a gesture of touching a certain operation device 204 with a finger. Therefore, the user input determination unit 501 determines that a device selection instruction has been input by the user 200 when the gesture recognition information indicates a gesture that touches the operation device 204 with a finger of the user 200.

ここで、ユーザ入力判定部501は、ユーザ入力認識部500からある指を差し出すジェスチャを示すジェスチャ認識情報が供給されると、映像取得部512から供給される映像データからその指先に物体が位置するか否かを判定する。そして、ユーザ入力判定部501は、指先に物体が位置すると判定した場合、その物体が所定の操作機器204であるか否かを判定し、所定の操作機器204であると判定した場合、ユーザ200により機器選択指示が入力されたと判定すればよい。   Here, when the user input determination unit 501 is supplied with gesture recognition information indicating a gesture for pointing out a finger from the user input recognition unit 500, an object is positioned at the fingertip from the video data supplied from the video acquisition unit 512. It is determined whether or not. When the user input determination unit 501 determines that the object is located at the fingertip, the user input determination unit 501 determines whether the object is the predetermined operation device 204. When the user input determination unit 501 determines that the object is the predetermined operation device 204, the user 200 It may be determined that the device selection instruction is input.

具体的には、ユーザ入力判定部501は、ある指を差し出すジェスチャ認識情報が供給されると、特徴点を検出する処理を行うことで映像データに含まれる物体を抽出し、検出した物体のうち、指先と座標データが一致する部位を持つ物体が存在すれば、当該物体にユーザ200の指先が触れたと判定すればよい。そして、ユーザ入力判定部501は、指先で触れられた物体の特徴点の配置パターンが予め定められた操作機器204の配置パターンと一致すれば、ユーザ200により機器選択指示が入力された判定すればよい。   Specifically, when the gesture recognition information for pointing out a finger is supplied, the user input determination unit 501 extracts the object included in the video data by performing the process of detecting the feature point, and among the detected objects If there is an object having a portion whose coordinate data matches the fingertip, it may be determined that the fingertip of the user 200 touched the object. Then, if the arrangement pattern of the feature points of the object touched with the fingertip matches the arrangement pattern of the operation device 204 determined in advance, the user input determination unit 501 determines that the device selection instruction has been input by the user 200. Good.

仮想UI表示指示は、ユーザ200が機器選択指示を用いて選択した操作機器204の仮想UIを表示させるための入力指示である。ユーザ200は、機器選択指示を入力したときと同じジェスチャを行うことで仮想UI表示を表示させる。例えば、ユーザ200が人差し指を差し出して操作機器204に触れるジェスチャを行って機器選択指示を入力した場合、人差し指を差し出すジェスチャ(この場合、操作機器204に触れる必要はない)を行うと、仮想UIが表示される。   The virtual UI display instruction is an input instruction for displaying the virtual UI of the operation device 204 selected by the user 200 using the device selection instruction. The user 200 displays the virtual UI display by performing the same gesture as when the device selection instruction is input. For example, when the user 200 performs a gesture of touching the operation device 204 by pointing out the index finger and inputting a device selection instruction, when the gesture of pointing out the index finger (in this case, it is not necessary to touch the operation device 204), the virtual UI is displayed. Is displayed.

機器操作指示は、ユーザ200が仮想現実空間に表示される仮想UIを操作する入力指示である。ユーザ200は、仮想UIに含まれる例えば操作ボタンに触れるジェスチャを行うことで、機器操作指示を入力する。この場合、ユーザ入力判定部501は、仮想UIの操作ボタンの座標データが、ユーザ200の指先の座標データに重なる又は一定の範囲内に位置する場合に、ユーザ200が機器操作指示を入力したと判定すればよい。   The device operation instruction is an input instruction for the user 200 to operate the virtual UI displayed in the virtual reality space. The user 200 inputs a device operation instruction by performing, for example, a gesture touching an operation button included in the virtual UI. In this case, the user input determining unit 501 determines that the user 200 has input a device operation instruction when the coordinate data of the operation button of the virtual UI overlaps the coordinate data of the fingertip of the user 200 or is located within a certain range. What is necessary is just to judge.

ここで、仮想UIは、拡張現実空間において表示される。拡張現実空間は、上記の垂直座標成分、水平座標成分、及び奥行き座標成分で規定される3次元空間であり、その映像データは現実空間の映像データにグラフィックスを重畳して生成される。   Here, the virtual UI is displayed in the augmented reality space. The augmented reality space is a three-dimensional space defined by the vertical coordinate component, the horizontal coordinate component, and the depth coordinate component, and the video data is generated by superimposing graphics on the video data in the real space.

表示位置指定指示は、ユーザ200が拡張現実空間において仮想UIの表示位置を指定するために入力する入力指示である。本実施の形態では、ユーザ200は仮想UI表示させただけでは、仮想UIを操作することができず、仮想UIの表示位置を指定することで、仮想UIの操作を可能とする。したがって、ユーザ200は、例えば、仮想UIを表示させるジェスチャを行った後、ある指(例えば人差し指)を差し出して、希望する位置で差し出した指を停止するジェスチャを行うことで表示位置指定指示を入力する。そのため、ユーザ入力判定部501は、仮想UIが表示されているが、仮想UIが操作可能となっていない場合に、ユーザ200により人差し指を差し出して停止するジェスチャが行われたとき、表示位置指定指示が入力されたと判定する。   The display position designation instruction is an input instruction that the user 200 inputs to designate the display position of the virtual UI in the augmented reality space. In the present embodiment, the user 200 cannot operate the virtual UI only by displaying the virtual UI, but can specify the display position of the virtual UI to operate the virtual UI. Therefore, for example, after performing a gesture for displaying the virtual UI, the user 200 inputs a display position designation instruction by presenting a certain finger (for example, forefinger) and performing a gesture for stopping the finger presented at a desired position. To do. Therefore, when the virtual UI is displayed but the virtual UI is not operable, the user input determination unit 501 performs a display position designation instruction when the user 200 performs a gesture to stop by pointing out the index finger. Is determined to be input.

また、ユーザ入力判定部501は、仮想UIが表示中であるか、表示されていないか、表示中であるが操作可能であるか、表示中であるが操作不可能であるかというような、仮想UIの現在の状態を保持し、仮想UIを管理する。   In addition, the user input determination unit 501 indicates whether the virtual UI is being displayed, is not displayed, is being displayed but is operable, is being displayed, but is not operable, The current state of the virtual UI is maintained and the virtual UI is managed.

機能情報取得部506は、ユーザ入力判定部501により機器選択指示が入力されたと判定された場合、機器選択指示により選択された操作機器204が持つ機能の一覧を示す機能情報を機能情報保存部507から取得する。操作機器204が例えば、DVDプレーヤである場合は、機能として、電源をオンオフするための“電源オンオフ”、映像データを再生するための“再生”、録画を開始するための“録画”、テレビのチャンネルを選択するための“チャンネル選択”、再生及び録画を停止するための“停止”、所望のシーンに映像データのコマを進める“早送り”、及び所望のシーンに映像データのコマを戻す“巻き戻し”等が存在する。よって、この場合、機能情報は、電源オンオフ、再生、録画、チャンネル選択、停止、巻き戻し、及び早送り等の機能の一覧を示す情報となる。   When the user input determination unit 501 determines that a device selection instruction has been input, the function information acquisition unit 506 displays function information indicating a list of functions of the operation device 204 selected by the device selection instruction, as a function information storage unit 507. Get from. For example, when the operation device 204 is a DVD player, functions include “power on / off” for turning on / off the power, “play” for playing back video data, “recording” for starting recording, “Channel selection” to select a channel, “Stop” to stop playback and recording, “Fast forward” to advance a frame of video data to a desired scene, and “Rewind” to return a frame of video data to a desired scene "Return" etc. exist. Therefore, in this case, the function information is information indicating a list of functions such as power on / off, playback, recording, channel selection, stop, rewind, and fast forward.

また、操作機器204が例えばテレビである場合は、機能として、電源をオンオフするための“電源オンオフ”、チャンネルを選択するための“チャンネル選択”、音量を調整するための“音量”等が存在する。したがって、この場合、機能情報は、電源オンオフ、チャンネル選択、音量等の機能の一覧を示す情報となる。   When the operation device 204 is a television, for example, there are functions such as “power on / off” for turning on / off the power, “channel selection” for selecting a channel, “volume” for adjusting the volume, and the like. To do. Therefore, in this case, the function information is information indicating a list of functions such as power on / off, channel selection, and volume.

なお、これらの機能情報は一例にすぎず、他の機能を含ませても良い。また、操作機器204としては、DVDプレーヤ及びテレビに限定されず、例えば、オーディオ、ミニコンポ、エアコン、又は空気清浄機等、リモコンにより操作可能な機器であれば、どのような機器を採用してもよい。   Note that these pieces of function information are merely examples, and other functions may be included. The operation device 204 is not limited to a DVD player and a television, and any device can be used as long as it can be operated by a remote controller, such as an audio, a mini component, an air conditioner, or an air purifier. Good.

ここで、機能情報取得部506は、操作機器204が機器情報通知機能を持つ場合は、操作機器204に対して機器情報取得要求を送信することで、操作機器204から機器情報を直接取得してもよい。そして、この場合、機能情報取得部506は、操作機器204がリモコンにより操作される機器であればリモコンと機器本体との間で行われる通信プロトコルを用いて、操作機器204と通信して機器情報を取得すればよい。なお、この場合、機能情報保存部507は、操作機器204が備えることになる。   Here, when the operation device 204 has a device information notification function, the function information acquisition unit 506 directly acquires device information from the operation device 204 by transmitting a device information acquisition request to the operation device 204. Also good. In this case, the function information acquisition unit 506 communicates with the operation device 204 by using a communication protocol performed between the remote control and the device main body if the operation device 204 is a device operated by the remote controller, and the device information. Just get it. In this case, the function information storage unit 507 is provided in the operating device 204.

また、機能情報取得部506がHMD202に設けられている場合であって、サーバ機器203が機能情報を予め保持している場合、機能情報取得部506は、ユーザ入力判定部501に、操作機器204の型番を特定させ、特定させた型番に対応する機能情報を機器情報保存部507から取得してもよい。この場合、ユーザ入力判定部501は、例えば操作機器204の型番を映像データから認識し、その型番を機能情報取得部506に通知すればよい。なお、この場合、機能情報保存部507はサーバ機器203が備えることになる。   When the function information acquisition unit 506 is provided in the HMD 202 and the server device 203 holds the function information in advance, the function information acquisition unit 506 sends the user input determination unit 501 to the operation device 204. The function information corresponding to the specified model number may be acquired from the device information storage unit 507. In this case, for example, the user input determination unit 501 may recognize the model number of the operation device 204 from the video data and notify the function information acquisition unit 506 of the model number. In this case, the function information storage unit 507 is provided in the server device 203.

また、また、機能情報取得部506がHMD202に設けられている場合において、機能情報取得部506は、取得した機能情報を絶えず最新の機能情報に更新するようにしてもよい。この場合、機能情報取得部506は、例えば、機器選択装置の電源がオンされる度に、取得済の機器情報に対する更新要求を機器情報保存部507に通知し、機器情報を最新の機器情報に更新すればよい。   In addition, when the function information acquisition unit 506 is provided in the HMD 202, the function information acquisition unit 506 may constantly update the acquired function information to the latest function information. In this case, for example, every time the device selection apparatus is turned on, the function information acquisition unit 506 notifies the device information storage unit 507 of an update request for the acquired device information, and updates the device information to the latest device information. Update it.

機能情報保存部507を機能情報保存部507をHMD202のメモリ上に設けてもよい。この場合、機能情報保存部507は、予め定められた操作機器204のそれぞれの機能情報を予め保存しておけばよい。また、この場合、ユーザ200が好みの操作機器204の機能情報をサーバ機器203から取得して、機能情報保存部507に保存させるようにしてもよい。   The function information storage unit 507 and the function information storage unit 507 may be provided on the memory of the HMD 202. In this case, the function information storage unit 507 may store the function information of each predetermined operation device 204 in advance. In this case, the user 200 may acquire the function information of the favorite operation device 204 from the server device 203 and store the function information in the function information storage unit 507.

ジェスチャ情報登録部502は、ユーザ入力判定部501により機器選択指示が入力されたと判定された場合、その操作機器204の機能情報と、機器選択指示を入力する際にユーザ200により行われたジェスチャを示すジェスチャ特徴情報とを対応付けて入力ジェスチャ登録情報を生成し、生成した入力ジェスチャ登録情報をジェスチャ情報保存部503に保存させる。   When it is determined by the user input determination unit 501 that a device selection instruction has been input, the gesture information registration unit 502 displays the function information of the operation device 204 and the gesture performed by the user 200 when inputting the device selection instruction. The input gesture registration information is generated in association with the gesture feature information shown, and the generated input gesture registration information is stored in the gesture information storage unit 503.

ここで、機器制御装置がユーザ200に対して機器選択指示の入力を促すプログラムを実行する事によってユーザ200と機器制御装置とがインタラクティブに入力ジェスチャ登録情報の登録処理を行ってもよい。例えば、表示重畳部511において、ユーザ200のジェスチャに応答して動作する人体オブジェクトを表示させ、ユーザ200が行ったジェスチャをユーザ200にフィードバックさせるようにしてもよい。或いは、人体オブジェクトのジェスチャをまねるようにユーザ200にジェスチャを行わせて機器選択指示を入力させるようにしてもよい。例えば、人体オブジェクトに手を振るような動作を行わせ、それに合わせて、ユーザ200に手を振るジェスチャを行わせるというようにして、インタラクティブに機器選択指示を登録させてもよい。   Here, when the device control apparatus executes a program that prompts the user 200 to input a device selection instruction, the user 200 and the device control apparatus may interactively perform registration processing of input gesture registration information. For example, the display superimposing unit 511 may display a human body object that operates in response to the gesture of the user 200 and feed back the gesture performed by the user 200 to the user 200. Alternatively, the user 200 may be made to perform a gesture so as to imitate a gesture of a human body object and input a device selection instruction. For example, the device selection instruction may be registered interactively by causing the human body object to perform an operation of waving a hand and causing the user 200 to perform a gesture of waving accordingly.

入力ジェスチャ登録情報としては、例えば、機器選択指示を入力する際に行われたジェスチャを特徴付けるジェスチャ特徴情報と、機器選択指示によって選択された操作機器204の機能情報と、ジェスチャを入力したユーザ200を示すユーザIDとを紐付ける情報が採用される。ジェスチャ特徴情報としては、機器選択指示を入力する際にユーザ200により行われたジェスチャを示すジェスチャ認識情報が採用される。   The input gesture registration information includes, for example, the gesture feature information that characterizes the gesture performed when inputting the device selection instruction, the function information of the operation device 204 selected by the device selection instruction, and the user 200 that has input the gesture. Information for associating the user ID shown is adopted. As the gesture characteristic information, gesture recognition information indicating a gesture performed by the user 200 when inputting a device selection instruction is employed.

本実施の形態では、ユーザ200にある指で操作機器204を触れるジェスチャを行わせることで、機器選択指示を入力させている。したがって、ジェスチャ特徴情報としては、例えば、指の種類、指先の移動方向、及び指先の移動量を示すデータが採用される。指の種類としては、親指〜小指等のいずれかの指を示す情報が採用される。指先の移動方向、及び指先の移動量としては、機器選択指示が行われたときにユーザ入力認識部500からユーザ入力判定部501に供給されるジェスチャ認識情報に含まれる該当する指の移動方向及び移動量を採用すればよい。   In the present embodiment, a device selection instruction is input by causing the user 200 to perform a gesture of touching the operation device 204 with a finger. Therefore, as the gesture feature information, for example, data indicating the type of finger, the moving direction of the fingertip, and the moving amount of the fingertip is employed. As the type of finger, information indicating any finger such as a thumb to a little finger is employed. As the movement direction of the fingertip and the movement amount of the fingertip, the movement direction of the corresponding finger included in the gesture recognition information supplied from the user input recognition unit 500 to the user input determination unit 501 when a device selection instruction is given, and What is necessary is just to employ | adopt movement amount.

ユーザIDとしては、HMD202を装着しているユーザ200を識別する情報を採用すればよい。このユーザIDは例えば、HMD202を装着した際にユーザ200に入力させるようにすればよい。具体的には、HMD202にユーザIDを予め登録させておく。そして、HMD202の電源がオンされると、HMD202の表示パネルにユーザIDを入力するための仮想UIを表示し、その仮想UIを用いてユーザ200に登録済のユーザIDを入力させればよい。   As the user ID, information for identifying the user 200 wearing the HMD 202 may be employed. For example, this user ID may be input to the user 200 when the HMD 202 is mounted. Specifically, a user ID is registered in advance in the HMD 202. When the power of the HMD 202 is turned on, a virtual UI for inputting a user ID is displayed on the display panel of the HMD 202, and the registered user ID may be input to the user 200 using the virtual UI.

機能情報としては、機器選択指示が行われた場合に機能情報取得部506により取得された機能情報を採用すればよい。なお、ユーザ入力判定部501は機器選択指示が入力されたと判定した場合、機能情報取得部506により取得された機能情報をジェスチャ情報登録部502に供給する。これにより、ジェスチャ情報登録部502は機能情報を取得することができる。   As the function information, the function information acquired by the function information acquisition unit 506 when a device selection instruction is given may be adopted. When the user input determination unit 501 determines that a device selection instruction has been input, the user input determination unit 501 supplies the function information acquired by the function information acquisition unit 506 to the gesture information registration unit 502. Thereby, the gesture information registration unit 502 can acquire function information.

機能情報検索部504は、ユーザ入力判定部501により、仮想UI用いたユーザ200からの機器操作指示が入力指示として入力されたと判定された場合、当該機器操作指示に対応する機能を入力ジェスチャ登録情報に含まれる機能情報から検索する。例えば、DVDプレーヤの仮想UIが表示されている場合を例に挙げて説明する。仮想UIには、例えば、電源オンオフ、再生、録画、チャンネル選択、停止、巻き戻し、及び早送り等のボタンが含まれている。   When the user input determination unit 501 determines that a device operation instruction from the user 200 using the virtual UI has been input as an input instruction, the function information search unit 504 inputs a function corresponding to the device operation instruction to the input gesture registration information. Search from the function information included in. For example, a case where a virtual UI of a DVD player is displayed will be described as an example. The virtual UI includes buttons such as power on / off, playback, recording, channel selection, stop, rewind, and fast forward, for example.

したがって、ユーザ入力判定部501により例えば電源オンオフのボタンが押されたと判定されると、機能情報検索部504は、電源オンオフに対応する機能を機能情報から検索する。そして、電源オンオフに対応する機能を検索できたとすると、電源オンオフの機能を実行するように機能実行要求部505に通知する。   Therefore, when the user input determination unit 501 determines that, for example, a power on / off button has been pressed, the function information search unit 504 searches the function information for a function corresponding to the power on / off. If the function corresponding to the power on / off is found, the function execution request unit 505 is notified to execute the power on / off function.

機能実行要求部505は、機能情報検索部504により検索された機能が実行されるように操作機器204に命令を行う。この場合、機能実行要求部505は、操作機器204が例えばDVDプレーヤのようにリモコン操作が可能な機器である場合、リモコンがDVDプレーヤにある機能を実行させるためにDVD本体に送信するリモコン信号と同じ信号を送信すればよい。例えば、DVDプレーヤをオンオフさせる場合、機能実行要求部505は、DVDプレーヤのリモコンがDVDプレーヤの本体に送信するDVDプレーヤをオンオフさせるリモコン信号と同じ信号をDVDプレーヤに送信する。これにより、DVDプレーヤはオフの状態にある場合は電源をオンし、オンの状態にある場合は電源をオフする。   The function execution request unit 505 instructs the operation device 204 to execute the function searched by the function information search unit 504. In this case, when the operation device 204 is a device that can be operated by a remote controller such as a DVD player, the function execution request unit 505 transmits a remote control signal that is transmitted to the DVD main body in order to cause the remote controller to execute a function in the DVD player. The same signal may be transmitted. For example, when the DVD player is turned on / off, the function execution request unit 505 transmits to the DVD player the same signal as the remote control signal that turns on / off the DVD player that the remote control of the DVD player transmits to the main body of the DVD player. Thus, the power is turned on when the DVD player is in the off state, and the power is turned off when the DVD player is in the on state.

仮想UI生成部508は、機能情報取得部506により取得された機能情報に基づいて仮想UIを生成し、生成した仮想UIと、機器選択指示を入力する際にユーザ200により行われたジェスチャとを対応付けてユーザインターフェイス登録情報を生成し、仮想UI保存部509に保存する。   The virtual UI generation unit 508 generates a virtual UI based on the function information acquired by the function information acquisition unit 506, and displays the generated virtual UI and the gesture performed by the user 200 when inputting a device selection instruction. Corresponding user interface registration information is generated and stored in the virtual UI storage unit 509.

図9は、仮想UI生成部508により生成されるあるユーザ200のユーザインターフェイス登録情報1000のデータ構造の一例を示した図である。図9に示すように、ユーザインターフェイス登録情報1000は、ジェスチャ特徴情報、選択機器、及び仮想UIの欄を備えている。入力ジェスチャ登録情報の欄には、人差し指、中指等、ユーザ200が機器選択指示を入力する際に行ったジェスチャを示すジェスチャ特徴情報が格納されている。   FIG. 9 is a diagram illustrating an example of a data structure of user interface registration information 1000 of a certain user 200 generated by the virtual UI generation unit 508. As shown in FIG. 9, the user interface registration information 1000 includes columns for gesture feature information, a selected device, and a virtual UI. In the input gesture registration information column, gesture feature information indicating a gesture performed when the user 200 inputs a device selection instruction, such as an index finger or a middle finger, is stored.

本実施の形態では、ユーザ200は操作機器204にある指を触れるジェスチャを行うことで機器選択指示を入力する。したがって、図9の例では、ジェスチャ特徴情報としては、操作機器204に触れたユーザ200の指を示す情報が採用されている。   In the present embodiment, the user 200 inputs a device selection instruction by performing a gesture of touching a finger on the operation device 204. Therefore, in the example of FIG. 9, information indicating the finger of the user 200 touching the operation device 204 is employed as the gesture feature information.

選択機器の欄には、ユーザ200が機器選択指示を入力して選択した操作機器204を特定するための識別情報が格納されている。仮想UIの欄には、ユーザ200が機器選択指示を入力して選択した操作機器204に対する仮想UIを識別するための識別情報が格納されている。   In the column of the selected device, identification information for specifying the operation device 204 selected by the user 200 inputting a device selection instruction is stored. The virtual UI column stores identification information for identifying a virtual UI for the operation device 204 selected by the user 200 inputting a device selection instruction.

図9の例では、ユーザ200は、DVDレコーダに人差し指を触れるジェスチャを行って機器選択指示を入力し、そのとき生成された仮想UIに対して“DVD_Rec_UI”の識別情報が付与されている。そのため、行1001のレコードには、ジェスチャ特徴情報、選択機器、及び仮想UIの欄にそれぞれ、“人差し指”、“DVDレコーダ”、及び“DVD_Rec_UI”が格納されている。   In the example of FIG. 9, the user 200 performs a gesture of touching the index finger on the DVD recorder to input a device selection instruction, and identification information “DVD_Rec_UI” is given to the virtual UI generated at that time. Therefore, the record in the row 1001 stores “index finger”, “DVD recorder”, and “DVD_Rec_UI” in the columns of the gesture feature information, the selected device, and the virtual UI, respectively.

また、図9の例では、ユーザ200はブルーレイレコーダに中指を触れるジェスチャを行って機器選択指示を入力し、そのとき生成された仮想UIに対して“BluRay_Rec_UI”の識別情報が付与されている。したがって、行1002のレコードには、“中指”、“Blu−rayレコーダ”、及び“BluRay_Rec_UI”が格納されている。   In the example of FIG. 9, the user 200 performs a gesture of touching the middle finger on the Blu-ray recorder to input a device selection instruction, and identification information of “BluRay_Rec_UI” is assigned to the virtual UI generated at that time. Therefore, the record in the row 1002 stores “middle finger”, “Blu-ray recorder”, and “BluRay_Rec_UI”.

以下、同様に、ユーザ200は、テレビ、コンポ、パソコンに対して親指、小指、薬指を触れて機器選択指示を入力しているため、行1003〜1005のレコードの各欄には図示する情報が格納されている。   Similarly, since the user 200 inputs a device selection instruction by touching the thumb, pinky finger, and ring finger with respect to the television, component, or personal computer, the information shown in the columns of the records in the rows 1003 to 1005 includes Stored.

ここで、仮想UI生成部508は、機能情報取得部506により、機能情報と併せて仮想UIが取得されている場合、取得された仮想UIを用いてユーザインターフェイス登録情報1000を生成すればよい。また、仮想UI生成部508は、機能情報取得部506により機能情報と併せて仮想UIが取得されなかった場合、サーバ機器203から仮想UIの取得を試みる。そして、仮想UI生成部508は、仮想UIを取得できた場合、その仮想UIを用いてユーザインターフェイス登録情報1000を生成すればよい。   Here, when the virtual UI is acquired together with the function information by the function information acquisition unit 506, the virtual UI generation unit 508 may generate the user interface registration information 1000 using the acquired virtual UI. Also, the virtual UI generation unit 508 tries to acquire a virtual UI from the server device 203 when the function information acquisition unit 506 does not acquire the virtual UI together with the function information. Then, when the virtual UI can be acquired, the virtual UI generation unit 508 may generate the user interface registration information 1000 using the virtual UI.

本実施の形態では、仮想UIとして、操作機器204のリモコンと同様な外観を持つ仮想リモコンを採用する。したがって、機能情報取得部506が機器情報と併せて仮想UIを取得することができた場合、仮想UIとして、該当する操作機器204のリモコンと同じ外観を有する仮想リモコンが採用される。よって、仮想UIには、“電源オンオフ”ボタン、“再生”ボタン、“早送り”ボタンとういうような、操作機器204の実際のリモコンが持つボタンと同じボタンが同じレイアウトで表示される。   In the present embodiment, a virtual remote controller having the same appearance as the remote controller of the operation device 204 is employed as the virtual UI. Therefore, when the function information acquisition unit 506 can acquire the virtual UI together with the device information, a virtual remote controller having the same appearance as the remote controller of the corresponding operation device 204 is employed as the virtual UI. Therefore, the same buttons as the buttons of the actual remote controller of the operation device 204 such as a “power on / off” button, a “play” button, and a “fast forward” button are displayed in the same layout on the virtual UI.

また、仮想UI生成部508は、仮想UIを取得できなかった場合、機能情報に含まれる各機能をボタン形式で一覧表示した仮想UIを生成すればよい。この場合、仮想UI生成部508は、各機能の名称を四角で囲んだ操作ボタンを一覧表示する仮想UIを生成すればよい。   In addition, when the virtual UI cannot be acquired, the virtual UI generation unit 508 may generate a virtual UI that lists each function included in the function information in a button format. In this case, the virtual UI generation unit 508 may generate a virtual UI that displays a list of operation buttons in which the name of each function is enclosed by a square.

また、仮想UI生成部508は、ユーザ200毎に仮想UIのレイアウトをカスタマイズしてもよい。この場合、仮想UI生成部508は、機能情報に含まれる各機能に対応する機器操作指示の入力頻度に基づいて仮想UIをカスタマイズすればよい。例えば、仮想リモコンにAという機能を実行するためのAボタン、Bという機能を実行するためのBボタンがあったとする。   The virtual UI generation unit 508 may customize the virtual UI layout for each user 200. In this case, the virtual UI generation unit 508 may customize the virtual UI based on the input frequency of the device operation instruction corresponding to each function included in the function information. For example, it is assumed that the virtual remote controller has an A button for executing a function A and a B button for executing a function B.

この場合、仮想UI生成部508は、Aボタン及びBボタンに対してユーザ200が触れた回数をそれぞれカウントする。また、仮想UI生成部508は、ユーザ200が仮想UIの表示回数もカウントする。そして、仮想UI生成部508は、ユーザ200が仮想UIを表示回数が一定の値を超えた場合に、Aボタン及びBボタンのそれぞれに触れた回数を表示回数で割り、Aボタン及びBボタンの入力頻度を求める。そして、仮想UI生成部508は、Aボタン又はBボタンの入力頻度がAボタン又はBボタン毎に予め定められた規定値を超えた場合は、Aボタン又はBボタンを残存させる。一方、Aボタン又はBボタンの入力頻度がAボタン又はBボタン毎に予め定められた規定値以下の場合は、Aボタン又はBボタンを仮想UIから省けばよい。以後、仮想UI生成部508は、仮想UIの表示回数が一定の値を超える毎に上記の処理を行い、Aボタン又はBボタンを省くか否かの判定を行えばよい。   In this case, the virtual UI generation unit 508 counts the number of times the user 200 has touched the A button and the B button. Further, the virtual UI generation unit 508 also counts the number of times that the user 200 displays the virtual UI. Then, the virtual UI generation unit 508 divides the number of times the A button and the B button are touched by the display number when the user 200 displays the virtual UI exceeds a certain value, Find the input frequency. Then, when the input frequency of the A button or B button exceeds a predetermined value that is predetermined for each A button or B button, the virtual UI generation unit 508 leaves the A button or B button. On the other hand, when the input frequency of the A button or B button is equal to or less than a predetermined value predetermined for each A button or B button, the A button or B button may be omitted from the virtual UI. Thereafter, the virtual UI generation unit 508 may perform the above process every time the number of times the virtual UI is displayed exceeds a certain value, and determine whether to omit the A button or the B button.

これにより、ユーザ200によってほとんど使用されない機能に対応するボタンが仮想UIから省かれ、仮想UIの情報量が低下して、真にユーザ200が必要な機能に対応するボタンのみ仮想UIに含ませることができる。   As a result, buttons corresponding to functions that are rarely used by the user 200 are omitted from the virtual UI, the amount of information on the virtual UI is reduced, and only buttons corresponding to functions that the user 200 really needs are included in the virtual UI. Can do.

なお、仮想UI生成部508は、ユーザ入力判定部501から仮想UIのどのボタンがユーザ200により触れられたかを示す情報が供給され、この情報に基づいて機能情報の各機能に対する入力頻度を算出すればよい。   Note that the virtual UI generation unit 508 is supplied with information indicating which button of the virtual UI is touched by the user 200 from the user input determination unit 501, and calculates the input frequency for each function of the function information based on this information. That's fine.

また、仮想UI生成部508は、ユーザ200の年齢又はユーザ200からの選択指示に基づいて仮想UIをカスタマイズしてもよい。例えば、高齢者のユーザ200は操作機器204の機能のうち数個(例えば2〜5個)程度の機能しか使用しない場合もある。また、高齢者のユーザ200の場合、多数のボタンを仮想UIに配置すると老眼によりボタンを視認することが困難になる虞がある。そこで、仮想UI生成部508は、HMD202を使用するユーザ200の年齢が一定の年齢を超える場合、高齢者のユーザ200用に仮想UIをカスタマイズしてもよい。この場合、仮想UI生成部508は、機能情報取得部506により機能情報と併せて高齢者用の仮想UIが取得された場合はその仮想UIを採用すればよいし、取得されなかった場合は所定のボタンのみが含まれるように仮想UIをカスタマイズすればよい。なお、ユーザ200の年齢は、ユーザ200がHMD202を初めて使用する際に、ユーザ200に入力させればよい。   The virtual UI generation unit 508 may customize the virtual UI based on the age of the user 200 or a selection instruction from the user 200. For example, the elderly user 200 may use only a few (for example, 2 to 5) of the functions of the operation device 204. In the case of an elderly user 200, if a large number of buttons are arranged on the virtual UI, it may be difficult to visually recognize the buttons with presbyopia. Therefore, the virtual UI generation unit 508 may customize the virtual UI for the elderly user 200 when the age of the user 200 who uses the HMD 202 exceeds a certain age. In this case, the virtual UI generation unit 508 may adopt the virtual UI when the function information acquisition unit 506 acquires the virtual UI for the elderly person together with the function information. The virtual UI may be customized so that only the button is included. Note that the user 200 may input the age of the user 200 when the user 200 uses the HMD 202 for the first time.

接触点認識部510は、ユーザ入力判定部501によりユーザ200が表示位置指定指示を入力したと判定された場合、表示位置指定指示によりユーザ200により指定された位置を仮想UIの表示位置として認識する。   When the user input determination unit 501 determines that the user 200 has input a display position designation instruction, the contact point recognition unit 510 recognizes the position designated by the user 200 according to the display position designation instruction as the display position of the virtual UI. .

具体的には、接触点認識部510は、ユーザ入力判定部501により表示位置指定指示が入力されたと判定されると、ユーザ200の指の先端の位置を示す座標データをユーザ入力判定部501から取得する。そして、接触点認識部510は、指の先端の位置に仮想UIを重畳して表示するための命令を表示重畳部511に出力する。   Specifically, when it is determined that the display position designation instruction is input by the user input determination unit 501, the contact point recognition unit 510 receives coordinate data indicating the position of the tip of the finger of the user 200 from the user input determination unit 501. get. Then, the contact point recognition unit 510 outputs a command for superimposing and displaying the virtual UI on the position of the tip of the finger to the display superimposing unit 511.

本実施の形態では、ユーザ200は、現実空間のある物体を指で触れるジェスチャを行うことで、表示位置指定指示を入力する。そこで、接触点認識部510は、ユーザ入力判定部501により表示位置指定指示が入力されたと判定されると、映像データからユーザ200が触れた物体を認識する。この場合、接触点認識部510は、拡張現実空間において、ユーザ200の指先の位置に存在する物体を映像データから抽出し、抽出した物体の映像データ上での画像領域を示す情報を表示重畳部511に通知すればよい。   In the present embodiment, the user 200 inputs a display position designation instruction by performing a gesture of touching an object in the real space with a finger. Accordingly, when it is determined by the user input determination unit 501 that a display position designation instruction has been input, the contact point recognition unit 510 recognizes an object touched by the user 200 from the video data. In this case, the contact point recognition unit 510 extracts an object existing at the position of the fingertip of the user 200 from the video data in the augmented reality space, and displays information indicating the image area of the extracted object on the video data as a display superimposing unit. 511 may be notified.

これにより、拡張現実空間において、仮想UIはユーザ200が表示位置指定指示を入力するジェスチャを行った際に接触した物体に貼り付けて表示される。仮想UIは上述したように、複数のボタンから構成されている。このようなボタンを拡張現実空間中に浮いたように表示させると、ユーザ200はボタンを押しことを実感することが困難である。そこで、本実施の形態では、仮想UIを物体に貼り付けて表示している。これにより、ユーザ200は、仮想UIのボタンを押した際、指先が物体に触れることになり、ボタンを押したことを実感することができる。   As a result, in the augmented reality space, the virtual UI is displayed by being pasted on the object touched when the user 200 performs a gesture for inputting a display position designation instruction. As described above, the virtual UI is composed of a plurality of buttons. When such a button is displayed so as to float in the augmented reality space, it is difficult for the user 200 to realize that the button is pressed. Therefore, in the present embodiment, the virtual UI is pasted and displayed on the object. Thereby, when the user 200 presses the button of the virtual UI, the fingertip touches the object, and can feel that the button has been pressed.

なお、拡張現実空間に表示されたオブジェクトをユーザ200に掴ませるようなジェスチャを行って機器操作指示を入力させるような仮想UIが採用される場合は、仮想UIを物体に貼り付けることなく、拡張現実空間中に浮いたように表示させればよい。   Note that when a virtual UI that allows the user 200 to input a device operation instruction by making a gesture that causes the user 200 to grasp the object displayed in the augmented reality space is used, the virtual UI is not pasted on the object. What is necessary is just to display as if it floated in the real space.

表示重畳部511は、ユーザ入力判定部501により、ユーザインターフェイス登録情報に登録されたジェスチャが入力され、ユーザ200により仮想UI表示指示が入力されたと判定された場合、当該ジェスチャに対応する仮想UIを現実空間の映像データに重畳して拡張現実空間の映像データを生成し、表示部513に表示させる。具体的には、表示重畳部511は、接触点認識部510から仮想UIを表示するための命令が供給されると、この命令で規定された映像データ上の物体の画像領域にテクスチャマッピング等の手法を用いて仮想UIを貼り付ける。   When it is determined by the user input determination unit 501 that a gesture registered in the user interface registration information is input and the user 200 has input a virtual UI display instruction, the display superimposing unit 511 displays a virtual UI corresponding to the gesture. The augmented reality space image data is generated by superimposing the image data on the actual space and displayed on the display unit 513. Specifically, when a command for displaying a virtual UI is supplied from the contact point recognition unit 510, the display superimposing unit 511 performs texture mapping or the like on the image area of the object on the video data defined by the command. A virtual UI is pasted using a technique.

例えば、表示重畳部511は、映像取得部512により取得された映像データを表示部513が備える描画バッファに書き込み、書き込んだ映像データに対して、仮想UIを重畳して書き込むことで、仮想UIを物体に貼り付ければよい。なお、接触点認識部510は、表示位置指定指示が入力され、ユーザ200が触れた物体を認識した場合、以後、映像取得部512により映像データに対して当該物体を追跡し、映像データが更新されるたびに当該物体の画像領域を示す仮想UIを表示するための命令を表示重畳部511に供給する。   For example, the display superimposing unit 511 writes the video data acquired by the video acquiring unit 512 to a drawing buffer included in the display unit 513, and superimposes the virtual UI on the written video data to write the virtual UI. Just stick to the object. When the display position designation instruction is input and the object touched by the user 200 is recognized, the contact point recognition unit 510 subsequently tracks the object with respect to the video data by the video acquisition unit 512, and the video data is updated. Each time a command is displayed, a command for displaying a virtual UI indicating the image area of the object is supplied to the display superimposing unit 511.

そして、表示重畳部511は、仮想UIを表示するための命令が供給されるたびにテクスチャマッピングを行い、仮想UIの重畳対象となる物体の画像領域に仮想UIを貼り付ける。これにより、仮想UIの貼り付けた対象となる物体の向きがユーザ200によって変更されて、物体の画像領域が変化しても、その画像領域の変化に追従するように仮想UIが変化される。   The display superimposing unit 511 performs texture mapping every time a command for displaying the virtual UI is supplied, and pastes the virtual UI on the image area of the object to be superimposed on the virtual UI. Thus, even if the orientation of the object to which the virtual UI is pasted is changed by the user 200 and the image area of the object changes, the virtual UI is changed so as to follow the change in the image area.

これにより、仮想UIはユーザ200が触れた物体の表面形状に沿うように変形されて表示され、仮想UIを物体に対して違和感なく貼り付けることができる。   Thereby, the virtual UI is displayed so as to be deformed along the surface shape of the object touched by the user 200, and the virtual UI can be pasted to the object without a sense of incongruity.

表示部513は、例えばHMDの表示パネルや、表示パネルに表示される拡張現実空間の映像データが書き込まれる描画バッファ等を含み、描画バッファに書き込まれた映像データを表示パネルに供給する。これにより、映像取得部512に取得された映像データに仮想UI等が重畳された拡張現実空間の映像データの動画像が表示部513に表示される。   The display unit 513 includes, for example, an HMD display panel, a drawing buffer in which video data in the augmented reality space displayed on the display panel is written, and supplies the video data written in the drawing buffer to the display panel. As a result, a moving image of the video data in the augmented reality space in which the virtual UI or the like is superimposed on the video data acquired by the video acquisition unit 512 is displayed on the display unit 513.

次に、本発明の実施の形態における機器制御装置の動作について説明する。図5〜図8は本発明の実施の形態による機器制御装置の動作を示すフローチャートである。   Next, the operation of the device control apparatus in the embodiment of the present invention will be described. 5 to 8 are flowcharts showing the operation of the device control apparatus according to the embodiment of the present invention.

まず、ユーザ入力認識部500は、ユーザ200がジェスチャを行ったことを検出すると(ステップS(以下、“S”と略す。)600)、ジェスチャ認識情報をユーザ入力判定部501に供給する。   First, when detecting that the user 200 has made a gesture (step S (hereinafter abbreviated as “S”) 600), the user input recognition unit 500 supplies the gesture recognition information to the user input determination unit 501.

次に、ユーザ入力判定部501は、ユーザ入力認識部500から供給されたジェスチャ認識情報が機器選択指示に該当するか否かを判定する(S601)。次に、ユーザ入力判定部501は、ユーザ200により機器選択指示が入力されたと判定すると(S602でYES)、ユーザ200が指先で触れた操作機器204を認識する(S603)。一方、ユーザ入力判定部501は、ユーザ200により機器選択指示が入力されていないと判定すると(S602でNO)、処理をS604に進める。   Next, the user input determination unit 501 determines whether or not the gesture recognition information supplied from the user input recognition unit 500 corresponds to a device selection instruction (S601). Next, when the user input determination unit 501 determines that a device selection instruction has been input by the user 200 (YES in S602), the user input determination unit 501 recognizes the operation device 204 touched by the fingertip of the user 200 (S603). On the other hand, if the user input determination unit 501 determines that the device selection instruction has not been input by the user 200 (NO in S602), the process proceeds to S604.

次に、機能情報取得部506は、S601で認識された操作機器204の仮想UIを機能情報保存部507から検索する(S606)。   Next, the function information acquisition unit 506 searches the function information storage unit 507 for the virtual UI of the operating device 204 recognized in S601 (S606).

そして、機能情報取得部506は、機能情報保存部507に該当する仮想UIが存在すると判定した場合(S700でYES)、機能情報保存部507から仮想UI及び該当する操作機器204の機能情報を取得する(S701)。   When the function information acquisition unit 506 determines that the corresponding virtual UI exists in the function information storage unit 507 (YES in S700), the function information acquisition unit 506 acquires the function information of the virtual UI and the corresponding operation device 204 from the function information storage unit 507. (S701).

次に、ジェスチャ情報登録部502は、機能情報取得部506により取得された機能情報と、S601で認識されたジェスチャを示すジェスチャ特徴情報と、HMD202を使用するユーザ200のユーザIDと対応付けた入力ジェスチャ登録情報を生成し、ジェスチャ情報保存部503に保存させる(S702)。   Next, the gesture information registration unit 502 inputs the function information acquired by the function information acquisition unit 506, the gesture feature information indicating the gesture recognized in S601, and the input associated with the user ID of the user 200 who uses the HMD 202. Gesture registration information is generated and stored in the gesture information storage unit 503 (S702).

次に、仮想UI生成部508は、受信した仮想UI及びS601で認識されたジェスチャを示すジェスチャ特徴情報を対応付けてユーザインターフェイス登録情報を生成し、仮想UI保存部509に保存する(S703)。   Next, the virtual UI generation unit 508 associates the received virtual UI with the gesture feature information indicating the gesture recognized in S601, generates user interface registration information, and stores the user interface registration information in the virtual UI storage unit 509 (S703).

例えば、ユーザ200が人差し指でDVDレコーダに触れた場合には、人差し指で触れたジェスチャを示すジェスチャ特徴情報と、そのジェスチャによりユーザ200により選択されたDVDレコーダの仮想UIと、ユーザIDとが紐付けられてユーザインターフェイス登録情報が生成され、仮想UIに生成部508に保存される。   For example, when the user 200 touches the DVD recorder with the index finger, the gesture characteristic information indicating the gesture touched with the index finger, the virtual UI of the DVD recorder selected by the user 200 by the gesture, and the user ID are associated with each other. The user interface registration information is generated and stored in the generation unit 508 in the virtual UI.

これにより、次にユーザ200が人差し指を差し出すジャスチャと行ったときに、DVDプレーヤの仮想UIが表示部513に表示される。なお、仮想UIは、全ての機能に対応するボタン等を持つものであってもよいし、ユーザ200によってほとんど使用されないボタン等が非表示になるようにカスタマイズされていてもよい。   Accordingly, when the user 200 next performs a gesture of pointing out the index finger, the virtual UI of the DVD player is displayed on the display unit 513. Note that the virtual UI may have buttons and the like corresponding to all functions, or may be customized so that buttons that are rarely used by the user 200 are hidden.

次に、仮想UI生成部508は生成した仮想UIを表示重畳部511に供給し、仮想UIを表示部513に表示させる(S704)。この場合、表示重畳部511は仮想UIを拡張現実空間の所定のデフォルト位置に表示させればよい。また、この場合、ユーザ入力判定部501は、仮想UIの状態を“表示中”、かつ、“操作不可”にすればよい。   Next, the virtual UI generation unit 508 supplies the generated virtual UI to the display superimposing unit 511 and causes the display unit 513 to display the virtual UI (S704). In this case, the display superimposing unit 511 may display the virtual UI at a predetermined default position in the augmented reality space. In this case, the user input determination unit 501 may set the virtual UI state to “displaying” and “not operable”.

一方、機能情報取得部506は、機能情報保存部507に操作機器204の仮想UIが存在しないと判定した場合(S700でNO)、機能情報保存部507から操作機器204の機能情報のみを取得する(S705)。次に、ジェスチャ情報登録部502は、機能情報取得部506により取得された機能情報と、S601で認識されたジェスチャを示すジェスチャ特徴情報と、ユーザIDとを対応付けて入力ジェスチャ登録情報を生成し、ジェスチャ情報保存部503に保存する(S706)。   On the other hand, when the function information acquisition unit 506 determines that the virtual UI of the operation device 204 does not exist in the function information storage unit 507 (NO in S700), the function information acquisition unit 506 acquires only the function information of the operation device 204 from the function information storage unit 507. (S705). Next, the gesture information registration unit 502 generates input gesture registration information by associating the function information acquired by the function information acquisition unit 506, the gesture feature information indicating the gesture recognized in S601, and the user ID. And stored in the gesture information storage unit 503 (S706).

次に、機能情報取得部506は、仮想UI生成部508に仮想UIの生成要求を通知する(S707)。次に、仮想UI生成部508は、機能情報取得部506により取得された機器情報から仮想UIを生成する(S708)。   Next, the function information acquisition unit 506 notifies the virtual UI generation unit 508 of a virtual UI generation request (S707). Next, the virtual UI generation unit 508 generates a virtual UI from the device information acquired by the function information acquisition unit 506 (S708).

次に、仮想UI生成部508は、生成した仮想UIとS601で認識されたジェスチャを示すジェスチャ特徴情報と、ユーザIDとを対応付けてユーザインターフェイス登録情報を生成し、仮想UI保存部509に保存させる(S709)。この場合、例えば図9に示すようなユーザインターフェイス登録情報1000が生成される。   Next, the virtual UI generation unit 508 generates user interface registration information by associating the generated virtual UI with the gesture feature information indicating the gesture recognized in step S601 and the user ID, and stores the user interface registration information in the virtual UI storage unit 509. (S709). In this case, for example, user interface registration information 1000 as shown in FIG. 9 is generated.

次に、仮想UI生成部508は、S709と同様にして、生成した仮想UIを表示重畳部511に供給し、仮想UIを表示部513に表示させる(S710)。この場合、ユーザ入力判定部501は、仮想UIの状態を“表示中”、かつ、“操作不可”にすればよい。   Next, similarly to S709, the virtual UI generation unit 508 supplies the generated virtual UI to the display superimposing unit 511 and causes the display unit 513 to display the virtual UI (S710). In this case, the user input determination unit 501 may set the state of the virtual UI to “displaying” and “not operable”.

一方、図5のS604において、ユーザ入力判定部501が、S601において認識されたジェスチャがジェスチャ情報保存部503で保存された入力ジェスチャ登録情報に登録されており、仮想UI表示指示であると判定した場合(S604でYES)、処理にS605を進める。   On the other hand, in S604 of FIG. 5, the user input determination unit 501 determines that the gesture recognized in S601 is registered in the input gesture registration information stored in the gesture information storage unit 503 and is a virtual UI display instruction. If yes (YES in S604), the process proceeds to S605.

そして、仮想UI生成部508は、S601で認識されたジェスチャに対応する仮想UIを仮想UI保存部509から読み出し、表示重畳部511に供給し、表示部513に仮想UIを表示させる(S605)。   Then, the virtual UI generation unit 508 reads the virtual UI corresponding to the gesture recognized in S601 from the virtual UI storage unit 509, supplies the virtual UI to the display superimposing unit 511, and causes the display unit 513 to display the virtual UI (S605).

次に、ユーザ200により指先をある物体に接触させるジェスチャが行われ、ユーザ入力判定部501がユーザ200により表示位置指定指示が入力されたと判定すると(S800でYES)、接触点認識部510は、指先と物体とが接触した位置を認識する(S801)。   Next, when the user 200 performs a gesture of bringing a fingertip into contact with an object and the user input determination unit 501 determines that a display position designation instruction is input by the user 200 (YES in S800), the contact point recognition unit 510 The position where the fingertip contacts the object is recognized (S801).

次に、接触点認識部510は、映像データからユーザ200が指先で触れた物体の画像領域を抽出することで物体を認識する(S802)。次に、表示重畳部511は、認識された物体の画像領域に仮想UIをテクスチャマッピングにより貼り付ける(S803)。次に、ユーザ入力判定部501は、仮想UIの状態を“表示中”かつ“操作可能”にし(S804)、処理を終了する。   Next, the contact point recognition unit 510 recognizes the object by extracting the image area of the object touched by the user 200 with the fingertip from the video data (S802). Next, the display superimposing unit 511 pastes a virtual UI on the image area of the recognized object by texture mapping (S803). Next, the user input determination unit 501 sets the state of the virtual UI to “displaying” and “operable” (S804), and ends the process.

一方、S800において、表示位置指定指示が入力されない場合(S800でNO)、処理がS800に戻され、表示位置指定指示が入力されるまで、処理が待機される。   On the other hand, if a display position designation instruction is not input in S800 (NO in S800), the process returns to S800, and the process waits until a display position designation instruction is input.

図5に示すS604において、ユーザ入力判定部501は、S601で認識されたジェスチャが仮想UI表示指示でないと判定した場合(S604でNO)、当該ジェスチャが機器操作指示であるか否かを判定する(S900)。   In S604 illustrated in FIG. 5, when the user input determination unit 501 determines that the gesture recognized in S601 is not a virtual UI display instruction (NO in S604), the user input determination unit 501 determines whether the gesture is a device operation instruction. (S900).

そして、ユーザ入力判定部501は、当該ジェスチャが機器操作指示であると判定した場合(S900でYES)、機能情報検索部504は、機器操作指示に対応する機能をジェスチャ情報保存部503から検索する(S901)。   When the user input determination unit 501 determines that the gesture is a device operation instruction (YES in S900), the function information search unit 504 searches the gesture information storage unit 503 for a function corresponding to the device operation instruction. (S901).

次に、機能実行要求部505は、S901で検索された機能を操作機器204に実行させるための命令を操作機器204に出力する。これにより、ユーザ200が操作指示により入力した機能が操作機器204で実行される。   Next, the function execution request unit 505 outputs to the operating device 204 a command for causing the operating device 204 to execute the function searched in S901. Thereby, the function input by the user 200 according to the operation instruction is executed by the operation device 204.

一方、ユーザ入力判定部501は、S601で認識されたジェスチャが機器操作指示でない場合(S900でNO)、処理を終了する。   On the other hand, when the gesture recognized in S601 is not a device operation instruction (NO in S900), the user input determination unit 501 ends the process.

なお、上記フローチャートでは、ユーザ200が指先をある物体に接触させることで表示位置指定指示を入力したが、拡張現実空間内の任意の位置に指先を指し示すことで、表示位置指定指示を入力してもよい。   In the above flowchart, the user 200 inputs the display position designation instruction by bringing the fingertip into contact with an object. However, the user 200 inputs the display position designation instruction by pointing the fingertip to an arbitrary position in the augmented reality space. Also good.

この場合、表示重畳部511は、ユーザ200が指し示す指先の位置を中心として表示部513の垂直方向及び水平方向に仮想UIを展開すればよい。また、表示部513にて表示される仮想UIのサイズが小さい又は大きい場合は、仮想UIを適当な大きさに拡大又は縮小してもよい。   In this case, the display superimposing unit 511 may expand the virtual UI in the vertical direction and the horizontal direction of the display unit 513 around the position of the fingertip pointed by the user 200. Further, when the size of the virtual UI displayed on the display unit 513 is small or large, the virtual UI may be enlarged or reduced to an appropriate size.

また、上記説明では、接触点認識部510は映像データを用いてユーザ200の指先の位置を認識したが、ユーザ200の指先の位置を認識できる手法であれば、どのような手法を用いても良い。例えば、ユーザ200の指先に位置センサを設け、これによりユーザ200の指先を認識してもよい。   In the above description, the contact point recognition unit 510 recognizes the position of the fingertip of the user 200 using the video data, but any technique can be used as long as it can recognize the position of the fingertip of the user 200. good. For example, a position sensor may be provided at the fingertip of the user 200 so that the fingertip of the user 200 may be recognized.

このように、本実施の形態による機器制御装置によれば、ユーザ200はある指である操作機器204に触れるジェスチャを行うと、ユーザ200により選択された操作機器204の機能情報が取得され、取得された機能情報とユーザ200のジェスチャとが対応付けて保存される。また、機能情報から仮想UIが生成され、生成された仮想UIがユーザ200により行われたジェスチャと対応付けて保存される。以上によりユーザ200が行ったジェスチャと操作機器204の機能情報と、操作機器204の仮想UIとが対応付けられる。   As described above, according to the device control apparatus according to the present embodiment, when the user 200 performs a gesture of touching the operation device 204 that is a certain finger, the function information of the operation device 204 selected by the user 200 is acquired and acquired. The function information thus made and the gesture of the user 200 are stored in association with each other. In addition, a virtual UI is generated from the function information, and the generated virtual UI is stored in association with the gesture performed by the user 200. Thus, the gesture performed by the user 200, the function information of the operation device 204, and the virtual UI of the operation device 204 are associated with each other.

そして、ユーザ200により、操作機器204を選択したときと同じようにして指先を差し出すジェスチャが行われると、そのジェスチャに対応付けられた仮想UIが表示される。そして、ユーザ200は、表示された仮想UIに対して操作指示を入力すると、操作指示に対応する機能が実行される。   When the user 200 performs a gesture for pointing out the fingertip in the same manner as when the operation device 204 is selected, a virtual UI associated with the gesture is displayed. Then, when the user 200 inputs an operation instruction to the displayed virtual UI, a function corresponding to the operation instruction is executed.

したがって、ジェスチャ登録機能、ジェスチャ認識機能、及びアクション実行機能を有しない機器であっても、ジェスチャ登録機能、ジェスチャ認識機能、及びアクション実行機能を提供することが可能になり、ユーザ200の利便性を向上させることができる。   Therefore, even a device that does not have a gesture registration function, a gesture recognition function, and an action execution function can provide a gesture registration function, a gesture recognition function, and an action execution function, which improves the convenience of the user 200. Can be improved.

また、上記実施の形態では、ユーザ200はある指の指先を差し出すジェスチャを行ったときに、仮想UIを表示させる態様を採用した。しかしながら、これでは、ユーザ200が仮想UIを表示させることを希望しないにもかかわらず、同様のジェスチャを行った場合、仮想UIが表示される虞がある。そこで、ユーザ200が仮想UI表示指示を入力する際は、機器制御装置の動作モードを仮想UI表示モードに設定させて、仮想UI表示指示を入力させるようにすればよい。これにより、ユーザ200が仮想UIの表示を希望しない場合に仮想UIが表示されることを防止することができる。この場合、HMD202にスイッチを設け、このスイッチを操作することでユーザ200に動作モードを設定させればよい。また、動作モードを設定するためのジェスチャをユーザ200に行わせて動作モードを設定させてもよい。   Moreover, in the said embodiment, the user 200 employ | adopted the aspect which displays a virtual UI, when performing the gesture which presents the fingertip of a certain finger | toe. However, in this case, when the user 200 does not want to display the virtual UI but performs the same gesture, the virtual UI may be displayed. Therefore, when the user 200 inputs a virtual UI display instruction, the operation mode of the device control apparatus may be set to the virtual UI display mode and the virtual UI display instruction may be input. Thereby, it is possible to prevent the virtual UI from being displayed when the user 200 does not want to display the virtual UI. In this case, a switch may be provided in the HMD 202 and the operation mode may be set by the user 200 by operating this switch. Further, the operation mode may be set by causing the user 200 to perform a gesture for setting the operation mode.

また、上記問題は、機器選択指示についても同様に発生する。したがって、ユーザ200に機器選択指示を入力させる場合、機器制御装置の動作モードを仮想UI登録モードに設定すればよい。   The above problem also occurs in the device selection instruction. Therefore, when the user 200 inputs a device selection instruction, the operation mode of the device control apparatus may be set to the virtual UI registration mode.

また、図9の例では、ユーザ200の各指に異なる操作機器204の仮想UIが対応付けられている。したがって、ユーザ200は手を広げるジェスチャを行うと、各指に対応付けられた全ての仮想UIを表示させることができる。これにより、ユーザ200は、どの指にどの操作機器204の仮想UIが対応付けられていたかを忘れた場合であっても、速やかに確認することができる。もちろん、確認後は、ユーザ200にあるジェスチャを行わせ、表示された全ての仮想UIのうち任意の仮想UIを非表示にさせるようにすればよい。   In the example of FIG. 9, a virtual UI of a different operation device 204 is associated with each finger of the user 200. Therefore, when the user 200 performs a gesture of spreading his / her hand, all the virtual UIs associated with each finger can be displayed. As a result, the user 200 can quickly confirm even if the user forgets which virtual UI of which operating device 204 is associated with which finger. Of course, after the confirmation, the user 200 may make a gesture to hide any virtual UI among all displayed virtual UIs.

なお、実施の形態は例であって、本発明は実施の形態に限定されるのではない。実施の形態に対して当業者が思いつく変形を施して得られる形態、および、実施の形態における構成要素を任意に組み合わせて実現される別の形態も、本発明に含まれる。   The embodiment is an example, and the present invention is not limited to the embodiment. Forms obtained by subjecting the embodiments to modifications conceived by those skilled in the art and other forms realized by arbitrarily combining the components in the embodiments are also included in the present invention.

また、図4に示された機器制御装置の構成要素は、集積回路であるLSI(Large Scale Integration)として実現されてもよい。これらの構成要素は、個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。ここでは、LSIとしたが、集積度の違いにより、IC(Integrated Circuit)、システムLSI、スーパーLSI、またはウルトラLSIと呼称されることもある。   4 may be implemented as an LSI (Large Scale Integration) that is an integrated circuit. These components may be individually made into one chip, or may be made into one chip so as to include a part or all of them. Although referred to as LSI here, it may be called IC (Integrated Circuit), system LSI, super LSI, or ultra LSI depending on the degree of integration.

また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。プログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続および設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。   Further, the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible. An FPGA (Field Programmable Gate Array) that can be programmed, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

更には、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて、表示領域制御装置に含まれる構成要素の集積回路化を行ってもよい。また、機器制御装置の構成要素のうち、データを格納する手段だけ1チップ化せずに別構成としてもよい。   Furthermore, if integrated circuit technology that replaces LSI emerges as a result of advances in semiconductor technology or other derived technology, naturally, using that technology, the components included in the display area control device are integrated into an integrated circuit. Also good. Further, among the components of the device control apparatus, only the means for storing data may be configured separately instead of being integrated into one chip.

また、本発明は、機器制御装置として実現できるだけでなく、機器制御装置を構成する処理手段をステップとする方法として実現できる。そして、本発明は、その方法に含まれるステップをコンピュータに実行させるプログラムとして実現できる。さらに、本発明は、そのプログラムを記憶したCD−ROM等のコンピュータ読み取り可能な記憶媒体として実現できる。   In addition, the present invention can be realized not only as a device control apparatus, but also as a method using a processing unit constituting the device control apparatus as a step. The present invention can be realized as a program that causes a computer to execute the steps included in the method. Furthermore, the present invention can be realized as a computer-readable storage medium such as a CD-ROM storing the program.

本発明にかかる機器制御装置によれば、ジェスチャ登録機能、ジェスチャ認識機能、およびアクション実行機能を有しない操作機器に対して、ジェスチャを用いた操作が可能となるため、今後ますます登場が予想されるHMDを装着した拡張現実空間上のアプリケーションでの利用で特に有用であると考えられる。   According to the device control apparatus according to the present invention, operation using gestures can be performed on operation devices that do not have a gesture registration function, a gesture recognition function, and an action execution function. This is considered to be particularly useful when used in an augmented reality space application equipped with a HMD.

200 ユーザ
201 カメラ
202 HMD
203 サーバ機器
204 操作機器
500 ユーザ入力認識部
501 ユーザ入力判定部
502 ジェスチャ情報登録部
503 ジェスチャ情報保存部
504 機能情報検索部
505 機能実行要求部
506 機能情報取得部
507 機能情報保存部
508 仮想UI生成部
509 仮想UI保存部
510 接触点認識部
511 表示重畳部
512 映像取得部
513 表示部
1000 ユーザインターフェイス登録情報
200 User 201 Camera 202 HMD
203 Server device 204 Operation device 500 User input recognition unit 501 User input determination unit 502 Gesture information registration unit 503 Gesture information storage unit 504 Function information search unit 505 Function execution request unit 506 Function information acquisition unit 507 Function information storage unit 508 Virtual UI generation Unit 509 virtual UI storage unit 510 contact point recognition unit 511 display superimposition unit 512 video acquisition unit 513 display unit 1000 user interface registration information

Claims (14)

拡張現実空間に含まれる操作機器をヘッドマウントディスプレイを装着したユーザにより操作させる機器制御装置であって、
前記拡張現実空間においてユーザにより行われるジェスチャを認識するユーザ入力認識部と、
前記ユーザ入力認識部により認識されたジェスチャに基づいてユーザにより入力された入力指示を判定するユーザ入力判定部と、
前記ユーザ入力判定部により、ある操作機器を選択するための機器選択指示が前記入力指示として入力されたと判定された場合、当該操作機器が持つ機能の一覧を示す機能情報を取得する機能情報取得部と、
前記機器選択指示によりユーザが選択した操作機器の前記機能情報と、前記機器選択指示を入力する際にユーザにより行われたジェスチャとを対応付けて入力ジェスチャ登録情報を生成するジェスチャ情報登録部と、
前記機能情報取得部により取得された機能情報に基づいて仮想ユーザインターフェイスを生成し、生成した仮想ユーザインターフェイスと、前記機器選択指示を入力する際にユーザにより行われたジェスチャとを対応付けてユーザインターフェイス登録情報を生成する仮想UI生成部と、
前記ユーザ入力判定部により、前記ユーザインターフェイス登録情報に登録されたジェスチャが入力されたと判定された場合、当該ジェスチャに対応する仮想ユーザインターフェイスを現実空間の映像データに重畳表示する重畳表示部と、
前記ユーザ入力判定部により、前記仮想ユーザインターフェイスを用いたユーザからの機器操作指示が前記入力指示として入力されたと判定された場合、当該機器操作指示に対応する機能を前記入力ジェスチャ登録情報に含まれる前記機能情報から検索する機能情報検索部と、
前記機能情報検索部により検索された機能が実行されるように前記操作機器に命令を行う機能実行要求部とを備える機器制御装置。
A device control device for operating an operation device included in an augmented reality space by a user wearing a head-mounted display,
A user input recognition unit for recognizing a gesture made by a user in the augmented reality space;
A user input determination unit that determines an input instruction input by the user based on the gesture recognized by the user input recognition unit;
When the user input determination unit determines that a device selection instruction for selecting a certain operation device is input as the input instruction, a function information acquisition unit that acquires function information indicating a list of functions of the operation device When,
A gesture information registration unit that generates input gesture registration information by associating the function information of the operation device selected by the user according to the device selection instruction with a gesture performed by the user when inputting the device selection instruction;
A virtual user interface is generated based on the function information acquired by the function information acquisition unit, and the generated virtual user interface is associated with a gesture made by the user when inputting the device selection instruction. A virtual UI generation unit for generating registration information;
When the user input determination unit determines that a gesture registered in the user interface registration information is input, a superimposed display unit that displays a virtual user interface corresponding to the gesture superimposed on video data in real space;
When the user input determination unit determines that a device operation instruction from the user using the virtual user interface is input as the input instruction, a function corresponding to the device operation instruction is included in the input gesture registration information. A function information search unit for searching from the function information;
A device control apparatus comprising: a function execution request unit that instructs the operation device so that the function searched by the function information search unit is executed.
前記ユーザ入力認識部は、前記ヘッドマウントディスプレイに装着されたカメラ、又は現実空間に設置されたカメラにより取得された映像データに基づいて前記ジェスチャを認識する請求項1記載の機器制御装置。   The device control apparatus according to claim 1, wherein the user input recognition unit recognizes the gesture based on video data acquired by a camera mounted on the head mounted display or a camera installed in a real space. 前記機能情報取得部は、前記ヘッドマウントディスプレイ又はサーバ機器に設けられている請求項1又は2記載の機器制御装置。   The device control device according to claim 1, wherein the function information acquisition unit is provided in the head mounted display or server device. 前記仮想ユーザインターフェイスは、前記操作機器の実際のリモコンを模擬した仮想リモコンである請求項1〜3のいずれかに記載の機器制御装置。   The device control apparatus according to claim 1, wherein the virtual user interface is a virtual remote controller that simulates an actual remote controller of the operation device. 前記機能情報取得部は、前記操作機器又は前記機能情報を予め記憶するサーバ機器から前記機能情報を取得する請求項1〜4のいずれかに記載の機器制御装置。   The device control apparatus according to claim 1, wherein the function information acquisition unit acquires the function information from the operation device or a server device that stores the function information in advance. 前記ユーザ入力判定部は、前記ユーザ入力認識部により認識されたジェスチャが、ある操作機器に触れるジェスチャである場合、当該操作機器を選択するための前記機器選択指示が前記入力指示として入力されたと判定する請求項1〜5のいずれかに記載の機器制御装置。   The user input determination unit determines that the device selection instruction for selecting the operation device is input as the input instruction when the gesture recognized by the user input recognition unit is a gesture that touches the operation device. The apparatus control apparatus in any one of Claims 1-5. 前記仮想ユーザインターフェイスが表示されている状態で、ユーザにより現実空間の位置を指定するジェスチャが行われて表示位置指定指示が入力されたと前記ユーザ入力判定部により判定された場合、前記表示位置指定指示により指定された位置を前記仮想ユーザインターフェイスの表示位置として認識する接触点認識部を更に備え、
前記重畳表示部は、前記接触点認識部により認識された位置に表示されるように、前記仮想ユーザインターフェイスを前記現実空間の映像データに重畳する請求項1〜6のいずれかに記載の機器制御装置。
When the user input determination unit determines that a display position designation instruction has been input by a user performing a gesture for designating a position in the real space while the virtual user interface is displayed, the display position designation instruction A contact point recognizing unit for recognizing the position specified by the display position of the virtual user interface,
The device control according to claim 1, wherein the superimposing display unit superimposes the virtual user interface on video data in the real space so that the virtual user interface is displayed at a position recognized by the contact point recognition unit. apparatus.
前記接触点認識部は、前記ユーザ入力判定部により、前記表示位置指定指示が入力されたと判定された場合、ユーザが前記表示位置指定指示を入力する際に触れた物体を認識し、
前記重畳表示部は、前記接触点認識部により認識された物体に貼り付けられるように、前記仮想ユーザインターフェイスを前記現実空間の映像データに重畳する請求項7記載の機器制御装置。
The contact point recognition unit recognizes an object touched when a user inputs the display position designation instruction when the user input determination unit determines that the display position designation instruction is input;
The device control apparatus according to claim 7, wherein the superimposing display unit superimposes the virtual user interface on video data in the real space so that the virtual user interface is pasted on an object recognized by the contact point recognition unit.
前記仮想UI生成部は、ユーザ毎に前記仮想ユーザインターフェイスのレイアウトをカスタマイズする請求項1〜8のいずれかに記載の機器制御装置。   The device control apparatus according to claim 1, wherein the virtual UI generation unit customizes a layout of the virtual user interface for each user. 前記仮想UI生成部は、前記機能情報に含まれる各機能に対応する機器操作指示の入力頻度に基づいて、前記仮想ユーザインターフェイスをカスタマイズする請求項9記載の機器制御装置。   The device control apparatus according to claim 9, wherein the virtual UI generation unit customizes the virtual user interface based on an input frequency of a device operation instruction corresponding to each function included in the function information. 前記仮想UI生成部は、ユーザの年齢又はユーザからの選択指示に基づいて、前記仮想ユーザインターフェイスをカスタマイズする請求項9又は10記載の機器制御装置。   The device control apparatus according to claim 9 or 10, wherein the virtual UI generation unit customizes the virtual user interface based on a user's age or a selection instruction from the user. 拡張現実空間に含まれる操作機器をヘッドマウントディスプレイを装着したユーザにより操作させる機器制御方法であって、
前記拡張現実空間においてユーザにより行われるジェスチャを認識するユーザ入力認識ステップと、
前記ユーザ入力認識ステップにより認識されたジェスチャに基づいてユーザにより入力された入力指示を判定するユーザ入力判定ステップと、
前記ユーザ入力判定ステップにより、ある操作機器を選択するための機器選択指示が前記入力指示として入力されたと判定された場合、当該操作機器が持つ機能の一覧を示す機能情報を取得する機能情報取得ステップと、
前記機器選択指示によりユーザが選択した操作機器の前記機能情報と、前記機器選択指示を入力する際にユーザにより行われたジェスチャとを対応付けて入力ジェスチャ登録情報を生成するジェスチャ情報登録ステップと、
前記機能情報取得ステップにより取得された機能情報に基づいて仮想ユーザインターフェイスを生成し、生成した仮想ユーザインターフェイスと、前記機器選択指示を入力する際にユーザにより行われたジェスチャとを対応付けてユーザインターフェイス登録情報を生成する仮想UI生成ステップと、
前記ユーザ入力判定ステップにより、前記ユーザインターフェイス登録情報に登録されたジェスチャが入力されたと判定された場合、当該ジェスチャに対応する仮想ユーザインターフェイスを現実空間の映像データに重畳表示する重畳表示ステップと、
前記ユーザ入力判定ステップにより、前記仮想ユーザインターフェイスを用いたユーザからの機器操作指示が前記入力指示として入力されたと判定された場合、当該機器操作指示に対応する機能を前記入力ジェスチャ登録情報に含まれる前記機能情報から検索する機能情報検索ステップと、
前記機能情報検索ステップにより検索された機能が実行されるように前記操作機器に命令を行う機能実行要求ステップとを備える機器制御方法。
A device control method for operating an operation device included in an augmented reality space by a user wearing a head mounted display,
A user input recognition step for recognizing a gesture made by a user in the augmented reality space;
A user input determination step of determining an input instruction input by the user based on the gesture recognized by the user input recognition step;
If the user input determination step determines that a device selection instruction for selecting a certain operating device has been input as the input instruction, a function information acquisition step for acquiring function information indicating a list of functions of the operating device When,
A gesture information registration step of generating input gesture registration information by associating the function information of the operating device selected by the user according to the device selection instruction with a gesture performed by the user when inputting the device selection instruction;
A virtual user interface is generated based on the function information acquired in the function information acquisition step, and the generated virtual user interface is associated with a gesture made by the user when inputting the device selection instruction. A virtual UI generation step of generating registration information;
When it is determined by the user input determination step that a gesture registered in the user interface registration information is input, a superimposed display step for displaying a virtual user interface corresponding to the gesture superimposed on video data in real space;
When it is determined in the user input determination step that a device operation instruction from the user using the virtual user interface is input as the input instruction, a function corresponding to the device operation instruction is included in the input gesture registration information. A function information search step for searching from the function information;
A device control method comprising: a function execution requesting step for instructing the operating device to execute the function searched in the function information searching step.
拡張現実空間に含まれる操作機器をヘッドマウントディスプレイを装着したユーザにより操作させる機器制御装置としてコンピュータを機能させる機器制御プログラムであって、
前記拡張現実空間においてユーザにより行われるジェスチャを認識するユーザ入力認識部と、
前記ユーザ入力認識部により認識されたジェスチャに基づいてユーザにより入力された入力指示を判定するユーザ入力判定部と、
前記ユーザ入力判定部により、ある操作機器を選択するための機器選択指示が前記入力指示として入力されたと判定された場合、当該操作機器が持つ機能の一覧を示す機能情報を取得する機能情報取得部と、
前記機器選択指示によりユーザが選択した操作機器の前記機能情報と、前記機器選択指示を入力する際にユーザにより行われたジェスチャとを対応付けて入力ジェスチャ登録情報を生成するジェスチャ情報登録部と、
前記機能情報取得部により取得された機能情報に基づいて仮想ユーザインターフェイスを生成し、生成した仮想ユーザインターフェイスと、前記機器選択指示を入力する際にユーザにより行われたジェスチャとを対応付けてユーザインターフェイス登録情報を生成する仮想UI生成部と、
前記ユーザ入力判定部により、前記ユーザインターフェイス登録情報に登録されたジェスチャが入力されたと判定された場合、当該ジェスチャに対応する仮想ユーザインターフェイスを現実空間の映像データに重畳表示する重畳表示部と、
前記ユーザ入力判定部により、前記仮想ユーザインターフェイスを用いたユーザからの機器操作指示が前記入力指示として入力されたと判定された場合、当該機器操作指示に対応する機能を前記入力ジェスチャ登録情報に含まれる前記機能情報から検索する機能情報検索部と、
前記機能情報検索部により検索された機能が実行されるように前記操作機器に命令を行う機能実行要求部としてコンピュータを機能させる機器制御プログラム。
A device control program that causes a computer to function as a device control device that allows a user wearing a head-mounted display to operate an operation device included in an augmented reality space,
A user input recognition unit for recognizing a gesture made by a user in the augmented reality space;
A user input determination unit that determines an input instruction input by the user based on the gesture recognized by the user input recognition unit;
When the user input determination unit determines that a device selection instruction for selecting a certain operation device is input as the input instruction, a function information acquisition unit that acquires function information indicating a list of functions of the operation device When,
A gesture information registration unit that generates input gesture registration information by associating the function information of the operation device selected by the user according to the device selection instruction with a gesture performed by the user when inputting the device selection instruction;
A virtual user interface is generated based on the function information acquired by the function information acquisition unit, and the generated virtual user interface is associated with a gesture made by the user when inputting the device selection instruction. A virtual UI generation unit for generating registration information;
When the user input determination unit determines that a gesture registered in the user interface registration information is input, a superimposed display unit that displays a virtual user interface corresponding to the gesture superimposed on video data in real space;
When the user input determination unit determines that a device operation instruction from the user using the virtual user interface is input as the input instruction, a function corresponding to the device operation instruction is included in the input gesture registration information. A function information search unit for searching from the function information;
A device control program that causes a computer to function as a function execution request unit that instructs the operating device to execute a function searched by the function information search unit.
拡張現実空間に含まれる操作機器をヘッドマウントディスプレイを装着したユーザにより操作させる機器制御装置の集積回路であって、
前記拡張現実空間においてユーザにより行われるジェスチャを認識するユーザ入力認識部と、
前記ユーザ入力認識部により認識されたジェスチャに基づいてユーザにより入力された入力指示を判定するユーザ入力判定部と、
前記ユーザ入力判定部により、ある操作機器を選択するための機器選択指示が前記入力指示として入力されたと判定された場合、当該操作機器が持つ機能の一覧を示す機能情報を取得する機能情報取得部と、
前記機器選択指示によりユーザが選択した操作機器の前記機能情報と、前記機器選択指示を入力する際にユーザにより行われたジェスチャとを対応付けて入力ジェスチャ登録情報を生成するジェスチャ情報登録部と、
前記機能情報取得部により取得された機能情報に基づいて仮想ユーザインターフェイスを生成し、生成した仮想ユーザインターフェイスと、前記機器選択指示を入力する際にユーザにより行われたジェスチャとを対応付けてユーザインターフェイス登録情報を生成する仮想UI生成部と、
前記ユーザ入力判定部により、前記ユーザインターフェイス登録情報に登録されたジェスチャが入力されたと判定された場合、当該ジェスチャに対応する仮想ユーザインターフェイスを現実空間の映像データに重畳表示する重畳表示部と、
前記ユーザ入力判定部により、前記仮想ユーザインターフェイスを用いたユーザからの機器操作指示が前記入力指示として入力されたと判定された場合、当該機器操作指示に対応する機能を前記入力ジェスチャ登録情報に含まれる前記機能情報から検索する機能情報検索部と、
前記機能情報検索部により検索された機能が実行されるように前記操作機器に命令を行う機能実行要求部とを備える集積回路。
An integrated circuit of a device control device that causes a user wearing a head-mounted display to operate an operation device included in the augmented reality space,
A user input recognition unit for recognizing a gesture made by a user in the augmented reality space;
A user input determination unit that determines an input instruction input by the user based on the gesture recognized by the user input recognition unit;
When the user input determination unit determines that a device selection instruction for selecting a certain operation device is input as the input instruction, a function information acquisition unit that acquires function information indicating a list of functions of the operation device When,
A gesture information registration unit that generates input gesture registration information by associating the function information of the operation device selected by the user according to the device selection instruction with a gesture performed by the user when inputting the device selection instruction;
A virtual user interface is generated based on the function information acquired by the function information acquisition unit, and the generated virtual user interface is associated with a gesture made by the user when inputting the device selection instruction. A virtual UI generation unit for generating registration information;
When the user input determination unit determines that a gesture registered in the user interface registration information is input, a superimposed display unit that displays a virtual user interface corresponding to the gesture superimposed on video data in real space;
When the user input determination unit determines that a device operation instruction from the user using the virtual user interface is input as the input instruction, a function corresponding to the device operation instruction is included in the input gesture registration information. A function information search unit for searching from the function information;
An integrated circuit comprising: a function execution requesting unit that instructs the operating device so that the function searched by the function information searching unit is executed.
JP2011046118A 2011-03-03 2011-03-03 Apparatus controller, apparatus control method, apparatus control program and integrated circuit Withdrawn JP2012181809A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011046118A JP2012181809A (en) 2011-03-03 2011-03-03 Apparatus controller, apparatus control method, apparatus control program and integrated circuit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011046118A JP2012181809A (en) 2011-03-03 2011-03-03 Apparatus controller, apparatus control method, apparatus control program and integrated circuit

Publications (1)

Publication Number Publication Date
JP2012181809A true JP2012181809A (en) 2012-09-20

Family

ID=47012932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011046118A Withdrawn JP2012181809A (en) 2011-03-03 2011-03-03 Apparatus controller, apparatus control method, apparatus control program and integrated circuit

Country Status (1)

Country Link
JP (1) JP2012181809A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014128773A1 (en) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス Gesture registration device, gesture registration program, and gesture registration method
WO2014147686A1 (en) 2013-03-21 2014-09-25 Sony Corporation Head-mounted device for user interactions in an amplified reality environment
WO2014156706A1 (en) * 2013-03-28 2014-10-02 ソニー株式会社 Image processing device and method, and program
JP5696262B1 (en) * 2014-06-13 2015-04-08 株式会社日立システムズ Work management device, work defect prevention program, and work defect prevention method
WO2015111778A1 (en) * 2014-01-27 2015-07-30 엘지전자 주식회사 Terminal of eye-glass type and method for controlling terminal of eye-glass type
JP2015231445A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and image generating device
JP2017191546A (en) * 2016-04-15 2017-10-19 ミラマ サービス インク Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
KR20180044550A (en) * 2016-10-24 2018-05-03 엘지전자 주식회사 Head mounted display device
CN111052063A (en) * 2017-09-04 2020-04-21 三星电子株式会社 Electronic device and control method thereof
JPWO2020250270A1 (en) * 2019-06-10 2020-12-17
US10908425B2 (en) 2017-12-20 2021-02-02 Seiko Epson Corporation Transmission-type head mounted display apparatus, display control method, and computer program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2014128773A1 (en) * 2013-02-19 2017-02-02 株式会社ブリリアントサービス Gesture registration device, gesture registration program, and gesture registration method
WO2014128773A1 (en) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス Gesture registration device, gesture registration program, and gesture registration method
US9857589B2 (en) 2013-02-19 2018-01-02 Mirama Service Inc. Gesture registration device, gesture registration program, and gesture registration method
WO2014147686A1 (en) 2013-03-21 2014-09-25 Sony Corporation Head-mounted device for user interactions in an amplified reality environment
US10365767B2 (en) 2013-03-28 2019-07-30 Sony Corporation Augmented reality image processing apparatus and method, and program
CN105075254A (en) * 2013-03-28 2015-11-18 索尼公司 Image processing device and method, and program
JPWO2014156706A1 (en) * 2013-03-28 2017-02-16 ソニー株式会社 Image processing apparatus and method, and program
WO2014156706A1 (en) * 2013-03-28 2014-10-02 ソニー株式会社 Image processing device and method, and program
US10318007B2 (en) 2014-01-27 2019-06-11 Lg Electronics Inc. Head mounted display device for multi-tasking and method for controlling same
WO2015111778A1 (en) * 2014-01-27 2015-07-30 엘지전자 주식회사 Terminal of eye-glass type and method for controlling terminal of eye-glass type
JP2015231445A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and image generating device
US10755222B2 (en) 2014-06-13 2020-08-25 Hitachi Systems, Ltd. Work management apparatus, work defect prevention program, and work defect prevention method
JP5696262B1 (en) * 2014-06-13 2015-04-08 株式会社日立システムズ Work management device, work defect prevention program, and work defect prevention method
US20170132554A1 (en) * 2014-06-13 2017-05-11 Hitachi Systems, Ltd. Work Management Apparatus, Work Defect Prevention Program, and Work Defect Prevention Method
WO2015189995A1 (en) * 2014-06-13 2015-12-17 株式会社日立システムズ Work management apparatus, work error prevention program, and work error prevention method
JP2017191546A (en) * 2016-04-15 2017-10-19 ミラマ サービス インク Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
KR20180044550A (en) * 2016-10-24 2018-05-03 엘지전자 주식회사 Head mounted display device
KR102614087B1 (en) 2016-10-24 2023-12-15 엘지전자 주식회사 Head mounted display device
CN111052063A (en) * 2017-09-04 2020-04-21 三星电子株式会社 Electronic device and control method thereof
CN111052063B (en) * 2017-09-04 2024-03-29 三星电子株式会社 Electronic device and control method thereof
US10908425B2 (en) 2017-12-20 2021-02-02 Seiko Epson Corporation Transmission-type head mounted display apparatus, display control method, and computer program
JPWO2020250270A1 (en) * 2019-06-10 2020-12-17
JP7393427B2 (en) 2019-06-10 2023-12-06 マクセル株式会社 Operation support system

Similar Documents

Publication Publication Date Title
JP2012181809A (en) Apparatus controller, apparatus control method, apparatus control program and integrated circuit
JP7411133B2 (en) Keyboards for virtual reality display systems, augmented reality display systems, and mixed reality display systems
US11520477B2 (en) Augmented reality scrollbar
US11741917B2 (en) Eclipse cursor for mixed reality displays
US11340694B2 (en) Visual aura around field of view
US8965049B2 (en) Function extension device, function extension method, computer-readable recording medium, and integrated circuit
JP7095602B2 (en) Information processing equipment, information processing method and recording medium
JP2013172432A (en) Equipment control apparatus, equipment control method, equipment control program, and integrated circuit
CN106873767B (en) Operation control method and device for virtual reality application
US20160034058A1 (en) Mobile Device Input Controller For Secondary Display
US11380021B2 (en) Image processing apparatus, content processing system, and image processing method
US20200341551A1 (en) Systems and methods for providing customizable haptic playback
US20150199030A1 (en) Hover-Sensitive Control Of Secondary Display
JP2015524110A (en) Context user interface
CN109331455A (en) Movement error correction method, device, storage medium and the terminal of human body attitude
US20230191252A1 (en) Method, computer readable medium, and information processing device
JP5382880B2 (en) GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD
CN116126139A (en) Input method and related equipment
CN117850655A (en) Information input method, device, equipment and medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513