JP2013093031A - Information processing apparatus, memory medium, information processing system, information processing method, and program - Google Patents

Information processing apparatus, memory medium, information processing system, information processing method, and program Download PDF

Info

Publication number
JP2013093031A
JP2013093031A JP2012252065A JP2012252065A JP2013093031A JP 2013093031 A JP2013093031 A JP 2013093031A JP 2012252065 A JP2012252065 A JP 2012252065A JP 2012252065 A JP2012252065 A JP 2012252065A JP 2013093031 A JP2013093031 A JP 2013093031A
Authority
JP
Japan
Prior art keywords
user
position information
virtual object
image
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012252065A
Other languages
Japanese (ja)
Other versions
JP5510529B2 (en
Inventor
Koichi Matsuda
晃一 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012252065A priority Critical patent/JP5510529B2/en
Publication of JP2013093031A publication Critical patent/JP2013093031A/en
Application granted granted Critical
Publication of JP5510529B2 publication Critical patent/JP5510529B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To achieve a configuration whereby data which are not displayed on a display part can be observed as a virtual object, at all times.SOLUTION: For example, in data processing applied with a PC, the data which are not displayed on a display part of the PC, e.g. data that are a target of deletion processing or copy processing, are set as a virtual object, are stuck to, for example, a finger of a hand of a user, and can be observed at all times. Accordingly, the data which are not displayed in a display area of the PC are stuck to a space, other than the display area of the PC, are displayed and can be observed so that the efficiency of the data processing is enhanced.

Description

本発明は、情報処理装置、記憶媒体、情報処理システム、および情報処理方法、並びにプログラムに関する。さらに詳細には、実世界の実物体と電子的な表示を融合させた複合現実感(MR:Mixed Reality)を利用したデータ処理を行う情報処理装置、記憶媒体、情報処理システム、および情報処理方法、並びにプログラムに関する。   The present invention relates to an information processing apparatus, a storage medium, an information processing system, an information processing method, and a program. More specifically, an information processing apparatus, a storage medium, an information processing system, and an information processing method for performing data processing using mixed reality (MR) in which a real object in the real world and an electronic display are fused , As well as programs.

例えばユーザがPC(パーソナルコンピュータ)を利用したデータ処理を行う場合、ユーザは、PCの表示部(ディスプレイ)の表示データに対する処理を行う。例えばデータのコピーやカット(削除)を行う場合を例として説明する。この場合、ユーザは、表示部(ディスプレイ)に表示した文字列あるいは画像領域などを指定し、指定処理の後、コマンド入力によりデータをカット(削除)する処理、あるいは他の領域にコピーする処理を行う。   For example, when a user performs data processing using a PC (personal computer), the user performs processing on display data on a display unit (display) of the PC. For example, a case where data is copied or cut (deleted) will be described as an example. In this case, the user designates a character string or an image area displayed on the display unit (display), and after the designation process, performs a process of cutting (deleting) data by inputting a command or a process of copying to another area. Do.

このようなカットやコピー処理の対象とした処理データは、PC内のメモリに格納されるが、処理過程で表示領域からは消えてしまう場合がある。ユーザが、これらのカットやコピー対象とした処理データの内容を確認したい場合の処理としては、例えば以下の処理が必要となる。
(a)処理データを表示部(ディスプレイ)の一部領域に常に表示する。
(b)処理データをコピーバッファに格納し、ユーザ操作によってコピーバッファの格納データを読み出して表示部(ディスプレイ)に表示する。
(c)処理データをユーザ操作によって表示部(ディスプレイ)内の指定領域にペースト(貼り付け)して表示する。
The processing data targeted for such cut and copy processing is stored in the memory in the PC, but may disappear from the display area in the course of processing. As a process when the user wants to confirm the contents of the process data to be cut or copied, for example, the following process is required.
(A) The processing data is always displayed in a partial area of the display unit (display).
(B) The processing data is stored in the copy buffer, and the stored data in the copy buffer is read by a user operation and displayed on the display unit (display).
(C) The processing data is displayed by being pasted (pasted) in a designated area in the display unit (display) by a user operation.

例えば、上記のような方法を行えば、カット処理やコピー処理の処理データについて、その内容を確認することができる。
しかし、上記手法において、(a)の手法は、処理データを、常時表示部に表示することが必要となり、表示部の少なくとも一部領域が占有されてしまう。その結果、ユーザが表示部内で利用する主要ワーク領域、例えば文書作成画面の領域が狭くなってしまうといった問題が発生する。また、(b)の手法はコピーバッファの格納データを表示させるというユーザ操作が必要となり、ユーザの処理負担が増加するという問題がある。また(c)の手法もユーザ操作が必要であり、また処理データをペースト(貼り付け)した後に、ペーストしたデータの間違いに気づいた場合には削除処理や、やり直し(UNDO)といった新たな処理が必要となるという問題がある。
For example, if the method as described above is performed, the contents of the processing data of the cut process and the copy process can be confirmed.
However, in the above method, the method (a) requires that the processing data is always displayed on the display unit, and at least a partial area of the display unit is occupied. As a result, there arises a problem that the main work area that the user uses in the display unit, for example, the area of the document creation screen becomes narrow. Further, the method (b) requires a user operation to display the data stored in the copy buffer, which increases the processing load on the user. The method (c) also requires a user operation, and after pasting the processing data, if a mistake is found in the pasted data, new processing such as deletion processing or redo (UNDO) is performed. There is a problem that it is necessary.

本発明は、このような問題を、例えば複合現実感(MR:Mixed Reality)を利用したデータ処理を利用して解決するものである。なお、複合現実感について説明した従来技術としては、例えば特許文献1(特開2008−304268号公報)や、特許文献2(特開2008−304269号公報)がある。これらの文献には、カメラによって撮影された画像を利用して実世界の三次元マップを作成する処理について記載している。   The present invention solves such a problem by using data processing utilizing, for example, mixed reality (MR). In addition, as a prior art which demonstrated mixed reality, there exist patent document 1 (Unexamined-Japanese-Patent No. 2008-304268) and patent document 2 (Unexamined-Japanese-Patent No. 2008-304269), for example. These documents describe processing for creating a real-world three-dimensional map using an image taken by a camera.

特開2008−304268号公報JP 2008-304268 A 特開2008−304269号公報JP 2008-304269 A

本発明は、複合現実感(MR:Mixed Reality)を利用したデータ処理により、例えばPCなどの表示部(ディスプレイ)以外の領域に、様々なデータを電子的に貼り付けた合成画像を生成して、この合成画像を観察可能とすることで、主要ワーク領域として利用する表示部以外の空間領域を有効に利用可能とした情報処理装置、記憶媒体、情報処理システム、および情報処理方法、並びにプログラムを提供することを目的とする。   The present invention generates a composite image in which various data are electronically pasted in an area other than a display unit (display) such as a PC, for example, by data processing using mixed reality (MR). An information processing apparatus, a storage medium, an information processing system, an information processing method, and a program that enable effective use of a space area other than a display unit used as a main work area by enabling observation of the composite image The purpose is to provide.

本発明の第1の側面は、
撮影画像に含まれるユーザの手の指の三次元位置情報を取得する位置情報取得部と、
ユーザの手の指と仮想オブジェクトを合成した合成画像を生成する画像生成部を有し、
前記画像生成部は、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成する情報処理装置にある。
The first aspect of the present invention is:
A position information acquisition unit that acquires three-dimensional position information of the finger of the user's hand included in the captured image;
An image generation unit that generates a composite image obtained by combining a finger of a user's hand and a virtual object;
The image generation unit is in an information processing apparatus that determines the display position of the virtual object based on the three-dimensional position information of the finger of the user's hand acquired by the position information acquisition unit and generates the composite image.

さらに、本発明の情報処理装置の一実施態様において、前記画像生成部は、ユーザの手の指の三次元位置情報に応じて前記仮想オブジェクト表示位置を動的に変更する。   Furthermore, in one embodiment of the information processing apparatus of the present invention, the image generation unit dynamically changes the virtual object display position according to the three-dimensional position information of the finger of the user's hand.

さらに、本発明の情報処理装置の一実施態様において、前記位置情報取得部は、ユーザの複数の指各々の三次元位置情報を取得し、前記画像生成部は、前記位置情報取得部の取得した複数の指各々の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成する。   Furthermore, in one embodiment of the information processing device of the present invention, the position information acquisition unit acquires three-dimensional position information of each of a plurality of fingers of the user, and the image generation unit acquires the position information acquisition unit. The composite image is generated by determining the display position of the virtual object based on the three-dimensional position information of each of a plurality of fingers.

さらに、本発明の情報処理装置の一実施態様において、前記位置情報取得部は、撮影画像に含まれるオブジェクトの三次元位置情報を解析する三次元情報解析部を含む構成である。   Furthermore, in one embodiment of the information processing apparatus of the present invention, the position information acquisition unit includes a three-dimensional information analysis unit that analyzes three-dimensional position information of an object included in the captured image.

さらに、本発明の情報処理装置の一実施態様において、前記三次元情報解析部は、画像解析により人の手または指と判断されるオブジェクトを検出する手認識モジュールを有する。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the three-dimensional information analysis unit has a hand recognition module that detects an object that is determined to be a human hand or finger by image analysis.

さらに、本発明の情報処理装置の一実施態様において、前記位置情報取得部は、撮影画像に含まれるユーザの手の指の三次元位置情報を外部から取得する。   Furthermore, in one embodiment of the information processing apparatus of the present invention, the position information acquisition unit acquires the three-dimensional position information of the finger of the user's hand included in the captured image from the outside.

さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は表示部を有し、前記画像生成部は、生成した合成画像を前記表示部に出力する。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the information processing apparatus includes a display unit, and the image generation unit outputs the generated composite image to the display unit.

さらに、本発明の情報処理装置の一実施態様において、前記表示部は、メガネ型表示装置である。   Furthermore, in an embodiment of the information processing apparatus according to the present invention, the display unit is a glasses-type display device.

さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、前記撮影画像を撮影する撮像部を有する。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the information processing apparatus includes an imaging unit that captures the captured image.

さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、撮像部と表示部を備えたメガネ型表示装置を有し、前記画像生成部は、前記メガネ型表示装置の撮像部が撮影した実画像に前記仮想オブジェクトを重畳した合成画像を生成して、前記メガネ型表示装置の表示部に出力する。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the information processing apparatus includes a glasses-type display device including an imaging unit and a display unit, and the image generation unit is an imaging unit of the glasses-type display device. Generates a composite image in which the virtual object is superimposed on the actual image taken by the camera and outputs the composite image to the display unit of the glasses-type display device.

さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、通信部を有し、前記画像生成部は、前記通信部を介して入力するデータに基づいて前記仮想オブジェクトを生成する。   Furthermore, in an embodiment of the information processing apparatus according to the present invention, the information processing apparatus includes a communication unit, and the image generation unit generates the virtual object based on data input via the communication unit. .

さらに、本発明の情報処理装置の一実施態様において、前記情報処理装置は、前記通信部を介した入力データを格納するメモリを有し、前記画像生成部は、前記メモリに格納したデータに基づいて前記仮想オブジェクトを生成する。   Furthermore, in an embodiment of the information processing apparatus of the present invention, the information processing apparatus includes a memory that stores input data via the communication unit, and the image generation unit is based on the data stored in the memory. To generate the virtual object.

さらに、本発明の情報処理装置の一実施態様において、前記画像生成部は、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置をユーザの手の指の位置に設定して前記合成画像を生成する。   Furthermore, in one embodiment of the information processing apparatus of the present invention, the image generation unit determines the display position of the virtual object based on the three-dimensional position information of the finger of the user's hand acquired by the position information acquisition unit. The composite image is generated at the position of the finger of the hand.

さらに、本発明の情報処理装置の一実施態様において、前記画像生成部は、ユーザが生成または選択したデータを前記仮想オブジェクトに設定して前記合成画像を生成する。   Furthermore, in one embodiment of the information processing apparatus of the present invention, the image generation unit sets the data generated or selected by a user to the virtual object and generates the composite image.

さらに、本発明の第2の側面は、
複合現実感生成装置と、データ処理装置を有する情報処理システムであり、
前記データ処理装置は、
通信部を介して前記複合現実感生成装置にデータを送信し、
前記複合現実感生成装置は、
撮影画像に含まれるユーザの手の指の三次元位置情報を取得する位置情報取得部と、
ユーザの手の指と、前記データ処理装置からの受信データに基づいて生成した仮想オブジェクトを合成した合成画像を生成する画像生成部を有し、
前記画像生成部は、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成する構成である情報処理システムにある。
Furthermore, the second aspect of the present invention provides
An information processing system having a mixed reality generation device and a data processing device,
The data processing device includes:
Send data to the mixed reality generation device via a communication unit,
The mixed reality generation device includes:
A position information acquisition unit that acquires three-dimensional position information of the finger of the user's hand included in the captured image;
An image generation unit that generates a composite image obtained by combining a finger of a user's hand and a virtual object generated based on received data from the data processing device;
In the information processing system configured to generate the composite image by determining the display position of the virtual object based on the three-dimensional position information of the finger of the user's hand acquired by the position information acquisition unit. is there.

さらに、本発明の第3の側面は、
複合現実感生成装置と、撮像部と表示部を有する表示装置を有する情報処理システムであり、
前記表示装置は、撮像部の撮影画像を前記複合現実感生成装置に出力し、
前記複合現実感生成装置は、
前記撮影画像に含まれるユーザの手の指の三次元位置情報を取得する位置情報取得部と、
ユーザの手の指と、前記データ処理装置からの受信データに基づいて生成した仮想オブジェクトを合成した合成画像を生成する画像生成部を有し、
前記画像生成部は、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成して、前記表示装置の表示部に出力して表示する情報処理システムにある。
Furthermore, the third aspect of the present invention provides
An information processing system having a mixed reality generating device and a display device having an imaging unit and a display unit,
The display device outputs a captured image of the imaging unit to the mixed reality generation device,
The mixed reality generation device includes:
A position information acquisition unit for acquiring three-dimensional position information of a finger of a user's hand included in the captured image;
An image generation unit that generates a composite image obtained by combining a finger of a user's hand and a virtual object generated based on received data from the data processing device;
The image generation unit determines the display position of the virtual object based on the three-dimensional position information of the finger of the user's hand acquired by the position information acquisition unit, generates the composite image, and displays the display on the display device In the information processing system that outputs to the display and displays.

さらに、本発明の第4の側面は、
情報処理装置に情報処理を実行させるプログラムを記憶した記憶媒体であり、
撮影画像に含まれるユーザの手の指の三次元位置情報を取得する位置情報取得処理と、
ユーザの手の指と仮想オブジェクトを合成した合成画像を生成する画像生成処理を実行させ、
前記画像生成処理において、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成させるプログラムを記憶した記憶媒体にある。
Furthermore, the fourth aspect of the present invention provides
A storage medium storing a program for causing an information processing apparatus to execute information processing;
Position information acquisition processing for acquiring the three-dimensional position information of the finger of the user's hand included in the captured image;
Perform image generation processing to generate a composite image that combines the finger of the user's hand and the virtual object,
In the image generation process, a storage medium storing a program for determining the display position of the virtual object based on the three-dimensional position information of the finger of the user's hand acquired by the position information acquisition unit and generating the composite image is there.

さらに、本発明の記憶媒体の一実施態様において、前記プログラムは、前記画像生成処理において、ユーザの手の指の三次元位置情報に応じて前記仮想オブジェクト表示位置を動的に変更させるプログラムである。   Furthermore, in an embodiment of the storage medium of the present invention, the program is a program that dynamically changes the virtual object display position in accordance with the three-dimensional position information of the finger of the user's hand in the image generation process. .

さらに、本発明の記憶媒体の一実施態様において、前記プログラムは、前記位置情報取得処理において、ユーザの複数の指各々の三次元位置情報を取得させ、前記画像生成処理において、前記位置情報取得処理に際して取得した複数の指各々の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成させるプログラムである。   Furthermore, in one embodiment of the storage medium of the present invention, the program causes the position information acquisition process to acquire three-dimensional position information of each of a plurality of fingers of the user, and the position information acquisition process in the image generation process. This is a program for determining the display position of the virtual object based on the three-dimensional position information of each of the plurality of fingers acquired at the time and generating the composite image.

さらに、本発明の記憶媒体の一実施態様において、前記プログラムは、前記位置情報取得処理において、撮影画像に含まれるオブジェクトの三次元位置情報の解析処理を実行させるプログラムである。   Furthermore, in one embodiment of the storage medium of the present invention, the program is a program for executing an analysis process of the three-dimensional position information of the object included in the captured image in the position information acquisition process.

さらに、本発明の記憶媒体の一実施態様において、前記プログラムは、前記三次元情報解析処理において、画像解析により人の手または指と判断されるオブジェクトを検出する手認識モジュールを利用した処理を実行させるプログラムである。   Furthermore, in an embodiment of the storage medium of the present invention, the program executes processing using a hand recognition module that detects an object that is determined to be a human hand or finger by image analysis in the three-dimensional information analysis processing. It is a program to let you.

さらに、本発明の記憶媒体の一実施態様において、前記プログラムは、前記位置情報取得処理において、撮影画像に含まれるユーザの手の指の三次元位置情報を外部から取得させるプログラムである。   Furthermore, in one embodiment of the storage medium of the present invention, the program is a program for acquiring, from the outside, three-dimensional position information of a finger of a user's hand included in a captured image in the position information acquisition process.

さらに、本発明の記憶媒体の一実施態様において、前記プログラムは、前記画像生成処理において生成した合成画像を前記表示部に出力させるプログラムである。   Furthermore, in an embodiment of the storage medium of the present invention, the program is a program that causes the display unit to output a composite image generated in the image generation process.

さらに、本発明の記憶媒体の一実施態様において、前記プログラムは、前記画像生成処理において、撮像部と表示部を備えた表示装置の撮像部が撮影した実画像に前記仮想オブジェクトを重畳した合成画像を生成させて、前記表示装置の表示部に出力させるプログラムである。   Furthermore, in one embodiment of the storage medium of the present invention, the program is a composite image in which the virtual object is superimposed on a real image captured by an imaging unit of a display device including an imaging unit and a display unit in the image generation process. Is generated and output to the display unit of the display device.

さらに、本発明の記憶媒体の一実施態様において、前記プログラムは、前記画像生成処理において、通信部を介して入力するデータに基づいて前記仮想オブジェクトを生成させるプログラムである。   Furthermore, in an embodiment of the storage medium of the present invention, the program is a program that generates the virtual object based on data input via a communication unit in the image generation processing.

さらに、本発明の記憶媒体の一実施態様において、前記情報処理装置は、通信部を介した入力データを格納するメモリを有し、前記プログラムは、前記画像生成処理において、前記メモリに格納したデータに基づいて前記仮想オブジェクトを生成させるプログラムである。   Furthermore, in an embodiment of the storage medium of the present invention, the information processing apparatus has a memory for storing input data via a communication unit, and the program stores data stored in the memory in the image generation process. Is a program for generating the virtual object based on the program.

さらに、本発明の記憶媒体の一実施態様において、前記プログラムは、前記画像生成処理において、前記位置情報取得処理に際して取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置をユーザの手の指の位置に設定して前記合成画像を生成させるプログラムである。   Furthermore, in one embodiment of the storage medium of the present invention, the program is configured to display the display position of the virtual object based on the three-dimensional position information of the finger of the user's hand acquired in the position information acquisition process in the image generation process. Is set to the position of the finger of the user's hand to generate the composite image.

さらに、本発明の記憶媒体の一実施態様において、前記プログラムは、前記画像生成処理において、ユーザが生成または選択したデータを前記仮想オブジェクトに設定して前記合成画像を生成させるプログラムである。   Furthermore, in an embodiment of the storage medium of the present invention, the program is a program for generating the composite image by setting data generated or selected by a user in the virtual object in the image generation process.

さらに、本発明の第5の側面は、
情報処理装置において実行する情報処理方法であり、
位置情報取得部が、撮影画像に含まれるユーザの手の指の三次元位置情報を取得する位置情報取得処理ステップと、
画像生成部が、ユーザの手の指と仮想オブジェクトを合成した合成画像を生成する画像生成ステップを実行し、
前記画像生成ステップは、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成するステップである情報処理方法にある。
Furthermore, the fifth aspect of the present invention provides
An information processing method executed in an information processing apparatus,
A position information acquisition processing step in which the position information acquisition unit acquires the three-dimensional position information of the finger of the user's hand included in the captured image;
The image generation unit executes an image generation step of generating a composite image in which the finger of the user's hand and the virtual object are combined,
In the information processing method, the image generation step is a step of determining the display position of the virtual object based on the three-dimensional position information of the finger of the user's hand acquired by the position information acquisition unit and generating the composite image. is there.

さらに、本発明の第6の側面は、
情報処理装置に情報処理を実行させるプログラムであり、
位置情報取得部に、撮影画像に含まれるユーザの手の指の三次元位置情報を取得させる位置情報取得処理ステップと、
画像生成部に、ユーザの手の指と仮想オブジェクトを合成した合成画像を生成させる画像生成ステップを実行させ、
前記画像生成ステップにおいて、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成させるプログラムにある。
Furthermore, the sixth aspect of the present invention provides
A program for causing an information processing apparatus to execute information processing,
A position information acquisition processing step for causing the position information acquisition unit to acquire three-dimensional position information of the finger of the user's hand included in the captured image;
Causing the image generation unit to execute an image generation step of generating a composite image obtained by combining the finger of the user's hand and the virtual object;
In the image generation step, there is a program for determining the display position of the virtual object based on the three-dimensional position information of the finger of the user's hand acquired by the position information acquisition unit and generating the composite image.

なお、本発明のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、画像処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。   The program of the present invention is a program that can be provided by, for example, a storage medium or a communication medium provided in a computer-readable format to an image processing apparatus or a computer system that can execute various program codes. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the image processing apparatus or the computer system.

本発明のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Other objects, features, and advantages of the present invention will become apparent from a more detailed description based on embodiments of the present invention described later and the accompanying drawings. In this specification, the system is a logical set configuration of a plurality of devices, and is not limited to one in which the devices of each configuration are in the same casing.

本発明の一実施例の構成によれば、例えばPCを適用したデータ処理において、削除処理やコピー処理の対象としたデータなどPCの表示部に表示されないデータを仮想オブジェクトとして設定し、ユーザの手の指などに貼り付けて、常に観察することを可能な構成とした。本構成によれば、PCの表示領域に表示されないデータをPCの表示領域以外の空間に貼り付けて表示して観察することが可能となり、データ処理の効率を高めることが可能となる。   According to the configuration of an embodiment of the present invention, for example, in data processing to which a PC is applied, data that is not displayed on the display unit of the PC, such as data to be deleted or copied, is set as a virtual object. A structure that can be always observed by pasting on a finger or the like. According to this configuration, data that is not displayed in the display area of the PC can be pasted and displayed in a space other than the display area of the PC, and the efficiency of data processing can be increased.

本発明の情報処理装置の一実施例構成について説明する図である。It is a figure explaining one Example structure of the information processing apparatus of this invention. 本発明の情報処理装置の実行する仮想オブジェクトの表示例について説明する図である。It is a figure explaining the example of a display of the virtual object which the information processing apparatus of this invention performs. 本発明の情報処理装置の実行する一処理例について説明する図である。It is a figure explaining the example of 1 process which the information processing apparatus of this invention performs. 本発明の情報処理装置の実行する仮想オブジェクトの表示例について説明する図である。It is a figure explaining the example of a display of the virtual object which the information processing apparatus of this invention performs. 本発明の情報処理装置の実行する仮想オブジェクト貼り付け位置の設定登録処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the setting registration process sequence of the virtual object paste position which the information processing apparatus of this invention performs. 本発明の情報処理装置の実行する仮想オブジェクト貼り付け位置の設定登録において利用するテーブルの構成例について説明する図である。It is a figure explaining the structural example of the table utilized in the setting registration of the virtual object paste position which the information processing apparatus of this invention performs. 本発明の情報処理装置の実行する仮想オブジェクト貼り付け処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the virtual object sticking process sequence which the information processing apparatus of this invention performs. 本発明の情報処理装置の実行する仮想オブジェクト対応データを利用したデータ処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the data processing sequence using the virtual object corresponding data which the information processing apparatus of this invention performs. 本発明の情報処理装置の実行する仮想オブジェクト対応データを利用したデータ処理シーケンスについて説明するフローチャートを示す図である。It is a figure which shows the flowchart explaining the data processing sequence using the virtual object corresponding data which the information processing apparatus of this invention performs. 本発明の情報処理装置の実行する仮想オブジェクトの表示例について説明する図である。It is a figure explaining the example of a display of the virtual object which the information processing apparatus of this invention performs. 本発明の情報処理装置の実行する仮想オブジェクト貼り付け位置の設定登録において利用するテーブルの構成例について説明する図である。It is a figure explaining the structural example of the table utilized in the setting registration of the virtual object paste position which the information processing apparatus of this invention performs.

以下、図面を参照しながら本発明の情報処理装置、記憶媒体、情報処理システム、および情報処理方法、並びにプログラムの詳細について説明する。   Hereinafter, details of an information processing apparatus, a storage medium, an information processing system, an information processing method, and a program according to the present invention will be described with reference to the drawings.

本発明について以下の項目に従って順次説明する。
1.本発明の情報処理装置の構成例と処理例について
2.本発明の情報処理装置の実行する処理のシーケンス例について
3.仮想オブジェクトの貼り付け対象とする実オブジェクトの例について
The present invention will be described in order according to the following items.
1. 1. Configuration example and processing example of information processing apparatus of the present invention 2. Sequence example of processing executed by information processing apparatus of the present invention Example of real object to paste virtual object

[1.本発明の情報処理装置の構成例と処理例について]
本発明の情報処理装置の構成例と処理例について図1以下を参照して説明する。図1は、本発明の情報処理装置の一構成例を示す図である。
[1. Configuration example and processing example of information processing apparatus of the present invention]
A configuration example and a processing example of the information processing apparatus of the present invention will be described with reference to FIG. FIG. 1 is a diagram illustrating a configuration example of an information processing apparatus according to the present invention.

ユーザ100は、PC(パーソナルコンピュータ)120を操作して、各種のデータ処理を行うことができる。PC120は、図に示すように、アプリケーション実行部121、メモリ122、通信部123を有する。アプリケーション実行部121では、ユーザの選択したアプリケーションプログラムが実行される。例えば文書作成アプリケーションや描画アプリケーションなどである。メモリ122は、RAM,ROM等によって構成され、アプリケーションプログラムの格納領域やワークエリアとして利用される。例えば、以下において説明するコピー処理やカット処理などにおける処理データの格納領域としても利用される。通信部123は、複合現実間(MR:Mixed Reality)生成装置130との通信処理を行う。   A user 100 can perform various data processing by operating a PC (personal computer) 120. As shown in the figure, the PC 120 includes an application execution unit 121, a memory 122, and a communication unit 123. In the application execution unit 121, the application program selected by the user is executed. For example, a document creation application or a drawing application. The memory 122 includes a RAM, a ROM, etc., and is used as a storage area or work area for application programs. For example, it is also used as a storage area for processing data in copy processing and cut processing described below. The communication unit 123 performs communication processing with the mixed reality (MR) generating device 130.

ユーザ100は、仮想オブジェクトを表示するディスプレイを有するメガネ141を装着している。メガネ141には周囲の環境を撮影するカメラ142が備えられている。メガネ141とカメラ142は、複合現実間(MR:Mixed Reality)生成装置130に接続されている。ユーザ100はメガネ141に設けられたディスプレイの表示画像を観察しながら作業を行う。   The user 100 is wearing glasses 141 having a display for displaying a virtual object. The glasses 141 are provided with a camera 142 that captures the surrounding environment. The glasses 141 and the camera 142 are connected to a mixed reality (MR) generator 130. The user 100 works while observing the display image on the display provided in the glasses 141.

メガネ141のディスプレイには、カメラ142の撮影画像である実世界画像を表示し、さらに複合現実感(MR)生成装置130の生成した仮想オブジェクトを実世界画像に併せて表示する。   On the display of the glasses 141, a real world image that is a photographed image of the camera 142 is displayed, and a virtual object generated by the mixed reality (MR) generation device 130 is displayed together with the real world image.

図1の例において、ユーザ100はPC(パーソナルコンピュータ)120を操作しており、カメラ142は、ユーザ100の操作するPC(パーソナルコンピュータ)120を撮影している。従って、メガネ141のディスプレイには、実世界画像として、例えば、ユーザ100の操作するPC(パーソナルコンピュータ)120のディスプレイとその周囲の様々な実オブジェクトを含む画像が表示される。さらに、この実世界画像に複合現実感(MR)生成装置130の生成した仮想オブジェクトが重ねて表示される。ユーザ100の動きに応じて、カメラ142の向きも変更され、例えばユーザが自分の手を見た場合、手の画像が実世界画像としてメガネ141のディスプレイに表示され、その実世界画像に仮想オブジェクトが併せて表示されることになる。例えば図2に示すような実オブジェクトと仮想オブジェクトの合成画像がディスプレイ表示画像200として表示される。   In the example of FIG. 1, the user 100 operates a PC (personal computer) 120, and the camera 142 photographs a PC (personal computer) 120 operated by the user 100. Therefore, on the display of the glasses 141, for example, an image including a display of a PC (personal computer) 120 operated by the user 100 and various real objects around it is displayed as a real world image. Further, the virtual object generated by the mixed reality (MR) generation device 130 is displayed superimposed on the real world image. Depending on the movement of the user 100, the orientation of the camera 142 is also changed. For example, when the user looks at his / her hand, an image of the hand is displayed on the display of the glasses 141 as a real world image, and a virtual object is displayed on the real world image. It will also be displayed. For example, a composite image of a real object and a virtual object as shown in FIG.

図2についての説明の前に、図1に示す複合現実感(MR)生成装置130の構成について説明する。複合現実感(MR)生成装置130は、図1に示すように、三次元情報解析部131、仮想オブジェクト管理モジュール132、メモリ133、通信部134を有する。   Prior to the description of FIG. 2, the configuration of the mixed reality (MR) generation device 130 shown in FIG. 1 will be described. As shown in FIG. 1, the mixed reality (MR) generation device 130 includes a three-dimensional information analysis unit 131, a virtual object management module 132, a memory 133, and a communication unit 134.

三次元情報解析部131は、ユーザの装着したカメラ142の撮影画像を入力し、撮影画像に含まれるオブジェクトの三次元位置を解析する処理を行う。この三次元位置解析処理は、例えば、SLAM(simultaneous localization and mapping)を適用した処理として行われる。SLAMは、カメラの撮影画像に含まれる様々な実オブジェクトから特徴点を選択し、選択した特徴点の位置とカメラの位置姿勢を併せて検出する処理である。なお、SLAMについては、前述の特許文献1(特開2008−304268号公報)や、特許文献2(特開2008−304269号公報)に記載されている。なお、SLAMの基本的な処理については、論文[Andrew J.Davison,"Real−time simultaneous localisation and mapping with a single camera",Proceedings of the 9th International Conference on Computer Vision,Ninth,(2003)]に記載がある。   The three-dimensional information analysis unit 131 inputs a photographed image of the camera 142 worn by the user and performs a process of analyzing the three-dimensional position of the object included in the photographed image. This three-dimensional position analysis process is performed as a process to which, for example, SLAM (simultaneous localization and mapping) is applied. SLAM is a process of selecting a feature point from various real objects included in a captured image of a camera and detecting the position of the selected feature point and the position and orientation of the camera together. Note that SLAM is described in Patent Document 1 (Japanese Patent Laid-Open No. 2008-304268) and Patent Document 2 (Japanese Patent Laid-Open No. 2008-304269). The basic processing of SLAM is described in the paper [Andrew J. Davison, “Real-time simultaneous localization and mapping with a single camera”, Proceedings of the 9th International Conference on Computer Vision, 3] (200).

三次元情報解析部131は、例えば上記のSLAMを適用してユーザの装着したカメラ142の撮影画像に含まれる実オブジェクトの三次元位置を算出する。ただし三次元情報解析部131は、上記のSLAMに限らず、その他の方法でカメラ撮影画像に含まれるオブジェクトの三次元位置を求める設定であってもよい。   The three-dimensional information analysis unit 131 calculates the three-dimensional position of the real object included in the photographed image of the camera 142 worn by the user by applying the above SLAM, for example. However, the three-dimensional information analysis unit 131 is not limited to the above-described SLAM, and may be set to obtain the three-dimensional position of the object included in the camera captured image by other methods.

仮想オブジェクト管理モジュール132は、ユーザの装着したメガネ141のディスプレイに表示する仮想オブジェクトの管理を行う。仮想オブジェクトは、メモリ133に格納されたデータである。具体的には、例えば、ユーザの装着したメガネ141のディスプレイには、図2に示すディスプレイ表示画像200が表示される。ディスプレイ表示画像200に含まれる手の画像は、カメラ142によって撮影された実画像(実オブジェクト)である。この実画像(実オブジェクト)に対して図2に示す仮想オブジェクト201〜203が併せて表示される。   The virtual object management module 132 manages virtual objects displayed on the display of the glasses 141 worn by the user. The virtual object is data stored in the memory 133. Specifically, for example, the display display image 200 shown in FIG. 2 is displayed on the display of the glasses 141 worn by the user. The hand image included in the display display image 200 is a real image (real object) taken by the camera 142. Virtual objects 201 to 203 shown in FIG. 2 are displayed together with this real image (real object).

図1に示すユーザ100は、ユーザ100の手に図1に示す仮想オブジェクト150が張り付いた画像をメガネ141のディスプレイによって観察することができる。図1に示す仮想オブジェクト150は、図2に示す仮想オブジェクト201〜203に対応し現実世界のオブジェクト(実オブジェクト)ではない。   The user 100 illustrated in FIG. 1 can observe an image in which the virtual object 150 illustrated in FIG. A virtual object 150 illustrated in FIG. 1 corresponds to the virtual objects 201 to 203 illustrated in FIG. 2 and is not a real-world object (real object).

図1に示す仮想オブジェクト150に対応するデータである図2に示す仮想オブジェクト201〜203は、ユーザ100によるPC120の操作によって、コピー処理やカット処理のなされた処理データである。この処理データは、ユーザ100のPC120に対する操作に従い、PC120のアプリケーション実行部121の処理によって、PC120内のメモリ122に格納される。   Virtual objects 201 to 203 shown in FIG. 2 that are data corresponding to the virtual object 150 shown in FIG. 1 are processing data that has been subjected to copy processing and cut processing by the operation of the PC 120 by the user 100. This processing data is stored in the memory 122 in the PC 120 by the processing of the application execution unit 121 of the PC 120 according to the operation of the user 100 on the PC 120.

メモリ122に格納されたデータは、PC120の通信部123と、複合現実感(MR)生成装置130の通信部134との通信によって、複合現実感(MR)生成装置130に送信される。複合現実感(MR)生成装置130は、PC120からの受信データを複合現実感(MR)生成装置130内のメモリ133に格納する。   The data stored in the memory 122 is transmitted to the mixed reality (MR) generation device 130 through communication between the communication unit 123 of the PC 120 and the communication unit 134 of the mixed reality (MR) generation device 130. The mixed reality (MR) generation device 130 stores the received data from the PC 120 in the memory 133 in the mixed reality (MR) generation device 130.

複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータを仮想オブジェクトとしてユーザの装着したメガネ141のディスプレイに表示する処理を行う。具体的には、例えば仮想オブジェクトの表示位置を決定して、決定した表示位置に仮想オブジェクトを表示する処理を行う。   The virtual object management module 132 of the mixed reality (MR) generation device 130 performs processing for displaying the data stored in the memory 133 as a virtual object on the display of the glasses 141 worn by the user. Specifically, for example, a display position of the virtual object is determined, and a process of displaying the virtual object at the determined display position is performed.

図2に示す例では、3つの仮想オブジェクト201〜203を、実世界画像として表示されるユーザの[手]のそれぞれの指の指先に表示位置を設定して表示した例を示している。
仮想オブジェクト201[Change]、
仮想オブジェクト202[Yes,we can]、
仮想オブジェクト203[写真画像]、
これらは、いずれもユーザ100によるPC120の操作によって、カットあるいはコピー対象データとしてPC120のメモリ122に格納されたデータである。これらのデータが通信によって複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130のメモリ133に格納される。複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、メモリ133に格納されたデータを仮想オブジェクトとして、各仮想オブジェクトの表示位置を決定する処理を行ない、ユーザの装着したメガネ141のディスプレイに表示する。
In the example illustrated in FIG. 2, three virtual objects 201 to 203 are displayed with the display positions set on the fingertips of the respective fingers of the user's [hand] displayed as a real world image.
Virtual object 201 [Change],
Virtual object 202 [Yes, we can],
Virtual object 203 [photograph image],
These are all data stored in the memory 122 of the PC 120 as data to be cut or copied by the operation of the PC 120 by the user 100. These data are transmitted to the mixed reality (MR) generator 130 by communication and stored in the memory 133 of the mixed reality (MR) generator 130. The virtual object management module 132 of the mixed reality (MR) generation device 130 performs processing for determining the display position of each virtual object using the data stored in the memory 133 as a virtual object, and displays the display of the glasses 141 worn by the user. To display.

なお、図1に示す装置では、PC120と、複合現実感(MR)生成装置130の2つの装置を別の装置として両装置間のデータ通信を行う構成としているが、PC120と、複合現実感(MR)生成装置130を1つの装置として構成することも可能であり、この場合、図1に示す各装置の通信部は省略できる。例えばPC120に複合現実感(MR)生成装置130の三次元情報解析部131、仮想オブジェクト管理モジュール132を設定して、1つのPC内で処理を行なう構成とすることも可能である。   In the apparatus shown in FIG. 1, the PC 120 and the mixed reality (MR) generation apparatus 130 are used as separate apparatuses for data communication between the two apparatuses. However, the PC 120 and the mixed reality ( The MR) generation device 130 can be configured as one device. In this case, the communication unit of each device shown in FIG. 1 can be omitted. For example, the three-dimensional information analysis unit 131 and the virtual object management module 132 of the mixed reality (MR) generation device 130 may be set in the PC 120 to perform processing in one PC.

すなわち、図1には、PC(パーソナルコンピュータ)120と複合現実間(MR:Mixed Reality)生成装置130を示しているが、本発明の情報処理装置は、図1に示す複合現実間(MR:Mixed Reality)生成装置130単独の装置としてもよいし、複合現実間(MR:Mixed Reality)生成装置130とPC120の2つの装置から構成される装置であってもよい。あるいは2つの装置の機能を合わせ持つ1つの装置によって構成することもできる。   In other words, FIG. 1 shows a PC (personal computer) 120 and a mixed reality (MR) generator 130, but the information processing apparatus of the present invention is a mixed reality (MR :) shown in FIG. A mixed reality (MR) generation device 130 may be a single device or a mixed reality (MR) generation device 130 and a PC 120. Or it can also be comprised by one apparatus which has the function of two apparatuses together.

図1の構成を適用した具体的な処理例について図3以下を参照して説明する。例えばユーザ100は、PC120のアプリケーション実行部121において文書作成アプリケーションを実行し、図3に示すような文書を作成している。ここでデータ領域301を設定して、カットコマンドを入力するとデータ領域301のデータは、PC120のメモリ122に格納される。その後、このデータは、通信処理によって、複合現実感(MR)生成装置130に送信され、複合現実感(MR)生成装置130内のメモリ133に格納される。   A specific processing example to which the configuration of FIG. 1 is applied will be described with reference to FIG. For example, the user 100 executes a document creation application in the application execution unit 121 of the PC 120 to create a document as shown in FIG. Here, when the data area 301 is set and a cut command is input, the data in the data area 301 is stored in the memory 122 of the PC 120. Thereafter, this data is transmitted to the mixed reality (MR) generation device 130 by communication processing and stored in the memory 133 in the mixed reality (MR) generation device 130.

複合現実感(MR)生成装置130の三次元情報解析部131は、ユーザ100に装着したカメラ142の撮影画像を入力し、例えばSLAMを適用して撮影画像に含まれるオブジェクトの三次元位置を算出する。例えば図3に示すPCのディスプレイの4隅に設定されたマーカー321a〜dを特徴点として選択し、これらの特徴点の三次元位置を算出する。   The three-dimensional information analysis unit 131 of the mixed reality (MR) generation device 130 inputs a photographed image of the camera 142 attached to the user 100 and calculates the three-dimensional position of the object included in the photographed image by applying, for example, SLAM. To do. For example, markers 321a to 321d set at the four corners of the PC display shown in FIG. 3 are selected as feature points, and the three-dimensional positions of these feature points are calculated.

なお、図3に示す例は、特徴点の識別のためにマーカー321a〜dを設定した例を示しているが、このようなマーカーを設定することは必須ではなく、オブジェクトの形状、例えば画像からオブジェクトの角部(コーナー)を検出し、検出した角部(コーナー)を特徴点として選択して、その特徴点の三次元位置を判定することも可能である。なお、角部(コーナー)の検出処理は、既存のハリスコーナーディテクター(Harris Corner Detector)を用いた特徴点抽出処理によって実行可能である。   The example shown in FIG. 3 shows an example in which the markers 321a to 321d are set for identifying the feature points. However, it is not essential to set such markers. It is also possible to detect a corner (corner) of an object, select the detected corner (corner) as a feature point, and determine the three-dimensional position of the feature point. The corner detection process can be performed by a feature point extraction process using an existing Harris Corner Detector.

なお、三次元情報解析部131は、撮影画像から特定のオブジェクトを検出する機能を持つ構成としてもよい。具体的には、人の手や指を認識する手認識モジュールを供える構成とすることが可能である。手認識モジュールは、画像の解析により、人の手や指と判断されるオブジェクトを検出するモジュールである。このような特定オブジェクト検出モジュールは、特定のオブジェクト(例えば人の手や指)の特徴情報を保持し、その特徴情報を持つオブジェクトを画像から検出た場合にその検出オブジェクトを特定オブジェクトと判定する処理を行う。   Note that the three-dimensional information analysis unit 131 may have a function of detecting a specific object from a captured image. Specifically, a configuration in which a hand recognition module for recognizing a human hand or finger can be provided. The hand recognition module is a module that detects an object that is determined to be a human hand or finger by analyzing an image. Such a specific object detection module retains characteristic information of a specific object (for example, a human hand or a finger), and determines an detected object as a specific object when an object having the characteristic information is detected from an image. I do.

なお、指の認識アルゴリズムを開示した文献として以下の文献がある。[Handy AR: Markerless Inspection of Augmented Reality Objects Using Fingertip Tracking]。例えば、三次元情報解析部131を、この文献に記載されたアルゴリズムを実行するモジュールを備えた構成とし、人の手や指を認識する処理を実行する構成とする。   The following documents disclose the finger recognition algorithm. [Handy AR: Markerless Inspection of Augmented Reality Objects Using Finger Tracking]. For example, the three-dimensional information analysis unit 131 is configured to include a module that executes an algorithm described in this document, and configured to execute processing for recognizing a human hand or finger.

カメラ142によって撮影された画像からユーザの手の各指の三次元位置を算出し、その位置に仮想オブジェクトを貼り付けて表示することで、先に図2を参照して説明したディスプレイ表示画像200が生成可能となる。   By calculating the three-dimensional position of each finger of the user's hand from the image taken by the camera 142 and pasting and displaying the virtual object at that position, the display display image 200 described above with reference to FIG. Can be generated.

仮想オブジェクト管理モジュール132は、三次元情報解析部131からカメラ撮影画像に含まれる実オブジェクトの三次元位置情報を取得する。例えばユーザの各指の位置情報を取得する。さらに、仮想オブジェクト管理モジュール132は、メモリ133に格納されたコピーデータやカットデータを取得し、取得したデータを仮想オブジェクトとして、ユーザの各指の位置に貼り付けた画像をユーザ100の装着したメガネ141のディスプレイに表示する処理を行う。   The virtual object management module 132 acquires the 3D position information of the real object included in the camera captured image from the 3D information analysis unit 131. For example, the position information of each finger of the user is acquired. Further, the virtual object management module 132 acquires copy data and cut data stored in the memory 133, and uses the acquired data as a virtual object as an image pasted on the position of each finger of the user 100. A process of displaying on the display 141 is performed.

図3に示すデータ領域301が、ユーザによってカットされ、仮想オブジェクトとして設定された場合、ユーザ100の装着したメガネ141のディスプレイに表示されるデータの例を図4に示す。図4に示すディスプレイ表示画像350は、ユーザ100の装着したメガネ141のディスプレイに表示される画像である。   FIG. 4 shows an example of data displayed on the display of the glasses 141 worn by the user 100 when the data area 301 shown in FIG. 3 is cut by the user and set as a virtual object. A display display image 350 illustrated in FIG. 4 is an image displayed on the display of the glasses 141 worn by the user 100.

マーカー321a〜dの設定されたディスプレイの画像は、ユーザ100の操作するPC120の実画像である。カメラ142の撮影した実画像である。また、手360もユーザの実際の手の画像ある。この実画像に対して、仮想オブジェクト371が併せて表示される。仮想オブジェクト371は、ユーザ100によるPC120に対する処理において処理対象としたデータ、例えばカット処理やコピー処理としたデータである。   The images on the display in which the markers 321a to 321d are set are actual images of the PC 120 operated by the user 100. It is the real image which the camera 142 image | photographed. The hand 360 is also an image of the user's actual hand. A virtual object 371 is displayed together with this real image. The virtual object 371 is data to be processed in the process for the PC 120 by the user 100, for example, data that has been cut or copied.

この仮想オブジェクト371は、複合現実感(MR)生成装置130のメモリ133に格納されたデータである。仮想オブジェクト管理モジュール132は、三次元情報解析部131からカメラ撮影画像に含まれる実オブジェクト(ユーザの手の指)の三次元位置情報を取得し、取得した実オブジェクトの位置に対応する位置に仮想オブジェクト371の表示位置を設定して表示処理を実行する。   The virtual object 371 is data stored in the memory 133 of the mixed reality (MR) generation device 130. The virtual object management module 132 acquires the three-dimensional position information of the real object (the finger of the user's hand) included in the camera-captured image from the three-dimensional information analysis unit 131, and performs virtual processing at a position corresponding to the acquired position of the real object. The display position of the object 371 is set and display processing is executed.

これらの処理によって、ユーザ100は、PC120の表示領域から消去されてしまったデータを、仮想オブジェクト371として常時、確認することが可能となる。   Through these processes, the user 100 can always confirm the data that has been deleted from the display area of the PC 120 as the virtual object 371.

[2.本発明の情報処理装置の実行する処理のシーケンス例について]
次に、図5以下のフローチャートを参照して、ユーザの各指を仮想オブジェクト貼り付け表示位置として設定する処理、および仮想オブジェクトの表示処理などの処理シーケンスについて説明する。以下において説明する処理シーケンスは以下の通りである。
(a)ユーザの各指を仮想オブジェクト貼り付け表示位置として設定登録する処理(図5)
(b)ユーザの各指に仮想オブジェクトを貼り付けて表示する処理(図7)
(c)ユーザの指に設定した仮想オブジェクトをPCにおける処理データとして利用(ペースト)する際の複合現実感(MR)生成装置130の処理(図8)
(d)ユーザの指に設定した仮想オブジェクトをPCにおける処理データとして利用(ペースト)する際のPC120の処理(図9)
[2. Sequence example of processing executed by information processing apparatus of present invention]
Next, a processing sequence such as processing for setting each finger of the user as a virtual object pasting display position and processing for displaying a virtual object will be described with reference to the flowchart in FIG. The processing sequence described below is as follows.
(A) Processing for setting and registering each finger of the user as a virtual object pasting display position (FIG. 5)
(B) Processing for pasting and displaying a virtual object on each finger of the user (FIG. 7)
(C) Processing of the mixed reality (MR) generation device 130 when using (pasting) the virtual object set on the user's finger as processing data in the PC (FIG. 8)
(D) Processing of PC 120 when using (pasting) the virtual object set on the user's finger as processing data on the PC (FIG. 9)

(a)ユーザの各指を仮想オブジェクト貼り付け表示位置として設定登録する処理
まず図5に示すフローチャートを参照して、ユーザの各指を仮想オブジェクト貼り付け表示位置として設定登録する処理について説明する。この処理は、複合現実感(MR)生成装置130側の処理として実行する。
(A) Process for Setting and Registering Each Finger of User as Virtual Object Pasting Display Position First, a process for setting and registering each finger of a user as a virtual object pasting display position will be described with reference to the flowchart shown in FIG. This processing is executed as processing on the mixed reality (MR) generation device 130 side.

まず、ステップS101において、複合現実感(MR)生成装置130を貼り付け先登録処理モードに設定する。なお、図1に示す複合現実感(MR)生成装置130には示していないが、複合現実感(MR)生成装置130はモード設定などを行う入力部があり、ユーザの操作によってモード設定が可能である。   First, in step S101, the mixed reality (MR) generation device 130 is set to the paste destination registration processing mode. Although not shown in the mixed reality (MR) generation device 130 shown in FIG. 1, the mixed reality (MR) generation device 130 has an input unit for mode setting and the like, and the mode can be set by a user operation. It is.

次に、ステップS102おいて、三次元情報解析部(手認識モジュール)131がカメラ142からの入力画像を解析し、画像に含まれる実オブジェクトの三次元位置を解析する。本例では三次元位置の解析対象とする実オブジェクトは、ユーザの手の各指である。三次元情報解析部(手認識モジュール)131は、ユーザの一方の手の各指を識別するとともに、各指の三次元位置の解析を行う。   Next, in step S102, the three-dimensional information analysis unit (hand recognition module) 131 analyzes the input image from the camera 142, and analyzes the three-dimensional position of the real object included in the image. In this example, the real object to be analyzed for the three-dimensional position is each finger of the user's hand. The three-dimensional information analysis unit (hand recognition module) 131 identifies each finger of one hand of the user and analyzes the three-dimensional position of each finger.

ステップS103において、ユーザが、もう一方の手の指で貼り付け対象となる指を指示(触る)すると、三次元情報解析部(手認識モジュール)131は、ステップS104において、画像の解析によって、どの指が指示されたかを認識する。三次元情報解析部(手認識モジュール)131は予め人の指の識別情報を有しており、ユーザによって指示された指が親指であるすか指であるか等の識別を行うことができる。三次元情報解析部(手認識モジュール)131は、ユーザによつて仮想オブジェクトの貼り付け位置として指定された指の情報を仮想オブジェクト管理モジュール132に出力する。   In step S103, when the user instructs (touches) the finger to be pasted with the finger of the other hand, the three-dimensional information analysis unit (hand recognition module) 131 determines which one of the fingers by the analysis of the image in step S104. Recognize whether a finger is pointed. The three-dimensional information analysis unit (hand recognition module) 131 has human finger identification information in advance, and can identify whether the finger designated by the user is a thumb or a finger. The three-dimensional information analysis unit (hand recognition module) 131 outputs information on the finger designated by the user as the virtual object paste position to the virtual object management module 132.

次に、ステップS105において、仮想オブジェクト管理モジュール132が、三次元情報解析部(手認識モジュール)131から入力した仮想オブジェクトの貼り付け位置として指定された指を登録する。なお、指定された指が、すでに仮想オブジェクトの貼り付け位置として登録済みである場合は、登録済みであることをユーザに通知する。処理を行うことなく無視する。   Next, in step S <b> 105, the virtual object management module 132 registers the finger specified as the virtual object paste position input from the three-dimensional information analysis unit (hand recognition module) 131. Note that if the designated finger has already been registered as the virtual object paste position, the user is notified that it has been registered. Ignore without processing.

仮想オブジェクト管理モジュール132は、仮想オブジェクトの貼り付け位置として登録された位置情報と、その貼り付け位置に仮想オブジェクトが既に貼り付けられているか否かを示す状態情報を管理情報として含む仮想オブジェクト情報管理テーブルをメモリ133に保持して管理している。例えば図6に示すような情報を格納した管理テーブルである。仮想オブジェクト管理モジュール132は、このような仮想オブジェクト情報管理テーブルを適宜、更新し参照しながら処理を行う。   The virtual object management module 132 includes, as management information, position information registered as a virtual object paste position and state information indicating whether or not the virtual object has already been pasted at the paste position. The table is held in the memory 133 and managed. For example, it is a management table storing information as shown in FIG. The virtual object management module 132 performs processing while appropriately updating and referring to such a virtual object information management table.

ステップS106では、貼り付け先登録処理モードが継続中であるか否かを判定し、継続中である場合は、ステップS102以下の処理を繰り返し実行する。テップS106では、貼り付け先登録処理モードが継続中でないと判定されると、登録処理が終了する。   In step S106, it is determined whether or not the pasting destination registration processing mode is continuing. If the pasting registration processing mode is continuing, the processing from step S102 onward is repeatedly executed. In step S106, if it is determined that the pasting destination registration processing mode is not continuing, the registration processing ends.

なお、図5の処理は、仮想オブジェクトの貼り付け先を手の指に設定した処理であるが、その他の任意のオブジェクトを仮想オブジェクトの貼り付け先として設定することが可能である。例えば、後段で説明するが図10に示すようにPCの枠を仮想オブジェクトの貼り付け位置として設定するといった処理を行なうことも可能である。   The process in FIG. 5 is a process in which the virtual object paste destination is set to the finger of the hand, but any other object can be set as the virtual object paste destination. For example, as will be described later, as shown in FIG. 10, it is also possible to perform processing such as setting a PC frame as a virtual object paste position.

次に、図5に示すフローに従って登録された仮想オブジェクト貼り付け先を利用した仮想オブジェクト貼り付け処理シーケンスについて、図7に示すフローチャートを参照して説明する。図7に示すフローは、ユーザの各指に仮想オブジェクトを貼り付けてユーザ100の装着しているメガネ141のディスプレイに表示する処理である。この処理は、図1に示す複合現実感(MR)生成装置130側の処理として実行する。   Next, a virtual object pasting processing sequence using the virtual object pasting destination registered according to the flow shown in FIG. 5 will be described with reference to the flowchart shown in FIG. The flow shown in FIG. 7 is a process of pasting a virtual object on each finger of the user and displaying it on the display of the glasses 141 worn by the user 100. This process is executed as a process on the mixed reality (MR) generation apparatus 130 side shown in FIG.

まず、ステップS151において、複合現実感(MR)生成装置130の仮想オブジェクト管理モジュール132は、複合現実感(MR)生成装置130のメモリ133に格納されたデータを取得する。なお、このデータは、複合現実感(MR)生成装置130の制御部の制御の下に通信部134を介してPC120から受信した処理データである。すなわちPC120に対するユーザのデータ処理によってカットやコピー対象となったデータである。   First, in step S <b> 151, the virtual object management module 132 of the mixed reality (MR) generation device 130 acquires data stored in the memory 133 of the mixed reality (MR) generation device 130. Note that this data is processing data received from the PC 120 via the communication unit 134 under the control of the control unit of the mixed reality (MR) generation device 130. That is, it is data that has been cut or copied by user data processing on the PC 120.

次にステップS152において、仮想オブジェクト管理モジュール132は、仮想オブジェクトを貼り付けていない貼り付け可能位置の有無を調べる。この処理は、三次元情報解析部131がカメラ142の取得画像に基づく解析情報を利用して実行してもよいし、先に図6を参照して説明した仮想オブジェクト情報管理テーブルを参照して行う構成としてもよい。   Next, in step S152, the virtual object management module 132 checks the presence / absence of a pastable position where a virtual object is not pasted. This processing may be executed by the 3D information analysis unit 131 using analysis information based on the acquired image of the camera 142, or by referring to the virtual object information management table described above with reference to FIG. It is good also as a structure to perform.

ステップS153では、仮想オブジェクトが、すべての登録済みの仮想オブジェクト貼り付け位置に貼りついているか否かを判定する。すべての登録済みの仮想オブジェクト貼り付け位置に仮想オブジェクトが貼りついている場合は、ステップS153の判定がYesとなり、ステップS156に進む。一方、仮想オブジェクト貼り付け可能位置が残っている場合は、ステップS153の判定がNoとなり、ステップS154に進む。   In step S153, it is determined whether the virtual object is pasted at all registered virtual object pasting positions. If virtual objects are pasted at all registered virtual object pasting positions, the determination in step S153 is Yes, and the process proceeds to step S156. On the other hand, when the virtual object pasting position remains, the determination in step S153 is No, and the process proceeds to step S154.

例えば、図6に示す登録情報が設定された仮想オブジェクト情報管理テーブルを参照した場合、エントリ(3)以降が、現時点で仮想オブジェクトが貼り付けられていない仮想オブジェクト貼り付け可能位置として検出されることになる。この場合は、仮想オブジェクト貼り付け可能位置が残っているのでステップS153の判定がNoとなり、ステップS154に進む。   For example, when referring to the virtual object information management table in which the registration information shown in FIG. 6 is set, entries (3) and after are detected as virtual object pasting positions where no virtual object is pasted at the present time. become. In this case, since the virtual object pasting position remains, the determination in step S153 is No, and the process proceeds to step S154.

ステップS154においては、空いている貼り付け位置の登録順(例えば親指,人差し指,中指の順)で貼り付け先を決定する。なお、貼り付け位置の設定はユーザの選択可能な構成としてもよい。   In step S154, the paste destination is determined in the registration order of the available paste positions (for example, thumb, index finger, middle finger). The setting of the pasting position may be configured to be selectable by the user.

次に、ステップS155に進み、仮想オブジェクト管理モジュール132は、選択された仮想オブジェクト貼り付け位置に、先のステップS151においてメモリから取得したデータの貼り付け処理を実行する。   Next, proceeding to step S155, the virtual object management module 132 executes the process of pasting the data acquired from the memory at the previous step S151 at the selected virtual object paste position.

三次元情報解析部131は、随時カメラ142からの入力画像の解析を行い、実オブジェクトである手の各指の三次元位置を把握している。仮想オブジェクト管理モジュール132は、三次元情報解析部131から入力する指の位置情報に応じて仮想オブジェクトの表示位置を動的に変更しながら、実オブジェクトと仮想オブジェクトの合成画像をユーザ100の装着したメガネ141のディスプレイに表示する処理を行う。   The three-dimensional information analysis unit 131 analyzes the input image from the camera 142 as needed, and grasps the three-dimensional position of each finger of the hand that is a real object. The virtual object management module 132 attaches the composite image of the real object and the virtual object to the user 100 while dynamically changing the display position of the virtual object according to the finger position information input from the three-dimensional information analysis unit 131. Processing to display on the display of the glasses 141 is performed.

この処理によって、例えば図2や図4を参照して説明した仮想オブジェクトの貼り付け表示データが、ユーザの装着したメガネ141のディスプレイに表示される。   By this process, for example, the virtual object pasting display data described with reference to FIGS. 2 and 4 is displayed on the display of the glasses 141 worn by the user.

次に、ステップS153においてYesの判定がなされた場合の処理について説明する。この場合は、すべての登録済みの仮想オブジェクト貼り付け位置に仮想オブジェクトが貼りついている場合であり、ステップS153の判定がYesとなりステップS156に進む。   Next, a process when the determination of Yes is made in step S153 will be described. In this case, a virtual object is pasted at all registered virtual object pasting positions, the determination in step S153 is Yes, and the process proceeds to step S156.

ステップS156では、ユーザに対する問い合わせを行う。すなわち、ユーザに仮想オブジェクトの削除を実行してよいか否かについて問い合わせを行う。この問い合わせは、例えばユーザの操作しているPC120に対して通信部を介してメッセージを送信し、PCのディスプレイに表示する。あるいは、複合現実感(MR)生成装置130の出力部(スピーカあるいはディスプレイ)を利用してメッセージを出力するといった方法で行う。なお、削除対象とする仮想オブジェクトの選択処理としては、例えば最も古い貼り付け処理が行われた仮想オブジェクトから順次、削除可否をユーザに問い合わせる処理と設定としてもよい。あるいは貼り付けられた複数の仮想オブジェクトから、ユーザが削除してよいと判断した仮想オブジェクトを指定し、その指定情報によって削除対象を選択する処理を行う構成としてもよい。   In step S156, an inquiry is made to the user. That is, an inquiry is made to the user as to whether or not the virtual object can be deleted. For this inquiry, for example, a message is transmitted to the PC 120 operated by the user via the communication unit and displayed on the display of the PC. Alternatively, the message is output using the output unit (speaker or display) of the mixed reality (MR) generation device 130. Note that the selection process of the virtual object to be deleted may be, for example, a process and a setting for inquiring the user whether deletion is possible sequentially from the virtual object on which the oldest pasting process has been performed. Or it is good also as a structure which performs the process which designates the virtual object which the user judged to be able to delete from the some virtual object pasted, and selects the deletion object by the designation | designated information.

ユーザからの削除OKの入力が得られた場合は、ステップS157に進み、仮想オブジェクトの削除を実行する。なお、ユーザの入力は、PC120を介して行ってもよいし、複合現実感(MR)生成装置130の入力部を介して行ってもよい。あるいは、複合現実感(MR)生成装置130の三次元情報解析部131が取得するカメラ142の画像に基づく解析、例えばユーザの指定した削除可能な仮想オブジェクトの指定情報を利用して実行してもよい。   If the input of deletion OK from the user is obtained, the process proceeds to step S157 to delete the virtual object. The user input may be performed via the PC 120 or via the input unit of the mixed reality (MR) generation device 130. Alternatively, analysis based on the image of the camera 142 acquired by the three-dimensional information analysis unit 131 of the mixed reality (MR) generation device 130, for example, using the designation information of the virtual object that can be deleted designated by the user may be executed. Good.

この削除処理が行われると、ステップS155に進む。ステップS155では、仮想オブジェクト管理モジュール132は、削除処理によって設定された仮想オブジェクト貼り付け可能位置に、先のステップS151においてメモリから取得したデータの貼り付け処理を実行する。この処理によって、例えば図2や図4を参照して説明した仮想オブジェクトの貼り付け表示データが、ユーザの装着したメガネ141のディスプレイに表示される。   When this deletion process is performed, the process proceeds to step S155. In step S155, the virtual object management module 132 executes the process of pasting data acquired from the memory in step S151 in the virtual object pasting position set by the deletion process. By this process, for example, the virtual object pasting display data described with reference to FIGS. 2 and 4 is displayed on the display of the glasses 141 worn by the user.

一方、ステップS156において、ユーザからの削除OKの入力が得られなかった場合は、ステップS158に進む。ステップS158では、新たな貸そうブジェクトの貼り付け表示処理が実行できない旨をユーザに通知する処理を行って処理を終了する。このユーザ通知処理は、例えばユーザの操作しているPC120に対して通信部を介してメッセージを送信し、PCのディスプレイに表示する。あるいは、複合現実感(MR)生成装置130の出力部(スピーカあるいはディスプレイ)を利用してメッセージを出力するといった方法で行う。   On the other hand, if the deletion OK input from the user is not obtained in step S156, the process proceeds to step S158. In step S158, processing for notifying the user that the new lending object paste display processing cannot be executed is performed, and the processing is terminated. In this user notification process, for example, a message is transmitted to the PC 120 operated by the user via the communication unit and displayed on the display of the PC. Alternatively, the message is output using the output unit (speaker or display) of the mixed reality (MR) generation device 130.

次に、仮想オブジェクトをPCにおける処理データとして利用(ペースト)する処理シーケンスについて、図8、図9に示すフローチャートを参照して説明する。この処理は、複合現実感(MR)生成装置130側の処理と、PC120側の処理とによって行われる。   Next, a processing sequence for using (pasting) a virtual object as processing data in a PC will be described with reference to flowcharts shown in FIGS. This process is performed by a process on the mixed reality (MR) generation apparatus 130 side and a process on the PC 120 side.

まず、図8に示すフローチャートを参照して、複合現実感(MR)生成装置130の処理について説明する。まず、ステップS201において、複合現実感(MR)生成装置130は、仮想オブジェクト貼り付け位置(例えば指F)の指示情報を解析する。   First, processing of the mixed reality (MR) generation device 130 will be described with reference to a flowchart shown in FIG. First, in step S201, the mixed reality (MR) generation device 130 analyzes instruction information on a virtual object pasting position (for example, a finger F).

ユーザ100は、メガネ141のディスプレイを観察しながら、例えば図2に示すようなユーザの指に貼り付けられた複数の仮想オブジェクトから、1つの仮想オブジェクトをもう一方の手の指で指示する。三次元情報解析部(手認識モジュール)131がカメラ142からの入力画像を解析し、画像に含まれるユーザの指示した位置とその位置にある実オブジェクトである指がどの指であるかを解析する。この情報は、仮想オブジェクト管理モジュール132に提供される。   While observing the display of the glasses 141, the user 100 designates one virtual object with the finger of the other hand from a plurality of virtual objects pasted on the user's finger as shown in FIG. A three-dimensional information analysis unit (hand recognition module) 131 analyzes an input image from the camera 142 and analyzes a position indicated by a user included in the image and a finger that is a real object at the position. . This information is provided to the virtual object management module 132.

次にステップS202において、仮想オブジェクト管理モジュール132は、三次元情報解析部(手認識モジュール)131の解析したユーザの指示位置(例えばユーザの指のいずれか)に貼り付けられた仮想オブジェクトがあるか否かを判定する。この処理は、例えば図6を参照して説明した仮想オブジェクト情報管理テーブルを参照して行うことができる。   Next, in step S202, the virtual object management module 132 determines whether there is a virtual object pasted at the user's designated position (for example, one of the user's fingers) analyzed by the three-dimensional information analysis unit (hand recognition module) 131. Determine whether or not. This processing can be performed with reference to, for example, the virtual object information management table described with reference to FIG.

ユーザの指示位置に仮想オブジェクトが貼り付けられている場合は、ステップS203の判定がYesとなり、ステップS204に進む。
ステップS204では、ユーザの指示位置に貼り付けられた仮想オブジェクトに対応するデータをメモリ133から取得して、通信部134を介してPC120に送信する。
If a virtual object is pasted at the user's designated position, the determination in step S203 is Yes and the process proceeds to step S204.
In step S <b> 204, data corresponding to the virtual object pasted at the user's designated position is acquired from the memory 133 and transmitted to the PC 120 via the communication unit 134.

仮想オブジェクト管理モジュール132は、ユーザ100のメガネ141のディスプレイに表示された仮想オブジェクトに対する処理要求の入力に応じて、処理要求のなされた仮想オブジェクトに対応するデータをPC120を適用したデータ処理を行うデータ処理装置またはPC120のアクセス可能なメモリに出力する処理を行う。   The virtual object management module 132 performs data processing using the PC 120 on data corresponding to the virtual object requested to be processed in response to the input of the processing request for the virtual object displayed on the display of the glasses 141 of the user 100. A process of outputting to an accessible memory of the processing device or the PC 120 is performed.

図1に示す構成において、複合現実感(MR)生成装置130は通信部134を介してデータをPC120側に出力する。PC120は、複合現実感(MR)生成装置130側からデータを受信し、PC120側のメモリ122に格納する。   In the configuration shown in FIG. 1, the mixed reality (MR) generation device 130 outputs data to the PC 120 side via the communication unit 134. The PC 120 receives data from the mixed reality (MR) generation device 130 side and stores it in the memory 122 on the PC 120 side.

一方、ユーザの指示位置に仮想オブジェクトが貼り付けられている場合は、ステップS203の判定がNoとなり、ステップS205に進む。
ステップS205では、ユーザの指示位置には、仮想オブジェクトが貼り付けられていないことを通知する。この通知は、PC120または複合現実感(MR)生成装置130の出力部を介して行う。
On the other hand, if the virtual object is pasted at the user's designated position, the determination in step S203 is No, and the process proceeds to step S205.
In step S205, it is notified that the virtual object is not pasted at the user's designated position. This notification is performed via the output unit of the PC 120 or the mixed reality (MR) generation device 130.

次に、図8に示す複合現実感(MR)生成装置130側の処理の終了後に、PC120側で実行する処理のシーケンスについて図9に示すフローチャートを参照して説明する。PC120は、複合現実感(MR)生成装置130側から、処理対象データであるデータを受信し、PC側のメモリ122に格納している。   Next, a sequence of processing executed on the PC 120 side after completion of processing on the mixed reality (MR) generation device 130 side shown in FIG. 8 will be described with reference to a flowchart shown in FIG. The PC 120 receives data as processing target data from the mixed reality (MR) generation device 130 side and stores the data in the memory 122 on the PC side.

PC120は、まずステップS301において、ユーザによる画面位置指示情報を入力する。これは仮想オブジェクトに対応するデータをペーストする位置である。例えばマウスやキーボードの操作によって指定する。あるいはタッチディスプレイである場合は、ユーザの指で画面をタッチしタッチ位置情報を算出する。   First, in step S301, the PC 120 inputs screen position instruction information from the user. This is the position where the data corresponding to the virtual object is pasted. For example, it is specified by operating a mouse or a keyboard. Alternatively, in the case of a touch display, the touch position information is calculated by touching the screen with the user's finger.

ステップS302において、PC120のアプリケーション実行部121は、ユーザの指示したディスプレイ上の位置座標(x,y)を算出する。
ステップS303において、指示位置(x,y)に対応する場所をデータの挿入先と決定する。例えば、文字と文字の間などである。
In step S302, the application execution unit 121 of the PC 120 calculates position coordinates (x, y) on the display instructed by the user.
In step S303, the location corresponding to the designated position (x, y) is determined as the data insertion destination. For example, between characters.

ステップS304では、PC120内のメモリ122に複合現実感(MR)生成装置130側から受領した処理対象データが存在するか否かを判定する。処理対象データが存在する場合は、ステップS304の判定がYesとなり、ステップS305において、アプリケーション実行部121がメモリ122からデータを取り出して、決定した挿入先にデータペーストを実行する。処理対象データが存在しない場合は、ステップS304においてNoの判定となり、ステップS305の処理を行うことなく、処理を終了する。   In step S304, it is determined whether or not the processing target data received from the mixed reality (MR) generation device 130 side exists in the memory 122 in the PC 120. If processing target data exists, the determination in step S304 is Yes, and in step S305, the application execution unit 121 extracts the data from the memory 122 and executes data paste at the determined insertion destination. If there is no data to be processed, the determination in step S304 is No, and the process ends without performing the process in step S305.

このようにして、ユーザ100の装着したメガネ141に表示された仮想オブジェクトが、ユーザが現実世界で操作しているPC120の処理データとして利用される。   In this way, the virtual object displayed on the glasses 141 worn by the user 100 is used as processing data of the PC 120 operated by the user in the real world.

[3.仮想オブジェクトの貼り付け対象とする実オブジェクトの例について]
上述の実施例では、仮想オブジェトの貼り付け先としてユーザの手の指を利用した処理例について説明したが、仮想オブジェトの貼り付け先はユーザの手の指に限らず、ユーザ100の装着したメガネ141に表示される様々な実オブジェクトを利用することができる。
[3. Example of real object to paste virtual object]
In the above-described embodiment, the processing example using the finger of the user's hand as the virtual object paste destination has been described. However, the virtual object paste destination is not limited to the finger of the user's hand, but the glasses worn by the user 100 Various real objects displayed in 141 can be used.

例えば、図10に示すようにPC120の外枠を仮想オブジェクトの貼り付け位置として設定するといった処理も可能である。図10には、図4を参照して説明したと同様、ユーザ100の装着したメガネ141のディスプレイに表示されるディスプレイ表示画像350を示している。   For example, as shown in FIG. 10, processing such as setting the outer frame of the PC 120 as the virtual object paste position is also possible. FIG. 10 shows a display image 350 displayed on the display of the glasses 141 worn by the user 100, as described with reference to FIG.

マーカー321a〜dの設定されたディスプレイの画像は、ユーザ100の操作するPC120の実画像であり、カメラ142の撮影した実画像である。この実画像に対して、仮想オブジェクト401〜403が併せて表示される。仮想オブジェクト401〜403は、ユーザ100によるPC120に対する処理において処理対象としたデータ、例えばカット処理やコピー処理としたデータである。   The images on the display in which the markers 321a to 321d are set are real images of the PC 120 operated by the user 100, and are real images taken by the camera 142. Virtual objects 401 to 403 are displayed together with this real image. The virtual objects 401 to 403 are data to be processed in the process for the PC 120 by the user 100, for example, data that has been cut or copied.

図10に示す例では、これらの仮想オブジェクト401〜403の貼り付け位置をPC321の右側のマーカー321aとマーカー321bの区間としている。すなわち、図10に矢印で示す仮想オブジェクト貼り付け区間380を設定している。マーカー321aの実空間における座標(xa,ya,za)とマーカー321bの実空間における座標(xb,yb,zb)を求めた後、この区間(xa,ya,za)〜(xb,yb,zb)を複数区間に均等に分割し、それぞれの分割領域を仮想オブジェクト貼り付け領域として設定する。   In the example illustrated in FIG. 10, the pasting positions of these virtual objects 401 to 403 are the section between the marker 321 a and the marker 321 b on the right side of the PC 321. That is, a virtual object pasting section 380 indicated by an arrow in FIG. 10 is set. After obtaining the coordinates (xa, ya, za) in the real space of the marker 321a and the coordinates (xb, yb, zb) in the real space of the marker 321b, this interval (xa, ya, za) to (xb, yb, zb) is obtained. ) Are equally divided into a plurality of sections, and each divided area is set as a virtual object pasting area.

この場合の仮想オブジェクト情報管理テーブルは、例えば図11に示す設定となる。なお、図11に示すテーブルには、参考データとして実際の貼り付け仮想オブジェクトも示している。このように、仮想オブジェクトの貼り付け位置は、ユーザの手に駆らず、様々なオブジェクトを利用することができる。   The virtual object information management table in this case is set as shown in FIG. 11, for example. The table shown in FIG. 11 also shows an actual pasted virtual object as reference data. As described above, various objects can be used for the virtual object pasting position without the user's hand.

本発明の構成によれば、情報提示画面を狭めたり,コピーバッファをいちいち表示したり、一度ペーストしてUNDOしたりすることなく,コピーされている内容を確認することができる。また、指や自分の身体をコピーバッファとして使用した場合、ある情報提示画面からコピーした内容を離れた場所にある別の情報提示画面にペーストする場合に、自分がその画面にまで移動して、ペーストすることができるので、直感的にペースト作業を行うことができる。また、3Dオブジェクトは実世界で3Dオブジェクトとしてインスタンス化され表示されるのでその形状などを直感的に理解しやすく、ペースト時に向きなども指定しやすい。   According to the configuration of the present invention, the copied content can be confirmed without narrowing the information presentation screen, displaying the copy buffer one by one, or pasting and UNDOing once. Also, if you use your finger or your body as a copy buffer, when you paste the copied content from one information presentation screen to another information presentation screen at a remote location, you move to that screen, Since pasting is possible, the pasting operation can be performed intuitively. In addition, since the 3D object is instantiated and displayed as a 3D object in the real world, it is easy to intuitively understand its shape and the direction and the like when pasting.

以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本発明の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。   The present invention has been described in detail above with reference to specific embodiments. However, it is obvious that those skilled in the art can make modifications and substitutions of the embodiments without departing from the gist of the present invention. In other words, the present invention has been disclosed in the form of exemplification, and should not be interpreted in a limited manner. In order to determine the gist of the present invention, the claims should be taken into consideration.

また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。   The series of processing described in the specification can be executed by hardware, software, or a combined configuration of both. When executing processing by software, the program recording the processing sequence is installed in a memory in a computer incorporated in dedicated hardware and executed, or the program is executed on a general-purpose computer capable of executing various processing. It can be installed and run. For example, the program can be recorded in advance on a recording medium. In addition to being installed on a computer from a recording medium, the program can be received via a network such as a LAN (Local Area Network) or the Internet, and installed on a recording medium such as a built-in hard disk.

なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。   Note that the various processes described in the specification are not only executed in time series according to the description, but may be executed in parallel or individually according to the processing capability of the apparatus that executes the processes or as necessary. Further, in this specification, the system is a logical set configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same casing.

以上、説明したように、本発明の一実施例の構成によれば、例えばPCを適用したデータ処理において、削除処理やコピー処理の対象としたデータなどPCの表示部に表示されないデータを仮想オブジェクトとして設定し、ユーザの手の指などに貼り付けて、常に観察することを可能な構成とした。本構成によれば、PCの表示領域に表示されないデータをPCの表示領域以外の空間に貼り付けて表示して観察することが可能となり、データ処理の効率を高めることが可能となる。   As described above, according to the configuration of the embodiment of the present invention, for example, in data processing using a PC, data that is not displayed on the display unit of the PC, such as data targeted for deletion processing or copy processing, is displayed as a virtual object. It was set as, and it was set as the structure which can affix on a user's finger etc. and can always observe. According to this configuration, data that is not displayed in the display area of the PC can be pasted and displayed in a space other than the display area of the PC, and the efficiency of data processing can be increased.

100 ユーザ
120 PC(パーソンナルコンピュータ)
121 アプリケーション実行部
122 メモリ
123 通信部
130 複合現実感(MR)生成装置
131 三次元情報解析部
132 仮想オブジェクト管理モジュール
133 メモリ
134 通信部
141 メガネ
142 カメラ
150 仮想オブジェクト
200 ディスプレイ表示画像
201〜203 仮想オブジェクト
321a〜321d マーカー
350 ディスプレイ表示画像
360 手
371 仮想オブジェクト
380 仮想オブジェクト貼り付け区間
401〜403 仮想オブジェクト
100 users 120 PC (personal computer)
DESCRIPTION OF SYMBOLS 121 Application execution part 122 Memory 123 Communication part 130 Mixed reality (MR) production | generation apparatus 131 Three-dimensional information analysis part 132 Virtual object management module 133 Memory 134 Communication part 141 Glasses 142 Camera 150 Virtual object 200 Display display image 201-203 Virtual object 321a to 321d Marker 350 Display display image 360 Hand 371 Virtual object 380 Virtual object pasting section 401 to 403 Virtual object

Claims (30)

撮影画像に含まれるユーザの手の指の三次元位置情報を取得する位置情報取得部と、
ユーザの手の指と仮想オブジェクトを合成した合成画像を生成する画像生成部を有し、
前記画像生成部は、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成する情報処理装置。
A position information acquisition unit that acquires three-dimensional position information of the finger of the user's hand included in the captured image;
An image generation unit that generates a composite image obtained by combining a finger of a user's hand and a virtual object;
The information processing apparatus, wherein the image generation unit determines the display position of the virtual object based on the three-dimensional position information of the finger of the user's hand acquired by the position information acquisition unit and generates the composite image.
前記画像生成部は、ユーザの手の指の三次元位置情報に応じて前記仮想オブジェクト表示位置を動的に変更する請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the image generation unit dynamically changes the virtual object display position according to three-dimensional position information of a finger of a user's hand. 前記位置情報取得部は、ユーザの複数の指各々の三次元位置情報を取得し、
前記画像生成部は、前記位置情報取得部の取得した複数の指各々の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成する請求項1に記載の情報処理装置。
The position information acquisition unit acquires three-dimensional position information of each of a plurality of fingers of the user,
The information processing according to claim 1, wherein the image generation unit determines the display position of the virtual object based on the three-dimensional position information of each of the plurality of fingers acquired by the position information acquisition unit and generates the composite image. apparatus.
前記位置情報取得部は、撮影画像に含まれるオブジェクトの三次元位置情報を解析する三次元情報解析部を含む構成である請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the position information acquisition unit includes a three-dimensional information analysis unit that analyzes three-dimensional position information of an object included in a captured image. 前記三次元情報解析部は、画像解析により人の手または指と判断されるオブジェクトを検出する手認識モジュールを有する請求項4に記載の情報処理装置。   The information processing apparatus according to claim 4, wherein the three-dimensional information analysis unit includes a hand recognition module that detects an object that is determined to be a human hand or a finger by image analysis. 前記位置情報取得部は、撮影画像に含まれるユーザの手の指の三次元位置情報を外部から取得する請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the position information acquisition unit acquires three-dimensional position information of a finger of a user's hand included in the captured image from the outside. 前記情報処理装置は表示部を有し、
前記画像生成部は、生成した合成画像を前記表示部に出力する請求項1に記載の情報処理装置。
The information processing apparatus has a display unit,
The information processing apparatus according to claim 1, wherein the image generation unit outputs the generated composite image to the display unit.
前記表示部は、メガネ型表示装置である請求項7に記載の情報処理装置。   The information processing apparatus according to claim 7, wherein the display unit is a glasses-type display device. 前記情報処理装置は、前記撮影画像を撮影する撮像部を有する請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising an imaging unit that captures the captured image. 前記情報処理装置は、撮像部と表示部を備えたメガネ型表示装置を有し、
前記画像生成部は、前記メガネ型表示装置の撮像部が撮影した実画像に前記仮想オブジェクトを重畳した合成画像を生成して、前記メガネ型表示装置の表示部に出力する請求項1に記載の情報処理装置。
The information processing apparatus includes a glasses-type display device including an imaging unit and a display unit,
The said image generation part produces | generates the synthesized image which superimposed the said virtual object on the real image image | photographed by the imaging part of the said glasses-type display apparatus, and outputs it to the display part of the said glasses-type display apparatus. Information processing device.
前記情報処理装置は、通信部を有し、
前記画像生成部は、前記通信部を介して入力するデータに基づいて前記仮想オブジェクトを生成する請求項1に記載の情報処理装置。
The information processing apparatus includes a communication unit,
The information processing apparatus according to claim 1, wherein the image generation unit generates the virtual object based on data input via the communication unit.
前記情報処理装置は、前記通信部を介した入力データを格納するメモリを有し、
前記画像生成部は、前記メモリに格納したデータに基づいて前記仮想オブジェクトを生成する請求項11に記載の情報処理装置。
The information processing apparatus has a memory for storing input data via the communication unit,
The information processing apparatus according to claim 11, wherein the image generation unit generates the virtual object based on data stored in the memory.
前記画像生成部は、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置をユーザの手の指の位置に設定して前記合成画像を生成する請求項1に記載の情報処理装置。   The image generation unit sets the display position of the virtual object to the position of the finger of the user's hand based on the three-dimensional position information of the finger of the user's hand acquired by the position information acquisition unit, and generates the composite image The information processing apparatus according to claim 1. 前記画像生成部は、ユーザが生成または選択したデータを前記仮想オブジェクトに設定して前記合成画像を生成する請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the image generation unit sets the data generated or selected by a user to the virtual object and generates the composite image. 複合現実感生成装置と、データ処理装置を有する情報処理システムであり、
前記データ処理装置は、
通信部を介して前記複合現実感生成装置にデータを送信し、
前記複合現実感生成装置は、
撮影画像に含まれるユーザの手の指の三次元位置情報を取得する位置情報取得部と、
ユーザの手の指と、前記データ処理装置からの受信データに基づいて生成した仮想オブジェクトを合成した合成画像を生成する画像生成部を有し、
前記画像生成部は、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成する構成である情報処理システム。
An information processing system having a mixed reality generation device and a data processing device,
The data processing device includes:
Send data to the mixed reality generation device via a communication unit,
The mixed reality generation device includes:
A position information acquisition unit that acquires three-dimensional position information of the finger of the user's hand included in the captured image;
An image generation unit that generates a composite image obtained by combining a finger of a user's hand and a virtual object generated based on received data from the data processing device;
The information processing system, wherein the image generation unit determines the display position of the virtual object based on the three-dimensional position information of the finger of the user's hand acquired by the position information acquisition unit and generates the composite image.
複合現実感生成装置と、撮像部と表示部を有する表示装置を有する情報処理システムであり、
前記表示装置は、撮像部の撮影画像を前記複合現実感生成装置に出力し、
前記複合現実感生成装置は、
前記撮影画像に含まれるユーザの手の指の三次元位置情報を取得する位置情報取得部と、
ユーザの手の指と、前記データ処理装置からの受信データに基づいて生成した仮想オブジェクトを合成した合成画像を生成する画像生成部を有し、
前記画像生成部は、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成して、前記表示装置の表示部に出力して表示する情報処理システム。
An information processing system having a mixed reality generating device and a display device having an imaging unit and a display unit,
The display device outputs a captured image of the imaging unit to the mixed reality generation device,
The mixed reality generation device includes:
A position information acquisition unit for acquiring three-dimensional position information of a finger of a user's hand included in the captured image;
An image generation unit that generates a composite image obtained by combining a finger of a user's hand and a virtual object generated based on received data from the data processing device;
The image generation unit determines the display position of the virtual object based on the three-dimensional position information of the finger of the user's hand acquired by the position information acquisition unit, generates the composite image, and displays the display on the display device An information processing system that outputs and displays on the screen.
情報処理装置に情報処理を実行させるプログラムを記憶した記憶媒体であり、
撮影画像に含まれるユーザの手の指の三次元位置情報を取得する位置情報取得処理と、
ユーザの手の指と仮想オブジェクトを合成した合成画像を生成する画像生成処理を実行させ、
前記画像生成処理において、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成させるプログラムを記憶した記憶媒体。
A storage medium storing a program for causing an information processing apparatus to execute information processing;
Position information acquisition processing for acquiring the three-dimensional position information of the finger of the user's hand included in the captured image;
Perform image generation processing to generate a composite image that combines the finger of the user's hand and the virtual object,
A storage medium storing a program for generating a composite image by determining a display position of the virtual object based on three-dimensional position information of a finger of a user's hand acquired by the position information acquisition unit in the image generation processing.
前記プログラムは、前記画像生成処理において、ユーザの手の指の三次元位置情報に応じて前記仮想オブジェクト表示位置を動的に変更させるプログラムである請求項17に記載の記憶媒体。   The storage medium according to claim 17, wherein the program is a program that dynamically changes the virtual object display position according to three-dimensional position information of a finger of a user's hand in the image generation process. 前記プログラムは、前記位置情報取得処理において、ユーザの複数の指各々の三次元位置情報を取得させ、
前記画像生成処理において、前記位置情報取得処理に際して取得した複数の指各々の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成させるプログラムである請求項17に記載の記憶媒体。
In the position information acquisition process, the program acquires three-dimensional position information of each of the user's fingers,
18. The program according to claim 17, wherein the image generation process determines a display position of the virtual object based on three-dimensional position information of each of a plurality of fingers acquired in the position information acquisition process and generates the composite image. Storage media.
前記プログラムは、前記位置情報取得処理において、撮影画像に含まれるオブジェクトの三次元位置情報の解析処理を実行させるプログラムである請求項17に記載の記憶媒体。   The storage medium according to claim 17, wherein the program is a program for executing an analysis process of three-dimensional position information of an object included in a captured image in the position information acquisition process. 前記プログラムは、前記三次元情報解析処理において、画像解析により人の手または指と判断されるオブジェクトを検出する手認識モジュールを利用した処理を実行させるプログラムである請求項20に記載の記憶媒体。   The storage medium according to claim 20, wherein the program is a program that executes processing using a hand recognition module that detects an object that is determined to be a human hand or finger by image analysis in the three-dimensional information analysis processing. 前記プログラムは、前記位置情報取得処理において、撮影画像に含まれるユーザの手の指の三次元位置情報を外部から取得させるプログラムである請求項17に記載の記憶媒体。   The storage medium according to claim 17, wherein the program is a program for acquiring three-dimensional position information of a finger of a user's hand included in a captured image from the outside in the position information acquisition process. 前記プログラムは、前記画像生成処理において生成した合成画像を前記表示部に出力させるプログラムである請求項17に記載の記憶媒体。   The storage medium according to claim 17, wherein the program is a program that causes the display unit to output a composite image generated in the image generation process. 前記プログラムは、前記画像生成処理において、撮像部と表示部を備えた表示装置の撮像部が撮影した実画像に前記仮想オブジェクトを重畳した合成画像を生成させて、前記表示装置の表示部に出力させるプログラムである請求項17に記載の記憶媒体。   In the image generation process, the program generates a composite image in which the virtual object is superimposed on a real image captured by an imaging unit of a display device including an imaging unit and a display unit, and outputs the composite image to the display unit of the display device The storage medium according to claim 17, which is a program to be executed. 前記プログラムは、前記画像生成処理において、通信部を介して入力するデータに基づいて前記仮想オブジェクトを生成させるプログラムである請求項17に記載の記憶媒体。   The storage medium according to claim 17, wherein the program is a program for generating the virtual object based on data input via a communication unit in the image generation process. 前記情報処理装置は、通信部を介した入力データを格納するメモリを有し、
前記プログラムは、前記画像生成処理において、前記メモリに格納したデータに基づいて前記仮想オブジェクトを生成させるプログラムである請求項17に記載の記憶媒体。
The information processing apparatus has a memory for storing input data via a communication unit,
The storage medium according to claim 17, wherein the program is a program for generating the virtual object based on data stored in the memory in the image generation processing.
前記プログラムは、前記画像生成処理において、前記位置情報取得処理に際して取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置をユーザの手の指の位置に設定して前記合成画像を生成させるプログラムである請求項17に記載の記憶媒体。   In the image generation process, the program sets the display position of the virtual object to the position of the finger of the user's hand based on the three-dimensional position information of the finger of the user's hand acquired in the position information acquisition process. The storage medium according to claim 17, wherein the storage medium is a program for generating a composite image. 前記プログラムは、前記画像生成処理において、ユーザが生成または選択したデータを前記仮想オブジェクトに設定して前記合成画像を生成させるプログラムである請求項17に記載の記憶媒体。   The storage medium according to claim 17, wherein the program is a program that sets data generated or selected by a user in the virtual object in the image generation process to generate the composite image. 情報処理装置において実行する情報処理方法であり、
位置情報取得部が、撮影画像に含まれるユーザの手の指の三次元位置情報を取得する位置情報取得処理ステップと、
画像生成部が、ユーザの手の指と仮想オブジェクトを合成した合成画像を生成する画像生成ステップを実行し、
前記画像生成ステップは、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成するステップである情報処理方法。
An information processing method executed in an information processing apparatus,
A position information acquisition processing step in which the position information acquisition unit acquires the three-dimensional position information of the finger of the user's hand included in the captured image;
The image generation unit executes an image generation step of generating a composite image in which the finger of the user's hand and the virtual object are combined,
The image generation step is an information processing method which is a step of determining the display position of the virtual object based on the three-dimensional position information of the finger of the user's hand acquired by the position information acquisition unit and generating the composite image.
情報処理装置に情報処理を実行させるプログラムであり、
位置情報取得部に、撮影画像に含まれるユーザの手の指の三次元位置情報を取得させる位置情報取得処理ステップと、
画像生成部に、ユーザの手の指と仮想オブジェクトを合成した合成画像を生成させる画像生成ステップを実行させ、
前記画像生成ステップにおいて、前記位置情報取得部の取得したユーザの手の指の三次元位置情報に基づいて前記仮想オブジェクトの表示位置を決定して前記合成画像を生成させるプログラム。
A program for causing an information processing apparatus to execute information processing,
A position information acquisition processing step for causing the position information acquisition unit to acquire three-dimensional position information of the finger of the user's hand included in the captured image;
Causing the image generation unit to execute an image generation step of generating a composite image obtained by combining the finger of the user's hand and the virtual object;
In the image generation step, a program for determining the display position of the virtual object based on the three-dimensional position information of the finger of the user's hand acquired by the position information acquisition unit and generating the composite image.
JP2012252065A 2012-11-16 2012-11-16 Information processing apparatus, storage medium, information processing system, information processing method, and program Active JP5510529B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012252065A JP5510529B2 (en) 2012-11-16 2012-11-16 Information processing apparatus, storage medium, information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012252065A JP5510529B2 (en) 2012-11-16 2012-11-16 Information processing apparatus, storage medium, information processing system, information processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009108777A Division JP5158007B2 (en) 2009-04-28 2009-04-28 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2013093031A true JP2013093031A (en) 2013-05-16
JP5510529B2 JP5510529B2 (en) 2014-06-04

Family

ID=48616067

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012252065A Active JP5510529B2 (en) 2012-11-16 2012-11-16 Information processing apparatus, storage medium, information processing system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP5510529B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11093804B1 (en) 2020-03-06 2021-08-17 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium storing program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157606A (en) * 2000-11-17 2002-05-31 Canon Inc Image display controller, composite reality presentation system, image display control method, and medium providing processing program
JP2002271694A (en) * 2001-03-13 2002-09-20 Canon Inc Image processing method, image processing unit, studio device, storage medium and program
JP2005031799A (en) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc Control system and method
JP2005056059A (en) * 2003-08-01 2005-03-03 Canon Inc Input device and method using head mounting type display equipped with image pickup part
WO2006104132A1 (en) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. User interface system
JP2007042073A (en) * 2005-07-01 2007-02-15 Canon Inc Video presentation system, video presentation method, program for causing computer to execute video presentation method and storage medium
JP2008304268A (en) * 2007-06-06 2008-12-18 Sony Corp Information processor, information processing method, and computer program
JP2008304269A (en) * 2007-06-06 2008-12-18 Sony Corp Information processor, information processing method, and computer program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157606A (en) * 2000-11-17 2002-05-31 Canon Inc Image display controller, composite reality presentation system, image display control method, and medium providing processing program
JP2002271694A (en) * 2001-03-13 2002-09-20 Canon Inc Image processing method, image processing unit, studio device, storage medium and program
JP2005031799A (en) * 2003-07-08 2005-02-03 Sony Computer Entertainment Inc Control system and method
JP2005056059A (en) * 2003-08-01 2005-03-03 Canon Inc Input device and method using head mounting type display equipped with image pickup part
WO2006104132A1 (en) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. User interface system
JP2007042073A (en) * 2005-07-01 2007-02-15 Canon Inc Video presentation system, video presentation method, program for causing computer to execute video presentation method and storage medium
JP2008304268A (en) * 2007-06-06 2008-12-18 Sony Corp Information processor, information processing method, and computer program
JP2008304269A (en) * 2007-06-06 2008-12-18 Sony Corp Information processor, information processing method, and computer program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
岩田達明, 外3名: ""動画像解析による手指動作認識に基づく三次元情報入力システム"", 電子情報通信学会技術研究報告, vol. 第100巻, 第634号, JPN6013045401, 16 February 2001 (2001-02-16), JP, pages 29 - 36, ISSN: 0002754122 *
田中司, 外3名: ""仮想コントロールパネルの実現手法の検討"", 電子情報通信学会技術研究報告, vol. 第97巻, 第597号, JPN6013045402, 12 March 1998 (1998-03-12), JP, pages 1 - 6, ISSN: 0002754123 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11093804B1 (en) 2020-03-06 2021-08-17 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium storing program

Also Published As

Publication number Publication date
JP5510529B2 (en) 2014-06-04

Similar Documents

Publication Publication Date Title
JP5158007B2 (en) Information processing apparatus, information processing method, and program
JP7079231B2 (en) Information processing equipment, information processing system, control method, program
KR101325757B1 (en) Apparatus and Method for providing augmented reality using generation of virtual marker
JP5942456B2 (en) Image processing apparatus, image processing method, and program
US8751969B2 (en) Information processor, processing method and program for displaying a virtual image
JP5158006B2 (en) Information processing apparatus, information processing method, and program
JP5807686B2 (en) Image processing apparatus, image processing method, and program
US10055020B2 (en) Visually enhanced tactile feedback
US20210287439A1 (en) 3d cutout image modification
KR20150010432A (en) Display device and controlling method thereof
KR101036280B1 (en) 3d menu system using manipulation device
JP2016512363A (en) Content creation tool
JP2016514865A (en) Real-world analysis visualization
KR20180058895A (en) Augmented reality system linked to smart device
JP5510529B2 (en) Information processing apparatus, storage medium, information processing system, information processing method, and program
JPWO2014054317A1 (en) User interface device and user interface method
JP5556758B2 (en) Information display device, information display method, and program
JP2012048656A (en) Image processing apparatus, and image processing method
KR20180071492A (en) Realistic contents service system using kinect sensor
US20160147728A1 (en) Dynamic content interface
KR20120040818A (en) System and method for playing contents of augmented reality
JP6304305B2 (en) Image processing apparatus, image processing method, and program
JP6256545B2 (en) Information processing apparatus, control method and program thereof, and information processing system, control method and program thereof
JP2015191541A (en) Information processor, control method thereof and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140310

R151 Written notification of patent or utility model registration

Ref document number: 5510529

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250