JP2017146782A - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2017146782A JP2017146782A JP2016028061A JP2016028061A JP2017146782A JP 2017146782 A JP2017146782 A JP 2017146782A JP 2016028061 A JP2016028061 A JP 2016028061A JP 2016028061 A JP2016028061 A JP 2016028061A JP 2017146782 A JP2017146782 A JP 2017146782A
- Authority
- JP
- Japan
- Prior art keywords
- information
- processing apparatus
- information processing
- guide information
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
Abstract
Description
本開示は、情報処理装置、情報処理方法およびプログラムに関する。 The present disclosure relates to an information processing apparatus, an information processing method, and a program.
近年、情報処理技術の発展に伴い、ユーザについてインタラクティブな装置が開発されている。このような装置は概して、ユーザの入力操作に応じて情報を出力する。そのため、ユーザの入力操作にかかる負担を低減する技術が開発されている。 In recent years, with the development of information processing technology, interactive devices for users have been developed. Such devices generally output information in response to user input operations. For this reason, techniques for reducing the burden on user input operations have been developed.
例えば、特許文献1では、操作メニューを床に表示するプロジェクタと、表示される操作メニューを操作する床上の物体を検出するレンジセンサとを備え、検出された物体の位置を用いて、当該物体の位置に対応する処理を実行する作動装置に係る発明が開示されている。
For example,
しかし、動作主体と装置とのインタラクションのさらなる円滑化が望まれている。そこで、本開示では、動作主体と装置とのインタラクションをより円滑にすることが可能な仕組みを提案する。 However, further smoothing of the interaction between the operation subject and the apparatus is desired. Therefore, the present disclosure proposes a mechanism that can make the interaction between the operation subject and the apparatus smoother.
本開示によれば、動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させる投影制御部と、前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行う処理制御部と、
を備える情報処理装置が提供される。
According to the present disclosure, the guide information is guided by the projection control unit that causes the projection unit to project guide information for guiding the operation of the operation subject requested by the operation subject according to the projection instruction of the guide information. When a state in which an action is performed by the action subject is recognized, a process control unit that performs a process based on the state;
An information processing apparatus is provided.
また、本開示によれば、プロセッサを用いて、動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させることと、前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行うことと、を含む情報処理方法が提供される。 Further, according to the present disclosure, using a processor, projecting guide information for guiding the motion of the motion subject that the motion subject requests guidance to the projection unit according to a projection instruction of the guide information; When a state in which an operation guided by guide information is performed by the operation subject is recognized, an information processing method including performing processing based on the state is provided.
また、本開示によれば、動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させる投影制御機能と、前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行う処理制御機能と、をコンピュータに実現させるためのプログラムが提供される。 In addition, according to the present disclosure, the projection control function for projecting guide information for guiding the motion of the motion subject that the motion subject requests guidance to the projection unit according to a projection instruction of the guide information, and the guide information When the state in which the guiding operation is performed by the operation subject is recognized, a program for causing a computer to realize a processing control function for performing processing based on the state is provided.
以上説明したように本開示によれば、動作主体と装置とのインタラクションをより円滑にすることが可能な仕組みが提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。 As described above, according to the present disclosure, a mechanism capable of smoother interaction between an operation subject and an apparatus is provided. Note that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる番号を付して区別する場合もある。例えば、実質的に同一の機能を有する複数の構成を、必要に応じて装置10Aおよび装置10Bなどのように区別する。ただし、実質的に同一の機能構成を区別する必要が無い場合、同一符号のみを付する。例えば、装置10Aおよび装置10Bを特に区別する必要がない場合には、単に装置10と称する。
In the present specification and drawings, a plurality of constituent elements having substantially the same functional configuration may be distinguished by attaching different numbers after the same reference numerals. For example, a plurality of configurations having substantially the same function are differentiated as necessary, such as the
なお、説明は以下の順序で行うものとする。
1.序論
2.第1の実施形態(基本形態)
2−1.システムの構成
2−2.システムの処理
2−3.適用例
2−4.第1の実施形態のまとめ
2−5.変形例
3.第2の実施形態(エラー処理の例)
3−1.システムの構成
3−2.システムの処理
3−3.適用例
3−4.第2の実施形態のまとめ
3−5.変形例
4.一実施形態に係る情報処理装置のハードウェア構成
5.むすび
The description will be made in the following order.
1. Introduction 2. First embodiment (basic form)
2-1. System configuration 2-2. System processing 2-3. Application example 2-4. Summary of first embodiment 2-5. Modified example 2. Second embodiment (example of error processing)
3-1. System configuration 3-2. System processing 3-3. Application example 3-4. Summary of Second Embodiment 3-5. Modified example 4. 4. Hardware configuration of information processing apparatus according to one embodiment Conclusion
<1.序論>
まず、本開示の各実施形態に係る情報処理装置に関する技術について説明する。
<1. Introduction>
First, a technique related to an information processing apparatus according to each embodiment of the present disclosure will be described.
上記技術に係る装置10は、通信機能および投影機能を有する。通信機能は、外部の装置から情報を受信したり、外部の装置へ情報を送信したりするための機能である。投影機能は、装置の周辺に画像を投影するための機能である。このため、装置10は、通信を介して得られる情報に基づいて画像を投影することができる。図1Aおよび図1Bは、本開示の各実施形態に係る情報処理装置100に関する技術を説明するための図である。
The
例えば、ユーザと装置10とが将棋をする場合を考える。装置10は、図1Aの破線で示したような将棋盤の装置10側の領域に将棋の駒の画像を投影する。ユーザは、将棋盤上の駒を動かすとともに、どの駒をどこに動かしたかを通信端末20に入力する。通信端末20と装置10とは駒の移動情報を通信する。そして、装置10は、受信された駒の移動情報に基づいて投影する駒の画像の位置を変更する。このようにして、ユーザと装置10との将棋対決が実現される。
For example, consider a case where the user and the
また、ユーザに代わって他の装置10が将棋相手となってもよい。例えば、装置10Aおよび装置10Bは、図1Bに示したように、将棋盤の各装置側に将棋の駒の画像をそれぞれ投影する。装置10Aが先行の場合、装置10Aは、どの駒をどこに動かすかを決定し、投影される駒の画像の位置を決定される位置に変更する。また、装置10Aは、決定された駒の移動情報を装置10Bに送信する。装置10Bは、受信された駒の移動情報に基づいて投影する駒の画像の位置を変更する。このようにして、装置10同士の将棋対決が実現される。
In addition, another
しかし、上述の技術では、動作主体と装置とのインタラクションが煩雑となるおそれがある。例えば、駒の移動情報などの状態変化情報をユーザが逐一入力することはユーザの負担となりかねない。また、インタラクションの実現のために通信機能が要される。例えば、装置10との通信に対応する装置または通信機能がなければ、装置10とのインタラクションを利用することが困難となる。
However, in the above-described technique, there is a possibility that the interaction between the operation subject and the apparatus becomes complicated. For example, it may be a burden on the user to input state change information such as piece movement information one by one. In addition, a communication function is required for realizing the interaction. For example, if there is no device or communication function corresponding to the communication with the
そこで、本開示の各実施形態に係る情報処理装置100は、動作主体の動作状態を認識する認識機能を有する。図2Aおよび図2Bは、本開示の各実施形態に係る情報処理装置100の動作状態を認識する機能の概要を説明するための図である。
Therefore, the
例えば、情報処理装置100は、図2Aの点線で示したような将棋盤に相当する領域を撮像し、撮像により得られる画像に基づいてユーザの動作状態を認識する。ユーザが駒を動かした状態が認識されると、情報処理装置100は、画像に映る駒の位置に基づいて駒の移動情報を把握する。情報処理装置100は、把握される駒の移動情報に基づいて投影する駒の画像の位置を変更する。一方、ユーザは駒を動かすのみで、情報処理装置100に提供するための入力操作などは行わない。
For example, the
また、情報処理装置100同士の将棋対決について説明する。情報処理装置100Aが先行の場合、情報処理装置100Aは、装置10と同様に、どの駒をどこに動かすかを決定し、投影される駒の画像の位置を決定される位置に変更する。しかし、情報処理装置100Aは、図2Bに示したように、駒の移動情報を情報処理装置100Bに送信することはない。情報処理装置100Bは、将棋盤に相当する領域を撮像し、撮像により得られる画像に基づいて情報処理装置100Aの動作状態を認識する。情報処理装置100Aが駒を動かした状態が認識されると、情報処理装置100Bは、画像に映る駒の位置に基づいて投影する駒の画像の位置を変更する。
Moreover, the shogi confrontation between the
このように、情報処理装置100は、動作主体の動作状態を認識する認識機能を有する。このため、動作主体の操作または処理を削減することができる。従って、動作主体と装置とのインタラクションの煩雑化を抑制することが可能となる。以下、当該認識機能を有する情報処理システムについて詳細に説明する。なお、説明の便宜上、第1および第2の実施形態に係る情報処理装置100を、情報処理装置100−1および情報処理装置100−2のように、末尾に実施形態に対応する番号を付することにより区別する。これは後述するサーバ200についても同様である。また、図2Aおよび図2Bでは、情報処理装置100が犬型のロボットである例が示されたが、情報処理装置100はこれに限られず、ロボット以外の装置であってよい。
Thus, the
<2.第1の実施形態(基本形態)>
本開示の第1の実施形態について説明する。第1の実施形態では、ユーザの音声入力によるガイド情報の投影指示に基づいてガイド情報が投影され、ガイド情報の誘導する動作が行われた状態が認識されると、当該状態に応じた処理が実行される。
<2. First embodiment (basic form)>
A first embodiment of the present disclosure will be described. In the first embodiment, when guide information is projected based on a guide instruction for guiding information by voice input by the user and a state in which the guide information is guided is recognized, processing corresponding to the state is performed. Executed.
<2−1.システムの構成>
まず、図3を参照して、本開示の第1の実施形態に係る情報処理システムの機能構成について説明する。図3は、本開示の第1の実施形態に係る情報処理システムの機能構成の例を概略的に示すブロック図である。
<2-1. System configuration>
First, the functional configuration of the information processing system according to the first embodiment of the present disclosure will be described with reference to FIG. FIG. 3 is a block diagram schematically illustrating an example of a functional configuration of the information processing system according to the first embodiment of the present disclosure.
図3に示したように、本実施形態に係る情報処理システムは、情報処理装置100−1およびサーバ200−1を備える。 As shown in FIG. 3, the information processing system according to the present embodiment includes an information processing apparatus 100-1 and a server 200-1.
(情報処理装置)
情報処理装置100−1は、音声入力部102、撮像部104、制御部106、投影部108、音声出力部110および通信部112を備える。なお、情報処理装置100−1は、可搬性のある装置であってよい。
(Information processing device)
The information processing apparatus 100-1 includes a
(音声入力部)
音声入力部102は、情報処理装置100−1周辺の音声を集音する。具体的には、音声入力部102は、情報処理装置100−1周辺の音声を集音し、集音される音声に係る情報(以下、音声情報とも称する。)を生成する。なお、音声入力部102は、音声以外の音を集音してもよい。また、音声情報は、通信部112を介して外部の音声入力装置から取得されてもよい。
(Voice input part)
The
(撮像部)
撮像部104は、情報処理装置100−1周辺を撮像する。具体的には、撮像部104は、情報処理装置100−1の動作主体の動作に関わる領域(以下、動作領域とも称する。)を撮像し、撮像により得られる画像に係る情報(以下、撮像画像情報とも称する。)を生成する。当該動作領域は、投影部108により画像が投影される領域または投影可能な領域である。なお、撮像部104の撮像により得られる画像は、動作主体の映る画像であってもよく、動作主体が映らない画像であってもよい。また、撮像画像情報は、通信部112を介して外部の撮像装置から取得されてもよい。
(Imaging part)
The
(制御部)
制御部106は、情報処理装置100−1の機能を全体的に制御する。具体的には、制御部106は、音声入力部102、撮像部104および投影部108の処理を制御する。例えば、制御部106は、制御パラメタなどを設定することにより、音声入力部102、撮像部104および投影部108の処理内容を制御する。
(Control part)
The
また、制御部106は、音声情報および撮像画像情報についての認識結果をサーバ200−1から取得する。例えば、制御部106は、音声入力部102から入力される音声情報および撮像部104から入力される撮像画像情報の各々について音声認識処理および画像認識処理をそれぞれサーバ200−1に通信を介して依頼する。そして、制御部106は、サーバ200−1から通信を介して音声認識結果および画像認識結果を受け取る。
Moreover, the
さらに、制御部106は、投影制御部として、ガイド情報の投影指示に応じて当該ガイド情報を投影部108に投影させる。ガイド情報は、動作主体が誘導を要求する当該動作主体の動作を誘導する情報である。具体的には、制御部106は、サーバ200−1から提供される音声認識結果がガイド情報の投影指示を示す場合、当該ガイド情報を投影するための情報(以下、素材情報とも称する。)をサーバ200−1から通信を介して取得する。そして、取得される素材情報に基づいてガイド情報を投影部108に投影させる。例えば、制御部106は、音声認識処理により得られるテキスト情報を解析し、テキスト情報がガイド情報の投影指示を示すかを判定する。テキスト情報がガイド情報の投影指示を示すと判定される場合、制御部106は、テキスト情報の示すガイド情報に係る素材情報の提供をサーバ200−1に通信を介して要求する。サーバ200−1から素材情報が提供されると、制御部106は、提供された素材情報に基づくガイド情報を投影部108に投影させる。なお、ガイド情報の投影指示は、ガイド情報の投影の直接的な指示であってもよく、間接的な指示であってもよい。例えば、ガイド情報の投影の間接的な指示は、ガイド情報に関する情報処理装置100への要望または要求などであってもよい。また、素材情報は、情報処理装置100−1に記憶されていてもよく、情報処理装置100−1内で生成されてもよい。また、サーバ200−1から提供される素材情報は、情報処理装置100−1内で加工されてもよい。
Further, as a projection control unit, the
また、制御部106は、処理制御部として、ガイド情報の誘導する動作が動作主体により行われた状態(以下、目標状態とも称する。)が認識されると、当該目標状態に基づく処理を行う。具体的には、制御部106は、動作主体の動作結果が映る画像に係る撮像画像情報に基づいて認識される動作状態が目標状態であるかを判定する。当該動作状態が目標状態であると判定される場合、制御部106は、当該目標状態に基づく処理を行う。例えば、制御部106は、ガイド情報の投影が開始された際に、目標状態を設定する。次に、制御部106は、所定の時間間隔で動作状態が目標状態に達したかを判定する。詳細には、制御部106は、画像認識処理により得られる物体の位置情報に基づいて、動作主体の位置(または動作主体の動かす物体の位置)の変化を判定する。動作主体の位置が目標状態の位置に変化したと判定される場合、制御部106は、動作状態が目標状態に達したと判定する。そして、制御部106は、動作状態が目標状態に達したと判定され、当該目標状態に基づく処理が行われた後、次の目標状態を設定する。
Further, as a process control unit, the
(投影部)
投影部108は、情報処理装置100−1周辺に画像を投影する。具体的には、投影部108は、制御部106から入力される画像情報(以下、投影画像情報とも称する。)に係る画像を情報処理装置100−1の周辺に投影する。例えば、投影部108は、制御部106から入力される、素材情報に基づくガイド情報を制御部106の指示する位置に投影する。なお、投影部108は、複数の領域にそれぞれ別個に画像を投影してもよい。また、投影領域は固定であってもよく、可変であってもよい。投影領域が可変である場合、投影領域は制御部106により制御されてよい。
(Projection part)
The
(音声出力部)
音声出力部110は、情報処理装置100−1の外部に音声を出力する。具体的には、音声出力部110は、制御部106から入力される音声情報に係る音声を情報処理装置100−1の外部に出力する。なお、出力される音声に係る音声情報は、制御部106にて生成されてもよく、通信部112を介して外部の装置から取得されてもよい。
(Audio output part)
The
(通信部)
通信部112は、情報処理装置100−1の外部の装置と通信する。具体的には、通信部112は、音声情報、撮像画像情報および情報提供要求をサーバ200−1へ送信し、音声認識結果、画像認識結果および素材情報をサーバ200−1から受信する。なお、通信部112は、サーバ200−1と有線通信方式を用いて通信してもよく、無線通信方式を用いて通信してもよい。
(Communication Department)
The
(サーバ)
また、サーバ200−1は、通信部202、音声認識部204、画像認識部206、情報提供部208および記憶部210を備える。
(server)
The server 200-1 includes a
(通信部)
通信部202は、サーバ200−1の外部の装置と通信する。具体的には、通信部202は、音声情報、撮像画像情報および情報提供要求を情報処理装置100−1から受信し、音声認識結果、画像認識結果および素材情報を情報処理装置100−1へ送信する。通信部202は、通信部112と実質的に同一の機能を有する。
(Communication Department)
The
(音声認識部)
音声認識部204は、音声情報に係る音声を認識する。具体的には、音声認識部204は、音声情報に基づいてテキスト情報を生成する。例えば、音声認識部204は、入力される音声情報に係る音声の内容に相当する文字を推定し、推定される文字を用いてテキスト情報を音声認識結果として生成する。なお、音声認識部204は、音声情報に係る音声の発話者を特定してもよい。
(Voice recognition unit)
The
(画像認識部)
画像認識部206は、画像情報に係る画像を認識する。具体的には、画像認識部206は、画像情報に係る画像に映る物体の位置関係を認識する。例えば、画像認識部206は、入力される撮像画像情報に係る画像に映る物体を認識し、認識される物体の配置を推定する。そして、画像認識部206は、認識された物体および当該物体の配置に係る情報を画像認識結果として生成する。なお、画像認識処理にはSLAM(Simultaneous Localization and Mapping)などの技術が利用されてもよい。また、画像認識部206は、さらに顔認識処理を行ってもよい。
(Image recognition unit)
The
(情報提供部)
情報提供部208は、情報処理装置100−1へ情報を提供する。具体的には、情報提供部208は、情報処理装置100−1からの情報提供要求に応じて、提供される情報を選択し、選択される情報を情報処理装置100−1に通信を介して提供する。例えば、情報提供部208は、素材情報の提供要求に応じて、記憶部210に記憶される素材情報を取得する。そして、情報提供部208は、取得される素材情報を通信部202に情報処理装置100−1へ送信させる。
(Information provision department)
The
(記憶部)
記憶部210は、サーバ200−1の処理に用いられる情報および情報処理装置100−1へ提供される情報を記憶する。例えば、記憶部210は、音声認識処理または画像認識処理に用いられる情報、および素材情報としての画像情報またはテキスト情報などを記憶する。
(Memory part)
The
<2−2.システムの処理>
次に、図4を参照して、本実施形態に係る情報処理装置100−1の処理について説明する。図4は、本実施形態に係る情報処理装置100−1の処理の例を概念的に示すフローチャートである。
<2-2. System processing>
Next, processing of the information processing apparatus 100-1 according to the present embodiment will be described with reference to FIG. FIG. 4 is a flowchart conceptually showing an example of processing of the information processing apparatus 100-1 according to the present embodiment.
情報処理装置100−1は、ガイド情報の投影指示が取得されたかを判定する(ステップS302)。具体的には、制御部106は、音声入力部102から入力される音声情報についてサーバ200−1に音声認識処理を行わせ、音声認識結果を取得する。そして、制御部106は、取得された音声認識結果がガイド情報の投影指示を示すかを判定する。
The information processing apparatus 100-1 determines whether a guide information projection instruction has been acquired (step S302). Specifically, the
ガイド情報の投影指示が取得されたと判定されると、情報処理装置100−1は、ガイド情報に応じた目標状態を設定する(ステップS304)。具体的には、制御部106は、音声認識結果がガイド情報の投影指示を示すと判定されると、当該投影指示に係るガイド情報に応じた動作状態を目標状態に設定する。
If it is determined that the guide information projection instruction has been acquired, the information processing apparatus 100-1 sets a target state according to the guide information (step S304). Specifically, when it is determined that the voice recognition result indicates a guide information projection instruction, the
次に、情報処理装置100−1は、動作状態を認識する(ステップS306)。具体的には、制御部106は、撮像部104から入力される画像情報についてサーバ200−1に画僧認識処理を行わせ、画像認識結果を取得する。
Next, the information processing apparatus 100-1 recognizes the operating state (step S306). Specifically, the
次に、情報処理装置100−1は、認識された動作状態が目標状態であるかを判定する(ステップS308)。具体的には、制御部106は、取得された画像認識結果に基づいて特定される動作状態が目標状態と一致するかを判定する。なお、目標状態との一致性(目標状態への到達性)については、所定の範囲の誤差が許容されてよい。
Next, the information processing apparatus 100-1 determines whether the recognized operation state is a target state (step S308). Specifically, the
認識された動作状態が目標状態であると判定されると、情報処理装置100−1は、目標状態に基づく処理を実行する(ステップS310)。具体的には、制御部106は、画像認識結果に基づいて特定される動作状態が目標状態と一致すると判定されると、当該目標状態に基づく処理を実行する。
When it is determined that the recognized operation state is the target state, the information processing apparatus 100-1 executes processing based on the target state (step S310). Specifically, when it is determined that the operation state specified based on the image recognition result matches the target state, the
認識された動作状態が目標状態でないと判定されると、情報処理装置100−1は、処理がステップS306に戻される。 When it is determined that the recognized operation state is not the target state, the information processing apparatus 100-1 returns the process to step S306.
次に、情報処理装置100−1は、ガイド情報の投影が終了したかを判定し(ステップS312)、ガイド情報の投影が終了したと判定されると、処理を終了する。ガイド情報の投影が終了したと判定されない場合には、ステップS304に戻って処理が繰り返される。 Next, the information processing apparatus 100-1 determines whether the projection of the guide information has ended (step S312), and ends the process when it is determined that the projection of the guide information has ended. If it is not determined that the projection of the guide information has been completed, the process returns to step S304 and the process is repeated.
<2−3.適用例>
以上、本実施形態に係る情報処理システムについて説明した。当該情報処理システムは、上述の実施形態を基にして様々な事例に応じて修正され、各事例に適用され得る。以下に、第1〜第7の適用例について説明する。
<2-3. Application example>
The information processing system according to this embodiment has been described above. The information processing system can be modified according to various cases based on the above-described embodiment, and can be applied to each case. Hereinafter, first to seventh application examples will be described.
(第1の適用例)
本実施形態の第1の適用例として、将棋の例を説明する。本適用例では、投影されているガイド情報に対する操作がガイド情報により誘導され、情報処理装置100−1は、当該操作に係る目標状態が認識されると、目標状態に基づく処理として、投影内容の変更を行う。具体的には、制御部106は、ガイド情報として将棋の駒を示す画像を投影部108に投影させ、投影されている将棋の駒を示す画像に対する動作主体の操作が目標状態に係る操作に達したと判定されると、将棋の駒を示す画像の表示位置を当該目標状態に係る操作に応じて移動させる。さらに、図5を参照して、本適用例の処理について詳細に説明する。図5は、本実施形態の第1の適用例に係る情報処理システムの処理例を説明するための図である。
(First application example)
As a first application example of this embodiment, an example of shogi will be described. In this application example, when the operation on the projected guide information is guided by the guide information, and the target state related to the operation is recognized, the information processing apparatus 100-1 performs the processing of the projection content as the process based on the target state. Make a change. Specifically, the
図5の例では、将棋盤を挟んでユーザと情報処理装置100−1とが配置されている。また、将棋盤には、ユーザ側に予め実物体としての駒(以下、代表して駒30について説明する。)が配置されている。なお、ユーザ側に配置される駒は情報処理装置100−1により投影されてもよい。
In the example of FIG. 5, the user and the information processing apparatus 100-1 are arranged across the shogi board. On the shogi board, a piece as a real object (hereinafter, the
まず、情報処理装置100−1は、ユーザの音声入力に基づいて将棋に係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図5の時間t1に示したように、音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「将棋したい。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいてユーザの指示「将棋対決」を解釈し、解釈される指示から「将棋の駒」の投影指示が取得されたと判定する。
First, the information processing apparatus 100-1 determines whether an instruction to project guide information related to shogi has been acquired based on a user's voice input. For example, as illustrated at time t <b> 1 in FIG. 5, the
将棋に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、将棋に係るガイド情報をユーザの動作領域に投影する。例えば、制御部106は、図5の時間t2に示したように、撮像部104の撮像により得られる画像に映る将棋盤の情報処理装置100−1側に将棋の駒(以下、代表して駒G1について説明する。)を投影部108に投影させる。
When an instruction to project guide information related to shogi is acquired, the information processing apparatus 100-1 projects the guide information related to shogi to the user's motion area. For example, as shown at time t <b> 2 in FIG. 5, the
次に、情報処理装置100−1は、動作領域に投影される将棋に係るガイド情報に対するユーザの操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、ユーザにより駒30が移動させられた状態を目標状態として設定する。
Next, the information processing apparatus 100-1 sets a state where the user's operation is performed on the guide information related to the shogi projected on the motion area as the target state. Specifically, for example, the
次に、情報処理装置100−1は、動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、撮像部104の撮像により得られる画像情報を用いた画像認識処理の結果に基づいて将棋盤上の駒30の移動有無を判定する。図5の時間t3に示したようにユーザにより駒30が移動させられると、制御部106は、ユーザにより駒30が移動させられた状態すなわち目標状態に達したと判定する。
Next, the information processing apparatus 100-1 determines whether the operation state has reached the set target state. For example, the
動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、当該目標状態に係る操作に基づいて投影内容を変更する。例えば、制御部106は、駒30が移動させられると、当該駒30の移動に基づいて次の一手を決定する。そして、制御部106は、決定される次の一手に基づいて駒G1の投影位置を決定し、図5の時間t4に示したように投影部108に当該投影位置に駒G1を投影させる。
If it is determined that the operation state has reached the set target state, the information processing apparatus 100-1 changes the projection content based on the operation related to the target state. For example, when the
これにより、ユーザは煩雑な操作なく情報処理装置100−1との将棋を楽しむことができる。 Thereby, the user can enjoy shogi with the information processing apparatus 100-1 without complicated operations.
また、本実施形態に係る情報処理装置100−1は、情報処理装置100−1同士の将棋対決にも適用される。図6を参照して、情報処理装置100−1同士の将棋対決の例について説明する。図6は、本実施形態の第1の適用例に係る情報処理システムの処理の他の例を説明するための図である。なお、上述の図5の例を用いた説明と実質的に同一の説明については省略する。 Further, the information processing apparatus 100-1 according to the present embodiment is also applied to a shogi battle between the information processing apparatuses 100-1. With reference to FIG. 6, the example of the shogi confrontation between information processing apparatuses 100-1 is demonstrated. FIG. 6 is a diagram for explaining another example of the process of the information processing system according to the first application example of the present embodiment. Note that description that is substantially the same as the description using the example of FIG. 5 is omitted.
図6の例では、将棋盤を挟んで情報処理装置100−1Aと情報処理装置100−1Bとが配置されている。また、将棋盤には、何も配置されていない。なお、将棋盤が用意されてないとしてもよい。その場合、情報処理装置100−1Aまたは100−1Bのうちの少なくとも一方が将棋盤を投影してよい。 In the example of FIG. 6, the information processing device 100-1A and the information processing device 100-1B are arranged with the shogi board interposed therebetween. Also, nothing is placed on the shogi board. The shogi board may not be prepared. In that case, at least one of the information processing apparatuses 100-1A or 100-1B may project a shogi board.
まず、情報処理装置100−1は、ユーザの音声入力に基づいて将棋に係るガイド情報の投影指示が取得されたかを判定する。例えば、情報処理装置100−1Aおよび100−1Bは、図6の時間t5に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「将棋対決して。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「将棋対決」から「将棋の駒」の投影指示が取得されたと判定する。
First, the information processing apparatus 100-1 determines whether an instruction to project guide information related to shogi has been acquired based on a user's voice input. For example, the information processing apparatuses 100-1A and 100-1B use the voice information input from the
将棋に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報をユーザの動作領域に投影する。例えば、図6の時間t6に示したように、将棋盤の情報処理装置100−1A側に将棋の駒G1Aが情報処理装置100−1Aにより投影され、将棋盤の情報処理装置100−1B側に将棋の駒G1Bが情報処理装置100−Bにより投影される。 When an instruction to project guide information related to shogi is acquired, the information processing apparatus 100-1 projects the guide information onto the user's motion area. For example, as shown at time t6 in FIG. 6, the shogi piece G1A is projected by the information processing device 100-1A on the information processing device 100-1A side of the shogi board and on the information processing device 100-1B side of the shogi board The shogi piece G1B is projected by the information processing apparatus 100-B.
次に、情報処理装置100−1は、動作領域に投影されるガイド情報に対する相手方の情報処理装置100−1の駒の移動に係る操作が行われた状態を目標状態として設定する。具体的には、例えば、情報処理装置100−1Aが先行である場合、情報処理装置100−1Bは、情報処理装置100−1Aにより駒G1Aが移動させられた状態を目標状態として設定する。また、情報処理装置100−1Aは、駒G1Aを移動させた後、情報処理装置100−1Bにより駒G1Bが移動させられた状態を目標状態として設定する。 Next, the information processing apparatus 100-1 sets, as a target state, a state in which an operation related to the movement of the piece of the information processing apparatus 100-1 of the other party is performed on the guide information projected on the operation area. Specifically, for example, when the information processing apparatus 100-1A is ahead, the information processing apparatus 100-1B sets the state in which the piece G1A is moved by the information processing apparatus 100-1A as the target state. Further, the information processing apparatus 100-1A sets the state where the piece G1B is moved by the information processing apparatus 100-1B as the target state after moving the piece G1A.
次に、情報処理装置100−1は、相手方の動作状態が設定された目標状態に達したかを判定する。例えば、情報処理装置100−1Bは、将棋盤の駒G1Aの移動有無を判定する。図6の時間t7に示したように情報処理装置100−1Aにより投影される駒G1Aが移動させられると、情報処理装置100−1Bは、設定された情報処理装置100−1Aの操作が行われたと判定する。 Next, the information processing apparatus 100-1 determines whether the other party's operation state has reached the set target state. For example, the information processing apparatus 100-1B determines whether or not the shogi board piece G1A has moved. When the piece G1A projected by the information processing apparatus 100-1A is moved as shown at time t7 in FIG. 6, the information processing apparatus 100-1B operates the set information processing apparatus 100-1A. It is determined that
相手方の動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、当該操作に基づいて投影内容を変更する。例えば、情報処理装置100−1Bは、駒G1Aが移動させられると、当該駒G1Aの移動に基づいて次の一手を決定する。そして、情報処理装置100−1Bは、決定される次の一手に基づいて駒G1Bの投影位置を決定し、図6の時間t8に示したように、決定される位置に駒G1Bを投影部108に投影させる。 When it is determined that the operation state of the other party has reached the set target state, the information processing apparatus 100-1 changes the projection content based on the operation. For example, when the piece G1A is moved, the information processing apparatus 100-1B determines the next move based on the movement of the piece G1A. Then, the information processing apparatus 100-1B determines the projection position of the frame G1B based on the determined next move, and projects the frame G1B to the determined position as shown at time t8 in FIG. To project.
これにより、ユーザは情報処理装置100−1同士の将棋対決を負担なく実現させることができる。なお、上記では、将棋の例について説明したが、本実施形態に係る情報処理システムが適用されるゲームは他の対面式のゲームであってもよい。例えば、当該適用されるゲームは、チェス、オセロまたは囲碁であってもよい。また、プレイヤが3人(3装置)以上のゲームに適用されてもよい。 Thereby, the user can realize the shogi confrontation between the information processing apparatuses 100-1 without a burden. In addition, although the example of shogi was demonstrated above, the game to which the information processing system which concerns on this embodiment is applied may be another face-to-face game. For example, the applied game may be chess, othello or go. Further, the present invention may be applied to a game with three or more players (three devices).
(第2の適用例)
本実施形態の第2の適用例として、情報スキャンの例を説明する。本適用例では、情報処理装置100−1は、目標状態が認識されると、目標状態に基づく処理として、投影指示に対応する処理を行う。具体的には、制御部106は、ガイド情報としてスキャン領域を示す画像を投影部108に投影させ、投影されている領域にスキャン対象が置かれた状態に動作状態が達したと判定されると、スキャン領域についてのスキャンを実行する。さらに、図7を参照して、本適用例の処理について詳細に説明する。図7は、本実施形態の第2の適用例に係る情報処理システムの処理例を説明するための図である。
(Second application example)
An example of information scanning will be described as a second application example of the present embodiment. In this application example, when the target state is recognized, the information processing apparatus 100-1 performs a process corresponding to the projection instruction as a process based on the target state. Specifically, the
図7の例では、ユーザが情報処理装置100−1に紙50の記載内容をスキャンさせる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。
In the example of FIG. 7, consider a case where the user causes the information processing apparatus 100-1 to scan the description content of the
まず、情報処理装置100−1は、ユーザの音声入力に基づいてスキャンに係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図7の時間t9に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「この紙をスキャンしたい。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「紙のスキャン」から「スキャン領域」の投影指示が取得されたと判定する。
First, the information processing apparatus 100-1 determines whether a guide information projection instruction related to scanning has been acquired based on a user's voice input. For example, the
スキャンに係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報をスキャン領域に投影する。例えば、制御部106は、図7の時間t10に示したように、情報処理装置100−1のスキャン領域にスキャン領域を示す枠G2および当該枠G2内にスキャン対象を配置することを促すテキストG3を投影部108に投影させる。
When an instruction to project guide information related to scanning is acquired, the information processing apparatus 100-1 projects guide information onto a scan area. For example, as illustrated at time t10 in FIG. 7, the
次に、情報処理装置100−1は、スキャン領域に投影されるガイド情報に対するユーザのスキャンに係る操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、ユーザによりスキャン対象である紙50がスキャン領域を示す枠G2内に配置された状態を目標状態として設定する。
Next, the information processing apparatus 100-1 sets, as a target state, a state in which an operation related to a user's scan for guide information projected on the scan area is performed. Specifically, for example, the
次に、情報処理装置100−1は、動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、スキャン領域を示す枠G2内にスキャン対象が配置されたかを判定する。図7の時間t11に示したようにユーザにより紙50が投影される枠G2内に配置されると、制御部106は、紙50が枠G2内に配置された状態を画像情報に基づいて認識し、設定されたユーザの操作が行われたと判定する。
Next, the information processing apparatus 100-1 determines whether the operation state has reached the set target state. For example, the
ユーザの動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、当該目標状態に係る操作に基づいて投影指示に対応する処理を実行する。例えば、制御部106は、紙50が枠G2内に配置されると、図7の時間t11に示したようにテキストG3の投影を終了する。次に、制御部106は、枠G2の示すスキャン領域を撮像部104に撮像させることにより、「スキャン領域」の投影指示に対応するスキャンを実行する。そして、制御部106は、撮像により得られた画像を情報処理装置100−1内の記憶部に記憶させ、図7の時間t12に示したようにスキャンが終了したことを示す音声「取込みました。」を音声出力部110に出力する。
When it is determined that the user's operation state has reached the set target state, the information processing apparatus 100-1 executes a process corresponding to the projection instruction based on an operation related to the target state. For example, when the
これにより、ユーザは手軽にスキャンを利用することができる。また、スキャン領域などが示されることにより、スキャンの失敗を抑制することができる。 As a result, the user can easily use the scan. Further, by indicating the scan area or the like, it is possible to suppress scan failure.
(第3の適用例)
本実施形態の第3の適用例として、習字のサポートの例を説明する。本適用例では、情報処理装置100−1は、目標状態が認識されると、投影内容の変更として、投影対象を、投影されているガイド情報の誘導する動作の次の動作を誘導するガイド情報に変更する。また、ガイド情報は、動作主体の動作の順序を示す情報であってよい。具体的には、制御部106は、ガイド情報として習字対象の文字および当該文字の書き順を示す画像を投影部108に投影させ、投影されている画像の示す書き順に対応する文字の部分が書かれた状態に動作状態が達したと判定されると、投影される書き順の次の書き順を投影部108に投影させる。さらに、図8を参照して、本適用例の処理について詳細に説明する。図8は、本実施形態の第3の適用例に係る情報処理システムの処理例を説明するための図である。
(Third application example)
An example of calligraphy support will be described as a third application example of this embodiment. In this application example, when the target state is recognized, the information processing apparatus 100-1 guides the next operation after the operation of guiding the projected guide information as a projection content change, as the change of the projection content. Change to Further, the guide information may be information indicating the order of actions of the action subject. Specifically, the
図8の例では、ユーザが情報処理装置100−1に習字をサポートさせる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。 In the example of FIG. 8, a case is considered where the user causes the information processing apparatus 100-1 to support calligraphy. Note that description of processing that is substantially the same as the processing described above is omitted.
まず、情報処理装置100−1は、ユーザの音声入力に基づいて習字に係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図8の時間t13に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「習字の練習をしたい。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「習字のサポート」から「習字対象の文字」および「書き順」の投影指示が取得されたと判定する。
First, the information processing apparatus 100-1 determines whether an instruction to project guide information related to calligraphy is acquired based on a user's voice input. For example, the
習字に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報を習字に用いられる領域(以下、習字領域とも称する。)に投影する。例えば、制御部106は、情報処理装置100−1周辺において習字領域を判定する。制御部106は、判定される当該習字領域に、図8の時間t14に示したように、当該習字領域を示す枠G4、習字対象の文字G5(図8では「T」)および文字G5の書き順を示す画像G6A(以下、書き順G6Aとも称する。)を投影部108に投影させる。なお、枠G4は投影されなくてもよい。また、当該習字領域は、習字用に用意される紙であってもよく、その場合、制御部106は、当該紙を認識することにより、習字領域を判定してもよい。
When an instruction to project guide information related to a calligraphy is acquired, the information processing apparatus 100-1 projects the guide information onto an area used for the calligraphy (hereinafter also referred to as a calligraphy area). For example, the
次に、情報処理装置100−1は、習字領域に投影されるガイド情報に対するユーザの文字を書く操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、ユーザにより枠G4内に書き順G6Aに対応する文字の部分が書かれた状態を目標状態として設定する。なお、実際に文字が書かれなくてもよい。例えば、文字を書くための筆などの筆記具または指が書き順G6Aに従って動かされた状態が目標状態として設定されてよい。
Next, the information processing apparatus 100-1 sets, as a target state, a state in which an operation of writing a user's character with respect to guide information projected on the calligraphy area is performed. Specifically, for example, the
次に、情報処理装置100−1は、ユーザの動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、投影される書き順G6Aに対応する文字G5の部分が書かれたかを判定する。図8の時間t15に示したように、ユーザにより書き順G6Aに対応する文字G5の部分(「T」の第一画)が書かれると、制御部106は、書き順G6Aに従って当該書き順G6Aに対応する文字G5の部分が書かれた状態に達したと判定する。
Next, the information processing apparatus 100-1 determines whether the user's operation state has reached the set target state. For example, the
ユーザの動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、投影中のガイド情報の次のガイド情報を投影する。例えば、制御部106は、書き順G6Aに対応する文字G5の部分(「T」の第一画)が書かれると、図8の時間t16に示したように次の書き順G6Bを投影部108に投影させる。
When it is determined that the user's operation state has reached the set target state, the information processing apparatus 100-1 projects the guide information next to the guide information being projected. For example, when the part of the character G5 corresponding to the writing order G6A (first drawing of “T”) is written, the
これにより、ユーザは正しい書き順で文字を書く練習を行うことができる。なお、上記では、アルファベットの習字の例について説明したが、習字対象の文字は漢字またはアラビア文字などの他のいずれの文字であってもよい。また、文字以外の記号または図形の描き順に本実施形態に係る情報処理システムが適用されてもよい。また、上記書き順のような投影順序の情報は、サーバ200−1から提供される素材情報に含まれてもよい。 Thereby, the user can practice writing characters in the correct writing order. In addition, although the example of the calligraphy of the alphabet was demonstrated above, the character of calligraphy object may be any other characters, such as a Chinese character or an Arabic character. Further, the information processing system according to the present embodiment may be applied in the drawing order of symbols or figures other than characters. Further, the projection order information such as the drawing order may be included in the material information provided from the server 200-1.
(第4の適用例)
本実施形態の第4の適用例として、料理における具材の盛り付けの教示の例を説明する。本適用例では、情報処理装置100−1は、動作主体の動作の位置を示すガイド情報を投影する。具体的には、制御部106は、ガイド情報として具材を盛り付ける位置を示す画像のみを投影部108に投影させ、投影されている画像の示す盛り付け位置に具材が盛り付けられた状態に動作状態が達したと判定されると、投影される盛り付け位置の次の盛り付け位置を投影部108に投影させる。さらに、図9を参照して、本適用例の処理について詳細に説明する。図9は、本実施形態の第4の適用例に係る情報処理システムの処理例を説明するための図である。
(Fourth application example)
As a fourth application example of this embodiment, an example of teaching how to arrange ingredients in cooking will be described. In this application example, the information processing apparatus 100-1 projects guide information indicating the position of the motion of the motion subject. Specifically, the
図9の例では、ユーザが情報処理装置100−1に料理の盛り付けの手本を提示させる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。 In the example of FIG. 9, consider a case where the user presents an example of cooking arrangement to the information processing apparatus 100-1. Note that description of processing that is substantially the same as the processing described above is omitted.
まず、情報処理装置100−1は、ユーザの音声入力に基づいて具材の盛り付けに係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図9の時間t17に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「盛り付けの手本を見せて。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「具材の盛り付けの提示」から「盛り付け位置」の投影指示が取得されたと判定する。
First, the information processing apparatus 100-1 determines whether a guide information projection instruction related to the arrangement of ingredients has been acquired based on a user's voice input. For example, the
具材の盛り付けに係るガイド情報の投影指示が取得されると、情報処理装置100−1は、単一の動作を誘導する情報のみを有するガイド情報を具材の盛り付けられる領域(以下、盛り付け領域とも称する。)に投影する。例えば、制御部106は、情報処理装置100−1周辺において盛り付け領域を判定する。制御部106は、判定される当該盛り付け領域に、図9の時間t18に示したように、盛り付け位置を示す画像G7A(以下、盛り付け位置G7Aとも称する。)のみを投影部108に投影させる。なお、当該盛り付け領域は、具材が盛り付けられる皿であってよく、その場合、制御部106は、当該皿を認識することにより、盛り付け領域を判定してよい。
When the projection instruction of the guide information related to the arrangement of the ingredients is acquired, the information processing apparatus 100-1 displays the area where the ingredients are arranged (hereinafter referred to as the arrangement area). (Also referred to as “.”). For example, the
次に、情報処理装置100−1は、盛り付け領域に投影されるガイド情報に対するユーザの具材を配置する操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、投影される盛り付け位置G7Aに当該盛り付け位置G7Aに対応する具材が配置された状態を目標状態として設定する。
Next, the information processing apparatus 100-1 sets, as a target state, a state in which an operation for arranging the user's ingredients with respect to guide information projected on the arrangement area is performed. Specifically, for example, the
次に、情報処理装置100−1は、ユーザの動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、投影される盛り付け位置G7Aに具材が配置されたかを判定する。図9の時間t19に示したように、ユーザにより盛り付け位置G7Aに具材60Aが配置されると、制御部106は、盛り付け位置G7Aに、対応する具材が配置された状態に達したと判定する。
Next, the information processing apparatus 100-1 determines whether the user's operation state has reached the set target state. For example, the
ユーザの動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、投影中のガイド情報の次のガイド情報を投影する。例えば、制御部106は、盛り付け位置G7Aに具材60Aが配置されると、図9の時間t20に示したように次の盛り付け位置G7Bのみを投影部108に投影させる。そして、図9の時間t21に示したようにユーザは当該盛り付け位置G7Bに具材60Bを配置する。
When it is determined that the user's operation state has reached the set target state, the information processing apparatus 100-1 projects the guide information next to the guide information being projected. For example, when the
これにより、未経験の料理または盛り付けが難しい料理であっても、ユーザは具材を綺麗に盛り付けることができる。 Thereby, even if it is an inexperienced dish or a dish that is difficult to serve, the user can neatly arrange the ingredients.
(第5の適用例)
本実施形態の第5の適用例として、収納方法の教示の例を説明する。本適用例では、情報処理装置100−1は、第4の適用例と同様に、動作主体の動作の位置を示すガイド情報を投影する。具体的には、制御部106は、ガイド情報として物体の収納位置を示す画像を投影部108に投影させ、投影されている画像の示す収納位置に物体が収納された状態に動作状態が達したと判定されると、投影される収納位置の次の収納位置を投影部108に投影させる。さらに、図10を参照して、本適用例の処理について詳細に説明する。図10は、本実施形態の第5の適用例に係る情報処理システムの処理例を説明するための図である。
(Fifth application example)
As a fifth application example of this embodiment, an example of teaching a storage method will be described. In the present application example, the information processing apparatus 100-1 projects guide information indicating the position of the motion of the operation subject, as in the fourth application example. Specifically, the
図10の例では、ユーザが情報処理装置100−1に収納方法を提示させる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。 In the example of FIG. 10, consider a case where the user presents a storage method to the information processing apparatus 100-1. Note that description of processing that is substantially the same as the processing described above is omitted.
まず、情報処理装置100−1は、ユーザの音声入力に基づいて物体の収納に係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図10の時間t22に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「収納の仕方を教えて。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「収納方法の提示」から「収納位置」の投影指示が取得されたと判定する。
First, the information processing apparatus 100-1 determines whether a guide information projection instruction related to storage of an object has been acquired based on a user's voice input. For example, the
物体の収納に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報を物体が収納される領域(以下、収納領域とも称する。)に投影する。例えば、制御部106は、情報処理装置100−1周辺において収納領域を判定する。制御部106は、判定される当該収納領域に、図10の時間t23に示したように、物体の収納位置を示す画像G8A(以下、収納位置G8Aとも称する。)を投影部108に投影させる。なお、当該収納領域は、収納機能を有する物体であってよく、その場合、制御部106は、当該収納機能を有する物体を認識することにより、収納領域を判定してよい。
When an instruction to project guide information related to the storage of an object is acquired, the information processing apparatus 100-1 projects the guide information onto an area in which the object is stored (hereinafter also referred to as a storage area). For example, the
次に、情報処理装置100−1は、収納領域に投影されるガイド情報に対するユーザの物体の収納操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、投影される収納位置G8Aに当該収納位置G8Aに対応する物体が配置された状態を目標状態として設定する。
Next, the information processing apparatus 100-1 sets, as a target state, a state in which the user's object storage operation is performed on the guide information projected on the storage area. Specifically, for example, the
次に、情報処理装置100−1は、ユーザの動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、投影される収納位置G8Aに物体が配置されたかを判定する。図10の時間t24に示したように、ユーザにより収納位置G8Aに物体62Aが配置されると、制御部106は、収納位置G8Aに、対応する物体が配置された状態に達したと判定する。
Next, the information processing apparatus 100-1 determines whether the user's operation state has reached the set target state. For example, the
ユーザの動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、投影中のガイド情報の次のガイド情報を投影する。例えば、制御部106は、収納位置G8Aに物体62Aが配置されると、図10の時間t25に示したように次の物体の収納位置G8Bを投影部108に投影させる。そして、図10の時間t26に示したようにユーザは当該収納位置G8Bに物体62Bを配置する。
When it is determined that the user's operation state has reached the set target state, the information processing apparatus 100-1 projects the guide information next to the guide information being projected. For example, when the
これにより、収納が苦手なユーザであっても、物を綺麗に収納することができる。また、収納スペースおよび収納作業時間の効率化も可能となる。なお、上記では箱への物体の収納の例を説明したが、本実施形態に係る情報処理システムは冷蔵庫または本棚などへの物体の収納に適用されてもよい。 As a result, even a user who is not good at storing can cleanly store things. In addition, the storage space and the storage work time can be made more efficient. Although an example of storing an object in a box has been described above, the information processing system according to the present embodiment may be applied to storing an object in a refrigerator or a bookshelf.
(第6の適用例)
本実施形態の第6の適用例として、物の包み方の教示の例を説明する。本適用例では、情報処理装置100−1は、動作主体の動作の位置を示すガイド情報を、投影領域に存在する物体の形状に合わせて投影する。具体的には、制御部106は、ガイド情報として物を包むための布の折り目を示す画像を投影部108に投影させ、投影されている画像の示す折り目に布が折られた状態に動作状態が達したと判定されると、投影される画像の示す折り目の次の折り目を示す画像を投影部108に投影させる。さらに、図11を参照して、本適用例の処理について詳細に説明する。図11は、本実施形態の第6の適用例に係る情報処理システムの処理例を説明するための図である。
(Sixth application example)
As a sixth application example of this embodiment, an example of teaching how to wrap an object will be described. In this application example, the information processing apparatus 100-1 projects guide information indicating the position of the motion of the motion subject according to the shape of the object existing in the projection area. Specifically, the
図11の例では、ユーザが情報処理装置100−1に物体の包み方を提示させる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。 In the example of FIG. 11, a case is considered in which the user causes the information processing apparatus 100-1 to present how to wrap an object. Note that description of processing that is substantially the same as the processing described above is omitted.
まず、情報処理装置100−1は、ユーザの音声入力に基づいて物体の包み方に係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図11の時間t27に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「包み方を教えて。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「物体の包み方の提示」から「包む布の折り目」の投影指示が取得されたと判定する。
First, the information processing apparatus 100-1 determines whether or not an instruction to project guide information related to how to wrap an object is acquired based on a user's voice input. For example, the
物体の包み方に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報を物体の形状に沿って投影する。例えば、制御部106は、情報処理装置100−1周辺に置かれた物体および布を認識する。制御部106は、認識される物体に、図11の時間t28に示したように、当該物体を包む布の折り目を示す画像G9A(以下、折り目G9Aとも称する。)を投影部108に投影させる。
When an instruction to project guide information relating to how to wrap an object is acquired, the information processing apparatus 100-1 projects the guide information along the shape of the object. For example, the
次に、情報処理装置100−1は、投影されるガイド情報に対するユーザの布を折る操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、投影される折り目G9Aと一致する折り目で布が折られ、物体が当該布で覆われた状態を目標状態として設定する。
Next, the information processing apparatus 100-1 sets a state where an operation of folding the user's cloth for the projected guide information is performed as a target state. Specifically, for example, the
次に、情報処理装置100−1は、ユーザの動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、投影される折り目G9Aのように布が折られたかを判定する。図11の時間t29に示したように、ユーザにより物体を覆う布が折り目G9Aに沿って折られると、制御部106は、折り目G9Aで物体を覆う布が折られた状態に達したと判定する。
Next, the information processing apparatus 100-1 determines whether the user's operation state has reached the set target state. For example, the
ユーザの動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、投影中のガイド情報の次のガイド情報を投影する。例えば、制御部106は、折り目G9Aのように布が折られると、図11の時間t30に示したように次の折り目G9Bを投影部108に投影させる。そして、図11の時間t31に示したようにユーザは当該折り目G9Bで布を折ることにより物体を包む。
When it is determined that the user's operation state has reached the set target state, the information processing apparatus 100-1 projects the guide information next to the guide information being projected. For example, when the cloth is folded like the crease G9A, the
これにより、物体の包み方が分からないユーザであっても、または包むことが難しい物体についても、物を綺麗に包むことができる。 Accordingly, even a user who does not know how to wrap an object or an object that is difficult to wrap can wrap the object neatly.
(第7の適用例)
本実施形態の第7の適用例として、映像の再生の例を説明する。本適用例では、情報処理装置100−1は、第2の適用例と同様に、目標状態が認識されると、投影指示に対応する処理を行う。具体的には、制御部106は、ガイド情報として映像再生の開始を示す画像を投影部108に投影させ、投影されている画像が操作された状態に動作状態が達したと判定されると、映像の再生を開始する。さらに、図12を参照して、本適用例の処理について詳細に説明する。図12は、本実施形態の第7の適用例に係る情報処理システムの処理例を説明するための図である。
(Seventh application example)
An example of video reproduction will be described as a seventh application example of the present embodiment. In this application example, as in the second application example, the information processing apparatus 100-1 performs processing corresponding to the projection instruction when the target state is recognized. Specifically, the
図12の例では、ユーザが情報処理装置100−1に所望の映像を再生させる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。 In the example of FIG. 12, consider a case where the user causes the information processing apparatus 100-1 to reproduce a desired video. Note that description of processing that is substantially the same as the processing described above is omitted.
まず、情報処理装置100−1は、ユーザの音声入力に基づいて映像再生に係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図12の時間t32に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「XYZ番組を見たい。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「XYZ番組の映像再生」から「映像再生ボタン」の投影指示が取得されたと判定する。
First, the information processing apparatus 100-1 determines whether a guide information projection instruction related to video reproduction has been acquired based on a user's voice input. For example, the
映像再生に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報をユーザの視聴領域に投影する。例えば、制御部106は、ユーザが映像を視聴可能な領域を判定する。そして、制御部106は、判定された視聴領域に、図12の時間t33に示したように、映像再生ボタンG10を投影部108に投影させる。
When an instruction to project guide information related to video reproduction is acquired, the information processing apparatus 100-1 projects the guide information onto the viewing area of the user. For example, the
次に、情報処理装置100−1は、投影されるガイド情報に対してユーザのタッチ操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、ユーザにより映像再生ボタンG10がタッチされた状態を目標状態として設定する。
Next, the information processing apparatus 100-1 sets a state where the user's touch operation is performed on the projected guide information as a target state. Specifically, for example, the
次に、情報処理装置100−1は、動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、投影される映像再生ボタンG10がユーザによりタッチされたかを判定する。図12の時間t34に示したようにユーザの手と映像再生ボタンG10とが重ね合わされると、制御部106は、ユーザにより映像再生ボタンG10がタッチされた状態に達したと判定する。
Next, the information processing apparatus 100-1 determines whether the operation state has reached the set target state. For example, the
ユーザの動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、当該目標状態に係る操作に基づいて投影指示に対応する処理を実行する。例えば、制御部106は、映像再生ボタンG10がタッチされると、図12の時間t35に示したように映像再生ボタンG10の投影を終了する。次に、制御部106は、「XYZ番組の映像再生」の投影指示に対応するXYZ番組の映像の投影を開始する。なお、制御部106は、ユーザがXYZ番組の映像にタッチすると、図12の時間t36に示したように、XYZ番組の再生を停止し、映像再生ボタンG10を再び投影させる。
When it is determined that the user's operation state has reached the set target state, the information processing apparatus 100-1 executes a process corresponding to the projection instruction based on an operation related to the target state. For example, when the video playback button G10 is touched, the
これにより、ユーザは操作に迷うことなく、映像を視聴することができる。 Thereby, the user can view the video without hesitation in operation.
<2−4.第1の実施形態のまとめ>
このように、本開示の第1の実施形態によれば、情報処理装置100−1は、動作主体が誘導を要求する当該動作主体の動作を誘導するガイド情報を、当該ガイド情報の投影指示に応じて投影部に投影させ、当該ガイド情報が誘導する動作が動作主体により行われた状態が認識されると、当該状態に基づく処理を行う。従来では、インタラクションのための動作が複雑になると、動作主体が当該動作を行うことが難しくなり、インタラクションが失敗するおそれがあった。しかし、本実施形態によれば、インタラクションに関する動作が誘導されることにより、ユーザが当該動作に迷うことまたは間違った動作を行うことを抑制することができる。従って、動作主体と装置とのインタラクションをより円滑にすることが可能となる。また、動作主体が人である場合は、動作が誘導されることにより、直感的に正しい動作を理解することができる。従って、インタラクションにおけるユーザのストレスを低減させることが可能となる。また、ガイド情報が複数の動作主体が視認可能な物体に投影されることにより、複数の動作主体がガイド情報を共有することができる。従って、複数の動作主体が協力して動作を行うことができ、動作の高速化または効率化が可能となる。
<2-4. Summary of First Embodiment>
As described above, according to the first embodiment of the present disclosure, the information processing apparatus 100-1 uses the guide information that guides the motion of the motion subject requested by the motion subject as an instruction to project the guide information. Accordingly, when a state in which the operation guided by the guide information is performed by the subject is recognized, a process based on the state is performed. Conventionally, when the operation for interaction becomes complicated, it becomes difficult for the operation subject to perform the operation, and the interaction may fail. However, according to the present embodiment, it is possible to prevent the user from getting lost in the operation or performing an incorrect operation by inducing the operation related to the interaction. Therefore, the interaction between the operation subject and the apparatus can be made smoother. Further, when the action subject is a person, the correct action can be intuitively understood by guiding the action. Therefore, it is possible to reduce the stress of the user in the interaction. Further, the guide information is projected onto an object that can be visually recognized by a plurality of moving subjects, so that the plurality of moving subjects can share the guide information. Therefore, a plurality of operation subjects can cooperate to perform the operation, and the operation can be speeded up or made efficient.
また、上記状態に基づく処理は、投影内容の変更を含む。このため、ユーザは、ガイド情報に従って動作することにより、投影内容を自動的に変更させることができる。従って、投影内容を変更させる手間を削減することが可能となる。 Moreover, the process based on the said state includes the change of the projection content. Therefore, the user can automatically change the projection content by operating according to the guide information. Therefore, it is possible to reduce the trouble of changing the projection contents.
また、上記投影内容の変更は、投影対象を、投影されている上記ガイド情報が誘導する動作の次の動作を誘導するガイド情報に変更することを含む。ここで、複数のガイド情報の全てが一度に投影されると、投影先が投影されるガイド情報を埋め尽くされ、視認性が低下しかねない。また、一度に複数のガイド情報の全てが投影されると、視聴するユーザが混乱するおそれもある。これに対し、上述の投影内容の変更処理によれば、複数のガイド情報のうちの一部のガイド情報のみが投影されるため、視認性を維持でき、ユーザの混乱も抑制できる。また、ユーザの動作の終了に合わせて次のガイド情報が投影されるため、ユーザは直感的に動作順を理解することができる。従って、ガイド情報が複数である場合でも、ユーザビリティを維持することが可能となる。 In addition, the change of the projection content includes changing the projection target to guide information that guides the next operation of the operation guided by the projected guide information. Here, if all of the plurality of guide information is projected at once, the guide information projected by the projection destination is filled, and visibility may be lowered. In addition, if all of a plurality of guide information are projected at a time, the viewing user may be confused. On the other hand, according to the above-described projection content changing process, only part of the guide information is projected, and thus visibility can be maintained and user confusion can be suppressed. Further, since the next guide information is projected in accordance with the end of the user's operation, the user can intuitively understand the operation order. Therefore, usability can be maintained even when there is a plurality of guide information.
また、上記ガイド情報は、上記動作主体に単一の動作を誘導する情報のみを含む。このため、動作主体は誘導される動作を容易に把握することができる。従って、動作主体が誘導される動作と異なる動作を誤って行うおそれを抑制することが可能となる。 The guide information includes only information for inducing a single action to the action subject. For this reason, the operation subject can easily grasp the guided operation. Therefore, it is possible to suppress a possibility that an operation different from the operation in which the operation subject is guided is erroneously performed.
また、上記状態に基づく処理は、上記投影指示に対応する処理を含む。このため、ユーザは、ガイド情報に従って動作することにより、所望の処理を情報処理装置100−1に行わせることができる。従って、当該所望の処理の実行のための操作を誤るおそれを抑制することが可能となる。 Further, the process based on the state includes a process corresponding to the projection instruction. Therefore, the user can cause the information processing apparatus 100-1 to perform a desired process by operating according to the guide information. Therefore, it is possible to suppress the possibility of erroneous operation for executing the desired process.
また、上記ガイド情報は、上記動作主体に動作させる位置を示す情報を含む。このため、動作の位置が誘導されることにより、行われる動作の正確性を高めることができる。従って、動作の位置のずれのせいで動作に基づく処理が行われないことが抑制され、ユーザの苛立ちなどの不快感を抑制することが可能となる。言い換えると、所望する処理をスムーズに情報処理装置100−1に実行させることが可能となる。また、正しい動作の位置(例えば盛り付け位置)をユーザに提示することができる。従って、ユーザは正しい動作の位置を習得することが可能となる。 The guide information includes information indicating a position to be operated by the operating subject. For this reason, the accuracy of the operation performed can be improved by guiding the position of the operation. Therefore, it is possible to suppress the processing based on the operation from being performed due to the displacement of the operation position, and it is possible to suppress discomfort such as user irritation. In other words, it is possible to cause the information processing apparatus 100-1 to smoothly execute a desired process. In addition, the correct operation position (for example, the arrangement position) can be presented to the user. Therefore, the user can learn the position of the correct operation.
また、上記ガイド情報は、上記動作主体に動作させる順序を示す情報を含む。このため、動作の順序が誘導されることにより、行われる動作の正確性を高めることができる。従って、動作順の間違いのせいで動作に基づく処理が行われないことが抑制され、ユーザの苛立ちなどの不快感を抑制することが可能となる。言い換えると、所望する処理をスムーズに情報処理装置100−1に実行させることが可能となる。また、正しい動作順(例えば文字の書き順)をユーザに提示することができる。従って、ユーザは正しい動作順を習得することが可能となる。 The guide information includes information indicating the order in which the operation subject operates. For this reason, the accuracy of the operation to be performed can be improved by inducing the order of the operations. Accordingly, it is possible to prevent the processing based on the operation from being performed due to an error in the operation order, and it is possible to suppress discomfort such as user irritation. In other words, it is possible to cause the information processing apparatus 100-1 to smoothly execute a desired process. In addition, the correct operation order (for example, the writing order of characters) can be presented to the user. Therefore, the user can learn the correct operation order.
また、上記ガイド情報は、投影領域に存在する物体の形状に合わせて投影される。このため、物体の形状に即した動作を誘導することができる。従って、ガイド情報をより正確に投影することができ、動作主体が誤った動作を行うことを抑制することが可能となる。 The guide information is projected according to the shape of the object existing in the projection area. For this reason, the operation | movement according to the shape of the object can be induced | guided | derived. Therefore, it is possible to project the guide information more accurately, and it is possible to prevent the operation subject from performing an incorrect operation.
また、上記動作は、投影されている上記ガイド情報に対する操作を含む。このため、動作主体は投影されている画像について動作することにより投影内容または投影指示に対応する処理を操作することができる。従って、投影内容または投影指示に対応する処理を直感的に操作することが可能となる。また、動作に応じて処理が実行されていくことにより、動作主体は所望の動作に集中することができる。 Moreover, the said operation | movement contains operation with respect to the said guide information currently projected. For this reason, the operation subject can operate the process corresponding to the projection content or the projection instruction by operating on the projected image. Therefore, it is possible to intuitively operate the processing corresponding to the projection content or the projection instruction. In addition, by performing the processing according to the operation, the operation subject can concentrate on the desired operation.
また、上記状態は、上記動作主体の動作結果が映る画像に係る画像情報に基づいて認識される。このため、ユーザが動作状態を情報処理装置100−1に入力することなく、情報処理装置100−1にて動作状態を認識することができる。従って、ユーザの手間を削減することが可能となる。 The state is recognized based on image information relating to an image in which the operation result of the operation subject is reflected. Therefore, the information processing apparatus 100-1 can recognize the operation state without the user inputting the operation state to the information processing apparatus 100-1. Therefore, it is possible to reduce the labor of the user.
また、上記状態の認識は情報処理装置100−1の外部の装置で行われ、認識結果が当該外部の装置から提供される。このため、情報処理装置100−1において行われる処理を削減することができる。従って、情報処理装置100−1の構成を簡素化し、また処理負荷の低減および処理の高速化が可能となる。 Moreover, the recognition of the state is performed by an external device of the information processing apparatus 100-1, and the recognition result is provided from the external device. For this reason, the process performed in the information processing apparatus 100-1 can be reduced. Therefore, the configuration of the information processing apparatus 100-1 can be simplified, the processing load can be reduced, and the processing speed can be increased.
また、上記ガイド情報を投影するための情報は、情報処理装置100−1の外部の装置から提供される。このため、情報処理装置100−1にガイド情報または素材情報が記憶される場合と比べて情報処理装置100−1の要される記憶容量を低減することができる。従って、情報処理装置100−1のコストを低減することが可能となる。 Information for projecting the guide information is provided from a device external to the information processing device 100-1. For this reason, compared with the case where guide information or material information is memorize | stored in the information processing apparatus 100-1, the memory capacity required for the information processing apparatus 100-1 can be reduced. Therefore, it is possible to reduce the cost of the information processing apparatus 100-1.
また、上記投影指示は、上記動作主体の音声で入力される。このため、ユーザが手を離せない場合であっても投影指示を出すことができる。従って、インタラクションの利用機会を増加させることができ、ユーザの利便性を向上させることが可能となる。 Further, the projection instruction is input with the voice of the operation subject. For this reason, even when the user cannot release his / her hand, a projection instruction can be issued. Therefore, the use opportunity of interaction can be increased and the convenience for the user can be improved.
<2−5.変形例>
以上、本開示の第1の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の変形例について説明する。
<2-5. Modification>
Heretofore, the first embodiment of the present disclosure has been described. In addition, this embodiment is not limited to the above-mentioned example. Below, the modification of this embodiment is demonstrated.
本実施形態の変形例として、情報処理装置100−1は、音を発生させる動作を、ガイド情報により誘導する動作としてもよい。具体的には、制御部106は、音を発生させる動作を誘導するためのガイド情報を投影部108に投影させ、動作主体が発する音に係る音情報に基づいて目標状態が認識されると、当該目標状態に基づく処理を実行する。さらに、図13を参照して、本変形例の処理について説明する。図13は、本実施形態の変形例に係る情報処理システムの処理例を説明するための図である。
As a modified example of the present embodiment, the information processing apparatus 100-1 may perform an operation for generating a sound based on guide information. Specifically, the
図13の例では、楽器を演奏するユーザが情報処理装置100−1に楽譜を提示させる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。 In the example of FIG. 13, a case where a user who plays a musical instrument causes the information processing apparatus 100-1 to present a score is considered. Note that description of processing that is substantially the same as the processing described above is omitted.
まず、情報処理装置100−1は、ユーザの音声入力に基づいて楽譜に係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図13の時間t37に示したように、音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「楽譜を見せて。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「楽譜の提示」から「楽譜」の投影指示が取得されたと判定する。
First, the information processing apparatus 100-1 determines whether an instruction to project guide information related to a score is acquired based on a user's voice input. For example, as shown at time t <b> 37 in FIG. 13, the
楽譜に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報をユーザの視聴領域に投影する。例えば、制御部106は、視聴領域を判定し、判定される視聴領域へ図13の時間t38に示したように楽譜G11Aを投影部108に投影させる。
When an instruction to project guide information related to the score is acquired, the information processing apparatus 100-1 projects the guide information onto the viewing area of the user. For example, the
次に、情報処理装置100−1は、動作領域に投影される楽譜に係るガイド情報に応じた音が発せられた状態を目標状態として設定する。具体的には、例えば、制御部106は、ユーザにより楽譜G11Aの示すメロディの音が演奏された状態を目標状態として設定する。
Next, the information processing apparatus 100-1 sets a state in which a sound according to guide information related to the score projected on the motion area is emitted as a target state. Specifically, for example, the
次に、情報処理装置100−1は、動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、音声入力部102の集音により得られる音声情報を用いた音声認識処理の結果をサーバ200−1から得る。そして、音声認識処理の結果が図13の時間t39に示したように楽譜G11Aに示すメロディの音が認識されたことを示す場合、制御部106は、楽譜G11Aの示すメロディの音が演奏された状態に達したと判定する。なお、情報処理装置100−1は、認識された音をユーザに提示してもよい。例えば、制御部106は、図11の時間t39に示したように、投影される楽譜G11Aのうちの認識されたメロディ部分を強調(例えば下線を付加)してもよい。
Next, the information processing apparatus 100-1 determines whether the operation state has reached the set target state. For example, the
動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、次のガイド情報を投影する。例えば、制御部106は、図13の時間t40に示したように投影される楽譜G11Aの示すメロディが演奏されると、図13の時間t41に示したような楽譜G11Aの示すメロディの続きを示す楽譜G11Bを投影させる。
When it is determined that the operation state has reached the set target state, the information processing apparatus 100-1 projects the next guide information. For example, when the melody indicated by the score G11A projected as shown at time t40 in FIG. 13 is played, the
このように、本実施形態の変形例によれば、上記ガイド情報の誘導する動作(動作主体の動作)は、音を発生させる動作を含む。概して、動作主体(特に人間)が音を発生させる動作を行う場合、他の動作を行うことが困難であることが多い。そこで、本変形例の構成によれば、ガイド情報または情報処理装置100−1に対して動作主体が直接的な動作を行うことなく、所望の動作を行うだけで当該所望の動作に応じた処理(例えばガイド情報の一連の投影)を情報処理装置100−1に行わせることができる。従って、ユーザは音を発せさせる所望の動作に集中することが可能となる。なお、上記では、音を発生させる動作が楽器の演奏である例を説明したが、音を発生させる動作は歌唱またはタップダンスなどの他の動作であってもよい。 Thus, according to the modification of the present embodiment, the operation of guiding the guide information (operation of the operation subject) includes an operation of generating sound. In general, when an operation subject (particularly a human) performs an operation that generates sound, it is often difficult to perform another operation. Therefore, according to the configuration of the present modification, a process corresponding to the desired operation can be performed only by performing a desired operation without directly performing an operation on the guide information or the information processing apparatus 100-1. (For example, a series of projections of guide information) can be performed by the information processing apparatus 100-1. Therefore, the user can concentrate on a desired action for generating a sound. In the above description, an example in which the sound generating operation is a musical instrument performance has been described. However, the sound generating operation may be other operations such as singing or tap dancing.
また、動作状態は、動作主体が発する音に係る音情報に基づいて認識される。このため、ユーザが動作状態を情報処理装置100−1に意識して入力することなく、情報処理装置100−1にて動作状態を認識することができる。従って、ユーザの手間を削減することが可能となる。なお、上述した画像情報に基づく認識処理が併用されてもよい。この場合、認識される動作状態の精度および正確性を向上させることが可能となる。 Further, the operating state is recognized based on sound information related to the sound emitted by the operating subject. Therefore, the information processing apparatus 100-1 can recognize the operation state without the user consciously inputting the operation state to the information processing apparatus 100-1. Therefore, it is possible to reduce the labor of the user. Note that the above-described recognition processing based on the image information may be used in combination. In this case, it is possible to improve the accuracy and accuracy of the recognized operating state.
<3.第2の実施形態(エラー処理の例)>
以上、本開示の第1の実施形態について説明した。次に、本開示の第2の実施形態について説明する。第2の実施形態では、投影されるガイド情報の誘導する動作と異なる動作が行われた状態が認識されると、エラーが通知される。
<3. Second Embodiment (Example of Error Processing)>
Heretofore, the first embodiment of the present disclosure has been described. Next, a second embodiment of the present disclosure will be described. In the second embodiment, when a state in which an operation different from the operation guided by the projected guide information is recognized, an error is notified.
<3−1.システムの構成>
本開示の第2の実施形態に係る情報処理システムの機能構成について説明する。なお、第2の実施形態に係る情報処理システムの機能の構成要素およびサーバ200−2の機能は、第1の実施形態と実質的に同一である。以下では、情報処理装置100−2についてのみ、第1の実施形態に係る機能と異なる機能について説明する。
<3-1. System configuration>
A functional configuration of the information processing system according to the second embodiment of the present disclosure will be described. In addition, the component of the function of the information processing system which concerns on 2nd Embodiment, and the function of the server 200-2 are substantially the same as 1st Embodiment. Hereinafter, only the information processing apparatus 100-2 will be described with respect to functions different from the functions according to the first embodiment.
(制御部)
制御部106は、動作主体の動作がガイド情報の誘導する動作と異なる場合、目標状態に基づく処理と異なる処理を行う。具体的には、制御部106は、目標状態に基づく処理と異なる処理として、エラー通知を行う。
(Control part)
The
より具体的には、制御部106は、エラー通知として、視覚的な通知を行う。例えば、制御部106は、ガイド情報の誘導する動作と異なるユーザの動作が認識されると、ユーザの動作がガイド情報の誘導する動作と異なる旨を示す画像を追加的に投影部108に投影させる。なお、画像を投影するほか、既に投影されているガイド情報または背景などに色彩もしくは輝度の変化または点滅などの視覚的効果が付与されてもよい。
More specifically, the
また、より具体的には、制御部106は、エラー通知として、聴覚的な通知を行ってよい。例えば、制御部106は、ガイド情報の誘導する動作と異なるユーザの動作が認識されると、ユーザの動作がガイド情報の誘導する動作と異なる旨を伝える音声を音声出力部110に出力させる。なお、通知内容は、ユーザの動作がガイド情報の誘導する動作と異なる旨のみであってもよく、さらにガイド情報の誘導する動作への修正方法の通知を含んでもよい。
More specifically, the
<3−2.システムの処理>
次に、図14を参照して、本実施形態に係る情報処理システムの処理について説明する。図14は、本実施形態に係る情報処理装置100−2の処理の例を概念的に示すフローチャートである。なお、第1の実施形態に係る処理と実質的に同一である処理については説明を省略する。
<3-2. System processing>
Next, processing of the information processing system according to the present embodiment will be described with reference to FIG. FIG. 14 is a flowchart conceptually showing an example of processing of the information processing apparatus 100-2 according to the present embodiment. Note that description of processing that is substantially the same as processing according to the first embodiment will be omitted.
情報処理装置100−2は、ガイド情報の投影指示が取得されたかを判定し(ステップS402)、ガイド情報の投影指示が取得されたと判定されると、ガイド情報に応じた目標状態を設定する(ステップS404)。 The information processing apparatus 100-2 determines whether the guide information projection instruction has been acquired (step S402). When it is determined that the guide information projection instruction has been acquired, the information processing apparatus 100-2 sets a target state according to the guide information ( Step S404).
次に、情報処理装置100−2は、動作状態を認識し(ステップS406)、認識された動作状態が目標状態であるかを判定する(ステップS408)。認識された動作状態が目標状態であると判定されると、情報処理装置100−2は、目標状態に基づく処理を実行する(ステップS410)。そして、ガイド情報の投影が終了するまで(ステップS412)、上記ステップS404〜S410の処理が繰り返される。 Next, the information processing apparatus 100-2 recognizes the operation state (step S406), and determines whether the recognized operation state is a target state (step S408). If it is determined that the recognized operation state is the target state, the information processing apparatus 100-2 executes processing based on the target state (step S410). Until the projection of the guide information is completed (step S412), the processes of steps S404 to S410 are repeated.
他方で、認識された動作状態が目標状態でないと判定されると、情報処理装置100−2は、動作状態が遷移中であるかを判定する(ステップS414)。具体的には、制御部106は、画像認識結果から把握されるユーザの動作についての変化が継続しているかを判定する。
On the other hand, when it is determined that the recognized operation state is not the target state, the information processing apparatus 100-2 determines whether the operation state is transitioning (step S414). Specifically, the
動作状態が遷移中でないと判定されると、情報処理装置100−2は、エラー通知処理を実行する(ステップS416)。具体的には、制御部106は、ユーザの動作についての変化が停止したと判定されると、ユーザの動作がガイド情報の誘導する動作と異なる旨を音声出力部110に出力させ、またはその旨を示す画像を投影部108に投影させる。
If it is determined that the operating state is not transitioning, the information processing apparatus 100-2 executes an error notification process (step S416). Specifically, when it is determined that the change in the user's operation has stopped, the
<3−3.適用例>
以上、本実施形態に係る情報処理システムについて説明した。当該情報処理システムは、上述の実施形態を基にして様々な事例に応じて修正され、各事例に適用され得る。以下に、第1および第2の適用例について説明する。
<3-3. Application example>
The information processing system according to this embodiment has been described above. The information processing system can be modified according to various cases based on the above-described embodiment, and can be applied to each case. Below, the 1st and 2nd application example is demonstrated.
(第1の適用例)
本実施形態の第1の適用例として、料理における具材の盛り付けの教示の例を説明する。本適用例では、情報処理装置100−2は、動作主体の動作がガイド情報の誘導する動作と異なる場合に音声を用いてエラーを通知する。具体的には、制御部106は、ガイド情報として具材を盛り付ける位置を示す画像を投影部108に投影させ、投影されている画像の示す盛り付け位置と異なる位置に具材が盛り付けられた状態に動作状態が達したと判定されると、音声出力部110にエラー通知を出力させる。さらに、図15を参照して、本適用例の処理について詳細に説明する。図15は、本実施形態の第1の適用例に係る情報処理システムの処理例を説明するための図である。
(First application example)
As a first application example of this embodiment, an example of teaching how to arrange ingredients in cooking will be described. In this application example, the information processing apparatus 100-2 notifies an error using sound when the operation of the operation subject is different from the operation guided by the guide information. Specifically, the
図15の例では、ユーザが情報処理装置100−2に料理の盛り付けの手本を提示させ、盛り付け位置を誤る場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。 In the example of FIG. 15, a case is considered in which the user presents an example of cooking arrangement to the information processing apparatus 100-2 and the arrangement position is incorrect. Note that description of processing that is substantially the same as the processing described above is omitted.
まず、情報処理装置100−2は、ユーザの音声入力に基づいて具材の盛り付けに係るガイド情報の投影指示が取得されたかを判定し(図15の時間t42)、具材の盛り付けに係るガイド情報の投影指示が取得されると、ガイド情報(盛り付け位置G7A)を盛り付け領域に投影する(図15の時間t43)。 First, the information processing apparatus 100-2 determines whether a guide information projection instruction related to the arrangement of ingredients has been acquired based on the user's voice input (time t42 in FIG. 15), and the guide relating to the arrangement of ingredients. When the information projection instruction is acquired, the guide information (laying position G7A) is projected onto the placing area (time t43 in FIG. 15).
次に、情報処理装置100−2は、盛り付け領域に投影されるガイド情報に対するユーザの具材を配置する操作が行われた状態を目標状態として設定し、ユーザの動作状態が設定された目標状態に達したかを判定する。 Next, the information processing apparatus 100-2 sets, as a target state, a state in which an operation for placing the user's ingredients with respect to the guide information projected on the arrangement area is performed, and the target state in which the user's operation state is set It is determined whether it has reached.
ユーザの動作状態が設定された目標状態に達していないと判定されると、情報処理装置100−2は、ユーザにエラーを通知する。例えば、制御部106は、投影される盛り付け位置G7Aに具材が配置されたかを判定する。ここで、図15の時間t44に示したように、盛り付け位置G7Aと異なる位置に具材60Aが配置されると、制御部106は、動作状態が目標状態と異なる状態であると判定する。なお、ユーザが具材60Aを移動させている間は、動作状態の判定は確定されない。次に、制御部106は、図15の時間t45に示したように、音声出力部110に「位置が違います。」という内容の音声を出力させる。当該音声による通知を受けたユーザは、具材60Aの配置が間違っていることに気づき、図15の時間t46に示したように、投影される盛り付け位置G7Aに具材60Aを再配置することができる。
If it is determined that the user's operating state has not reached the set target state, the information processing apparatus 100-2 notifies the user of an error. For example, the
これにより、ユーザは盛り付け位置が誤っていることに気付くことができる。従って、盛り付け位置の誤りを原因として次の盛り付け位置が投影されない状態が長く継続することを抑制することが可能となる。 Thereby, the user can notice that the arrangement position is incorrect. Therefore, it is possible to suppress the state where the next placement position is not projected for a long time due to an error in the placement position.
(第2の適用例)
本実施形態の第2の適用例として、第1の適用例と同様に、料理における具材の盛り付けの教示の例を説明する。本適用例では、情報処理装置100−2は、動作主体の動作がガイド情報の誘導する動作と異なる場合に、エラー通知の代わりにまたはそれと共に、投影されるガイド情報を変更する。具体的には、制御部106は、ガイド情報が投影されている間の動作主体の動作を記録する。そして、制御部106は、投影されている画像の示す盛り付け位置と異なる位置に具材が盛り付けられた状態に動作状態が達したと判定されると、ガイド情報の変更可否を判定する。ガイド情報が変更されてよいと判定されると、制御部106は、動作主体が過去に行った動作に基づいて修正されたガイド情報を投影部108に投影させる。さらに、図16を参照して、本適用例の処理について詳細に説明する。図16は、本実施形態の第2の適用例に係る情報処理システムの処理例を説明するための図である。
(Second application example)
As a second application example of the present embodiment, an example of teaching how to arrange ingredients in cooking will be described as in the first application example. In this application example, the information processing apparatus 100-2 changes the projected guide information instead of or together with the error notification when the operation of the operation subject is different from the operation guided by the guide information. Specifically, the
図16の例では、図15と同様に、ユーザが情報処理装置100−2に料理の盛り付けの手本を提示させ、盛り付け位置を誤る場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。 In the example of FIG. 16, as in FIG. 15, consider a case where the user causes the information processing apparatus 100-2 to present an example of cooking dishes and misplaces the arrangement position. Note that description of processing that is substantially the same as the processing described above is omitted.
まず、情報処理装置100−2は、ユーザの音声入力に基づいて具材の盛り付けに係るガイド情報の投影指示が取得されたかを判定し(図16の時間t47)、具材の盛り付けに係るガイド情報の投影指示が取得されると、ガイド情報(盛り付け位置G7A)を盛り付け領域に投影する(図16の時間t48)。 First, the information processing apparatus 100-2 determines whether an instruction to project guide information related to the arrangement of ingredients has been acquired based on the user's voice input (time t47 in FIG. 16), and the guide related to the arrangement of ingredients. When the information projection instruction is acquired, the guide information (laying position G7A) is projected onto the placing area (time t48 in FIG. 16).
次に、情報処理装置100−2は、盛り付け領域に投影されるガイド情報に対するユーザの具材を配置する操作が行われた状態を目標状態として設定し、ユーザの動作状態が設定された目標状態に達したかを判定する。 Next, the information processing apparatus 100-2 sets, as a target state, a state in which an operation for placing the user's ingredients with respect to the guide information projected on the arrangement area is performed, and the target state in which the user's operation state is set It is determined whether it has reached.
ユーザの動作状態が設定された目標状態に達していないと判定されると、情報処理装置100−2は、ユーザにエラーを通知すると共に、ガイド情報の変更可否を確認する。例えば、図16の時間t49に示したように、盛り付け位置G7Aと異なる位置に具材60Aが配置されると、制御部106は、動作状態が目標状態と異なる状態であると判定する。そして、制御部106は、図16の時間t49に示したように、「位置が違います。」という内容の音声を音声出力部110に出力させる。さらに、制御部106は、「盛り付け方を変えますか?」というガイド情報の変更可否をユーザに問う音声を音声出力部110に出力させる。
If it is determined that the user's operating state has not reached the set target state, the information processing apparatus 100-2 notifies the user of an error and confirms whether the guide information can be changed. For example, as shown at time t49 in FIG. 16, when the
ガイド情報が変更されてよいと判定されると、情報処理装置100−2は、過去の動作履歴に基づいて修正されたガイド情報を投影する。例えば、制御部106は、図16の時間t49に示したようにガイド情報の変更可否の問いに対する肯定応答があった場合、過去のユーザの盛り付け位置に基づいて盛り付け位置G7Aの配置を既に具材60Aが配置されている位置に変更する。また、制御部106は、盛り付け位置G7Aの次の盛り付け位置G7Bについても配置を変更する。そして、制御部106は、図16の時間t50に示したように、変更後の盛り付け位置G7Bを投影部108に投影させる。ユーザは、図16の時間t51に示したように、変更後の盛り付け位置G7Bに具材60Bを配置する。
If it is determined that the guide information may be changed, the information processing apparatus 100-2 projects the guide information corrected based on the past operation history. For example, when there is an affirmative response to the question as to whether or not the guide information can be changed as shown at time t49 in FIG. 16, the
これにより、盛り付け位置が提示される盛り付け位置と異なっている場合に、ユーザに合わせて修正された盛り付け位置を再提示することができる。従って、ユーザの意思が尊重されることにより、ユーザビリティを向上させることが可能となる。 Thereby, when the arrangement position is different from the arrangement position to be presented, the arrangement position corrected according to the user can be presented again. Therefore, usability can be improved by respecting the user's intention.
なお、上記では過去の動作履歴に基づいてガイド情報が修正される例を説明したが、ガイド情報の誘導する動作と異なっている現時点の動作に基づいてガイド情報が修正されてもよい。この場合、現時点の動作が尊重されることにより、ユーザに情報処理装置100−2の処理に対するフレキシブルな印象を与えることが可能となる。 In the above description, the guide information is corrected based on the past operation history. However, the guide information may be corrected based on the current operation different from the operation guided by the guide information. In this case, by respecting the current operation, it is possible to give the user a flexible impression on the processing of the information processing apparatus 100-2.
<3−4.第2の実施形態のまとめ>
このように、本開示の第2の実施形態によれば、情報処理装置100−2は、動作主体の動作がガイド情報の誘導する動作と異なる場合、目標状態に基づく処理と異なる処理を行う。このため、目標状態に達していないことに応じた処理が行われることにより、動作主体に目標状態に向かって動作を促すことができる。従って、目標状態の未達の抑制および目標状態に達するまでにかかる時間の短縮が可能となる。
<3-4. Summary of Second Embodiment>
Thus, according to the second embodiment of the present disclosure, the information processing apparatus 100-2 performs a process different from the process based on the target state when the operation of the operation subject is different from the operation guided by the guide information. For this reason, by performing processing according to the fact that the target state has not been reached, it is possible to urge the operating subject to move toward the target state. Accordingly, it is possible to suppress the target state from being unreached and to shorten the time taken to reach the target state.
また、上記目標状態に基づく処理と異なる処理は、エラー通知を含む。このため、目標状態に達していないことが直接的に動作主体に伝えられることにより、動作主体へ目標状態に向かう動作を直接的に促すことができる。従って、目標状態の未達の抑制および目標状態に達するまでにかかる時間の短縮をより確実にすることが可能となる。 Further, processing different from the processing based on the target state includes error notification. For this reason, by notifying the operating subject that the target state has not been reached, it is possible to directly prompt the operating subject to move toward the target state. Accordingly, it is possible to more surely suppress the target state from being unreached and reduce the time taken to reach the target state.
また、上記目標状態に基づく処理と異なる処理は、投影される前記ガイド情報の変更を含む。このため、投影されるガイド情報を動作主体に適応したガイド情報に変更することができる。従って、ユーザビリティを向上させることが可能となる。 Further, the process different from the process based on the target state includes a change of the projected guide information. For this reason, the projected guide information can be changed to guide information adapted to the subject. Therefore, usability can be improved.
また、上記ガイド情報の変更は、動作主体が過去に行った動作に基づいて修正されたガイド情報への投影対象の変更を含む。このため、ガイド情報を動作主体の性質に即したガイド情報に変更することができる。従って、ガイド情報をより確実に動作主体に適応させることができる。 Further, the change of the guide information includes a change of the projection target to the guide information corrected based on the action performed by the action subject in the past. Therefore, the guide information can be changed to guide information that matches the nature of the operation subject. Therefore, the guide information can be more reliably adapted to the operation subject.
また、上記ガイド情報の変更は、ガイド情報の変更可否に基づいて行われる。ここで、自動的にガイド情報が変更されると、動作主体がユーザである場合、ユーザに不快感を与えたり、混乱させたりするおそれがある。これに対し、上述のガイド情報の変更処理によれば、ガイド情報の変更をユーザに確認することができる。従って、ユーザに不快感を与えたり、混乱させたりするおそれを抑制することが可能となる。 The guide information is changed based on whether or not the guide information can be changed. Here, when the guide information is automatically changed, there is a possibility that the user may feel uncomfortable or confused when the operation subject is the user. On the other hand, according to the above-described guide information change process, it is possible to confirm the change of the guide information with the user. Therefore, it is possible to suppress the possibility of giving the user an unpleasant feeling or confusing.
<4.一実施形態に係る情報処理装置のハードウェア構成>
以上、本開示の各実施形態に係る情報処理装置100について説明した。上述した情報処理装置100の処理は、ソフトウェアと、以下に説明する情報処理装置100のハードウェアとの協働により実現される。
<4. Hardware configuration of information processing apparatus according to one embodiment>
The
図17は、本開示の一実施形態に係る情報処理装置100のハードウェア構成を示した説明図である。図17に示したように、情報処理装置100は、プロセッサ132、メモリ134、ブリッジ136、バス138、観測装置140、入力装置142、出力装置144、接続ポート146および通信装置148を備える。
FIG. 17 is an explanatory diagram illustrating a hardware configuration of the
(プロセッサ)
プロセッサ132は、演算処理装置として機能し、各種プログラムと協働して情報処理装置100内の制御部106の機能を実現する。プロセッサ132は、制御回路を用いてメモリ134または他の記憶媒体に記憶されるプログラムを実行することにより、情報処理装置100の様々な論理的機能を動作させる。例えば、プロセッサ132は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)またはSoC(System-on-a-Chip)であってよい。
(Processor)
The
(メモリ)
メモリ134は、プロセッサ132が使用するプログラムまたは演算パラメタなどを記憶する。例えば、メモリ134は、RAM(Random Access Memory)を含み、プロセッサ132の実行において使用するプログラムまたは実行において適宜変化するパラメタなどを一時記憶する。また、メモリ134は、ROM(Read Only Memory)を含み、RAMおよびROMにより記憶部の機能を実現する。なお、接続ポート146または通信装置148などを介して外部のストレージ装置がメモリ134の一部として利用されてもよい。
(memory)
The
なお、プロセッサ132およびメモリ134は、CPUバスなどから構成される内部バスにより相互に接続されている。
The
(ブリッジおよびバス)
ブリッジ136は、バス間を接続する。具体的には、ブリッジ136は、プロセッサ132およびメモリ134が接続される内部バスと、観測装置140、入力装置142、出力装置144、接続ポート146および通信装置148間を接続するバス138と、を接続する。
(Bridge and bus)
The
(観測装置)
観測装置140は、情報処理装置100およびその周辺についての観測を行い、音声入力部102および撮像部104の機能を実現する。具体的には、観測装置140は、音声センサおよびカメラセンサを含む。例えば、音声センサとしてマイクロフォンが含まれ、カメラセンサとしてCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサが含まれてよい。なお、観測装置140はさらに、加速度センサ、角速度センサまたはGPSセンサなどの他のセンサを含んでもよい。
(Observation equipment)
The
(入力装置)
入力装置142は、ユーザが情報処理装置100を操作しまたは情報処理装置100へ情報を入力するために使用される。例えば、入力装置142は、ユーザが情報を入力するための入力手段、およびユーザによる入力に基づいて入力信号を生成し、プロセッサ132に出力する入力制御回路などから構成されている。なお、当該入力手段は、マウス、キーボード、タッチパネル、スイッチまたはレバーなどであってもよい。情報処理装置100のユーザは、入力装置142を操作することにより、情報処理装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
(Input device)
The
(出力装置)
出力装置144は、ユーザに情報を通知するために使用され、投影部108および音声出力部110の機能を実現する。出力装置144は、投影装置および音声出力装置を含んでよい。例えば、出力装置144は、プロジェクタおよびスピーカまたはヘッドフォンなどの装置を含む。なお、出力装置144は、さらに液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置などの表示装置を含んでもよい。また、出力装置144は、各種装置への出力を行うモジュールであってよい。
(Output device)
The
(接続ポート)
接続ポート146は、機器を情報処理装置100に直接接続するためのポートである。例えば、接続ポート146は、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート146は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート146に外部機器を接続することで、情報処理装置100と当該外部機器との間でデータが交換されてもよい。
(Connection port)
The
(通信装置)
通信装置148は、情報処理装置100と外部装置との間の通信を仲介し、通信部112の機能を実現する。具体的には、通信装置148は、有線通信方式に従って通信を実行する。例えば、通信装置148は、信号線通信、有線WAN(Wide Area Network)または有線LAN(Local Area Network)通信などの有線通信を実行する。また、通信装置148は、無線通信方式に従って通信を実行してもよい。例えば、通信装置148は、Bluetooth(登録商標)、NFC(Near Field Communication)、ワイヤレスUSBもしくはTransferJet(登録商標)などの近距離無線通信方式、WCDMA(登録商標)(Wideband Code Division Multiple Access)、WiMAX(登録商標)、LTE(Long Term Evolution)もしくはLTE−Aなどのセルラ通信方式、またはWi−Fi(登録商標)などの無線LAN方式といった、任意の無線通信方式に従って無線通信を実行してよい。
(Communication device)
The
なお、情報処理装置100は、図17を用いて説明した構成の一部を有しなくてもよく、または追加的な構成を有していてもよい。また、図17を用いて説明した構成の全体または一部を集積したワンチップの情報処理モジュールが提供されてもよい。
Note that the
<5.むすび>
以上、本開示の第1の実施形態によれば、インタラクションに関する動作が誘導されることにより、ユーザが当該動作に迷うことまたは間違った動作を行うことを抑制することができる。従って、動作主体と装置とのインタラクションをより円滑にすることが可能となる。また、動作主体が人である場合は、動作が誘導されることにより、直感的に正しい動作を理解することができる。従って、インタラクションにおけるユーザのストレスを低減させることが可能となる。
<5. Conclusion>
As described above, according to the first embodiment of the present disclosure, it is possible to suppress the user from getting lost in the operation or performing the wrong operation by inducing the operation related to the interaction. Therefore, the interaction between the operation subject and the apparatus can be made smoother. Further, when the action subject is a person, the correct action can be intuitively understood by guiding the action. Therefore, it is possible to reduce the stress of the user in the interaction.
また、本開示の第2の実施形態によれば、目標状態に達していないことに応じた処理が行われることにより、動作主体に目標状態に向かって動作を促すことができる。従って、目標状態の未達の抑制および目標状態に達するまでにかかる時間の短縮が可能となる。 Further, according to the second embodiment of the present disclosure, by performing processing according to the fact that the target state has not been reached, it is possible to urge the operating subject to move toward the target state. Accordingly, it is possible to suppress the target state from being unreached and to shorten the time taken to reach the target state.
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.
例えば、上記実施形態では、情報処理装置100は消費者などの個人に利用されるとしたが、本技術はかかる例に限定されない。具体的には、情報処理装置100はオフィスまたは工場などの業務において利用されてもよい。例えば、製品の組み立て作業において、情報処理装置100は部品の設置場所を示すガイド情報を投影する。
For example, in the above embodiment, the
また、上記実施形態では、ガイド情報により動作の位置が誘導される例を説明したが、動作のタイミングが誘導されてもよい。例えば、料理において調味料を入れるタイミングを誘導するガイド情報が投影されてもよい。 Moreover, although the said embodiment demonstrated the example which guide | induces the position of an operation | movement by guide information, the timing of an operation | movement may be induced | guided | derived. For example, guide information that guides the timing of adding seasonings in cooking may be projected.
また、上記実施形態では、動作状態が目標状態と異なる場合にエラー通知などが行われる例を説明したが、代わりにまたはそれに加えて、動作主体が間違えるおそれのある動作を誘導するガイド情報が強調させられてもよい。例えば、図15の時間t44に示したような盛り付け位置G7Aについて誤った動作が行われる頻度が他の誘導される盛り付け位置に比べて高い場合、当該盛り付け位置G7Aが強調表示される。強調表示としては、投影されるガイド情報の色彩もしくは輝度の変化または点滅などの視覚的効果を付与がある。それにより、動作主体がガイド情報の誘導する動作と異なる動作を行うおそれを低下させることができる。 In the above-described embodiment, an example in which an error notification is performed when the operation state is different from the target state has been described. May be allowed. For example, when the frequency at which an incorrect operation is performed for the arrangement position G7A as shown at time t44 in FIG. 15 is higher than other induced arrangement positions, the arrangement position G7A is highlighted. As highlighting, there is a visual effect such as a change in color or luminance of the projected guide information or blinking. As a result, it is possible to reduce the possibility that the operation subject will perform an operation different from the operation guided by the guide information.
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Further, the effects described in the present specification are merely illustrative or exemplary and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.
また、上記の実施形態のフローチャートに示されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的にまたは個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。 In addition, the steps shown in the flowcharts of the above-described embodiments are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series in the order described. Including processing to be performed. Further, it goes without saying that the order can be appropriately changed even in the steps processed in time series.
また、情報処理装置100に内蔵されるハードウェアに上述した情報処理装置100の各機能構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムが記憶された記憶媒体も提供される。
It is also possible to create a computer program for causing hardware built in the
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させる投影制御部と、
前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行う処理制御部と、
を備える情報処理装置。
(2)
前記状態に基づく処理は、投影内容の変更を含む、
前記(1)に記載の情報処理装置。
(3)
前記投影内容の変更は、投影対象を、投影されている前記ガイド情報が誘導する動作の次の動作を誘導する前記ガイド情報に変更することを含む、
前記(2)に記載の情報処理装置。
(4)
前記ガイド情報は、前記動作主体に単一の動作を誘導する情報のみを含む、
前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記ガイド情報は、前記動作主体に動作させる位置を示す情報を含む、
前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記ガイド情報は、前記動作主体に動作させる順序を示す情報を含む、
前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記動作は、投影されている前記ガイド情報に対する操作を含む、
前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記動作は、音を発生させる動作を含む、
前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記状態は、前記動作主体の動作結果が映る画像に係る画像情報に基づいて認識される、
前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記状態は、前記動作主体が発する音に係る音情報に基づいて認識される、
前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)
前記状態の認識は前記情報処理装置の外部の装置で行われ、認識結果が前記外部の装置から提供される、
前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)
前記ガイド情報を投影するための情報は、前記情報処理装置の外部の装置から提供される、
前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記投影指示は、前記動作主体の音声で入力される、
前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記処理制御部は、前記動作主体の動作が前記ガイド情報の誘導する動作と異なる場合、前記状態に基づく処理と異なる処理を行う、
前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)
前記状態に基づく処理と異なる処理は、エラー通知を含む、
前記(14)に記載の情報処理装置。
(16)
前記状態に基づく処理と異なる処理は、投影される前記ガイド情報の変更を含む、
前記(14)または(15)に記載の情報処理装置。
(17)
前記ガイド情報の変更は、前記動作主体が過去に行った動作に基づいて修正されたガイド情報への変更を含む、
前記(16)に記載の情報処理装置。
(18)
前記ガイド情報の変更は、前記ガイド情報の変更可否に基づいて行われる、
前記(16)または(17)に記載の情報処理装置。
(19)
プロセッサを用いて、
動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させることと、
前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行うことと、
を含む情報処理方法。
(20)
動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させる投影制御機能と、
前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行う処理制御機能と、
をコンピュータに実現させるためのプログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
A projection control unit that causes the projection unit to project guide information for guiding the operation of the operation subject that the operation subject requests guidance, according to a projection instruction of the guide information;
When a state in which the operation guided by the guide information is performed by the operation subject is recognized, a processing control unit that performs processing based on the state;
An information processing apparatus comprising:
(2)
The processing based on the state includes a change of projection content,
The information processing apparatus according to (1).
(3)
The change of the projection content includes changing the projection target to the guide information that guides the next operation of the operation guided by the projected guide information.
The information processing apparatus according to (2).
(4)
The guide information includes only information for inducing a single action to the action subject.
The information processing apparatus according to any one of (1) to (3).
(5)
The guide information includes information indicating a position to be operated by the operating subject.
The information processing apparatus according to any one of (1) to (4).
(6)
The guide information includes information indicating an order in which the operation subject operates.
The information processing apparatus according to any one of (1) to (5).
(7)
The operation includes an operation on the projected guide information.
The information processing apparatus according to any one of (1) to (6).
(8)
The operation includes an operation of generating sound,
The information processing apparatus according to any one of (1) to (7).
(9)
The state is recognized based on image information relating to an image in which the operation result of the operation subject is reflected.
The information processing apparatus according to any one of (1) to (8).
(10)
The state is recognized based on sound information related to a sound emitted by the operating subject.
The information processing apparatus according to any one of (1) to (9).
(11)
The recognition of the state is performed by a device external to the information processing device, and a recognition result is provided from the external device.
The information processing apparatus according to any one of (1) to (10).
(12)
Information for projecting the guide information is provided from an apparatus outside the information processing apparatus.
The information processing apparatus according to any one of (1) to (11).
(13)
The projection instruction is input by the voice of the operation subject.
The information processing apparatus according to any one of (1) to (12).
(14)
The process control unit performs a process different from the process based on the state when the operation of the operation subject is different from the operation guided by the guide information.
The information processing apparatus according to any one of (1) to (13).
(15)
The processing different from the processing based on the state includes an error notification.
The information processing apparatus according to (14).
(16)
The process different from the process based on the state includes a change of the projected guide information.
The information processing apparatus according to (14) or (15).
(17)
The change of the guide information includes a change to the guide information modified based on the action performed by the action subject in the past.
The information processing apparatus according to (16).
(18)
The change of the guide information is performed based on whether or not the guide information can be changed.
The information processing apparatus according to (16) or (17).
(19)
Using a processor
Projecting guide information for guiding the action of the action subject that the action subject requests guidance to the projection unit according to a projection instruction of the guide information;
When a state in which the operation guided by the guide information is performed by the operation subject is recognized, processing based on the state is performed.
An information processing method including:
(20)
A projection control function that causes the projection unit to project guide information for guiding the operation of the operation subject that the operation subject requests guidance, according to a projection instruction of the guide information;
When a state in which the operation guided by the guide information is performed by the operation subject is recognized, a processing control function for performing processing based on the state;
A program to make a computer realize.
100 情報処理装置
102 音声入力部
104 撮像部
106 制御部
108 投影部
110 音声出力部
112 通信部
200 サーバ
202 通信部
204 音声認識部
206 画像認識部
208 情報提供部
210 記憶部
DESCRIPTION OF
Claims (20)
前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行う処理制御部と、
を備える情報処理装置。 A projection control unit that causes the projection unit to project guide information for guiding the operation of the operation subject that the operation subject requests guidance, according to a projection instruction of the guide information;
When a state in which the operation guided by the guide information is performed by the operation subject is recognized, a processing control unit that performs processing based on the state;
An information processing apparatus comprising:
請求項1に記載の情報処理装置。 The processing based on the state includes a change of projection content,
The information processing apparatus according to claim 1.
請求項2に記載の情報処理装置。 The change of the projection content includes changing the projection target to the guide information that guides the next operation of the operation guided by the projected guide information.
The information processing apparatus according to claim 2.
請求項1に記載の情報処理装置。 The guide information includes only information for inducing a single action to the action subject.
The information processing apparatus according to claim 1.
請求項1に記載の情報処理装置。 The guide information includes information indicating a position to be operated by the operating subject.
The information processing apparatus according to claim 1.
請求項1に記載の情報処理装置。 The guide information includes information indicating an order in which the operation subject operates.
The information processing apparatus according to claim 1.
請求項1に記載の情報処理装置。 The operation includes an operation on the projected guide information.
The information processing apparatus according to claim 1.
請求項1に記載の情報処理装置。 The operation includes an operation of generating sound,
The information processing apparatus according to claim 1.
請求項1に記載の情報処理装置。 The state is recognized based on image information relating to an image in which the operation result of the operation subject is reflected.
The information processing apparatus according to claim 1.
請求項1に記載の情報処理装置。 The state is recognized based on sound information related to a sound emitted by the operating subject.
The information processing apparatus according to claim 1.
請求項1に記載の情報処理装置。 The recognition of the state is performed by a device external to the information processing device, and a recognition result is provided from the external device.
The information processing apparatus according to claim 1.
請求項1に記載の情報処理装置。 Information for projecting the guide information is provided from an apparatus outside the information processing apparatus.
The information processing apparatus according to claim 1.
請求項1に記載の情報処理装置。 The projection instruction is input by the voice of the operation subject.
The information processing apparatus according to claim 1.
請求項1に記載の情報処理装置。 The process control unit performs a process different from the process based on the state when the operation of the operation subject is different from the operation guided by the guide information.
The information processing apparatus according to claim 1.
請求項14に記載の情報処理装置。 The processing different from the processing based on the state includes an error notification.
The information processing apparatus according to claim 14.
請求項14に記載の情報処理装置。 The process different from the process based on the state includes a change of the projected guide information.
The information processing apparatus according to claim 14.
請求項16に記載の情報処理装置。 The change of the guide information includes a change to the guide information modified based on the action performed by the action subject in the past.
The information processing apparatus according to claim 16.
請求項16に記載の情報処理装置。 The change of the guide information is performed based on whether or not the guide information can be changed.
The information processing apparatus according to claim 16.
動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させることと、
前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行うことと、
を含む情報処理方法。 Using a processor
Projecting guide information for guiding the action of the action subject that the action subject requests guidance to the projection unit according to a projection instruction of the guide information;
When a state in which the operation guided by the guide information is performed by the operation subject is recognized, processing based on the state is performed.
An information processing method including:
前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行う処理制御機能と、
をコンピュータに実現させるためのプログラム。 A projection control function that causes the projection unit to project guide information for guiding the operation of the operation subject that the operation subject requests guidance, according to a projection instruction of the guide information;
When a state in which the operation guided by the guide information is performed by the operation subject is recognized, a processing control function for performing processing based on the state;
A program to make a computer realize.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016028061A JP2017146782A (en) | 2016-02-17 | 2016-02-17 | Information processing apparatus, information processing method, and program |
PCT/JP2016/085032 WO2017141518A1 (en) | 2016-02-17 | 2016-11-25 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016028061A JP2017146782A (en) | 2016-02-17 | 2016-02-17 | Information processing apparatus, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017146782A true JP2017146782A (en) | 2017-08-24 |
Family
ID=59624959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016028061A Pending JP2017146782A (en) | 2016-02-17 | 2016-02-17 | Information processing apparatus, information processing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2017146782A (en) |
WO (1) | WO2017141518A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6488039B1 (en) * | 2018-03-15 | 2019-03-20 | 株式会社コナミデジタルエンタテインメント | Game progress information generation system and computer program thereof |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3965895B2 (en) * | 2000-10-03 | 2007-08-29 | 株式会社日立製作所 | Communication type navigation device |
JP2009089068A (en) * | 2007-09-28 | 2009-04-23 | Victor Co Of Japan Ltd | Control device for electronic apparatus, control method and control program |
JP5897240B2 (en) * | 2008-08-20 | 2016-03-30 | 株式会社ユニバーサルエンターテインメント | Customer service system and conversation server |
JP5955299B2 (en) * | 2013-11-08 | 2016-07-20 | 株式会社ソニー・インタラクティブエンタテインメント | Display control apparatus, display control method, program, and information storage medium |
JP6457185B2 (en) * | 2014-03-27 | 2019-01-23 | カンタツ株式会社 | Optical engine, manufacturing method thereof, and projector |
-
2016
- 2016-02-17 JP JP2016028061A patent/JP2017146782A/en active Pending
- 2016-11-25 WO PCT/JP2016/085032 patent/WO2017141518A1/en active Application Filing
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6488039B1 (en) * | 2018-03-15 | 2019-03-20 | 株式会社コナミデジタルエンタテインメント | Game progress information generation system and computer program thereof |
WO2019176711A1 (en) * | 2018-03-15 | 2019-09-19 | 株式会社コナミデジタルエンタテインメント | Game progress information generation system, and computer program and control method therefor |
JP2019154913A (en) * | 2018-03-15 | 2019-09-19 | 株式会社コナミデジタルエンタテインメント | Game progress information generation system and computer program thereof |
Also Published As
Publication number | Publication date |
---|---|
WO2017141518A1 (en) | 2017-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11463611B2 (en) | Interactive application adapted for use by multiple users via a distributed computer-based system | |
JP6653526B2 (en) | Measurement system and user interface device | |
JP6722786B1 (en) | Spatial information management device | |
BR102012002995B1 (en) | ENTRY DEVICE, INFORMATION PROCESSING DEVICE, ENTRY VALUE ACQUISITION METHOD, AND, LEGIBLE RECORDING MEDIA BY NON-TRANSITIONAL COMPUTER | |
US11481025B2 (en) | Display control apparatus, display apparatus, and display control method | |
JPWO2017130486A1 (en) | Information processing apparatus, information processing method, and program | |
JP2011258158A (en) | Program, information storage medium and image generation system | |
US20170285694A1 (en) | Control device, control method, and program | |
JP2012181809A (en) | Apparatus controller, apparatus control method, apparatus control program and integrated circuit | |
JP2022153509A (en) | Measurement support system | |
US20120313968A1 (en) | Image display system, information processing apparatus, display device, and image display method | |
CN106937156A (en) | A kind of method and device and media player for realizing multiple resource synchronization broadcasting | |
WO2017141518A1 (en) | Information processing device, information processing method, and program | |
JP5867743B2 (en) | Information processing apparatus and program for information processing apparatus | |
JP5981617B1 (en) | Computer program and computer-implemented method for displaying user interface images | |
JP5249841B2 (en) | GAME DEVICE, GAME SYSTEM, GAME DEVICE CONTROL METHOD, AND PROGRAM | |
JP6564484B1 (en) | Same room communication system | |
JP5213913B2 (en) | Program and image generation system | |
JP2017199085A (en) | Information processing apparatus, information processing method, and program | |
Pham | The challenge of hand gesture interaction in the Virtual Reality Environment: evaluation of in-air hand gesture using the Leap Motion Controller | |
JP6837109B2 (en) | Control system | |
Ruegger | Touchless interaction with 3D images in the operating room | |
JP2015133637A (en) | Information processing apparatus and operation system | |
WO2019165580A1 (en) | Method for controlling mobile device and control terminal | |
NZ792078A (en) | Interactive application adapted for use by multiple users via a distributed computer-based system |