JP2017146782A - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP2017146782A
JP2017146782A JP2016028061A JP2016028061A JP2017146782A JP 2017146782 A JP2017146782 A JP 2017146782A JP 2016028061 A JP2016028061 A JP 2016028061A JP 2016028061 A JP2016028061 A JP 2016028061A JP 2017146782 A JP2017146782 A JP 2017146782A
Authority
JP
Japan
Prior art keywords
information
processing apparatus
information processing
guide information
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016028061A
Other languages
Japanese (ja)
Inventor
悠 石原
Yu Ishihara
悠 石原
大森 和雄
Kazuo Omori
和雄 大森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016028061A priority Critical patent/JP2017146782A/en
Priority to PCT/JP2016/085032 priority patent/WO2017141518A1/en
Publication of JP2017146782A publication Critical patent/JP2017146782A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Abstract

PROBLEM TO BE SOLVED: To provide a device capable of making an interaction between an operating entity and an apparatus smoother.SOLUTION: The present invention relates to an information processing apparatus comprising: a projection control section which causes a projection section to project guide information for guiding an operation of an operating entity for which the operating entity requests a guide, in response to a projecting instruction of the guide information; and a processing control section by which, if a state where the operation which is guided by the guide information is performed by the operating entity is recognized, processing based on the state is performed. The present invention also relates to an information processing method and a program including: causing a projection section to project guide information for guiding an operation of an operating entity for which the operating entity requests a guide, in response to a projecting instruction of the guide information; and, if a state where the operation which is guided by the guide information is performed by the operating entity is recognized, performing the processing based on the state.SELECTED DRAWING: Figure 4

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。   The present disclosure relates to an information processing apparatus, an information processing method, and a program.

近年、情報処理技術の発展に伴い、ユーザについてインタラクティブな装置が開発されている。このような装置は概して、ユーザの入力操作に応じて情報を出力する。そのため、ユーザの入力操作にかかる負担を低減する技術が開発されている。   In recent years, with the development of information processing technology, interactive devices for users have been developed. Such devices generally output information in response to user input operations. For this reason, techniques for reducing the burden on user input operations have been developed.

例えば、特許文献1では、操作メニューを床に表示するプロジェクタと、表示される操作メニューを操作する床上の物体を検出するレンジセンサとを備え、検出された物体の位置を用いて、当該物体の位置に対応する処理を実行する作動装置に係る発明が開示されている。   For example, Patent Document 1 includes a projector that displays an operation menu on the floor, and a range sensor that detects an object on the floor that operates the displayed operation menu, and uses the detected position of the object to detect the object. An invention relating to an actuator that performs processing corresponding to a position is disclosed.

特開2008−6551号公報JP 2008-6551 A

しかし、動作主体と装置とのインタラクションのさらなる円滑化が望まれている。そこで、本開示では、動作主体と装置とのインタラクションをより円滑にすることが可能な仕組みを提案する。   However, further smoothing of the interaction between the operation subject and the apparatus is desired. Therefore, the present disclosure proposes a mechanism that can make the interaction between the operation subject and the apparatus smoother.

本開示によれば、動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させる投影制御部と、前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行う処理制御部と、
を備える情報処理装置が提供される。
According to the present disclosure, the guide information is guided by the projection control unit that causes the projection unit to project guide information for guiding the operation of the operation subject requested by the operation subject according to the projection instruction of the guide information. When a state in which an action is performed by the action subject is recognized, a process control unit that performs a process based on the state;
An information processing apparatus is provided.

また、本開示によれば、プロセッサを用いて、動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させることと、前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行うことと、を含む情報処理方法が提供される。   Further, according to the present disclosure, using a processor, projecting guide information for guiding the motion of the motion subject that the motion subject requests guidance to the projection unit according to a projection instruction of the guide information; When a state in which an operation guided by guide information is performed by the operation subject is recognized, an information processing method including performing processing based on the state is provided.

また、本開示によれば、動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させる投影制御機能と、前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行う処理制御機能と、をコンピュータに実現させるためのプログラムが提供される。   In addition, according to the present disclosure, the projection control function for projecting guide information for guiding the motion of the motion subject that the motion subject requests guidance to the projection unit according to a projection instruction of the guide information, and the guide information When the state in which the guiding operation is performed by the operation subject is recognized, a program for causing a computer to realize a processing control function for performing processing based on the state is provided.

以上説明したように本開示によれば、動作主体と装置とのインタラクションをより円滑にすることが可能な仕組みが提供される。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。   As described above, according to the present disclosure, a mechanism capable of smoother interaction between an operation subject and an apparatus is provided. Note that the above effects are not necessarily limited, and any of the effects shown in the present specification, or other effects that can be grasped from the present specification, together with or in place of the above effects. May be played.

本開示の各実施形態に係る情報処理装置に関する技術を説明するための図である。It is a figure for demonstrating the technique regarding the information processing apparatus which concerns on each embodiment of this indication. 本開示の各実施形態に係る情報処理装置に関する技術を説明するための図である。It is a figure for demonstrating the technique regarding the information processing apparatus which concerns on each embodiment of this indication. 本開示の各実施形態に係る情報処理装置の動作状態を認識する機能の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the function which recognizes the operation state of the information processing apparatus which concerns on each embodiment of this indication. 本開示の各実施形態に係る情報処理装置の動作状態を認識する機能の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the function which recognizes the operation state of the information processing apparatus which concerns on each embodiment of this indication. 本開示の第1の実施形態に係る情報処理システムの機能構成の例を概略的に示すブロック図である。2 is a block diagram schematically illustrating an example of a functional configuration of an information processing system according to a first embodiment of the present disclosure. FIG. 同実施形態に係る情報処理装置の処理の例を概念的に示すフローチャートである。5 is a flowchart conceptually showing an example of processing of the information processing apparatus according to the embodiment. 同実施形態の第1の適用例に係る情報処理システムの処理例を説明するための図である。It is a figure for demonstrating the process example of the information processing system which concerns on the 1st application example of the embodiment. 同実施形態の第1の適用例に係る情報処理システムの処理の他の例を説明するための図である。It is a figure for demonstrating the other example of a process of the information processing system which concerns on the 1st application example of the embodiment. 同実施形態の第2の適用例に係る情報処理システムの処理例を説明するための図である。It is a figure for demonstrating the process example of the information processing system which concerns on the 2nd application example of the embodiment. 同実施形態の第3の適用例に係る情報処理システムの処理例を説明するための図である。It is a figure for demonstrating the process example of the information processing system which concerns on the 3rd application example of the embodiment. 同実施形態の第4の適用例に係る情報処理システムの処理例を説明するための図である。It is a figure for demonstrating the process example of the information processing system which concerns on the 4th application example of the embodiment. 同実施形態の第5の適用例に係る情報処理システムの処理例を説明するための図である。It is a figure for demonstrating the process example of the information processing system which concerns on the 5th application example of the embodiment. 同実施形態の第6の適用例に係る情報処理システムの処理例を説明するための図である。It is a figure for demonstrating the process example of the information processing system which concerns on the 6th application example of the embodiment. 同実施形態の第7の適用例に係る情報処理システムの処理例を説明するための図である。It is a figure for demonstrating the process example of the information processing system which concerns on the 7th application example of the embodiment. 同実施形態の変形例に係る情報処理システムの処理例を説明するための図である。It is a figure for demonstrating the process example of the information processing system which concerns on the modification of the embodiment. 本開示の第2の実施形態に係る情報処理装置の処理の例を概念的に示すフローチャートである。14 is a flowchart conceptually illustrating an example of processing of an information processing device according to a second embodiment of the present disclosure. 同実施形態の第1の適用例に係る情報処理システムの処理例を説明するための図である。It is a figure for demonstrating the process example of the information processing system which concerns on the 1st application example of the embodiment. 同実施形態の第2の適用例に係る情報処理システムの処理例を説明するための図である。It is a figure for demonstrating the process example of the information processing system which concerns on the 2nd application example of the embodiment. 本開示の一実施形態に係る情報処理装置のハードウェア構成を示した説明図である。FIG. 3 is an explanatory diagram illustrating a hardware configuration of an information processing apparatus according to an embodiment of the present disclosure.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる番号を付して区別する場合もある。例えば、実質的に同一の機能を有する複数の構成を、必要に応じて装置10Aおよび装置10Bなどのように区別する。ただし、実質的に同一の機能構成を区別する必要が無い場合、同一符号のみを付する。例えば、装置10Aおよび装置10Bを特に区別する必要がない場合には、単に装置10と称する。   In the present specification and drawings, a plurality of constituent elements having substantially the same functional configuration may be distinguished by attaching different numbers after the same reference numerals. For example, a plurality of configurations having substantially the same function are differentiated as necessary, such as the device 10A and the device 10B. However, when it is not necessary to distinguish between substantially the same functional configurations, only the same reference numerals are given. For example, when it is not necessary to distinguish between the device 10A and the device 10B, they are simply referred to as the device 10.

なお、説明は以下の順序で行うものとする。
1.序論
2.第1の実施形態(基本形態)
2−1.システムの構成
2−2.システムの処理
2−3.適用例
2−4.第1の実施形態のまとめ
2−5.変形例
3.第2の実施形態(エラー処理の例)
3−1.システムの構成
3−2.システムの処理
3−3.適用例
3−4.第2の実施形態のまとめ
3−5.変形例
4.一実施形態に係る情報処理装置のハードウェア構成
5.むすび
The description will be made in the following order.
1. Introduction 2. First embodiment (basic form)
2-1. System configuration 2-2. System processing 2-3. Application example 2-4. Summary of first embodiment 2-5. Modified example 2. Second embodiment (example of error processing)
3-1. System configuration 3-2. System processing 3-3. Application example 3-4. Summary of Second Embodiment 3-5. Modified example 4. 4. Hardware configuration of information processing apparatus according to one embodiment Conclusion

<1.序論>
まず、本開示の各実施形態に係る情報処理装置に関する技術について説明する。
<1. Introduction>
First, a technique related to an information processing apparatus according to each embodiment of the present disclosure will be described.

上記技術に係る装置10は、通信機能および投影機能を有する。通信機能は、外部の装置から情報を受信したり、外部の装置へ情報を送信したりするための機能である。投影機能は、装置の周辺に画像を投影するための機能である。このため、装置10は、通信を介して得られる情報に基づいて画像を投影することができる。図1Aおよび図1Bは、本開示の各実施形態に係る情報処理装置100に関する技術を説明するための図である。   The apparatus 10 according to the above technique has a communication function and a projection function. The communication function is a function for receiving information from an external device or transmitting information to an external device. The projection function is a function for projecting an image around the device. For this reason, the apparatus 10 can project an image based on information obtained through communication. 1A and 1B are diagrams for describing a technology related to the information processing apparatus 100 according to each embodiment of the present disclosure.

例えば、ユーザと装置10とが将棋をする場合を考える。装置10は、図1Aの破線で示したような将棋盤の装置10側の領域に将棋の駒の画像を投影する。ユーザは、将棋盤上の駒を動かすとともに、どの駒をどこに動かしたかを通信端末20に入力する。通信端末20と装置10とは駒の移動情報を通信する。そして、装置10は、受信された駒の移動情報に基づいて投影する駒の画像の位置を変更する。このようにして、ユーザと装置10との将棋対決が実現される。   For example, consider a case where the user and the device 10 play shogi. The apparatus 10 projects the image of the shogi piece on the area on the apparatus 10 side of the shogi board as shown by the broken line in FIG. 1A. The user moves the piece on the shogi board and inputs to the communication terminal 20 which piece is moved to where. The communication terminal 20 and the apparatus 10 communicate piece movement information. Then, the apparatus 10 changes the position of the image of the frame to be projected based on the received frame movement information. In this way, a shogi battle between the user and the device 10 is realized.

また、ユーザに代わって他の装置10が将棋相手となってもよい。例えば、装置10Aおよび装置10Bは、図1Bに示したように、将棋盤の各装置側に将棋の駒の画像をそれぞれ投影する。装置10Aが先行の場合、装置10Aは、どの駒をどこに動かすかを決定し、投影される駒の画像の位置を決定される位置に変更する。また、装置10Aは、決定された駒の移動情報を装置10Bに送信する。装置10Bは、受信された駒の移動情報に基づいて投影する駒の画像の位置を変更する。このようにして、装置10同士の将棋対決が実現される。   In addition, another device 10 may be a shogi opponent in place of the user. For example, as shown in FIG. 1B, the device 10A and the device 10B project images of shogi pieces on each device side of the shogi board, respectively. In the case where the device 10A is ahead, the device 10A determines which frame is moved to where, and changes the position of the image of the projected frame to the determined position. In addition, the device 10A transmits the determined piece movement information to the device 10B. The apparatus 10B changes the position of the image of the projected frame based on the received frame movement information. In this way, a shogi battle between the devices 10 is realized.

しかし、上述の技術では、動作主体と装置とのインタラクションが煩雑となるおそれがある。例えば、駒の移動情報などの状態変化情報をユーザが逐一入力することはユーザの負担となりかねない。また、インタラクションの実現のために通信機能が要される。例えば、装置10との通信に対応する装置または通信機能がなければ、装置10とのインタラクションを利用することが困難となる。   However, in the above-described technique, there is a possibility that the interaction between the operation subject and the apparatus becomes complicated. For example, it may be a burden on the user to input state change information such as piece movement information one by one. In addition, a communication function is required for realizing the interaction. For example, if there is no device or communication function corresponding to the communication with the device 10, it is difficult to use the interaction with the device 10.

そこで、本開示の各実施形態に係る情報処理装置100は、動作主体の動作状態を認識する認識機能を有する。図2Aおよび図2Bは、本開示の各実施形態に係る情報処理装置100の動作状態を認識する機能の概要を説明するための図である。   Therefore, the information processing apparatus 100 according to each embodiment of the present disclosure has a recognition function that recognizes the operation state of the operation subject. 2A and 2B are diagrams for describing an overview of a function for recognizing an operation state of the information processing apparatus 100 according to each embodiment of the present disclosure.

例えば、情報処理装置100は、図2Aの点線で示したような将棋盤に相当する領域を撮像し、撮像により得られる画像に基づいてユーザの動作状態を認識する。ユーザが駒を動かした状態が認識されると、情報処理装置100は、画像に映る駒の位置に基づいて駒の移動情報を把握する。情報処理装置100は、把握される駒の移動情報に基づいて投影する駒の画像の位置を変更する。一方、ユーザは駒を動かすのみで、情報処理装置100に提供するための入力操作などは行わない。   For example, the information processing apparatus 100 captures an area corresponding to a shogi board as shown by a dotted line in FIG. 2A and recognizes the user's operation state based on an image obtained by the imaging. When the state in which the user moves the piece is recognized, the information processing apparatus 100 grasps piece movement information based on the position of the piece shown in the image. The information processing apparatus 100 changes the position of the image of the projected frame based on the grasped movement information of the frame. On the other hand, the user only moves the piece and does not perform an input operation for providing the information processing apparatus 100.

また、情報処理装置100同士の将棋対決について説明する。情報処理装置100Aが先行の場合、情報処理装置100Aは、装置10と同様に、どの駒をどこに動かすかを決定し、投影される駒の画像の位置を決定される位置に変更する。しかし、情報処理装置100Aは、図2Bに示したように、駒の移動情報を情報処理装置100Bに送信することはない。情報処理装置100Bは、将棋盤に相当する領域を撮像し、撮像により得られる画像に基づいて情報処理装置100Aの動作状態を認識する。情報処理装置100Aが駒を動かした状態が認識されると、情報処理装置100Bは、画像に映る駒の位置に基づいて投影する駒の画像の位置を変更する。   Moreover, the shogi confrontation between the information processing apparatuses 100 will be described. When the information processing apparatus 100A precedes, similarly to the apparatus 10, the information processing apparatus 100A determines which frame to move to and changes the position of the image of the projected frame to the determined position. However, the information processing apparatus 100A does not transmit the piece movement information to the information processing apparatus 100B as illustrated in FIG. 2B. The information processing apparatus 100B captures an area corresponding to the shogi board, and recognizes the operation state of the information processing apparatus 100A based on an image obtained by the imaging. When it is recognized that the information processing apparatus 100A has moved the piece, the information processing apparatus 100B changes the position of the image of the piece to be projected based on the position of the piece shown in the image.

このように、情報処理装置100は、動作主体の動作状態を認識する認識機能を有する。このため、動作主体の操作または処理を削減することができる。従って、動作主体と装置とのインタラクションの煩雑化を抑制することが可能となる。以下、当該認識機能を有する情報処理システムについて詳細に説明する。なお、説明の便宜上、第1および第2の実施形態に係る情報処理装置100を、情報処理装置100−1および情報処理装置100−2のように、末尾に実施形態に対応する番号を付することにより区別する。これは後述するサーバ200についても同様である。また、図2Aおよび図2Bでは、情報処理装置100が犬型のロボットである例が示されたが、情報処理装置100はこれに限られず、ロボット以外の装置であってよい。   Thus, the information processing apparatus 100 has a recognition function that recognizes the operation state of the operation subject. For this reason, it is possible to reduce the operation or processing of the operation subject. Accordingly, it is possible to suppress complication of interaction between the operation subject and the apparatus. Hereinafter, an information processing system having the recognition function will be described in detail. For convenience of explanation, like the information processing apparatus 100-1 and the information processing apparatus 100-2, the information processing apparatus 100 according to the first and second embodiments is suffixed with a number corresponding to the embodiment. To distinguish. The same applies to the server 200 described later. 2A and 2B show an example in which the information processing apparatus 100 is a dog-shaped robot, the information processing apparatus 100 is not limited to this, and may be an apparatus other than the robot.

<2.第1の実施形態(基本形態)>
本開示の第1の実施形態について説明する。第1の実施形態では、ユーザの音声入力によるガイド情報の投影指示に基づいてガイド情報が投影され、ガイド情報の誘導する動作が行われた状態が認識されると、当該状態に応じた処理が実行される。
<2. First embodiment (basic form)>
A first embodiment of the present disclosure will be described. In the first embodiment, when guide information is projected based on a guide instruction for guiding information by voice input by the user and a state in which the guide information is guided is recognized, processing corresponding to the state is performed. Executed.

<2−1.システムの構成>
まず、図3を参照して、本開示の第1の実施形態に係る情報処理システムの機能構成について説明する。図3は、本開示の第1の実施形態に係る情報処理システムの機能構成の例を概略的に示すブロック図である。
<2-1. System configuration>
First, the functional configuration of the information processing system according to the first embodiment of the present disclosure will be described with reference to FIG. FIG. 3 is a block diagram schematically illustrating an example of a functional configuration of the information processing system according to the first embodiment of the present disclosure.

図3に示したように、本実施形態に係る情報処理システムは、情報処理装置100−1およびサーバ200−1を備える。   As shown in FIG. 3, the information processing system according to the present embodiment includes an information processing apparatus 100-1 and a server 200-1.

(情報処理装置)
情報処理装置100−1は、音声入力部102、撮像部104、制御部106、投影部108、音声出力部110および通信部112を備える。なお、情報処理装置100−1は、可搬性のある装置であってよい。
(Information processing device)
The information processing apparatus 100-1 includes a voice input unit 102, an imaging unit 104, a control unit 106, a projection unit 108, a voice output unit 110, and a communication unit 112. Note that the information processing apparatus 100-1 may be a portable apparatus.

(音声入力部)
音声入力部102は、情報処理装置100−1周辺の音声を集音する。具体的には、音声入力部102は、情報処理装置100−1周辺の音声を集音し、集音される音声に係る情報(以下、音声情報とも称する。)を生成する。なお、音声入力部102は、音声以外の音を集音してもよい。また、音声情報は、通信部112を介して外部の音声入力装置から取得されてもよい。
(Voice input part)
The voice input unit 102 collects voice around the information processing apparatus 100-1. Specifically, the voice input unit 102 collects voice around the information processing apparatus 100-1 and generates information related to the collected voice (hereinafter also referred to as voice information). Note that the voice input unit 102 may collect sound other than voice. Also, the voice information may be acquired from an external voice input device via the communication unit 112.

(撮像部)
撮像部104は、情報処理装置100−1周辺を撮像する。具体的には、撮像部104は、情報処理装置100−1の動作主体の動作に関わる領域(以下、動作領域とも称する。)を撮像し、撮像により得られる画像に係る情報(以下、撮像画像情報とも称する。)を生成する。当該動作領域は、投影部108により画像が投影される領域または投影可能な領域である。なお、撮像部104の撮像により得られる画像は、動作主体の映る画像であってもよく、動作主体が映らない画像であってもよい。また、撮像画像情報は、通信部112を介して外部の撮像装置から取得されてもよい。
(Imaging part)
The imaging unit 104 images the periphery of the information processing apparatus 100-1. Specifically, the imaging unit 104 captures an area related to the operation of the information processing apparatus 100-1 (hereinafter also referred to as an operation area), and information related to an image obtained by the imaging (hereinafter referred to as a captured image). Also referred to as information). The operation area is an area where an image is projected or can be projected by the projection unit 108. Note that the image obtained by imaging by the imaging unit 104 may be an image in which the action subject is shown, or may be an image in which the action subject is not shown. The captured image information may be acquired from an external imaging device via the communication unit 112.

(制御部)
制御部106は、情報処理装置100−1の機能を全体的に制御する。具体的には、制御部106は、音声入力部102、撮像部104および投影部108の処理を制御する。例えば、制御部106は、制御パラメタなどを設定することにより、音声入力部102、撮像部104および投影部108の処理内容を制御する。
(Control part)
The control unit 106 generally controls the functions of the information processing apparatus 100-1. Specifically, the control unit 106 controls processing of the voice input unit 102, the imaging unit 104, and the projection unit 108. For example, the control unit 106 controls processing contents of the voice input unit 102, the imaging unit 104, and the projection unit 108 by setting control parameters and the like.

また、制御部106は、音声情報および撮像画像情報についての認識結果をサーバ200−1から取得する。例えば、制御部106は、音声入力部102から入力される音声情報および撮像部104から入力される撮像画像情報の各々について音声認識処理および画像認識処理をそれぞれサーバ200−1に通信を介して依頼する。そして、制御部106は、サーバ200−1から通信を介して音声認識結果および画像認識結果を受け取る。   Moreover, the control part 106 acquires the recognition result about audio | voice information and captured image information from the server 200-1. For example, the control unit 106 requests the server 200-1 to perform voice recognition processing and image recognition processing for each of the voice information input from the voice input unit 102 and the captured image information input from the imaging unit 104 via communication. To do. Then, the control unit 106 receives the voice recognition result and the image recognition result from the server 200-1 via communication.

さらに、制御部106は、投影制御部として、ガイド情報の投影指示に応じて当該ガイド情報を投影部108に投影させる。ガイド情報は、動作主体が誘導を要求する当該動作主体の動作を誘導する情報である。具体的には、制御部106は、サーバ200−1から提供される音声認識結果がガイド情報の投影指示を示す場合、当該ガイド情報を投影するための情報(以下、素材情報とも称する。)をサーバ200−1から通信を介して取得する。そして、取得される素材情報に基づいてガイド情報を投影部108に投影させる。例えば、制御部106は、音声認識処理により得られるテキスト情報を解析し、テキスト情報がガイド情報の投影指示を示すかを判定する。テキスト情報がガイド情報の投影指示を示すと判定される場合、制御部106は、テキスト情報の示すガイド情報に係る素材情報の提供をサーバ200−1に通信を介して要求する。サーバ200−1から素材情報が提供されると、制御部106は、提供された素材情報に基づくガイド情報を投影部108に投影させる。なお、ガイド情報の投影指示は、ガイド情報の投影の直接的な指示であってもよく、間接的な指示であってもよい。例えば、ガイド情報の投影の間接的な指示は、ガイド情報に関する情報処理装置100への要望または要求などであってもよい。また、素材情報は、情報処理装置100−1に記憶されていてもよく、情報処理装置100−1内で生成されてもよい。また、サーバ200−1から提供される素材情報は、情報処理装置100−1内で加工されてもよい。   Further, as a projection control unit, the control unit 106 causes the projection unit 108 to project the guide information in response to the guide information projection instruction. The guide information is information for guiding the action of the action subject that the action subject requests for guidance. Specifically, when the voice recognition result provided from server 200-1 indicates a guide information projection instruction, control unit 106 projects information for projecting the guide information (hereinafter also referred to as material information). Obtained from the server 200-1 via communication. Then, guide information is projected on the projection unit 108 based on the acquired material information. For example, the control unit 106 analyzes text information obtained by the speech recognition process, and determines whether the text information indicates a guide information projection instruction. When it is determined that the text information indicates an instruction to project guide information, the control unit 106 requests the server 200-1 to provide material information related to the guide information indicated by the text information via communication. When the material information is provided from the server 200-1, the control unit 106 causes the projection unit 108 to project guide information based on the provided material information. Note that the guide information projection instruction may be a direct instruction of the guide information projection or an indirect instruction. For example, the indirect instruction of the guide information projection may be a request or request to the information processing apparatus 100 related to the guide information. Moreover, material information may be memorize | stored in the information processing apparatus 100-1, and may be produced | generated within the information processing apparatus 100-1. Moreover, the material information provided from the server 200-1 may be processed in the information processing apparatus 100-1.

また、制御部106は、処理制御部として、ガイド情報の誘導する動作が動作主体により行われた状態(以下、目標状態とも称する。)が認識されると、当該目標状態に基づく処理を行う。具体的には、制御部106は、動作主体の動作結果が映る画像に係る撮像画像情報に基づいて認識される動作状態が目標状態であるかを判定する。当該動作状態が目標状態であると判定される場合、制御部106は、当該目標状態に基づく処理を行う。例えば、制御部106は、ガイド情報の投影が開始された際に、目標状態を設定する。次に、制御部106は、所定の時間間隔で動作状態が目標状態に達したかを判定する。詳細には、制御部106は、画像認識処理により得られる物体の位置情報に基づいて、動作主体の位置(または動作主体の動かす物体の位置)の変化を判定する。動作主体の位置が目標状態の位置に変化したと判定される場合、制御部106は、動作状態が目標状態に達したと判定する。そして、制御部106は、動作状態が目標状態に達したと判定され、当該目標状態に基づく処理が行われた後、次の目標状態を設定する。   Further, as a process control unit, the control unit 106 performs processing based on the target state when a state in which the operation guided by the guide information is performed by the operating subject (hereinafter also referred to as a target state) is recognized. Specifically, the control unit 106 determines whether the operation state recognized based on the captured image information related to the image in which the operation result of the operation subject is reflected is the target state. When it is determined that the operation state is the target state, the control unit 106 performs processing based on the target state. For example, the control unit 106 sets a target state when projection of guide information is started. Next, the control unit 106 determines whether the operation state has reached the target state at predetermined time intervals. Specifically, the control unit 106 determines a change in the position of the action subject (or the position of the object moved by the action subject) based on the position information of the object obtained by the image recognition process. When it is determined that the position of the operation subject has changed to the target state, the control unit 106 determines that the operation state has reached the target state. Then, the control unit 106 determines that the operation state has reached the target state, and after performing processing based on the target state, sets the next target state.

(投影部)
投影部108は、情報処理装置100−1周辺に画像を投影する。具体的には、投影部108は、制御部106から入力される画像情報(以下、投影画像情報とも称する。)に係る画像を情報処理装置100−1の周辺に投影する。例えば、投影部108は、制御部106から入力される、素材情報に基づくガイド情報を制御部106の指示する位置に投影する。なお、投影部108は、複数の領域にそれぞれ別個に画像を投影してもよい。また、投影領域は固定であってもよく、可変であってもよい。投影領域が可変である場合、投影領域は制御部106により制御されてよい。
(Projection part)
The projection unit 108 projects an image around the information processing apparatus 100-1. Specifically, the projection unit 108 projects an image related to image information (hereinafter also referred to as projection image information) input from the control unit 106 around the information processing apparatus 100-1. For example, the projection unit 108 projects guide information input from the control unit 106 based on material information to a position designated by the control unit 106. Note that the projection unit 108 may project images separately on a plurality of regions. Further, the projection area may be fixed or variable. When the projection area is variable, the projection area may be controlled by the control unit 106.

(音声出力部)
音声出力部110は、情報処理装置100−1の外部に音声を出力する。具体的には、音声出力部110は、制御部106から入力される音声情報に係る音声を情報処理装置100−1の外部に出力する。なお、出力される音声に係る音声情報は、制御部106にて生成されてもよく、通信部112を介して外部の装置から取得されてもよい。
(Audio output part)
The audio output unit 110 outputs audio to the outside of the information processing apparatus 100-1. Specifically, the audio output unit 110 outputs audio related to the audio information input from the control unit 106 to the outside of the information processing apparatus 100-1. Note that the audio information related to the output audio may be generated by the control unit 106 or acquired from an external device via the communication unit 112.

(通信部)
通信部112は、情報処理装置100−1の外部の装置と通信する。具体的には、通信部112は、音声情報、撮像画像情報および情報提供要求をサーバ200−1へ送信し、音声認識結果、画像認識結果および素材情報をサーバ200−1から受信する。なお、通信部112は、サーバ200−1と有線通信方式を用いて通信してもよく、無線通信方式を用いて通信してもよい。
(Communication Department)
The communication unit 112 communicates with a device external to the information processing device 100-1. Specifically, the communication unit 112 transmits voice information, captured image information, and an information provision request to the server 200-1, and receives a voice recognition result, an image recognition result, and material information from the server 200-1. Note that the communication unit 112 may communicate with the server 200-1 using a wired communication method or may use a wireless communication method.

(サーバ)
また、サーバ200−1は、通信部202、音声認識部204、画像認識部206、情報提供部208および記憶部210を備える。
(server)
The server 200-1 includes a communication unit 202, a voice recognition unit 204, an image recognition unit 206, an information providing unit 208, and a storage unit 210.

(通信部)
通信部202は、サーバ200−1の外部の装置と通信する。具体的には、通信部202は、音声情報、撮像画像情報および情報提供要求を情報処理装置100−1から受信し、音声認識結果、画像認識結果および素材情報を情報処理装置100−1へ送信する。通信部202は、通信部112と実質的に同一の機能を有する。
(Communication Department)
The communication unit 202 communicates with a device external to the server 200-1. Specifically, the communication unit 202 receives voice information, captured image information, and an information provision request from the information processing apparatus 100-1, and transmits the voice recognition result, the image recognition result, and the material information to the information processing apparatus 100-1. To do. The communication unit 202 has substantially the same function as the communication unit 112.

(音声認識部)
音声認識部204は、音声情報に係る音声を認識する。具体的には、音声認識部204は、音声情報に基づいてテキスト情報を生成する。例えば、音声認識部204は、入力される音声情報に係る音声の内容に相当する文字を推定し、推定される文字を用いてテキスト情報を音声認識結果として生成する。なお、音声認識部204は、音声情報に係る音声の発話者を特定してもよい。
(Voice recognition unit)
The voice recognition unit 204 recognizes voice related to voice information. Specifically, the voice recognition unit 204 generates text information based on the voice information. For example, the speech recognition unit 204 estimates characters corresponding to the content of speech related to input speech information, and generates text information as a speech recognition result using the estimated characters. Note that the voice recognition unit 204 may specify a speaker who speaks voice information.

(画像認識部)
画像認識部206は、画像情報に係る画像を認識する。具体的には、画像認識部206は、画像情報に係る画像に映る物体の位置関係を認識する。例えば、画像認識部206は、入力される撮像画像情報に係る画像に映る物体を認識し、認識される物体の配置を推定する。そして、画像認識部206は、認識された物体および当該物体の配置に係る情報を画像認識結果として生成する。なお、画像認識処理にはSLAM(Simultaneous Localization and Mapping)などの技術が利用されてもよい。また、画像認識部206は、さらに顔認識処理を行ってもよい。
(Image recognition unit)
The image recognition unit 206 recognizes an image related to image information. Specifically, the image recognizing unit 206 recognizes the positional relationship between the objects shown in the image related to the image information. For example, the image recognition unit 206 recognizes an object appearing in an image related to input captured image information, and estimates the arrangement of the recognized object. Then, the image recognition unit 206 generates information regarding the recognized object and the arrangement of the object as an image recognition result. Note that a technology such as SLAM (Simultaneous Localization and Mapping) may be used for the image recognition processing. Further, the image recognition unit 206 may further perform face recognition processing.

(情報提供部)
情報提供部208は、情報処理装置100−1へ情報を提供する。具体的には、情報提供部208は、情報処理装置100−1からの情報提供要求に応じて、提供される情報を選択し、選択される情報を情報処理装置100−1に通信を介して提供する。例えば、情報提供部208は、素材情報の提供要求に応じて、記憶部210に記憶される素材情報を取得する。そして、情報提供部208は、取得される素材情報を通信部202に情報処理装置100−1へ送信させる。
(Information provision department)
The information providing unit 208 provides information to the information processing apparatus 100-1. Specifically, the information providing unit 208 selects information to be provided in response to an information provision request from the information processing apparatus 100-1 and communicates the selected information to the information processing apparatus 100-1 via communication. provide. For example, the information providing unit 208 acquires material information stored in the storage unit 210 in response to a material information provision request. Then, the information providing unit 208 causes the communication unit 202 to transmit the acquired material information to the information processing apparatus 100-1.

(記憶部)
記憶部210は、サーバ200−1の処理に用いられる情報および情報処理装置100−1へ提供される情報を記憶する。例えば、記憶部210は、音声認識処理または画像認識処理に用いられる情報、および素材情報としての画像情報またはテキスト情報などを記憶する。
(Memory part)
The storage unit 210 stores information used for processing of the server 200-1 and information provided to the information processing apparatus 100-1. For example, the storage unit 210 stores information used for voice recognition processing or image recognition processing, and image information or text information as material information.

<2−2.システムの処理>
次に、図4を参照して、本実施形態に係る情報処理装置100−1の処理について説明する。図4は、本実施形態に係る情報処理装置100−1の処理の例を概念的に示すフローチャートである。
<2-2. System processing>
Next, processing of the information processing apparatus 100-1 according to the present embodiment will be described with reference to FIG. FIG. 4 is a flowchart conceptually showing an example of processing of the information processing apparatus 100-1 according to the present embodiment.

情報処理装置100−1は、ガイド情報の投影指示が取得されたかを判定する(ステップS302)。具体的には、制御部106は、音声入力部102から入力される音声情報についてサーバ200−1に音声認識処理を行わせ、音声認識結果を取得する。そして、制御部106は、取得された音声認識結果がガイド情報の投影指示を示すかを判定する。   The information processing apparatus 100-1 determines whether a guide information projection instruction has been acquired (step S302). Specifically, the control unit 106 causes the server 200-1 to perform voice recognition processing on the voice information input from the voice input unit 102, and acquires a voice recognition result. Then, the control unit 106 determines whether the acquired voice recognition result indicates a guide information projection instruction.

ガイド情報の投影指示が取得されたと判定されると、情報処理装置100−1は、ガイド情報に応じた目標状態を設定する(ステップS304)。具体的には、制御部106は、音声認識結果がガイド情報の投影指示を示すと判定されると、当該投影指示に係るガイド情報に応じた動作状態を目標状態に設定する。   If it is determined that the guide information projection instruction has been acquired, the information processing apparatus 100-1 sets a target state according to the guide information (step S304). Specifically, when it is determined that the voice recognition result indicates a guide information projection instruction, the control unit 106 sets an operation state corresponding to the guide information related to the projection instruction as a target state.

次に、情報処理装置100−1は、動作状態を認識する(ステップS306)。具体的には、制御部106は、撮像部104から入力される画像情報についてサーバ200−1に画僧認識処理を行わせ、画像認識結果を取得する。   Next, the information processing apparatus 100-1 recognizes the operating state (step S306). Specifically, the control unit 106 causes the server 200-1 to perform image recognition processing on the image information input from the imaging unit 104, and acquires an image recognition result.

次に、情報処理装置100−1は、認識された動作状態が目標状態であるかを判定する(ステップS308)。具体的には、制御部106は、取得された画像認識結果に基づいて特定される動作状態が目標状態と一致するかを判定する。なお、目標状態との一致性(目標状態への到達性)については、所定の範囲の誤差が許容されてよい。   Next, the information processing apparatus 100-1 determines whether the recognized operation state is a target state (step S308). Specifically, the control unit 106 determines whether the operation state specified based on the acquired image recognition result matches the target state. Note that an error within a predetermined range may be allowed for the consistency with the target state (reachability to the target state).

認識された動作状態が目標状態であると判定されると、情報処理装置100−1は、目標状態に基づく処理を実行する(ステップS310)。具体的には、制御部106は、画像認識結果に基づいて特定される動作状態が目標状態と一致すると判定されると、当該目標状態に基づく処理を実行する。   When it is determined that the recognized operation state is the target state, the information processing apparatus 100-1 executes processing based on the target state (step S310). Specifically, when it is determined that the operation state specified based on the image recognition result matches the target state, the control unit 106 executes processing based on the target state.

認識された動作状態が目標状態でないと判定されると、情報処理装置100−1は、処理がステップS306に戻される。   When it is determined that the recognized operation state is not the target state, the information processing apparatus 100-1 returns the process to step S306.

次に、情報処理装置100−1は、ガイド情報の投影が終了したかを判定し(ステップS312)、ガイド情報の投影が終了したと判定されると、処理を終了する。ガイド情報の投影が終了したと判定されない場合には、ステップS304に戻って処理が繰り返される。   Next, the information processing apparatus 100-1 determines whether the projection of the guide information has ended (step S312), and ends the process when it is determined that the projection of the guide information has ended. If it is not determined that the projection of the guide information has been completed, the process returns to step S304 and the process is repeated.

<2−3.適用例>
以上、本実施形態に係る情報処理システムについて説明した。当該情報処理システムは、上述の実施形態を基にして様々な事例に応じて修正され、各事例に適用され得る。以下に、第1〜第7の適用例について説明する。
<2-3. Application example>
The information processing system according to this embodiment has been described above. The information processing system can be modified according to various cases based on the above-described embodiment, and can be applied to each case. Hereinafter, first to seventh application examples will be described.

(第1の適用例)
本実施形態の第1の適用例として、将棋の例を説明する。本適用例では、投影されているガイド情報に対する操作がガイド情報により誘導され、情報処理装置100−1は、当該操作に係る目標状態が認識されると、目標状態に基づく処理として、投影内容の変更を行う。具体的には、制御部106は、ガイド情報として将棋の駒を示す画像を投影部108に投影させ、投影されている将棋の駒を示す画像に対する動作主体の操作が目標状態に係る操作に達したと判定されると、将棋の駒を示す画像の表示位置を当該目標状態に係る操作に応じて移動させる。さらに、図5を参照して、本適用例の処理について詳細に説明する。図5は、本実施形態の第1の適用例に係る情報処理システムの処理例を説明するための図である。
(First application example)
As a first application example of this embodiment, an example of shogi will be described. In this application example, when the operation on the projected guide information is guided by the guide information, and the target state related to the operation is recognized, the information processing apparatus 100-1 performs the processing of the projection content as the process based on the target state. Make a change. Specifically, the control unit 106 causes the projection unit 108 to project an image showing a shogi piece as guide information, and the operation of the operation subject on the image showing the projected shogi piece reaches the operation related to the target state. If it is determined that the display has been performed, the display position of the image indicating the shogi piece is moved in accordance with the operation related to the target state. Furthermore, the processing of this application example will be described in detail with reference to FIG. FIG. 5 is a diagram for explaining a processing example of the information processing system according to the first application example of the present embodiment.

図5の例では、将棋盤を挟んでユーザと情報処理装置100−1とが配置されている。また、将棋盤には、ユーザ側に予め実物体としての駒(以下、代表して駒30について説明する。)が配置されている。なお、ユーザ側に配置される駒は情報処理装置100−1により投影されてもよい。   In the example of FIG. 5, the user and the information processing apparatus 100-1 are arranged across the shogi board. On the shogi board, a piece as a real object (hereinafter, the piece 30 will be described as a representative) is arranged on the user side in advance. Note that the pieces arranged on the user side may be projected by the information processing apparatus 100-1.

まず、情報処理装置100−1は、ユーザの音声入力に基づいて将棋に係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図5の時間t1に示したように、音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「将棋したい。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいてユーザの指示「将棋対決」を解釈し、解釈される指示から「将棋の駒」の投影指示が取得されたと判定する。   First, the information processing apparatus 100-1 determines whether an instruction to project guide information related to shogi has been acquired based on a user's voice input. For example, as illustrated at time t <b> 1 in FIG. 5, the control unit 106 obtains text information related to the text “I want to play shogi” from the server 200-1 using the voice information input from the voice input unit 102. Then, the control unit 106 interprets the user instruction “Shogi confrontation” based on the text information, and determines that the projection instruction of “Shogi piece” has been acquired from the interpreted instruction.

将棋に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、将棋に係るガイド情報をユーザの動作領域に投影する。例えば、制御部106は、図5の時間t2に示したように、撮像部104の撮像により得られる画像に映る将棋盤の情報処理装置100−1側に将棋の駒(以下、代表して駒G1について説明する。)を投影部108に投影させる。   When an instruction to project guide information related to shogi is acquired, the information processing apparatus 100-1 projects the guide information related to shogi to the user's motion area. For example, as shown at time t <b> 2 in FIG. 5, the control unit 106 displays a shogi piece (hereinafter, representatively a piece on the shogi board) on the information processing apparatus 100-1 side of the shogi board shown in the image obtained by the imaging unit 104. G1 will be described.) Is projected on the projection unit 108.

次に、情報処理装置100−1は、動作領域に投影される将棋に係るガイド情報に対するユーザの操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、ユーザにより駒30が移動させられた状態を目標状態として設定する。   Next, the information processing apparatus 100-1 sets a state where the user's operation is performed on the guide information related to the shogi projected on the motion area as the target state. Specifically, for example, the control unit 106 sets a state where the piece 30 is moved by the user as a target state.

次に、情報処理装置100−1は、動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、撮像部104の撮像により得られる画像情報を用いた画像認識処理の結果に基づいて将棋盤上の駒30の移動有無を判定する。図5の時間t3に示したようにユーザにより駒30が移動させられると、制御部106は、ユーザにより駒30が移動させられた状態すなわち目標状態に達したと判定する。   Next, the information processing apparatus 100-1 determines whether the operation state has reached the set target state. For example, the control unit 106 determines whether or not the piece 30 on the shogi board has moved based on the result of image recognition processing using image information obtained by imaging by the imaging unit 104. When the piece 30 is moved by the user as shown at time t3 in FIG. 5, the control unit 106 determines that the state in which the piece 30 has been moved by the user, that is, the target state has been reached.

動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、当該目標状態に係る操作に基づいて投影内容を変更する。例えば、制御部106は、駒30が移動させられると、当該駒30の移動に基づいて次の一手を決定する。そして、制御部106は、決定される次の一手に基づいて駒G1の投影位置を決定し、図5の時間t4に示したように投影部108に当該投影位置に駒G1を投影させる。   If it is determined that the operation state has reached the set target state, the information processing apparatus 100-1 changes the projection content based on the operation related to the target state. For example, when the piece 30 is moved, the control unit 106 determines the next move based on the movement of the piece 30. Then, the control unit 106 determines the projection position of the frame G1 based on the next move to be determined, and causes the projection unit 108 to project the frame G1 at the projection position as shown at time t4 in FIG.

これにより、ユーザは煩雑な操作なく情報処理装置100−1との将棋を楽しむことができる。   Thereby, the user can enjoy shogi with the information processing apparatus 100-1 without complicated operations.

また、本実施形態に係る情報処理装置100−1は、情報処理装置100−1同士の将棋対決にも適用される。図6を参照して、情報処理装置100−1同士の将棋対決の例について説明する。図6は、本実施形態の第1の適用例に係る情報処理システムの処理の他の例を説明するための図である。なお、上述の図5の例を用いた説明と実質的に同一の説明については省略する。   Further, the information processing apparatus 100-1 according to the present embodiment is also applied to a shogi battle between the information processing apparatuses 100-1. With reference to FIG. 6, the example of the shogi confrontation between information processing apparatuses 100-1 is demonstrated. FIG. 6 is a diagram for explaining another example of the process of the information processing system according to the first application example of the present embodiment. Note that description that is substantially the same as the description using the example of FIG. 5 is omitted.

図6の例では、将棋盤を挟んで情報処理装置100−1Aと情報処理装置100−1Bとが配置されている。また、将棋盤には、何も配置されていない。なお、将棋盤が用意されてないとしてもよい。その場合、情報処理装置100−1Aまたは100−1Bのうちの少なくとも一方が将棋盤を投影してよい。   In the example of FIG. 6, the information processing device 100-1A and the information processing device 100-1B are arranged with the shogi board interposed therebetween. Also, nothing is placed on the shogi board. The shogi board may not be prepared. In that case, at least one of the information processing apparatuses 100-1A or 100-1B may project a shogi board.

まず、情報処理装置100−1は、ユーザの音声入力に基づいて将棋に係るガイド情報の投影指示が取得されたかを判定する。例えば、情報処理装置100−1Aおよび100−1Bは、図6の時間t5に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「将棋対決して。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「将棋対決」から「将棋の駒」の投影指示が取得されたと判定する。   First, the information processing apparatus 100-1 determines whether an instruction to project guide information related to shogi has been acquired based on a user's voice input. For example, the information processing apparatuses 100-1A and 100-1B use the voice information input from the voice input unit 102 as shown at time t5 in FIG. Get such text information. Then, the control unit 106 determines that the projection instruction of “shogi piece” is acquired from the user instruction “shogi confrontation” interpreted based on the text information.

将棋に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報をユーザの動作領域に投影する。例えば、図6の時間t6に示したように、将棋盤の情報処理装置100−1A側に将棋の駒G1Aが情報処理装置100−1Aにより投影され、将棋盤の情報処理装置100−1B側に将棋の駒G1Bが情報処理装置100−Bにより投影される。   When an instruction to project guide information related to shogi is acquired, the information processing apparatus 100-1 projects the guide information onto the user's motion area. For example, as shown at time t6 in FIG. 6, the shogi piece G1A is projected by the information processing device 100-1A on the information processing device 100-1A side of the shogi board and on the information processing device 100-1B side of the shogi board The shogi piece G1B is projected by the information processing apparatus 100-B.

次に、情報処理装置100−1は、動作領域に投影されるガイド情報に対する相手方の情報処理装置100−1の駒の移動に係る操作が行われた状態を目標状態として設定する。具体的には、例えば、情報処理装置100−1Aが先行である場合、情報処理装置100−1Bは、情報処理装置100−1Aにより駒G1Aが移動させられた状態を目標状態として設定する。また、情報処理装置100−1Aは、駒G1Aを移動させた後、情報処理装置100−1Bにより駒G1Bが移動させられた状態を目標状態として設定する。   Next, the information processing apparatus 100-1 sets, as a target state, a state in which an operation related to the movement of the piece of the information processing apparatus 100-1 of the other party is performed on the guide information projected on the operation area. Specifically, for example, when the information processing apparatus 100-1A is ahead, the information processing apparatus 100-1B sets the state in which the piece G1A is moved by the information processing apparatus 100-1A as the target state. Further, the information processing apparatus 100-1A sets the state where the piece G1B is moved by the information processing apparatus 100-1B as the target state after moving the piece G1A.

次に、情報処理装置100−1は、相手方の動作状態が設定された目標状態に達したかを判定する。例えば、情報処理装置100−1Bは、将棋盤の駒G1Aの移動有無を判定する。図6の時間t7に示したように情報処理装置100−1Aにより投影される駒G1Aが移動させられると、情報処理装置100−1Bは、設定された情報処理装置100−1Aの操作が行われたと判定する。   Next, the information processing apparatus 100-1 determines whether the other party's operation state has reached the set target state. For example, the information processing apparatus 100-1B determines whether or not the shogi board piece G1A has moved. When the piece G1A projected by the information processing apparatus 100-1A is moved as shown at time t7 in FIG. 6, the information processing apparatus 100-1B operates the set information processing apparatus 100-1A. It is determined that

相手方の動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、当該操作に基づいて投影内容を変更する。例えば、情報処理装置100−1Bは、駒G1Aが移動させられると、当該駒G1Aの移動に基づいて次の一手を決定する。そして、情報処理装置100−1Bは、決定される次の一手に基づいて駒G1Bの投影位置を決定し、図6の時間t8に示したように、決定される位置に駒G1Bを投影部108に投影させる。   When it is determined that the operation state of the other party has reached the set target state, the information processing apparatus 100-1 changes the projection content based on the operation. For example, when the piece G1A is moved, the information processing apparatus 100-1B determines the next move based on the movement of the piece G1A. Then, the information processing apparatus 100-1B determines the projection position of the frame G1B based on the determined next move, and projects the frame G1B to the determined position as shown at time t8 in FIG. To project.

これにより、ユーザは情報処理装置100−1同士の将棋対決を負担なく実現させることができる。なお、上記では、将棋の例について説明したが、本実施形態に係る情報処理システムが適用されるゲームは他の対面式のゲームであってもよい。例えば、当該適用されるゲームは、チェス、オセロまたは囲碁であってもよい。また、プレイヤが3人(3装置)以上のゲームに適用されてもよい。   Thereby, the user can realize the shogi confrontation between the information processing apparatuses 100-1 without a burden. In addition, although the example of shogi was demonstrated above, the game to which the information processing system which concerns on this embodiment is applied may be another face-to-face game. For example, the applied game may be chess, othello or go. Further, the present invention may be applied to a game with three or more players (three devices).

(第2の適用例)
本実施形態の第2の適用例として、情報スキャンの例を説明する。本適用例では、情報処理装置100−1は、目標状態が認識されると、目標状態に基づく処理として、投影指示に対応する処理を行う。具体的には、制御部106は、ガイド情報としてスキャン領域を示す画像を投影部108に投影させ、投影されている領域にスキャン対象が置かれた状態に動作状態が達したと判定されると、スキャン領域についてのスキャンを実行する。さらに、図7を参照して、本適用例の処理について詳細に説明する。図7は、本実施形態の第2の適用例に係る情報処理システムの処理例を説明するための図である。
(Second application example)
An example of information scanning will be described as a second application example of the present embodiment. In this application example, when the target state is recognized, the information processing apparatus 100-1 performs a process corresponding to the projection instruction as a process based on the target state. Specifically, the control unit 106 causes the projection unit 108 to project an image indicating a scan area as guide information, and determines that the operation state has reached the state where the scan target is placed in the projected area. Execute the scan for the scan area. Furthermore, the processing of this application example will be described in detail with reference to FIG. FIG. 7 is a diagram for explaining a processing example of the information processing system according to the second application example of the present embodiment.

図7の例では、ユーザが情報処理装置100−1に紙50の記載内容をスキャンさせる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。   In the example of FIG. 7, consider a case where the user causes the information processing apparatus 100-1 to scan the description content of the paper 50. Note that description of processing that is substantially the same as the processing described above is omitted.

まず、情報処理装置100−1は、ユーザの音声入力に基づいてスキャンに係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図7の時間t9に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「この紙をスキャンしたい。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「紙のスキャン」から「スキャン領域」の投影指示が取得されたと判定する。   First, the information processing apparatus 100-1 determines whether a guide information projection instruction related to scanning has been acquired based on a user's voice input. For example, the control unit 106 obtains text information related to the text “I want to scan this paper” from the server 200-1 using the audio information input from the audio input unit 102 as shown at time t <b> 9 in FIG. 7. . Then, the control unit 106 determines that the projection instruction of “scan area” has been acquired from the user instruction “scan paper” interpreted based on the text information.

スキャンに係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報をスキャン領域に投影する。例えば、制御部106は、図7の時間t10に示したように、情報処理装置100−1のスキャン領域にスキャン領域を示す枠G2および当該枠G2内にスキャン対象を配置することを促すテキストG3を投影部108に投影させる。   When an instruction to project guide information related to scanning is acquired, the information processing apparatus 100-1 projects guide information onto a scan area. For example, as illustrated at time t10 in FIG. 7, the control unit 106 displays a frame G2 indicating the scan area in the scan area of the information processing apparatus 100-1 and text G3 that prompts the user to place the scan target in the frame G2. Is projected on the projection unit 108.

次に、情報処理装置100−1は、スキャン領域に投影されるガイド情報に対するユーザのスキャンに係る操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、ユーザによりスキャン対象である紙50がスキャン領域を示す枠G2内に配置された状態を目標状態として設定する。   Next, the information processing apparatus 100-1 sets, as a target state, a state in which an operation related to a user's scan for guide information projected on the scan area is performed. Specifically, for example, the control unit 106 sets, as a target state, a state in which the paper 50 to be scanned is arranged in a frame G2 indicating a scan area by the user.

次に、情報処理装置100−1は、動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、スキャン領域を示す枠G2内にスキャン対象が配置されたかを判定する。図7の時間t11に示したようにユーザにより紙50が投影される枠G2内に配置されると、制御部106は、紙50が枠G2内に配置された状態を画像情報に基づいて認識し、設定されたユーザの操作が行われたと判定する。   Next, the information processing apparatus 100-1 determines whether the operation state has reached the set target state. For example, the control unit 106 determines whether or not the scan target is arranged in the frame G2 indicating the scan area. As shown at time t11 in FIG. 7, when the user places the paper 50 in the frame G2 on which the paper 50 is projected, the control unit 106 recognizes the state in which the paper 50 is placed in the frame G2 based on the image information. Then, it is determined that the set user operation has been performed.

ユーザの動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、当該目標状態に係る操作に基づいて投影指示に対応する処理を実行する。例えば、制御部106は、紙50が枠G2内に配置されると、図7の時間t11に示したようにテキストG3の投影を終了する。次に、制御部106は、枠G2の示すスキャン領域を撮像部104に撮像させることにより、「スキャン領域」の投影指示に対応するスキャンを実行する。そして、制御部106は、撮像により得られた画像を情報処理装置100−1内の記憶部に記憶させ、図7の時間t12に示したようにスキャンが終了したことを示す音声「取込みました。」を音声出力部110に出力する。   When it is determined that the user's operation state has reached the set target state, the information processing apparatus 100-1 executes a process corresponding to the projection instruction based on an operation related to the target state. For example, when the paper 50 is placed in the frame G2, the control unit 106 ends the projection of the text G3 as shown at time t11 in FIG. Next, the control unit 106 causes the imaging unit 104 to image the scan area indicated by the frame G2, thereby executing a scan corresponding to the projection instruction for the “scan area”. Then, the control unit 106 stores the image obtained by the imaging in the storage unit in the information processing apparatus 100-1, and captures the voice “captured” indicating that the scan has ended as shown at time t12 in FIG. Is output to the audio output unit 110.

これにより、ユーザは手軽にスキャンを利用することができる。また、スキャン領域などが示されることにより、スキャンの失敗を抑制することができる。   As a result, the user can easily use the scan. Further, by indicating the scan area or the like, it is possible to suppress scan failure.

(第3の適用例)
本実施形態の第3の適用例として、習字のサポートの例を説明する。本適用例では、情報処理装置100−1は、目標状態が認識されると、投影内容の変更として、投影対象を、投影されているガイド情報の誘導する動作の次の動作を誘導するガイド情報に変更する。また、ガイド情報は、動作主体の動作の順序を示す情報であってよい。具体的には、制御部106は、ガイド情報として習字対象の文字および当該文字の書き順を示す画像を投影部108に投影させ、投影されている画像の示す書き順に対応する文字の部分が書かれた状態に動作状態が達したと判定されると、投影される書き順の次の書き順を投影部108に投影させる。さらに、図8を参照して、本適用例の処理について詳細に説明する。図8は、本実施形態の第3の適用例に係る情報処理システムの処理例を説明するための図である。
(Third application example)
An example of calligraphy support will be described as a third application example of this embodiment. In this application example, when the target state is recognized, the information processing apparatus 100-1 guides the next operation after the operation of guiding the projected guide information as a projection content change, as the change of the projection content. Change to Further, the guide information may be information indicating the order of actions of the action subject. Specifically, the control unit 106 causes the projection unit 108 to project an image indicating the calligraphy target character and the writing order of the character as guide information, and the character portion corresponding to the writing order indicated by the projected image is written. If it is determined that the operating state has reached the state, the projection unit 108 is caused to project the next stroke order after the projected stroke order. Furthermore, the processing of this application example will be described in detail with reference to FIG. FIG. 8 is a diagram for explaining a processing example of the information processing system according to the third application example of the present embodiment.

図8の例では、ユーザが情報処理装置100−1に習字をサポートさせる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。   In the example of FIG. 8, a case is considered where the user causes the information processing apparatus 100-1 to support calligraphy. Note that description of processing that is substantially the same as the processing described above is omitted.

まず、情報処理装置100−1は、ユーザの音声入力に基づいて習字に係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図8の時間t13に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「習字の練習をしたい。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「習字のサポート」から「習字対象の文字」および「書き順」の投影指示が取得されたと判定する。   First, the information processing apparatus 100-1 determines whether an instruction to project guide information related to calligraphy is acquired based on a user's voice input. For example, the control unit 106 obtains text information related to the text “I want to practice calligraphy” from the server 200-1 using the voice information input from the voice input unit 102 as shown at time t <b> 13 in FIG. 8. . Then, the control unit 106 determines that projection instructions of “characters subject to calligraphy” and “writing order” have been acquired from the user's instruction “support of calligraphy” interpreted based on the text information.

習字に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報を習字に用いられる領域(以下、習字領域とも称する。)に投影する。例えば、制御部106は、情報処理装置100−1周辺において習字領域を判定する。制御部106は、判定される当該習字領域に、図8の時間t14に示したように、当該習字領域を示す枠G4、習字対象の文字G5(図8では「T」)および文字G5の書き順を示す画像G6A(以下、書き順G6Aとも称する。)を投影部108に投影させる。なお、枠G4は投影されなくてもよい。また、当該習字領域は、習字用に用意される紙であってもよく、その場合、制御部106は、当該紙を認識することにより、習字領域を判定してもよい。   When an instruction to project guide information related to a calligraphy is acquired, the information processing apparatus 100-1 projects the guide information onto an area used for the calligraphy (hereinafter also referred to as a calligraphy area). For example, the control unit 106 determines a calligraphy area around the information processing apparatus 100-1. In the calligraphy area to be determined, the control unit 106 writes the frame G4 indicating the calligraphy area, the character G5 (“T” in FIG. 8) to be the calligraphy object, and the character G5, as shown at time t14 in FIG. An image G6A indicating the order (hereinafter also referred to as a writing order G6A) is projected on the projection unit 108. The frame G4 may not be projected. The calligraphy area may be paper prepared for calligraphy, and in that case, the control unit 106 may determine the calligraphy area by recognizing the paper.

次に、情報処理装置100−1は、習字領域に投影されるガイド情報に対するユーザの文字を書く操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、ユーザにより枠G4内に書き順G6Aに対応する文字の部分が書かれた状態を目標状態として設定する。なお、実際に文字が書かれなくてもよい。例えば、文字を書くための筆などの筆記具または指が書き順G6Aに従って動かされた状態が目標状態として設定されてよい。   Next, the information processing apparatus 100-1 sets, as a target state, a state in which an operation of writing a user's character with respect to guide information projected on the calligraphy area is performed. Specifically, for example, the control unit 106 sets, as a target state, a state in which a character portion corresponding to the writing order G6A is written in the frame G4 by the user. It is not necessary to actually write characters. For example, a state where a writing instrument such as a brush for writing characters or a finger is moved according to the writing order G6A may be set as the target state.

次に、情報処理装置100−1は、ユーザの動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、投影される書き順G6Aに対応する文字G5の部分が書かれたかを判定する。図8の時間t15に示したように、ユーザにより書き順G6Aに対応する文字G5の部分(「T」の第一画)が書かれると、制御部106は、書き順G6Aに従って当該書き順G6Aに対応する文字G5の部分が書かれた状態に達したと判定する。   Next, the information processing apparatus 100-1 determines whether the user's operation state has reached the set target state. For example, the control unit 106 determines whether the part of the character G5 corresponding to the projected writing order G6A has been written. As shown at time t15 in FIG. 8, when the part of the character G5 corresponding to the writing order G6A (the first drawing of “T”) is written by the user, the control unit 106 follows the writing order G6A. It is determined that the state where the part of the character G5 corresponding to is written is reached.

ユーザの動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、投影中のガイド情報の次のガイド情報を投影する。例えば、制御部106は、書き順G6Aに対応する文字G5の部分(「T」の第一画)が書かれると、図8の時間t16に示したように次の書き順G6Bを投影部108に投影させる。   When it is determined that the user's operation state has reached the set target state, the information processing apparatus 100-1 projects the guide information next to the guide information being projected. For example, when the part of the character G5 corresponding to the writing order G6A (first drawing of “T”) is written, the control unit 106 projects the next writing order G6B as shown at time t16 in FIG. To project.

これにより、ユーザは正しい書き順で文字を書く練習を行うことができる。なお、上記では、アルファベットの習字の例について説明したが、習字対象の文字は漢字またはアラビア文字などの他のいずれの文字であってもよい。また、文字以外の記号または図形の描き順に本実施形態に係る情報処理システムが適用されてもよい。また、上記書き順のような投影順序の情報は、サーバ200−1から提供される素材情報に含まれてもよい。   Thereby, the user can practice writing characters in the correct writing order. In addition, although the example of the calligraphy of the alphabet was demonstrated above, the character of calligraphy object may be any other characters, such as a Chinese character or an Arabic character. Further, the information processing system according to the present embodiment may be applied in the drawing order of symbols or figures other than characters. Further, the projection order information such as the drawing order may be included in the material information provided from the server 200-1.

(第4の適用例)
本実施形態の第4の適用例として、料理における具材の盛り付けの教示の例を説明する。本適用例では、情報処理装置100−1は、動作主体の動作の位置を示すガイド情報を投影する。具体的には、制御部106は、ガイド情報として具材を盛り付ける位置を示す画像のみを投影部108に投影させ、投影されている画像の示す盛り付け位置に具材が盛り付けられた状態に動作状態が達したと判定されると、投影される盛り付け位置の次の盛り付け位置を投影部108に投影させる。さらに、図9を参照して、本適用例の処理について詳細に説明する。図9は、本実施形態の第4の適用例に係る情報処理システムの処理例を説明するための図である。
(Fourth application example)
As a fourth application example of this embodiment, an example of teaching how to arrange ingredients in cooking will be described. In this application example, the information processing apparatus 100-1 projects guide information indicating the position of the motion of the motion subject. Specifically, the control unit 106 causes the projection unit 108 to project only an image indicating the position where the ingredient is to be arranged as guide information, and the operation state is such that the ingredient is arranged at the arrangement position indicated by the projected image. If it is determined that has reached, the projection position next to the projection position to be projected is projected on the projection unit 108. Furthermore, the processing of this application example will be described in detail with reference to FIG. FIG. 9 is a diagram for explaining a processing example of the information processing system according to the fourth application example of the present embodiment.

図9の例では、ユーザが情報処理装置100−1に料理の盛り付けの手本を提示させる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。   In the example of FIG. 9, consider a case where the user presents an example of cooking arrangement to the information processing apparatus 100-1. Note that description of processing that is substantially the same as the processing described above is omitted.

まず、情報処理装置100−1は、ユーザの音声入力に基づいて具材の盛り付けに係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図9の時間t17に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「盛り付けの手本を見せて。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「具材の盛り付けの提示」から「盛り付け位置」の投影指示が取得されたと判定する。   First, the information processing apparatus 100-1 determines whether a guide information projection instruction related to the arrangement of ingredients has been acquired based on a user's voice input. For example, the control unit 106 uses the voice information input from the voice input unit 102 as shown at time t17 in FIG. 9 to send text information related to the text “Show me an example of arrangement” from the server 200-1. Get. Then, the control unit 106 determines that the projection instruction of “positioning position” has been acquired from the user instruction “presentation of ingredient arrangement” interpreted based on the text information.

具材の盛り付けに係るガイド情報の投影指示が取得されると、情報処理装置100−1は、単一の動作を誘導する情報のみを有するガイド情報を具材の盛り付けられる領域(以下、盛り付け領域とも称する。)に投影する。例えば、制御部106は、情報処理装置100−1周辺において盛り付け領域を判定する。制御部106は、判定される当該盛り付け領域に、図9の時間t18に示したように、盛り付け位置を示す画像G7A(以下、盛り付け位置G7Aとも称する。)のみを投影部108に投影させる。なお、当該盛り付け領域は、具材が盛り付けられる皿であってよく、その場合、制御部106は、当該皿を認識することにより、盛り付け領域を判定してよい。   When the projection instruction of the guide information related to the arrangement of the ingredients is acquired, the information processing apparatus 100-1 displays the area where the ingredients are arranged (hereinafter referred to as the arrangement area). (Also referred to as “.”). For example, the control unit 106 determines a placement area around the information processing apparatus 100-1. The control unit 106 causes the projection unit 108 to project only the image G7A indicating the placement position (hereinafter also referred to as the placement position G7A), as shown at time t18 in FIG. In addition, the said arrangement | positioning area | region may be the dish in which ingredients are arranged, and the control part 106 may determine the arrangement | positioning area | region by recognizing the said dish in that case.

次に、情報処理装置100−1は、盛り付け領域に投影されるガイド情報に対するユーザの具材を配置する操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、投影される盛り付け位置G7Aに当該盛り付け位置G7Aに対応する具材が配置された状態を目標状態として設定する。   Next, the information processing apparatus 100-1 sets, as a target state, a state in which an operation for arranging the user's ingredients with respect to guide information projected on the arrangement area is performed. Specifically, for example, the control unit 106 sets, as a target state, a state in which ingredients corresponding to the placement position G7A are arranged at the projected placement position G7A.

次に、情報処理装置100−1は、ユーザの動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、投影される盛り付け位置G7Aに具材が配置されたかを判定する。図9の時間t19に示したように、ユーザにより盛り付け位置G7Aに具材60Aが配置されると、制御部106は、盛り付け位置G7Aに、対応する具材が配置された状態に達したと判定する。   Next, the information processing apparatus 100-1 determines whether the user's operation state has reached the set target state. For example, the control unit 106 determines whether an ingredient has been arranged at the projected placement position G7A. As shown at time t19 in FIG. 9, when the ingredient 60A is placed at the placement position G7A by the user, the control unit 106 determines that the corresponding ingredient has been placed at the placement position G7A. To do.

ユーザの動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、投影中のガイド情報の次のガイド情報を投影する。例えば、制御部106は、盛り付け位置G7Aに具材60Aが配置されると、図9の時間t20に示したように次の盛り付け位置G7Bのみを投影部108に投影させる。そして、図9の時間t21に示したようにユーザは当該盛り付け位置G7Bに具材60Bを配置する。   When it is determined that the user's operation state has reached the set target state, the information processing apparatus 100-1 projects the guide information next to the guide information being projected. For example, when the ingredient 60A is placed at the placement position G7A, the control unit 106 projects only the next placement position G7B on the projection unit 108 as shown at time t20 in FIG. Then, as shown at time t21 in FIG. 9, the user places the ingredient 60B at the serving position G7B.

これにより、未経験の料理または盛り付けが難しい料理であっても、ユーザは具材を綺麗に盛り付けることができる。   Thereby, even if it is an inexperienced dish or a dish that is difficult to serve, the user can neatly arrange the ingredients.

(第5の適用例)
本実施形態の第5の適用例として、収納方法の教示の例を説明する。本適用例では、情報処理装置100−1は、第4の適用例と同様に、動作主体の動作の位置を示すガイド情報を投影する。具体的には、制御部106は、ガイド情報として物体の収納位置を示す画像を投影部108に投影させ、投影されている画像の示す収納位置に物体が収納された状態に動作状態が達したと判定されると、投影される収納位置の次の収納位置を投影部108に投影させる。さらに、図10を参照して、本適用例の処理について詳細に説明する。図10は、本実施形態の第5の適用例に係る情報処理システムの処理例を説明するための図である。
(Fifth application example)
As a fifth application example of this embodiment, an example of teaching a storage method will be described. In the present application example, the information processing apparatus 100-1 projects guide information indicating the position of the motion of the operation subject, as in the fourth application example. Specifically, the control unit 106 causes the projection unit 108 to project an image indicating the storage position of the object as guide information, and the operation state has reached the state where the object is stored at the storage position indicated by the projected image. If it is determined, the projection unit 108 is caused to project the storage position next to the storage position to be projected. Furthermore, the processing of this application example will be described in detail with reference to FIG. FIG. 10 is a diagram for explaining a processing example of the information processing system according to the fifth application example of the present embodiment.

図10の例では、ユーザが情報処理装置100−1に収納方法を提示させる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。   In the example of FIG. 10, consider a case where the user presents a storage method to the information processing apparatus 100-1. Note that description of processing that is substantially the same as the processing described above is omitted.

まず、情報処理装置100−1は、ユーザの音声入力に基づいて物体の収納に係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図10の時間t22に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「収納の仕方を教えて。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「収納方法の提示」から「収納位置」の投影指示が取得されたと判定する。   First, the information processing apparatus 100-1 determines whether a guide information projection instruction related to storage of an object has been acquired based on a user's voice input. For example, the control unit 106 uses the audio information input from the audio input unit 102 as shown at time t22 in FIG. 10 to send the text information related to the text “Tell me how to store” from the server 200-1. obtain. Then, the control unit 106 determines that the projection instruction of “storage position” has been acquired from the user instruction “presentation of storage method” interpreted based on the text information.

物体の収納に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報を物体が収納される領域(以下、収納領域とも称する。)に投影する。例えば、制御部106は、情報処理装置100−1周辺において収納領域を判定する。制御部106は、判定される当該収納領域に、図10の時間t23に示したように、物体の収納位置を示す画像G8A(以下、収納位置G8Aとも称する。)を投影部108に投影させる。なお、当該収納領域は、収納機能を有する物体であってよく、その場合、制御部106は、当該収納機能を有する物体を認識することにより、収納領域を判定してよい。   When an instruction to project guide information related to the storage of an object is acquired, the information processing apparatus 100-1 projects the guide information onto an area in which the object is stored (hereinafter also referred to as a storage area). For example, the control unit 106 determines a storage area around the information processing apparatus 100-1. The control unit 106 causes the projection unit 108 to project an image G8A indicating the storage position of the object (hereinafter also referred to as storage position G8A) onto the determined storage area, as shown at time t23 in FIG. The storage area may be an object having a storage function. In this case, the control unit 106 may determine the storage area by recognizing the object having the storage function.

次に、情報処理装置100−1は、収納領域に投影されるガイド情報に対するユーザの物体の収納操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、投影される収納位置G8Aに当該収納位置G8Aに対応する物体が配置された状態を目標状態として設定する。   Next, the information processing apparatus 100-1 sets, as a target state, a state in which the user's object storage operation is performed on the guide information projected on the storage area. Specifically, for example, the control unit 106 sets, as a target state, a state in which an object corresponding to the storage position G8A is arranged at the storage position G8A to be projected.

次に、情報処理装置100−1は、ユーザの動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、投影される収納位置G8Aに物体が配置されたかを判定する。図10の時間t24に示したように、ユーザにより収納位置G8Aに物体62Aが配置されると、制御部106は、収納位置G8Aに、対応する物体が配置された状態に達したと判定する。   Next, the information processing apparatus 100-1 determines whether the user's operation state has reached the set target state. For example, the control unit 106 determines whether an object is placed at the storage position G8A to be projected. As shown at time t24 in FIG. 10, when the user places the object 62A at the storage position G8A, the control unit 106 determines that the corresponding object has been placed at the storage position G8A.

ユーザの動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、投影中のガイド情報の次のガイド情報を投影する。例えば、制御部106は、収納位置G8Aに物体62Aが配置されると、図10の時間t25に示したように次の物体の収納位置G8Bを投影部108に投影させる。そして、図10の時間t26に示したようにユーザは当該収納位置G8Bに物体62Bを配置する。   When it is determined that the user's operation state has reached the set target state, the information processing apparatus 100-1 projects the guide information next to the guide information being projected. For example, when the object 62A is arranged at the storage position G8A, the control unit 106 causes the projection unit 108 to project the storage position G8B of the next object as shown at time t25 in FIG. Then, as shown at time t26 in FIG. 10, the user places the object 62B at the storage position G8B.

これにより、収納が苦手なユーザであっても、物を綺麗に収納することができる。また、収納スペースおよび収納作業時間の効率化も可能となる。なお、上記では箱への物体の収納の例を説明したが、本実施形態に係る情報処理システムは冷蔵庫または本棚などへの物体の収納に適用されてもよい。   As a result, even a user who is not good at storing can cleanly store things. In addition, the storage space and the storage work time can be made more efficient. Although an example of storing an object in a box has been described above, the information processing system according to the present embodiment may be applied to storing an object in a refrigerator or a bookshelf.

(第6の適用例)
本実施形態の第6の適用例として、物の包み方の教示の例を説明する。本適用例では、情報処理装置100−1は、動作主体の動作の位置を示すガイド情報を、投影領域に存在する物体の形状に合わせて投影する。具体的には、制御部106は、ガイド情報として物を包むための布の折り目を示す画像を投影部108に投影させ、投影されている画像の示す折り目に布が折られた状態に動作状態が達したと判定されると、投影される画像の示す折り目の次の折り目を示す画像を投影部108に投影させる。さらに、図11を参照して、本適用例の処理について詳細に説明する。図11は、本実施形態の第6の適用例に係る情報処理システムの処理例を説明するための図である。
(Sixth application example)
As a sixth application example of this embodiment, an example of teaching how to wrap an object will be described. In this application example, the information processing apparatus 100-1 projects guide information indicating the position of the motion of the motion subject according to the shape of the object existing in the projection area. Specifically, the control unit 106 causes the projection unit 108 to project an image showing a fold of a cloth for wrapping an object as guide information, and the operation state is such that the cloth is folded at the fold indicated by the projected image. If it is determined that the image has been reached, the projection unit 108 is caused to project an image indicating a fold next to the fold indicated by the projected image. Furthermore, the processing of this application example will be described in detail with reference to FIG. FIG. 11 is a diagram for explaining a processing example of the information processing system according to the sixth application example of this embodiment.

図11の例では、ユーザが情報処理装置100−1に物体の包み方を提示させる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。   In the example of FIG. 11, a case is considered in which the user causes the information processing apparatus 100-1 to present how to wrap an object. Note that description of processing that is substantially the same as the processing described above is omitted.

まず、情報処理装置100−1は、ユーザの音声入力に基づいて物体の包み方に係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図11の時間t27に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「包み方を教えて。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「物体の包み方の提示」から「包む布の折り目」の投影指示が取得されたと判定する。   First, the information processing apparatus 100-1 determines whether or not an instruction to project guide information related to how to wrap an object is acquired based on a user's voice input. For example, the control unit 106 obtains the text information related to the text “Tell me how to wrap” from the server 200-1 using the audio information input from the audio input unit 102 as shown at time t27 in FIG. . Then, the control unit 106 determines that the projection instruction of “folding cloth fold” has been acquired from the user instruction “presentation of how to wrap an object” interpreted based on the text information.

物体の包み方に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報を物体の形状に沿って投影する。例えば、制御部106は、情報処理装置100−1周辺に置かれた物体および布を認識する。制御部106は、認識される物体に、図11の時間t28に示したように、当該物体を包む布の折り目を示す画像G9A(以下、折り目G9Aとも称する。)を投影部108に投影させる。   When an instruction to project guide information relating to how to wrap an object is acquired, the information processing apparatus 100-1 projects the guide information along the shape of the object. For example, the control unit 106 recognizes an object and cloth placed around the information processing apparatus 100-1. As shown at time t28 in FIG. 11, the control unit 106 causes the projection unit 108 to project an image G9A (hereinafter also referred to as a fold line G9A) indicating the fold of the cloth surrounding the object.

次に、情報処理装置100−1は、投影されるガイド情報に対するユーザの布を折る操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、投影される折り目G9Aと一致する折り目で布が折られ、物体が当該布で覆われた状態を目標状態として設定する。   Next, the information processing apparatus 100-1 sets a state where an operation of folding the user's cloth for the projected guide information is performed as a target state. Specifically, for example, the control unit 106 sets, as a target state, a state in which the cloth is folded at a fold line that matches the projected fold line G9A and the object is covered with the cloth.

次に、情報処理装置100−1は、ユーザの動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、投影される折り目G9Aのように布が折られたかを判定する。図11の時間t29に示したように、ユーザにより物体を覆う布が折り目G9Aに沿って折られると、制御部106は、折り目G9Aで物体を覆う布が折られた状態に達したと判定する。   Next, the information processing apparatus 100-1 determines whether the user's operation state has reached the set target state. For example, the control unit 106 determines whether the cloth is folded like the projected crease G9A. As shown at time t29 in FIG. 11, when the cloth covering the object is folded along the fold G9A by the user, the control unit 106 determines that the cloth covering the object at the fold G9A has been folded. .

ユーザの動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、投影中のガイド情報の次のガイド情報を投影する。例えば、制御部106は、折り目G9Aのように布が折られると、図11の時間t30に示したように次の折り目G9Bを投影部108に投影させる。そして、図11の時間t31に示したようにユーザは当該折り目G9Bで布を折ることにより物体を包む。   When it is determined that the user's operation state has reached the set target state, the information processing apparatus 100-1 projects the guide information next to the guide information being projected. For example, when the cloth is folded like the crease G9A, the control unit 106 causes the projection unit 108 to project the next crease G9B as shown at time t30 in FIG. Then, as shown at time t31 in FIG. 11, the user wraps the object by folding the cloth at the crease G9B.

これにより、物体の包み方が分からないユーザであっても、または包むことが難しい物体についても、物を綺麗に包むことができる。   Accordingly, even a user who does not know how to wrap an object or an object that is difficult to wrap can wrap the object neatly.

(第7の適用例)
本実施形態の第7の適用例として、映像の再生の例を説明する。本適用例では、情報処理装置100−1は、第2の適用例と同様に、目標状態が認識されると、投影指示に対応する処理を行う。具体的には、制御部106は、ガイド情報として映像再生の開始を示す画像を投影部108に投影させ、投影されている画像が操作された状態に動作状態が達したと判定されると、映像の再生を開始する。さらに、図12を参照して、本適用例の処理について詳細に説明する。図12は、本実施形態の第7の適用例に係る情報処理システムの処理例を説明するための図である。
(Seventh application example)
An example of video reproduction will be described as a seventh application example of the present embodiment. In this application example, as in the second application example, the information processing apparatus 100-1 performs processing corresponding to the projection instruction when the target state is recognized. Specifically, the control unit 106 causes the projection unit 108 to project an image indicating the start of video reproduction as guide information, and when it is determined that the operating state has reached the state in which the projected image has been manipulated. Start video playback. Furthermore, the processing of this application example will be described in detail with reference to FIG. FIG. 12 is a diagram for explaining a processing example of the information processing system according to the seventh application example of the present embodiment.

図12の例では、ユーザが情報処理装置100−1に所望の映像を再生させる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。   In the example of FIG. 12, consider a case where the user causes the information processing apparatus 100-1 to reproduce a desired video. Note that description of processing that is substantially the same as the processing described above is omitted.

まず、情報処理装置100−1は、ユーザの音声入力に基づいて映像再生に係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図12の時間t32に示したように音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「XYZ番組を見たい。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「XYZ番組の映像再生」から「映像再生ボタン」の投影指示が取得されたと判定する。   First, the information processing apparatus 100-1 determines whether a guide information projection instruction related to video reproduction has been acquired based on a user's voice input. For example, the control unit 106 obtains text information related to the text “I want to watch an XYZ program” from the server 200-1 using the audio information input from the audio input unit 102 as shown at time t32 in FIG. . Then, the control unit 106 determines that the projection instruction of “video playback button” has been acquired from the user instruction “video playback of XYZ program” interpreted based on the text information.

映像再生に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報をユーザの視聴領域に投影する。例えば、制御部106は、ユーザが映像を視聴可能な領域を判定する。そして、制御部106は、判定された視聴領域に、図12の時間t33に示したように、映像再生ボタンG10を投影部108に投影させる。   When an instruction to project guide information related to video reproduction is acquired, the information processing apparatus 100-1 projects the guide information onto the viewing area of the user. For example, the control unit 106 determines an area where the user can view the video. Then, the control unit 106 causes the projection unit 108 to project the video reproduction button G10 onto the determined viewing area as shown at time t33 in FIG.

次に、情報処理装置100−1は、投影されるガイド情報に対してユーザのタッチ操作が行われた状態を目標状態として設定する。具体的には、例えば、制御部106は、ユーザにより映像再生ボタンG10がタッチされた状態を目標状態として設定する。   Next, the information processing apparatus 100-1 sets a state where the user's touch operation is performed on the projected guide information as a target state. Specifically, for example, the control unit 106 sets a state in which the video playback button G10 is touched by the user as a target state.

次に、情報処理装置100−1は、動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、投影される映像再生ボタンG10がユーザによりタッチされたかを判定する。図12の時間t34に示したようにユーザの手と映像再生ボタンG10とが重ね合わされると、制御部106は、ユーザにより映像再生ボタンG10がタッチされた状態に達したと判定する。   Next, the information processing apparatus 100-1 determines whether the operation state has reached the set target state. For example, the control unit 106 determines whether the projected video playback button G10 has been touched by the user. When the user's hand and the video playback button G10 are overlapped as shown at time t34 in FIG. 12, the control unit 106 determines that the video playback button G10 has been touched by the user.

ユーザの動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、当該目標状態に係る操作に基づいて投影指示に対応する処理を実行する。例えば、制御部106は、映像再生ボタンG10がタッチされると、図12の時間t35に示したように映像再生ボタンG10の投影を終了する。次に、制御部106は、「XYZ番組の映像再生」の投影指示に対応するXYZ番組の映像の投影を開始する。なお、制御部106は、ユーザがXYZ番組の映像にタッチすると、図12の時間t36に示したように、XYZ番組の再生を停止し、映像再生ボタンG10を再び投影させる。   When it is determined that the user's operation state has reached the set target state, the information processing apparatus 100-1 executes a process corresponding to the projection instruction based on an operation related to the target state. For example, when the video playback button G10 is touched, the control unit 106 ends the projection of the video playback button G10 as shown at time t35 in FIG. Next, the control unit 106 starts projecting the video of the XYZ program corresponding to the projection instruction of “video playback of XYZ program”. When the user touches the video of the XYZ program, the control unit 106 stops the playback of the XYZ program and projects the video playback button G10 again as shown at time t36 in FIG.

これにより、ユーザは操作に迷うことなく、映像を視聴することができる。   Thereby, the user can view the video without hesitation in operation.

<2−4.第1の実施形態のまとめ>
このように、本開示の第1の実施形態によれば、情報処理装置100−1は、動作主体が誘導を要求する当該動作主体の動作を誘導するガイド情報を、当該ガイド情報の投影指示に応じて投影部に投影させ、当該ガイド情報が誘導する動作が動作主体により行われた状態が認識されると、当該状態に基づく処理を行う。従来では、インタラクションのための動作が複雑になると、動作主体が当該動作を行うことが難しくなり、インタラクションが失敗するおそれがあった。しかし、本実施形態によれば、インタラクションに関する動作が誘導されることにより、ユーザが当該動作に迷うことまたは間違った動作を行うことを抑制することができる。従って、動作主体と装置とのインタラクションをより円滑にすることが可能となる。また、動作主体が人である場合は、動作が誘導されることにより、直感的に正しい動作を理解することができる。従って、インタラクションにおけるユーザのストレスを低減させることが可能となる。また、ガイド情報が複数の動作主体が視認可能な物体に投影されることにより、複数の動作主体がガイド情報を共有することができる。従って、複数の動作主体が協力して動作を行うことができ、動作の高速化または効率化が可能となる。
<2-4. Summary of First Embodiment>
As described above, according to the first embodiment of the present disclosure, the information processing apparatus 100-1 uses the guide information that guides the motion of the motion subject requested by the motion subject as an instruction to project the guide information. Accordingly, when a state in which the operation guided by the guide information is performed by the subject is recognized, a process based on the state is performed. Conventionally, when the operation for interaction becomes complicated, it becomes difficult for the operation subject to perform the operation, and the interaction may fail. However, according to the present embodiment, it is possible to prevent the user from getting lost in the operation or performing an incorrect operation by inducing the operation related to the interaction. Therefore, the interaction between the operation subject and the apparatus can be made smoother. Further, when the action subject is a person, the correct action can be intuitively understood by guiding the action. Therefore, it is possible to reduce the stress of the user in the interaction. Further, the guide information is projected onto an object that can be visually recognized by a plurality of moving subjects, so that the plurality of moving subjects can share the guide information. Therefore, a plurality of operation subjects can cooperate to perform the operation, and the operation can be speeded up or made efficient.

また、上記状態に基づく処理は、投影内容の変更を含む。このため、ユーザは、ガイド情報に従って動作することにより、投影内容を自動的に変更させることができる。従って、投影内容を変更させる手間を削減することが可能となる。   Moreover, the process based on the said state includes the change of the projection content. Therefore, the user can automatically change the projection content by operating according to the guide information. Therefore, it is possible to reduce the trouble of changing the projection contents.

また、上記投影内容の変更は、投影対象を、投影されている上記ガイド情報が誘導する動作の次の動作を誘導するガイド情報に変更することを含む。ここで、複数のガイド情報の全てが一度に投影されると、投影先が投影されるガイド情報を埋め尽くされ、視認性が低下しかねない。また、一度に複数のガイド情報の全てが投影されると、視聴するユーザが混乱するおそれもある。これに対し、上述の投影内容の変更処理によれば、複数のガイド情報のうちの一部のガイド情報のみが投影されるため、視認性を維持でき、ユーザの混乱も抑制できる。また、ユーザの動作の終了に合わせて次のガイド情報が投影されるため、ユーザは直感的に動作順を理解することができる。従って、ガイド情報が複数である場合でも、ユーザビリティを維持することが可能となる。   In addition, the change of the projection content includes changing the projection target to guide information that guides the next operation of the operation guided by the projected guide information. Here, if all of the plurality of guide information is projected at once, the guide information projected by the projection destination is filled, and visibility may be lowered. In addition, if all of a plurality of guide information are projected at a time, the viewing user may be confused. On the other hand, according to the above-described projection content changing process, only part of the guide information is projected, and thus visibility can be maintained and user confusion can be suppressed. Further, since the next guide information is projected in accordance with the end of the user's operation, the user can intuitively understand the operation order. Therefore, usability can be maintained even when there is a plurality of guide information.

また、上記ガイド情報は、上記動作主体に単一の動作を誘導する情報のみを含む。このため、動作主体は誘導される動作を容易に把握することができる。従って、動作主体が誘導される動作と異なる動作を誤って行うおそれを抑制することが可能となる。   The guide information includes only information for inducing a single action to the action subject. For this reason, the operation subject can easily grasp the guided operation. Therefore, it is possible to suppress a possibility that an operation different from the operation in which the operation subject is guided is erroneously performed.

また、上記状態に基づく処理は、上記投影指示に対応する処理を含む。このため、ユーザは、ガイド情報に従って動作することにより、所望の処理を情報処理装置100−1に行わせることができる。従って、当該所望の処理の実行のための操作を誤るおそれを抑制することが可能となる。   Further, the process based on the state includes a process corresponding to the projection instruction. Therefore, the user can cause the information processing apparatus 100-1 to perform a desired process by operating according to the guide information. Therefore, it is possible to suppress the possibility of erroneous operation for executing the desired process.

また、上記ガイド情報は、上記動作主体に動作させる位置を示す情報を含む。このため、動作の位置が誘導されることにより、行われる動作の正確性を高めることができる。従って、動作の位置のずれのせいで動作に基づく処理が行われないことが抑制され、ユーザの苛立ちなどの不快感を抑制することが可能となる。言い換えると、所望する処理をスムーズに情報処理装置100−1に実行させることが可能となる。また、正しい動作の位置(例えば盛り付け位置)をユーザに提示することができる。従って、ユーザは正しい動作の位置を習得することが可能となる。   The guide information includes information indicating a position to be operated by the operating subject. For this reason, the accuracy of the operation performed can be improved by guiding the position of the operation. Therefore, it is possible to suppress the processing based on the operation from being performed due to the displacement of the operation position, and it is possible to suppress discomfort such as user irritation. In other words, it is possible to cause the information processing apparatus 100-1 to smoothly execute a desired process. In addition, the correct operation position (for example, the arrangement position) can be presented to the user. Therefore, the user can learn the position of the correct operation.

また、上記ガイド情報は、上記動作主体に動作させる順序を示す情報を含む。このため、動作の順序が誘導されることにより、行われる動作の正確性を高めることができる。従って、動作順の間違いのせいで動作に基づく処理が行われないことが抑制され、ユーザの苛立ちなどの不快感を抑制することが可能となる。言い換えると、所望する処理をスムーズに情報処理装置100−1に実行させることが可能となる。また、正しい動作順(例えば文字の書き順)をユーザに提示することができる。従って、ユーザは正しい動作順を習得することが可能となる。   The guide information includes information indicating the order in which the operation subject operates. For this reason, the accuracy of the operation to be performed can be improved by inducing the order of the operations. Accordingly, it is possible to prevent the processing based on the operation from being performed due to an error in the operation order, and it is possible to suppress discomfort such as user irritation. In other words, it is possible to cause the information processing apparatus 100-1 to smoothly execute a desired process. In addition, the correct operation order (for example, the writing order of characters) can be presented to the user. Therefore, the user can learn the correct operation order.

また、上記ガイド情報は、投影領域に存在する物体の形状に合わせて投影される。このため、物体の形状に即した動作を誘導することができる。従って、ガイド情報をより正確に投影することができ、動作主体が誤った動作を行うことを抑制することが可能となる。   The guide information is projected according to the shape of the object existing in the projection area. For this reason, the operation | movement according to the shape of the object can be induced | guided | derived. Therefore, it is possible to project the guide information more accurately, and it is possible to prevent the operation subject from performing an incorrect operation.

また、上記動作は、投影されている上記ガイド情報に対する操作を含む。このため、動作主体は投影されている画像について動作することにより投影内容または投影指示に対応する処理を操作することができる。従って、投影内容または投影指示に対応する処理を直感的に操作することが可能となる。また、動作に応じて処理が実行されていくことにより、動作主体は所望の動作に集中することができる。   Moreover, the said operation | movement contains operation with respect to the said guide information currently projected. For this reason, the operation subject can operate the process corresponding to the projection content or the projection instruction by operating on the projected image. Therefore, it is possible to intuitively operate the processing corresponding to the projection content or the projection instruction. In addition, by performing the processing according to the operation, the operation subject can concentrate on the desired operation.

また、上記状態は、上記動作主体の動作結果が映る画像に係る画像情報に基づいて認識される。このため、ユーザが動作状態を情報処理装置100−1に入力することなく、情報処理装置100−1にて動作状態を認識することができる。従って、ユーザの手間を削減することが可能となる。   The state is recognized based on image information relating to an image in which the operation result of the operation subject is reflected. Therefore, the information processing apparatus 100-1 can recognize the operation state without the user inputting the operation state to the information processing apparatus 100-1. Therefore, it is possible to reduce the labor of the user.

また、上記状態の認識は情報処理装置100−1の外部の装置で行われ、認識結果が当該外部の装置から提供される。このため、情報処理装置100−1において行われる処理を削減することができる。従って、情報処理装置100−1の構成を簡素化し、また処理負荷の低減および処理の高速化が可能となる。   Moreover, the recognition of the state is performed by an external device of the information processing apparatus 100-1, and the recognition result is provided from the external device. For this reason, the process performed in the information processing apparatus 100-1 can be reduced. Therefore, the configuration of the information processing apparatus 100-1 can be simplified, the processing load can be reduced, and the processing speed can be increased.

また、上記ガイド情報を投影するための情報は、情報処理装置100−1の外部の装置から提供される。このため、情報処理装置100−1にガイド情報または素材情報が記憶される場合と比べて情報処理装置100−1の要される記憶容量を低減することができる。従って、情報処理装置100−1のコストを低減することが可能となる。   Information for projecting the guide information is provided from a device external to the information processing device 100-1. For this reason, compared with the case where guide information or material information is memorize | stored in the information processing apparatus 100-1, the memory capacity required for the information processing apparatus 100-1 can be reduced. Therefore, it is possible to reduce the cost of the information processing apparatus 100-1.

また、上記投影指示は、上記動作主体の音声で入力される。このため、ユーザが手を離せない場合であっても投影指示を出すことができる。従って、インタラクションの利用機会を増加させることができ、ユーザの利便性を向上させることが可能となる。   Further, the projection instruction is input with the voice of the operation subject. For this reason, even when the user cannot release his / her hand, a projection instruction can be issued. Therefore, the use opportunity of interaction can be increased and the convenience for the user can be improved.

<2−5.変形例>
以上、本開示の第1の実施形態について説明した。なお、本実施形態は、上述の例に限定されない。以下に、本実施形態の変形例について説明する。
<2-5. Modification>
Heretofore, the first embodiment of the present disclosure has been described. In addition, this embodiment is not limited to the above-mentioned example. Below, the modification of this embodiment is demonstrated.

本実施形態の変形例として、情報処理装置100−1は、音を発生させる動作を、ガイド情報により誘導する動作としてもよい。具体的には、制御部106は、音を発生させる動作を誘導するためのガイド情報を投影部108に投影させ、動作主体が発する音に係る音情報に基づいて目標状態が認識されると、当該目標状態に基づく処理を実行する。さらに、図13を参照して、本変形例の処理について説明する。図13は、本実施形態の変形例に係る情報処理システムの処理例を説明するための図である。   As a modified example of the present embodiment, the information processing apparatus 100-1 may perform an operation for generating a sound based on guide information. Specifically, the control unit 106 causes the projection unit 108 to project guide information for guiding a motion generating sound, and when the target state is recognized based on the sound information related to the sound emitted by the operation subject, Processing based on the target state is executed. Furthermore, the process of this modification is demonstrated with reference to FIG. FIG. 13 is a diagram for explaining a processing example of the information processing system according to the modification of the present embodiment.

図13の例では、楽器を演奏するユーザが情報処理装置100−1に楽譜を提示させる場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。   In the example of FIG. 13, a case where a user who plays a musical instrument causes the information processing apparatus 100-1 to present a score is considered. Note that description of processing that is substantially the same as the processing described above is omitted.

まず、情報処理装置100−1は、ユーザの音声入力に基づいて楽譜に係るガイド情報の投影指示が取得されたかを判定する。例えば、制御部106は、図13の時間t37に示したように、音声入力部102から入力される音声情報を用いてサーバ200−1からテキスト「楽譜を見せて。」に係るテキスト情報を得る。そして、制御部106は、当該テキスト情報に基づいて解釈されるユーザの指示「楽譜の提示」から「楽譜」の投影指示が取得されたと判定する。   First, the information processing apparatus 100-1 determines whether an instruction to project guide information related to a score is acquired based on a user's voice input. For example, as shown at time t <b> 37 in FIG. 13, the control unit 106 obtains text information related to the text “Show the score” from the server 200-1 using the audio information input from the audio input unit 102. . Then, the control unit 106 determines that the instruction to project “score” has been acquired from the user's instruction “presentation of score” interpreted based on the text information.

楽譜に係るガイド情報の投影指示が取得されると、情報処理装置100−1は、ガイド情報をユーザの視聴領域に投影する。例えば、制御部106は、視聴領域を判定し、判定される視聴領域へ図13の時間t38に示したように楽譜G11Aを投影部108に投影させる。   When an instruction to project guide information related to the score is acquired, the information processing apparatus 100-1 projects the guide information onto the viewing area of the user. For example, the control unit 106 determines the viewing area, and causes the projection unit 108 to project the score G11A to the determined viewing area as shown at time t38 in FIG.

次に、情報処理装置100−1は、動作領域に投影される楽譜に係るガイド情報に応じた音が発せられた状態を目標状態として設定する。具体的には、例えば、制御部106は、ユーザにより楽譜G11Aの示すメロディの音が演奏された状態を目標状態として設定する。   Next, the information processing apparatus 100-1 sets a state in which a sound according to guide information related to the score projected on the motion area is emitted as a target state. Specifically, for example, the control unit 106 sets a state in which a melody sound indicated by the score G11A is played by the user as a target state.

次に、情報処理装置100−1は、動作状態が設定された目標状態に達したかを判定する。例えば、制御部106は、音声入力部102の集音により得られる音声情報を用いた音声認識処理の結果をサーバ200−1から得る。そして、音声認識処理の結果が図13の時間t39に示したように楽譜G11Aに示すメロディの音が認識されたことを示す場合、制御部106は、楽譜G11Aの示すメロディの音が演奏された状態に達したと判定する。なお、情報処理装置100−1は、認識された音をユーザに提示してもよい。例えば、制御部106は、図11の時間t39に示したように、投影される楽譜G11Aのうちの認識されたメロディ部分を強調(例えば下線を付加)してもよい。   Next, the information processing apparatus 100-1 determines whether the operation state has reached the set target state. For example, the control unit 106 obtains the result of the voice recognition process using the voice information obtained by the sound collection of the voice input unit 102 from the server 200-1. When the result of the speech recognition processing indicates that the melody sound indicated by the score G11A is recognized as indicated at time t39 in FIG. 13, the control unit 106 has played the melody sound indicated by the score G11A. It is determined that the state has been reached. Note that the information processing apparatus 100-1 may present the recognized sound to the user. For example, as shown at time t39 in FIG. 11, the control unit 106 may emphasize (for example, add an underline) the recognized melody portion of the projected score G11A.

動作状態が設定された目標状態に達したと判定されると、情報処理装置100−1は、次のガイド情報を投影する。例えば、制御部106は、図13の時間t40に示したように投影される楽譜G11Aの示すメロディが演奏されると、図13の時間t41に示したような楽譜G11Aの示すメロディの続きを示す楽譜G11Bを投影させる。   When it is determined that the operation state has reached the set target state, the information processing apparatus 100-1 projects the next guide information. For example, when the melody indicated by the score G11A projected as shown at time t40 in FIG. 13 is played, the control unit 106 indicates the continuation of the melody indicated by the score G11A as indicated at time t41 in FIG. The score G11B is projected.

このように、本実施形態の変形例によれば、上記ガイド情報の誘導する動作(動作主体の動作)は、音を発生させる動作を含む。概して、動作主体(特に人間)が音を発生させる動作を行う場合、他の動作を行うことが困難であることが多い。そこで、本変形例の構成によれば、ガイド情報または情報処理装置100−1に対して動作主体が直接的な動作を行うことなく、所望の動作を行うだけで当該所望の動作に応じた処理(例えばガイド情報の一連の投影)を情報処理装置100−1に行わせることができる。従って、ユーザは音を発せさせる所望の動作に集中することが可能となる。なお、上記では、音を発生させる動作が楽器の演奏である例を説明したが、音を発生させる動作は歌唱またはタップダンスなどの他の動作であってもよい。   Thus, according to the modification of the present embodiment, the operation of guiding the guide information (operation of the operation subject) includes an operation of generating sound. In general, when an operation subject (particularly a human) performs an operation that generates sound, it is often difficult to perform another operation. Therefore, according to the configuration of the present modification, a process corresponding to the desired operation can be performed only by performing a desired operation without directly performing an operation on the guide information or the information processing apparatus 100-1. (For example, a series of projections of guide information) can be performed by the information processing apparatus 100-1. Therefore, the user can concentrate on a desired action for generating a sound. In the above description, an example in which the sound generating operation is a musical instrument performance has been described. However, the sound generating operation may be other operations such as singing or tap dancing.

また、動作状態は、動作主体が発する音に係る音情報に基づいて認識される。このため、ユーザが動作状態を情報処理装置100−1に意識して入力することなく、情報処理装置100−1にて動作状態を認識することができる。従って、ユーザの手間を削減することが可能となる。なお、上述した画像情報に基づく認識処理が併用されてもよい。この場合、認識される動作状態の精度および正確性を向上させることが可能となる。   Further, the operating state is recognized based on sound information related to the sound emitted by the operating subject. Therefore, the information processing apparatus 100-1 can recognize the operation state without the user consciously inputting the operation state to the information processing apparatus 100-1. Therefore, it is possible to reduce the labor of the user. Note that the above-described recognition processing based on the image information may be used in combination. In this case, it is possible to improve the accuracy and accuracy of the recognized operating state.

<3.第2の実施形態(エラー処理の例)>
以上、本開示の第1の実施形態について説明した。次に、本開示の第2の実施形態について説明する。第2の実施形態では、投影されるガイド情報の誘導する動作と異なる動作が行われた状態が認識されると、エラーが通知される。
<3. Second Embodiment (Example of Error Processing)>
Heretofore, the first embodiment of the present disclosure has been described. Next, a second embodiment of the present disclosure will be described. In the second embodiment, when a state in which an operation different from the operation guided by the projected guide information is recognized, an error is notified.

<3−1.システムの構成>
本開示の第2の実施形態に係る情報処理システムの機能構成について説明する。なお、第2の実施形態に係る情報処理システムの機能の構成要素およびサーバ200−2の機能は、第1の実施形態と実質的に同一である。以下では、情報処理装置100−2についてのみ、第1の実施形態に係る機能と異なる機能について説明する。
<3-1. System configuration>
A functional configuration of the information processing system according to the second embodiment of the present disclosure will be described. In addition, the component of the function of the information processing system which concerns on 2nd Embodiment, and the function of the server 200-2 are substantially the same as 1st Embodiment. Hereinafter, only the information processing apparatus 100-2 will be described with respect to functions different from the functions according to the first embodiment.

(制御部)
制御部106は、動作主体の動作がガイド情報の誘導する動作と異なる場合、目標状態に基づく処理と異なる処理を行う。具体的には、制御部106は、目標状態に基づく処理と異なる処理として、エラー通知を行う。
(Control part)
The control unit 106 performs a process different from the process based on the target state when the action of the action subject is different from the action guided by the guide information. Specifically, the control unit 106 performs error notification as a process different from the process based on the target state.

より具体的には、制御部106は、エラー通知として、視覚的な通知を行う。例えば、制御部106は、ガイド情報の誘導する動作と異なるユーザの動作が認識されると、ユーザの動作がガイド情報の誘導する動作と異なる旨を示す画像を追加的に投影部108に投影させる。なお、画像を投影するほか、既に投影されているガイド情報または背景などに色彩もしくは輝度の変化または点滅などの視覚的効果が付与されてもよい。   More specifically, the control unit 106 performs visual notification as an error notification. For example, when a user operation different from the guide information guiding operation is recognized, the control unit 106 additionally causes the projection unit 108 to project an image indicating that the user operation is different from the guide information guiding operation. . In addition to projecting an image, a visual effect such as a change in color or brightness or blinking may be applied to already projected guide information or background.

また、より具体的には、制御部106は、エラー通知として、聴覚的な通知を行ってよい。例えば、制御部106は、ガイド情報の誘導する動作と異なるユーザの動作が認識されると、ユーザの動作がガイド情報の誘導する動作と異なる旨を伝える音声を音声出力部110に出力させる。なお、通知内容は、ユーザの動作がガイド情報の誘導する動作と異なる旨のみであってもよく、さらにガイド情報の誘導する動作への修正方法の通知を含んでもよい。   More specifically, the control unit 106 may perform an audible notification as the error notification. For example, when a user operation different from the guide information guiding operation is recognized, the control unit 106 causes the audio output unit 110 to output a sound indicating that the user operation is different from the guide information guiding operation. Note that the notification content may only indicate that the user's operation is different from the operation guided by the guide information, and may further include a notification of a correction method for the operation guided by the guide information.

<3−2.システムの処理>
次に、図14を参照して、本実施形態に係る情報処理システムの処理について説明する。図14は、本実施形態に係る情報処理装置100−2の処理の例を概念的に示すフローチャートである。なお、第1の実施形態に係る処理と実質的に同一である処理については説明を省略する。
<3-2. System processing>
Next, processing of the information processing system according to the present embodiment will be described with reference to FIG. FIG. 14 is a flowchart conceptually showing an example of processing of the information processing apparatus 100-2 according to the present embodiment. Note that description of processing that is substantially the same as processing according to the first embodiment will be omitted.

情報処理装置100−2は、ガイド情報の投影指示が取得されたかを判定し(ステップS402)、ガイド情報の投影指示が取得されたと判定されると、ガイド情報に応じた目標状態を設定する(ステップS404)。   The information processing apparatus 100-2 determines whether the guide information projection instruction has been acquired (step S402). When it is determined that the guide information projection instruction has been acquired, the information processing apparatus 100-2 sets a target state according to the guide information ( Step S404).

次に、情報処理装置100−2は、動作状態を認識し(ステップS406)、認識された動作状態が目標状態であるかを判定する(ステップS408)。認識された動作状態が目標状態であると判定されると、情報処理装置100−2は、目標状態に基づく処理を実行する(ステップS410)。そして、ガイド情報の投影が終了するまで(ステップS412)、上記ステップS404〜S410の処理が繰り返される。   Next, the information processing apparatus 100-2 recognizes the operation state (step S406), and determines whether the recognized operation state is a target state (step S408). If it is determined that the recognized operation state is the target state, the information processing apparatus 100-2 executes processing based on the target state (step S410). Until the projection of the guide information is completed (step S412), the processes of steps S404 to S410 are repeated.

他方で、認識された動作状態が目標状態でないと判定されると、情報処理装置100−2は、動作状態が遷移中であるかを判定する(ステップS414)。具体的には、制御部106は、画像認識結果から把握されるユーザの動作についての変化が継続しているかを判定する。   On the other hand, when it is determined that the recognized operation state is not the target state, the information processing apparatus 100-2 determines whether the operation state is transitioning (step S414). Specifically, the control unit 106 determines whether or not the change in the user's action grasped from the image recognition result continues.

動作状態が遷移中でないと判定されると、情報処理装置100−2は、エラー通知処理を実行する(ステップS416)。具体的には、制御部106は、ユーザの動作についての変化が停止したと判定されると、ユーザの動作がガイド情報の誘導する動作と異なる旨を音声出力部110に出力させ、またはその旨を示す画像を投影部108に投影させる。   If it is determined that the operating state is not transitioning, the information processing apparatus 100-2 executes an error notification process (step S416). Specifically, when it is determined that the change in the user's operation has stopped, the control unit 106 causes the audio output unit 110 to output that the user's operation is different from the operation guided by the guide information, or to that effect. Is projected onto the projection unit 108.

<3−3.適用例>
以上、本実施形態に係る情報処理システムについて説明した。当該情報処理システムは、上述の実施形態を基にして様々な事例に応じて修正され、各事例に適用され得る。以下に、第1および第2の適用例について説明する。
<3-3. Application example>
The information processing system according to this embodiment has been described above. The information processing system can be modified according to various cases based on the above-described embodiment, and can be applied to each case. Below, the 1st and 2nd application example is demonstrated.

(第1の適用例)
本実施形態の第1の適用例として、料理における具材の盛り付けの教示の例を説明する。本適用例では、情報処理装置100−2は、動作主体の動作がガイド情報の誘導する動作と異なる場合に音声を用いてエラーを通知する。具体的には、制御部106は、ガイド情報として具材を盛り付ける位置を示す画像を投影部108に投影させ、投影されている画像の示す盛り付け位置と異なる位置に具材が盛り付けられた状態に動作状態が達したと判定されると、音声出力部110にエラー通知を出力させる。さらに、図15を参照して、本適用例の処理について詳細に説明する。図15は、本実施形態の第1の適用例に係る情報処理システムの処理例を説明するための図である。
(First application example)
As a first application example of this embodiment, an example of teaching how to arrange ingredients in cooking will be described. In this application example, the information processing apparatus 100-2 notifies an error using sound when the operation of the operation subject is different from the operation guided by the guide information. Specifically, the control unit 106 causes the projection unit 108 to project an image indicating the position where the ingredient is placed as guide information, and the ingredient is placed at a position different from the placement position indicated by the projected image. If it is determined that the operating state has been reached, the audio output unit 110 is made to output an error notification. Furthermore, the processing of this application example will be described in detail with reference to FIG. FIG. 15 is a diagram for explaining a processing example of the information processing system according to the first application example of the present embodiment.

図15の例では、ユーザが情報処理装置100−2に料理の盛り付けの手本を提示させ、盛り付け位置を誤る場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。   In the example of FIG. 15, a case is considered in which the user presents an example of cooking arrangement to the information processing apparatus 100-2 and the arrangement position is incorrect. Note that description of processing that is substantially the same as the processing described above is omitted.

まず、情報処理装置100−2は、ユーザの音声入力に基づいて具材の盛り付けに係るガイド情報の投影指示が取得されたかを判定し(図15の時間t42)、具材の盛り付けに係るガイド情報の投影指示が取得されると、ガイド情報(盛り付け位置G7A)を盛り付け領域に投影する(図15の時間t43)。   First, the information processing apparatus 100-2 determines whether a guide information projection instruction related to the arrangement of ingredients has been acquired based on the user's voice input (time t42 in FIG. 15), and the guide relating to the arrangement of ingredients. When the information projection instruction is acquired, the guide information (laying position G7A) is projected onto the placing area (time t43 in FIG. 15).

次に、情報処理装置100−2は、盛り付け領域に投影されるガイド情報に対するユーザの具材を配置する操作が行われた状態を目標状態として設定し、ユーザの動作状態が設定された目標状態に達したかを判定する。   Next, the information processing apparatus 100-2 sets, as a target state, a state in which an operation for placing the user's ingredients with respect to the guide information projected on the arrangement area is performed, and the target state in which the user's operation state is set It is determined whether it has reached.

ユーザの動作状態が設定された目標状態に達していないと判定されると、情報処理装置100−2は、ユーザにエラーを通知する。例えば、制御部106は、投影される盛り付け位置G7Aに具材が配置されたかを判定する。ここで、図15の時間t44に示したように、盛り付け位置G7Aと異なる位置に具材60Aが配置されると、制御部106は、動作状態が目標状態と異なる状態であると判定する。なお、ユーザが具材60Aを移動させている間は、動作状態の判定は確定されない。次に、制御部106は、図15の時間t45に示したように、音声出力部110に「位置が違います。」という内容の音声を出力させる。当該音声による通知を受けたユーザは、具材60Aの配置が間違っていることに気づき、図15の時間t46に示したように、投影される盛り付け位置G7Aに具材60Aを再配置することができる。   If it is determined that the user's operating state has not reached the set target state, the information processing apparatus 100-2 notifies the user of an error. For example, the control unit 106 determines whether an ingredient has been arranged at the projected placement position G7A. Here, as shown at time t44 in FIG. 15, when the ingredient 60A is arranged at a position different from the placement position G7A, the control unit 106 determines that the operation state is different from the target state. Note that the determination of the operation state is not finalized while the user moves the ingredient 60A. Next, as shown at time t <b> 45 in FIG. 15, the control unit 106 causes the audio output unit 110 to output a sound with the content “position is different”. The user who has received the notification by the voice notices that the arrangement of the ingredient 60A is wrong, and can rearrange the ingredient 60A at the projected placement position G7A as shown at time t46 in FIG. it can.

これにより、ユーザは盛り付け位置が誤っていることに気付くことができる。従って、盛り付け位置の誤りを原因として次の盛り付け位置が投影されない状態が長く継続することを抑制することが可能となる。   Thereby, the user can notice that the arrangement position is incorrect. Therefore, it is possible to suppress the state where the next placement position is not projected for a long time due to an error in the placement position.

(第2の適用例)
本実施形態の第2の適用例として、第1の適用例と同様に、料理における具材の盛り付けの教示の例を説明する。本適用例では、情報処理装置100−2は、動作主体の動作がガイド情報の誘導する動作と異なる場合に、エラー通知の代わりにまたはそれと共に、投影されるガイド情報を変更する。具体的には、制御部106は、ガイド情報が投影されている間の動作主体の動作を記録する。そして、制御部106は、投影されている画像の示す盛り付け位置と異なる位置に具材が盛り付けられた状態に動作状態が達したと判定されると、ガイド情報の変更可否を判定する。ガイド情報が変更されてよいと判定されると、制御部106は、動作主体が過去に行った動作に基づいて修正されたガイド情報を投影部108に投影させる。さらに、図16を参照して、本適用例の処理について詳細に説明する。図16は、本実施形態の第2の適用例に係る情報処理システムの処理例を説明するための図である。
(Second application example)
As a second application example of the present embodiment, an example of teaching how to arrange ingredients in cooking will be described as in the first application example. In this application example, the information processing apparatus 100-2 changes the projected guide information instead of or together with the error notification when the operation of the operation subject is different from the operation guided by the guide information. Specifically, the control unit 106 records the action of the action subject while the guide information is projected. Then, when it is determined that the operation state has reached the state where the ingredients are arranged at a position different from the arrangement position indicated by the projected image, the control unit 106 determines whether or not the guide information can be changed. If it is determined that the guide information may be changed, the control unit 106 causes the projection unit 108 to project the guide information modified based on the motion performed by the operation subject in the past. Furthermore, the processing of this application example will be described in detail with reference to FIG. FIG. 16 is a diagram for explaining a processing example of the information processing system according to the second application example of the present embodiment.

図16の例では、図15と同様に、ユーザが情報処理装置100−2に料理の盛り付けの手本を提示させ、盛り付け位置を誤る場合を考える。なお、上述した処理と実質的に同一である処理については説明を省略する。   In the example of FIG. 16, as in FIG. 15, consider a case where the user causes the information processing apparatus 100-2 to present an example of cooking dishes and misplaces the arrangement position. Note that description of processing that is substantially the same as the processing described above is omitted.

まず、情報処理装置100−2は、ユーザの音声入力に基づいて具材の盛り付けに係るガイド情報の投影指示が取得されたかを判定し(図16の時間t47)、具材の盛り付けに係るガイド情報の投影指示が取得されると、ガイド情報(盛り付け位置G7A)を盛り付け領域に投影する(図16の時間t48)。   First, the information processing apparatus 100-2 determines whether an instruction to project guide information related to the arrangement of ingredients has been acquired based on the user's voice input (time t47 in FIG. 16), and the guide related to the arrangement of ingredients. When the information projection instruction is acquired, the guide information (laying position G7A) is projected onto the placing area (time t48 in FIG. 16).

次に、情報処理装置100−2は、盛り付け領域に投影されるガイド情報に対するユーザの具材を配置する操作が行われた状態を目標状態として設定し、ユーザの動作状態が設定された目標状態に達したかを判定する。   Next, the information processing apparatus 100-2 sets, as a target state, a state in which an operation for placing the user's ingredients with respect to the guide information projected on the arrangement area is performed, and the target state in which the user's operation state is set It is determined whether it has reached.

ユーザの動作状態が設定された目標状態に達していないと判定されると、情報処理装置100−2は、ユーザにエラーを通知すると共に、ガイド情報の変更可否を確認する。例えば、図16の時間t49に示したように、盛り付け位置G7Aと異なる位置に具材60Aが配置されると、制御部106は、動作状態が目標状態と異なる状態であると判定する。そして、制御部106は、図16の時間t49に示したように、「位置が違います。」という内容の音声を音声出力部110に出力させる。さらに、制御部106は、「盛り付け方を変えますか?」というガイド情報の変更可否をユーザに問う音声を音声出力部110に出力させる。   If it is determined that the user's operating state has not reached the set target state, the information processing apparatus 100-2 notifies the user of an error and confirms whether the guide information can be changed. For example, as shown at time t49 in FIG. 16, when the ingredient 60A is disposed at a position different from the placement position G7A, the control unit 106 determines that the operation state is different from the target state. Then, as shown at time t49 in FIG. 16, the control unit 106 causes the audio output unit 110 to output the audio having the content “the position is different”. Further, the control unit 106 causes the audio output unit 110 to output a voice asking the user whether or not the guide information can be changed, “Do you want to change the arrangement?”.

ガイド情報が変更されてよいと判定されると、情報処理装置100−2は、過去の動作履歴に基づいて修正されたガイド情報を投影する。例えば、制御部106は、図16の時間t49に示したようにガイド情報の変更可否の問いに対する肯定応答があった場合、過去のユーザの盛り付け位置に基づいて盛り付け位置G7Aの配置を既に具材60Aが配置されている位置に変更する。また、制御部106は、盛り付け位置G7Aの次の盛り付け位置G7Bについても配置を変更する。そして、制御部106は、図16の時間t50に示したように、変更後の盛り付け位置G7Bを投影部108に投影させる。ユーザは、図16の時間t51に示したように、変更後の盛り付け位置G7Bに具材60Bを配置する。   If it is determined that the guide information may be changed, the information processing apparatus 100-2 projects the guide information corrected based on the past operation history. For example, when there is an affirmative response to the question as to whether or not the guide information can be changed as shown at time t49 in FIG. 16, the control unit 106 has already arranged the placement position G7A based on the past placement position of the user. It changes to the position where 60A is arranged. Further, the control unit 106 also changes the arrangement of the placement position G7B next to the placement position G7A. Then, as shown at time t50 in FIG. 16, the control unit 106 causes the projection unit 108 to project the changed placement position G7B. As shown at time t51 in FIG. 16, the user places the ingredient 60B at the post-change placement position G7B.

これにより、盛り付け位置が提示される盛り付け位置と異なっている場合に、ユーザに合わせて修正された盛り付け位置を再提示することができる。従って、ユーザの意思が尊重されることにより、ユーザビリティを向上させることが可能となる。   Thereby, when the arrangement position is different from the arrangement position to be presented, the arrangement position corrected according to the user can be presented again. Therefore, usability can be improved by respecting the user's intention.

なお、上記では過去の動作履歴に基づいてガイド情報が修正される例を説明したが、ガイド情報の誘導する動作と異なっている現時点の動作に基づいてガイド情報が修正されてもよい。この場合、現時点の動作が尊重されることにより、ユーザに情報処理装置100−2の処理に対するフレキシブルな印象を与えることが可能となる。   In the above description, the guide information is corrected based on the past operation history. However, the guide information may be corrected based on the current operation different from the operation guided by the guide information. In this case, by respecting the current operation, it is possible to give the user a flexible impression on the processing of the information processing apparatus 100-2.

<3−4.第2の実施形態のまとめ>
このように、本開示の第2の実施形態によれば、情報処理装置100−2は、動作主体の動作がガイド情報の誘導する動作と異なる場合、目標状態に基づく処理と異なる処理を行う。このため、目標状態に達していないことに応じた処理が行われることにより、動作主体に目標状態に向かって動作を促すことができる。従って、目標状態の未達の抑制および目標状態に達するまでにかかる時間の短縮が可能となる。
<3-4. Summary of Second Embodiment>
Thus, according to the second embodiment of the present disclosure, the information processing apparatus 100-2 performs a process different from the process based on the target state when the operation of the operation subject is different from the operation guided by the guide information. For this reason, by performing processing according to the fact that the target state has not been reached, it is possible to urge the operating subject to move toward the target state. Accordingly, it is possible to suppress the target state from being unreached and to shorten the time taken to reach the target state.

また、上記目標状態に基づく処理と異なる処理は、エラー通知を含む。このため、目標状態に達していないことが直接的に動作主体に伝えられることにより、動作主体へ目標状態に向かう動作を直接的に促すことができる。従って、目標状態の未達の抑制および目標状態に達するまでにかかる時間の短縮をより確実にすることが可能となる。   Further, processing different from the processing based on the target state includes error notification. For this reason, by notifying the operating subject that the target state has not been reached, it is possible to directly prompt the operating subject to move toward the target state. Accordingly, it is possible to more surely suppress the target state from being unreached and reduce the time taken to reach the target state.

また、上記目標状態に基づく処理と異なる処理は、投影される前記ガイド情報の変更を含む。このため、投影されるガイド情報を動作主体に適応したガイド情報に変更することができる。従って、ユーザビリティを向上させることが可能となる。   Further, the process different from the process based on the target state includes a change of the projected guide information. For this reason, the projected guide information can be changed to guide information adapted to the subject. Therefore, usability can be improved.

また、上記ガイド情報の変更は、動作主体が過去に行った動作に基づいて修正されたガイド情報への投影対象の変更を含む。このため、ガイド情報を動作主体の性質に即したガイド情報に変更することができる。従って、ガイド情報をより確実に動作主体に適応させることができる。   Further, the change of the guide information includes a change of the projection target to the guide information corrected based on the action performed by the action subject in the past. Therefore, the guide information can be changed to guide information that matches the nature of the operation subject. Therefore, the guide information can be more reliably adapted to the operation subject.

また、上記ガイド情報の変更は、ガイド情報の変更可否に基づいて行われる。ここで、自動的にガイド情報が変更されると、動作主体がユーザである場合、ユーザに不快感を与えたり、混乱させたりするおそれがある。これに対し、上述のガイド情報の変更処理によれば、ガイド情報の変更をユーザに確認することができる。従って、ユーザに不快感を与えたり、混乱させたりするおそれを抑制することが可能となる。   The guide information is changed based on whether or not the guide information can be changed. Here, when the guide information is automatically changed, there is a possibility that the user may feel uncomfortable or confused when the operation subject is the user. On the other hand, according to the above-described guide information change process, it is possible to confirm the change of the guide information with the user. Therefore, it is possible to suppress the possibility of giving the user an unpleasant feeling or confusing.

<4.一実施形態に係る情報処理装置のハードウェア構成>
以上、本開示の各実施形態に係る情報処理装置100について説明した。上述した情報処理装置100の処理は、ソフトウェアと、以下に説明する情報処理装置100のハードウェアとの協働により実現される。
<4. Hardware configuration of information processing apparatus according to one embodiment>
The information processing apparatus 100 according to each embodiment of the present disclosure has been described above. The processing of the information processing apparatus 100 described above is realized by cooperation of software and hardware of the information processing apparatus 100 described below.

図17は、本開示の一実施形態に係る情報処理装置100のハードウェア構成を示した説明図である。図17に示したように、情報処理装置100は、プロセッサ132、メモリ134、ブリッジ136、バス138、観測装置140、入力装置142、出力装置144、接続ポート146および通信装置148を備える。   FIG. 17 is an explanatory diagram illustrating a hardware configuration of the information processing apparatus 100 according to an embodiment of the present disclosure. As illustrated in FIG. 17, the information processing apparatus 100 includes a processor 132, a memory 134, a bridge 136, a bus 138, an observation device 140, an input device 142, an output device 144, a connection port 146, and a communication device 148.

(プロセッサ)
プロセッサ132は、演算処理装置として機能し、各種プログラムと協働して情報処理装置100内の制御部106の機能を実現する。プロセッサ132は、制御回路を用いてメモリ134または他の記憶媒体に記憶されるプログラムを実行することにより、情報処理装置100の様々な論理的機能を動作させる。例えば、プロセッサ132は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)またはSoC(System-on-a-Chip)であってよい。
(Processor)
The processor 132 functions as an arithmetic processing unit, and realizes the function of the control unit 106 in the information processing apparatus 100 in cooperation with various programs. The processor 132 operates various logical functions of the information processing apparatus 100 by executing a program stored in the memory 134 or another storage medium using the control circuit. For example, the processor 132 may be a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), or a SoC (System-on-a-Chip).

(メモリ)
メモリ134は、プロセッサ132が使用するプログラムまたは演算パラメタなどを記憶する。例えば、メモリ134は、RAM(Random Access Memory)を含み、プロセッサ132の実行において使用するプログラムまたは実行において適宜変化するパラメタなどを一時記憶する。また、メモリ134は、ROM(Read Only Memory)を含み、RAMおよびROMにより記憶部の機能を実現する。なお、接続ポート146または通信装置148などを介して外部のストレージ装置がメモリ134の一部として利用されてもよい。
(memory)
The memory 134 stores a program used by the processor 132 or an operation parameter. For example, the memory 134 includes a RAM (Random Access Memory), and temporarily stores a program used in the execution of the processor 132 or a parameter that changes as appropriate in the execution. The memory 134 includes a ROM (Read Only Memory), and the function of the storage unit is realized by the RAM and the ROM. Note that an external storage device may be used as a part of the memory 134 via the connection port 146 or the communication device 148.

なお、プロセッサ132およびメモリ134は、CPUバスなどから構成される内部バスにより相互に接続されている。   The processor 132 and the memory 134 are connected to each other by an internal bus including a CPU bus.

(ブリッジおよびバス)
ブリッジ136は、バス間を接続する。具体的には、ブリッジ136は、プロセッサ132およびメモリ134が接続される内部バスと、観測装置140、入力装置142、出力装置144、接続ポート146および通信装置148間を接続するバス138と、を接続する。
(Bridge and bus)
The bridge 136 connects the buses. Specifically, the bridge 136 includes an internal bus to which the processor 132 and the memory 134 are connected, and a bus 138 that connects the observation device 140, the input device 142, the output device 144, the connection port 146, and the communication device 148. Connecting.

(観測装置)
観測装置140は、情報処理装置100およびその周辺についての観測を行い、音声入力部102および撮像部104の機能を実現する。具体的には、観測装置140は、音声センサおよびカメラセンサを含む。例えば、音声センサとしてマイクロフォンが含まれ、カメラセンサとしてCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサが含まれてよい。なお、観測装置140はさらに、加速度センサ、角速度センサまたはGPSセンサなどの他のセンサを含んでもよい。
(Observation equipment)
The observation device 140 observes the information processing apparatus 100 and its surroundings, and realizes the functions of the voice input unit 102 and the imaging unit 104. Specifically, the observation device 140 includes an audio sensor and a camera sensor. For example, a microphone may be included as the audio sensor, and an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) may be included as the camera sensor. Note that the observation device 140 may further include another sensor such as an acceleration sensor, an angular velocity sensor, or a GPS sensor.

(入力装置)
入力装置142は、ユーザが情報処理装置100を操作しまたは情報処理装置100へ情報を入力するために使用される。例えば、入力装置142は、ユーザが情報を入力するための入力手段、およびユーザによる入力に基づいて入力信号を生成し、プロセッサ132に出力する入力制御回路などから構成されている。なお、当該入力手段は、マウス、キーボード、タッチパネル、スイッチまたはレバーなどであってもよい。情報処理装置100のユーザは、入力装置142を操作することにより、情報処理装置100に対して各種のデータを入力したり処理動作を指示したりすることができる。
(Input device)
The input device 142 is used for a user to operate the information processing apparatus 100 or input information to the information processing apparatus 100. For example, the input device 142 includes input means for a user to input information, an input control circuit that generates an input signal based on an input by the user, and outputs the input signal to the processor 132. The input means may be a mouse, a keyboard, a touch panel, a switch or a lever. A user of the information processing apparatus 100 can input various data or instruct a processing operation to the information processing apparatus 100 by operating the input device 142.

(出力装置)
出力装置144は、ユーザに情報を通知するために使用され、投影部108および音声出力部110の機能を実現する。出力装置144は、投影装置および音声出力装置を含んでよい。例えば、出力装置144は、プロジェクタおよびスピーカまたはヘッドフォンなどの装置を含む。なお、出力装置144は、さらに液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置などの表示装置を含んでもよい。また、出力装置144は、各種装置への出力を行うモジュールであってよい。
(Output device)
The output device 144 is used to notify the user of information, and realizes the functions of the projection unit 108 and the audio output unit 110. The output device 144 may include a projection device and an audio output device. For example, the output device 144 includes a projector and a device such as a speaker or headphones. The output device 144 may further include a display device such as a liquid crystal display (LCD) device or an organic light emitting diode (OLED) device. Further, the output device 144 may be a module that performs output to various devices.

(接続ポート)
接続ポート146は、機器を情報処理装置100に直接接続するためのポートである。例えば、接続ポート146は、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート146は、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート146に外部機器を接続することで、情報処理装置100と当該外部機器との間でデータが交換されてもよい。
(Connection port)
The connection port 146 is a port for directly connecting a device to the information processing apparatus 100. For example, the connection port 146 may be a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, or the like. The connection port 146 may be an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, or the like. By connecting an external device to the connection port 146, data may be exchanged between the information processing apparatus 100 and the external device.

(通信装置)
通信装置148は、情報処理装置100と外部装置との間の通信を仲介し、通信部112の機能を実現する。具体的には、通信装置148は、有線通信方式に従って通信を実行する。例えば、通信装置148は、信号線通信、有線WAN(Wide Area Network)または有線LAN(Local Area Network)通信などの有線通信を実行する。また、通信装置148は、無線通信方式に従って通信を実行してもよい。例えば、通信装置148は、Bluetooth(登録商標)、NFC(Near Field Communication)、ワイヤレスUSBもしくはTransferJet(登録商標)などの近距離無線通信方式、WCDMA(登録商標)(Wideband Code Division Multiple Access)、WiMAX(登録商標)、LTE(Long Term Evolution)もしくはLTE−Aなどのセルラ通信方式、またはWi−Fi(登録商標)などの無線LAN方式といった、任意の無線通信方式に従って無線通信を実行してよい。
(Communication device)
The communication device 148 mediates communication between the information processing device 100 and the external device, and realizes the function of the communication unit 112. Specifically, the communication device 148 performs communication according to a wired communication method. For example, the communication device 148 performs wired communication such as signal line communication, wired WAN (Wide Area Network) or wired LAN (Local Area Network) communication. The communication device 148 may perform communication according to a wireless communication method. For example, the communication device 148 includes Bluetooth (registered trademark), NFC (Near Field Communication), wireless USB, or near field communication such as TransferJet (registered trademark), WCDMA (registered trademark) (Wideband Code Division Multiple Access), WiMAX. Wireless communication may be executed according to an arbitrary wireless communication method such as a cellular communication method such as (Registered Trademark), LTE (Long Term Evolution) or LTE-A, or a wireless LAN method such as Wi-Fi (Registered Trademark).

なお、情報処理装置100は、図17を用いて説明した構成の一部を有しなくてもよく、または追加的な構成を有していてもよい。また、図17を用いて説明した構成の全体または一部を集積したワンチップの情報処理モジュールが提供されてもよい。   Note that the information processing apparatus 100 may not have a part of the configuration described with reference to FIG. 17 or may have an additional configuration. In addition, a one-chip information processing module in which all or part of the configuration described with reference to FIG. 17 is integrated may be provided.

<5.むすび>
以上、本開示の第1の実施形態によれば、インタラクションに関する動作が誘導されることにより、ユーザが当該動作に迷うことまたは間違った動作を行うことを抑制することができる。従って、動作主体と装置とのインタラクションをより円滑にすることが可能となる。また、動作主体が人である場合は、動作が誘導されることにより、直感的に正しい動作を理解することができる。従って、インタラクションにおけるユーザのストレスを低減させることが可能となる。
<5. Conclusion>
As described above, according to the first embodiment of the present disclosure, it is possible to suppress the user from getting lost in the operation or performing the wrong operation by inducing the operation related to the interaction. Therefore, the interaction between the operation subject and the apparatus can be made smoother. Further, when the action subject is a person, the correct action can be intuitively understood by guiding the action. Therefore, it is possible to reduce the stress of the user in the interaction.

また、本開示の第2の実施形態によれば、目標状態に達していないことに応じた処理が行われることにより、動作主体に目標状態に向かって動作を促すことができる。従って、目標状態の未達の抑制および目標状態に達するまでにかかる時間の短縮が可能となる。   Further, according to the second embodiment of the present disclosure, by performing processing according to the fact that the target state has not been reached, it is possible to urge the operating subject to move toward the target state. Accordingly, it is possible to suppress the target state from being unreached and to shorten the time taken to reach the target state.

以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。   The preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, but the technical scope of the present disclosure is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

例えば、上記実施形態では、情報処理装置100は消費者などの個人に利用されるとしたが、本技術はかかる例に限定されない。具体的には、情報処理装置100はオフィスまたは工場などの業務において利用されてもよい。例えば、製品の組み立て作業において、情報処理装置100は部品の設置場所を示すガイド情報を投影する。   For example, in the above embodiment, the information processing apparatus 100 is used by an individual such as a consumer, but the present technology is not limited to such an example. Specifically, the information processing apparatus 100 may be used in business such as an office or a factory. For example, in the product assembly operation, the information processing apparatus 100 projects guide information indicating the installation location of parts.

また、上記実施形態では、ガイド情報により動作の位置が誘導される例を説明したが、動作のタイミングが誘導されてもよい。例えば、料理において調味料を入れるタイミングを誘導するガイド情報が投影されてもよい。   Moreover, although the said embodiment demonstrated the example which guide | induces the position of an operation | movement by guide information, the timing of an operation | movement may be induced | guided | derived. For example, guide information that guides the timing of adding seasonings in cooking may be projected.

また、上記実施形態では、動作状態が目標状態と異なる場合にエラー通知などが行われる例を説明したが、代わりにまたはそれに加えて、動作主体が間違えるおそれのある動作を誘導するガイド情報が強調させられてもよい。例えば、図15の時間t44に示したような盛り付け位置G7Aについて誤った動作が行われる頻度が他の誘導される盛り付け位置に比べて高い場合、当該盛り付け位置G7Aが強調表示される。強調表示としては、投影されるガイド情報の色彩もしくは輝度の変化または点滅などの視覚的効果を付与がある。それにより、動作主体がガイド情報の誘導する動作と異なる動作を行うおそれを低下させることができる。   In the above-described embodiment, an example in which an error notification is performed when the operation state is different from the target state has been described. May be allowed. For example, when the frequency at which an incorrect operation is performed for the arrangement position G7A as shown at time t44 in FIG. 15 is higher than other induced arrangement positions, the arrangement position G7A is highlighted. As highlighting, there is a visual effect such as a change in color or luminance of the projected guide information or blinking. As a result, it is possible to reduce the possibility that the operation subject will perform an operation different from the operation guided by the guide information.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。   Further, the effects described in the present specification are merely illustrative or exemplary and are not limited. That is, the technology according to the present disclosure can exhibit other effects that are apparent to those skilled in the art from the description of the present specification in addition to or instead of the above effects.

また、上記の実施形態のフローチャートに示されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的にまたは個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。   In addition, the steps shown in the flowcharts of the above-described embodiments are executed in parallel or individually even if they are not necessarily processed in time series, as well as processes performed in time series in the order described. Including processing to be performed. Further, it goes without saying that the order can be appropriately changed even in the steps processed in time series.

また、情報処理装置100に内蔵されるハードウェアに上述した情報処理装置100の各機能構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムが記憶された記憶媒体も提供される。   It is also possible to create a computer program for causing hardware built in the information processing apparatus 100 to exhibit functions equivalent to the functional configurations of the information processing apparatus 100 described above. A storage medium storing the computer program is also provided.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させる投影制御部と、
前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行う処理制御部と、
を備える情報処理装置。
(2)
前記状態に基づく処理は、投影内容の変更を含む、
前記(1)に記載の情報処理装置。
(3)
前記投影内容の変更は、投影対象を、投影されている前記ガイド情報が誘導する動作の次の動作を誘導する前記ガイド情報に変更することを含む、
前記(2)に記載の情報処理装置。
(4)
前記ガイド情報は、前記動作主体に単一の動作を誘導する情報のみを含む、
前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記ガイド情報は、前記動作主体に動作させる位置を示す情報を含む、
前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記ガイド情報は、前記動作主体に動作させる順序を示す情報を含む、
前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記動作は、投影されている前記ガイド情報に対する操作を含む、
前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記動作は、音を発生させる動作を含む、
前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記状態は、前記動作主体の動作結果が映る画像に係る画像情報に基づいて認識される、
前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
前記状態は、前記動作主体が発する音に係る音情報に基づいて認識される、
前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)
前記状態の認識は前記情報処理装置の外部の装置で行われ、認識結果が前記外部の装置から提供される、
前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)
前記ガイド情報を投影するための情報は、前記情報処理装置の外部の装置から提供される、
前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)
前記投影指示は、前記動作主体の音声で入力される、
前記(1)〜(12)のいずれか1項に記載の情報処理装置。
(14)
前記処理制御部は、前記動作主体の動作が前記ガイド情報の誘導する動作と異なる場合、前記状態に基づく処理と異なる処理を行う、
前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)
前記状態に基づく処理と異なる処理は、エラー通知を含む、
前記(14)に記載の情報処理装置。
(16)
前記状態に基づく処理と異なる処理は、投影される前記ガイド情報の変更を含む、
前記(14)または(15)に記載の情報処理装置。
(17)
前記ガイド情報の変更は、前記動作主体が過去に行った動作に基づいて修正されたガイド情報への変更を含む、
前記(16)に記載の情報処理装置。
(18)
前記ガイド情報の変更は、前記ガイド情報の変更可否に基づいて行われる、
前記(16)または(17)に記載の情報処理装置。
(19)
プロセッサを用いて、
動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させることと、
前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行うことと、
を含む情報処理方法。
(20)
動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させる投影制御機能と、
前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行う処理制御機能と、
をコンピュータに実現させるためのプログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
A projection control unit that causes the projection unit to project guide information for guiding the operation of the operation subject that the operation subject requests guidance, according to a projection instruction of the guide information;
When a state in which the operation guided by the guide information is performed by the operation subject is recognized, a processing control unit that performs processing based on the state;
An information processing apparatus comprising:
(2)
The processing based on the state includes a change of projection content,
The information processing apparatus according to (1).
(3)
The change of the projection content includes changing the projection target to the guide information that guides the next operation of the operation guided by the projected guide information.
The information processing apparatus according to (2).
(4)
The guide information includes only information for inducing a single action to the action subject.
The information processing apparatus according to any one of (1) to (3).
(5)
The guide information includes information indicating a position to be operated by the operating subject.
The information processing apparatus according to any one of (1) to (4).
(6)
The guide information includes information indicating an order in which the operation subject operates.
The information processing apparatus according to any one of (1) to (5).
(7)
The operation includes an operation on the projected guide information.
The information processing apparatus according to any one of (1) to (6).
(8)
The operation includes an operation of generating sound,
The information processing apparatus according to any one of (1) to (7).
(9)
The state is recognized based on image information relating to an image in which the operation result of the operation subject is reflected.
The information processing apparatus according to any one of (1) to (8).
(10)
The state is recognized based on sound information related to a sound emitted by the operating subject.
The information processing apparatus according to any one of (1) to (9).
(11)
The recognition of the state is performed by a device external to the information processing device, and a recognition result is provided from the external device.
The information processing apparatus according to any one of (1) to (10).
(12)
Information for projecting the guide information is provided from an apparatus outside the information processing apparatus.
The information processing apparatus according to any one of (1) to (11).
(13)
The projection instruction is input by the voice of the operation subject.
The information processing apparatus according to any one of (1) to (12).
(14)
The process control unit performs a process different from the process based on the state when the operation of the operation subject is different from the operation guided by the guide information.
The information processing apparatus according to any one of (1) to (13).
(15)
The processing different from the processing based on the state includes an error notification.
The information processing apparatus according to (14).
(16)
The process different from the process based on the state includes a change of the projected guide information.
The information processing apparatus according to (14) or (15).
(17)
The change of the guide information includes a change to the guide information modified based on the action performed by the action subject in the past.
The information processing apparatus according to (16).
(18)
The change of the guide information is performed based on whether or not the guide information can be changed.
The information processing apparatus according to (16) or (17).
(19)
Using a processor
Projecting guide information for guiding the action of the action subject that the action subject requests guidance to the projection unit according to a projection instruction of the guide information;
When a state in which the operation guided by the guide information is performed by the operation subject is recognized, processing based on the state is performed.
An information processing method including:
(20)
A projection control function that causes the projection unit to project guide information for guiding the operation of the operation subject that the operation subject requests guidance, according to a projection instruction of the guide information;
When a state in which the operation guided by the guide information is performed by the operation subject is recognized, a processing control function for performing processing based on the state;
A program to make a computer realize.

100 情報処理装置
102 音声入力部
104 撮像部
106 制御部
108 投影部
110 音声出力部
112 通信部
200 サーバ
202 通信部
204 音声認識部
206 画像認識部
208 情報提供部
210 記憶部
DESCRIPTION OF SYMBOLS 100 Information processing apparatus 102 Voice input part 104 Imaging part 106 Control part 108 Projection part 110 Voice output part 112 Communication part 200 Server 202 Communication part 204 Voice recognition part 206 Image recognition part 208 Information provision part 210 Storage part

Claims (20)

動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させる投影制御部と、
前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行う処理制御部と、
を備える情報処理装置。
A projection control unit that causes the projection unit to project guide information for guiding the operation of the operation subject that the operation subject requests guidance, according to a projection instruction of the guide information;
When a state in which the operation guided by the guide information is performed by the operation subject is recognized, a processing control unit that performs processing based on the state;
An information processing apparatus comprising:
前記状態に基づく処理は、投影内容の変更を含む、
請求項1に記載の情報処理装置。
The processing based on the state includes a change of projection content,
The information processing apparatus according to claim 1.
前記投影内容の変更は、投影対象を、投影されている前記ガイド情報が誘導する動作の次の動作を誘導する前記ガイド情報に変更することを含む、
請求項2に記載の情報処理装置。
The change of the projection content includes changing the projection target to the guide information that guides the next operation of the operation guided by the projected guide information.
The information processing apparatus according to claim 2.
前記ガイド情報は、前記動作主体に単一の動作を誘導する情報のみを含む、
請求項1に記載の情報処理装置。
The guide information includes only information for inducing a single action to the action subject.
The information processing apparatus according to claim 1.
前記ガイド情報は、前記動作主体に動作させる位置を示す情報を含む、
請求項1に記載の情報処理装置。
The guide information includes information indicating a position to be operated by the operating subject.
The information processing apparatus according to claim 1.
前記ガイド情報は、前記動作主体に動作させる順序を示す情報を含む、
請求項1に記載の情報処理装置。
The guide information includes information indicating an order in which the operation subject operates.
The information processing apparatus according to claim 1.
前記動作は、投影されている前記ガイド情報に対する操作を含む、
請求項1に記載の情報処理装置。
The operation includes an operation on the projected guide information.
The information processing apparatus according to claim 1.
前記動作は、音を発生させる動作を含む、
請求項1に記載の情報処理装置。
The operation includes an operation of generating sound,
The information processing apparatus according to claim 1.
前記状態は、前記動作主体の動作結果が映る画像に係る画像情報に基づいて認識される、
請求項1に記載の情報処理装置。
The state is recognized based on image information relating to an image in which the operation result of the operation subject is reflected.
The information processing apparatus according to claim 1.
前記状態は、前記動作主体が発する音に係る音情報に基づいて認識される、
請求項1に記載の情報処理装置。
The state is recognized based on sound information related to a sound emitted by the operating subject.
The information processing apparatus according to claim 1.
前記状態の認識は前記情報処理装置の外部の装置で行われ、認識結果が前記外部の装置から提供される、
請求項1に記載の情報処理装置。
The recognition of the state is performed by a device external to the information processing device, and a recognition result is provided from the external device.
The information processing apparatus according to claim 1.
前記ガイド情報を投影するための情報は、前記情報処理装置の外部の装置から提供される、
請求項1に記載の情報処理装置。
Information for projecting the guide information is provided from an apparatus outside the information processing apparatus.
The information processing apparatus according to claim 1.
前記投影指示は、前記動作主体の音声で入力される、
請求項1に記載の情報処理装置。
The projection instruction is input by the voice of the operation subject.
The information processing apparatus according to claim 1.
前記処理制御部は、前記動作主体の動作が前記ガイド情報の誘導する動作と異なる場合、前記状態に基づく処理と異なる処理を行う、
請求項1に記載の情報処理装置。
The process control unit performs a process different from the process based on the state when the operation of the operation subject is different from the operation guided by the guide information.
The information processing apparatus according to claim 1.
前記状態に基づく処理と異なる処理は、エラー通知を含む、
請求項14に記載の情報処理装置。
The processing different from the processing based on the state includes an error notification.
The information processing apparatus according to claim 14.
前記状態に基づく処理と異なる処理は、投影される前記ガイド情報の変更を含む、
請求項14に記載の情報処理装置。
The process different from the process based on the state includes a change of the projected guide information.
The information processing apparatus according to claim 14.
前記ガイド情報の変更は、前記動作主体が過去に行った動作に基づいて修正されたガイド情報への変更を含む、
請求項16に記載の情報処理装置。
The change of the guide information includes a change to the guide information modified based on the action performed by the action subject in the past.
The information processing apparatus according to claim 16.
前記ガイド情報の変更は、前記ガイド情報の変更可否に基づいて行われる、
請求項16に記載の情報処理装置。
The change of the guide information is performed based on whether or not the guide information can be changed.
The information processing apparatus according to claim 16.
プロセッサを用いて、
動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させることと、
前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行うことと、
を含む情報処理方法。
Using a processor
Projecting guide information for guiding the action of the action subject that the action subject requests guidance to the projection unit according to a projection instruction of the guide information;
When a state in which the operation guided by the guide information is performed by the operation subject is recognized, processing based on the state is performed.
An information processing method including:
動作主体が誘導を要求する前記動作主体の動作を誘導するガイド情報を、前記ガイド情報の投影指示に応じて投影部に投影させる投影制御機能と、
前記ガイド情報が誘導する動作が前記動作主体により行われた状態が認識されると、前記状態に基づく処理を行う処理制御機能と、
をコンピュータに実現させるためのプログラム。
A projection control function that causes the projection unit to project guide information for guiding the operation of the operation subject that the operation subject requests guidance, according to a projection instruction of the guide information;
When a state in which the operation guided by the guide information is performed by the operation subject is recognized, a processing control function for performing processing based on the state;
A program to make a computer realize.
JP2016028061A 2016-02-17 2016-02-17 Information processing apparatus, information processing method, and program Pending JP2017146782A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016028061A JP2017146782A (en) 2016-02-17 2016-02-17 Information processing apparatus, information processing method, and program
PCT/JP2016/085032 WO2017141518A1 (en) 2016-02-17 2016-11-25 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016028061A JP2017146782A (en) 2016-02-17 2016-02-17 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2017146782A true JP2017146782A (en) 2017-08-24

Family

ID=59624959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016028061A Pending JP2017146782A (en) 2016-02-17 2016-02-17 Information processing apparatus, information processing method, and program

Country Status (2)

Country Link
JP (1) JP2017146782A (en)
WO (1) WO2017141518A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6488039B1 (en) * 2018-03-15 2019-03-20 株式会社コナミデジタルエンタテインメント Game progress information generation system and computer program thereof

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3965895B2 (en) * 2000-10-03 2007-08-29 株式会社日立製作所 Communication type navigation device
JP2009089068A (en) * 2007-09-28 2009-04-23 Victor Co Of Japan Ltd Control device for electronic apparatus, control method and control program
JP5897240B2 (en) * 2008-08-20 2016-03-30 株式会社ユニバーサルエンターテインメント Customer service system and conversation server
JP5955299B2 (en) * 2013-11-08 2016-07-20 株式会社ソニー・インタラクティブエンタテインメント Display control apparatus, display control method, program, and information storage medium
JP6457185B2 (en) * 2014-03-27 2019-01-23 カンタツ株式会社 Optical engine, manufacturing method thereof, and projector

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6488039B1 (en) * 2018-03-15 2019-03-20 株式会社コナミデジタルエンタテインメント Game progress information generation system and computer program thereof
WO2019176711A1 (en) * 2018-03-15 2019-09-19 株式会社コナミデジタルエンタテインメント Game progress information generation system, and computer program and control method therefor
JP2019154913A (en) * 2018-03-15 2019-09-19 株式会社コナミデジタルエンタテインメント Game progress information generation system and computer program thereof

Also Published As

Publication number Publication date
WO2017141518A1 (en) 2017-08-24

Similar Documents

Publication Publication Date Title
US11463611B2 (en) Interactive application adapted for use by multiple users via a distributed computer-based system
JP6653526B2 (en) Measurement system and user interface device
JP6722786B1 (en) Spatial information management device
BR102012002995B1 (en) ENTRY DEVICE, INFORMATION PROCESSING DEVICE, ENTRY VALUE ACQUISITION METHOD, AND, LEGIBLE RECORDING MEDIA BY NON-TRANSITIONAL COMPUTER
US11481025B2 (en) Display control apparatus, display apparatus, and display control method
JPWO2017130486A1 (en) Information processing apparatus, information processing method, and program
JP2011258158A (en) Program, information storage medium and image generation system
US20170285694A1 (en) Control device, control method, and program
JP2012181809A (en) Apparatus controller, apparatus control method, apparatus control program and integrated circuit
JP2022153509A (en) Measurement support system
US20120313968A1 (en) Image display system, information processing apparatus, display device, and image display method
CN106937156A (en) A kind of method and device and media player for realizing multiple resource synchronization broadcasting
WO2017141518A1 (en) Information processing device, information processing method, and program
JP5867743B2 (en) Information processing apparatus and program for information processing apparatus
JP5981617B1 (en) Computer program and computer-implemented method for displaying user interface images
JP5249841B2 (en) GAME DEVICE, GAME SYSTEM, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP6564484B1 (en) Same room communication system
JP5213913B2 (en) Program and image generation system
JP2017199085A (en) Information processing apparatus, information processing method, and program
Pham The challenge of hand gesture interaction in the Virtual Reality Environment: evaluation of in-air hand gesture using the Leap Motion Controller
JP6837109B2 (en) Control system
Ruegger Touchless interaction with 3D images in the operating room
JP2015133637A (en) Information processing apparatus and operation system
WO2019165580A1 (en) Method for controlling mobile device and control terminal
NZ792078A (en) Interactive application adapted for use by multiple users via a distributed computer-based system