JP2023147653A - System, interface apparatus, program, and the like - Google Patents

System, interface apparatus, program, and the like Download PDF

Info

Publication number
JP2023147653A
JP2023147653A JP2022055291A JP2022055291A JP2023147653A JP 2023147653 A JP2023147653 A JP 2023147653A JP 2022055291 A JP2022055291 A JP 2022055291A JP 2022055291 A JP2022055291 A JP 2022055291A JP 2023147653 A JP2023147653 A JP 2023147653A
Authority
JP
Japan
Prior art keywords
character
user
processing device
interface device
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022055291A
Other languages
Japanese (ja)
Inventor
慶介 高橋
Keisuke Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yupiteru Corp
Original Assignee
Yupiteru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yupiteru Corp filed Critical Yupiteru Corp
Priority to JP2022055291A priority Critical patent/JP2023147653A/en
Publication of JP2023147653A publication Critical patent/JP2023147653A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To provide a technique different from the conventional one, which is a system or the like that realizes an interface of a processing apparatus with a different apparatus.SOLUTION: A system includes a processing apparatus and an interface apparatus communicatively connected to each other. The processing apparatus includes a control unit that performs control to execute processing according to an input from a user to the interface apparatus. The interface apparatus includes a reception unit that receives an input, and an output unit that outputs information according to the input or the processing to the user with association with a predetermined character.SELECTED DRAWING: Figure 1

Description

本発明は、システム、インタフェース装置及びプログラム等に関する。 The present invention relates to a system, an interface device, a program, etc.

コンピュータ等の処理装置を制御することが可能な外部の装置が知られている。例えば、外部の装置に対して、ユーザが発話することにより、処理装置を制御することが可能な発明が、特許文献1、特許文献2、特許文献3に記載されている。 External devices that can control processing devices such as computers are known. For example, inventions in which a user can control a processing device by speaking to an external device are described in Patent Document 1, Patent Document 2, and Patent Document 3.

特開2021-73553号公報JP 2021-73553 Publication 特開2002-41276号公報Japanese Patent Application Publication No. 2002-41276 特開2019-66702号公報Unexamined Japanese Patent Publication No. 2019-66702

本開示の目的の一つは、処理装置のインタフェースを異なる装置で実現するシステム等であり、従来と異なる技術を提供することである。 One of the purposes of the present disclosure is to provide a system or the like in which an interface of a processing device is realized by a different device, and a technology different from the conventional technology.

本発明の目的はこれに限定されず、本明細書及び図面等に開示される構成の部分から奏する効果を得ることを目的とする構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」「~可能である」などと記載した箇所を「~が課題である」と読み替えた課題が本明細書には開示されている。課題はそれぞれ独立したものとして記載しているものであり、各々の課題を解決するための構成についても単独で分割出願・補正等により権利取得する意思を有する。課題が明細書の記載から黙示的に把握されるものであっても、本出願人は本明細書に記載の構成の一部を補正又は分割出願にて特許請求の範囲とする意思を有する。またこれら独立の課題を組み合わせた課題を解決する構成についても開示しているものであり、権利取得する意思を有する。 The purpose of the present invention is not limited thereto, and the present invention intends to acquire rights through divisional applications, amendments, etc. for structures that aim to obtain effects from the parts of the structures disclosed in this specification, drawings, etc. For example, the present specification discloses a problem in which passages such as ``can be done'' or ``possible'' are read as ``the problem is.'' Each issue is described as an independent entity, and we intend to acquire rights to the structure for solving each issue individually through divisional applications, amendments, etc. Even if the problem is implicitly understood from the description of the specification, the present applicant has the intention to claim a part of the structure described in the specification in an amendment or divisional application. The company also discloses a structure that solves a problem that combines these independent problems, and has the intention to acquire the rights to it.

(1)上述した課題に鑑み、本実施形態のシステムは、相互に通信可能に接続される処理装置とインタフェース装置とを備え、前記処理装置は、前記インタフェース装置に対するユーザからの入力に応じた処理を実行する制御を行う制御部を有し、前記インタフェース装置は、前記入力を受け付ける受付部と、ユーザに対して前記入力又は前記処理に応じた情報を所定のキャラクタとの関連付けにより出力する出力部と、を有してもよい。 (1) In view of the above-mentioned problems, the system of the present embodiment includes a processing device and an interface device that are communicably connected to each other, and the processing device performs processing according to user input to the interface device. The interface device includes a reception unit that receives the input, and an output unit that outputs information corresponding to the input or the processing to the user by associating it with a predetermined character. and may have.

このようにすると、ユーザは、処理装置の外部にあるインタフェース装置に対する入力をすることで、そのインタフェース装置とは別の装置である処理装置に自身の入力に応じた処理を実行させるとともに、その入力又は実行させた処理に応じた情報をキャラクタとの関連付けにより、そのインタフェース装置を介して認識することができる。例えば、ユーザは、インタフェース装置を用いて処理装置を遠隔操作するとともに、その遠隔操作の結果を、そのインタフェース装置におけるキャラクタの演出をもって把握することができ、インタフェース装置を単に遠隔操作装置として用いるだけでなく、利用上の面白みを得ることができる。 In this way, by inputting input to the interface device external to the processing device, the user can cause the processing device, which is a device different from the interface device, to execute processing according to the user's input, and also Alternatively, information corresponding to the executed process can be recognized through the interface device by associating it with the character. For example, a user can use an interface device to remotely control a processing device and understand the results of the remote control through the presentation of a character on the interface device. You can get more fun using it without having to worry about it.

インタフェース装置が受け付け可能な入力としては、特に、ユーザが直感的に行うことができる入力とするとよく、例えば、ユーザが発する音声の入力や、ユーザが示すジェスチャ動作の入力等とするとよい。このようにすると、インタフェース装置に対するユーザの入力負担が軽減させることができる。 Inputs that can be accepted by the interface device are particularly preferably inputs that can be intuitively performed by the user, such as inputs of voice uttered by the user, inputs of gestural movements shown by the user, etc. In this way, the user's input burden on the interface device can be reduced.

処理装置が実行する処理としては、処理装置が実行可能な処理とするとよく、特に処理装置にインストールされたソフトウェアの機能により実行される処理とするとよい。ソフトウェアとしては、OS、又はOS上で動作するソフトウェアとするとよい。このようにすると、ユーザは、処理装置にインストールされているOS、又はOS上で動作するソフトウェアの機能により実行可能な処理を、外部のインタフェース装置に対する入力によって実行させることができる。ユーザは、処理装置に対して、OS、又はOS上で動作するソフトウェアや、それに実行させる処理を指示する操作をしなくてよいので、ユーザの入力負担を軽減させることができる。 The processing executed by the processing device is preferably a process executable by the processing device, and particularly preferably a process executed by a function of software installed in the processing device. The software may be an OS or software running on the OS. In this way, the user can execute a process that can be executed by the functions of the OS installed in the processing device or the software running on the OS by inputting it to the external interface device. Since the user does not have to operate the processing device to instruct the OS, the software running on the OS, or the processing to be executed by the OS, the input burden on the user can be reduced.

出力部は、ユーザが認識可能な情報をキャラクタと関連付けて出力するとよく、特にキャラクタの画像又は音声を出力するとよい。このようにすると、ユーザは、キャラクタと関連付けられて出力される自身の入力又は処理に応じた情報を認識しやすくなる。入力又は実行させた処理に応じた情報としては、入力を受け付けたことや、処理の実行を指示したこととしてもよいが、特に、処理の結果をユーザに認識させることのできる情報とするとよい。このようにすると、ユーザは、処理装置に実行させた処理の結果を、処理装置ではなく、インタフェース装置に表示されるキャラクタを通じて認識することができる。 The output unit preferably outputs user-recognizable information in association with the character, and particularly preferably outputs an image or voice of the character. In this way, the user can easily recognize the information that is output in association with the character and that corresponds to the user's input or processing. The information corresponding to the process input or executed may be information indicating that the input has been received or an instruction to execute the process, but it is particularly preferable to use information that allows the user to recognize the result of the process. In this way, the user can recognize the results of the processing performed by the processing device through the characters displayed on the interface device rather than through the processing device.

(2)前記出力部は、前記入力又は前記処理に応じた情報を、前記入力または前記処理に応じて変化する前記キャラクタの画像の表示により出力するとよい。 (2) The output unit may output information according to the input or the processing by displaying an image of the character that changes according to the input or the processing.

このようにすると、ユーザは、ユーザは、自身の入力又はその入力によって実行を指示した処理に応じて変化するキャラクタの画像を視認することができるため、そのキャラクタを通じた視覚的な面白みを得ることができる。このような視覚的な効果により、ユーザは、そのキャラクタへの親しみを感じやすくなり、ひいては、インタフェース装置を用いて処理装置に処理の実行を指示する強い動機づけとなる。この場合において、特に受付部が受け付け可能な入力を、ユーザが発する音声の入力とするとよい。このようにすると、ユーザがキャラクタと対面して会話をしているかのような感覚を得ることができ、ユーザがキャラクタとコミュニケーションをとりながら処理装置を遠隔操作しているかのような感覚をより強く得やすくすることができる。 In this way, the user can visually recognize the image of the character that changes according to the user's input or the process instructed to be executed by the user, so that the user can obtain visual interest through the character. Can be done. Such a visual effect makes it easier for the user to feel familiar with the character, which in turn provides a strong motivation to use the interface device to instruct the processing device to execute a process. In this case, it is particularly preferable that the input that the reception unit accepts is the voice input from the user. In this way, the user can feel as if he or she is having a face-to-face conversation with the character, and the user can even more strongly feel as if he or she is remotely controlling the processing device while communicating with the character. It can be made easier to obtain.

(3)前記入力又は前記処理に応じた情報により変化するキャラクタの画像は、当該キャラクタの表情又は当該キャラクタの動作が変化する画像とするとよい。 (3) The image of the character that changes depending on the information according to the input or the processing may be an image in which the facial expression of the character or the action of the character changes.

このようにすると、ユーザは、自身の入力又はその入力によって実行を指示した処理に応じて表情又は動作が変化するキャラクタの画像を視認することができるため、そのキャラクタとコミュニケーションをとっている感覚をより強く得ることができる。 In this way, the user can visually recognize the image of the character whose facial expressions or actions change according to the user's own input or the processing instructed to be executed by the user, so that the user can feel as if he or she is communicating with the character. You can get stronger.

(4)前記出力部は、前記入力または前記処理に応じた情報を、前記入力または前記処理に応じて変化する前記キャラクタの音声により出力するとよい。 (4) The output unit may output information according to the input or the processing using the voice of the character that changes according to the input or the processing.

このようにすると、ユーザは、自身の入力又はその入力によって実行を指示した処理に応じて変化するキャラクタの音声を聞くことができ、キャラクタを通じた聴覚的な面白みを得ることができる。ユーザは、そのキャラクタへの親しみを感じやすくなり、ひいては、インタフェース装置を用いて処理装置に処理の実行を指示する強い動機づけとなる。キャラクタの音声としては、キャラクタと関連付けて発せられる音声とするとよく、特にキャラクタの声とするとよい。この場合において、特に受付部が受け付け可能な入力を、ユーザが発する音声の入力とするとよい。このようにすると、ユーザがキャラクタと会話によるコミュニケーションをとりながら、処理装置を遠隔操作しているかのような感覚をより強く得やすくすることができる。 In this way, the user can hear the character's voice that changes depending on the user's input or the process instructed to be executed by the user's input, and can gain auditory interest through the character. The user becomes more likely to feel familiar with the character, which in turn provides a strong motivation to use the interface device to instruct the processing device to execute a process. The character's voice is preferably a voice that is uttered in association with the character, and is particularly preferably a character's voice. In this case, it is particularly preferable that the input that the reception unit accepts is the voice input from the user. In this way, the user can more easily feel as if he or she is remotely controlling the processing device while communicating with the character through conversation.

(5)前記処理装置は、実行した処理の結果を、前記処理装置側の表示部に出力し、前記インタフェース装置の出力部は、前記処理が実行されたことを、前記キャラクタとの関連付けにより出力するとよい。 (5) The processing device outputs the result of the executed process to a display unit on the processing device side, and the output unit of the interface device outputs the fact that the process has been executed by associating it with the character. It's good to do that.

このようにすると、ユーザは、処理装置により実行された処理の結果についてはその処理装置側で確認し、インタフェース装置については処理が実行されたことについてはキャラクタを通じて確認することができる。処理装置側の表示部は、処理装置が有する表示部とするとよいが、処理装置に接続された外部の表示装置の表示部とするとよい。
インタフェース装置は、処理装置を遠隔操作する装置として機能するほか、処理が実行されたことについてはキャラクタを通じて確認できるといった、例えば趣味的、玩具的な性質を持つ装置としても機能することができる。
In this way, the user can check the results of the processing executed by the processing device on the processing device side, and can confirm through the character that the processing has been executed on the interface device. The display section on the processing device side may be a display section included in the processing device, or may be a display section of an external display device connected to the processing device.
In addition to functioning as a device for remotely controlling a processing device, the interface device can also function as a device that has hobby-like or toy-like properties, such as being able to confirm through a character that processing has been executed.

(6)前記処理装置と前記インタフェース装置とは、通信可能距離が所定距離以下である無線の通信路を介して接続され、又は有線の通信路を介して接続されてもよい。 (6) The processing device and the interface device may be connected via a wireless communication path whose communicable distance is a predetermined distance or less, or may be connected via a wired communication path.

このようにすると、ユーザは、自身の近くにあるインタフェース装置に対する入力をすることで、同じく自身の近くにある処理装置に、その入力に応じた処理を実行させることができる。インタフェース装置だけでなく、処理装置が処理の実行を指示する入力を受け付け可能な構成とすると、ユーザはインタフェース装置及び処理装置のどちらを操作しても処理の実行を指示することができるが、インタフェース装置に対する入力によって処理の実行を指示した場合には、その入力または処理に応じた情報がキャラクタと関連づいた情報により出力されるので、ユーザがインタフェース装置を使用する動機付けにすることができる。通信可能距離が所定距離以下である無線の通信路としては、特に無線LAN又は近距離無線通信とするとよい。無線LANの規格としては、例えば、Wi-Fi(登録商標)とするとよい。近距離無線通信としては、例えば、Bluetooth(登録商標)とするとよい。 In this way, by inputting an input to an interface device near the user, the user can cause a processing device also near the user to execute a process corresponding to the input. If the configuration is such that not only the interface device but also the processing device can accept input for instructing the execution of a process, the user can instruct the execution of a process by operating either the interface device or the processing device. When an input to the device instructs execution of a process, information corresponding to the input or process is output as information associated with the character, which can motivate the user to use the interface device. As a wireless communication channel whose communicable distance is less than or equal to a predetermined distance, it is particularly preferable to use a wireless LAN or short-range wireless communication. As the wireless LAN standard, for example, Wi-Fi (registered trademark) may be used. For example, Bluetooth (registered trademark) may be used as short-range wireless communication.

(7)前記出力部は、前記処理装置の状態を前記キャラクタとの関連付けにより出力するとよい。 (7) The output unit may output the state of the processing device in association with the character.

このようにすると、処理装置の状態が、キャラクタとの関連付けによりインタフェース装置に出力されるので、ユーザは、処理装置の状態を、キャラクタを介して認識することができる。例えば、ユーザは、キャラクタが表示されているときは、単に処理装置の状態が数値等で出力されるに比べると、視覚的にも楽しく認識することができる。キャラクタとの関連付けによる出力は、特に、処理装置の状態をキャラクタを用いて擬人化した態様による出力であるとよい。処理装置の状態をキャラクタを用いて擬人化した態様による出力としては、後述するキャラクタの表情又はキャラクタの動作を変化させる方法を用いた出力がある。キャラクタとの関連付けによる出力は、キャラクタの画像に処理装置の状態を示す画像を関連付けた出力とするとよい。このような出力としては、キャラクタが、処理装置の状態を表示するオブジェクト(例えば、ボード状のオブジェクト)を持った状態で表示する出力がある。キャラクタとの関連付けによる出力は、キャラクタの音声に処理装置の状態を示す音声を関連付けた出力とするとよい。このような出力としては、キャラクタ音声で処理装置の状態を案内する出力がある。 In this way, the state of the processing device is output to the interface device in association with the character, so the user can recognize the state of the processing device through the character. For example, when a character is displayed, the user can recognize it more visually and visually than when the status of the processing device is simply output as a numerical value or the like. In particular, the output associated with the character may be an output in which the state of the processing device is personified using the character. An example of an output in which the state of the processing device is anthropomorphized using a character is an output using a method of changing the character's facial expression or character action, which will be described later. The output associated with the character may be an output in which an image indicating the state of the processing device is associated with the image of the character. Such output includes an output in which a character is displayed holding an object (for example, a board-shaped object) that displays the state of the processing device. The output associated with the character may be an output in which the voice of the character is associated with the voice indicating the state of the processing device. Such output includes an output that uses character voices to guide the status of the processing device.

(8)前記出力部は、前記処理装置の状態として、当該処理装置のリソースの状態に応じて出力を行うとよい。 (8) The output unit may output the processing device according to a resource state of the processing device.

このようにすると、処理装置の状態として、処理装置のリソースの状態が、キャラクタとの関連付けにより出力されるので、ユーザは、リソースの状態を、キャラクタを介して認識することができる。例えば、処理装置のリソースの状態に応じて、キャラクタの状態が出力されると、ユーザは楽しみをもって装置の状態を認識すること等が可能となる。そうすると、インタフェース装置において、単に処理装置のリソースの状態が文字等で出力されるだけに比べると、例えばキャラクタが表示されているときは、キャラクタを視認することで介して楽しく認識することができる。 In this way, the state of the resource of the processing device is output as the state of the processing device in association with the character, so the user can recognize the state of the resource through the character. For example, if the status of the character is output in accordance with the status of the resources of the processing device, the user can enjoy recognizing the status of the device. In this way, when a character is displayed on the interface device, for example, compared to simply outputting the resource status of the processing device in the form of characters, it is possible to recognize the character visually.

(9)前記出力部は、前記処理装置のリソースの状態として、バッテリの状態を出力するとよい。 (9) The output unit may output a battery state as the resource state of the processing device.

このようにすると、処理装置の状態として、処理装置のリソースの状態として、バッテリの状態がキャラクタと関連付けにより出力されるので、ユーザはキャラクタを介してバッテリの状態を認識することができる。バッテリの状態としては、例えば、バッテリの残量、バッテリが充電中又は放電中の少なくとも1つの状態とするとよい。 In this way, the battery status is output as the status of the processing device and the resource status of the processing device in association with the character, so the user can recognize the battery status through the character. The state of the battery may be, for example, at least one of the remaining amount of the battery, charging or discharging.

(10)前記出力部は、前記キャラクタの表情又は前記キャラクタの動作の変化により、前記処理装置の状態を出力するとよい。 (10) The output unit may output the state of the processing device based on a change in the facial expression of the character or an action of the character.

このようにすると、ユーザは、処理装置の状態が、キャラクタの表情や、キャラクタの動作の変化により出力されるので、キャラクタの表情や、動作を介して認識することができる。例えば、処理装置の状態により、キャラクタの表情を変化する構成としたり、キャラクタの動きが変化する構成としたりすると、ユーザはキャラクタの表情やキャラクタの動きを確認することで、処理装置の状態を把握することができる。 In this way, the user can recognize the state of the processing device through the character's facial expression and the character's motion, since it is output based on the character's facial expression and changes in the character's motion. For example, if the character's expression changes or the character's movement changes depending on the state of the processing device, the user can grasp the state of the processing device by checking the character's expression and character movement. can do.

(11)前記受付部は、前記ユーザからメッセージを受け付け、前記制御部は、前記メッセージ又はメッセージに含まれるフレーズに基づいて処理を実行するとよい。 (11) The reception unit may receive a message from the user, and the control unit may execute processing based on the message or a phrase included in the message.

このようにすると、ユーザは、メッセージをインタフェース装置に入力することで、そのメッセージ又はメッセージに含まれるフレーズに基づく処理を処理装置に実行させることができ、処理装置に実行させるべき処理を指示するための入力を直感的な方法で行うことができる。 In this way, by inputting a message into the interface device, the user can cause the processing device to execute a process based on the message or a phrase included in the message, and the user can instruct the processing device to execute the process. can be input in an intuitive manner.

(12)前記受付部は、前記メッセージに基づいて、ユーザに再度メッセージを入力することを促し、前記制御部は、前記メッセージ及び/又は再度受け付けたメッセージに基づいて処理を実行するとよい。 (12) The reception unit may prompt the user to input a message again based on the message, and the control unit may execute processing based on the message and/or the message received again.

このようにすると、ユーザは、インタフェース装置に入力し、入力したメッセージに基づき、再度メッセージを入力するが促され、再度メッセージを入力できる。ユーザはインタフェース装置と、メッセージのやり取りを行うことで、1又は複数のメッセージから所望する処理を実行させることができる。インタフェース装置は、ユーザから受け付けたメッセージから、更にユーザが所望する処理を特定するために、メッセージを受け付けることを促す。このように、メッセージを複数回、キャッチボールのようにやり取りすることで、ユーザはインタフェース装置のキャラクタと疑似的に会話をしているようなことを感じることができる。また、ユーザがメッセージを複数回入力することで、段階的に処理装置が実行する処理を特定することが可能となる。 In this way, the user inputs the message into the interface device, is prompted to input the message again based on the input message, and can input the message again. By exchanging messages with the interface device, the user can execute desired processing from one or more messages. The interface device prompts the user to accept the message in order to further specify the desired process from the message received from the user. In this way, by exchanging messages multiple times like a game of catch, the user can feel as if he or she is having a pseudo conversation with the character on the interface device. Furthermore, by inputting a message multiple times by the user, it becomes possible to specify the process to be executed by the processing device step by step.

(13)前記インタフェース装置は、更に音声入力部を備え、前記受付部は、前記音声入力部によりユーザから音声の入力を受け付けるようにするとよい。 (13) The interface device may further include a voice input section, and the reception section may accept voice input from the user through the voice input section.

このようにすると、ユーザは、インタフェース装置に入力するときに、音声を利用することができる。例えば、ユーザがインタフェース装置に話しかけた内容が、インタフェース装置に入力される。そして、ユーザがインタフェース装置に話しかけた内容に関連づけてキャラクタが出力される構成とするとよい。 This allows the user to use voice when inputting to the interface device. For example, what the user says to the interface device is input to the interface device. Then, it is preferable that the character be outputted in association with the content of what the user has said to the interface device.

(14)前記インタフェース装置は、前記入力を受け付けた音声からメッセージを認識し、前記制御部は、前記メッセージ又は前記メッセージに含まれているフレーズに基づいて処理を実行するとよい。 (14) The interface device may recognize a message from the input voice, and the control unit may execute processing based on the message or a phrase included in the message.

このようにすると、ユーザは、インタフェース装置に入力するときに、処理装置において実行したい処理に対応するメッセージ又はメッセージにフレーズを含めて話しかければ、処理装置において所望する処理を実行することができる。インタフェース装置は、入力を受け付けた音声からメッセージを認識する構成とするとよい。このようにすると、インタフェース装置で音声を認識することから、処理装置においては音声を認識する処理を実行しなくてもよい。 In this way, the user can execute the desired process on the processing device by including a message or a phrase in the message corresponding to the process the user wants to execute on the processing device when inputting information to the interface device. The interface device may be configured to recognize a message from the input voice. In this case, since the interface device recognizes the voice, the processing device does not need to perform a process of recognizing the voice.

(15)前記出力部は、前記ユーザから入力された音声に応じて前記キャラクタを変化して出力するとよい。 (15) The output unit may change and output the character according to the voice input by the user.

このようにすると、ユーザは、インタフェース装置に音声を発すると、インタフェース装置に音声に応じて変化するキャラクタを認識することができる。例えば、ユーザからインタフェース装置に話しかけると、インタフェース装置は会話に反応してキャラクタを変化させる。ここで、キャラクタの変化は、例えばキャラクタの動きを変化させてもよく、例えばキャラクタの表情、姿勢、動きといった表示や、キャラクタが発する音声を変化させてもよい。 In this way, when the user makes a sound to the interface device, the interface device can recognize a character that changes according to the sound. For example, when a user speaks to an interface device, the interface device changes its character in response to the conversation. Here, the change in the character may be, for example, changing the movement of the character, or may be, for example, changing the display of the character's facial expression, posture, and movement, or the voice emitted by the character.

(16)前記受付部は、前記受け付けた入力に対応したコマンドを前記処理装置に送信し、前記制御部は、前記コマンドを受信し、前記コマンドに対応した処理を実行する制御を行うことにするとよい。 (16) The reception unit transmits a command corresponding to the received input to the processing device, and the control unit receives the command and performs control to execute a process corresponding to the command. good.

このようにすると、ユーザは、インタフェース装置にコマンドを入力し、コマンドに対応した処理を処理装置で実行することができる。受付部が入力に対応したコマンドを処理装置に送信し、処理装置がコマンドに対応した処理を実行する構成では、処理装置は、インタフェース装置から受信したコマンドを解釈できれば十分であり、ユーザからの入力を受け付けたり、ユーザからの入力を解釈したりする構成としなくともよい。したがって、処理装置において実行されるアプリケーションは、処理装置のリソースを極力使用しないアプリケーションとするとよい。例えばアプリケーションに必要最低限の機能を実装すれば十分であり、例えば、処理装置で実行されるアプリケーションのサイズを小さくできたり、処理装置で実行されるアプリケーションは、処理装置のCPUの使用率が小さかったり、実行時のメモリを小さくできる。 In this way, a user can input a command to the interface device and have the processing device execute a process corresponding to the command. In a configuration in which the reception unit sends a command corresponding to the input to the processing device, and the processing device executes the processing corresponding to the command, it is sufficient for the processing device to be able to interpret the command received from the interface device, and it is sufficient for the processing device to be able to interpret the command received from the interface device. It is not necessary to have a configuration that accepts input from the user or interprets input from the user. Therefore, the application executed on the processing device is preferably an application that uses the resources of the processing device as little as possible. For example, it is sufficient to implement the minimum necessary functions in an application. For example, the size of an application executed on a processing device can be reduced, or an application executed on a processing device can be implemented by reducing the usage rate of the CPU of the processing device. or reduce memory at runtime.

(17)前記コマンドは、前記処理装置のオペレーティングシステムの機能を利用するインタフェース又は前記処理装置において実行されるアプリケーションに対応するとよい。 (17) The command may correspond to an interface that utilizes a function of an operating system of the processing device or an application executed on the processing device.

このようにすると、インタフェース装置から送信されたコマンドに基づいて、処理装置は、オペレーションシステムの機能を実行したり、アプリケーションを実行したりする構成としてもよい。オペレーションシステムの機能を実行するには、例えば、オペレーティングシステムがWindowsのときは、Windows API等を利用するとよい。 In this way, the processing device may be configured to execute the functions of the operating system or execute the application based on the commands sent from the interface device. To execute the functions of the operating system, for example, when the operating system is Windows, it is preferable to use the Windows API.

(18)前記制御部は、前記インタフェース装置に対するユーザからの入力に応じて、前記処理装置において実行されるオペレーティングシステムの機能を利用するインタフェース又は前記処理装置においてインストールされているアプリケーションを実行するとよい。 (18) The control unit may execute an interface that utilizes functions of an operating system executed in the processing device or an application installed in the processing device in response to input from a user to the interface device.

このようにすると、ユーザはインタフェース装置に対して所望する入力を行うことにより、処理装置において、ユーザの入力に応じてオペレーションシステムの機能を利用するインタフェースを実行したり、処理装置においてアプリケーションを実行したりすることができる。 In this way, by providing desired input to the interface device, the user can cause the processing device to execute an interface that utilizes the functions of the operating system in accordance with the user's input, or to execute an application in the processing device. You can

(19)前記処理装置は、常駐しているアプリケーションにより、前記インタフェース装置に対するユーザからの入力を取得するとよい。 (19) The processing device may obtain input from a user to the interface device using a resident application.

このようにすると、処理装置は、インタフェース装置におけるユーザからの入力を入力の取得を常駐しているアプリケーションにより受け付けることができる。処理装置は、アプリケーションを常駐していることから、ユーザが任意のタイミングでインタフェース装置に入力すると、処理装置ではいつでも入力を受け付けることが可能で、入力に応じた処理を実行することができる。また、処理装置において実行されるアプリケーションは、インタフェース装置からのコマンドを解釈する機能を少なくとも有していればよく、常駐メモリの容量を小さくしやすくできる。 In this way, the processing device can receive input from the user at the interface device by the application resident to obtain the input. Since the processing device has an application resident thereon, if a user inputs an input to the interface device at any time, the processing device can accept the input at any time and execute processing according to the input. Further, the application executed in the processing device only needs to have at least the function of interpreting commands from the interface device, and the capacity of the resident memory can be easily reduced.

(20)前記常駐しているアプリケーションは、前記インタフェース装置からコマンドを受信し、受信したコマンドを解釈することによりユーザからの入力を取得することができる。 (20) The resident application may receive commands from the interface device and obtain input from the user by interpreting the received commands.

このようにすると、処理装置は、常駐したアプリケーションにインタフェース装置からコマンドを受信して解釈をする機能を実装する構成としてもよい。処理装置において常駐するアプリケーションは、インタフェース装置から受信したコマンドを解釈できれば十分であることから、アプリケーションは処理装置のリソースの使用を最小限に抑えることができる。 In this case, the processing device may have a configuration in which a resident application is provided with a function of receiving and interpreting commands from the interface device. Since it is sufficient for an application residing in the processing device to be able to interpret commands received from the interface device, the application can minimize the use of the resources of the processing device.

(21)前記出力部は、前記処理装置とは異なる装置の状態に応じて、前記異なる装置の状態を出力するとよい。 (21) The output unit may output a state of the different device depending on a state of the device different from the processing device.

このようにすると、ユーザは、処理装置とは異なる装置の状態についても、キャラクタに関連付けられた状態で認識することができる。 In this way, the user can recognize the state of a device other than the processing device in association with the character.

(22)前記異なる装置は、前記処理装置とは異なる機能を有する装置とするとよい。 (22) The different device may be a device having a function different from that of the processing device.

このようにすると、ユーザは、異なる装置は、単なる情報処理装置等だけではなく、処理装置とは異なる装置であって当該処理装置とは異なる機能を有する装置に関する状態も、キャラクタに関連付けられた状態で認識することができる。 In this way, the user can see that the different device is not just an information processing device, etc., but also a state related to a device that is different from the processing device and has a different function from the processing device, as well as the state associated with the character. It can be recognized by

(23)前記処理装置とは異なる機能を有する装置はバッテリであって、前記出力部は、前記バッテリの状態に関連づけて、前記キャラクタを変化して出力するとよい。 (23) Preferably, the device having a function different from the processing device is a battery, and the output section changes and outputs the character in association with the state of the battery.

このようにすると、ユーザは、処理装置とは異なる装置であって当該処理装置とは異なる機能を有する装置としてバッテリの状態を、キャラクタに関連付けられた状態で認識することができる。また、バッテリの状態に応じてキャラクタが変化するとよい。例えば、充電中、充電完了、残量不足といったバッテリの状態が、キャラクタに関連づけてキャラクタの変化として出力されることで、ユーザはキャラクタを見ただけでバッテリの状態を認識することができる。また、ユーザは単なるバッテリの残量表示と比較し、キャラクタの状態に対応付いていることから、視覚的、聴覚的な楽しさを得ることができる。 In this way, the user can recognize the state of the battery as a device that is different from the processing device and has a different function from the processing device in association with the character. Further, it is preferable that the character changes depending on the state of the battery. For example, the battery status, such as charging, completed charging, or insufficient remaining power, is associated with a character and output as a change in the character, allowing the user to recognize the battery status just by looking at the character. Furthermore, compared to simply displaying the remaining battery power, the user can enjoy visual and auditory enjoyment because the display is associated with the character's status.

(24)前記出力部は、前記処理装置と、前記異なる装置とでは、異なるキャラクタを出力するとよい。 (24) The output unit may output different characters between the processing device and the different device.

このようにすると、処理装置と、処理装置とは異なる装置が異なるキャラクタとして表示されていることから、ユーザは、複数の装置の状態を一度に認識することができる。また、装置が異なると、異なるキャラクタが出力されることから、ユーザはキャラクタを見ただけで、認識したい装置の状態を把握することができる。また、キャラクタが装置に対応付いていることから、キャラクタの種類によってはユーザにとって親しみやすい状態や、ユーザにとって解りやすい状態で取得することができる。 In this way, since the processing device and devices different from the processing device are displayed as different characters, the user can recognize the states of multiple devices at once. Furthermore, since different characters are output for different devices, the user can grasp the state of the device he or she wants to recognize just by looking at the characters. Furthermore, since the characters are associated with the device, depending on the type of character, the characters can be acquired in a state that is familiar to the user or in a state that is easy for the user to understand.

(25)前記出力部は、前記キャラクタ毎に異なるキャラクタ画像を表示する又は異なる音声を出力するとよい。 (25) The output unit may display a different character image or output a different sound for each character.

このようにすると、ユーザは、複数ある装置の状態を、装置毎に異なるキャラクタの画像として視認することができる。また、装置毎に異なることから、例えば、ユーザが視認する画像は、処理装置と、当該処理装置とは異なる装置であって当該処理装置とは異なる機能を有する装置では、異なるキャラクタの画像と表示されることになる。 In this way, the user can visually recognize the status of a plurality of devices as images of different characters for each device. In addition, since each device is different, for example, the image that the user visually recognizes may be displayed as an image of a different character on a processing device and a device that is different from the processing device and has a different function from the processing device. will be done.

ユーザは、例えば、インタフェース装置を特別に注視することなく、キャラクタを視認しただけで、所望する装置の状態を認識することができる。また、異なるキャラクタは、例えば処理装置と、当該処理装置とは異なる装置であって当該処理装置とは異なる機能を有する装置とで関連があるキャラクタの構成とするとよい。例えば、処理装置に対応するキャラクタを擬人化されたキャラクタを表示し、当該処理装置とは異なる装置であって当該処理装置とは異なる装置のキャラクタを擬人化されたキャラクタのペットと表示するとよい。このような構成とすると、ユーザは処理装置と、当該処理装置とは異なる装置であって当該処理装置とは異なる機能を有する装置との関係性を認識することが可能となる。 For example, the user can recognize the desired state of the device simply by visually recognizing the character without looking specifically at the interface device. Further, the different characters may be configured as characters that are related to, for example, a processing device and a device that is different from the processing device and has a different function from the processing device. For example, a character corresponding to a processing device may be displayed as an anthropomorphic character, and a character of a device different from the processing device may be displayed as a pet of the anthropomorphized character. With such a configuration, the user can recognize the relationship between the processing device and a device that is different from the processing device and has a different function from the processing device.

(26)前記出力部は、前記状態を所定のキャラクタの状態と関連づけて出力するとよい。 (26) The output unit may output the state in association with the state of a predetermined character.

このようにすると、ユーザは、処理装置の状態、処理装置とは異なる装置の状態又はバッテリの状態を、キャラクタと関連付けて認識することができる。特に、処理装置の状態、処理装置とは異なる装置の状態又はバッテリの状態を、キャラクタに擬人化した態様により出力されるようにするとよい。このようにすると、ユーザは、キャラクタの状態に接することで、処理装置の状態、処理装置とは異なる装置の状態又はバッテリの状態を、直感的に認識しやすくなるとともに、キャラクタの状態と関連づくことによる面白みも得ることができる。キャラクタの状態と関連づけた態様、又はキャラクタに擬人化した態様としては、処理装置の状態、処理装置とは異なる装置の状態又はバッテリの状態に応じて、キャラクタの表情や姿勢、キャラクタの音声その他のキャラクタの挙動を変化させることとするとよい。このようにすると、ユーザは、単に処理装置の状態、処理装置とは異なる装置の状態又はバッテリの状態を把握できるだけでなく、キャラクタを通じた面白みを得ることができる。出力は、キャラクタの画像、キャラクタの音声又はこれらの組み合わせとすると特に良い。 In this way, the user can recognize the state of the processing device, the state of a device different from the processing device, or the state of the battery in association with the character. In particular, it is preferable that the state of the processing device, the state of a device different from the processing device, or the state of the battery be output in a form anthropomorphized into a character. In this way, by coming into contact with the character's state, the user can easily intuitively recognize the state of the processing device, the state of a device different from the processing device, or the state of the battery, and can also relate it to the character's state. You can also get some fun out of it. Aspects related to the character's state or anthropomorphized to the character include the character's expression, posture, character's voice, etc., depending on the state of the processing device, the state of a device different from the processing device, or the state of the battery. It is preferable to change the behavior of the character. In this way, the user can not only grasp the state of the processing device, the state of a device other than the processing device, or the state of the battery, but also have fun through the characters. It is particularly advantageous if the output is an image of the character, a sound of the character, or a combination thereof.

(27)前記インタフェース装置は、更に異なる処理装置と接続可能であって、前記インタフェース装置は、第1の処理装置から取得した前記処理に応じた情報を、異なる第2の処理装置が処理を実行するときに利用するために送信するとよい。 (27) The interface device can be further connected to a different processing device, and the interface device allows a different second processing device to execute processing on information corresponding to the processing acquired from the first processing device. It is a good idea to send it for use when doing so.

このようにすると、ユーザはインタフェース装置を介して、第1の処理装置に処理を実行する指示を行い、その実行した結果に基づいて、第2の処理装置の処理を実行することができる。ユーザは、第1の処理装置と、第2の処理装置という異なった装置において、処理の結果を利用して連携した処理を実行することができる。 In this way, the user can instruct the first processing device to execute a process via the interface device, and can execute the process of the second processing device based on the executed result. A user can execute linked processing using processing results in different devices, such as a first processing device and a second processing device.

(28)前記処理に応じた情報は、前記第1の処理装置において検索する処理を実行したときの検索結果に関する情報を含むことにするとよい。 (28) The information according to the process may include information regarding a search result when the first processing device executes the search process.

このようにすると、ユーザはインタフェース装置を介して、第1の処理装置で検索処理を実行することができる。そして、ユーザは、この検索処理の実行結果を利用して、第2の処理装置において、新たな処理を実行することができる。 In this way, the user can execute the search process on the first processing device via the interface device. The user can then use the execution results of this search process to execute new processing in the second processing device.

(29)前記検索結果に関する情報は、位置情報であるとよい。 (29) The information regarding the search results may be location information.

このようにすると、ユーザはインタフェース装置を介して、第1の処理装置において検索した検索結果として位置情報を利用して第2の処理装置において新たな処理を実行できてもよい。 In this way, the user may be able to execute a new process in the second processing device via the interface device using the location information as a search result obtained in the first processing device.

(30)前記インタフェース装置は特定の情報を記憶しており、前記制御部は、前記インタフェース装置から前記特定の情報を取得し、特定の情報を利用して処理を実行するとよい。 (30) The interface device may store specific information, and the control unit may acquire the specific information from the interface device and execute processing using the specific information.

このようにすると、ユーザは、処理装置において処理を実行するときに、インタフェース装置に記憶された特定の情報を利用して処理を実行することができる。このような構成とすると、特定の情報がインタフェース装置に記憶されていることから、例えば、ユーザインタフェース装置が接続する処理装置を変えたとすると、同じ特定の情報を利用することができる。 In this way, when a user executes a process on the processing device, the user can execute the process using specific information stored in the interface device. With such a configuration, since specific information is stored in the interface device, for example, if the processing device to which the user interface device is connected is changed, the same specific information can be used.

(31)前記特定の情報は、個人情報、前記処理を実行するときの設定情報、ログインに関する情報の何れかにするとよい。 (31) The specific information may be any one of personal information, setting information when executing the process, and information regarding login.

このようにすると、ユーザは、インタフェース装置に、特定の情報として個人情報、処理を実行するときの設定情報、ログイン情報を記憶することができる。ユーザは個人情報等を処理装置ではなく、インタフェース装置に記憶することができるため、処理装置が変わっても、インタフェース装置に記憶されている個人情報等を利用することができる。また、個人情報等を処理装置に記憶せずに、処理装置とは異なるインタフェース装置に記憶するとよい。例えば、ユーザが、自分が個人的に使用するインタフェース装置に個人情報等を記憶することで、処理装置には個人情報等が記憶されなくなり、セキュリティの高いシステムを提供するとよい。 In this way, the user can store personal information, setting information for executing processing, and login information as specific information in the interface device. Since the user can store personal information etc. in the interface device rather than the processing device, the user can still use the personal information etc. stored in the interface device even if the processing device changes. Furthermore, it is preferable to store personal information and the like in an interface device different from the processing device instead of storing it in the processing device. For example, it is preferable that a user stores personal information and the like in an interface device that he/she personally uses, so that the personal information and the like are no longer stored in the processing device, thereby providing a system with high security.

(32)前記処理装置は、前記ユーザからの入力と、前記実行する処理とを対応付けて設定する設定部を更に備えるとよい。 (32) The processing device may further include a setting unit that associates and sets the input from the user and the process to be executed.

このようにすると、ユーザは、処理装置において実行する処理に対応して、ユーザが入力する内容を設定することができる。このようにすると、ユーザはインタフェース装置に記憶されていない内容であっても、処理装置において実行する処理を改めて設定することができる。このような構成では、例えば、ユーザが所望する任意の内容で、処理装置において実行する処理を登録することができるようになり、ユーザが自分の好みにカスタマイズすることができる。 In this way, the user can set the content to be input by the user in accordance with the process to be executed by the processing device. In this way, the user can reconfigure the process to be executed in the processing device even if the content is not stored in the interface device. With such a configuration, for example, the user can register the process to be executed in the processing device with any desired content, and the user can customize the process to his or her liking.

(33)前記設定部は、ユーザから入力されたメッセージ又は特定のフレーズと、前記実行する処理とを対応付けてもよい。 (33) The setting unit may associate a message or a specific phrase input by the user with the process to be executed.

このようにすると、ユーザは、入力するメッセージや、フレーズに対応して、処理装置において実行する処理を設定することができる。このような構成では、例えば、ユーザが所望するメッセージの内容や、特定のフレーズに処理装置において実行する処理を登録することができるようになり、ユーザが自分の好みにカスタマイズすることができる。 In this way, the user can set the process to be executed in the processing device in response to the input message or phrase. With such a configuration, the user can, for example, register the content of the message desired by the user or the process to be executed by the processing device in a specific phrase, allowing the user to customize the message to his or her liking.

(34)前記特定のフレーズは、前記実行する処理とは関連を有しないフレーズであってもよい。 (34) The specific phrase may be a phrase that has no relation to the process to be executed.

このようにすると、ユーザは、処理装置において実行する処理とは関連の有さないフレーズであっても、任意に設定することができる。ここで、実行する処理とは関連を有しないフレーズとは、例えば「おはよう」「さようなら」「おやすみなさい」等の、その言葉だけでは直接処理とは関連しないフレーズであってもよい。 In this way, the user can arbitrarily set a phrase even if it is a phrase that is not related to the process executed by the processing device. Here, phrases that are not related to the process to be executed may be phrases such as "good morning," "goodbye," and "good night," which are not directly related to the process.

(35)前記実行する処理は、前記処理装置において実行するアプリケーション又はオペレーティングシステムの機能を呼び出すインタフェースであってもよい。 (35) The executed process may be an application executed on the processing device or an interface that calls a function of an operating system.

このようにすると、ユーザは、処理装置において実行するアプリケーション、処理装置においてオペレーティングシステムの機能を呼び出すインタフェースを、特定のフレーズと対応して設定することができる。これにより、ユーザは任意の処理や、任意のプログラムを、ユーザの好むフレーズに対応して設定することができる。 In this way, the user can set the application to be executed on the processing device and the interface for calling the function of the operating system on the processing device in correspondence with a specific phrase. This allows the user to set any process or program in accordance with the user's preferred phrase.

(36)前記インタフェース装置は、前記コマンドと、前記メッセージとを記憶し、前記受付部は、前記ユーザからメッセージの入力を受け付けたとき、当該メッセージに対応するコマンドを前記処理装置に送信し、前記制御部は、前記コマンドに対応する処理を実行するとよい。 (36) The interface device stores the command and the message, and when the reception unit receives a message input from the user, the reception unit transmits a command corresponding to the message to the processing device, and The control unit preferably executes processing corresponding to the command.

このようにすると、インタフェース装置は、ユーザからメッセージの入力を受け付けたとき、当該メッセージに対応するコマンドを処理装置に送信することができる。処理装置は、インタフェース装置からコマンドを受信し、コマンドに対応する処理を実行するとよい。処理装置は、コマンドをインタフェース装置から受信すればよく、ユーザから入力メッセージの入力を直接受け付けたり、受けつけたメッセージの解釈をしたりする必要がない。 In this way, when the interface device receives a message input from the user, it can send a command corresponding to the message to the processing device. The processing device may receive commands from the interface device and perform processing corresponding to the commands. The processing device only needs to receive commands from the interface device, and does not need to directly accept input messages from the user or interpret received messages.

(37)前記設定部は、前記処理装置においてユーザから入力された操作に基づいて、前記実行する処理を特定するとよい。 (37) The setting unit may specify the process to be executed based on an operation input by a user in the processing device.

このようにすると、ユーザは、ユーザからの入力に対応して、処理装置において実行する処理を設定するときに、処理装置において入力された操作に基づいて処理を設定することができる。ユーザは、処理装置において操作を行えばよく、簡易に処理を設定することができる。 In this way, when setting a process to be executed on the processing device in response to an input from the user, the user can set the process based on the operation input on the processing device. The user only needs to operate the processing device and can easily set the processing.

(38)前記設定部は、前記ユーザの入力に基づいて実行する処理を特定できないときに、前記処理装置においてユーザの操作に基づいて特定された処理を、前記入力と対応して設定するとよい。 (38) When the setting unit cannot specify a process to be executed based on the user's input, it is preferable that the setting unit sets a process specified based on the user's operation in the processing device in correspondence with the input.

このようにすると、ユーザは、インタフェース装置に入力したが、当該入力した内容に基づいて実行する処理が特定できない場合、処理装置において、ユーザが操作をして処理を特定するとよい。システムは、このときユーザが操作をして特定した処理を、ユーザがインタフェース装置に行った入力と対応して設定するとよい。ユーザは、新たな処理を登録したいときには、処理装置において処理を実行するための操作を行うことで、ユーザが行う入力に簡単に対応付けて設定することができる。 In this way, when the user inputs information into the interface device but cannot specify a process to be executed based on the input contents, the user may perform an operation on the processing device to specify the process. The system may set the process specified by the user's operation in correspondence with the input made by the user to the interface device. When the user wants to register a new process, by performing an operation to execute the process on the processing device, the user can easily set the new process in association with the input performed by the user.

(39)前記出力部は、前記ユーザが前記インタフェース装置を利用した履歴に応じて、前記キャラクタの出力を切り替えることにするとよい。 (39) Preferably, the output unit switches the output of the character depending on a history of the user's use of the interface device.

このようにすると、ユーザがインタフェース装置を利用した履歴に応じて、キャラクタの出力が切り替わることになる。例えば、ユーザの利用回数が多いと、キャラクタの表示が変わったり、キャラクタが進化したりするようにするとよい。ユーザの利用した履歴によりキャラクタの出力が変わることから、例えば、ユーザは多くシステムを利用することの動機付けになり得る。 In this way, the output of the character will be switched depending on the history of the user's use of the interface device. For example, if the user uses the site many times, the display of the character may change or the character may evolve. Since the output of the character changes depending on the user's usage history, the user may be motivated to use the system more often, for example.

(40)前記受付部は、前記ユーザが前記インタフェース装置を利用した履歴に応じて、前記ユーザから受付可能な入力の種類が変化するするとよい。 (40) The reception unit may change the type of input that can be accepted from the user depending on a history of the user's use of the interface device.

このようにすると、ユーザがインタフェース装置を利用した履歴に基づいて、インタフェース装置が受付可能な入力の種類が変化する。例えば、ユーザがインタフェース装置を利用する回数が多いほど、色々な入力を受けつけ可能な構成とするとよい。このような構成のときは、ユーザは、多くシステムを利用することの動機付けになり得る。 In this way, the type of input that the interface device can accept changes based on the user's history of using the interface device. For example, the more times a user uses the interface device, the more various inputs may be accepted. With such a configuration, the user may be motivated to use the system more often.

(41)前記制御部は、前記ユーザが前記インタフェース装置を利用した履歴に応じて、実行する処理が変化するようにするとよい。 (41) Preferably, the control unit changes the process to be executed depending on a history of the user using the interface device.

このようにすると、ユーザがインタフェース装置を利用した履歴に基づいて、処理装置において実行する処理が変化する。例えば、ユーザがインタフェース装置を利用する回数が多いほど、処理装置において実行可能な処理を増やすという構成とするとよい。このような構成のときは、ユーザは、多くシステムを利用することの動機付けになり得る。 In this way, the processing executed by the processing device changes based on the history of the user's use of the interface device. For example, it may be configured such that the more times a user uses the interface device, the more processes that can be executed by the processing device are increased. With such a configuration, the user may be motivated to use the system more often.

(42)前記処理装置は、ユーザからの文字の入力を受け付ける文字入力モードを有し、前記出力部は、前記文字入力モードの入力に応じた情報に基づいて出力し、前記制御部は、前記文字入力モードの入力に応じて指示された処理を実行することにするとよい。 (42) The processing device has a character input mode that accepts character input from a user, the output unit outputs information based on the input in the character input mode, and the control unit It is preferable to execute the process instructed in response to the input in the character input mode.

このようにすると、ユーザは、インタフェース装置の操作だけでなく、処理装置を操作することによっても処理の実行を指示でき、インタフェース装置で出力される情報出力に反映できる。 In this way, the user can instruct execution of processing not only by operating the interface device but also by operating the processing device, and this can be reflected in the information output from the interface device.

(43)前記文字入力モードは、ユーザの文字の入力と、インタフェース装置で出力されるキャラクタとの会話形式のやりとりを実現する機能を有するとよい。 (43) The character input mode preferably has a function of realizing conversational exchange between the user's character input and the characters output by the interface device.

このようにすると、ユーザは、処理装置に文字を入力することによって、インタフェース装置で出力されるキャラクタと会話形式のコミュニケーションをとる感覚を得ることができる。 In this way, by inputting characters into the processing device, the user can get the feeling of communicating in a conversational manner with the characters output by the interface device.

(44)前記文字入力モードは、前記ユーザに入力された文字と、前記インタフェース装置から取得した文字とを会話形式で表示するようにするとよい。 (44) The character input mode may display characters input by the user and characters acquired from the interface device in a conversational format.

このようにすると、ユーザは、文字入力を行うことで、インタフェース装置から出力されているキャラクタと、文字で会話をする、いわゆるチャットのようなことをキャラクタと行っているような感覚を得ることができる。 In this way, by inputting characters, the user can feel as if he or she is having a chat-like conversation with the character output from the interface device. can.

(45)前記インタフェース装置は、当該インタフェース装置の環境に応じて、前記処理装置に対して文字入力モードを実行する信号を送信するようにするとよい。 (45) The interface device may transmit a signal for executing a character input mode to the processing device depending on the environment of the interface device.

このようにすると、インタフェース装置の環境に応じて、処理装置において文字入力が可能なモードに切り替わり、ユーザが処理装置において文字入力を行うことができる。例えば、インタフェース装置の環境に応じて、処理装置を用いた遠隔操作で処理装置に処理装置を実行させるようにするのか、又は処理装置の文字入力モードにより当該処理装置の処理を実行するようにするのかを、制御することができる。 In this way, depending on the environment of the interface device, the processing device is switched to a mode in which character input is possible, and the user can input characters in the processing device. For example, depending on the environment of the interface device, do you want the processing device to execute the processing device through remote control using the processing device, or do you want the processing device to execute the processing in the character input mode of the processing device? can be controlled.

(46)前記インタフェース装置の環境は、当該インタフェース装置が設置されている場所に基づく環境であってもよい。 (46) The environment of the interface device may be an environment based on a location where the interface device is installed.

このようにすると、インタフェース装置が設置されている場所に基づいて、処理装置において文字入力が可能なモードに切り替わり、ユーザが処理装置において文字入力を行うことができる。例えば、インタフェース装置が設置されている場所に応じて、処理装置を用いた遠隔操作で処理装置に処理装置を実行させるようにするのか、又は処理装置の文字入力モードにより当該処理装置の処理を実行するようにするのかを、制御することができる。 In this way, based on the location where the interface device is installed, the processing device is switched to a mode in which character input is possible, and the user can input characters in the processing device. For example, depending on the location where the interface device is installed, do you want the processing device to execute the processing device by remote control using the processing device, or do you want the processing device to execute the processing in the character input mode of the processing device? You can control what happens.

(47)前記インタフェース装置が設置されている場所は、当該インタフェース装置が接続している接続先に応じて決定されてもよい。 (47) The location where the interface device is installed may be determined depending on the connection destination to which the interface device is connected.

このようにすると、インタフェース装置が接続されている接続先に基づいて、処理装置において文字入力が可能なモードに切り替わり、ユーザが処理装置において文字入力を行うことができる。インタフェース装置が接続されている接続先は、例えば、無線LANの基地局(例えば、アクセスポイント)に関する情報、例えばSSID等により判定するとよい。 In this way, the processing device is switched to a mode in which character input is possible based on the connection destination to which the interface device is connected, and the user can input characters in the processing device. The connection destination to which the interface device is connected may be determined based on, for example, information regarding a wireless LAN base station (eg, access point), such as the SSID.

(48)前記インタフェース装置の環境は、当該インタフェース装置が取得した音の音量レベルに応じて決定されてもよい。 (48) The environment of the interface device may be determined according to the volume level of sound acquired by the interface device.

このようにすると、インタフェース装置が取得した音の音量レベルに応じて、処理装置において文字入力が可能なモードに切り替わり、ユーザが処理装置において文字入力を行うことができる。インタフェース装置が取得した音の音量は、例えばユーザの話し声の音量で判定する構成とするとよく、この場合、ユーザの声が小さい場合は、文字入力の方が適していると判定するとよい。また、インタフェース装置が取得した音の音量は、例えば環境音で判定する構成とするとよい。例えば、インタフェース装置は、環境音が静かなときはユーザが声の出せない環境と判定するとよい。また、例えば、インタフェース装置は、環境音から公共の場所や、電車内と判定したときは、ユーザが声の出せない環境と判定するとよい。 In this way, depending on the volume level of the sound acquired by the interface device, the processing device switches to a mode in which character input is possible, and the user can input characters in the processing device. The volume of the sound acquired by the interface device may be determined based on, for example, the volume of the user's speaking voice. In this case, if the user's voice is low, it may be determined that character input is more suitable. Further, the volume of the sound acquired by the interface device may be determined based on, for example, environmental sound. For example, the interface device may determine that the environment is such that the user cannot speak when the environmental sounds are quiet. Further, for example, when the interface device determines that the user is in a public place or on a train based on the environmental sounds, it is preferable to determine that the user is in an environment where the user cannot make a sound.

(49)前記インタフェース装置は、前記出力部を有する筐体を備え、前記筐体は、前記キャラクタと関連する外観を有するとよい。 (49) The interface device may include a housing having the output section, and the housing may have an appearance related to the character.

このようにすると、ユーザは、自身の入力又はその入力によって実行を指示した処理に応じた情報が、キャラクタと関連する外観を有する筐体側から出力されるのを認識することができるので、キャラクタを通じた視覚的な面白みを得ることができる。キャラクタと関連する外観としては、特にそのキャラクタを模した外観とするとよい。このようにすると、ユーザは、キャラクタに、処理による処理の実行を依頼(例えば、お願い)しているような感覚を得ることができ、ひいてはインタフェースを用いて処理装置に処理の実行を指示する強い動機づけとなる。キャラクタと関連する外観としては、そのキャラクタが使用するアイテム等とするとよく、そのキャラクタを象徴する外観を有するとよい。 In this way, the user can recognize that information corresponding to the user's input or the process instructed to be executed by the input is output from the casing side that has an appearance related to the character. You can get more visual interest. The appearance associated with a character is particularly preferably an appearance that imitates that character. In this way, the user can feel as if he or she is requesting (for example, asking) the character to perform a process using the process, and can even use the interface to instruct the processing device to perform the process. Motivating. The appearance associated with a character may be an item used by the character, or may have an appearance that symbolizes the character.

(50)インタフェース装置は、処理装置と相互に通信可能に接続されるインタフェース装置であって、前記入力を受け付ける受付部と、ユーザに対して前記入力又は前記インタフェース装置に対するユーザからの入力に応じた処理に基づく情報を所定のキャラクタとの関連付けにより出力する出力部と、を有するとよい。 (50) The interface device is an interface device that is connected to the processing device so as to be able to communicate with each other, and includes a reception unit that receives the input, and a reception unit that receives the input from the user or responds to the input from the user to the interface device. It is preferable to include an output unit that outputs information based on the processing by associating it with a predetermined character.

このようにすると、ユーザは、処理装置の外部にあるインタフェース装置に対する入力をすることで、そのインタフェース装置とは別の装置である処理装置に自身の入力に応じた処理を実行させるとともに、その入力又は実行させた処理に応じた情報をキャラクタとの関連付けにより、そのインタフェース装置を介して認識することができる。 In this way, by inputting input to the interface device external to the processing device, the user can cause the processing device, which is a device different from the interface device, to execute processing according to the user's input, and also Alternatively, information corresponding to the executed process can be recognized through the interface device by associating it with the character.

(51)上述の(1)から(49)の何れか1つに記載のシステムの制御部の機能をコンピュータに実現させるためのプログラムとするとよい。 (51) The program may be a program for causing a computer to implement the functions of the control unit of the system described in any one of (1) to (49) above.

上述した(1)から(49)に示した発明は、任意に組み合わせることができる。例えば、(1)に示した発明の全て又は一部の構成に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加える構成としてもよい。特に、(1)に示した発明に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加えた発明とするとよい。また、(1)から(49)に示した発明から任意の構成を抽出し、抽出された構成を組み合わせてもよい。本願の出願人は、これらの構成を含む発明について権利を取得する意思を有する。また「~の場合」「~のとき」という記載があったとしても、その場合やそのときに限られる構成として記載はしているものではない。これらはよりよい構成の例を示しているものであって、これらの場合やときでない構成についても権利取得する意思を有する。 The inventions shown in (1) to (49) above can be combined arbitrarily. For example, at least a part of the structure of at least one invention described in (2) and subsequent ones may be added to all or part of the structure of the invention shown in (1). In particular, it is preferable to create an invention in which at least a part of the structure of at least one invention after (2) is added to the invention shown in (1). Further, arbitrary configurations may be extracted from the inventions shown in (1) to (49) and the extracted configurations may be combined. The applicant of this application intends to acquire rights to inventions containing these structures. Furthermore, even if there is a description of "in the case of" or "at the time of", the description is not intended to be limited to those cases or times. These are examples of better configurations, and we intend to acquire rights to these cases and other configurations as well.

また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えたりした構成についても開示しているものであり、権利取得する意思を有する。 Furthermore, the sections described in order are not limited to this order. It also discloses a configuration in which some parts have been deleted or the order has been changed, and we have the intention to acquire the rights.

本発明のシステム等によれば、処理装置のインタフェースを異なる装置で実現するシステム等であり、従来と異なる技術を提供することができる。 According to the system or the like of the present invention, it is a system or the like in which the interface of the processing device is realized by a different device, and it is possible to provide a technology different from the conventional technology.

なお、本願の発明の効果はこれに限定されず、本明細書及び図面等に開示される構成の部分から奏する効果についても開示されており、当該効果を奏する構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」「~可能である」などと記載した箇所などは奏する効果を明示する記載であり、また「~できる」「~可能である」などといった記載がなくとも効果を示す部分が存在する。またこのような記載がなくとも当該構成よって把握される効果が存在する。 Note that the effects of the invention of the present application are not limited to these, and effects obtained from the parts of the configuration disclosed in the present specification, drawings, etc. are also disclosed, and the configurations that provide the effects are also disclosed by divisional applications, amendments, etc. Have the intention to acquire the rights. For example, in this specification, passages such as "can be done," "is possible," etc. are descriptions that clearly indicate the effect to be achieved, and even if there is no description such as "can be done," or "it is possible," the effect can be obtained. There is a part shown. Further, even without such a description, there are effects that can be understood from the configuration.

第1実施形態におけるシステムの概要を説明するための図である。FIG. 1 is a diagram for explaining an overview of a system in a first embodiment. 第1実施形態におけるハードウェアの構成を説明するための図である。FIG. 2 is a diagram for explaining the hardware configuration in the first embodiment. 第1実施形態におけるソフトウェアの構成を説明するための図である。FIG. 2 is a diagram for explaining the configuration of software in the first embodiment. 第1実施形態におけるソフトウェアの構成を説明するための図である。FIG. 2 is a diagram for explaining the configuration of software in the first embodiment. 第1実施形態における(a)コマンドテーブルのデータ構成の一例、(b)設定テーブルのデータ構成の一例を説明するための図である。FIG. 2 is a diagram for explaining (a) an example of the data structure of a command table and (b) an example of the data structure of a setting table in the first embodiment; FIG. 第1実施形態におけるメインの処理を説明するための図である。FIG. 3 is a diagram for explaining main processing in the first embodiment. 第1実施形態における認識処理を説明するための図である。FIG. 3 is a diagram for explaining recognition processing in the first embodiment. 第1実施形態における動作例を説明するための図である。FIG. 3 is a diagram for explaining an example of operation in the first embodiment. 第1実施形態における動作例を説明するための図である。FIG. 3 is a diagram for explaining an example of operation in the first embodiment. 第1実施形態における動作例を説明するための図である。FIG. 3 is a diagram for explaining an example of operation in the first embodiment. 第3実施形態におけるハードウェアの構成を説明するための図である。FIG. 7 is a diagram for explaining a hardware configuration in a third embodiment. 第3実施形態におけるメインの処理を説明するための図である。FIG. 7 is a diagram for explaining main processing in a third embodiment. 第3実施形態における動作例を説明するための図である。FIG. 7 is a diagram for explaining an example of operation in a third embodiment. 第4実施形態における動作例を説明するための図である。FIG. 7 is a diagram for explaining an example of operation in a fourth embodiment. 第4実施形態における動作例を説明するための図である。FIG. 7 is a diagram for explaining an example of operation in a fourth embodiment. 第5実施形態におけるメインの処理を説明するための図である。It is a figure for explaining main processing in a 5th embodiment. 第5実施形態における動作例を説明するための図である。It is a figure for explaining the example of operation in a 5th embodiment. 第5実施形態における動作例を説明するための図である。It is a figure for explaining the example of operation in a 5th embodiment. 第6実施形態における動作例を説明するための図である。It is a figure for explaining the example of operation in a 6th embodiment.

以下、図面を参照して本発明を実施するための形態について説明する。なお、以下に示す実施形態は、本発明を提供した一つの実施形態であり、以下の記載に基づいて本願発明の内容が限定して解釈されるものではない。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In addition, the embodiment shown below is one embodiment which provided this invention, and the content of this invention is not limited and interpreted based on the following description.

一般的に、パーソナルコンピュータ(PC)等の処理装置において、ユーザの操作を補助するアシスタント機能が知られている。このようなアシスタント機能としては、例えばマイクロソフト社のコルタナや、アップル社のSiri等が知られている。 2. Description of the Related Art Generally, an assistant function for assisting a user's operations is known in a processing device such as a personal computer (PC). Known examples of such assistant functions include Microsoft's Cortana and Apple's Siri.

このようなアシスタント機能は、便利そうには見えるが、機能をアシストするにすぎず、ユーザはつまらないと感じたり、実行する必要性を感じたりしないため、使うモチベーションが上がらないという問題があった。 Although these assistant functions seem convenient, they only provide assistance, and users find them boring or do not feel the need to perform them, so they lack motivation to use them.

そこで、アシスタント機能を、例えばアニメキャラ、ゆるキャラ等のキャラクタがエージェントのような形で実行してくれると面白そうであり、ユーザが使うモチベーションが上がりそうである。とくに、ユーザが気に入ったアニメや、ゲームのキャラクタ、お気に入りのゆるキャラ、企業キャラを利用すると、ユーザが積極的に利用する動機付けになり得る。 Therefore, it would be interesting if a character, such as an anime character or mascot character, could perform the assistant function in the form of an agent, and the user would be more motivated to use it. In particular, if the user uses his/her favorite anime, game characters, favorite mascot characters, or corporate characters, this can motivate the user to actively use them.

ここで、端末装置でキャラクタを動作させるためには、例えばUnity等のゲームエンジンを利用したアプリケーションを実行することが考えられる。しかし、キャラクタを動作させるためのアプリケーションを処理装置で実行するには、それなりのリソースを必要としてしまう。また、処理装置上で実行することで、インタフェースが処理装置のものに限られてしまうという制約が生じてしまう。 Here, in order to make the character move on the terminal device, it is conceivable to execute an application using a game engine such as Unity, for example. However, in order to execute an application for making a character move on a processing device, a certain amount of resources are required. Furthermore, execution on a processing device creates a restriction that the interface is limited to that of the processing device.

このような課題を解決することを1つの目的とした、本実施形態のシステムについて、以下実施形態を説明する。なお、以下の実施形態は、本発明を実現するための一例である。したがって、本発明の内容が、以下の実施形態の形式に限定されるものではない。 An embodiment of the system of this embodiment, which aims to solve such a problem, will be described below. Note that the following embodiment is an example for realizing the present invention. Therefore, the content of the present invention is not limited to the form of the following embodiments.

[1.第1実施形態]
[1.1 システム全体]
図1は、システム1の概要を説明する図である。システム1は、インタフェース装置10と、処理装置20とを含んでいる。
[1. First embodiment]
[1.1 Entire system]
FIG. 1 is a diagram illustrating an overview of the system 1. As shown in FIG. System 1 includes an interface device 10 and a processing device 20.

インタフェース装置10は、処理装置20と通信が可能な装置である。インタフェース装置10は、例えば、表示デバイスとして表示部140を有している。表示部140には、例えば、キャラクタが表示されている。キャラクタは、例えば人を示すものであり、喜怒哀楽の表情を示すことができる。 The interface device 10 is a device that can communicate with the processing device 20. The interface device 10 includes, for example, a display section 140 as a display device. For example, a character is displayed on the display section 140. The character represents, for example, a person, and can show facial expressions of joy, anger, sorrow, and happiness.

処理装置20は、各種処理が実行可能は装置である。例えば、処理装置20は、汎用的な処理が実行可能なパーソナルコンピュータ(パソコン/PC)にすると好ましい。また、処理装置20は、汎用的な処理が実行可能なパソコンだけでなく、例えばタブレット等の処理装置や、カーナビゲーション、ドライブレコーダといった特定の目的の処理を実行可能な装置であってもよい。 The processing device 20 is a device capable of executing various types of processing. For example, the processing device 20 is preferably a personal computer (personal computer/PC) capable of executing general-purpose processing. Further, the processing device 20 is not limited to a personal computer capable of executing general-purpose processing, but may also be a processing device such as a tablet, or a device capable of executing processing for a specific purpose such as a car navigation system or a drive recorder.

処理装置20とインタフェース装置10とは、通信可能距離が所定距離以下である無線の通信路を介して接続され又は有線の通信路を介して接続されてもよい。通信可能距離が所定距離以下である無線の通信路を介して接続される場合、例えば、インタフェース装置10と、処理装置20とは、BLE(Bluetooth Low Energy)等の近距離の無線通信を利用するとよい。有線の通信路の場合、USBやHDMI(登録商標)(High-Definition Multimedia Interface)、その他の規格のケーブルを利用するとよい。ユーザは、自身の近くにあるインタフェース装置10に対する入力をすることで、同じく自身の近くにある処理装置20に、その入力に応じた処理を実行させることができる。インタフェース装置10だけでなく、処理装置20が処理の実行を指示する入力を受け付け可能な構成であることで、ユーザはインタフェース装置10及び処理装置20のどちらを操作しても処理の実行を指示することができるが、インタフェース装置10に対する入力によって処理の実行を指示した場合には、その入力または処理に応じた情報がキャラクタと関連づいた情報により出力されるので、ユーザがインタフェース装置10を使用する動機付けにすることができる。 The processing device 20 and the interface device 10 may be connected via a wireless communication path whose communicable distance is a predetermined distance or less, or may be connected via a wired communication path. If the interface device 10 and the processing device 20 are connected via a wireless communication path whose communicable distance is a predetermined distance or less, for example, the interface device 10 and the processing device 20 may use short-range wireless communication such as BLE (Bluetooth Low Energy). good. In the case of a wired communication path, cables of USB, HDMI (registered trademark) (High-Definition Multimedia Interface), or other standards may be used. By inputting information to the interface device 10 located near the user, the user can cause the processing device 20 also located near the user to execute processing according to the input. Since not only the interface device 10 but also the processing device 20 is configured to accept input for instructing the execution of a process, the user can instruct the execution of the process by operating either the interface device 10 or the processing device 20. However, when the execution of a process is instructed by input to the interface device 10, information corresponding to the input or process is output as information associated with the character, so that the user can use the interface device 10. It can be used as motivation.

ユーザは、処理装置20の外部デバイスであるインタフェース装置10を用意する。処理装置20には、インタフェース装置10と通信するための軽量なアプリケーションを用意し、インストールしておけばよい。このような構成にすると、処理装置20は、必要とされるリソースの多くを外部デバイスであるインタフェース装置10に分離することができる。 A user prepares an interface device 10, which is an external device to the processing device 20. A lightweight application for communicating with the interface device 10 may be prepared and installed on the processing device 20. With such a configuration, the processing device 20 can separate many of the required resources to the interface device 10, which is an external device.

また、インタフェース装置10は、例えばユーザからの指示を入力可能である。ユーザからの指示としては、本実施形態では、指示の内容を特定するメッセージを入力可能である。インタフェース装置10は、ユーザから入力されたメッセージに対応するコマンドを生成し、処理装置20において実行されているアプリケーションが解釈できる形に変換して送信する。なお、インタフェース装置10は、メッセージに含まれるフレーズに基づいてコマンドを生成してもよい。なお、メッセージ、及びフレーズについては、少なくとも人間が理解可能な言語的な意味を有するものとするとよい。 Further, the interface device 10 is capable of inputting instructions from a user, for example. In this embodiment, a message specifying the content of the instruction can be input as the instruction from the user. The interface device 10 generates a command corresponding to a message input by the user, converts it into a format that can be interpreted by an application running on the processing device 20, and transmits the command. Note that the interface device 10 may generate a command based on a phrase included in a message. Note that it is preferable that messages and phrases have at least a linguistic meaning that can be understood by humans.

処理装置20は、アプリケーションがコマンドを受信すると、処理装置20のオペレーティングシステムのAPI(Application Programming Interface)等を使用して、目的の処理を実行するように構成される。処理装置20で実行されるアプリケーションは、特に、常駐アプリケーションとして実行されるとよい。常駐アプリケーションは、例えば、処理装置20の電源がONされている期間は継続して動作しているアプリケーション、又はOSの起動とともに起動されるアプリケーションとする等、ユーザが明示に起動を指示しなくとも処理装置20において実行されている状態のアプリケーションとするとよい。 The processing device 20 is configured to use an API (Application Programming Interface) of the operating system of the processing device 20 to execute a target process when the application receives a command. The application executed on the processing device 20 is particularly preferably executed as a resident application. The resident application may be an application that continues to operate while the processing device 20 is powered on, or an application that is started when the OS is started, even if the user does not explicitly instruct it to start. It is preferable that the application is executed in the processing device 20.

このように、ユーザがインタフェース装置10にメッセージを入力すると、メッセージに応じた処理が処理装置20で実行される。すなわち、インタフェース装置10は、処理装置20のAPIを直接実行することを指示したり、コマンドを実行したりすることが可能となる。 In this way, when the user inputs a message to the interface device 10, the processing device 20 executes processing according to the message. That is, the interface device 10 can instruct the processing device 20 to directly execute an API or execute a command.

なお、このインタフェース装置10は、例えば出願人である株式会社ユピテルが販売するLVR-01であるとよい。当該製品では、株式会社ユピテルが使用するキャラクタである霧島レイが、仮想的なフィギュアとして表示される。以下の実施形態に対応する図面では、当該キャラクタを一例として使用しているが、他のキャラクタにも適用可能である。 Note that this interface device 10 may be, for example, LVR-01 sold by Jupiter Co., Ltd., the applicant. In this product, Rei Kirishima, a character used by Jupiter Co., Ltd., is displayed as a virtual figure. In the drawings corresponding to the embodiments below, this character is used as an example, but the invention is also applicable to other characters.

システム1は、ユーザは、処理装置20の外部にあるインタフェース装置10に対する入力をすることで、そのインタフェース装置10とは別の装置である処理装置20に自身の入力に応じた処理を実行させるとともに、その入力又は実行させた処理に応じた情報をキャラクタとの関連付けにより、そのインタフェース装置を介して認識することができる。 In the system 1, by inputting input to an interface device 10 located outside the processing device 20, the user causes the processing device 20, which is a device different from the interface device 10, to execute processing according to the user's input. , information corresponding to the input or executed processing can be recognized through the interface device by associating it with the character.

インタフェース装置10が受け付け可能な入力としては、特に、ユーザが直感的に行うことができる入力とするとよく、例えば、ユーザが発する音声や、ユーザが示すジェスチャ動作とするとよい。このようにすると、インタフェース装置10に対するユーザの入力負担が軽減させることができる。なお、インタフェース装置10が受け付け可能な入力としては、これら以外の入力としてもよく、例えば物理キーやタッチセンサ等の入力手段を用いて受け付け可能な入力としてもよい。インタフェース装置10は、例えばメッセージを構成する文字の入力を受け付けるとよい。 The input that can be accepted by the interface device 10 is particularly preferably an input that can be intuitively performed by the user, such as a voice uttered by the user or a gesture movement shown by the user. In this way, the user's input burden on the interface device 10 can be reduced. Note that the input that can be accepted by the interface device 10 may be input other than these, for example, input that can be accepted using an input means such as a physical key or a touch sensor. For example, the interface device 10 may accept input of characters composing a message.

処理装置20が実行する処理としては、処理装置20が実行可能な処理とするとよく、特に処理装置20にインストールされたアプリケーション・ソフトウェアの機能により実行される処理とするとよい。アプリケーション・ソフトウェアとしては、OS、又はOS上で動作するプログラムとするとよい。このようにすると、ユーザは、処理装置にインストールされているOS、又はOS上で動作するアプリケーションの機能により実行可能な処理を、外部のインタフェース装置に対する入力によって実行させることができる。ユーザは、処理装置に対して、OS、又はOS上で動作するアプリケーションや、それに実行させる処理を指示する入力をしなくてよいので、ユーザの入力負担を軽減させることができる。 The processing executed by the processing device 20 is preferably a process that can be executed by the processing device 20, and particularly preferably a process executed by a function of application software installed in the processing device 20. The application software may be an OS or a program running on the OS. In this way, the user can execute a process that can be executed by the functions of the OS installed in the processing device or the application running on the OS by inputting it to the external interface device. Since the user does not have to input instructions to the processing device about the OS, an application running on the OS, or a process to be executed by the OS, the input burden on the user can be reduced.

また、インタフェース装置10は、ユーザが認識可能な情報をキャラクタと関連付けて出力するとよく、特に画像又は音声を出力するとよい。このようにすると、ユーザは、自身の入力又は処理に応じた情報を認識しやすくなる。入力又は実行させた処理に応じた情報としては、入力を受け付けたことや、処理の実行を指示したこととしてもよいが、特に、処理の結果をユーザに認識させることのできる情報とするとよい。このようにすると、ユーザは、処理装置20に実行させた処理の結果を、処理装置20ではなく、インタフェース装置10を通じて認識することができる。 Further, the interface device 10 preferably outputs information that can be recognized by the user in association with the character, and particularly preferably outputs images or sounds. This makes it easier for the user to recognize information that corresponds to his or her own input or processing. The information corresponding to the process input or executed may be information indicating that the input has been received or an instruction to execute the process, but it is particularly preferable to use information that allows the user to recognize the result of the process. In this way, the user can recognize the results of the processing performed by the processing device 20 not through the processing device 20 but through the interface device 10.

[1.2 ハードウェア構成]
各装置のハードウェア構成について、以下、図2を参照して説明する。図2は、インタフェース装置10と、処理装置20とのハードウェア構成の一例を示した図である。
[1.2 Hardware configuration]
The hardware configuration of each device will be described below with reference to FIG. 2. FIG. 2 is a diagram showing an example of the hardware configuration of the interface device 10 and the processing device 20.

[1.2.1 インタフェース装置]
インタフェース装置10は制御部100と、記憶装置としてストレージ110、ROM120及びRAM130と、表示部140と、入力部150と、音声入力部160と、音声出力部162と、通信部170とを有している。
[1.2.1 Interface device]
The interface device 10 includes a control section 100, a storage 110, a ROM 120, and a RAM 130 as storage devices, a display section 140, an input section 150, an audio input section 160, an audio output section 162, and a communication section 170. There is.

制御部100は、インタフェース装置10の全体を制御するための機能部である。制御部100は、ストレージ110や、ROM120に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、1又は複数の制御装置/演算装置(CPU(Central Processing Unit)、SoC(System on a Chip))により実現されてもよい。 The control unit 100 is a functional unit for controlling the entire interface device 10. The control unit 100 realizes various functions by reading and executing various programs stored in the storage 110 and the ROM 120, and implements various functions by reading and executing various programs stored in the storage 110 and the ROM 120. (System on a Chip)).

ストレージ110は、プログラムや、データを記憶可能な不揮発性の記憶装置である。例えば、HDD(Hard Disk Drive)や、SSD(Solid State Drive)といった記憶装置で構成されてもよい。また、ストレージ110は、DVD/BDといった光ディスクであってもよいし、USBメモリといった構成でもよい。また、ストレージ110は、例えばクラウド上にある記憶領域であってもよい。 The storage 110 is a nonvolatile storage device that can store programs and data. For example, it may be configured with a storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive). Further, the storage 110 may be an optical disc such as a DVD/BD, or may be configured as a USB memory. Further, the storage 110 may be a storage area on a cloud, for example.

ROM120は、電源を切ってもプログラムやデータを保持することが可能な不揮発性のメモリである。 The ROM 120 is a nonvolatile memory that can retain programs and data even when the power is turned off.

RAM130は、主に制御部100が処理を実行時に利用するメインメモリである。RAM130は、ストレージ110や、ROM120から読み出したプログラムや、実行時の結果を含むデータを一時的に保持する書換え可能なメモリである。 The RAM 130 is a main memory mainly used by the control unit 100 when executing processing. The RAM 130 is a rewritable memory that temporarily holds programs read from the storage 110 or the ROM 120 and data including execution results.

表示部140は、各種情報や、実行画面を表示可能な表示装置である。表示部140は、例えば、液晶ディスプレイ(LCD;Liquid Crystal Display)や、有機EL(Electro Luminescence)ディスプレイ、電気泳動型ディスプレイ等の表示装置であってもよい。また、表示部140は、表示装置が接続可能なインタフェースを含む。例えば、HDMI(High-Definition Multimedia Interface)や、DVI(Digital Visual Interface)、Display Portを介して接続される外部の表示装置で構成されてもよい。なお、インタフェース装置10側の表示部140は、インタフェース装置10に内蔵された表示部とするほか、インタフェース装置10に外付けされた表示部としてもよい。 The display unit 140 is a display device that can display various information and execution screens. The display unit 140 may be, for example, a display device such as a liquid crystal display (LCD), an organic EL (electro luminescence) display, or an electrophoretic display. Furthermore, the display unit 140 includes an interface to which a display device can be connected. For example, it may be configured with an external display device connected via HDMI (High-Definition Multimedia Interface), DVI (Digital Visual Interface), or Display Port. Note that the display unit 140 on the interface device 10 side may be a display unit built into the interface device 10 or may be a display unit externally attached to the interface device 10.

入力部150は、ユーザからの情報の入力が可能な入力装置(入力手段の一例)である。入力部150は、音声入力部160が受け付ける音声の入力とは異なる入力を受け付ける。入力部150は、例えば、非接触の操作を受け付ける非接触センサを有するとよい。非接触の操作としては、ジェスチャ動作がある。非接触センサとしては、Airタッチセンサと呼ばれるものが用いられるとよいが、ジェスチャ動作を認識するためのカメラや各種センサ類が用いられてもよい。入力部150は、物理キーやタッチセンサ等の入力装置を有してもよい。入力部150は表示部140と一体となってユーザからの入力を受け付ける構成としてもよく、例えば、表示部140に表示された画像に対する入力を受け付けるとよい。また、入力部150は、外部の入力装置が接続可能なインタフェースを含むとよい。例えば、USB(Universal Serial Bus)や、無線を介して接続されるキーボードやマウス等の入力装置で構成されてもよい。 The input unit 150 is an input device (an example of an input means) that allows a user to input information. The input unit 150 accepts input that is different from the voice input that the voice input unit 160 accepts. Input unit 150 may include, for example, a non-contact sensor that accepts non-contact operations. Non-contact operations include gesture movements. As the non-contact sensor, it is preferable to use what is called an air touch sensor, but a camera or various sensors for recognizing gesture movements may also be used. The input unit 150 may include an input device such as a physical key or a touch sensor. The input unit 150 may be configured to be integrated with the display unit 140 and accept input from the user, and for example, may accept input regarding an image displayed on the display unit 140. Furthermore, the input unit 150 preferably includes an interface to which an external input device can be connected. For example, it may be configured with an input device such as a keyboard or mouse connected via USB (Universal Serial Bus) or wirelessly.

音声入力部160は、音(音声を含む)入力を受け付けその音を音データに変換して出力する。音声入力部160は、主にマイク等で構成されるが、オーディオインタフェースや、USB、無線インタフェースを介して接続される外部マイク等で構成されてもよい。 The audio input unit 160 receives sound (including voice) input, converts the sound into sound data, and outputs the sound data. The audio input section 160 mainly includes a microphone, but may also include an external microphone connected via an audio interface, USB, or wireless interface.

音声出力部162は、音データから、音(音声を含む)を出力する。主にスピーカで構成されるが、オーディオインタフェースや、USB、無線インタフェースを介して接続される外部スピーカやヘッドフォン等で構成されてもよい。また、音声は、人間が発した音だけでなく、装置(インタフェース装置10、処理装置20)が出力する音も含むものとする。 The audio output unit 162 outputs sound (including audio) from the sound data. Although it is mainly composed of speakers, it may also be composed of external speakers, headphones, etc. connected via an audio interface, USB, or wireless interface. Furthermore, it is assumed that the sound includes not only the sound emitted by humans but also the sound output by devices (interface device 10, processing device 20).

通信部170は、他の装置と接続をする通信インタフェースである。通信部170は、例えば、有線接続や無線接続が提供可能なネットワークインタフェースであってもよい。本実施形態においては、処理装置20と近距離で接続可能な近距離無線通信(例えば、Bluetooth(登録商標))が好ましい。また、IEEE802.11a/b/g/nといった規格で接続可能な無線LANが可能なネットワークアダプタでもよい。また、通信部170は、処理装置20と、USB等のインタフェースを介して有線で接続してもよい。 The communication unit 170 is a communication interface that connects with other devices. The communication unit 170 may be, for example, a network interface that can provide wired connection or wireless connection. In this embodiment, short-range wireless communication (for example, Bluetooth (registered trademark)) that can be connected to the processing device 20 at a short distance is preferable. Alternatively, a network adapter that can connect to a wireless LAN according to standards such as IEEE802.11a/b/g/n may be used. Further, the communication unit 170 may be connected to the processing device 20 by wire via an interface such as a USB.

[1.2.2 処理装置]
処理装置20は、制御部200と、ストレージ210と、ROM220と、RAM230と、表示部240と、操作部250と、通信部270とを有している。これらの構成のうち、上述したインタフェース装置10に同名の構成がある場合は、その構成と基本的な構成は同様である。処理装置20側の表示部240は、処理装置20に内蔵された表示部とするほか、処理装置20に外付けされた表示部としてもよい。操作部250は、ユーザからの操作の入力を受け付ける。操作部250は、例えば、キーボードやテンキー等の処理装置20とは異なる操作手段、例えば処理装置20よりもリッチな操作手段を有するとよい。操作部250は、音声入力による操作など、処理装置20が受け付け可能な操作と同じ操作を受け付ける構成を有してもよい。
[1.2.2 Processing device]
The processing device 20 includes a control section 200, a storage 210, a ROM 220, a RAM 230, a display section 240, an operation section 250, and a communication section 270. Among these configurations, if there is a configuration with the same name in the above-mentioned interface device 10, the basic configuration is the same as that configuration. The display unit 240 on the processing device 20 side may be a display unit built into the processing device 20 or may be a display unit externally attached to the processing device 20. The operation unit 250 receives operation input from the user. The operation unit 250 may have an operation means different from the processing device 20, such as a keyboard or a numeric keypad, for example, an operation means richer than the processing device 20. The operation unit 250 may have a configuration that accepts the same operations that the processing device 20 can accept, such as operations by voice input.

[1.2.3 他の構成]
なお、図2の構成はインタフェース装置10、処理装置20の構成の代表的な構成の一例であり、図2に示された構成に限定されるものではない。いわゆる当業者にとって自明の範囲であれば、必要に応じて他の構成を有していたり、図2の構成を有さない場合もある。例えば、通信部170及び通信部270は、複数の通信部を有していてもよい。例えば、移動体通信網と接続するための通信インタフェース(例えば、4G/5G等で移動体通信網と通信可能な通信モジュール)を更に備えてもよい。
[1.2.3 Other configurations]
Note that the configuration in FIG. 2 is an example of a typical configuration of the interface device 10 and the processing device 20, and is not limited to the configuration shown in FIG. 2. As long as it is obvious to those skilled in the art, other configurations may be used as necessary, or the configuration shown in FIG. 2 may not be provided. For example, the communication unit 170 and the communication unit 270 may include a plurality of communication units. For example, it may further include a communication interface for connecting to a mobile communication network (for example, a communication module capable of communicating with the mobile communication network using 4G/5G, etc.).

[1.3 ソフトウェア構成]
つづいて、システム1におけるソフトウェアの構成について、図3、図4を参照して説明する。以下のような構成とすることで、一般的には処理装置20のオペレーティングシステムに実装されるアシスタントアプリケーションを、キャラクタ化し、処理装置20において、リソースをオペレーティングシステムから分離することができる。
[1.3 Software configuration]
Next, the software configuration in the system 1 will be explained with reference to FIGS. 3 and 4. With the following configuration, an assistant application that is generally implemented in the operating system of the processing device 20 can be characterized, and resources can be separated from the operating system in the processing device 20.

[1.3.1 インタフェース装置]
インタフェース装置10は、アプリケーション1000がインストールされている。インタフェース装置10の制御部100が、アプリケーション1000を実行すると、アプリケーション1000により各機能が実現する。また、インタフェース装置10は、アプリケーション1000が、インタフェース装置10で実行されるオペレーティングシステム(OS)上で実行されてもよい。
[1.3.1 Interface device]
The interface device 10 has an application 1000 installed therein. When the control unit 100 of the interface device 10 executes the application 1000, each function is realized by the application 1000. Further, in the interface device 10, the application 1000 may be executed on an operating system (OS) that is executed on the interface device 10.

また、インタフェース装置10は、音声認識部1100と、会話制御部1300と、キャラクタ制御部1400と、情報取得部1500とを実現する。また、インタフェース装置10は、コマンドテーブル1200を記憶する。 The interface device 10 also implements a voice recognition section 1100, a conversation control section 1300, a character control section 1400, and an information acquisition section 1500. The interface device 10 also stores a command table 1200.

また、インタフェース装置10は、アプリケーション1000を実行することで、メッセージ解釈部1010、コマンド生成部1020と、コマンド送信部1030と、応答情報受信部1040とを実現する。 Furthermore, by executing the application 1000, the interface device 10 implements a message interpretation section 1010, a command generation section 1020, a command transmission section 1030, and a response information reception section 1040.

なお、それぞれの機能は、制御部100が、ROM120又はストレージ110に記憶してあるプログラムを読み出して実現してもよいし、ネットワーク上において提供されているサービスを利用して、それぞれの機能を実現してもよい。 Note that each function may be realized by the control unit 100 reading a program stored in the ROM 120 or the storage 110, or may be realized by using a service provided on the network. You may.

また、音声認識部1100、会話制御部1300、キャラクタ制御部1400、情報取得部1500は、アプリケーション1000が実行してもよいし、予めインタフェース装置10が有している機能を実現してもよい。また、アプリケーション1000が実現する機能は、必要に応じてアプリケーション1000以外のプログラムで実現されてもよい。 Further, the voice recognition section 1100, the conversation control section 1300, the character control section 1400, and the information acquisition section 1500 may be executed by the application 1000, or may implement functions that the interface device 10 has in advance. Further, the functions realized by the application 1000 may be realized by a program other than the application 1000, if necessary.

音声認識部1100は、ユーザが発した音声をメッセージとして認識する。音声認識部1100は、例えばユーザが発した音を音データとして取得し、予め定められた音パターンと照合することにより、音声認識を行ってもよい。また、音声認識部1100は、機械学習やディープラーニングを利用することで、音声認識を行ってもよい。音声認識は、音データをデキストデータである文字列に変換する処理とするとよい。 The voice recognition unit 1100 recognizes the voice uttered by the user as a message. The speech recognition unit 1100 may perform speech recognition, for example, by acquiring a sound emitted by a user as sound data and comparing it with a predetermined sound pattern. Further, the speech recognition unit 1100 may perform speech recognition using machine learning or deep learning. Speech recognition may be a process of converting sound data into a character string that is text data.

会話制御部1300は、音声認識部1100において認識されたメッセージに対応した反応をすることで、会話を行う。会話制御部1300は、ユーザから受け付けたメッセージに対する応答を、例えば音声出力部162から音として出力してもよい。また、会話制御部1300は、キャラクタ制御部1400を介してキャラクタの表情や動作を変更する表示を行ってもよい。例えば、会話制御部1300が、ユーザが発したメッセージに対応して、音声を出力して応答する場合、キャラクタの表示を変更してもよい。具体的には、キャラクタ制御部1400は、キャラクタの口元を会話に応じて動かすことで、キャラクタが実際に話しているような演出を行ってもよい。また、会話制御部1300は、会話内容に応じて、キャラクタの表情を変化させてもよい。キャラクタの表情としては、例えば、喜怒哀楽を表現する表情とするとよい。 The conversation control unit 1300 performs a conversation by responding in accordance with the message recognized by the voice recognition unit 1100. The conversation control unit 1300 may output a response to the message received from the user as a sound from the audio output unit 162, for example. Furthermore, the conversation control unit 1300 may perform a display that changes the character's facial expressions and actions via the character control unit 1400. For example, when the conversation control unit 1300 responds by outputting a voice in response to a message issued by the user, the display of the character may be changed. Specifically, the character control unit 1400 may move the character's mouth in accordance with the conversation to create the illusion that the character is actually speaking. Furthermore, the conversation control unit 1300 may change the facial expression of the character depending on the content of the conversation. The character's facial expression may be, for example, a facial expression expressing joy, anger, sorrow, or happiness.

会話制御部1300が、ユーザのメッセージに対応する音声を出力しつつ、キャラクタの表示態様を変化させることで、ユーザはあたかもインタフェース装置10に表示されているキャラクタと会話しているように楽しむことができる。 The conversation control unit 1300 outputs audio corresponding to the user's message and changes the display mode of the character, so that the user can enjoy the conversation as if he were having a conversation with the character displayed on the interface device 10. can.

また、会話制御部1300は、ユーザから入力されたメッセージに対する応答を、文字で出力してもよい。この場合、会話制御部1300は、表示部140を介して文字を表示してもよい。また、会話制御部1300は、ユーザとの会話応答を行ってもよい。例えば、会話制御部1300は、ユーザが発した音声を受け付けたときに、応答として「わかりました」と音声を出力してもよい。また、会話制御部1300は、ユーザが発した音声が認識できなかったときは、「よくわかりませんでした」や、「もう一度お願いします」と音声を出力してもよい。また、会話制御部1300は、ユーザに複数のメッセージを入力するように促してもよい。 Furthermore, the conversation control unit 1300 may output a response to a message input by the user in text. In this case, conversation control section 1300 may display characters via display section 140. Further, the conversation control unit 1300 may respond to a conversation with the user. For example, when the conversation control unit 1300 receives the voice uttered by the user, it may output a voice saying "I understand" as a response. Further, when the conversation control unit 1300 cannot recognize the voice uttered by the user, it may output a voice such as "I didn't understand" or "Please repeat again." Additionally, the conversation control unit 1300 may prompt the user to input multiple messages.

キャラクタ制御部1400は、インタフェース装置10の表示部140に表示されているキャラクタの出力を制御する。例えば、キャラクタ制御部1400は、キャラクタの出力の一つとして、キャラクタの表示について動きを制御してもよい。キャラクタの動きの制御は、例えばキャラクタの動作や表情を制御してもよい。キャラクタの表情は、キャラクタの喜怒哀楽の表情や、驚いた顔の表情等といった表情をそれぞれ含めてもよい。また、キャラクタの動作は、キャラクタがウィンクをする、ピースサインをする、走る、就寝する等といった動作をそれぞれ含めてもよい。また、キャラクタの動作は、キャラクタの姿勢を含めてもよい。例えば、キャラクタの動作には、キャラクタが座っている、立っている、寝ているといった姿勢を含んでもよい。 The character control unit 1400 controls the output of the character displayed on the display unit 140 of the interface device 10. For example, the character control unit 1400 may control the movement of the character display as one of the character outputs. The movement of the character may be controlled, for example, by controlling the movement or facial expression of the character. The character's facial expressions may include facial expressions such as the character's expressions of joy, anger, sadness, and surprise. Further, the character's actions may include actions such as the character winking, making a peace sign, running, and going to bed. Further, the character's motion may include the character's posture. For example, the character's motion may include the character's sitting, standing, and sleeping postures.

また、キャラクタの動きは、視覚的なものだけでなく、聴覚的なものも含んでもよい。例えば、キャラクタ制御部1400は、キャラクタが音声を発することにしてもよい。例えば、「おはよう」「おつかれさま」「ありがとう」「ごめんなさい」といった音声を発することにしてもよい。これらのキャラクタの音声は、例えば、アニメにおいて、キャラクタを担当している声優等、一般的にキャラクタの声で出力されてもよい。また、ユーザが任意の音声を対応付けてもよい。 Further, the character's movement may include not only visual movement but also auditory movement. For example, the character control unit 1400 may cause the character to make a sound. For example, voices such as "Good morning," "Thank you," "Thank you," and "I'm sorry" may be uttered. The voices of these characters may be output as the voice of a character in general, such as a voice actor who is in charge of the character in an anime, for example. Further, the user may associate arbitrary voices.

また、キャラクタは、外見上人間を模したキャラクタであってもよいし、動物や植物、仮想的なキャラクタであってもよい。また、キャラクタは、動物、植物や、その他の物が擬人化されたものでもよい。 Further, the character may be a character that imitates a human in appearance, or may be an animal, a plant, or a virtual character. Further, the characters may be anthropomorphized animals, plants, or other objects.

キャラクタは、例えば処理装置20を擬人化したものとするとよい。例えば、処理装置20がコンピュータ、モバイルバッテリ、カーナビゲーション装置等異なるキャラクタで擬人化させてもよい。処理装置20に応じてキャラクタが変化すると、ユーザは、インタフェース装置10が接続されている処理装置20を、キャラクタを見ただけで特定することができるようになる。 The character may be, for example, a personification of the processing device 20. For example, the processing device 20 may be personified with different characters such as a computer, a mobile battery, a car navigation device, etc. When the character changes according to the processing device 20, the user can identify the processing device 20 to which the interface device 10 is connected just by looking at the character.

情報取得部1500は、処理装置20に関する情報を取得する。例えば、処理装置20のOS2200を介して、処理装置20に設定されている情報、処理装置20の状態に関する情報、処理装置20において実行されたプログラムの実行結果に関する情報等を取得することができる。 The information acquisition unit 1500 acquires information regarding the processing device 20. For example, via the OS 2200 of the processing device 20, information set in the processing device 20, information regarding the state of the processing device 20, information regarding the execution results of programs executed in the processing device 20, etc. can be acquired.

処理装置20に設定されている情報は、例えば、IPアドレス、OSの種類、インストールされているアプリケーションに関する情報、マシン名等の情報が含まれる。また、処理装置20の状態に関する情報は、例えば、処理装置20のストレージの空き容量、バッテリの残容量、メモリの使用量等の情報が含まれる。また、処理装置20において実行されたプログラムの実行結果に関する情報は、正しく実行された、エラーで実行できなかった等の情報が含まれる。 The information set in the processing device 20 includes, for example, an IP address, an OS type, information regarding installed applications, a machine name, and the like. Further, the information regarding the state of the processing device 20 includes, for example, information such as the free capacity of the storage of the processing device 20, the remaining capacity of the battery, and the amount of memory used. Further, information regarding the execution result of the program executed by the processing device 20 includes information such as whether the program was executed correctly or could not be executed due to an error.

なお、本実施形態おいて、処理装置20のアプリケーション2000が実行した結果は応答情報受信部1040が受信しているが、情報取得部1500が受信してもよい。 Note that in this embodiment, the response information receiving unit 1040 receives the results executed by the application 2000 of the processing device 20, but the information acquiring unit 1500 may also receive the results.

つづいて、アプリケーション1000を実行したときに実現されるメッセージ解釈部1010と、コマンド生成部1020と、コマンド送信部1030と、応答情報受信部1040について説明する。 Next, the message interpretation section 1010, command generation section 1020, command transmission section 1030, and response information reception section 1040 that are realized when the application 1000 is executed will be explained.

メッセージ解釈部1010は、ユーザから受け付けたメッセージを解釈する。ここで、メッセージとは、ユーザから受け付けられたものであり、音声によるメッセージ、スイッチ等の入力により受け付けたメッセージ、キーボードやマウスといった入力装置からのメッセージ、文字入力によるメッセージ、ユーザのジェスチャによるメッセージ等を含む。本実施形態におけるメッセージは、ユーザが音声により入力し、音声を認識することで得られるメッセージを例に説明する。メッセージ解釈部1010は、音声認識部2100が認識した音声から、ユーザはどのようなメッセージを発したのかを解釈する。 Message interpreter 1010 interprets messages received from users. Here, a message is a message received from a user, such as a voice message, a message received by inputting a switch, etc., a message from an input device such as a keyboard or a mouse, a message by text input, a message by the user's gesture, etc. including. The message in this embodiment will be explained using an example of a message input by a user using voice and obtained by recognizing the voice. The message interpretation unit 1010 interprets what kind of message the user has uttered from the voice recognized by the voice recognition unit 2100.

コマンド生成部1020は、ユーザのメッセージに対応するコマンドを生成する。ここで、コマンドとは、処理装置20が実行する処理に対応する命令で、処理装置20に実行を指示する処理を一意に特定できる命令である。コマンドは、予めシステムにより設定されているものであってもよいし、ユーザが設定したものであってもよい。例えば、ユーザにより入力されたメッセージに対応するコマンドは、処理装置20のアプリケーション2000が解釈できる形であればよい。例えば、後述するように、処理装置20のアプリケーション2000は、受信したコマンドを解釈し、例えばOSのAPI等を使用して、目的の処理を実行できればよい。また、メッセージ対応するコマンドは、メッセージに含まれる特定のフレーズに対応してもよい。 The command generation unit 1020 generates a command corresponding to a user's message. Here, the command is an instruction corresponding to a process to be executed by the processing device 20, and is an instruction that can uniquely specify the process that the processing device 20 is instructed to execute. The command may be set in advance by the system or may be set by the user. For example, the command corresponding to the message input by the user may be in a form that can be interpreted by the application 2000 of the processing device 20. For example, as will be described later, the application 2000 of the processing device 20 only needs to be able to interpret the received command and execute the desired process using, for example, an API of the OS. Further, the command corresponding to the message may correspond to a specific phrase included in the message.

コマンド生成部1020は、インタフェース装置10から、処理装置20に送信するコマンドが記憶されている。コマンド生成部1020は、コマンドテーブル1200を参照して、メッセージに対応するコマンドを生成してもよい。 The command generation unit 1020 stores commands to be sent from the interface device 10 to the processing device 20. The command generation unit 1020 may refer to the command table 1200 and generate a command corresponding to the message.

図5(a)は、コマンドテーブル1200の一例である。コマンドテーブル1200は、コマンドと、メッセージ内容とが対応付けて記憶されている。コマンドテーブル1200は、処理装置20で設定された設定テーブル2300に基づいて生成されてもよい。 FIG. 5(a) is an example of the command table 1200. The command table 1200 stores commands and message contents in association with each other. Command table 1200 may be generated based on setting table 2300 set in processing device 20.

例えば、図5(a)のコマンドテーブル1200に記載されているように、例えばコマンド「WS OPEN」と、メッセージ内容「表計算の一覧表示」とが対応付けられている。ここで、コマンド「WS」は表計算アプリを実行することを示し、「OPEN」は一覧を表示すること示すコマンドである。 For example, as described in the command table 1200 in FIG. 5A, the command "WS OPEN" is associated with the message content "display list of spreadsheets." Here, the command "WS" indicates executing a spreadsheet application, and "OPEN" indicates displaying a list.

メッセージ内容は、メッセージの内容を記憶しており、本実施形態では、一例としてユーザが音声として発する言葉が記憶されている。メッセージ内容に記憶される言葉は、ユーザが発する音声そのままでもよいし、メッセージに含まれている特定のフレーズであってもよい。 The message content stores the content of the message, and in this embodiment, the words uttered by the user as voice are stored as an example. The words stored in the message content may be the voice uttered by the user as is, or may be a specific phrase included in the message.

また、図5(a)のコマンドテーブル1200に記載されているように、メッセージ内容として複数のフレーズと対応してコマンドを生成してもよい。例えば、「昨日」「表計算ファイル」というフレーズが含まれたメッセージに対しては、コマンド「WS YS」とが記憶されている。ここで、例えば、コマンド「YS」は「昨日」を示すコマンドであってもよい。メッセージの内容をフレーズとすることで、ユーザは細かい表現の相違について影響を受けることなく、適切なコマンドが生成される。例えば「昨日」「表計算ファイル」というフレーズが含まれていればよいときは「昨日の表計算ファイルがみたい」「表計算ファイルの昨日分」と何れをユーザが発したときでも適切に処理される。 Further, as described in the command table 1200 in FIG. 5A, commands may be generated in correspondence with a plurality of phrases as message contents. For example, the command "WS YS" is stored for a message containing the phrases "yesterday" and "spreadsheet file." Here, for example, the command "YS" may be a command indicating "yesterday". By setting the content of the message as a phrase, the user is not affected by differences in detailed expressions, and appropriate commands can be generated. For example, if the phrases ``yesterday'' and ``spreadsheet file'' only need to be included, it will be processed appropriately regardless of whether the user utters ``I want to see yesterday's spreadsheet file'' or ``yesterday's spreadsheet file''. Ru.

また、コマンドにパラメータを含めてもよい。例えば、コマンド「DOC %1」と、メッセージ内容「文章%1のファイル」とが対応づいている。ここで、コマンド「DOC」は、一例として文章編集アプリ(例えばワープロアプリ)を起動するコマンドである。また、「%1」は、一例としてパラメータである引き数を示している。例えば、ユーザが「文章nippouファイル」と音声を発したとき、コマンド生成部1020は、「DOC nippou」とコマンドを生成してもよい。 Additionally, the command may include parameters. For example, the command "DOC %1" is associated with the message content "file of text %1". Here, the command "DOC" is, for example, a command for starting a text editing application (for example, a word processing application). Moreover, "%1" indicates an argument that is a parameter, as an example. For example, when the user utters "document nippou file", the command generation unit 1020 may generate the command "DOC nippou".

コマンド送信部1030は、コマンド生成部1020で生成したコマンドを、処理装置20に送信する。例えば、コマンド送信部1030は、通信部170及び通信部270を介して処理装置20にコマンドを送信してもよい。 The command transmitter 1030 transmits the command generated by the command generator 1020 to the processing device 20. For example, the command transmitter 1030 may transmit a command to the processing device 20 via the communication unit 170 and the communication unit 270.

応答情報受信部1040は、処理装置20から応答情報を受信する。ここで、応答情報は、処理装置20が送信する情報であり、アプリケーション2000が処理を実行した結果等を示す情報を含んでもよい。応答情報は、例えばアプリケーション2000において、コマンドに対応する処理を実行したとき、実行結果が含まれてもよい。 The response information receiving unit 1040 receives response information from the processing device 20. Here, the response information is information transmitted by the processing device 20, and may include information indicating the result of processing executed by the application 2000. The response information may include, for example, an execution result when the application 2000 executes a process corresponding to a command.

インタフェース装置10において、ユーザは、自身の入力又はその入力によって実行される処理に応じた情報が、所定のキャラクタとの関連付けにより出力されるので、そのキャラクタへの親しみを感じやすくなり、ひいては、インタフェース装置10を用いて処理装置20に処理の実行を指示する強い動機づけとなる。インタフェース装置10において受け付け可能な入力を、ユーザが発する音声の入力とするとよい。このようにすると、ユーザがキャラクタと会話をしているかのような感覚を得ることができ、ユーザがキャラクタとコミュニケーションをとっている感覚をより強く得やすくすることができる。 In the interface device 10, information corresponding to the user's input or the processing executed by the input is output in association with a predetermined character, so that the user can easily feel familiarity with the character, and as a result, the interface This provides a strong motivation to use the device 10 to instruct the processing device 20 to execute processing. The input that can be accepted by the interface device 10 may be a voice input from a user. In this way, the user can feel as if he or she is having a conversation with the character, and the user can more easily feel that he or she is communicating with the character.

また、インタフェース装置10において、キャラクタが出力されることから、ユーザは、自身の入力又はその入力によって実行を指示した処理に応じて変化するキャラクタの画像を視認することができる。したがって、ユーザは、そのキャラクタを通じた視覚的な面白みを得ることができる。 Furthermore, since the interface device 10 outputs the character, the user can visually recognize the image of the character that changes according to the user's own input or the process instructed to be executed by the input. Therefore, the user can gain visual interest through the character.

また、ユーザは、自身の入力又はその入力によって実行を指示した処理に応じて変化するキャラクタの音声をインタフェース装置10から聞くことができる。ユーザは、キャラクタを通じた聴覚的な面白みを得ることができる。 Further, the user can listen to the character's voice, which changes depending on the user's own input or the process instructed to be executed by the user, from the interface device 10. The user can enjoy auditory fun through the characters.

このように、インタフェース装置10を利用することで、キャラクタを介した処理装置20の制御を行うことができる。インタフェース装置10からキャラクタに基づいた出力がされることから、ユーザは、視覚的、聴覚的等の面白みを感じることができ、そのキャラクタへの親しみを感じやすくなり、ひいては、インタフェース装置を用いて処理装置に処理の実行を指示する強い動機づけとなる。キャラクタの音声としては、キャラクタと関連付けて発せられる音声とするとよく、特にキャラクタの声とするとよい。 In this way, by using the interface device 10, it is possible to control the processing device 20 via the character. Since the interface device 10 outputs the output based on the character, the user can feel visually, audibly, etc., and become more familiar with the character. This provides a strong motivation to instruct the device to perform processing. The character's voice is preferably a voice that is uttered in association with the character, and is particularly preferably a character's voice.

[1.3.2 処理装置]
処理装置20は、OS2200がインストールされており、また、アプリケーション2000がインストールされている。処理装置20の制御部200が、アプリケーション2000を実行すると、アプリケーション2000により各機能が実現する。また、処理装置20は、アプリケーション2000が、処理装置20で実行されるOS2200上で実行されてもよい。
[1.3.2 Processing device]
The processing device 20 has an OS 2200 installed therein, and an application 2000 installed therein. When the control unit 200 of the processing device 20 executes the application 2000, each function is realized by the application 2000. Furthermore, the processing device 20 may execute the application 2000 on the OS 2200 that is executed by the processing device 20 .

また、処理装置20は、コマンド受信部2010と、コマンド解釈部2020と、コマンド実行部2030と、応答情報処理部2040とを実現する。また、処理装置20は、設定テーブル2300を記憶する。 Furthermore, the processing device 20 implements a command receiving section 2010, a command interpreting section 2020, a command executing section 2030, and a response information processing section 2040. The processing device 20 also stores a setting table 2300.

なお、それぞれの機能は、制御部200が、ROM220又はストレージ210に記憶してあるプログラムを読み出して実現してもよいし、ネットワーク上において提供されているサービスを利用して、それぞれの機能を実現してもよい。 Note that each function may be realized by the control unit 200 reading a program stored in the ROM 220 or the storage 210, or may be realized by using a service provided on the network. You may.

アプリケーション2000が実現する機能は、必要に応じてアプリケーション2000以外のプログラムで実現されてもよい。 The functions realized by the application 2000 may be realized by a program other than the application 2000, if necessary.

OS2200は、一般的なオペレーティングシステムである。OS2200は、例えばWindows(登録商標)、Mac OS(登録商標)、Chorme OS(登録商標)といった、何れかのOSである。 OS2200 is a general operating system. The OS 2200 is any OS such as Windows (registered trademark), Mac OS (registered trademark), or Chrome OS (registered trademark).

コマンド受信部2010は、インタフェース装置10のコマンド送信部1030からコマンドを受信する。コマンド受信部2010は、受信したコマンドをコマンド解釈部2020に送信する。 The command receiving unit 2010 receives commands from the command transmitting unit 1030 of the interface device 10. Command receiving section 2010 transmits the received command to command interpreting section 2020.

コマンド解釈部2020は、受信したコマンドを解釈し、処理装置20において実行可能な処理内容に変換する。ここで、コマンド解釈部2020は、設定テーブル2300を参照し、コマンドの解釈を行う。 The command interpreter 2020 interprets the received command and converts it into processing content that can be executed by the processing device 20. Here, the command interpreter 2020 refers to the setting table 2300 and interprets the command.

そして、コマンド解釈部2020において解釈された処理内容は、コマンド実行部2030で実行される。具体的には、制御部200が、コマンド解釈部より送信された処理内容に基づいてプログラムを実行する。それにより、インタフェース装置10がユーザから受け付けたメッセージ内容に対応する処理内容が、処理装置20において実行される。 The processing content interpreted by the command interpretation unit 2020 is executed by the command execution unit 2030. Specifically, the control unit 200 executes a program based on the processing content sent from the command interpretation unit. Thereby, the processing content corresponding to the content of the message received by the interface device 10 from the user is executed in the processing device 20.

設定テーブル2300は、コマンドと、メッセージ内容と、処理装置20において実行される処理内容を設定するテーブルである。設定テーブル2300は、予め設定されていてもよいし、ユーザが設定してもよい。 The setting table 2300 is a table for setting commands, message contents, and processing contents executed by the processing device 20. The setting table 2300 may be set in advance or may be set by the user.

設定テーブル2300の一例を、図5(b)に示す。設定テーブル2300は、コマンドと、メッセージ内容と、処理内容とを対応付けて記憶する。例えば、コマンド解釈部2020は、コマンド「WS OPEN」をインタフェース装置10から受信すると、「Worksheet.exe」をコマンド実行部2030に送信する。コマンド実行部2030は、処理内容である「Worksheet.exe」を実行することで、表計算アプリを起動する。 An example of the setting table 2300 is shown in FIG. 5(b). The setting table 2300 stores commands, message contents, and processing contents in association with each other. For example, upon receiving the command “WS OPEN” from the interface device 10, the command interpretation unit 2020 transmits “Worksheet.exe” to the command execution unit 2030. The command execution unit 2030 starts the spreadsheet application by executing the processing content "Worksheet.exe".

処理内容は、実行するプログラムが記憶されてもよいし、オペレーティングシステムのインタフェースが記憶されてもよい。例えば、Windowsにおいて呼出し可能なAPI(Application Programming Interface)が記憶されてもよい。また、処理内容は、Web APIが記憶されてもよい。 As the processing content, a program to be executed may be stored, or an operating system interface may be stored. For example, an API (Application Programming Interface) that can be called in Windows may be stored. Further, the processing content may be stored as a Web API.

コマンド解釈部2020は、受信したコマンドから、設定テーブル2300を参照して処理内容を生成してもよい。例えば、コマンド「YS」は、昨日を示すコマンドである。したがって、コマンド解釈部2020は、「WS YS」というコマンドを受信すると、コマンドを受信した日の前日の日付に置き換えて処理内容を生成してもよい。設定テーブル2300は、処理内容として「Worksheet.exe [Today()-1]」を記憶する。「Today()」が本日の日付を返す関数であり、「[Today()-1]」と記載された処理内容は、本日の日付から1減算した日(つまり前日)に置き換わってもよい。 The command interpreter 2020 may generate processing details from the received command by referring to the setting table 2300. For example, the command "YS" is a command that indicates yesterday. Therefore, upon receiving the command "WS YS", the command interpreting unit 2020 may generate the processing content by replacing the command with the date of the day before the date of receiving the command. The setting table 2300 stores “Worksheet.exe [Today()-1]” as the processing content. "Today()" is a function that returns today's date, and the processing content described as "[Today()-1]" may be replaced with the day obtained by subtracting 1 from today's date (that is, the previous day).

また、コマンド解釈部2020は、コマンドに引数が含まれているとき、処理内容を引数で置き換えてもよい。例えば「DOC %1」は、引数の指定「%1」が含まれている。したがって、コマンド解釈部2020は、コマンドに含まれる引数「%1」で指定されている文字列を、処理内容「Doc.exe %1」の引数「%1」に置き換えてもよい。 Furthermore, when the command includes an argument, the command interpreter 2020 may replace the processing content with the argument. For example, "DOC %1" includes the argument specification "%1". Therefore, the command interpretation unit 2020 may replace the character string specified by the argument “%1” included in the command with the argument “%1” of the processing content “Doc.exe %1”.

応答情報処理部2040は、コマンド実行部2030が実行した結果に基づく応答情報を必要に応じてインタフェース装置10に送信する。 The response information processing unit 2040 transmits response information based on the result of the command execution unit 2030 to the interface device 10 as necessary.

図4は、処理装置20における実行形式について、模式的な図を示す。処理装置20は、OS2200を実行しており、1又は複数の常駐アプリケーション2500を実行することができる。本実施形態では、上述したアプリケーション2000を起動しているとよい。 FIG. 4 shows a schematic diagram of the execution format in the processing device 20. The processing device 20 is running an OS 2200 and can run one or more resident applications 2500. In this embodiment, the application 2000 described above may be activated.

また、処理装置20は、ユーザからの起動操作により実行する実行アプリケーションを1又は複数実行してもよい。例えば、図4では、実行アプリケーション2600の一例として、表計算アプリ2610、文章編集アプリ2620、メールアプリ2630、ブラウザアプリ2640がインストールされていてもよく、これらのアプリケーションを任意のタイミングで起動することができる。 Furthermore, the processing device 20 may execute one or more execution applications that are executed in response to a startup operation from the user. For example, in FIG. 4, a spreadsheet application 2610, a text editing application 2620, an email application 2630, and a browser application 2640 may be installed as an example of the execution application 2600, and these applications can be started at any timing. can.

一般的に常駐アプリケーション2500は、実行アプリケーション2600に比べて実行ファイルサイズが小さかったり、実行時に必要なメモリ量が小さかったりするとよい。常駐アプリケーション2500のサイズが小さい程、処理装置20への負荷が小さくなる。 In general, it is preferable that the resident application 2500 has a smaller executable file size and a smaller amount of memory required during execution than the executable application 2600. The smaller the size of the resident application 2500, the smaller the load on the processing device 20.

また、処理装置20は、各アプリケーションを、OS2200を介して、起動を制御したり、実行を制御したりすることができる。また、OS2200は、APIをインタフェースとして、アプリケーションと通信を行ってもよい。例えば、アプリケーション2000は、API2210を介してOS2200の必要な起動を呼び出し、実行することができる。アプリケーション2000は、API2210を介して、実行アプリケーション2600を実行したり、実行結果を取得してもよい。なお、アプリケーション2000は、実行アプリケーション2600のインタフェースを利用可能であれば、直接実行アプリケーションを制御することで、実行アプリケーション2600を実行したり、実行結果を取得したりしてもよい。 Furthermore, the processing device 20 can control the startup and execution of each application via the OS 2200. Further, the OS 2200 may communicate with applications using an API as an interface. For example, the application 2000 can call and execute the necessary startup of the OS 2200 via the API 2210. The application 2000 may execute the execution application 2600 or obtain the execution result via the API 2210. Note that if the application 2000 can use the interface of the execution application 2600, the application 2000 may execute the execution application 2600 or obtain the execution result by directly controlling the execution application 2600.

また、OS2200は、API2210を介してコントローラ2510から情報を取得してもよい。コントローラ2510は、例えば、処理装置20のハードウェアの情報を取得してもよいし、処理装置20に接続されている外部の装置から情報を取得してもよい。 Further, the OS 2200 may obtain information from the controller 2510 via the API 2210. The controller 2510 may obtain information about the hardware of the processing device 20, or may obtain information from an external device connected to the processing device 20, for example.

このように、OS2200から、キャラクタを利用したアシスタント機能に係る構成を外部デバイスであるインタフェース装置10に分離する構成とすると、処理装置20は、キャラクタを利用したアシスタント機能にリソースを割かなくてよくなる。 In this way, by separating the configuration related to the assistant function using characters from the OS 2200 into the interface device 10, which is an external device, the processing device 20 does not need to allocate resources to the assistant function using characters.

また、処理装置20は、外部デバイスであるインタフェース装置10からコマンドを受信し、コマンドを解釈してAPIに渡す処理を実行するだけのアプリケーション2000をインストールしてもよい。アプリケーション2000は、キャラクタの表示や、会話の制御といった処理を行う必要がないため、小さいプログラムサイズで実現することができる。また、アプリケーション2000は、プログラムサイズが小さいことから、常駐メモリの量も小さく抑えることができる。 Further, the processing device 20 may install an application 2000 that simply executes processing of receiving commands from the interface device 10, which is an external device, interpreting the commands, and passing the commands to the API. Since the application 2000 does not need to perform processing such as character display or conversation control, it can be implemented with a small program size. Further, since the application 2000 has a small program size, the amount of resident memory can be kept small.

また、処理装置20が実行した処理の結果については、その処理装置20を通じて確認し、インタフェース装置10については処理が実行されたことについてはキャラクタを通じて確認することができる。インタフェース装置10は、処理装置20を遠隔操作する装置として機能するほか、処理が実行されたことについてはキャラクタを通じて確認できるといった、例えば趣味的、玩具的な性質を持つ装置として機能することができる。 Further, the results of the processing executed by the processing device 20 can be confirmed through the processing device 20, and the fact that the processing has been executed in the interface device 10 can be confirmed through the character. The interface device 10 functions as a device that remotely controls the processing device 20, and can also function as a device that has hobby-like or toy-like characteristics, such as being able to confirm the execution of processing through a character.

[1.4 処理の流れ]
[1.4.1 全体処理]
本実施形態における処理の流れについて、図6を参照して説明する。図6は、インタフェース装置10の処理と、処理装置20の処理とを記載した図である。
[1.4 Process flow]
[1.4.1 Overall processing]
The flow of processing in this embodiment will be explained with reference to FIG. 6. FIG. 6 is a diagram illustrating the processing of the interface device 10 and the processing of the processing device 20.

まず、インタフェース装置10は、認識処理を実行する(ステップS102)。インタフェース装置10は、認識処理を実行すると、ユーザから受け付けたメッセージに応じたコマンドを生成する。そして、インタフェース装置10は、生成したコマンドを処理装置20に送信する(ステップS104)。 First, the interface device 10 executes recognition processing (step S102). When the interface device 10 executes the recognition process, it generates a command according to the message received from the user. Then, the interface device 10 transmits the generated command to the processing device 20 (step S104).

処理装置20は、コマンドを受信すると(ステップS152)、コマンド実行処理を実行する(ステップS154)。すなわち、コマンド受信部2010は、インタフェース装置10からコマンドを受信する。コマンド解釈部2020が、受信したコマンドに対応する処理の内容を設定テーブル2300を参照して解釈する。コマンド実行部2030が、解釈された処理の内容に基づいて処理装置20において処理を実行する。 Upon receiving the command (step S152), the processing device 20 executes command execution processing (step S154). That is, the command receiving unit 2010 receives commands from the interface device 10. The command interpretation unit 2020 interprets the contents of the process corresponding to the received command with reference to the setting table 2300. The command execution unit 2030 executes processing in the processing device 20 based on the interpreted content of the processing.

これにより、処理装置20は、インタフェース装置10において受け付けたメッセージに対応する処理を実行することになる。 As a result, the processing device 20 executes processing corresponding to the message received by the interface device 10.

また、処理装置20は、コマンドを実行した結果を応答としてインタフェース装置10に返す必要があるときは(ステップS156;Yes)、インタフェース装置10に応答情報を送信する(ステップS158)。 Further, when the processing device 20 needs to return the result of executing the command as a response to the interface device 10 (step S156; Yes), it transmits response information to the interface device 10 (step S158).

インタフェース装置10は、処理装置20から応答情報を受信すると(ステップS110)、応答処理を実行する(ステップS112)。インタフェース装置10は、応答処理を実行することで、例えば、応答情報に含まれている情報に基づいてキャラクタの表示を制御したり、音声を出力したりすることができる。 When the interface device 10 receives the response information from the processing device 20 (step S110), it executes response processing (step S112). By executing the response process, the interface device 10 can, for example, control the display of a character or output audio based on the information included in the response information.

このように、図6に記載した処理によれば、ユーザは、インタフェース装置10にメッセージを入力することで、処理装置20で必要な処理を実行することができる。また、ユーザは、インタフェース装置10において、処理装置20からの応答を確認することも可能となる。 In this way, according to the process shown in FIG. 6, the user can execute the necessary process on the processing device 20 by inputting a message to the interface device 10. Furthermore, the user can also check the response from the processing device 20 on the interface device 10.

[1.4.2 認識処理]
図6のステップS102に記載した認識処理の一例について、図7を参照して説明する。制御部100は、ユーザからの音声の入力を受け付ける(ステップS1002)。
[1.4.2 Recognition processing]
An example of the recognition process described in step S102 in FIG. 6 will be described with reference to FIG. 7. The control unit 100 receives voice input from the user (step S1002).

つづいて、制御部100は、音声を認識する(ステップS1004)。ステップS1004では、例えば、音声認識部1100は、音声によるメッセージを認識することで、文字列(つまり、テキストデータ)のメッセージに変換する。また、変換後のメッセージは、会話制御部1300に出力される。会話制御部1300は、入力されたメッセージに基づいて、ユーザと会話を行う。会話制御部1300は、ユーザとの会話に応じて、反応を行ってもよい。例えば、会話制御部1300は、挨拶や、返事(例えば、はい/いいえ)、他の質問を、音声出力部162を介して音声で出力することができる。また、会話制御部1300は、このときキャラクタ制御部1400を介して表示しているキャラクタの表示態様を変えてもよい。例えば、キャラクタ制御部1400は、会話制御部1300が肯定的な返事をするときに、キャラクタを笑顔の表情にしてもよい。 Subsequently, the control unit 100 recognizes the voice (step S1004). In step S1004, for example, the voice recognition unit 1100 recognizes the voice message and converts it into a character string (that is, text data) message. Further, the converted message is output to conversation control section 1300. The conversation control unit 1300 conducts a conversation with the user based on the input message. The conversation control unit 1300 may react depending on the conversation with the user. For example, the conversation control unit 1300 can output greetings, replies (for example, yes/no), and other questions in voice via the voice output unit 162. Furthermore, the conversation control section 1300 may change the display mode of the character being displayed via the character control section 1400 at this time. For example, the character control unit 1400 may make the character smile when the conversation control unit 1300 gives a positive reply.

このように、会話制御部1300がユーザとの会話を行うことで、ユーザはキャラクタを通して人と話しているように会話を楽しむことができる。また、このとき、キャラクタの表示態様(例えば、キャラクタの顔の表情、キャラクタの身体の動作、姿勢等)を変化させることで、ユーザはキャラクタが会話に応じて変化が生じることから視覚的にも楽しむことが可能となる。 By having the conversation control unit 1300 converse with the user in this way, the user can enjoy the conversation as if he were talking to a person through the character. Also, at this time, by changing the display mode of the character (for example, the character's facial expression, the character's body movement, posture, etc.), the user can visually improve the character's appearance as the character changes according to the conversation. It becomes possible to enjoy it.

ここで、制御部100は、メッセージの中に処理装置20において処理を実行するための特定のフレーズが含まれているかを解釈する(ステップS1006)。ユーザから受け付けられたメッセージの一部又は全部が、処理装置20において処理を実行する特定のフレーズがあったとき(ステップS1008;Yes)、制御部100は、当該メッセージ又はフレーズに対応するコマンドを生成する(ステップS1010)。具体的には、コマンド生成部1020が、コマンドテーブル1200を参照し、コマンドを生成する。 Here, the control unit 100 interprets whether the message includes a specific phrase for executing processing in the processing device 20 (step S1006). When part or all of the message received from the user has a specific phrase to be processed by the processing device 20 (step S1008; Yes), the control unit 100 generates a command corresponding to the message or phrase. (Step S1010). Specifically, the command generation unit 1020 refers to the command table 1200 and generates a command.

[1.5 動作例]
例えば、ユーザがインタフェース装置10に特定のフレーズを含む言葉を話しかける。インタフェース装置10は、ユーザが発した言葉(つまり、音声による言葉)を取得する。例えば、「おはよう」というメッセージを認識すると、インタフェース装置10は、メッセージに対応するコマンドを処理装置20に送信する。処理装置20は、コマンドに応じて、例えば、「メーラを起動する」「メーラを起動してメールを受信する」「ブラウザを起動する」といった処理を実行する。なお、この発話に含まれるメッセージやフレーズが、必ずしも特定の指示内容を直接示すものではない。すなわち、この発話に含まれるメッセージやフレーズが、処理装置20において実行するアプリケーションに関連性を有するものであってもよい。関連を有するフレーズは、例えば「メーラ」「メール送受信アプリケーション」に対して、例えば「メールを受信する」というフレーズである。また、関連を有しないフレーズは、例えば「おはよう」「おやすみなさい」「さようなら」といったフレーズである。
[1.5 Operation example]
For example, a user speaks words including a specific phrase to the interface device 10. The interface device 10 acquires words uttered by the user (that is, spoken words). For example, upon recognizing the message "Good morning", the interface device 10 sends a command corresponding to the message to the processing device 20. The processing device 20 executes processing such as "starting a mailer", "starting a mailer and receiving mail", and "starting a browser" in response to a command, for example. Note that the message or phrase included in this utterance does not necessarily directly indicate the specific content of the instruction. That is, the message or phrase included in this utterance may be relevant to the application executed in the processing device 20. The related phrase is, for example, the phrase "receive mail" with respect to "mailer" and "mail sending/receiving application". In addition, unrelated phrases are, for example, phrases such as "good morning,""goodnight," and "goodbye."

例えば、システム1は、メッセージ又はフレーズに対応して、コマンドテーブル1200、設定テーブル2300等を参照し、ユーザが設定した処理内容を処理装置20において実行することができる。なお、ユーザがメッセージ又はフレーズ(つまり、インタフェース装置10が認識した認識フレーズ、ユーザが発話した発話フレーズ)と、コマンドや処理内容との関係の設定については、別の実施形態において説明する。 For example, the system 1 can refer to the command table 1200, the setting table 2300, etc. in response to a message or phrase, and execute the processing content set by the user on the processing device 20. Note that the setting of the relationship between a message or phrase by the user (that is, a recognized phrase recognized by the interface device 10 or an uttered phrase uttered by the user) and a command or processing content will be described in another embodiment.

[1.5.1 第1動作例]
図8を参照して、本実施形態の第1動作例について説明する。インタフェース装置10は、表示領域W10に、表示態様V102としてキャラクタを表示している。
[1.5.1 First operation example]
A first operation example of this embodiment will be described with reference to FIG. 8. The interface device 10 displays a character in the display area W10 in a display mode V102.

そこで、ユーザU1が「昨日みていた表計算のファイルを探して」と音声を発する(C102)。インタフェース装置10に、当該音声(C102)が入力される。 Then, the user U1 utters a voice saying, "Search for the spreadsheet file you were looking at yesterday" (C102). The audio (C102) is input to the interface device 10.

インタフェース装置10は、入力された音声を認識し、認識したメッセージ(C102)から、処理装置20を操作するためのフレーズを認識し、対応するコマンドを生成する。このとき、例えば処理装置20は、メッセージを受け付けたことをユーザU1に返してもよい。例えば、インタフェース装置10は、「オッケー」と音声を出力してもよい(C104)。インタフェース装置10において出力された音声(C104)は、ユーザU1が聞き取ることができる。また、インタフェース装置10は、表示領域W10に、表示態様V104としてキャラクタを表示する。ここで、表示態様V104は、キャラクタの表情は笑顔で表示されている。また、表示態様V104は、キャラクタの動作としてピースサインをする動作をしている。 The interface device 10 recognizes the input voice, recognizes a phrase for operating the processing device 20 from the recognized message (C102), and generates a corresponding command. At this time, for example, the processing device 20 may return to the user U1 that the message has been received. For example, the interface device 10 may output a voice saying "Okay" (C104). The audio (C104) output by the interface device 10 can be heard by the user U1. Furthermore, the interface device 10 displays a character in the display area W10 as a display mode V104. Here, in the display mode V104, the character's facial expression is displayed as a smiling face. Furthermore, in display mode V104, the character is making a peace sign as an action.

ユーザU1は、インタフェース装置10からの音声(C104)や、キャラクタの表示態様V104から、メッセージに対応する処理が正しく実行されていることを直感的に理解することができる。また、ユーザU1は、キャラクタと会話しながら処理装置20において所望する処理の実行をすることが可能となる。また、本実施形態のインタフェース装置10は、キャラクタと疑似的に会話ができることから、娯楽性の高いインタフェースを提供することができる。 The user U1 can intuitively understand from the voice (C104) from the interface device 10 and the display mode V104 of the character that the process corresponding to the message is being executed correctly. Further, the user U1 can perform desired processing on the processing device 20 while conversing with the character. Furthermore, since the interface device 10 of this embodiment can have a simulated conversation with a character, it can provide a highly entertaining interface.

インタフェース装置10は、処理装置20に対してコマンドを送信する(M102)。インタフェース装置10は、処理装置20が解釈できるコマンド「WS YS」を生成し、処理装置20に送信する。 The interface device 10 transmits a command to the processing device 20 (M102). The interface device 10 generates a command “WS YS” that can be interpreted by the processing device 20 and sends it to the processing device 20.

処理装置20は、受信したコマンドに基づいて、処理内容(ここでは、Worksheet.exe 20220215)に変換する。そして、処理装置20は、処理を実行する(M104)。処理装置20は、処理を実行したことにより、例えば表示領域W12に、表計算アプリのファイル一覧の画面が表示される(領域R102)。領域R102は、処理において指定された日付のファイルを一覧表示している。 The processing device 20 converts the received command into processing content (here, Worksheet.exe 20220215). Then, the processing device 20 executes the process (M104). By executing the process, the processing device 20 displays a file list screen of the spreadsheet application in, for example, the display area W12 (area R102). Area R102 displays a list of files with dates specified in the process.

[1.5.2 第2動作例]
図9を参照して、本実施形態の第2動作例について説明する。第2動作例は、ユーザがインタフェース装置10と複数回の会話を継続する場合の動作例である。
[1.5.2 Second operation example]
A second operation example of this embodiment will be described with reference to FIG. 9. The second operation example is an operation example in which the user continues a plurality of conversations with the interface device 10.

まず、ユーザU1は、「文章ファイルを開いて」と音声を発する(C122)。インタフェース装置に、当該音声(C122)が入力される。インタフェース装置10は、表示領域W12に、キャラクタが表示態様V122で表示されている。 First, the user U1 utters a voice saying "Open the text file" (C122). The audio (C122) is input to the interface device. In the interface device 10, a character is displayed in a display mode V122 in a display area W12.

例えば、「文章ファイルを開いて」というメッセージは、更に具体的に開く文章ファイルを特定する情報(例えば、ファイル名等)を引数として持たせることができる。そこで、インタフェース装置10は、ユーザU1に対し「何のファイルを開くの?」と音声を発する(C124)。このように、インタフェース装置10は、再度ユーザにメッセージを入力することを促してもよい。 For example, the message "Open text file" can have as an argument information (for example, file name, etc.) that more specifically specifies the text file to be opened. Therefore, the interface device 10 issues a voice to the user U1 asking, "What file do you want to open?" (C124). In this way, the interface device 10 may prompt the user to enter a message again.

また、インタフェース装置10は、キャラクタの表示態様を表示態様V124と変化して表示してもよい。例えば、インタフェース装置10は、具体的に開くファイルが特定できないために、キャラクタの表情を怒った表情としたり、困った表情としたりしてもよい。インタフェース装置10は、表情以外にも、例えばキャラクタの動作、姿勢において、困ったことを示す動作を表示してもよい。 Further, the interface device 10 may change the display mode of the character to display mode V124. For example, since the interface device 10 cannot specifically specify the file to be opened, the character may have an angry expression or a troubled expression. In addition to facial expressions, the interface device 10 may display actions indicating trouble, such as the actions and postures of the character.

ユーザU1は、インタフェース装置10から、「何のファイルを開くのか?」と確認されているため、具体的なファイルに関する情報を音声で発する。例えば、ユーザU1は「日報のファイル」と音声を発する(C126)。インタフェース装置10は、音声を認識したメッセージを、「日報」のファイルに対応する「nippou」に変換し、処理装置2にコマンド「DOC nippou」を送信する(M122)。また、インタフェース装置10は、ユーザU1に対しては「オッケー!」と音声を発してもよい(C128)。また、インタフェース装置10は、キャラクタの表示態様を変化させてもよい(V126)。 Since the user U1 has been asked by the interface device 10, "What file do you want to open?", the user U1 vocally utters information regarding the specific file. For example, the user U1 utters "daily report file" (C126). The interface device 10 converts the voice-recognized message into "nippou" corresponding to the "daily report" file, and sends the command "DOC nippou" to the processing device 2 (M122). The interface device 10 may also issue a voice saying "Okay!" to the user U1 (C128). Furthermore, the interface device 10 may change the display mode of the character (V126).

このように、ユーザと、キャラクタとの間で何往復か会話をすることで、会話内容に応じて処理装置20で実行する処理内容を適切に特定することができる。また、インタフェース装置10は、ユーザが発話したメッセージの内容が明確でないときは、会話を繰り返すことによりメッセージの内容を明確にしてもよい。 In this way, by having several back-and-forth conversations between the user and the character, the content of the process to be executed by the processing device 20 can be appropriately specified depending on the content of the conversation. Furthermore, when the content of the message uttered by the user is not clear, the interface device 10 may clarify the content of the message by repeating the conversation.

なお、インタフェース装置10に表示されるのは、表情、動作、姿勢等により状態を表現可能なキャラクタが好ましい。例えば、図10は、インタフェース装置10に表示されるキャラクタの一例を示すものであり、人間を模したキャラクタが表示されている。図10(a)は、第1のキャラクタの状態としてキャラクタV130を示すものである。また、図10(b)は、第2のキャラクタの状態としてキャラクタV132を示すものである。 Note that what is displayed on the interface device 10 is preferably a character whose state can be expressed through facial expressions, movements, postures, and the like. For example, FIG. 10 shows an example of a character displayed on the interface device 10, in which a character imitating a human is displayed. FIG. 10(a) shows the character V130 as the state of the first character. Further, FIG. 10(b) shows the character V132 as the state of the second character.

例えば、図10(a)のキャラクタV130は、通常の状態を示している。また、図10(b)のキャラクタV132は、怒ってたり、困っていたりする状態を示している。これらキャラクタの状態は、主にキャラクタの表情や、動作、姿勢といた動き(アクション)の組み合わせで表してもよい。キャラクタの表情は、キャラクタの顔の部分で表すことができる。また、キャラクタの動作、姿勢は、キャラクタの身体の部分で表すことができる。また、キャラクタの表情、動作、姿勢から、キャラクタの感情を表すことができる。 For example, character V130 in FIG. 10(a) shows a normal state. Further, the character V132 in FIG. 10(b) shows an angry or troubled state. The states of these characters may be expressed mainly by a combination of movements (actions) such as facial expressions, movements, and postures of the characters. The character's facial expression can be expressed by the character's face. Furthermore, the character's motion and posture can be expressed by the character's body parts. Furthermore, the character's emotions can be expressed from the character's facial expressions, actions, and posture.

例えば、図10(a)から図10(b)にキャラクタの状態を遷移させるときは、顔の部分F102のように通常の表情から、顔の部分F104のように、怒った表情に遷移させるとよい。 For example, when transitioning the state of a character from FIG. 10(a) to FIG. 10(b), it is necessary to transition from a normal expression as in the face part F102 to an angry expression as in the face part F104. good.

なお、顔の表情は種々の表情が考えられる。図10(c)は、顔の表情を模式的に示した図である。顔の表情を喜んでいる表情F112、怒っている表情F114、無表情F116、困っている表情F118、泣いている表情F120、喜んでいる表情F122等、種々の表情に切り替えることができる。 Note that various facial expressions are possible. FIG. 10(c) is a diagram schematically showing facial expressions. The facial expression can be switched to various expressions such as a happy expression F112, an angry expression F114, a neutral expression F116, a troubled expression F118, a crying expression F120, and a happy expression F122.

また、図10(a)から図10(b)にキャラクタの表情を遷移させるときは、身体の部分B102のように通常の状態から、身体の部分B104のように、怒っている動作に遷移させてもよい。 Also, when transitioning the facial expression of the character from FIG. 10(a) to FIG. 10(b), the character's facial expression is transitioned from a normal state like body part B102 to an angry action like body part B104. You can.

なお、身体の動作や、姿勢は種々のものが考えられる。例えば、ピースサインをしている動作、万歳をしている動作、呼びかけている動作、走っている動作、寝ている動作と種々の動作を示してもよい。また、キャラクタの動作は、静止画だけでなく、動画であってもよい。例えば、キャラクタが疲れている動作として、息切れしている動画で動作を示したり、キャラクタが走っている動画で動作を示したりしてもよい。また、キャラクタは人間を模したもの以外にも、動物、装置を模したキャラクタであってもよい。 Note that various body movements and postures can be considered. For example, various motions such as a peace sign, a cheer, a shout, a running motion, and a sleeping motion may be shown. Further, the character's motion may be not only a still image but also a moving image. For example, an action in which the character is tired may be shown by a moving image in which the character is out of breath, or may be shown in a moving image in which the character is running. Moreover, the character may be a character imitating an animal or a device in addition to a character imitating a human being.

[1.6 効果]
このように、本実施形態によれば、インタフェース装置10を利用することで、処理装置20は少ないリソースでキャラクタを利用してユーザが処理の実行の指示を入力するシステムを実現することができる。
[1.6 Effect]
As described above, according to the present embodiment, by using the interface device 10, the processing device 20 can realize a system in which a user inputs instructions for executing a process using characters using few resources.

例えば、キャラクタに着目すると、キャラクタの「こころ」(例えば、ユーザとの会話を制御する、キャラクタの感情を表現する等)は、インタフェース装置10に実装することができる。また、キャラクタの「耳」もインタフェース装置10に実装することができる。また、キャラクタの「口」についても、インタフェース装置10に実装してもよい。 For example, focusing on a character, the character's "heart" (for example, controlling conversation with the user, expressing the character's emotions, etc.) can be implemented in the interface device 10. Additionally, the character's "ears" can also be implemented in the interface device 10. Furthermore, the character's "mouth" may also be implemented in the interface device 10.

これにより、なるべく処理装置20(例えばPC)のリソースは使わずに、演出効果の高く、ユーザにとって親しみをシステムを提供することができる。 As a result, it is possible to provide a system that is highly effective and user-friendly, without using the resources of the processing device 20 (for example, a PC) as much as possible.

例えば、ユーザから「昨日みていた表計算のファイルを探して」といった指示をインタフェース装置10にする。インタフェース装置10は「オッケー」等の応答を行う。また、インタフェース装置は、応答を行うのと併せて、処理装置20に対して命令(コマンド)を発行することができる。なお、インタフェース装置10は、応答を行うのと同時に命令を発行してもよい。これにより、処理装置20上に、「昨日みていた表計算のファイル」が表示される。 For example, a user may issue an instruction to the interface device 10 such as "Search for the spreadsheet file you were looking at yesterday." The interface device 10 makes a response such as "OK". Further, the interface device can issue instructions (commands) to the processing device 20 in addition to responding. Note that the interface device 10 may issue a command at the same time as issuing a response. As a result, the "spreadsheet file that was viewed yesterday" is displayed on the processing device 20.

また、本実施形態によれば、外部デバイスであるインタフェース装置10がコントロールする側であり、処理装置20がコントロールされる側である。インタフェース装置10から、処理装置20のOS2200のAPIを直接利用するコマンドを送信してもよい。 Furthermore, according to this embodiment, the interface device 10, which is an external device, is the controlling side, and the processing device 20 is the controlled side. A command that directly uses the API of the OS 2200 of the processing device 20 may be transmitted from the interface device 10 .

また、インタフェース装置10は、汎用的な装置よりも、専用機とするとよい。例えば、インタフェース装置10は、上述したAirタッチセンサを利用することで、ユーザはキャラクタに触れている感覚を得ることができる。また、インタフェース装置10は、外観を面白い形状とするとよい。 Further, the interface device 10 is preferably a dedicated device rather than a general-purpose device. For example, the interface device 10 uses the above-mentioned Air touch sensor so that the user can feel as if he or she is touching the character. Further, the interface device 10 may have an interesting external appearance.

また、インタフェース装置10は、OSとしてAndorid(登録商標)や、Windows Embedded(登録商標)、Chrome OSといった軽量のOSに、ディスプレイを備えた持ち運びが可能なくらいの大きさの専用端末とするとよい。 Further, the interface device 10 may be a dedicated terminal of a size that is portable enough to be equipped with a display and a lightweight OS such as Android (registered trademark), Windows Embedded (registered trademark), or Chrome OS.

また、上述した機能は、他のアプリケーションに組み込まれてもよい。例えば、キャラクタが活躍するゲームアプリに組込むことで、ゲーム操作を行いつつ、キャラクタの状態を確認することが可能となる。 Additionally, the above-described functionality may be incorporated into other applications. For example, by incorporating it into a game application in which characters play an active role, it becomes possible to check the status of the character while performing game operations.

[2.第2実施形態]
第2実施形態について説明する。第2実施形態は、ユーザが音声を発することができない場合の実施形態である。なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。
[2. Second embodiment]
A second embodiment will be described. The second embodiment is an embodiment in which the user is unable to make a sound. Note that the system configuration and the configuration of each device of this embodiment are almost the same as those of the first embodiment, and the following description will focus on the differences in this embodiment.

第2実施形態では、インタフェース装置10は、音声以外の手段でユーザからの操作の入力を受け付けて、処理装置20を遠隔操作したり、キャラクタと関連づけた出力をしたりする機能を有する。インタフェース装置10は、例えば、入力部150を用いてユーザからボタン操作やタッチ操作といった、物理的に設けられた入力手段に対する操作の入力として受け付ける。なお、ユーザからの音声操作以外の操作を物理操作という。物理操作は、物理的にハードウェアボタンが選択されたこと、表示部240に表示されたソフトウェアボタンが選択されたこと等を含むものとする。また、物理操作は、ユーザの動きであるジェスチャに基づいた操作が含まれるようにするとよい。 In the second embodiment, the interface device 10 has a function of receiving operation input from a user by means other than voice, remotely controlling the processing device 20, and outputting an output associated with a character. The interface device 10, for example, uses the input unit 150 to receive inputs from the user such as button operations and touch operations on physically provided input means. Note that operations other than voice operations from the user are referred to as physical operations. The physical operation includes physically selecting a hardware button, selecting a software button displayed on the display unit 240, and the like. Further, the physical operations may include operations based on gestures, which are movements of the user.

また、第2実施形態のコマンドテーブル2200は、コマンドに物理操作が対応付けられている。例えば、コマンドテーブル2200は、「MAIL」のコマンドに、対応する操作ボタン(例えば、インタフェース装置10に設けられている何れかの操作ボタン)が対応付けられている。また、コマンドテーブル2200は、コマンドに、物理操作としてジェスチャ動作を対応付けてもよい。 Further, in the command table 2200 of the second embodiment, physical operations are associated with commands. For example, in the command table 2200, the command "MAIL" is associated with a corresponding operation button (for example, any operation button provided on the interface device 10). Further, the command table 2200 may associate gesture motions as physical operations with commands.

コマンドテーブル2200は、1つのコマンドに複数の物理操作が対応付けられてもよい。また、コマンドテーブル2200は、1つのコマンドに、図5(a)に示したメッセージ内容と、更に物理操作を対応付けてもよい。 In the command table 2200, one command may be associated with a plurality of physical operations. Further, the command table 2200 may associate one command with the message content shown in FIG. 5(a) and further with a physical operation.

図6の認識処理(ステップS102)において、本実施形態では、ユーザから音声以外の物理操作により、コマンドを生成する。 In the recognition process (step S102) in FIG. 6, in this embodiment, a command is generated by a physical operation other than voice from the user.

例えば、図3で示したメッセージ解釈部1010は、音声認識部1100が音声認識をした結果であるメッセージの代わりに、入力部150を用いて入力される物理操作を受け付ける。そして、コマンド生成部1020は、受け付けた物理操作に基づいて、コマンドを生成する。 For example, the message interpretation unit 1010 shown in FIG. 3 accepts a physical operation input using the input unit 150 instead of a message that is the result of voice recognition performed by the voice recognition unit 1100. The command generation unit 1020 then generates a command based on the received physical operation.

インタフェース装置10は、ユーザからの物理操作を受け付けるために、例えば表示部140に操作ボタンを表示してもよい。ユーザが表示部140に表示している操作ボタンを選択することで、入力部150に対する物理操作があったと判定する。 The interface device 10 may display operation buttons on the display unit 140, for example, in order to accept physical operations from the user. When the user selects an operation button displayed on the display unit 140, it is determined that a physical operation has been performed on the input unit 150.

また、インタフェース装置10は、ユーザからの物理操作を受け付けるために、入力部150として物理的な操作ボタンを更に有していてもよい。インタフェース装置10は、ユーザにより物理的な操作ボタンが選択されることで、入力部150に対する物理操作があったと判定する。 Further, the interface device 10 may further include a physical operation button as the input unit 150 in order to receive a physical operation from the user. The interface device 10 determines that a physical operation has been performed on the input unit 150 when a physical operation button is selected by the user.

また、インタフェース装置10は、入力部150を用いて、物理操作としてユーザのジェスチャの入力を受け付け、このジェスチャを認識できる装置であってもよい。例えば、入力部150は、人間の骨格や表情を深度センサやカメラで認識することで、ユーザのジェスチャに応じた操作を受け付けることができる。ユーザのジェスチャを認識することができる装置としては、例えばマイクロソフト社のKinect等を利用してもよい。 Further, the interface device 10 may be a device that can receive input of a user's gesture as a physical operation using the input unit 150, and can recognize this gesture. For example, the input unit 150 can receive operations according to user gestures by recognizing a human skeleton and facial expressions using a depth sensor or a camera. As a device capable of recognizing user gestures, for example, Microsoft's Kinect or the like may be used.

このように、第2実施形態は、インタフェース装置10は、ユーザからの音声による入力だけでなく、音声以外の入力を受け付ける構成としてもよい。インタフェース装置10は、音声による入力以外の入力である物理操作に基づいて、コマンドを生成してもよい。ユーザは、インタフェース装置10に対して、処理装置20を音声による操作だけでなく、音声以外の操作を行うことで処理装置20において処理を実行することができる。 In this way, in the second embodiment, the interface device 10 may be configured to accept not only voice input from the user but also input other than voice. The interface device 10 may generate commands based on physical operations that are inputs other than voice inputs. The user can execute processing in the processing device 20 by not only operating the processing device 20 by voice but also by performing non-voice operations on the interface device 10 .

また、ユーザは、音声操作と、物理操作とを、同時に又は切り替えて使用することができる。なお、切り替えて使用する場合、音声操作と、物理操作との切替はユーザが任意のタイミングで切り替えてもよいし、時間帯によって切り替えてもよい。また、インタフェース装置10の設置場所に応じて切り替えてもよい。例えば、インタフェース装置10は、インタフェース装置10の設置場所を位置情報取得手段で取得し、位置に応じて音声操作と物理操作とを切り替えてもよい。ここで、位置取得手段は、例えばGPS(Global Positioning System)利用して位置を取得してもよいし、インタフェース装置10が接続する無線の接続先に応じて取得してもよい。例えば、無線の接続先が、移動体通信システムのときは、基地局装置から送信される基地局装置の情報を利用してもよい。また、無線の接続先が、無線LANのときは、基地局から送信されるSSIDにより位置を特定してもよい。 Furthermore, the user can use voice operations and physical operations simultaneously or by switching between them. In addition, in the case of switching between the voice operation and the physical operation, the user may switch between the voice operation and the physical operation at any timing, or depending on the time of day. Further, it may be switched depending on the installation location of the interface device 10. For example, the interface device 10 may acquire the installation location of the interface device 10 using a location information acquisition means, and may switch between voice operation and physical operation depending on the location. Here, the position acquisition means may acquire the position using, for example, GPS (Global Positioning System), or may acquire the position depending on the wireless connection destination to which the interface device 10 connects. For example, when the wireless connection destination is a mobile communication system, base station information transmitted from the base station device may be used. Furthermore, when the wireless connection destination is a wireless LAN, the location may be specified using the SSID transmitted from the base station.

[3.第3実施形態]
[3.1 構成]
第3実施形態について説明する。第3実施形態は、インタフェース装置10からの操作入力と併せて、処理装置20において操作入力が可能な実施形態である。なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。
[3. Third embodiment]
[3.1 Configuration]
A third embodiment will be described. The third embodiment is an embodiment in which operation input can be performed on the processing device 20 in addition to operation input from the interface device 10. Note that the system configuration and the configuration of each device of this embodiment are almost the same as those of the first embodiment, and the following description will focus on the differences in this embodiment.

第3実施形態のソフトウェア構成を図11に示す。第3実施形態の処理装置20は、更にチャット制御部2400を有している。 FIG. 11 shows the software configuration of the third embodiment. The processing device 20 of the third embodiment further includes a chat control section 2400.

チャット制御部2400は、操作部250が受け付けたユーザからの操作入力を表示部240にチャット画面として表示する。ここで、操作は、例えば、表示部240に表示された選択候補の中からユーザが選択する方法でもよいし、ユーザがハードウェアキーボードや、ソフトウェアキーボードより文字又は文字列が入力する方法でもよい。 Chat control unit 2400 displays the operation input received by operation unit 250 from the user on display unit 240 as a chat screen. Here, the operation may be, for example, a method in which the user selects from among the selection candidates displayed on the display unit 240, or a method in which the user inputs a character or a character string using a hardware keyboard or a software keyboard.

チャット制御部2400は、ユーザから入力された文字列を、会話制御部1300に送信する。会話制御部1300は、ユーザから入力された文字列に応答する文字列をチャット制御部2400に送信する。 Chat control section 2400 transmits the character string input by the user to conversation control section 1300. Conversation control unit 1300 transmits a character string in response to the character string input by the user to chat control unit 2400.

チャット制御部2400は、ユーザから入力された文字列、会話制御部1300から取得された文字列を、チャット画面に表示する。 Chat control unit 2400 displays the character string input by the user and the character string acquired from conversation control unit 1300 on the chat screen.

ここで、チャット画面は、会話制御部1300が制御する会話が表示されている表示画面である。例えば、ユーザが入力した文字列と、会話制御部1300が出力した文字列が、時系列に表示される画面である。 Here, the chat screen is a display screen on which a conversation controlled by the conversation control unit 1300 is displayed. For example, the screen displays a character string input by the user and a character string output by the conversation control unit 1300 in chronological order.

また、チャット画面は、常時画面に表示されていなくてもよい。例えば、表示画面は普段はタスクバーに格納されていたり、最小化されていたりしてもよい。そして、チャットを行う必要があったときに、必要に応じてポップアップ処理がされたり、ウィンドウが復元され、チャット画面がデスクトップ上に表示されてもよい。 Further, the chat screen does not need to be displayed on the screen all the time. For example, the display screen may normally be stored in the task bar or minimized. Then, when it is necessary to chat, a pop-up process may be performed as necessary, the window may be restored, and the chat screen may be displayed on the desktop.

チャット制御部2400は、チャット画面を表示部240に表示しているが、表示部140に表示してもよいし、双方に表示してもよい。 Although the chat control unit 2400 displays the chat screen on the display unit 240, it may display the chat screen on the display unit 140 or both.

すなわち、インタフェース装置10は、ユーザから入力された操作を、処理装置20を介して取得する。また、インタフェース装置10は、ユーザへ出力するメッセージを、処理装置20を介して出力する。 That is, the interface device 10 acquires the operation input by the user via the processing device 20. The interface device 10 also outputs a message to the user via the processing device 20.

また、インタフェース装置10は、会話制御部1300が、ユーザと行う会話の内容に応じてキャラクタの表示態様を変更させるとよい。すなわち、インタフェース装置10は処理装置20に会話で使用する文字列を送信するときに、キャラクタに適当なリアクションをさせる。ユーザは、会話の内容に応じて、適切にキャラクタの表情、姿勢、動作が変化することから、キャラクタに処理を実行してもらっている感じを演出することができる。 Further, in the interface device 10, the conversation control unit 1300 may change the display mode of the character depending on the content of the conversation with the user. That is, when the interface device 10 transmits a character string to be used in a conversation to the processing device 20, it causes the character to make an appropriate reaction. Since the character's facial expression, posture, and motion change appropriately depending on the content of the conversation, the user can create the feeling that the character is performing the processing.

[3.2 処理の流れ]
図12は、本実施形態の処理を示した図であり、第1実施形態の図6を置き換えたものである。図12では、チャット処理(ステップS202)を実行する処理が追加されている。
[3.2 Process flow]
FIG. 12 is a diagram showing the processing of this embodiment, replacing FIG. 6 of the first embodiment. In FIG. 12, processing for executing chat processing (step S202) is added.

インタフェース装置10又は処理装置20(以下、インタフェース装置10等という)は、チャットをする必要があるときは、チャット処理を開始する(ステップS202)。例えば、インタフェース装置10は、処理装置20においてチャット処理を実行するためのコマンドや、トリガー信号を処理装置20に送信してもよい。また、処理装置20は、インタフェース装置10からチャット処理を開始するコマンドや、トリガー信号が受信したときに、チャット処理を実行する。 When the interface device 10 or the processing device 20 (hereinafter referred to as the interface device 10, etc.) needs to chat, it starts chat processing (step S202). For example, the interface device 10 may send a command or a trigger signal to the processing device 20 for executing chat processing in the processing device 20. Furthermore, the processing device 20 executes the chat process when receiving a command to start the chat process or a trigger signal from the interface device 10 .

また、処理装置20は、ユーザからの操作がされたとき、チャット処理を実行してもよい。処理装置20は、チャット処理を実行したときに、チャット処理が実行されたことをインタフェース装置10に送信してもよい。 Further, the processing device 20 may perform chat processing when the user performs an operation. When the processing device 20 executes the chat process, it may transmit to the interface device 10 that the chat process has been executed.

処理装置20においてチャット処理が開始されると、処理装置20において文字入力モードが開始してもよい。文字入力モードは、ユーザが文字入力した会話と、キャラクタが話した会話とが会話形式で表示されるとよい。ここで、キャラクタが話した会話とは、インタフェース装置10の会話制御部1300が出力した文字であってもよい。また、インタフェース装置10は、キャラクタが擬似的に会話をしているときは、インタフェース装置10のキャラクタの表示態様を変化させてもよい。 When chat processing is started in the processing device 20, a character input mode may be started in the processing device 20. In the character input mode, it is preferable that the conversation in which the user inputs characters and the conversation spoken by the character are displayed in a conversation format. Here, the conversation spoken by the character may be characters output by the conversation control unit 1300 of the interface device 10. Furthermore, the interface device 10 may change the display mode of the characters on the interface device 10 when the characters are having a simulated conversation.

また、インタフェース装置10等は、チャット処理を中止する構成を有するとよい。チャット処理の中止は、処理装置20において終了の操作がされてもよい。また、チャット処理の中止は、インタフェース装置10においてチャット処理を終了することを検出し、処理装置20にチャット処理を中止するコマンドや、トリガー信号を送信してもよい。 Further, the interface device 10 and the like may be configured to cancel chat processing. Chat processing may be stopped by performing an end operation on the processing device 20. Further, the chat processing may be stopped by detecting that the chat processing is to be ended in the interface device 10 and transmitting a command or a trigger signal to the processing device 20 to stop the chat processing.

チャット処理が中止された場合、第1実施形態と同様に、ユーザは、インタフェース装置10に音声を入力することで、処理装置20を操作することができる。 When the chat process is canceled, the user can operate the processing device 20 by inputting voice to the interface device 10, as in the first embodiment.

また、インタフェース装置10等は、チャット処理を開始しているときも、インタフェース装置10から音声入力を受け付けてもよい。 Furthermore, the interface device 10 and the like may accept voice input from the interface device 10 even when chat processing is started.

ここで、インタフェース装置10等が、インタフェース装置10の環境に応じてチャット処理を開始する必要があるか判定する。ここで、チャット処理を開始する必要があると判定する例についていくつか説明する。 Here, the interface device 10 and the like determine whether it is necessary to start chat processing depending on the environment of the interface device 10. Here, some examples of determining that it is necessary to start chat processing will be described.

(1)ユーザからチャットを行う操作で判定する
ユーザによりチャットを行う操作が行われたことを検出した場合、インタフェース装置10等はチャット処理を開始する。例えば、インタフェース装置10に対して、ユーザがチャットを開始する操作をしてもよい。この操作は、ユーザが音声を発してもよいし、操作ボタンによる操作であってもよい。
(1) Determining based on the user's operation to perform a chat If it is detected that the user has performed an operation to perform a chat, the interface device 10 etc. start chat processing. For example, the user may perform an operation on the interface device 10 to start a chat. This operation may be performed by the user making a sound or by using an operation button.

また、ユーザは処理装置20にチャットを開始する操作をしてもよい。例えば、ユーザは、処理装置20に表示されたチャットを開始するボタンを操作してもよい。また、ユーザは、処理装置20からキー入力を行うことで、チャットを開始してもよい。 Further, the user may perform an operation on the processing device 20 to start a chat. For example, the user may operate a button displayed on the processing device 20 to start a chat. Further, the user may start a chat by performing a key input from the processing device 20.

また、ユーザは操作によりチャットからインタフェース装置10を介した音声入力に切り替える操作をしてもよい。これにより、チャット処理は終了し、ユーザは、第1実施形態と同様にインタフェース装置10に対して音声による操作を入力することができる。 Further, the user may perform an operation to switch from chatting to voice input via the interface device 10. Thereby, the chat process ends, and the user can input voice operations to the interface device 10 as in the first embodiment.

(2)インタフェース装置10等の場所により判定する
インタフェース装置10が設置されている場所を位置情報取得手段で検出し、必要に応じてチャット処理を実行してもよい。インタフェース装置10の場所を取得する位置情報取得手段は、例えばGPS(Global Positioning System)利用して位置を取得してもよいし、インタフェース装置10が接続する無線の接続先に応じて取得してもよい。例えば、無線の接続先が、移動体通信システムのときは、基地局装置から送信される基地局装置の情報を利用してもよい。また、無線の接続先が、無線LANのときは、基地局から送信されるSSIDにより位置を特定してもよい。
(2) Determination based on the location of the interface device 10 etc. The location where the interface device 10 is installed may be detected by the location information acquisition means, and chat processing may be executed as necessary. The location information acquisition means for acquiring the location of the interface device 10 may use, for example, GPS (Global Positioning System) to acquire the location, or may acquire the location depending on the wireless connection destination to which the interface device 10 connects. good. For example, when the wireless connection destination is a mobile communication system, base station information transmitted from the base station device may be used. Furthermore, when the wireless connection destination is a wireless LAN, the location may be specified using the SSID transmitted from the base station.

インタフェース装置10が、前回チャット処理で接続した場所であれば、チャット処理を開始してもよい。例えば、インタフェース装置10は、前回チャット処理を実行した位置、例えば、チャット処理を実行していたときの緯度経度情報、チャット処理を実行していたときのSSID(基地局情報の一例)に対応してチャット処理を関連づける。インタフェース装置10が、対応付けられた緯度経度情報で示された近傍の位置にある場合、チャット処理を開始してもよい。また、インタフェース装置10は、前回チャット処理を開始したときに接続していた基地局に接続しているときは、チャット処理を開始する。 If the interface device 10 is at the location to which the user connected in the previous chat process, the chat process may be started. For example, the interface device 10 corresponds to the location where the chat process was executed last time, for example, the latitude and longitude information when the chat process was executed, and the SSID (an example of base station information) when the chat process was executed. and associate chat processing. If the interface device 10 is located at a nearby location indicated by the associated latitude and longitude information, a chat process may be started. Furthermore, when the interface device 10 is connected to the base station to which it was connected when it started the chat process last time, it starts the chat process.

また、インタフェース装置10は、例えば、インタフェース装置10が設置されている場所が、会社や図書館、レストラン等の公共施設等のときは、チャット処理を開始してもよい。また、インタフェース装置10は、例えば電車で移動中の場合はチャット処理を開始してもよい。また、インタフェース装置10は、例えば自動車(例えば、自家用車)で移動中の場合は、チャット処理を終了してもよい。 Further, the interface device 10 may start chat processing, for example, when the location where the interface device 10 is installed is a public facility such as a company, library, or restaurant. Further, the interface device 10 may start chat processing when the user is traveling by train, for example. Further, the interface device 10 may end the chat process, for example, when the user is traveling in a car (for example, a private car).

(3)スケジュールにより判定する
チャット処理を開始するスケジュールをインタフェース装置10等に登録してもよい。インタフェース装置10等は、登録されたスケジュールを参照し、チャット処理を開始する時間に含まれていれば、チャット処理を開始してもよい。例えば、ユーザが、深夜等は音がうるさくなるため、チャット処理に切り替える時間帯として登録としてもよい。
(3) Determination based on schedule A schedule for starting chat processing may be registered in the interface device 10 or the like. The interface device 10 and the like may refer to the registered schedule and start the chat process if the time is included in the time to start the chat process. For example, the user may register late at night as the time to switch to chat processing because the sound becomes louder.

(4)環境に応じて判定する
インタフェース装置10等は、チャット処理を開始したが方が適切と判定した場合には、チャット処理を実行してもよい。例えば、インタフェース装置10は、周辺の環境音が所定の音量レベル以下のときは、公共施設であると判定し、チャット処理を実行してもよい。また、インタフェース装置10等は、ユーザが小声で会話しているときは、本来声を出せない場所であると判定し、チャット処理に切り替えてもよい。
(4) Determine according to the environment If the interface device 10 or the like determines that it is appropriate to start the chat process, it may execute the chat process. For example, when the surrounding environmental sounds are below a predetermined volume level, the interface device 10 may determine that the facility is a public facility and perform chat processing. Further, when the user is talking in a low voice, the interface device 10 or the like may determine that the user is in a place where he or she cannot speak, and may switch to chat processing.

(5)学習結果に応じて判定する
インタフェース装置10等は、チャット処理に切り替えた回数に応じて、学習をし、学習結果に応じてチャット処理を開始するかを判定して、チャット処理を実行してもよい。
(5) Determine according to the learning result The interface device 10 etc. performs learning according to the number of times the chat processing is switched, determines whether to start the chat processing according to the learning result, and executes the chat processing. You may.

なお、これらのチャット処理に着替えるのは、ユーザに確認をしてもよいし、自動的に切り替えられてもよい。また、インタフェース装置10は、ユーザに対して「今日もチャットでよい?」と確認をするようにしてもよい。 Note that switching to these chat processes may be confirmed by the user, or may be automatically switched. Further, the interface device 10 may ask the user, "Is it OK to chat today?"

[3.3 動作例]
つづいて、図13を参照して本実施形態の動作について説明する。例えば、インタフェース装置10がチャット処理を行うことを判定してもよい。インタフェース装置10は、処理装置20に対して、チャット処理を実行するトリガー信号を送信する。
[3.3 Operation example]
Next, the operation of this embodiment will be explained with reference to FIG. 13. For example, it may be determined that the interface device 10 performs chat processing. The interface device 10 transmits a trigger signal to the processing device 20 to execute chat processing.

また、処理装置20においてチャット処理を実行する操作がされてもよい。このとき、処理装置20から、インタフェース装置10に対してチャット処理が実行されたことを示す信号や、コマンドを送信してもよい。 Further, an operation may be performed on the processing device 20 to execute a chat process. At this time, the processing device 20 may transmit a command or a signal indicating that the chat process has been executed to the interface device 10.

そして、処理装置20は、チャット処理を実行することで表示画面W202に、チャットウィンドウを領域R202に表示する。領域R202に表示されるチャットウィンドウは、操作部250から取得した文字列(C202、C206)と、インタフェース装置10から取得した文字列(C204、C208)とが表示されている。また、チャットウィンドウは、取得した文字列以外にも、ユーザを示す識別表示や、文字列を取得した日時等を併せて表示してもよい。また、識別表示は、例えばユーザを示すアイコンを表示してもよいし、ユーザ名を表示してもよい。また、識別表示は、ユーザ毎にフォントの種類や、文字の色を変えて表示してもよい。 Then, the processing device 20 displays a chat window in the area R202 on the display screen W202 by executing the chat process. The chat window displayed in area R202 displays character strings (C202, C206) acquired from the operation unit 250 and character strings (C204, C208) acquired from the interface device 10. Further, in addition to the acquired character string, the chat window may also display an identification display indicating the user, the date and time when the character string was acquired, etc. Further, the identification display may be, for example, an icon indicating the user or a user name. Further, the identification display may be displayed with a different font type or character color for each user.

ユーザが入力した文字列が、インタフェース装置10に送信されると、インタフェース装置10は、当該文字列に対して認識処理を実行する。文字列に対する認識処理は、当該文字列に対応するコマンドを特定する処理である。そして、ユーザが入力した文字列に対応するコマンドがあるときは、インタフェース装置10は、コマンドを生成して処理装置20に送信する。 When the character string input by the user is transmitted to the interface device 10, the interface device 10 executes recognition processing on the character string. The recognition process for a character string is a process for identifying a command corresponding to the character string. If there is a command corresponding to the character string input by the user, the interface device 10 generates the command and sends it to the processing device 20.

また、処理装置20は、インタフェース装置10から受信したコマンドを解釈し、対応する処理を実行する。例えば、本図では、ユーザが「昨日のファイルを探して」(C202)と文字列を入力すると、インタフェース装置10は当該文字列を受信する。インタフェース装置10は、「昨日のファイルを探して」という文字列を解釈し、昨日付のファイルを一覧表示するコマンドを生成する。そして、処理装置20は、昨日付のファイルを一覧表示するコマンドを受信すると、昨日付のファイルを一覧表示する。これにより、例えば表示画面W202の領域R204には、昨日付のファイルを一覧表示するウィンドウが表示される。 The processing device 20 also interprets commands received from the interface device 10 and executes corresponding processing. For example, in this figure, when the user inputs the character string "Search for yesterday's files" (C202), the interface device 10 receives the character string. The interface device 10 interprets the character string "Search for yesterday's files" and generates a command to display a list of files dated yesterday. When the processing device 20 receives a command to display a list of files dated yesterday, the processing device 20 displays a list of files dated yesterday. As a result, for example, in area R204 of display screen W202, a window displaying a list of files dated yesterday is displayed.

なお、チャットウィンドウは、上述した実施形態では、処理装置20に表示しているが、インタフェース装置10に表示してもよい。また、チャットウィンドウは、処理装置20以外の他の装置に表示してもよい。処理装置20以外の他の装置は、例えば、スマートフォンや、タブレット装置であってもよいし、ユーザが身につけているウェアラブル端末装置であってもよい。 Note that although the chat window is displayed on the processing device 20 in the above-described embodiment, it may be displayed on the interface device 10. Further, the chat window may be displayed on a device other than the processing device 20. The device other than the processing device 20 may be, for example, a smartphone, a tablet device, or a wearable terminal device worn by the user.

このように、本実施形態によれば、音声入力が難しい場面でも、本システムを利用することができる。例えば、会社内など音声による入力が難しい場合には、処理装置20にテキストを入力し、インタフェース装置10に送信される。インタフェース装置10から、入力したテキストに応答する内容が、処理装置20に戻ってくることで、キャラクタとチャットしているような状態を演出できる。すなわち、インタフェース装置10のキャラクタの発言も、処理装置20で確認することができる。 In this way, according to the present embodiment, the present system can be used even in situations where voice input is difficult. For example, if voice input is difficult, such as in a company, text is input into the processing device 20 and transmitted to the interface device 10. By returning content in response to the input text from the interface device 10 to the processing device 20, it is possible to create a state in which it appears as if the user is chatting with a character. That is, the speech of the character on the interface device 10 can also be confirmed on the processing device 20.

また、インタフェース装置10から音声を入力するモード(音声モード)と、処理装置20から文字を入力するモード(チャットモード)とは自動で切り替えてもよい。 Further, the mode for inputting voice from the interface device 10 (voice mode) and the mode for inputting characters from the processing device 20 (chat mode) may be automatically switched.

なお、音声モードとチャットモードとで、インタフェース装置10におけるキャラクタに関連付けた出力、及び処理装置20で実行可能な処理を同じとしてもよいが、少なくとも一方を異ならせてもよい。少なくとも一方を異ならせるようにすると、ユーザが音声モードとチャットモードとの両方を使用する動機が強くなる効果が期待できる。また、音声モードとチャットモードとで、認識した文字列とコマンドとの関係を同じとしてもよいが、異ならせてもよい。同じとすると文字列とコマンドとの関係の設定が簡単なるし、異ならせるようにすると、音声モードとチャットモードの各モードの特性に適した関係を設定しやすくなる。 Note that the output associated with the character in the interface device 10 and the processing executable by the processing device 20 may be the same in the voice mode and the chat mode, but at least one may be different. By making at least one of them different, it can be expected that the user will be more motivated to use both the voice mode and the chat mode. Further, the relationship between the recognized character string and the command may be the same in the voice mode and the chat mode, or may be different. If they are the same, it will be easier to set the relationship between the character string and the command, and if they are different, it will be easier to set the relationship suitable for the characteristics of each mode, voice mode and chat mode.

[4.第4実施形態]
続いて第4実施形態について説明する。上述した実施形態では、インタフェース装置10は表示部140にキャラクタを表示する装置を例に説明した。本実施形態では、インタフェース装置10を他の装置に置き換えた実施形態である。また、本実施形態では、処理装置20が複数ある場合の実施形態についても説明する。
[4. Fourth embodiment]
Next, a fourth embodiment will be described. In the embodiments described above, the interface device 10 has been described using as an example a device that displays characters on the display unit 140. In this embodiment, the interface device 10 is replaced with another device. Further, in this embodiment, an embodiment in which there are a plurality of processing devices 20 will also be described.

なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。 Note that the system configuration and the configuration of each device of this embodiment are almost the same as those of the first embodiment, and the following description will focus on the differences in this embodiment.

[4.1 インタフェース装置]
図14(a)は、キャラクタ等を模した人形型のインタフェース装置12のイメージ図である。すなわち、インタフェース装置12の筐体が、キャラクタと関連する外観を有していてもよい。インタフェース装置12の筐体は、人形型の装置であってもよく、キャラクタをそのまま表した形状であってもよいし、デフォルメした形状であってもよい。また、インタフェース装置12の筐体は、例えば外形にポリ塩化ビニルや、ポリレジン、ソフトビニール等の素材を利用してもよい。また、人形型の装置は、いわゆる「ねんどろいど」のような製品を利用してもよい。
[4.1 Interface device]
FIG. 14(a) is an image diagram of a doll-shaped interface device 12 imitating a character or the like. That is, the casing of the interface device 12 may have an appearance related to the character. The casing of the interface device 12 may be a doll-shaped device, or may have a shape that directly represents a character, or may have a deformed shape. Furthermore, the casing of the interface device 12 may be made of a material such as polyvinyl chloride, polyresin, or soft vinyl for its outer shape. Further, as the doll-shaped device, a product such as a so-called "Nendoroid" may be used.

また、インタフェース装置12は、表示部140の代わりに、報知装置を設けてもよい。図14(a)では、LED242を目の部分に設けている。LED242は、点灯、点滅等することにより、ユーザに対して状態を示すことができる。また、インタフェース装置12は、スピーカや、マイクを内蔵してもよい。また、インタフェース装置12は、体部分が動いたり、顔の表情が変化してもよい。インタフェース装置12は、キャラクタ等を模したロボット装置であってもよい。 Further, the interface device 12 may be provided with a notification device instead of the display section 140. In FIG. 14(a), the LED 242 is provided in the eye area. The LED 242 can indicate the status to the user by lighting up, blinking, or the like. Further, the interface device 12 may have a built-in speaker or microphone. Further, the interface device 12 may move its body parts or change its facial expression. The interface device 12 may be a robot device modeled after a character or the like.

また、インタフェース装置10は、具体的な筐体で表される形状ではなく、VRゴーグル、MRゴーグルに組み込まれることにより仮想空間に表示されるキャラクタで表してもよい。 Furthermore, the interface device 10 may be represented by a character displayed in a virtual space by being incorporated into VR goggles or MR goggles, instead of a shape represented by a specific casing.

また、インタフェース装置10は、既存の装置にアプリケーションをインストールすることが実現してもよい。図14(b)は、ユーザが身につける腕時計型のウェアラブル端末装置14である。ウェアラブル端末装置14は例えば、腕時計型装置(ウォッチ型装置)であってもよい。 Furthermore, the interface device 10 may be used to install an application on an existing device. FIG. 14(b) shows a wristwatch-type wearable terminal device 14 worn by a user. The wearable terminal device 14 may be, for example, a wristwatch type device (watch type device).

また、図14(c)は、スマートフォン16である。これらの装置に、図3のアプリケーション1000をインストールし、コマンドテーブル1200を記憶することで、インタフェース装置10と同等の機能を実現することが可能である。また、既存の装置は、キャラクタを表示するインタフェースを提供するときは、更に会話制御部1300、キャラクタ制御部1400に相当するアプリケーションをインストールするとよい。また、音声認識部1100、情報取得部1500は、他のアプリケーションを利用してもよいし、併せてインストールしてもよい。 Moreover, FIG. 14(c) shows the smartphone 16. By installing the application 1000 shown in FIG. 3 and storing the command table 1200 in these devices, it is possible to realize functions equivalent to those of the interface device 10. Further, when an existing device provides an interface for displaying characters, it is preferable to further install an application corresponding to the conversation control section 1300 and the character control section 1400. Further, the speech recognition section 1100 and the information acquisition section 1500 may use other applications or may be installed together.

[4.2 処理装置]
インタフェース装置10は、複数の処理装置と接続してもよい。例えば、図15は、インタフェース装置10が、複数の処理装置と接続可能なことを模式的に示す図である。インタフェース装置10は、処理装置20の他に、他の処理装置として処理装置22とも接続可能である。
[4.2 Processing device]
The interface device 10 may be connected to multiple processing devices. For example, FIG. 15 is a diagram schematically showing that the interface device 10 can be connected to a plurality of processing devices. In addition to the processing device 20, the interface device 10 can also be connected to a processing device 22 as another processing device.

インタフェース装置10は、異なる処理装置と接続することで、例えばデータ等を共有することが可能である。例えば、インタフェース装置10は、処理装置20から受信した応答情報を受信し、ストレージ110に記憶する。そして、インタフェース装置10は、処理装置22に接続したときに、応答情報に含まれる情報を処理装置22に送信する。これにより、例えば異なる端末装置間でのデータのやり取りを行うことが可能となる。 By connecting the interface device 10 with different processing devices, it is possible to share data, for example. For example, the interface device 10 receives response information received from the processing device 20 and stores it in the storage 110. Then, when the interface device 10 connects to the processing device 22, it transmits information included in the response information to the processing device 22. This makes it possible, for example, to exchange data between different terminal devices.

インタフェース装置10が、複数の処理装置20と接続可能に構成されることにより、インタフェース装置10がハブとなってデータの送受信が可能となる。また、ユーザは、キャラクタがハブになって、複数の処理装置20でデータをやり取りしているように感じることができる。 By configuring the interface device 10 so that it can be connected to a plurality of processing devices 20, the interface device 10 functions as a hub and can transmit and receive data. Furthermore, the user can feel as if the character is acting as a hub and exchanging data with the plurality of processing devices 20.

また、処理装置は、コンピュータ以外の装置と接続してもよい。例えば、図15のインタフェース装置10は、車載用装置24と接続可能である。 Further, the processing device may be connected to a device other than a computer. For example, the interface device 10 in FIG. 15 can be connected to the in-vehicle device 24.

ここで、車載用装置24は、車載して利用することができる装置を含む。例えば、ここでは車載用装置24は、カーナビゲーション装置とするとよい。また、車載用装置24は、他にも、ドライブレコーダ、全運転支援装置(例えば、レーダー探知機やレーザー探知機)、カーオーディオといった車両に搭載される装置であってもおい。また、車載用装置24は、車両で利用可能であればよく、例えば、車両内で使用するスマートフォンや、タブレットも含む概念である。 Here, the in-vehicle device 24 includes a device that can be mounted and used in a vehicle. For example, here, the in-vehicle device 24 may be a car navigation device. In addition, the in-vehicle device 24 may be a device installed in a vehicle, such as a drive recorder, a full driving support device (for example, a radar detector or a laser detector), or a car audio. Further, the in-vehicle device 24 only needs to be usable in the vehicle, and is a concept that includes, for example, a smartphone and a tablet used in the vehicle.

以下、インタフェース装置10と、処理装置20と、車載用装置24とが連携して処理するときについて説明する。 Hereinafter, a case in which the interface device 10, the processing device 20, and the vehicle-mounted device 24 cooperate to perform processing will be described.

例えば、ユーザがインタフェース装置10に対して「A駅の近くに美味しいお寿司屋さんはある?」と問いかけると、インタフェース装置10は、コマンドに変換し、処理装置20に送信する。 For example, when a user asks the interface device 10, "Is there a delicious sushi restaurant near station A?", the interface device 10 converts it into a command and sends it to the processing device 20.

処理装置20は、受信したコマンドを解釈し、表示部240に地図を表示する。このとき、処理装置20は、インタフェース装置10から入力された情報に基づいて検索処理を実行してもよい。また、併せて、処理装置20は、地図と併せて店舗情報を一覧表示してもよい。 The processing device 20 interprets the received command and displays a map on the display unit 240. At this time, the processing device 20 may execute the search process based on the information input from the interface device 10. Additionally, the processing device 20 may display a list of store information together with the map.

ユーザは、表示された中で、所望する店舗名をインタフェース装置10に対して話かける。インタフェース装置10は、話しかけられた店舗名を含むコマンドを処理装置20に対して送信する。処理装置20は、店舗名に対応する店舗に関する情報を取得し、表示部240に表示する。また、処理装置20は、当該店舗の位置情報を含む店舗情報を、応答情報に含めてインタフェース装置10に送信する。 The user speaks the desired store name into the interface device 10 from among the displayed names. The interface device 10 transmits a command including the spoken store name to the processing device 20. The processing device 20 acquires information regarding the store corresponding to the store name and displays it on the display unit 240. Furthermore, the processing device 20 includes store information including the location information of the store in the response information and transmits it to the interface device 10 .

インタフェース装置10は、受信した応答情報に含まれる店舗情報をストレージ110に記憶する。インタフェース装置10は、車載用装置24に接続した後、店舗情報を車載用装置24に送信する。車載用装置24であるカーナビゲーション装置は、受信した店舗情報に含まれる位置情報を目的に設定することが可能である。 The interface device 10 stores the store information included in the received response information in the storage 110. After connecting to the in-vehicle device 24, the interface device 10 transmits store information to the in-vehicle device 24. The car navigation device, which is the in-vehicle device 24, can be set to use the location information included in the received store information.

また、インタフェース装置10は、車載用装置24から、運転に関する情報を取得する。そして、インタフェース装置10が、家庭にある処理装置20に接続したときに、インタフェース装置10は、運転に関する情報に基づいたコマンドを処理装置20に送信する。処理装置20は、例えば危険運転があった場所を、ブラウザ上で表示してもよい。また、インタフェース装置10は、キャラクタを介して「あぶない運転があったよ」と、ユーザに知らせてもよい。 The interface device 10 also acquires information regarding driving from the in-vehicle device 24. Then, when the interface device 10 is connected to the processing device 20 in the home, the interface device 10 transmits a command based on information related to driving to the processing device 20. The processing device 20 may display, for example, the location where the dangerous driving occurred on the browser. Furthermore, the interface device 10 may notify the user, ``Dangerous driving occurred'' via the character.

また、インタフェース装置10は、複数の処理装置20と接続してもよい。このとき、インタフェース装置10は、接続されている処理装置毎に異なるキャラクタを表示してもよい。例えば、ユーザがキャラクタをタッチすることで、操作の対象となる処理装置を特定してもよい。また、ユーザが会話のなかでキャラクタの名前を呼ぶことで、操作の対象となる処理装置を特定してもよい。また、このときキャラクタの状態に応じて、処理装置20でできることが特定できてもよい。例えば、帽子を被っているキャラクタの場合は、処理装置の電源の制御も可能であるというように、キャラクタのアイテムや、特徴により特定ができるようにしてもよい。 Further, the interface device 10 may be connected to a plurality of processing devices 20. At this time, the interface device 10 may display a different character for each connected processing device. For example, the user may specify the processing device to be operated by touching the character. Alternatively, the user may specify the processing device to be operated by calling the character's name during conversation. Further, at this time, it may be possible to specify what the processing device 20 can do depending on the state of the character. For example, in the case of a character wearing a hat, it may be possible to specify the character based on its items or characteristics, such as controlling the power supply of the processing device.

[5.第5実施形態]
[5.1 概要]
続いて第5実施形態について説明する。第5実施形態は、インタフェース装置10に、処理装置20の状態に応じた表示を行うことができる実施形態である。なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。
[5. Fifth embodiment]
[5.1 Overview]
Next, a fifth embodiment will be described. The fifth embodiment is an embodiment in which display can be performed on the interface device 10 according to the state of the processing device 20. Note that the system configuration and the configuration of each device of this embodiment are almost the same as those of the first embodiment, and the following description will focus on the differences in this embodiment.

ここで、装置の状態とは、処理装置20において取得可能な状態である。例えば、処理装置のリソースの状態を示すものであり、処理装置20の種類に応じて、取得できる状態は異なる。本実施形態では、インタフェース装置10は、処理装置の状態と、キャラクタとが関連付けられて出力する。以下、装置の状態として取得可能なものを例示する。 Here, the device state is a state that can be acquired by the processing device 20. For example, it indicates the state of the resources of the processing device, and the states that can be obtained differ depending on the type of the processing device 20. In this embodiment, the interface device 10 outputs the state of the processing device and the character in association with each other. The following are examples of the device status that can be obtained.

(1)コンピュータ等の情報処理装置
例えば、装置の状態としては、コンピュータのリソースの状態がある。例えば、装置の状態としては、バッテリ残量、装置の負荷率、ストレージの残容量、メモリの残容量、ネットワークの転送量等である。
(1) Information processing devices such as computers For example, the device status includes the status of computer resources. For example, the status of the device includes the remaining battery level, the load factor of the device, the remaining capacity of storage, the remaining capacity of memory, the amount of network transfer, and the like.

これらの装置の状態と、キャラクタとの状態とを関連づけてもよい。例えば、ストレージの残容量が少ないときは、悲しい表情のキャラクタを出力したり、ストレージの残容量が十分なときは、楽しい表情のキャラクタを出力したりしてもよい。装置の状態に応じて、それぞれキャラクタの表情や、キャラクタの動きを対応付けてもよい。 The states of these devices may be associated with the states of the characters. For example, when the remaining capacity of the storage is low, a character with a sad expression may be output, and when the remaining capacity of the storage is sufficient, a character with a happy expression may be output. The facial expressions and movements of the characters may be associated with each other depending on the state of the device.

(2)モバイルバッテリ
処理装置20は、例えば、モバイルバッテリといった装置でもよい。処理装置20がモバイルバッテリの場合、装置の状態として取得可能な状態としてはバッテリ残量、現在の消費電力、充電残り時間等のバッテリの状態である。また、バッテリの状態として、バッテリが充電中や、放電中の状態等も含めてもよい。また、バッテリの状態として、バッテリからの出力電圧、バッテリへの充電時の電圧等を含めてもよい。
(2) Mobile Battery The processing device 20 may be, for example, a device such as a mobile battery. When the processing device 20 is a mobile battery, the states that can be acquired as the device state include battery states such as remaining battery power, current power consumption, and remaining charging time. Further, the state of the battery may include a state in which the battery is being charged, a state in which the battery is being discharged, or the like. Further, the state of the battery may include the output voltage from the battery, the voltage at the time of charging the battery, and the like.

処理装置20は、これらのバッテリの状態と、キャラクタの状態とを関連づけてもよい。例えば、バッテリの残量が少ないときには苦しい表情のキャラクタを出力したり、バッテリの残量が十分なときには満腹感を抱いている表情のキャラクタを出力したりしてもよい。また、バッテリが充電中の場合は、例えば自転車をこいでいるキャラクタを出力してもよい。 The processing device 20 may associate the state of these batteries with the state of the character. For example, a character with a distressed expression may be output when the battery level is low, or a character with a satisfied expression may be output when the battery level is sufficient. Further, when the battery is being charged, for example, a character pedaling a bicycle may be output.

(3)車載用装置
処理装置20は、例えば、カーナビゲーション、安全運転支援装置(いわゆるレーダー探知機やレーザー探知機)、ドライブレコーダ等の車載用装置でもよい。処理装置20が車載用装置の場合、取得可能な状態としては、例えば、位置情報、車両に関する情報、ドライブレコーダ等の加速度センサから取得可能な情報等に基づく状態である。また、車両に関する情報は、例えば、バッテリの電圧値、速度、回転数、水温、その他センサ装置から取得可能な情報、車両の故障診断コネクタを介して取得可能な情報、OBD(On-board diagnostics)から取得可能な情報である。
(3) Vehicle-mounted device The processing device 20 may be, for example, a vehicle-mounted device such as a car navigation system, a safe driving support device (so-called radar detector or laser detector), or a drive recorder. When the processing device 20 is an in-vehicle device, the obtainable state is, for example, a state based on position information, information regarding the vehicle, information obtainable from an acceleration sensor such as a drive recorder, or the like. In addition, information regarding the vehicle includes, for example, battery voltage value, speed, number of revolutions, water temperature, information that can be obtained from other sensor devices, information that can be obtained via the vehicle's fault diagnosis connector, OBD (On-board diagnostics) This is information that can be obtained from.

インタフェース装置10は、これらの車載用装置から取得した状態と、キャラクタの状態を関連付けてもよい。例えば、危険運転を検知したときには、びっくりした表情のキャラクタを出力してもよい。また、インタフェース装置10は、車両の速度に応じて、キャラクタの表情を変化させてもよい。また、インタフェース装置10は、オイル交換等の交換時期がくると、お知らせを促す動きをキャラクタにさせてもよい。 The interface device 10 may associate the states acquired from these in-vehicle devices with the states of the characters. For example, when dangerous driving is detected, a character with a surprised expression may be output. Furthermore, the interface device 10 may change the facial expression of the character depending on the speed of the vehicle. Furthermore, the interface device 10 may make the character move to prompt a notification when it is time for an oil change or the like.

[5.2 処理の流れ]
つづいて、具体的な処理について説明する。図16は、図6の処理を置き換えた図である。図16は、第1実施形態で説明した図6に、装置状態表示処理(ステップS300)が追加されている。
[5.2 Process flow]
Next, specific processing will be explained. FIG. 16 is a diagram in which the processing in FIG. 6 is replaced. In FIG. 16, device status display processing (step S300) is added to FIG. 6 described in the first embodiment.

装置状態表示処理は、インタフェース装置10において処理装置20の状態を出力する処理である。装置状態表示処理は、図16では最初に実行されているが、ユーザが実行する操作が行われた場合に実行されてもよい。ここで、処理装置20の状態は、例えば処理装置20のリソースの状態に基づいて出力される。 The device status display process is a process for outputting the status of the processing device 20 in the interface device 10. Although the device status display process is executed first in FIG. 16, it may be executed when the user performs an operation. Here, the state of the processing device 20 is output based on the state of resources of the processing device 20, for example.

装置状態表示処理において、処理装置20は、装置の状態を取得する(ステップS302)。処理装置20は、例えば、ユーザがインタフェース装置10において、装置の情報を取得する音声操作を行ったときに、装置の状態を取得してもよい。また、インタフェース装置10又は処理装置20は、処理装置20の状態を適宜取得し、処理装置20からインタフェース装置10に送信する動作モードとしてもよい。 In the device status display process, the processing device 20 acquires the status of the device (step S302). The processing device 20 may obtain the state of the device, for example, when the user performs a voice operation on the interface device 10 to obtain device information. Further, the interface device 10 or the processing device 20 may be in an operation mode in which the state of the processing device 20 is appropriately acquired and transmitted from the processing device 20 to the interface device 10.

処理装置20は、取得した装置の状態を、インタフェース装置10に送信する(ステップS304)。インタフェース装置10は、装置状態を処理装置20から受信する(ステップS306)。インタフェース装置10は、取得した装置状態に基づいて、出力処理を実行する(ステップS308)。出力処理は、装置状態に応じて、表示部140において表示されるキャラクタの表示態様を変更してもよい。また、出力処理は、装置状態に応じて、音声出力部162から、音声を出力してもよい。 The processing device 20 transmits the acquired device status to the interface device 10 (step S304). The interface device 10 receives the device status from the processing device 20 (step S306). The interface device 10 executes output processing based on the acquired device state (step S308). In the output process, the display mode of the character displayed on the display unit 140 may be changed depending on the device state. Furthermore, in the output process, audio may be output from the audio output unit 162 depending on the device state.

そして、装置状態表示処理と合わせて、第1実施形態で説明した処理(ステップS102~ステップS112)も実行可能である。 In addition to the device status display process, the processes described in the first embodiment (steps S102 to S112) can also be executed.

また、本実施形態のインタフェース装置10は、処理装置20の装置の状態に基づいてキャラクタの表示態様等を変化させているが、処理装置20と異なる装置であってもよい。例えば、インタフェース装置10は、処理装置20とは別に可搬型のバッテリであるモバイルバッテリに接続し、モバイルバッテリの状態に応じてキャラクタの表示態様を変えてもよい。以下、動作例について説明する。 Further, although the interface device 10 of this embodiment changes the display mode of the character based on the state of the processing device 20, it may be a device different from the processing device 20. For example, the interface device 10 may be connected to a mobile battery that is a portable battery separately from the processing device 20, and the display mode of the character may be changed depending on the state of the mobile battery. An example of operation will be described below.

[5.3 動作例]
動作例について図17を参照して説明する。
[5.3 Operation example]
An example of operation will be described with reference to FIG. 17.

[5.3.1 コンピュータの状態]
インタフェース装置10が接続する処理装置20が、コンピュータ等の情報処理装置の場合について、図17参照して説明する。図17は、処理装置20のバッテリの状態と、キャラクタの表示との対応を示している。インタフェース装置10は、情報取得部1500を介して処理装置20に関する情報を取得する。
[5.3.1 Computer status]
A case where the processing device 20 connected to the interface device 10 is an information processing device such as a computer will be described with reference to FIG. 17. FIG. 17 shows the correspondence between the battery status of the processing device 20 and the character display. The interface device 10 acquires information regarding the processing device 20 via the information acquisition unit 1500.

例えば、インタフェース装置10が、処理装置20のバッテリ残量の情報を取得する。そして、インタフェース装置10は、処理装置20のバッテリ残量がない(例えば少ない)場合、キャラクタV302は第1の状態(例えば、怒っている表情、怒っている動作となる状態等)で表示する。このとき、インタフェース装置10は、処理装置20に対して充電が行われていることを取得すると、キャラクタV304の第2を状態(例えば、充電中とアナウンスしている状態等)に遷移させる。 For example, the interface device 10 acquires information on the remaining battery level of the processing device 20. Then, when the remaining battery power of the processing device 20 is low (for example, low), the interface device 10 displays the character V302 in a first state (for example, an angry expression, an angry action, etc.). At this time, when the interface device 10 acquires that the processing device 20 is being charged, it causes the second character V304 to transition to a state (for example, a state announcing that charging is in progress).

また、インタフェース装置10は、処理装置20の充電が完了した情報を取得すると、キャラクタV306を第3の状態(例えば、笑顔の表情、楽しい動作となる状態等)で表示させる。 Further, when the interface device 10 acquires information that charging of the processing device 20 has been completed, it displays the character V306 in a third state (for example, a smiling expression, a state in which a fun action is performed, etc.).

このように、本実施形態によれば、キャラクタの表情や、動作により、ユーザは現在の処理装置20の状態を容易に取得することができる。また、本実施形態によれば、単にバッテリ残量を表示しているのと比較し、キャラクタの状態をみることで、ユーザは楽しく処理装置20の情報を取得することができる。 In this manner, according to the present embodiment, the user can easily obtain the current state of the processing device 20 based on the facial expressions and actions of the character. Furthermore, according to the present embodiment, the user can enjoy acquiring information about the processing device 20 by looking at the state of the character, as opposed to simply displaying the remaining battery level.

また、処理装置20は、上述したキャラクタの表示と共に、音声出力してもよい。例えば、処理装置20は、キャラクタV302を表示するときに「電池の残量ないよ」と音声出力してもよい。また、処理装置20は、キャラクタV304を表示するときに「充電頑張っている!」と音声出力してもよい。また、処理装置20は、キャラクタV306を表示するときに「充電完了!」と音声出力してもよい。 Further, the processing device 20 may output audio in addition to displaying the above-mentioned characters. For example, when displaying the character V302, the processing device 20 may output a voice saying "The battery is low." Further, the processing device 20 may output a voice saying "I'm working hard on charging!" when displaying the character V304. Further, the processing device 20 may output a voice saying "Charging completed!" when displaying the character V306.

また、インタフェース装置10は、バッテリの状態に応じてキャラクタの状態を動的に変化させてもよい。例えば、インタフェース装置10は、処理装置20のバッテリ残量が減ってくると疲れているような表情をキャラクタで表示してもよい。また、インタフェース装置10は、バッテリ残量の代わりに、例えばCPU使用率、メモリ使用率、ディスクアクセスの状態、ネットワークの通信状況に応じてキャラクタの状態を変化させてもよい。また、インタフェース装置10は、処理装置20において開いているウィンドウの数、実行しているプログラムの数に法児手キャラクタの状態を変化させてもよい。 Furthermore, the interface device 10 may dynamically change the state of the character depending on the state of the battery. For example, the interface device 10 may display a tired expression as a character when the remaining battery power of the processing device 20 decreases. Furthermore, the interface device 10 may change the state of the character according to, for example, the CPU usage rate, memory usage rate, disk access status, or network communication status instead of the remaining battery level. Further, the interface device 10 may change the state of the hand character depending on the number of windows opened in the processing device 20 or the number of programs being executed.

また、インタフェース装置10は、キャラクタの状態を変化させる方法としては、例えば、キャラクタが重い物をもっているような状態を表示してもよい。インタフェース装置10は、処理装置20において負荷が大きいほど、重い物を持っている表情、状態のキャラクタを表示してもよい。 Furthermore, as a method of changing the character's state, the interface device 10 may display a state in which the character is holding a heavy object, for example. The interface device 10 may display a character with an expression or state of holding a heavy object as the load on the processing device 20 increases.

また、インタフェース装置10は、情報取得部1500から、故障の予兆などを検出した場合に、キャラクタからユーザに対して通知をしてもよい。例えば、インタフェース装置10は、処理装置20のストレージとして、例えばSSDや、HDDの故障可能性があるときは、「そろそろ危ないよ」といった故障の予兆や、動作の不具合について、キャラクタを介してユーザに教えてもよい。例えば、インタフェース装置10は、ストレージの故障を稼動時間や、不良セクタ数といった取得可能な情報から判定してもよい。また、インタフェース装置10は、例えばSSDからの故障検知機能にもとづいて、ストレージの故障の可能性を判定してもよい。 Further, when the interface device 10 detects a sign of a failure from the information acquisition unit 1500, the character may notify the user. For example, if there is a possibility of a failure in the storage of the processing device 20, such as an SSD or HDD, the interface device 10 may notify the user via a character of signs of failure such as "It's about to get dangerous" or malfunctions of the operation. You can tell me. For example, the interface device 10 may determine storage failure based on obtainable information such as operating time and the number of bad sectors. Further, the interface device 10 may determine the possibility of a storage failure based on, for example, a failure detection function from the SSD.

また、インタフェース装置10は、ユーザに故障可能性を通知したあと、ユーザからの操作により、故障に対応するコマンドを処理装置20に送信してもよい。例えば、ユーザから「どうしよう?」と話しかけられたとき、インタフェース装置10は、ストレージメーカのウェブサイトを開く処理を実行するコマンドを送信したり、故障報告のメールを送信するコマンドを送信したりしてもおい。 Further, after notifying the user of the possibility of a failure, the interface device 10 may transmit a command corresponding to the failure to the processing device 20 in response to an operation from the user. For example, when a user asks, "What should we do?", the interface device 10 may send a command to open a storage manufacturer's website, or send a command to send a failure report email. It's okay.

このように、インタフェース装置10は、情報取得部1500から情報を取得することで、処理装置20の状態を監視することが可能である。また、インタフェース装置10は、処理装置の状態に基づいて、キャラクタを介してユーザに処理装置の状態を知らせることが可能となる。 In this way, the interface device 10 can monitor the state of the processing device 20 by acquiring information from the information acquisition unit 1500. Furthermore, the interface device 10 can notify the user of the status of the processing device via a character based on the status of the processing device.

[5.3.2 モバイルバッテリ]
インタフェース装置10が情報を取得する装置がバッテリの場合の動作例について説明する。以下の動作例は、例えばバッテリを可搬型の小型のバッテリであるモバイルバッテリを例に説明する。モバイルバッテリは、例えば自転車につなぐと、自転車のモータ部に給電することで、走行をアシストすることができる。また、モバイルバッテリは、スマートフォンに接続することで、スマートフォンを充電することができる。
[5.3.2 Mobile battery]
An example of operation when the device from which the interface device 10 acquires information is a battery will be described. The following operation example will be explained using a mobile battery, which is a small, portable battery, as an example. For example, when a mobile battery is connected to a bicycle, it can assist the bicycle by supplying power to the bicycle's motor. Moreover, the mobile battery can charge a smartphone by connecting it to the smartphone.

なお、バッテリは、処理装置20と異なる装置であってもよいし、処理装置20をバッテリに置き換えてもよい。以下、説明の都合上、処理装置20をモバイルバッテリとして説明する。 Note that the battery may be a different device from the processing device 20, or the processing device 20 may be replaced with a battery. Hereinafter, for convenience of explanation, the processing device 20 will be explained as a mobile battery.

インタフェース装置10は、モバイルバッテリのとき、バッテリの状態に応じてキャラクタに演出を加えてもよい。インタフェース装置10は、処理装置20であるモバイルバッテリを擬人化し、キャラクタとして表示する。インタフェース装置10に表示されるキャラクタを介して、ユーザに対してモバイルバッテリが電力供給を頑張っていることを報知する機能があるとよい。 When using a mobile battery, the interface device 10 may add effects to the character depending on the battery state. The interface device 10 anthropomorphizes the mobile battery, which is the processing device 20, and displays it as a character. It is preferable that the interface device 10 has a function of notifying the user, via a character displayed on the interface device 10, that the mobile battery is working hard to supply power.

インタフェース装置10は、例えば、モバイルバッテリの充電・給電の状況を、キャラクタに対するカロリー摂取や消費に例えた形で報知するとよい。また、インタフェース装置10は、モバイルバッテリが充電状態から給電状態かに応じて、キャラクタの出力を異なるものとしてもよい。例えば、インタフェース装置10は、充電時の充電電力に応じて異なる言葉や、表情、感情を出力してもよい。ここで、インタフェース装置10は、充電電力が、例えば標準規格のmicro USBのように電圧一定なら充電電流に基づいて出力を変えてもよい。また、インタフェース装置10は、充電電力が、USB Type Cのように電圧変更ができるのであれば、電圧を判定し、その電圧に応じて出力を変えてもよい。 For example, the interface device 10 may notify the charging/power supply status of the mobile battery in a form that is compared to calorie intake and consumption for the character. Further, the interface device 10 may output the character differently depending on whether the mobile battery is in a charging state or in a power supplying state. For example, the interface device 10 may output different words, facial expressions, and emotions depending on the charging power during charging. Here, the interface device 10 may change the output based on the charging current if the charging power is a constant voltage, such as in a standard micro USB. Further, if the charging power can be changed in voltage like USB Type C, the interface device 10 may determine the voltage and change the output according to the voltage.

また、インタフェース装置10は、モバイルバッテリの給電時の供給電力に応じて異なる言葉、表情、感情を出力してもよい。例えば、インタフェース装置10は、モバイルバッテリの供給電力が大きいときは、「全力疾走苦しいよー」と出力してもよい。例えば、インタフェース装置10は、出力内容として、モバイルバッテリの状態を、キャラクタの気持ちに置き換え言葉、音声、表情で出力してもよい。また、インタフェース装置10は、モバイルバッテリの気持ちを第三者視点で解説する出力をしてもよい。 Furthermore, the interface device 10 may output different words, facial expressions, and emotions depending on the power supplied to the mobile battery. For example, when the power supplied by the mobile battery is large, the interface device 10 may output "It's hard to run at full speed." For example, the interface device 10 may output the state of the mobile battery as a character's feelings in words, voice, or facial expressions as the output content. Furthermore, the interface device 10 may output an explanation of the feelings of the mobile battery from a third person's perspective.

また、インタフェース装置10は、モバイルバッテリが処理装置20に接続されている場合は、処理装置20を介してモバイルバッテリの状態を取得してもよい。 Further, if the mobile battery is connected to the processing device 20, the interface device 10 may acquire the state of the mobile battery via the processing device 20.

[5.3.3 車載用装置]
インタフェース装置10が車載用装置に接続するときの動作例について説明する。車載用装置は、例えばドライブレコーダ、カーナビゲーション装置、安全運転支援装置(いわゆるレーダー探知機)等の装置であってもよい。また、車載用装置は、処理装置20を置き換えてもよいし、処理装置20は異なる装置であってもよい。以下、車載用装置は、処理装置20として説明する。
[5.3.3 In-vehicle equipment]
An example of the operation when the interface device 10 connects to an in-vehicle device will be described. The in-vehicle device may be, for example, a drive recorder, a car navigation device, a safe driving support device (so-called radar detector), or the like. Further, the in-vehicle device may replace the processing device 20, or the processing device 20 may be a different device. Hereinafter, the in-vehicle device will be explained as a processing device 20.

インタフェース装置10は、車載用装置から、情報取得部1500を介して、車載用装置の状態を取得する。ここで、インタフェース装置10は、車載用装置の状態として、例えばカーナビゲーション装置から施設情報を取得したり、位置情報を取得したりしてもよい。また、インタフェース装置10は、ドライブレコーダから現在の運転している状態を取得してもよい。 The interface device 10 acquires the status of the in-vehicle device from the in-vehicle device via the information acquisition unit 1500. Here, the interface device 10 may acquire facility information or position information from a car navigation device, for example, as the state of the in-vehicle device. Further, the interface device 10 may acquire the current driving state from a drive recorder.

例えば、ユーザがインタフェース装置10に「お腹空いたよ」と話しかけると、インタフェース装置10は、カーナビゲーション装置に飲食店を検索するコマンドを送信する。そして、インタフェース装置10は、応答情報として近隣の飲食店の情報を取得する。インタフェース装置10は、キャラクタを介して近くのレストランの情報を取得する。また、処理装置20(車載用装置)は、ユーザからのメッセージに応じて検索する処理を実行している。そして、検索する処理を実行した結果を、応答情報としてインタフェース装置10に返信してもよい。 For example, when a user says "I'm hungry" to the interface device 10, the interface device 10 sends a command to the car navigation device to search for a restaurant. The interface device 10 then obtains information on nearby restaurants as response information. The interface device 10 obtains information on nearby restaurants through the character. Furthermore, the processing device 20 (in-vehicle device) executes a search process in response to a message from a user. Then, the result of executing the search process may be returned to the interface device 10 as response information.

これにより、ユーザは、カーナビゲーション装置のユーザインタフェースに関係なく、同じインタフェースで情報を取得することが可能となる。例えば、ユーザがレンタカーを利用すると、使用する自動車に設置されたカーナビゲーション装置は、メーカー、機種毎に異なるユーザインタフェースが提供されてしまう。カーナビゲーション装置として異なるユーザインタフェースが提供されたとしても、ユーザはいつも利用するインタフェース装置10を介することにより、キャラクタに話かけるだけで、所望する情報を取得することが可能となる。 This allows the user to obtain information using the same interface regardless of the user interface of the car navigation device. For example, when a user uses a rental car, the car navigation device installed in the car used is provided with a different user interface depending on the manufacturer and model. Even if a different user interface is provided as a car navigation device, the user can obtain desired information simply by talking to the character via the interface device 10 that the user always uses.

また、インタフェース装置10は、車載用装置から情報を取得するときに、車載用装置を介して、車両の情報を取得してもよい。例えば、車載用装置が、OBDを介して車両の情報を取得可能なとき、インタフェース装置10は、車両の情報を取得できる。 Furthermore, when acquiring information from the vehicle-mounted device, the interface device 10 may acquire vehicle information via the vehicle-mounted device. For example, when the in-vehicle device can acquire vehicle information via OBD, the interface device 10 can acquire vehicle information.

これにより、例えば、インタフェース装置10は、車両のメンテナンスに関する情報をキャラクタを介してユーザに通知してもよい。また、インタフェース装置10は、安全運転に関する情報をキャラクタを介してユーザに通知してもよい。例えば、速度超過が続いているときに、インタフェース装置10は、キャラクタから「もう少しゆっくり走りたいな」といったメッセージを出力し、悲しげな表情をさせてもよい。 Thereby, for example, the interface device 10 may notify the user of information regarding vehicle maintenance via the character. Further, the interface device 10 may notify the user of information regarding safe driving via a character. For example, when the character continues to speed excessively, the interface device 10 may output a message such as "I want to drive a little slower" from the character, and make the character look sad.

また、インタフェース装置10は、安全運転が続いているときや、車両の状態に問題がないときは、キャラクタを笑顔にしたりしてもよい。また、インタフェース装置10は、危険運転を検知したときや、車両の状態に異常がある場合は、キャラクタを悲しげな表情としてもよい。 Further, the interface device 10 may make the character smile when safe driving continues or when there are no problems with the vehicle condition. Further, the interface device 10 may make the character look sad when dangerous driving is detected or when there is an abnormality in the vehicle condition.

これにより、例えば、ユーザは運転中にキャラクタを見るだけで現在の運転状態や、車両の状態を把握することが可能となる。また、インタフェース装置10は、キャラクタからの通知を、車両が止まっている状態に行ってもよい。 Thereby, for example, the user can grasp the current driving state and the state of the vehicle just by looking at the character while driving. Furthermore, the interface device 10 may send the notification from the character when the vehicle is stopped.

[5.3.4 コンピュータと補助装置]
また、インタフェース装置10は、処理装置と、処理装置と異なる装置と接続してもよい。処理装置と異なる装置は、処理装置とは異なる機能を有する装置であり、例えば処理装置を補助するための機能を有する補助装置とするとよい。処理装置と異なる機能とは、処理装置が有していない機能や、処理装置の機能を補助するための機能である。例えば、処処理装置と異なる機能を有する装置は、処理装置が4G/5Gといった移動体通信をする通信モジュールを搭載していないときは、移動体通信が可能な機能を有する装置(例えば、モバイル無線ルータ)とするとよい。また、処理装置と異なる機能を有する装置は、処理装置のバッテリをサポートするときは、処理装置のバッテリを給電するモバイルバッテリとするとよい。
[5.3.4 Computers and auxiliary equipment]
Further, the interface device 10 may connect the processing device to a device different from the processing device. The device different from the processing device is a device having a function different from that of the processing device, and may be, for example, an auxiliary device having a function to assist the processing device. The functions different from those of the processing device are functions that the processing device does not have or functions that assist the functions of the processing device. For example, if the processing device is not equipped with a communication module for mobile communication such as 4G/5G, a device with a function different from that of the processing device (e.g., mobile wireless router). Further, when a device having a function different from that of the processing device supports the battery of the processing device, it is preferable to use a mobile battery that supplies power to the battery of the processing device.

処理装置と異なる補助装置は、単体の機能を有する装置であってもよい。単体の機能を有する装置は、或る特定の一機能を有する装置で、もっぱら当該一機能を発揮させる装置として使用される装置である。バッテリ28は、特定の一機能としてバッテリ機能(つまり電池機能)を有する装置で、バッテリ機能を発揮させる装置の一例である。 The auxiliary device different from the processing device may be a device having a single function. A device with a single function is a device that has a certain specific function and is used exclusively as a device that performs that one function. The battery 28 is a device that has a battery function (that is, a battery function) as one specific function, and is an example of a device that exhibits the battery function.

以下、処理装置20の代わりに第1の処理装置としてのコンピュータ26を用い、上述した処理装置20とは異なる装置であって当該処理装置20とは異なる補助装置を第2の処理装置としてのバッテリ28とした場合を説明する。例えば、図18は、インタフェース装置10は、第1の処理装置として、コンピュータ26と接続する。また、インタフェース装置10は、第2の処理装置として、補助装置であるバッテリ28と接続する。補助装置であるバッテリ28は、電力を他の装置に給電することができる装置であり、図18では、第1の処理装置であるコンピュータ26に給電している。 Hereinafter, a computer 26 as a first processing device is used instead of the processing device 20, and an auxiliary device different from the processing device 20 described above is used as a battery as a second processing device. A case where it is set to 28 will be explained. For example, in FIG. 18, the interface device 10 is connected to the computer 26 as a first processing device. Further, the interface device 10 is connected to a battery 28, which is an auxiliary device, as a second processing device. The battery 28, which is an auxiliary device, is a device that can supply power to other devices, and in FIG. 18, it supplies power to the computer 26, which is the first processing device.

図18のインタフェース装置10は、コンピュータ26の状態を人に模したキャラクタV402に対応して表示している。また、インタフェース装置10は、バッテリ28の状態を犬に模したキャラクタV404として表示している。キャラクタV404は、株式会社ユピテルが使用するキャラクタであるテルである。 The interface device 10 in FIG. 18 displays the state of the computer 26 in correspondence with a human character V402. Further, the interface device 10 displays the state of the battery 28 as a character V404 imitating a dog. Character V404 is Teru, a character used by Jupiter Corporation.

インタフェース装置10は、それぞれの処理装置の状態を異なるキャラクタとして表示している。したがって、ユーザは、インタフェース装置10をみることで、それぞれの装置の状態を確認することが可能である。例えば、バッテリ28の残量に応じて、キャラクタV404の表情が変化する。例えば、バッテリ28の残量が十分にあるときは、キャラクタV404が「楽しそう」な表情をする。また、バッテリ28の残量が少ないときには、キャラクタV404が「悲しそう」な表情をする。 The interface device 10 displays the status of each processing device as different characters. Therefore, the user can check the status of each device by looking at the interface device 10. For example, the facial expression of the character V404 changes depending on the remaining amount of the battery 28. For example, when the battery 28 has sufficient remaining power, the character V404 has a "happy" expression. Furthermore, when the remaining battery power is low, the character V404 has a "sad" expression.

これにより、ユーザは、コンピュータ26の状態だけでなく、バッテリ28の状態も確認することが可能となる。なお、インタフェース装置10は、バッテリ28の状態をコンピュータ26を介して取得してもよい。 This allows the user to check not only the status of the computer 26 but also the status of the battery 28. Note that the interface device 10 may obtain the state of the battery 28 via the computer 26.

なお、補助装置は、処理装置に接続される機能を有する補助装置として、例えば、マイクとしてもよい。例えば、インタフェース装置10は、マイクが取得した音声レベルに応じて、補助装置に対応するキャラクタの状態を変化させてもよい。 Note that the auxiliary device may be, for example, a microphone as an auxiliary device having a function of being connected to the processing device. For example, the interface device 10 may change the state of the character corresponding to the auxiliary device depending on the audio level acquired by the microphone.

また、補助装置は、処理装置に接続される機能を有する補助装置として、例えば、モバイル無線ルータとしてもよい。例えば、インタフェース装置10は、モバイル無線ルータの通信状況に応じて、補助装置に対応するキャラクタの状態を変化させてもよい。 Further, the auxiliary device may be, for example, a mobile wireless router as an auxiliary device having a function of being connected to the processing device. For example, the interface device 10 may change the state of the character corresponding to the auxiliary device depending on the communication status of the mobile wireless router.

このように、ユーザは、例えば、インタフェース装置を特別に注視することなく、キャラクタを視認しただけで、所望する複数の装置の状態を認識してもよい。また、異なるキャラクタは、例えば処理装置20と、単体の機能を有する装置とで関連があるキャラクタの構成としてもよい。例えば、処理装置20に対応するキャラクタを擬人化されたキャラクタを表示し、単体の機能を有する装置のキャラクタを擬人化されたキャラクタのペットと表示してもよい。このような構成とすると、ユーザは処理装置と単体の機能を有する装置との関係性を認識することが可能となる。具体的には、処理装置が「人」、モバイルバッテリが「犬」で表示されていれば、ユーザは擬人化されたキャラクタである「人」がメインであり、擬人化されたキャラクタのペットとして「犬」が表示されてもよい。 In this manner, the user may, for example, recognize the desired states of the plurality of devices simply by visually recognizing the character, without specifically gazing at the interface device. Furthermore, the different characters may be configured as characters that are related to the processing device 20 and a device having a single function, for example. For example, the character corresponding to the processing device 20 may be displayed as an anthropomorphic character, and the character of the device having a single function may be displayed as a pet of the anthropomorphic character. With such a configuration, the user can recognize the relationship between the processing device and the device having a single function. Specifically, if the processing device is displayed as a "person" and the mobile battery is displayed as a "dog," the user's main character is the anthropomorphic character "human," and the user is treated as a pet of the anthropomorphic character. "Dog" may be displayed.

以上のように、インタフェース装置10は、処理装置20の状態を、キャラクタを用いた擬人化した態様による出力をするとよいが、これ以外にも、キャラクタの画像に処理装置の状態を示す画像を関連付けた出力としてもよい。このような出力としては、インタフェース装置10が、キャラクタが、処理装置20の状態を表示するオブジェクト(例えば、ボード状のオブジェクト)を持った状態で表示する出力がある。キャラクタとの関連付けによる出力は、キャラクタの音声に処理装置20の状態を示す音声を関連付けた出力とするとよい。このような出力としては、キャラクタ音声で処理装置20の状態を案内する出力がある。 As described above, the interface device 10 preferably outputs the state of the processing device 20 in an anthropomorphic form using a character, but in addition to this, it is also possible to associate an image indicating the state of the processing device with an image of a character. It may also be used as output. Such output includes an output in which the interface device 10 displays a character holding an object (for example, a board-shaped object) that displays the state of the processing device 20. The output associated with the character may be an output in which the voice of the character is associated with the voice indicating the state of the processing device 20. Such output includes an output that guides the status of the processing device 20 using a character voice.

[6.第6実施形態]
第6実施形態について説明する。第6実施形態は、ユーザが設定テーブル2300、コマンドテーブル1200を生成する実施形態である。なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。
[6. Sixth embodiment]
A sixth embodiment will be described. The sixth embodiment is an embodiment in which a user generates a setting table 2300 and a command table 1200. Note that the system configuration and the configuration of each device of this embodiment are almost the same as those of the first embodiment, and the following description will focus on the differences in this embodiment.

図19は、本実施形態におけるコマンド設定処理を説明するフローである。本処理は、処理装置20の制御部200が、ストレージ210に記憶されているプログラムを読み出して実行することで実現する処理である。 FIG. 19 is a flowchart for explaining command setting processing in this embodiment. This process is realized by the control unit 200 of the processing device 20 reading and executing a program stored in the storage 210.

ユーザにより、処理装置20において、コマンド設定処理の実行が指示されると(ステップS402;Yes)、制御部200は、コマンド設定処理のそれぞれのステップを実行する。 When the user instructs the processing device 20 to execute the command setting process (step S402; Yes), the control unit 200 executes each step of the command setting process.

まず、制御部200は、ユーザにより操作内容が入力される(ステップS404)。操作内容は、操作(例えば、音声操作等)において含まれるキーワードを登録してもよい。また、操作内容は、ユーザにより操作される言葉、文字列を登録してもよい。ユーザは、インタフェース装置10に対して、操作内容に登録された内容を一部又は全部音声で話しかけることで、対応する処理を実行することができる。 First, the control unit 200 receives input of operation details from the user (step S404). As the operation content, keywords included in the operation (for example, voice operation, etc.) may be registered. Further, as the operation content, words and character strings operated by the user may be registered. The user can execute the corresponding process by speaking to the interface device 10 some or all of the contents registered in the operation contents.

つづいて、制御部200は、処理内容を登録する(ステップS406)。処理内容を登録する場合、例えば、実行するプログラムや、実行するプログラムに対するパラメータ(引数)の設定を選択又は文字入力により登録してもよい。また、処理装置20において、ユーザにより実際に操作を行わせ、当該操作の内容を処理内容として登録してもよい。 Subsequently, the control unit 200 registers the processing details (step S406). When registering processing details, for example, a program to be executed and parameter (argument) settings for the program to be executed may be registered by selection or character input. Further, in the processing device 20, the user may actually perform an operation, and the content of the operation may be registered as the processing content.

つづいて、制御部200は、操作内容と、処理内容とが準備できたことから、この2つの内容に対応するコマンドを生成する。コマンドは、制御部200が任意に作成してもよいし、ユーザが作成してもよい。そして、ユーザは必要に応じて上述した内容を1又は複数登録することができる(ステップS410;No→ステップS404)。 Next, since the operation content and the processing content are ready, the control unit 200 generates a command corresponding to these two contents. The command may be created arbitrarily by the control unit 200 or by the user. Then, the user can register one or more of the above-mentioned contents as necessary (step S410; No→step S404).

設定が総て完了すると(ステップS410;Yes)、制御部200は、設定テーブル2300を更新する(ステップS412)。また、制御部200は、インタフェース装置10に記憶されているコマンドテーブル1200を更新する(ステップS414)。 When all settings are completed (step S410; Yes), the control unit 200 updates the setting table 2300 (step S412). The control unit 200 also updates the command table 1200 stored in the interface device 10 (step S414).

具体的には、制御部200は、上述した項目のうち、操作内容と、コマンドとを、インタフェース装置10に送信する。インタフェース装置10は、受信した操作内容と、コマンドとに基づいて、コマンドテーブル1200を更新する。 Specifically, the control unit 200 transmits the operation details and commands among the above-mentioned items to the interface device 10. The interface device 10 updates the command table 1200 based on the received operation details and commands.

また、ユーザがインタフェース装置10のキャラクタに話しかけた内容が解釈出来ない場合、インタフェース装置10は、操作を登録する動作を行ってもよい。例えば、インタフェース装置10は、ユーザから「○○をやって」と話しかけられたが解釈できないとき、「よくわからなかったから、やってみて」と処理の登録を促す。ユーザが、処理装置20において、登録したい処理を実行すると、制御部200はその処理に基づいて、「○○」というフレーズに対応する処理内容を登録することができる。制御部200は、処理の登録を促した後に行われた操作部250に対する操作を示す操作信号を取得し、その操作信号に基づいて、処理内容を登録してもよい。制御部200は、例えば、登録を促してから又は操作部250に対する操作を示す操作信号の取得を開始してから、所定時間内に行われた操作を示す操作信号に基づいて処理内容を特定し、その登録をしてもよい。あるいは、制御部200は、処理の登録を促した後に行われた操作部250に対する操作を応じて生成されたコマンドに基づいて、処理内容を登録してもよい。これにより、インタフェース装置10に表示されているキャラクタが、今まで解釈できなかったことが解釈できるようになった感覚をユーザに与えることができる。 Furthermore, if the content of what the user has said to the character of the interface device 10 cannot be interpreted, the interface device 10 may perform an operation to register the operation. For example, when the user says, "Do XX," but the interface device 10 cannot interpret it, the interface device 10 prompts the user to register the process, saying, "I don't understand, so try it." When the user executes a process to be registered in the processing device 20, the control unit 200 can register the process content corresponding to the phrase "○○" based on the process. The control unit 200 may acquire an operation signal indicating an operation on the operation unit 250 performed after prompting registration of the process, and may register the process content based on the operation signal. For example, the control unit 200 specifies the processing content based on an operation signal indicating an operation performed within a predetermined time after prompting registration or after starting acquisition of an operation signal indicating an operation on the operation unit 250. , you may register it. Alternatively, the control unit 200 may register the process content based on a command generated in response to an operation on the operation unit 250 performed after prompting the user to register the process. This allows the user to feel that the characters displayed on the interface device 10 can now interpret things that could not be interpreted before.

[7.第7実施形態]
第7実施形態について説明する。第7実施形態は、ユーザがシステムを利用した内容や、利用した履歴に基づいて、処理が変わる実施形態である。なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。
[7. Seventh embodiment]
A seventh embodiment will be described. The seventh embodiment is an embodiment in which processing changes based on the content of the user's use of the system and the history of use. Note that the system configuration and the configuration of each device of this embodiment are almost the same as those of the first embodiment, and the following description will focus on the differences in this embodiment.

本実施形態では、インタフェース装置10及び/又は処理装置20は、履歴情報を記憶するとよい。履歴情報は、例えばインタフェース装置10のストレージ110や、処理装置20のストレージ210に記憶される。 In this embodiment, the interface device 10 and/or the processing device 20 may store history information. The history information is stored, for example, in the storage 110 of the interface device 10 or the storage 210 of the processing device 20.

履歴情報は、例えばユーザがインタフェース装置10において話しかけた回数を含むようにするとよい。また、履歴情報は、例えば処理装置20がインタフェース装置10を介して処理を実行した回数を含むようにするとよい。また、履歴情報は、処理装置20が処理を実行した日時、処理内容を含むようにするとよい。また、履歴情報は、ユーザがインタフェース装置10に入力した内容を含むようにするとよい。また、履歴情報は、ユーザが入力した内容のうち、所定のキーワードを含むようにするとよい。 The history information may include, for example, the number of times the user has spoken at the interface device 10. Further, the history information may include, for example, the number of times the processing device 20 has executed a process via the interface device 10. Further, the history information preferably includes the date and time when the processing device 20 executed the process, and the content of the process. Further, it is preferable that the history information includes contents inputted into the interface device 10 by the user. Further, the history information may preferably include a predetermined keyword among the contents input by the user.

本実施形態は、処理装置20は、履歴情報を利用することにより、以下のような処理を実現することができる。 In this embodiment, the processing device 20 can implement the following processing by using history information.

(1)制限機能を解放する
例えば、履歴の回数に応じて、処理装置20が実行できる機能が増えていったり、ユーザが任意に設定をするという構成としてもよい。処理装置20は、例えば、履歴回数が3回までは、処理装置20において特定の処理だけを実行することができる。処理装置20は、履歴回数が10回までは、処理装置20において予め設定テーブル2300に記憶されている処理だけが実行できる。処理装置20は、履歴回数が11回以上は、ユーザが設定テーブル2300に新たな処理を登録することができるという構成にしてもよい。すなわち、ユーザの履歴に応じて、ユーザが入力可能な種類が変化してもよい。
(1) Releasing restricted functions For example, the number of functions that can be executed by the processing device 20 may increase depending on the number of times of history, or the user may set the functions arbitrarily. For example, the processing device 20 can only execute a specific process up to three times in history. The processing device 20 can only execute processes stored in advance in the setting table 2300 in the processing device 20 until the number of times in the history is 10. The processing device 20 may be configured such that the user can register a new process in the setting table 2300 if the history count is 11 or more. That is, the types of input that can be made by the user may change depending on the user's history.

このような構成にすると、ユーザが当該インタフェース装置10を多く利用するといったモチベーションを与えることができる。例えば、広告媒体としてインタフェース装置10を利用するときには、インタフェース装置10を優先的に使ってもらえるという効果がある。 With such a configuration, the user can be motivated to use the interface device 10 more often. For example, when the interface device 10 is used as an advertising medium, there is an effect that the interface device 10 can be used preferentially.

また、ユーザの使用回数に応じてできることが増えることから、ユーザは随時新しい機能を利用することになる。すなわち、ユーザにとってインタフェース装置10の習熟度に応じて段階的に機能を習得することが可能となる。 Furthermore, since the things that can be done increase depending on the number of times the user uses the device, the user will be able to use new functions from time to time. That is, it becomes possible for the user to learn the functions in stages according to the user's level of proficiency with the interface device 10.

また、処理装置20は、ユーザが未成年の場合、最初は利用できる機能を制限してもよい。例えば、処理装置20は、ユーザの使用回数が10回までは、ブラウザを起動させることは制限させるという制限を設けてもよい。ユーザが適切な会話をしているのであれば、インタフェース装置10は、使用回数を10回超えた場合にブラウザを起動させるフレーズを受け付けてもよい。 Furthermore, if the user is a minor, the processing device 20 may initially restrict the functions that can be used. For example, the processing device 20 may set a restriction such that the browser is not activated until the number of times the user uses it is 10 times. If the user is engaged in an appropriate conversation, the interface device 10 may accept a phrase that will launch the browser if the number of uses exceeds 10.

(2)キャラクタの変化させる
例えば、インタフェース装置10は、ユーザの履歴回数に応じて、キャラクタとして使用できる数が増えたり、キャラクタの外観を変更したりするとよい。例えば、インタフェース装置10は、履歴回数が100回まではキャラクタとして表示するのは1つであるが、100回を超える毎に、使用可能なキャラクタが1つずつ増やしてもよい。また、キャラクタの種類が有料のとき、インタフェース装置10は、履歴回数が多い場合は割引の処理をしてもよい。
(2) Changing the character For example, the interface device 10 may increase the number of characters that can be used or change the appearance of the character depending on the number of times the user has made a history. For example, the interface device 10 may display one character as a character until the history number is 100, but the number of usable characters may increase by one each time the history number exceeds 100. Further, when the type of character is paid, the interface device 10 may process a discount if the number of history is large.

また、インタフェース装置10は、ユーザの履歴回数に応じて、キャラクタの会話が増えたり、キャラクタの表示が増えてもよい。インタフェース装置10は、例えば、キャラクタは、履歴回数が少ないときは「オッケー!」と返すのみであるが、履歴回数が増えると「わかりました」「りょーかい」といった、異なる会話をするようにしてもよい。また、履歴回数に応じて、キャラクタの衣装が変化したり、アクセサリーを付けられるようになってもよい。また、キャラクタは進化するようにしてもよい。キャラクタが進化するとは、例えば、擬人化したキャラクタの場合、子供から大人等へキャラクタが変化してもよい。このように、ユーザが利用した履歴に応じて、キャラクタの出力を切り替えることにしてもよい。 Further, the interface device 10 may increase the number of conversations between the characters or the number of characters displayed depending on the number of times the user has logged. For example, the interface device 10 may cause the character to respond in a different way, such as ``Okay!'' when the number of history history is small, but ``Okay!'' as the number of history history increases. You may also do so. Furthermore, the character's costume may change or accessories may be added depending on the number of times of history. Furthermore, the character may evolve. When a character evolves, for example, in the case of an anthropomorphic character, the character may change from a child to an adult. In this way, the output of the character may be switched depending on the user's history of use.

このように、本実施形態によれば、ユーザの利用回数が多いと、ユーザが入力できる種類が増えたり、実行できる機能が増えたり、出力されるキャラクタが変化するようにしてもよい。 In this way, according to the present embodiment, the number of types of input by the user increases, the number of functions that can be executed increases, and the output characters may change as the number of times the user uses the app increases.

また、履歴情報で示される利用の履歴は、利用した回数の他にも、利用間隔、利用時間等であってもよい。また、利用履歴は、インタフェース装置の全体の利用の履歴であってもよいし、キャラクタ毎の利用の履歴や、アプリケーションの利用の履歴であってもよい。利用の履歴によりキャラクタの出力が変わることから、例えば、ユーザは多くシステムを利用することの動機付けになりうる。 Further, the usage history indicated by the history information may include usage intervals, usage time, etc., in addition to the number of usages. Further, the usage history may be a usage history of the entire interface device, a usage history of each character, or a usage history of an application. For example, since the output of the character changes depending on the usage history, this can motivate the user to use the system more often.

[8.第8実施形態]
第8実施形態について説明する。第8実施形態は、インタフェース装置10に必要な情報として、特定の情報が記憶されている実施形態である。なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。
[8. Eighth embodiment]
An eighth embodiment will be described. The eighth embodiment is an embodiment in which specific information is stored as information necessary for the interface device 10. Note that the system configuration and the configuration of each device of this embodiment are almost the same as those of the first embodiment, and the following description will focus on the differences in this embodiment.

例えば、インタフェース装置10は、処理装置20が実行アプリケーション2600を実行するときに必要となる特定の情報を、ストレージ110に記憶する。 For example, the interface device 10 stores specific information required when the processing device 20 executes the execution application 2600 in the storage 110.

ここで、特定の情報は、例えば、個人情報であってもよい。個人情報は、例えば、住所、氏名、生年月日等の情報や、カード情報等の決裁情報を含んでもよい。また、必要となる情報は、実行アプリケーション2600における、設定情報であってもよい。例えば、設定情報は、実行アプリケーション2600のカスタマイズに利用する情報であってもよい。また、設定情報は、実行アプリケーション2600のライセンス情報であってもよい。また、必要となる情報は、認証情報であってもよい。認証情報は、例えばネットワークのサービスへのログインIDや、パスワードであってもよい。また、認証情報はトークン情報であってもよい。 Here, the specific information may be, for example, personal information. The personal information may include, for example, information such as address, name, date of birth, and settlement information such as card information. Further, the necessary information may be setting information in the execution application 2600. For example, the setting information may be information used to customize the execution application 2600. Further, the setting information may be license information of the execution application 2600. Further, the required information may be authentication information. The authentication information may be, for example, a login ID for a network service or a password. Further, the authentication information may be token information.

処理装置20は、例えば図6のステップS154において、コマンド実行処理を実行するときに、インタフェース装置10に必要な情報を問い合わせてもよい。例えば、処理装置20から、必要となる情報を要求する信号をインタフェース装置10に送信する。インタフェース装置10は、要求された情報をストレージ110から読み出し、処理装置20に送信する。 The processing device 20 may inquire of the interface device 10 for necessary information when executing the command execution process, for example in step S154 in FIG. 6. For example, the processing device 20 sends a signal to the interface device 10 requesting necessary information. The interface device 10 reads the requested information from the storage 110 and sends it to the processing device 20.

インタフェース装置10に、必要となる情報を記憶することから、処理装置20に情報を記憶することがない。したがって、個人情報等を処理装置20に記憶する必要がなく、セキュリティの確保や、プライバシーの保護に配慮したシステムを提供することができる。また、インタフェース装置10に必要となる情報が記憶されていることから、例えば処理装置20が複数あるとき、それぞれの処理装置20において、設定情報に基づいて実行アプリケーション2600を実行することができる。ユーザは、処理装置20が異なっても、インタフェース装置10を介することで同じ設定を利用することが可能となる。 Since the necessary information is stored in the interface device 10, there is no need to store information in the processing device 20. Therefore, there is no need to store personal information or the like in the processing device 20, and a system that takes security and privacy into consideration can be provided. Further, since necessary information is stored in the interface device 10, for example, when there are a plurality of processing devices 20, the execution application 2600 can be executed in each processing device 20 based on the setting information. Even if the processing device 20 is different, the user can use the same settings via the interface device 10.

[9.適用例]
上述した実施形態における適用例について、以下説明する。
[9. Application example]
Application examples of the embodiments described above will be described below.

(1)コンピュータでの使用
処理装置20は、例えば自宅にあるコンピュータとしてもよい。インタフェース装置10を、自宅のコンピュータに接続することで、インタフェース装置10を介してコンピュータに対して処理を実行することができる。例えば、ユーザは、自分の好きなキャラクタを表示させることで、コンピュータを使用するときに楽しく利用することができる。
(1) Use in a computer The processing device 20 may be, for example, a computer at home. By connecting the interface device 10 to a computer at home, processing can be executed on the computer via the interface device 10. For example, a user can enjoy using a computer by displaying his/her favorite character.

(2)リモートワークでの使用
処理装置20は、リモートワークで使用する会社支給のコンピュータであってもよい。このとき、インタフェース装置10は、キャラクタとして、例えば会社のマスコットキャラクタを表示させたりしてもよい。アプリケーション2000は、必要最低限の機能しか実装していないため、コンピュータで実行してもメモリを制限したり、CPUの処理のリソースを多く使用したりすることはない。
(2) Use in remote work The processing device 20 may be a company-provided computer used in remote work. At this time, the interface device 10 may display, for example, a company mascot character as the character. Since the application 2000 has only the minimum necessary functions implemented, it does not limit memory or use many CPU processing resources even when executed on a computer.

また、インタフェース装置10は、処理装置20の状態を取得することが可能である。インタフェース装置10は、処理装置20の状態を、例えば管理サーバに送信してもよい。管理サーバは、処理装置20の状態を取得することで、例えばリモートワークにおける社員の勤務状況を把握することができる。 Additionally, the interface device 10 can acquire the status of the processing device 20. The interface device 10 may transmit the status of the processing device 20 to, for example, a management server. By acquiring the status of the processing device 20, the management server can grasp, for example, the working status of employees in remote work.

また、インタフェース装置10が、処理装置20の状態に応じて、キャラクタが注意を促す動作を行ってもよい。例えば、ユーザが会社用の装置である処理装置20で、業務に関係のないホームページをブラウザで見ているとき、インタフェース装置10は、キャラクタが「関係ありませんよ」や、「少し見過ぎではないですか?」と注意喚起をする演出をしてもよい。 Further, the interface device 10 may perform an action in which a character calls for attention depending on the state of the processing device 20. For example, when a user is viewing a homepage unrelated to work in a browser on the processing device 20, which is a company device, the interface device 10 may display a character saying, ``It doesn't matter,'' or ``You're not looking too much.'' You may also create a performance that calls for attention.

また、本システムにおいては、インタフェース装置10と、処理装置20との間をBLE等の通信で接続したときは、外部ネットワークを利用することなくインタフェース装置10を介して処理装置20を操作することが可能となる。したがって、セキュリティが確保された状態で、インタフェース装置10を、処理装置20と接続することができる。 Furthermore, in this system, when the interface device 10 and the processing device 20 are connected through communication such as BLE, it is possible to operate the processing device 20 via the interface device 10 without using an external network. It becomes possible. Therefore, the interface device 10 can be connected to the processing device 20 with security ensured.

また、リモートワークのシステムでは、インタフェース装置10のキャラクタを変更することができてもよい。例えば、インタフェース装置10は、会社のキャラクタや、ゆるキャラ等を表示してもよい。 Furthermore, in a remote work system, it may be possible to change the character of the interface device 10. For example, the interface device 10 may display a company character, a mascot character, or the like.

(3)教育での使用
処理装置20は、学校や教育機関で使用するコンピュータであってもよい。このとき、インタフェース装置10及び処理装置20を利用するのは生徒である子供となる。したがって、子供であるユーザは、インタフェース装置10を利用することで、キャラクタを介して処理装置20の処理を実行することができる。ユーザは、キャラクタに話しかけて処理装置20を操作していることになり、親しさを感じながら処理装置20の操作を行うことになる。
(3) Use in education The processing device 20 may be a computer used in a school or educational institution. At this time, the person who uses the interface device 10 and the processing device 20 is a child who is a student. Therefore, by using the interface device 10, a child user can execute the processing of the processing device 20 via the character. The user operates the processing device 20 by talking to the character, and thus operates the processing device 20 while feeling familiar with the character.

(4)レコメンドの処理
上述した実施形態で説明した様に、ユーザとキャラクタ(インタフェース装置10)の間で会話を複数回やり取りすることにより、レコメンドを行ってもよい。
(4) Recommendation Processing As described in the above embodiment, recommendations may be made by exchanging conversations multiple times between the user and the character (interface device 10).

例えば、ユーザがインタフェース装置10に「ブラウザを起動して」と発話する。インタフェース装置10は「何か見たいものある?」と確認をする。そうすると、ユーザはインタフェース装置10に「今話題になっていることは?」と発話する。 For example, the user speaks to the interface device 10, "Start the browser." The interface device 10 asks, "Is there anything you want to see?" Then, the user speaks to the interface device 10, ``What is the hot topic now?''.

インタフェース装置10は、処理装置20に対して、「話題になっていることを出力する」というコマンドを送信する。処理装置20は、コマンドに基づいて、ニュースサイトや、SNSを巡回することで、話題になっている情報を集めることができる。また、処理装置20は、同じニュースに対して、色々なところか複数情報を収集してもよい。例えば、ユーザだけでは集めきれなかったサイトとして、例えば、SNS(例えば、Twitter、Instagram、FaceBook等)からも情報を収集してもよい。 The interface device 10 transmits a command to the processing device 20 to “output what is being talked about.” The processing device 20 can collect trending information by visiting news sites and SNS based on commands. Furthermore, the processing device 20 may collect information from various sources or multiple sources for the same news. For example, information may also be collected from SNS (for example, Twitter, Instagram, FaceBook, etc.) as sites that could not be collected by the user alone.

また、処理装置20は、インタフェース装置10に収集した結果を応答情報として送信してもよい。インタフェース装置10は、この応答情報に応じてキャラクタと関連づく情報の出力を変化させるとよく、特に、キャラクタの表情を変化させるとよい。インタフェース装置10は、例えば悲しいニュースの場合は悲しい顔に表情を変化させ、落ち着いた声でニュースを読み上げてもよい。また、インタフェース装置10は、明るいニュースの場合は、楽しい顔に表情を変化させ、明るい声でニュースを読み上げてもよい。 Furthermore, the processing device 20 may transmit the collected results to the interface device 10 as response information. The interface device 10 preferably changes the output of information associated with the character in accordance with this response information, and particularly preferably changes the facial expression of the character. For example, in the case of sad news, the interface device 10 may change the facial expression to a sad face and read out the news in a calm voice. Further, in the case of bright news, the interface device 10 may change the facial expression to a happy face and read out the news in a bright voice.

また、インタフェース装置10は、使っているうちにキャラクタとの会話やキャラクタの表情や姿勢、動作等といったキャラクタのリアクションを変化させてもよい。インタフェース装置10は、例えば、ユーザが多く閲覧しているニュースの場合、ユーザの関心が高いと判定し、キャラクタの反応を普段より大きくしてもよい。 Further, while the interface device 10 is being used, the character's reactions such as conversation with the character, character's expression, posture, movement, etc. may be changed. For example, in the case of news that is viewed by many users, the interface device 10 may determine that the user is interested in the news and may make the character's reaction larger than usual.

(5)人工知能推論部を搭載する
インタフェース装置10は、さらに人工知能を利用した推論部を備えていてもよい。会話制御部1300は、推論部を利用した会話をユーザとおこなってもよい。また、キャラクタ制御部1400は、推論部を利用してキャラクタの状態を変化させてもよい。
(5) Equipped with an artificial intelligence inference unit The interface device 10 may further include an inference unit that utilizes artificial intelligence. The conversation control unit 1300 may have a conversation with the user using the inference unit. Further, the character control section 1400 may change the state of the character using an inference section.

(6)課金サービスを利用する
本システムを課金サービスに適用してもよい。例えば、インタフェース装置10及び/又は処理装置20は、課金サーバに接続する。そして、インタフェース装置10及び/又は処理装置20は、ユーザの現在の課金状況に応じて、利用できる機能を増やしたり、制限を解除してもよい。
(6) Using a billing service This system may be applied to a billing service. For example, the interface device 10 and/or the processing device 20 connect to a billing server. Then, the interface device 10 and/or the processing device 20 may increase the number of available functions or remove restrictions depending on the user's current billing status.

例えば、インタフェース装置10は、無料では処理装置20は1台しか登録できず、課金することで複数台の処理装置と接続可能とする構成にしてもよい。また、インタフェース装置10は、使用できる機能を課金することで開放してもよい。例えば、インタフェース装置10は、通常は音声入力のみしかできないが、課金することで上述した実施形態のチャット機能が利用できるようにしてもよい。 For example, the interface device 10 may be configured such that only one processing device 20 can be registered for free, but it can be connected to a plurality of processing devices by paying a fee. Further, the interface device 10 may be released by charging users with the functions that can be used. For example, although the interface device 10 normally allows only voice input, it may be possible to use the chat function of the above-described embodiment by charging a fee.

また、インタフェース装置10は、ユーザが課金しないかわりに、キャラクタが一定時間毎に広告を出力してもよい。また、キャラクタが一定時間毎に広告を出力するときに、ユーザが課金することで広告を非表示としてもよい。 Furthermore, the interface device 10 may allow the character to output advertisements at regular intervals instead of charging the user. Furthermore, when the character outputs an advertisement at regular intervals, the user may pay a fee to hide the advertisement.

また、インタフェース装置10は、種々のキャラクタを表示してもよい。例えば、Vtuberや、ゆるキャラ、アニメのキャラクタを表示してもよい。例えば、会社のキャラクタを無料で配布することで、システムは、インタフェース装置10を介した広告機能を提供してもよい。 Additionally, the interface device 10 may display various characters. For example, Vtubers, mascot characters, and anime characters may be displayed. For example, by distributing company characters for free, the system may provide advertising functionality via the interface device 10.

[10.変形例]
本発明は上述した各実施の形態に限定されるものではなく、種々の変更が可能である。
すなわち、本発明の要旨を逸脱しない範囲内において適宜変更した技術的手段を組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。
[10. Modified example]
The present invention is not limited to the embodiments described above, and various modifications are possible.
That is, embodiments obtained by combining appropriate modified technical means without departing from the gist of the present invention are also included within the technical scope of the present invention.

また、上述した実施形態は、説明の都合上、各実施形態を分けて説明しているが、可能な範囲で組み合わせて実行することが可能である。 In addition, although the embodiments described above are described separately for convenience of explanation, they can be combined and executed to the extent possible.

また、各実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。 Further, in each embodiment, the program that runs on each device is a program that controls a CPU, etc. (a program that causes a computer to function) so as to realize the functions of the above-described embodiments. The information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) during processing, and then stored in various ROM or HDD storage devices, and read out and modified by the CPU as necessary.・Writing is performed.

ここで、プログラムを格納する記録媒体としては、半導体媒体(例えば、ROMや、不揮発性のメモリカード等)、光記録媒体・光磁気記録媒体(例えば、DVD(Digital Versatile Disc)、CD(Compact Disc)、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等の何れであってもよい。 Here, the recording medium for storing the program includes a semiconductor medium (for example, ROM, nonvolatile memory card, etc.), an optical recording medium/magneto-optical recording medium (for example, DVD (Digital Versatile Disc), CD (Compact Disc), etc. ), BD, etc.), magnetic recording media (for example, magnetic tape, flexible disk, etc.).

また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバ装置の記憶装置も本発明に含まれるのは勿論である。 Furthermore, when distributing the program on the market, the program can be stored in a portable recording medium and distributed, or it can be transferred to a server computer connected via a network such as the Internet. In this case, it goes without saying that the storage device of the server device is also included in the present invention.

また、上述したデータは、装置内に記憶されるものではなく、外部の装置に記憶されて、適宜呼び出されてもよい。例えば、データをNAS(Network Attached Storage)に記憶したり、クラウド上に記憶したりしてもよい。 Furthermore, the data described above is not stored within the device, but may be stored in an external device and called up as appropriate. For example, data may be stored in NAS (Network Attached Storage) or on the cloud.

なお、本発明の範囲は、明細書に明示的に説明された構成や限定されるものではなく、本明細書に開示される本発明の様々な側面の組み合わせをも、その範囲に含むものである。本発明のうち、特許を受けようとする構成を、添付の特許請求の範囲に特定したが、現在の処は特許請求の範囲に特定されていない構成であっても、本明細書に開示される構成を、将来的に特許請求の範囲とする意思を有する。 Note that the scope of the present invention is not limited to the configuration explicitly described in the specification, but also includes combinations of various aspects of the invention disclosed in this specification. Of the present invention, the structure for which a patent is sought has been specified in the attached claims, but at present, even if the structure is not specified in the claims, it is not disclosed in this specification. We intend to include such configurations in the scope of claims in the future.

本願発明は上述した実施の形態に記載の構成に限定されない。上述した各実施の形態や変形例の構成要素は任意に選択して組み合わせて構成するとよい。また各実施の形態や変形例の任意の構成要素と、発明を解決するための手段に記載の任意の構成要素又は発明を解決するための手段に記載の任意の構成要素を具体化した構成要素とは任意に組み合わせて構成するとよい。これらについても本願の補正又は分割出願等において権利取得する意思を有する。「~の場合」「~のとき」という記載があったとしてもその場合やそのときに限られる構成として記載はしているものではない。これらの場合やときでない構成についても開示しているものであり、権利取得する意思を有する。また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えた構成についても開示しているものであり、権利取得する意思を有する。 The present invention is not limited to the configuration described in the embodiments described above. The components of each of the embodiments and modifications described above may be arbitrarily selected and combined. Also, any component of each embodiment or modification, any component described in the means for solving the invention, or a component that embodies any component described in the means for solving the invention. It may be configured in any combination. The applicant intends to acquire rights to these matters through amendments to the application or divisional applications. Even if there is a description of ``in the case of'' or ``in the case of'', the description is not intended to be limited to that case or at that time. We have also disclosed these cases and other configurations, and we intend to acquire the rights. Furthermore, the sections described in order are not limited to this order. It also discloses a configuration in which some parts have been deleted or the order has been changed, and we have the intention to acquire the rights.

また、意匠登録出願への変更により、全体意匠又は部分意匠について権利取得する意思を有する。図面は本装置の全体を実線で描画しているが、全体意匠のみならず当該装置の一部の部分に対して請求する部分意匠も包含した図面である。例えば当該装置の一部の部材を部分意匠とすることはもちろんのこと、部材と関係なく当該装置の一部の部分を部分意匠として包含した図面である。当該装置の一部の部分としては、装置の一部の部材としても良いし、その部材の部分としても良い。全体意匠はもちろんのこと、図面の実線部分のうち任意の部分を破線部分とした部分意匠を、権利化する意思を有する。また、装置の筐体の内部のモジュール・部材・部品等についても、図面に表示されているものは、いずれも独立して取引の対象となるものであって、同様に、意匠登録出願への変更を行って権利化を行う意思を有するものである。 In addition, the applicant intends to acquire rights to the entire design or partial design by converting the application to a design registration application. Although the drawing depicts the entire device using solid lines, the drawing includes not only the overall design but also the partial design claimed for some parts of the device. For example, it is a drawing that not only includes some members of the device as a partial design, but also includes some parts of the device as a partial design regardless of the members. The part of the device may be a part of the device or a part of the device. We intend to obtain rights not only for the entire design, but also for partial designs in which any part of the solid line part of the drawing is a broken line part. In addition, the modules, members, parts, etc. inside the device housing shown in the drawings are all subject to independent transactions, and similarly, they are included in the design registration application. There is an intention to make changes and obtain rights.

1 システム
10 インタフェース装置
100 制御部;110 ストレージ;120 ROM;130 RAM
140 表示部;150 入力部;160 音声入力部;162 音声出力部
170 通信部
1000 アプリケーション
1010 メッセージ解釈部;1020 コマンド生成部
1030 コマンド送信部;1040 応答情報受信部
1100 音声認識部
1200 コマンドテーブル
1300 会話制御部
1400 キャラクタ制御部
1500 情報取得部
20、22、24、26、28 処理装置
200 制御部;210 ストレージ;220 ROM;230 RAM
240 表示部;250 操作部;270 通信部
2000 アプリケーション
2010 コマンド受信部;2020 コマンド解釈部
2030 コマンド実行部;2040 応答情報処理部
2200 オペレーティングシステム(OS)
2300 設定テーブル
1 System 10 Interface device 100 Control unit; 110 Storage; 120 ROM; 130 RAM
140 Display section; 150 Input section; 160 Voice input section; 162 Voice output section 170 Communication section 1000 Application 1010 Message interpretation section; 1020 Command generation section 1030 Command transmission section; 1040 Response information reception section 1100 Voice recognition section 1200 Command table 1300 Conversation Control unit 1400 Character control unit 1500 Information acquisition unit 20, 22, 24, 26, 28 Processing device 200 Control unit; 210 Storage; 220 ROM; 230 RAM
240 Display section; 250 Operation section; 270 Communication section 2000 Application 2010 Command reception section; 2020 Command interpretation section 2030 Command execution section; 2040 Response information processing section 2200 Operating system (OS)
2300 Setting table

Claims (51)

相互に通信可能に接続される処理装置とインタフェース装置とを備え、
前記処理装置は、
前記インタフェース装置に対するユーザからの入力に応じた処理を実行する制御を行う制御部を有し、
前記インタフェース装置は、
前記入力を受け付ける受付部と、
ユーザに対して前記入力又は前記処理に応じた情報を所定のキャラクタとの関連付けにより出力する出力部と、
を有するシステム。
comprising a processing device and an interface device that are communicably connected to each other,
The processing device includes:
a control unit that performs control to execute processing according to input from a user to the interface device;
The interface device includes:
a reception unit that receives the input;
an output unit that outputs information according to the input or the processing to the user by associating it with a predetermined character;
A system with
前記出力部は、前記入力又は前記処理に応じた情報を、前記入力または前記処理に応じて変化する前記キャラクタの画像の表示により出力する
請求項1に記載のシステム。
The system according to claim 1, wherein the output unit outputs information according to the input or the processing by displaying an image of the character that changes according to the input or the processing.
前記入力又は前記処理に応じた情報により変化するキャラクタの画像は、当該キャラクタの表情又は当該キャラクタの動作が変化する画像である
請求項2に記載のシステム。
The system according to claim 2, wherein the image of the character that changes depending on the information according to the input or the processing is an image in which the facial expression of the character or the action of the character changes.
前記出力部は、前記入力または前記処理に応じた情報を、前記入力または前記処理に応じて変化する前記キャラクタの音声により出力する
請求項2又は3に記載のシステム。
The system according to claim 2 or 3, wherein the output unit outputs information according to the input or the processing using the voice of the character that changes according to the input or the processing.
前記処理装置は、表示により情報を出力する表示部を備え、
前記制御部は、実行した処理の結果を、前記処理装置側の表示部に出力し、
前記インタフェース装置の出力部は、前記処理が実行されたことを、前記キャラクタとの関連付けにより出力する
請求項1から4のいずれか一項に記載のシステム。
The processing device includes a display unit that outputs information by display,
The control unit outputs the results of the executed processing to a display unit on the processing device side,
The system according to any one of claims 1 to 4, wherein the output unit of the interface device outputs the fact that the process has been executed in association with the character.
前記処理装置と前記インタフェース装置とは、通信可能距離が所定距離以下である無線の通信路を介して接続され、又は有線の通信路を介して接続される
請求項1から5のいずれか一項に記載のシステム。
Any one of claims 1 to 5, wherein the processing device and the interface device are connected via a wireless communication path whose communicable distance is a predetermined distance or less, or connected via a wired communication path. system described in.
前記出力部は、前記処理装置の状態を前記キャラクタとの関連付けにより出力する
請求項1から6のいずれか一項に記載のシステム。
The system according to any one of claims 1 to 6, wherein the output unit outputs the state of the processing device in association with the character.
前記出力部は、前記処理装置の状態として、当該処理装置のリソースの状態に応じて出力を行う
請求項7に記載のシステム。
The system according to claim 7, wherein the output unit outputs the state of the processing device according to the state of resources of the processing device.
前記出力部は、前記処理装置のリソースの状態として、バッテリの状態を出力する
請求項7又は8に記載のシステム。
The system according to claim 7 or 8, wherein the output unit outputs a battery state as the resource state of the processing device.
前記出力部は、前記キャラクタの表情又は前記キャラクタの動作の変化により、前記処理装置の状態を出力する
請求項7から9の何れか一項に記載のシステム。
The system according to any one of claims 7 to 9, wherein the output unit outputs the state of the processing device based on a change in the facial expression of the character or an action of the character.
前記受付部は、前記ユーザからメッセージを受け付け、
前記制御部は、前記メッセージ又は前記メッセージに含まれるフレーズに基づいて処理を実行する
請求項1から10の何れか一項に記載のシステム。
The reception unit receives a message from the user,
The system according to any one of claims 1 to 10, wherein the control unit executes processing based on the message or a phrase included in the message.
前記受付部は、前記メッセージに基づいて、ユーザに再度メッセージを入力することを促し、
前記制御部は、前記メッセージ及び/又は再度受け付けたメッセージに基づいて処理を実行する
請求項11に記載のシステム。
The reception unit prompts the user to input a message again based on the message,
The system according to claim 11, wherein the control unit executes processing based on the message and/or the message received again.
前記インタフェース装置は、更に音声入力部を備え、
前記受付部は、前記音声入力部によりユーザから音声の入力を受け付ける
請求項1から12の何れか一項に記載のシステム。
The interface device further includes an audio input section,
The system according to any one of claims 1 to 12, wherein the reception unit receives voice input from a user through the voice input unit.
前記インタフェース装置は、前記入力を受け付けた音声からメッセージを認識し、
前記制御部は、前記メッセージ又は前記メッセージに含まれているフレーズに基づいて処理を実行する
請求項13に記載のシステム。
The interface device recognizes a message from the voice that has received the input,
The system according to claim 13, wherein the control unit executes processing based on the message or a phrase included in the message.
前記出力部は、前記ユーザから入力された音声に応じて前記キャラクタを変化して出力する
請求項13又は14に記載のシステム。
The system according to claim 13 or 14, wherein the output unit changes and outputs the character according to the voice input by the user.
前記受付部は、前記受け付けた入力に対応したコマンドを前記処理装置に送信し、
前記制御部は、前記コマンドを受信し、前記コマンドに対応した処理を実行する制御を行う
請求項1から15の何れか一項に記載のシステム。
The reception unit transmits a command corresponding to the received input to the processing device,
The system according to any one of claims 1 to 15, wherein the control unit receives the command and performs control to execute processing corresponding to the command.
前記コマンドは、前記処理装置のオペレーティングシステムの機能を利用するインタフェース又は前記処理装置において実行されるアプリケーションに対応する
請求項16に記載のシステム。
17. The system of claim 16, wherein the command corresponds to an interface that utilizes functionality of an operating system of the processing device or an application executed on the processing device.
前記制御部は、前記インタフェース装置に対するユーザからの入力に応じて、前記処理装置において実行されるオペレーティングシステムの機能を利用するインタフェース又は前記処理装置においてインストールされているアプリケーションを実行する
請求項1から17の何れか一項に記載のシステム。
17. The control unit executes an interface that utilizes a function of an operating system executed in the processing device or an application installed in the processing device in response to an input from a user to the interface device. The system described in any one of the above.
前記処理装置は、常駐しているアプリケーションにより、前記インタフェース装置に対するユーザからの入力を取得する
請求項1から18の何れか一項に記載のシステム。
19. A system according to any preceding claim, wherein the processing device obtains input from a user to the interface device by means of a resident application.
前記常駐しているアプリケーションは、前記インタフェース装置からコマンドを受信し、受信したコマンドを解釈することによりユーザからの入力を取得する
請求項19に記載のシステム。
20. The system of claim 19, wherein the resident application receives commands from the interface device and obtains input from a user by interpreting the received commands.
前記出力部は、前記処理装置とは異なる装置の状態に応じて、前記異なる装置の状態を出力する
請求項1から20のいずれか一項に記載のシステム。
The system according to any one of claims 1 to 20, wherein the output unit outputs the state of the different device depending on the state of the device different from the processing device.
前記異なる装置は、前記処理装置とは異なる機能を有する装置である
請求項21に記載のシステム。
The system according to claim 21, wherein the different device is a device having a different function from the processing device.
前記処理装置とは異なる機能を有する装置はバッテリであって、
前記出力部は、前記バッテリの状態に関連づけて、前記キャラクタを変化して出力する
請求項22に記載のシステム。
The device having a different function from the processing device is a battery,
The system according to claim 22, wherein the output unit changes and outputs the character in association with the state of the battery.
前記出力部は、前記処理装置と、前記処理装置とは異なる機能を有する装置とでは、異なるキャラクタを出力する
請求項21から23の何れか一項に記載のシステム。
The system according to any one of claims 21 to 23, wherein the output unit outputs different characters between the processing device and a device having a function different from that of the processing device.
前記出力部は、前記キャラクタ毎に異なるキャラクタ画像を表示する又は異なる音声を出力する
請求項24に記載のシステム。
The system according to claim 24, wherein the output unit displays a different character image or outputs a different sound for each character.
前記出力部は、前記状態を所定のキャラクタの状態と関連づけて出力する
請求項21から25の何れか一項に記載のシステム。
The system according to any one of claims 21 to 25, wherein the output unit outputs the state in association with the state of a predetermined character.
前記インタフェース装置は、更に異なる処理装置と接続可能であって、
前記インタフェース装置は、
第1の処理装置から取得した前記処理に応じた情報を、異なる第2の処理装置が処理を実行するときに利用するために送信する
請求項1から26の何れか一項に記載のシステム。
The interface device is further connectable with a different processing device,
The interface device includes:
The system according to any one of claims 1 to 26, wherein information corresponding to the processing acquired from the first processing device is transmitted for use when a different second processing device executes the processing.
前記処理に応じた情報は、前記第1の処理装置において検索する処理を実行したときの検索結果に関する情報を含む
請求項27に記載のシステム。
The system according to claim 27, wherein the information according to the process includes information regarding a search result when the first processing device executes the search process.
前記検索結果に関する情報は、位置情報である請求項28に記載のシステム。 The system according to claim 28, wherein the information regarding the search results is location information. 前記インタフェース装置は特定の情報を記憶しており、
前記制御部は、前記インタフェース装置から前記特定の情報を取得し、特定の情報を利用して処理を実行する
請求項1から29の何れか一項に記載のシステム。
the interface device stores specific information;
The system according to any one of claims 1 to 29, wherein the control unit acquires the specific information from the interface device and executes processing using the specific information.
前記特定の情報は、個人情報、前記処理を実行するときの設定情報、ログインに関する情報の何れかである
請求項30に記載のシステム。
The system according to claim 30, wherein the specific information is any one of personal information, setting information when executing the process, and information regarding login.
前記処理装置は、前記ユーザからの入力と、前記実行する処理とを対応付けて設定する設定部を更に備える
請求項1から31の何れか一項に記載のシステム。
The system according to any one of claims 1 to 31, wherein the processing device further includes a setting unit that associates and sets the input from the user and the process to be executed.
前記設定部は、ユーザから入力されたメッセージ又は特定のフレーズと、前記実行する処理とを対応付ける
請求項32に記載のシステム。
The system according to claim 32, wherein the setting unit associates a message or a specific phrase input by a user with the process to be executed.
前記特定のフレーズは、前記実行する処理とは関連を有しないフレーズである
請求項33に記載のシステム。
The system according to claim 33, wherein the specific phrase is a phrase that has no relation to the process to be executed.
前記実行する処理は、前記処理装置において実行するアプリケーション又はオペレーティングシステムの機能を呼び出すインタフェースである
請求項31から34の何れか一項に記載のシステム。
35. The system according to claim 31, wherein the executed process is an application executed on the processing device or an interface that calls a function of an operating system.
前記インタフェース装置は、前記コマンドと、前記メッセージとを記憶し、
前記受付部は、前記ユーザからメッセージの入力を受け付けたとき、当該メッセージに対応するコマンドを前記処理装置に送信し、
前記制御部は、前記コマンドに対応する処理を実行する
請求項31から35の何れか一項に記載のシステム。
the interface device stores the command and the message;
When the reception unit receives a message input from the user, the reception unit transmits a command corresponding to the message to the processing device,
The system according to any one of claims 31 to 35, wherein the control unit executes processing corresponding to the command.
前記設定部は、前記処理装置においてユーザから入力された操作に基づいて、前記実行する処理を特定する
請求項31から36の何れか一項に記載のシステム。
The system according to any one of claims 31 to 36, wherein the setting unit specifies the process to be executed based on an operation input by a user in the processing device.
前記設定部は、前記ユーザの入力に基づいて実行する処理を特定できないときに、前記処理装置においてユーザの操作に基づいて特定された処理を、前記入力と対応して設定する
請求項31から37の何れか一項に記載のシステム。
37. The setting unit sets a process specified based on the user's operation in the processing device in correspondence with the input when the process to be executed cannot be specified based on the user's input. The system described in any one of the above.
前記出力部は、前記ユーザが前記インタフェース装置を利用した履歴に応じて、前記キャラクタの出力を切り替える
請求項1から38の何れか一項に記載のシステム。
The system according to any one of claims 1 to 38, wherein the output unit switches the output of the character according to a history of use of the interface device by the user.
前記受付部は、前記ユーザが前記インタフェース装置を利用した履歴に応じて、前記ユーザから受付可能な入力の種類が変化する
請求項1から39の何れか一項に記載のシステム。
The system according to any one of claims 1 to 39, wherein the reception unit changes the type of input that can be accepted from the user depending on a history of the user's use of the interface device.
前記制御部は、前記ユーザが前記インタフェース装置を利用した履歴に応じて、実行する処理が変化する
請求項1から40の何れか一項に記載のシステム。
The system according to any one of claims 1 to 40, wherein the control unit changes the processing to be executed depending on the history of the user's use of the interface device.
前記処理装置は、ユーザからの文字の入力を受け付ける文字入力モードを有し、
前記出力部は、前記文字入力モードの入力に応じた情報に基づいて出力し、
前記制御部は、前記文字入力モードの入力に応じて指示された処理を実行する
請求項1から41の何れか一項に記載のシステム。
The processing device has a character input mode that accepts character input from a user,
The output unit outputs information based on the input in the character input mode,
The system according to any one of claims 1 to 41, wherein the control unit executes a process instructed in response to input of the character input mode.
前記文字入力モードは、ユーザの文字の入力と、インタフェース装置で出力されるキャラクタとの会話形式のやりとりを実現する機能を有する
請求項42に記載のシステム。
43. The system according to claim 42, wherein the character input mode has a function of realizing a conversational interaction between a user's character input and a character output by an interface device.
前記文字入力モードは、前記ユーザに入力された文字と、前記インタフェース装置から取得した文字とを会話形式で表示する
請求項42又は43に記載のシステム。
The system according to claim 42 or 43, wherein the character input mode displays characters input by the user and characters acquired from the interface device in a conversational format.
前記インタフェース装置は、当該インタフェース装置の環境に応じて、前記処理装置に対して文字入力モードを実行する信号を送信する
請求項42から44の何れか一項に記載のシステム。
45. The system according to any one of claims 42 to 44, wherein the interface device transmits a signal to the processing device to execute a character input mode depending on the environment of the interface device.
前記インタフェース装置の環境は、当該インタフェース装置が設置されている場所に基づく環境である
請求項45に記載のシステム。
46. The system of claim 45, wherein the environment of the interface device is an environment based on the location where the interface device is installed.
前記インタフェース装置が設置されている場所は、当該インタフェース装置が接続している接続先に応じて決定される
請求項46に記載のシステム。
47. The system according to claim 46, wherein the location where the interface device is installed is determined according to a connection destination to which the interface device is connected.
前記インタフェース装置の環境は、当該インタフェース装置が取得した音の音量レベルに応じて決定される
請求項45から47の何れか一項に記載のシステム。
48. The system according to any one of claims 45 to 47, wherein the environment of the interface device is determined depending on the volume level of sound acquired by the interface device.
前記インタフェース装置は、前記出力部を有する筐体を備え、
前記筐体は、前記キャラクタと関連する外観を有する
請求項1から48の何れか一項に記載のシステム。
The interface device includes a housing having the output section,
49. A system according to any preceding claim, wherein the housing has an appearance associated with the character.
処理装置と相互に通信可能に接続されるインタフェース装置であって、
前記入力を受け付ける受付部と、
ユーザに対して前記入力又は前記インタフェース装置に対するユーザからの入力に応じた処理に基づく情報を所定のキャラクタとの関連付けにより出力する出力部と、
を有するインタフェース装置。
An interface device that is communicably connected to the processing device,
a reception unit that receives the input;
an output unit that outputs information based on processing according to the input to the user or the input from the user to the interface device by associating it with a predetermined character;
An interface device having:
コンピュータを、請求項1から請求項49の何れか一項に記載のシステムの制御部として機能させるためのプログラム。 A program for causing a computer to function as a control unit of the system according to any one of claims 1 to 49.
JP2022055291A 2022-03-30 2022-03-30 System, interface apparatus, program, and the like Pending JP2023147653A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022055291A JP2023147653A (en) 2022-03-30 2022-03-30 System, interface apparatus, program, and the like

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022055291A JP2023147653A (en) 2022-03-30 2022-03-30 System, interface apparatus, program, and the like

Publications (1)

Publication Number Publication Date
JP2023147653A true JP2023147653A (en) 2023-10-13

Family

ID=88288432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022055291A Pending JP2023147653A (en) 2022-03-30 2022-03-30 System, interface apparatus, program, and the like

Country Status (1)

Country Link
JP (1) JP2023147653A (en)

Similar Documents

Publication Publication Date Title
KR102306624B1 (en) Persistent companion device configuration and deployment platform
US10357881B2 (en) Multi-segment social robot
US8942849B2 (en) Humanoid robot equipped with a natural dialogue interface, method for controlling the robot and corresponding program
US20170206064A1 (en) Persistent companion device configuration and deployment platform
KR101617665B1 (en) Automatically adapting user interfaces for hands-free interaction
US20180133900A1 (en) Embodied dialog and embodied speech authoring tools for use with an expressive social robot
US20150298315A1 (en) Methods and systems to facilitate child development through therapeutic robotics
AU2017228574A1 (en) Apparatus and methods for providing a persistent companion device
WO2016011159A1 (en) Apparatus and methods for providing a persistent companion device
US11120792B2 (en) System for processing user utterance and controlling method thereof
KR102545666B1 (en) Method for providing sententce based on persona and electronic device for supporting the same
US10140882B2 (en) Configuring a virtual companion
US9792825B1 (en) Triggering a session with a virtual companion
KR20210040856A (en) Interactive method of smart rearview mirror, apparatus, electronic device and storage medium
WO2016206645A1 (en) Method and apparatus for loading control data into machine device
JP2023147653A (en) System, interface apparatus, program, and the like
Neßelrath et al. SiAM-dp: A platform for the model-based development of context-aware multimodal dialogue applications
Marge et al. Spoken language interaction with robots: Research issues and recommendations, report from the NSF future directions workshop
US20040072498A1 (en) System and method for controlling toy using web
WO2018183812A1 (en) Persistent companion device configuration and deployment platform
KR102144891B1 (en) Humanoid robot developmnet framework system
Foen Exploring the human-car bond through an Affective Intelligent Driving Agent (AIDA)
WO2019054009A1 (en) Information processing device, information processing method and program
KR20220072561A (en) Electronic device and operating method for generating response for user input
JP2022047550A (en) Information processing apparatus and information processing method