JP2023147653A - System, interface apparatus, program, and the like - Google Patents
System, interface apparatus, program, and the like Download PDFInfo
- Publication number
- JP2023147653A JP2023147653A JP2022055291A JP2022055291A JP2023147653A JP 2023147653 A JP2023147653 A JP 2023147653A JP 2022055291 A JP2022055291 A JP 2022055291A JP 2022055291 A JP2022055291 A JP 2022055291A JP 2023147653 A JP2023147653 A JP 2023147653A
- Authority
- JP
- Japan
- Prior art keywords
- character
- user
- processing device
- interface device
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 727
- 238000000034 method Methods 0.000 claims abstract description 179
- 230000008569 process Effects 0.000 claims description 174
- 230000006870 function Effects 0.000 claims description 88
- 230000004044 response Effects 0.000 claims description 48
- 230000008921 facial expression Effects 0.000 claims description 42
- 230000008859 change Effects 0.000 claims description 35
- 238000004891 communication Methods 0.000 claims description 32
- 230000009471 action Effects 0.000 claims description 16
- 206010034719 Personality change Diseases 0.000 claims description 7
- 230000003993 interaction Effects 0.000 claims 1
- 230000033001 locomotion Effects 0.000 description 33
- 230000014509 gene expression Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 24
- 230000036544 posture Effects 0.000 description 13
- 238000013461 design Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 7
- 230000010365 information processing Effects 0.000 description 6
- 230000008450 motivation Effects 0.000 description 6
- 238000010295 mobile communication Methods 0.000 description 5
- 230000008451 emotion Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 235000019577 caloric intake Nutrition 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 241000238558 Eucarida Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 229920000915 polyvinyl chloride Polymers 0.000 description 1
- 239000004800 polyvinyl chloride Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 125000000391 vinyl group Chemical group [H]C([*])=C([H])[H] 0.000 description 1
- 229920002554 vinyl polymer Polymers 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、システム、インタフェース装置及びプログラム等に関する。 The present invention relates to a system, an interface device, a program, etc.
コンピュータ等の処理装置を制御することが可能な外部の装置が知られている。例えば、外部の装置に対して、ユーザが発話することにより、処理装置を制御することが可能な発明が、特許文献1、特許文献2、特許文献3に記載されている。
External devices that can control processing devices such as computers are known. For example, inventions in which a user can control a processing device by speaking to an external device are described in
本開示の目的の一つは、処理装置のインタフェースを異なる装置で実現するシステム等であり、従来と異なる技術を提供することである。 One of the purposes of the present disclosure is to provide a system or the like in which an interface of a processing device is realized by a different device, and a technology different from the conventional technology.
本発明の目的はこれに限定されず、本明細書及び図面等に開示される構成の部分から奏する効果を得ることを目的とする構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」「~可能である」などと記載した箇所を「~が課題である」と読み替えた課題が本明細書には開示されている。課題はそれぞれ独立したものとして記載しているものであり、各々の課題を解決するための構成についても単独で分割出願・補正等により権利取得する意思を有する。課題が明細書の記載から黙示的に把握されるものであっても、本出願人は本明細書に記載の構成の一部を補正又は分割出願にて特許請求の範囲とする意思を有する。またこれら独立の課題を組み合わせた課題を解決する構成についても開示しているものであり、権利取得する意思を有する。 The purpose of the present invention is not limited thereto, and the present invention intends to acquire rights through divisional applications, amendments, etc. for structures that aim to obtain effects from the parts of the structures disclosed in this specification, drawings, etc. For example, the present specification discloses a problem in which passages such as ``can be done'' or ``possible'' are read as ``the problem is.'' Each issue is described as an independent entity, and we intend to acquire rights to the structure for solving each issue individually through divisional applications, amendments, etc. Even if the problem is implicitly understood from the description of the specification, the present applicant has the intention to claim a part of the structure described in the specification in an amendment or divisional application. The company also discloses a structure that solves a problem that combines these independent problems, and has the intention to acquire the rights to it.
(1)上述した課題に鑑み、本実施形態のシステムは、相互に通信可能に接続される処理装置とインタフェース装置とを備え、前記処理装置は、前記インタフェース装置に対するユーザからの入力に応じた処理を実行する制御を行う制御部を有し、前記インタフェース装置は、前記入力を受け付ける受付部と、ユーザに対して前記入力又は前記処理に応じた情報を所定のキャラクタとの関連付けにより出力する出力部と、を有してもよい。 (1) In view of the above-mentioned problems, the system of the present embodiment includes a processing device and an interface device that are communicably connected to each other, and the processing device performs processing according to user input to the interface device. The interface device includes a reception unit that receives the input, and an output unit that outputs information corresponding to the input or the processing to the user by associating it with a predetermined character. and may have.
このようにすると、ユーザは、処理装置の外部にあるインタフェース装置に対する入力をすることで、そのインタフェース装置とは別の装置である処理装置に自身の入力に応じた処理を実行させるとともに、その入力又は実行させた処理に応じた情報をキャラクタとの関連付けにより、そのインタフェース装置を介して認識することができる。例えば、ユーザは、インタフェース装置を用いて処理装置を遠隔操作するとともに、その遠隔操作の結果を、そのインタフェース装置におけるキャラクタの演出をもって把握することができ、インタフェース装置を単に遠隔操作装置として用いるだけでなく、利用上の面白みを得ることができる。 In this way, by inputting input to the interface device external to the processing device, the user can cause the processing device, which is a device different from the interface device, to execute processing according to the user's input, and also Alternatively, information corresponding to the executed process can be recognized through the interface device by associating it with the character. For example, a user can use an interface device to remotely control a processing device and understand the results of the remote control through the presentation of a character on the interface device. You can get more fun using it without having to worry about it.
インタフェース装置が受け付け可能な入力としては、特に、ユーザが直感的に行うことができる入力とするとよく、例えば、ユーザが発する音声の入力や、ユーザが示すジェスチャ動作の入力等とするとよい。このようにすると、インタフェース装置に対するユーザの入力負担が軽減させることができる。 Inputs that can be accepted by the interface device are particularly preferably inputs that can be intuitively performed by the user, such as inputs of voice uttered by the user, inputs of gestural movements shown by the user, etc. In this way, the user's input burden on the interface device can be reduced.
処理装置が実行する処理としては、処理装置が実行可能な処理とするとよく、特に処理装置にインストールされたソフトウェアの機能により実行される処理とするとよい。ソフトウェアとしては、OS、又はOS上で動作するソフトウェアとするとよい。このようにすると、ユーザは、処理装置にインストールされているOS、又はOS上で動作するソフトウェアの機能により実行可能な処理を、外部のインタフェース装置に対する入力によって実行させることができる。ユーザは、処理装置に対して、OS、又はOS上で動作するソフトウェアや、それに実行させる処理を指示する操作をしなくてよいので、ユーザの入力負担を軽減させることができる。 The processing executed by the processing device is preferably a process executable by the processing device, and particularly preferably a process executed by a function of software installed in the processing device. The software may be an OS or software running on the OS. In this way, the user can execute a process that can be executed by the functions of the OS installed in the processing device or the software running on the OS by inputting it to the external interface device. Since the user does not have to operate the processing device to instruct the OS, the software running on the OS, or the processing to be executed by the OS, the input burden on the user can be reduced.
出力部は、ユーザが認識可能な情報をキャラクタと関連付けて出力するとよく、特にキャラクタの画像又は音声を出力するとよい。このようにすると、ユーザは、キャラクタと関連付けられて出力される自身の入力又は処理に応じた情報を認識しやすくなる。入力又は実行させた処理に応じた情報としては、入力を受け付けたことや、処理の実行を指示したこととしてもよいが、特に、処理の結果をユーザに認識させることのできる情報とするとよい。このようにすると、ユーザは、処理装置に実行させた処理の結果を、処理装置ではなく、インタフェース装置に表示されるキャラクタを通じて認識することができる。 The output unit preferably outputs user-recognizable information in association with the character, and particularly preferably outputs an image or voice of the character. In this way, the user can easily recognize the information that is output in association with the character and that corresponds to the user's input or processing. The information corresponding to the process input or executed may be information indicating that the input has been received or an instruction to execute the process, but it is particularly preferable to use information that allows the user to recognize the result of the process. In this way, the user can recognize the results of the processing performed by the processing device through the characters displayed on the interface device rather than through the processing device.
(2)前記出力部は、前記入力又は前記処理に応じた情報を、前記入力または前記処理に応じて変化する前記キャラクタの画像の表示により出力するとよい。 (2) The output unit may output information according to the input or the processing by displaying an image of the character that changes according to the input or the processing.
このようにすると、ユーザは、ユーザは、自身の入力又はその入力によって実行を指示した処理に応じて変化するキャラクタの画像を視認することができるため、そのキャラクタを通じた視覚的な面白みを得ることができる。このような視覚的な効果により、ユーザは、そのキャラクタへの親しみを感じやすくなり、ひいては、インタフェース装置を用いて処理装置に処理の実行を指示する強い動機づけとなる。この場合において、特に受付部が受け付け可能な入力を、ユーザが発する音声の入力とするとよい。このようにすると、ユーザがキャラクタと対面して会話をしているかのような感覚を得ることができ、ユーザがキャラクタとコミュニケーションをとりながら処理装置を遠隔操作しているかのような感覚をより強く得やすくすることができる。 In this way, the user can visually recognize the image of the character that changes according to the user's input or the process instructed to be executed by the user, so that the user can obtain visual interest through the character. Can be done. Such a visual effect makes it easier for the user to feel familiar with the character, which in turn provides a strong motivation to use the interface device to instruct the processing device to execute a process. In this case, it is particularly preferable that the input that the reception unit accepts is the voice input from the user. In this way, the user can feel as if he or she is having a face-to-face conversation with the character, and the user can even more strongly feel as if he or she is remotely controlling the processing device while communicating with the character. It can be made easier to obtain.
(3)前記入力又は前記処理に応じた情報により変化するキャラクタの画像は、当該キャラクタの表情又は当該キャラクタの動作が変化する画像とするとよい。 (3) The image of the character that changes depending on the information according to the input or the processing may be an image in which the facial expression of the character or the action of the character changes.
このようにすると、ユーザは、自身の入力又はその入力によって実行を指示した処理に応じて表情又は動作が変化するキャラクタの画像を視認することができるため、そのキャラクタとコミュニケーションをとっている感覚をより強く得ることができる。 In this way, the user can visually recognize the image of the character whose facial expressions or actions change according to the user's own input or the processing instructed to be executed by the user, so that the user can feel as if he or she is communicating with the character. You can get stronger.
(4)前記出力部は、前記入力または前記処理に応じた情報を、前記入力または前記処理に応じて変化する前記キャラクタの音声により出力するとよい。 (4) The output unit may output information according to the input or the processing using the voice of the character that changes according to the input or the processing.
このようにすると、ユーザは、自身の入力又はその入力によって実行を指示した処理に応じて変化するキャラクタの音声を聞くことができ、キャラクタを通じた聴覚的な面白みを得ることができる。ユーザは、そのキャラクタへの親しみを感じやすくなり、ひいては、インタフェース装置を用いて処理装置に処理の実行を指示する強い動機づけとなる。キャラクタの音声としては、キャラクタと関連付けて発せられる音声とするとよく、特にキャラクタの声とするとよい。この場合において、特に受付部が受け付け可能な入力を、ユーザが発する音声の入力とするとよい。このようにすると、ユーザがキャラクタと会話によるコミュニケーションをとりながら、処理装置を遠隔操作しているかのような感覚をより強く得やすくすることができる。 In this way, the user can hear the character's voice that changes depending on the user's input or the process instructed to be executed by the user's input, and can gain auditory interest through the character. The user becomes more likely to feel familiar with the character, which in turn provides a strong motivation to use the interface device to instruct the processing device to execute a process. The character's voice is preferably a voice that is uttered in association with the character, and is particularly preferably a character's voice. In this case, it is particularly preferable that the input that the reception unit accepts is the voice input from the user. In this way, the user can more easily feel as if he or she is remotely controlling the processing device while communicating with the character through conversation.
(5)前記処理装置は、実行した処理の結果を、前記処理装置側の表示部に出力し、前記インタフェース装置の出力部は、前記処理が実行されたことを、前記キャラクタとの関連付けにより出力するとよい。 (5) The processing device outputs the result of the executed process to a display unit on the processing device side, and the output unit of the interface device outputs the fact that the process has been executed by associating it with the character. It's good to do that.
このようにすると、ユーザは、処理装置により実行された処理の結果についてはその処理装置側で確認し、インタフェース装置については処理が実行されたことについてはキャラクタを通じて確認することができる。処理装置側の表示部は、処理装置が有する表示部とするとよいが、処理装置に接続された外部の表示装置の表示部とするとよい。
インタフェース装置は、処理装置を遠隔操作する装置として機能するほか、処理が実行されたことについてはキャラクタを通じて確認できるといった、例えば趣味的、玩具的な性質を持つ装置としても機能することができる。
In this way, the user can check the results of the processing executed by the processing device on the processing device side, and can confirm through the character that the processing has been executed on the interface device. The display section on the processing device side may be a display section included in the processing device, or may be a display section of an external display device connected to the processing device.
In addition to functioning as a device for remotely controlling a processing device, the interface device can also function as a device that has hobby-like or toy-like properties, such as being able to confirm through a character that processing has been executed.
(6)前記処理装置と前記インタフェース装置とは、通信可能距離が所定距離以下である無線の通信路を介して接続され、又は有線の通信路を介して接続されてもよい。 (6) The processing device and the interface device may be connected via a wireless communication path whose communicable distance is a predetermined distance or less, or may be connected via a wired communication path.
このようにすると、ユーザは、自身の近くにあるインタフェース装置に対する入力をすることで、同じく自身の近くにある処理装置に、その入力に応じた処理を実行させることができる。インタフェース装置だけでなく、処理装置が処理の実行を指示する入力を受け付け可能な構成とすると、ユーザはインタフェース装置及び処理装置のどちらを操作しても処理の実行を指示することができるが、インタフェース装置に対する入力によって処理の実行を指示した場合には、その入力または処理に応じた情報がキャラクタと関連づいた情報により出力されるので、ユーザがインタフェース装置を使用する動機付けにすることができる。通信可能距離が所定距離以下である無線の通信路としては、特に無線LAN又は近距離無線通信とするとよい。無線LANの規格としては、例えば、Wi-Fi(登録商標)とするとよい。近距離無線通信としては、例えば、Bluetooth(登録商標)とするとよい。 In this way, by inputting an input to an interface device near the user, the user can cause a processing device also near the user to execute a process corresponding to the input. If the configuration is such that not only the interface device but also the processing device can accept input for instructing the execution of a process, the user can instruct the execution of a process by operating either the interface device or the processing device. When an input to the device instructs execution of a process, information corresponding to the input or process is output as information associated with the character, which can motivate the user to use the interface device. As a wireless communication channel whose communicable distance is less than or equal to a predetermined distance, it is particularly preferable to use a wireless LAN or short-range wireless communication. As the wireless LAN standard, for example, Wi-Fi (registered trademark) may be used. For example, Bluetooth (registered trademark) may be used as short-range wireless communication.
(7)前記出力部は、前記処理装置の状態を前記キャラクタとの関連付けにより出力するとよい。 (7) The output unit may output the state of the processing device in association with the character.
このようにすると、処理装置の状態が、キャラクタとの関連付けによりインタフェース装置に出力されるので、ユーザは、処理装置の状態を、キャラクタを介して認識することができる。例えば、ユーザは、キャラクタが表示されているときは、単に処理装置の状態が数値等で出力されるに比べると、視覚的にも楽しく認識することができる。キャラクタとの関連付けによる出力は、特に、処理装置の状態をキャラクタを用いて擬人化した態様による出力であるとよい。処理装置の状態をキャラクタを用いて擬人化した態様による出力としては、後述するキャラクタの表情又はキャラクタの動作を変化させる方法を用いた出力がある。キャラクタとの関連付けによる出力は、キャラクタの画像に処理装置の状態を示す画像を関連付けた出力とするとよい。このような出力としては、キャラクタが、処理装置の状態を表示するオブジェクト(例えば、ボード状のオブジェクト)を持った状態で表示する出力がある。キャラクタとの関連付けによる出力は、キャラクタの音声に処理装置の状態を示す音声を関連付けた出力とするとよい。このような出力としては、キャラクタ音声で処理装置の状態を案内する出力がある。 In this way, the state of the processing device is output to the interface device in association with the character, so the user can recognize the state of the processing device through the character. For example, when a character is displayed, the user can recognize it more visually and visually than when the status of the processing device is simply output as a numerical value or the like. In particular, the output associated with the character may be an output in which the state of the processing device is personified using the character. An example of an output in which the state of the processing device is anthropomorphized using a character is an output using a method of changing the character's facial expression or character action, which will be described later. The output associated with the character may be an output in which an image indicating the state of the processing device is associated with the image of the character. Such output includes an output in which a character is displayed holding an object (for example, a board-shaped object) that displays the state of the processing device. The output associated with the character may be an output in which the voice of the character is associated with the voice indicating the state of the processing device. Such output includes an output that uses character voices to guide the status of the processing device.
(8)前記出力部は、前記処理装置の状態として、当該処理装置のリソースの状態に応じて出力を行うとよい。 (8) The output unit may output the processing device according to a resource state of the processing device.
このようにすると、処理装置の状態として、処理装置のリソースの状態が、キャラクタとの関連付けにより出力されるので、ユーザは、リソースの状態を、キャラクタを介して認識することができる。例えば、処理装置のリソースの状態に応じて、キャラクタの状態が出力されると、ユーザは楽しみをもって装置の状態を認識すること等が可能となる。そうすると、インタフェース装置において、単に処理装置のリソースの状態が文字等で出力されるだけに比べると、例えばキャラクタが表示されているときは、キャラクタを視認することで介して楽しく認識することができる。 In this way, the state of the resource of the processing device is output as the state of the processing device in association with the character, so the user can recognize the state of the resource through the character. For example, if the status of the character is output in accordance with the status of the resources of the processing device, the user can enjoy recognizing the status of the device. In this way, when a character is displayed on the interface device, for example, compared to simply outputting the resource status of the processing device in the form of characters, it is possible to recognize the character visually.
(9)前記出力部は、前記処理装置のリソースの状態として、バッテリの状態を出力するとよい。 (9) The output unit may output a battery state as the resource state of the processing device.
このようにすると、処理装置の状態として、処理装置のリソースの状態として、バッテリの状態がキャラクタと関連付けにより出力されるので、ユーザはキャラクタを介してバッテリの状態を認識することができる。バッテリの状態としては、例えば、バッテリの残量、バッテリが充電中又は放電中の少なくとも1つの状態とするとよい。 In this way, the battery status is output as the status of the processing device and the resource status of the processing device in association with the character, so the user can recognize the battery status through the character. The state of the battery may be, for example, at least one of the remaining amount of the battery, charging or discharging.
(10)前記出力部は、前記キャラクタの表情又は前記キャラクタの動作の変化により、前記処理装置の状態を出力するとよい。 (10) The output unit may output the state of the processing device based on a change in the facial expression of the character or an action of the character.
このようにすると、ユーザは、処理装置の状態が、キャラクタの表情や、キャラクタの動作の変化により出力されるので、キャラクタの表情や、動作を介して認識することができる。例えば、処理装置の状態により、キャラクタの表情を変化する構成としたり、キャラクタの動きが変化する構成としたりすると、ユーザはキャラクタの表情やキャラクタの動きを確認することで、処理装置の状態を把握することができる。 In this way, the user can recognize the state of the processing device through the character's facial expression and the character's motion, since it is output based on the character's facial expression and changes in the character's motion. For example, if the character's expression changes or the character's movement changes depending on the state of the processing device, the user can grasp the state of the processing device by checking the character's expression and character movement. can do.
(11)前記受付部は、前記ユーザからメッセージを受け付け、前記制御部は、前記メッセージ又はメッセージに含まれるフレーズに基づいて処理を実行するとよい。 (11) The reception unit may receive a message from the user, and the control unit may execute processing based on the message or a phrase included in the message.
このようにすると、ユーザは、メッセージをインタフェース装置に入力することで、そのメッセージ又はメッセージに含まれるフレーズに基づく処理を処理装置に実行させることができ、処理装置に実行させるべき処理を指示するための入力を直感的な方法で行うことができる。 In this way, by inputting a message into the interface device, the user can cause the processing device to execute a process based on the message or a phrase included in the message, and the user can instruct the processing device to execute the process. can be input in an intuitive manner.
(12)前記受付部は、前記メッセージに基づいて、ユーザに再度メッセージを入力することを促し、前記制御部は、前記メッセージ及び/又は再度受け付けたメッセージに基づいて処理を実行するとよい。 (12) The reception unit may prompt the user to input a message again based on the message, and the control unit may execute processing based on the message and/or the message received again.
このようにすると、ユーザは、インタフェース装置に入力し、入力したメッセージに基づき、再度メッセージを入力するが促され、再度メッセージを入力できる。ユーザはインタフェース装置と、メッセージのやり取りを行うことで、1又は複数のメッセージから所望する処理を実行させることができる。インタフェース装置は、ユーザから受け付けたメッセージから、更にユーザが所望する処理を特定するために、メッセージを受け付けることを促す。このように、メッセージを複数回、キャッチボールのようにやり取りすることで、ユーザはインタフェース装置のキャラクタと疑似的に会話をしているようなことを感じることができる。また、ユーザがメッセージを複数回入力することで、段階的に処理装置が実行する処理を特定することが可能となる。 In this way, the user inputs the message into the interface device, is prompted to input the message again based on the input message, and can input the message again. By exchanging messages with the interface device, the user can execute desired processing from one or more messages. The interface device prompts the user to accept the message in order to further specify the desired process from the message received from the user. In this way, by exchanging messages multiple times like a game of catch, the user can feel as if he or she is having a pseudo conversation with the character on the interface device. Furthermore, by inputting a message multiple times by the user, it becomes possible to specify the process to be executed by the processing device step by step.
(13)前記インタフェース装置は、更に音声入力部を備え、前記受付部は、前記音声入力部によりユーザから音声の入力を受け付けるようにするとよい。 (13) The interface device may further include a voice input section, and the reception section may accept voice input from the user through the voice input section.
このようにすると、ユーザは、インタフェース装置に入力するときに、音声を利用することができる。例えば、ユーザがインタフェース装置に話しかけた内容が、インタフェース装置に入力される。そして、ユーザがインタフェース装置に話しかけた内容に関連づけてキャラクタが出力される構成とするとよい。 This allows the user to use voice when inputting to the interface device. For example, what the user says to the interface device is input to the interface device. Then, it is preferable that the character be outputted in association with the content of what the user has said to the interface device.
(14)前記インタフェース装置は、前記入力を受け付けた音声からメッセージを認識し、前記制御部は、前記メッセージ又は前記メッセージに含まれているフレーズに基づいて処理を実行するとよい。 (14) The interface device may recognize a message from the input voice, and the control unit may execute processing based on the message or a phrase included in the message.
このようにすると、ユーザは、インタフェース装置に入力するときに、処理装置において実行したい処理に対応するメッセージ又はメッセージにフレーズを含めて話しかければ、処理装置において所望する処理を実行することができる。インタフェース装置は、入力を受け付けた音声からメッセージを認識する構成とするとよい。このようにすると、インタフェース装置で音声を認識することから、処理装置においては音声を認識する処理を実行しなくてもよい。 In this way, the user can execute the desired process on the processing device by including a message or a phrase in the message corresponding to the process the user wants to execute on the processing device when inputting information to the interface device. The interface device may be configured to recognize a message from the input voice. In this case, since the interface device recognizes the voice, the processing device does not need to perform a process of recognizing the voice.
(15)前記出力部は、前記ユーザから入力された音声に応じて前記キャラクタを変化して出力するとよい。 (15) The output unit may change and output the character according to the voice input by the user.
このようにすると、ユーザは、インタフェース装置に音声を発すると、インタフェース装置に音声に応じて変化するキャラクタを認識することができる。例えば、ユーザからインタフェース装置に話しかけると、インタフェース装置は会話に反応してキャラクタを変化させる。ここで、キャラクタの変化は、例えばキャラクタの動きを変化させてもよく、例えばキャラクタの表情、姿勢、動きといった表示や、キャラクタが発する音声を変化させてもよい。 In this way, when the user makes a sound to the interface device, the interface device can recognize a character that changes according to the sound. For example, when a user speaks to an interface device, the interface device changes its character in response to the conversation. Here, the change in the character may be, for example, changing the movement of the character, or may be, for example, changing the display of the character's facial expression, posture, and movement, or the voice emitted by the character.
(16)前記受付部は、前記受け付けた入力に対応したコマンドを前記処理装置に送信し、前記制御部は、前記コマンドを受信し、前記コマンドに対応した処理を実行する制御を行うことにするとよい。 (16) The reception unit transmits a command corresponding to the received input to the processing device, and the control unit receives the command and performs control to execute a process corresponding to the command. good.
このようにすると、ユーザは、インタフェース装置にコマンドを入力し、コマンドに対応した処理を処理装置で実行することができる。受付部が入力に対応したコマンドを処理装置に送信し、処理装置がコマンドに対応した処理を実行する構成では、処理装置は、インタフェース装置から受信したコマンドを解釈できれば十分であり、ユーザからの入力を受け付けたり、ユーザからの入力を解釈したりする構成としなくともよい。したがって、処理装置において実行されるアプリケーションは、処理装置のリソースを極力使用しないアプリケーションとするとよい。例えばアプリケーションに必要最低限の機能を実装すれば十分であり、例えば、処理装置で実行されるアプリケーションのサイズを小さくできたり、処理装置で実行されるアプリケーションは、処理装置のCPUの使用率が小さかったり、実行時のメモリを小さくできる。 In this way, a user can input a command to the interface device and have the processing device execute a process corresponding to the command. In a configuration in which the reception unit sends a command corresponding to the input to the processing device, and the processing device executes the processing corresponding to the command, it is sufficient for the processing device to be able to interpret the command received from the interface device, and it is sufficient for the processing device to be able to interpret the command received from the interface device. It is not necessary to have a configuration that accepts input from the user or interprets input from the user. Therefore, the application executed on the processing device is preferably an application that uses the resources of the processing device as little as possible. For example, it is sufficient to implement the minimum necessary functions in an application. For example, the size of an application executed on a processing device can be reduced, or an application executed on a processing device can be implemented by reducing the usage rate of the CPU of the processing device. or reduce memory at runtime.
(17)前記コマンドは、前記処理装置のオペレーティングシステムの機能を利用するインタフェース又は前記処理装置において実行されるアプリケーションに対応するとよい。 (17) The command may correspond to an interface that utilizes a function of an operating system of the processing device or an application executed on the processing device.
このようにすると、インタフェース装置から送信されたコマンドに基づいて、処理装置は、オペレーションシステムの機能を実行したり、アプリケーションを実行したりする構成としてもよい。オペレーションシステムの機能を実行するには、例えば、オペレーティングシステムがWindowsのときは、Windows API等を利用するとよい。 In this way, the processing device may be configured to execute the functions of the operating system or execute the application based on the commands sent from the interface device. To execute the functions of the operating system, for example, when the operating system is Windows, it is preferable to use the Windows API.
(18)前記制御部は、前記インタフェース装置に対するユーザからの入力に応じて、前記処理装置において実行されるオペレーティングシステムの機能を利用するインタフェース又は前記処理装置においてインストールされているアプリケーションを実行するとよい。 (18) The control unit may execute an interface that utilizes functions of an operating system executed in the processing device or an application installed in the processing device in response to input from a user to the interface device.
このようにすると、ユーザはインタフェース装置に対して所望する入力を行うことにより、処理装置において、ユーザの入力に応じてオペレーションシステムの機能を利用するインタフェースを実行したり、処理装置においてアプリケーションを実行したりすることができる。 In this way, by providing desired input to the interface device, the user can cause the processing device to execute an interface that utilizes the functions of the operating system in accordance with the user's input, or to execute an application in the processing device. You can
(19)前記処理装置は、常駐しているアプリケーションにより、前記インタフェース装置に対するユーザからの入力を取得するとよい。 (19) The processing device may obtain input from a user to the interface device using a resident application.
このようにすると、処理装置は、インタフェース装置におけるユーザからの入力を入力の取得を常駐しているアプリケーションにより受け付けることができる。処理装置は、アプリケーションを常駐していることから、ユーザが任意のタイミングでインタフェース装置に入力すると、処理装置ではいつでも入力を受け付けることが可能で、入力に応じた処理を実行することができる。また、処理装置において実行されるアプリケーションは、インタフェース装置からのコマンドを解釈する機能を少なくとも有していればよく、常駐メモリの容量を小さくしやすくできる。 In this way, the processing device can receive input from the user at the interface device by the application resident to obtain the input. Since the processing device has an application resident thereon, if a user inputs an input to the interface device at any time, the processing device can accept the input at any time and execute processing according to the input. Further, the application executed in the processing device only needs to have at least the function of interpreting commands from the interface device, and the capacity of the resident memory can be easily reduced.
(20)前記常駐しているアプリケーションは、前記インタフェース装置からコマンドを受信し、受信したコマンドを解釈することによりユーザからの入力を取得することができる。 (20) The resident application may receive commands from the interface device and obtain input from the user by interpreting the received commands.
このようにすると、処理装置は、常駐したアプリケーションにインタフェース装置からコマンドを受信して解釈をする機能を実装する構成としてもよい。処理装置において常駐するアプリケーションは、インタフェース装置から受信したコマンドを解釈できれば十分であることから、アプリケーションは処理装置のリソースの使用を最小限に抑えることができる。 In this case, the processing device may have a configuration in which a resident application is provided with a function of receiving and interpreting commands from the interface device. Since it is sufficient for an application residing in the processing device to be able to interpret commands received from the interface device, the application can minimize the use of the resources of the processing device.
(21)前記出力部は、前記処理装置とは異なる装置の状態に応じて、前記異なる装置の状態を出力するとよい。 (21) The output unit may output a state of the different device depending on a state of the device different from the processing device.
このようにすると、ユーザは、処理装置とは異なる装置の状態についても、キャラクタに関連付けられた状態で認識することができる。 In this way, the user can recognize the state of a device other than the processing device in association with the character.
(22)前記異なる装置は、前記処理装置とは異なる機能を有する装置とするとよい。 (22) The different device may be a device having a function different from that of the processing device.
このようにすると、ユーザは、異なる装置は、単なる情報処理装置等だけではなく、処理装置とは異なる装置であって当該処理装置とは異なる機能を有する装置に関する状態も、キャラクタに関連付けられた状態で認識することができる。 In this way, the user can see that the different device is not just an information processing device, etc., but also a state related to a device that is different from the processing device and has a different function from the processing device, as well as the state associated with the character. It can be recognized by
(23)前記処理装置とは異なる機能を有する装置はバッテリであって、前記出力部は、前記バッテリの状態に関連づけて、前記キャラクタを変化して出力するとよい。 (23) Preferably, the device having a function different from the processing device is a battery, and the output section changes and outputs the character in association with the state of the battery.
このようにすると、ユーザは、処理装置とは異なる装置であって当該処理装置とは異なる機能を有する装置としてバッテリの状態を、キャラクタに関連付けられた状態で認識することができる。また、バッテリの状態に応じてキャラクタが変化するとよい。例えば、充電中、充電完了、残量不足といったバッテリの状態が、キャラクタに関連づけてキャラクタの変化として出力されることで、ユーザはキャラクタを見ただけでバッテリの状態を認識することができる。また、ユーザは単なるバッテリの残量表示と比較し、キャラクタの状態に対応付いていることから、視覚的、聴覚的な楽しさを得ることができる。 In this way, the user can recognize the state of the battery as a device that is different from the processing device and has a different function from the processing device in association with the character. Further, it is preferable that the character changes depending on the state of the battery. For example, the battery status, such as charging, completed charging, or insufficient remaining power, is associated with a character and output as a change in the character, allowing the user to recognize the battery status just by looking at the character. Furthermore, compared to simply displaying the remaining battery power, the user can enjoy visual and auditory enjoyment because the display is associated with the character's status.
(24)前記出力部は、前記処理装置と、前記異なる装置とでは、異なるキャラクタを出力するとよい。 (24) The output unit may output different characters between the processing device and the different device.
このようにすると、処理装置と、処理装置とは異なる装置が異なるキャラクタとして表示されていることから、ユーザは、複数の装置の状態を一度に認識することができる。また、装置が異なると、異なるキャラクタが出力されることから、ユーザはキャラクタを見ただけで、認識したい装置の状態を把握することができる。また、キャラクタが装置に対応付いていることから、キャラクタの種類によってはユーザにとって親しみやすい状態や、ユーザにとって解りやすい状態で取得することができる。 In this way, since the processing device and devices different from the processing device are displayed as different characters, the user can recognize the states of multiple devices at once. Furthermore, since different characters are output for different devices, the user can grasp the state of the device he or she wants to recognize just by looking at the characters. Furthermore, since the characters are associated with the device, depending on the type of character, the characters can be acquired in a state that is familiar to the user or in a state that is easy for the user to understand.
(25)前記出力部は、前記キャラクタ毎に異なるキャラクタ画像を表示する又は異なる音声を出力するとよい。 (25) The output unit may display a different character image or output a different sound for each character.
このようにすると、ユーザは、複数ある装置の状態を、装置毎に異なるキャラクタの画像として視認することができる。また、装置毎に異なることから、例えば、ユーザが視認する画像は、処理装置と、当該処理装置とは異なる装置であって当該処理装置とは異なる機能を有する装置では、異なるキャラクタの画像と表示されることになる。 In this way, the user can visually recognize the status of a plurality of devices as images of different characters for each device. In addition, since each device is different, for example, the image that the user visually recognizes may be displayed as an image of a different character on a processing device and a device that is different from the processing device and has a different function from the processing device. will be done.
ユーザは、例えば、インタフェース装置を特別に注視することなく、キャラクタを視認しただけで、所望する装置の状態を認識することができる。また、異なるキャラクタは、例えば処理装置と、当該処理装置とは異なる装置であって当該処理装置とは異なる機能を有する装置とで関連があるキャラクタの構成とするとよい。例えば、処理装置に対応するキャラクタを擬人化されたキャラクタを表示し、当該処理装置とは異なる装置であって当該処理装置とは異なる装置のキャラクタを擬人化されたキャラクタのペットと表示するとよい。このような構成とすると、ユーザは処理装置と、当該処理装置とは異なる装置であって当該処理装置とは異なる機能を有する装置との関係性を認識することが可能となる。 For example, the user can recognize the desired state of the device simply by visually recognizing the character without looking specifically at the interface device. Further, the different characters may be configured as characters that are related to, for example, a processing device and a device that is different from the processing device and has a different function from the processing device. For example, a character corresponding to a processing device may be displayed as an anthropomorphic character, and a character of a device different from the processing device may be displayed as a pet of the anthropomorphized character. With such a configuration, the user can recognize the relationship between the processing device and a device that is different from the processing device and has a different function from the processing device.
(26)前記出力部は、前記状態を所定のキャラクタの状態と関連づけて出力するとよい。 (26) The output unit may output the state in association with the state of a predetermined character.
このようにすると、ユーザは、処理装置の状態、処理装置とは異なる装置の状態又はバッテリの状態を、キャラクタと関連付けて認識することができる。特に、処理装置の状態、処理装置とは異なる装置の状態又はバッテリの状態を、キャラクタに擬人化した態様により出力されるようにするとよい。このようにすると、ユーザは、キャラクタの状態に接することで、処理装置の状態、処理装置とは異なる装置の状態又はバッテリの状態を、直感的に認識しやすくなるとともに、キャラクタの状態と関連づくことによる面白みも得ることができる。キャラクタの状態と関連づけた態様、又はキャラクタに擬人化した態様としては、処理装置の状態、処理装置とは異なる装置の状態又はバッテリの状態に応じて、キャラクタの表情や姿勢、キャラクタの音声その他のキャラクタの挙動を変化させることとするとよい。このようにすると、ユーザは、単に処理装置の状態、処理装置とは異なる装置の状態又はバッテリの状態を把握できるだけでなく、キャラクタを通じた面白みを得ることができる。出力は、キャラクタの画像、キャラクタの音声又はこれらの組み合わせとすると特に良い。 In this way, the user can recognize the state of the processing device, the state of a device different from the processing device, or the state of the battery in association with the character. In particular, it is preferable that the state of the processing device, the state of a device different from the processing device, or the state of the battery be output in a form anthropomorphized into a character. In this way, by coming into contact with the character's state, the user can easily intuitively recognize the state of the processing device, the state of a device different from the processing device, or the state of the battery, and can also relate it to the character's state. You can also get some fun out of it. Aspects related to the character's state or anthropomorphized to the character include the character's expression, posture, character's voice, etc., depending on the state of the processing device, the state of a device different from the processing device, or the state of the battery. It is preferable to change the behavior of the character. In this way, the user can not only grasp the state of the processing device, the state of a device other than the processing device, or the state of the battery, but also have fun through the characters. It is particularly advantageous if the output is an image of the character, a sound of the character, or a combination thereof.
(27)前記インタフェース装置は、更に異なる処理装置と接続可能であって、前記インタフェース装置は、第1の処理装置から取得した前記処理に応じた情報を、異なる第2の処理装置が処理を実行するときに利用するために送信するとよい。 (27) The interface device can be further connected to a different processing device, and the interface device allows a different second processing device to execute processing on information corresponding to the processing acquired from the first processing device. It is a good idea to send it for use when doing so.
このようにすると、ユーザはインタフェース装置を介して、第1の処理装置に処理を実行する指示を行い、その実行した結果に基づいて、第2の処理装置の処理を実行することができる。ユーザは、第1の処理装置と、第2の処理装置という異なった装置において、処理の結果を利用して連携した処理を実行することができる。 In this way, the user can instruct the first processing device to execute a process via the interface device, and can execute the process of the second processing device based on the executed result. A user can execute linked processing using processing results in different devices, such as a first processing device and a second processing device.
(28)前記処理に応じた情報は、前記第1の処理装置において検索する処理を実行したときの検索結果に関する情報を含むことにするとよい。 (28) The information according to the process may include information regarding a search result when the first processing device executes the search process.
このようにすると、ユーザはインタフェース装置を介して、第1の処理装置で検索処理を実行することができる。そして、ユーザは、この検索処理の実行結果を利用して、第2の処理装置において、新たな処理を実行することができる。 In this way, the user can execute the search process on the first processing device via the interface device. The user can then use the execution results of this search process to execute new processing in the second processing device.
(29)前記検索結果に関する情報は、位置情報であるとよい。 (29) The information regarding the search results may be location information.
このようにすると、ユーザはインタフェース装置を介して、第1の処理装置において検索した検索結果として位置情報を利用して第2の処理装置において新たな処理を実行できてもよい。 In this way, the user may be able to execute a new process in the second processing device via the interface device using the location information as a search result obtained in the first processing device.
(30)前記インタフェース装置は特定の情報を記憶しており、前記制御部は、前記インタフェース装置から前記特定の情報を取得し、特定の情報を利用して処理を実行するとよい。 (30) The interface device may store specific information, and the control unit may acquire the specific information from the interface device and execute processing using the specific information.
このようにすると、ユーザは、処理装置において処理を実行するときに、インタフェース装置に記憶された特定の情報を利用して処理を実行することができる。このような構成とすると、特定の情報がインタフェース装置に記憶されていることから、例えば、ユーザインタフェース装置が接続する処理装置を変えたとすると、同じ特定の情報を利用することができる。 In this way, when a user executes a process on the processing device, the user can execute the process using specific information stored in the interface device. With such a configuration, since specific information is stored in the interface device, for example, if the processing device to which the user interface device is connected is changed, the same specific information can be used.
(31)前記特定の情報は、個人情報、前記処理を実行するときの設定情報、ログインに関する情報の何れかにするとよい。 (31) The specific information may be any one of personal information, setting information when executing the process, and information regarding login.
このようにすると、ユーザは、インタフェース装置に、特定の情報として個人情報、処理を実行するときの設定情報、ログイン情報を記憶することができる。ユーザは個人情報等を処理装置ではなく、インタフェース装置に記憶することができるため、処理装置が変わっても、インタフェース装置に記憶されている個人情報等を利用することができる。また、個人情報等を処理装置に記憶せずに、処理装置とは異なるインタフェース装置に記憶するとよい。例えば、ユーザが、自分が個人的に使用するインタフェース装置に個人情報等を記憶することで、処理装置には個人情報等が記憶されなくなり、セキュリティの高いシステムを提供するとよい。 In this way, the user can store personal information, setting information for executing processing, and login information as specific information in the interface device. Since the user can store personal information etc. in the interface device rather than the processing device, the user can still use the personal information etc. stored in the interface device even if the processing device changes. Furthermore, it is preferable to store personal information and the like in an interface device different from the processing device instead of storing it in the processing device. For example, it is preferable that a user stores personal information and the like in an interface device that he/she personally uses, so that the personal information and the like are no longer stored in the processing device, thereby providing a system with high security.
(32)前記処理装置は、前記ユーザからの入力と、前記実行する処理とを対応付けて設定する設定部を更に備えるとよい。 (32) The processing device may further include a setting unit that associates and sets the input from the user and the process to be executed.
このようにすると、ユーザは、処理装置において実行する処理に対応して、ユーザが入力する内容を設定することができる。このようにすると、ユーザはインタフェース装置に記憶されていない内容であっても、処理装置において実行する処理を改めて設定することができる。このような構成では、例えば、ユーザが所望する任意の内容で、処理装置において実行する処理を登録することができるようになり、ユーザが自分の好みにカスタマイズすることができる。 In this way, the user can set the content to be input by the user in accordance with the process to be executed by the processing device. In this way, the user can reconfigure the process to be executed in the processing device even if the content is not stored in the interface device. With such a configuration, for example, the user can register the process to be executed in the processing device with any desired content, and the user can customize the process to his or her liking.
(33)前記設定部は、ユーザから入力されたメッセージ又は特定のフレーズと、前記実行する処理とを対応付けてもよい。 (33) The setting unit may associate a message or a specific phrase input by the user with the process to be executed.
このようにすると、ユーザは、入力するメッセージや、フレーズに対応して、処理装置において実行する処理を設定することができる。このような構成では、例えば、ユーザが所望するメッセージの内容や、特定のフレーズに処理装置において実行する処理を登録することができるようになり、ユーザが自分の好みにカスタマイズすることができる。 In this way, the user can set the process to be executed in the processing device in response to the input message or phrase. With such a configuration, the user can, for example, register the content of the message desired by the user or the process to be executed by the processing device in a specific phrase, allowing the user to customize the message to his or her liking.
(34)前記特定のフレーズは、前記実行する処理とは関連を有しないフレーズであってもよい。 (34) The specific phrase may be a phrase that has no relation to the process to be executed.
このようにすると、ユーザは、処理装置において実行する処理とは関連の有さないフレーズであっても、任意に設定することができる。ここで、実行する処理とは関連を有しないフレーズとは、例えば「おはよう」「さようなら」「おやすみなさい」等の、その言葉だけでは直接処理とは関連しないフレーズであってもよい。 In this way, the user can arbitrarily set a phrase even if it is a phrase that is not related to the process executed by the processing device. Here, phrases that are not related to the process to be executed may be phrases such as "good morning," "goodbye," and "good night," which are not directly related to the process.
(35)前記実行する処理は、前記処理装置において実行するアプリケーション又はオペレーティングシステムの機能を呼び出すインタフェースであってもよい。 (35) The executed process may be an application executed on the processing device or an interface that calls a function of an operating system.
このようにすると、ユーザは、処理装置において実行するアプリケーション、処理装置においてオペレーティングシステムの機能を呼び出すインタフェースを、特定のフレーズと対応して設定することができる。これにより、ユーザは任意の処理や、任意のプログラムを、ユーザの好むフレーズに対応して設定することができる。 In this way, the user can set the application to be executed on the processing device and the interface for calling the function of the operating system on the processing device in correspondence with a specific phrase. This allows the user to set any process or program in accordance with the user's preferred phrase.
(36)前記インタフェース装置は、前記コマンドと、前記メッセージとを記憶し、前記受付部は、前記ユーザからメッセージの入力を受け付けたとき、当該メッセージに対応するコマンドを前記処理装置に送信し、前記制御部は、前記コマンドに対応する処理を実行するとよい。 (36) The interface device stores the command and the message, and when the reception unit receives a message input from the user, the reception unit transmits a command corresponding to the message to the processing device, and The control unit preferably executes processing corresponding to the command.
このようにすると、インタフェース装置は、ユーザからメッセージの入力を受け付けたとき、当該メッセージに対応するコマンドを処理装置に送信することができる。処理装置は、インタフェース装置からコマンドを受信し、コマンドに対応する処理を実行するとよい。処理装置は、コマンドをインタフェース装置から受信すればよく、ユーザから入力メッセージの入力を直接受け付けたり、受けつけたメッセージの解釈をしたりする必要がない。 In this way, when the interface device receives a message input from the user, it can send a command corresponding to the message to the processing device. The processing device may receive commands from the interface device and perform processing corresponding to the commands. The processing device only needs to receive commands from the interface device, and does not need to directly accept input messages from the user or interpret received messages.
(37)前記設定部は、前記処理装置においてユーザから入力された操作に基づいて、前記実行する処理を特定するとよい。 (37) The setting unit may specify the process to be executed based on an operation input by a user in the processing device.
このようにすると、ユーザは、ユーザからの入力に対応して、処理装置において実行する処理を設定するときに、処理装置において入力された操作に基づいて処理を設定することができる。ユーザは、処理装置において操作を行えばよく、簡易に処理を設定することができる。 In this way, when setting a process to be executed on the processing device in response to an input from the user, the user can set the process based on the operation input on the processing device. The user only needs to operate the processing device and can easily set the processing.
(38)前記設定部は、前記ユーザの入力に基づいて実行する処理を特定できないときに、前記処理装置においてユーザの操作に基づいて特定された処理を、前記入力と対応して設定するとよい。 (38) When the setting unit cannot specify a process to be executed based on the user's input, it is preferable that the setting unit sets a process specified based on the user's operation in the processing device in correspondence with the input.
このようにすると、ユーザは、インタフェース装置に入力したが、当該入力した内容に基づいて実行する処理が特定できない場合、処理装置において、ユーザが操作をして処理を特定するとよい。システムは、このときユーザが操作をして特定した処理を、ユーザがインタフェース装置に行った入力と対応して設定するとよい。ユーザは、新たな処理を登録したいときには、処理装置において処理を実行するための操作を行うことで、ユーザが行う入力に簡単に対応付けて設定することができる。 In this way, when the user inputs information into the interface device but cannot specify a process to be executed based on the input contents, the user may perform an operation on the processing device to specify the process. The system may set the process specified by the user's operation in correspondence with the input made by the user to the interface device. When the user wants to register a new process, by performing an operation to execute the process on the processing device, the user can easily set the new process in association with the input performed by the user.
(39)前記出力部は、前記ユーザが前記インタフェース装置を利用した履歴に応じて、前記キャラクタの出力を切り替えることにするとよい。 (39) Preferably, the output unit switches the output of the character depending on a history of the user's use of the interface device.
このようにすると、ユーザがインタフェース装置を利用した履歴に応じて、キャラクタの出力が切り替わることになる。例えば、ユーザの利用回数が多いと、キャラクタの表示が変わったり、キャラクタが進化したりするようにするとよい。ユーザの利用した履歴によりキャラクタの出力が変わることから、例えば、ユーザは多くシステムを利用することの動機付けになり得る。 In this way, the output of the character will be switched depending on the history of the user's use of the interface device. For example, if the user uses the site many times, the display of the character may change or the character may evolve. Since the output of the character changes depending on the user's usage history, the user may be motivated to use the system more often, for example.
(40)前記受付部は、前記ユーザが前記インタフェース装置を利用した履歴に応じて、前記ユーザから受付可能な入力の種類が変化するするとよい。 (40) The reception unit may change the type of input that can be accepted from the user depending on a history of the user's use of the interface device.
このようにすると、ユーザがインタフェース装置を利用した履歴に基づいて、インタフェース装置が受付可能な入力の種類が変化する。例えば、ユーザがインタフェース装置を利用する回数が多いほど、色々な入力を受けつけ可能な構成とするとよい。このような構成のときは、ユーザは、多くシステムを利用することの動機付けになり得る。 In this way, the type of input that the interface device can accept changes based on the user's history of using the interface device. For example, the more times a user uses the interface device, the more various inputs may be accepted. With such a configuration, the user may be motivated to use the system more often.
(41)前記制御部は、前記ユーザが前記インタフェース装置を利用した履歴に応じて、実行する処理が変化するようにするとよい。 (41) Preferably, the control unit changes the process to be executed depending on a history of the user using the interface device.
このようにすると、ユーザがインタフェース装置を利用した履歴に基づいて、処理装置において実行する処理が変化する。例えば、ユーザがインタフェース装置を利用する回数が多いほど、処理装置において実行可能な処理を増やすという構成とするとよい。このような構成のときは、ユーザは、多くシステムを利用することの動機付けになり得る。 In this way, the processing executed by the processing device changes based on the history of the user's use of the interface device. For example, it may be configured such that the more times a user uses the interface device, the more processes that can be executed by the processing device are increased. With such a configuration, the user may be motivated to use the system more often.
(42)前記処理装置は、ユーザからの文字の入力を受け付ける文字入力モードを有し、前記出力部は、前記文字入力モードの入力に応じた情報に基づいて出力し、前記制御部は、前記文字入力モードの入力に応じて指示された処理を実行することにするとよい。 (42) The processing device has a character input mode that accepts character input from a user, the output unit outputs information based on the input in the character input mode, and the control unit It is preferable to execute the process instructed in response to the input in the character input mode.
このようにすると、ユーザは、インタフェース装置の操作だけでなく、処理装置を操作することによっても処理の実行を指示でき、インタフェース装置で出力される情報出力に反映できる。 In this way, the user can instruct execution of processing not only by operating the interface device but also by operating the processing device, and this can be reflected in the information output from the interface device.
(43)前記文字入力モードは、ユーザの文字の入力と、インタフェース装置で出力されるキャラクタとの会話形式のやりとりを実現する機能を有するとよい。 (43) The character input mode preferably has a function of realizing conversational exchange between the user's character input and the characters output by the interface device.
このようにすると、ユーザは、処理装置に文字を入力することによって、インタフェース装置で出力されるキャラクタと会話形式のコミュニケーションをとる感覚を得ることができる。 In this way, by inputting characters into the processing device, the user can get the feeling of communicating in a conversational manner with the characters output by the interface device.
(44)前記文字入力モードは、前記ユーザに入力された文字と、前記インタフェース装置から取得した文字とを会話形式で表示するようにするとよい。 (44) The character input mode may display characters input by the user and characters acquired from the interface device in a conversational format.
このようにすると、ユーザは、文字入力を行うことで、インタフェース装置から出力されているキャラクタと、文字で会話をする、いわゆるチャットのようなことをキャラクタと行っているような感覚を得ることができる。 In this way, by inputting characters, the user can feel as if he or she is having a chat-like conversation with the character output from the interface device. can.
(45)前記インタフェース装置は、当該インタフェース装置の環境に応じて、前記処理装置に対して文字入力モードを実行する信号を送信するようにするとよい。 (45) The interface device may transmit a signal for executing a character input mode to the processing device depending on the environment of the interface device.
このようにすると、インタフェース装置の環境に応じて、処理装置において文字入力が可能なモードに切り替わり、ユーザが処理装置において文字入力を行うことができる。例えば、インタフェース装置の環境に応じて、処理装置を用いた遠隔操作で処理装置に処理装置を実行させるようにするのか、又は処理装置の文字入力モードにより当該処理装置の処理を実行するようにするのかを、制御することができる。 In this way, depending on the environment of the interface device, the processing device is switched to a mode in which character input is possible, and the user can input characters in the processing device. For example, depending on the environment of the interface device, do you want the processing device to execute the processing device through remote control using the processing device, or do you want the processing device to execute the processing in the character input mode of the processing device? can be controlled.
(46)前記インタフェース装置の環境は、当該インタフェース装置が設置されている場所に基づく環境であってもよい。 (46) The environment of the interface device may be an environment based on a location where the interface device is installed.
このようにすると、インタフェース装置が設置されている場所に基づいて、処理装置において文字入力が可能なモードに切り替わり、ユーザが処理装置において文字入力を行うことができる。例えば、インタフェース装置が設置されている場所に応じて、処理装置を用いた遠隔操作で処理装置に処理装置を実行させるようにするのか、又は処理装置の文字入力モードにより当該処理装置の処理を実行するようにするのかを、制御することができる。 In this way, based on the location where the interface device is installed, the processing device is switched to a mode in which character input is possible, and the user can input characters in the processing device. For example, depending on the location where the interface device is installed, do you want the processing device to execute the processing device by remote control using the processing device, or do you want the processing device to execute the processing in the character input mode of the processing device? You can control what happens.
(47)前記インタフェース装置が設置されている場所は、当該インタフェース装置が接続している接続先に応じて決定されてもよい。 (47) The location where the interface device is installed may be determined depending on the connection destination to which the interface device is connected.
このようにすると、インタフェース装置が接続されている接続先に基づいて、処理装置において文字入力が可能なモードに切り替わり、ユーザが処理装置において文字入力を行うことができる。インタフェース装置が接続されている接続先は、例えば、無線LANの基地局(例えば、アクセスポイント)に関する情報、例えばSSID等により判定するとよい。 In this way, the processing device is switched to a mode in which character input is possible based on the connection destination to which the interface device is connected, and the user can input characters in the processing device. The connection destination to which the interface device is connected may be determined based on, for example, information regarding a wireless LAN base station (eg, access point), such as the SSID.
(48)前記インタフェース装置の環境は、当該インタフェース装置が取得した音の音量レベルに応じて決定されてもよい。 (48) The environment of the interface device may be determined according to the volume level of sound acquired by the interface device.
このようにすると、インタフェース装置が取得した音の音量レベルに応じて、処理装置において文字入力が可能なモードに切り替わり、ユーザが処理装置において文字入力を行うことができる。インタフェース装置が取得した音の音量は、例えばユーザの話し声の音量で判定する構成とするとよく、この場合、ユーザの声が小さい場合は、文字入力の方が適していると判定するとよい。また、インタフェース装置が取得した音の音量は、例えば環境音で判定する構成とするとよい。例えば、インタフェース装置は、環境音が静かなときはユーザが声の出せない環境と判定するとよい。また、例えば、インタフェース装置は、環境音から公共の場所や、電車内と判定したときは、ユーザが声の出せない環境と判定するとよい。 In this way, depending on the volume level of the sound acquired by the interface device, the processing device switches to a mode in which character input is possible, and the user can input characters in the processing device. The volume of the sound acquired by the interface device may be determined based on, for example, the volume of the user's speaking voice. In this case, if the user's voice is low, it may be determined that character input is more suitable. Further, the volume of the sound acquired by the interface device may be determined based on, for example, environmental sound. For example, the interface device may determine that the environment is such that the user cannot speak when the environmental sounds are quiet. Further, for example, when the interface device determines that the user is in a public place or on a train based on the environmental sounds, it is preferable to determine that the user is in an environment where the user cannot make a sound.
(49)前記インタフェース装置は、前記出力部を有する筐体を備え、前記筐体は、前記キャラクタと関連する外観を有するとよい。 (49) The interface device may include a housing having the output section, and the housing may have an appearance related to the character.
このようにすると、ユーザは、自身の入力又はその入力によって実行を指示した処理に応じた情報が、キャラクタと関連する外観を有する筐体側から出力されるのを認識することができるので、キャラクタを通じた視覚的な面白みを得ることができる。キャラクタと関連する外観としては、特にそのキャラクタを模した外観とするとよい。このようにすると、ユーザは、キャラクタに、処理による処理の実行を依頼(例えば、お願い)しているような感覚を得ることができ、ひいてはインタフェースを用いて処理装置に処理の実行を指示する強い動機づけとなる。キャラクタと関連する外観としては、そのキャラクタが使用するアイテム等とするとよく、そのキャラクタを象徴する外観を有するとよい。 In this way, the user can recognize that information corresponding to the user's input or the process instructed to be executed by the input is output from the casing side that has an appearance related to the character. You can get more visual interest. The appearance associated with a character is particularly preferably an appearance that imitates that character. In this way, the user can feel as if he or she is requesting (for example, asking) the character to perform a process using the process, and can even use the interface to instruct the processing device to perform the process. Motivating. The appearance associated with a character may be an item used by the character, or may have an appearance that symbolizes the character.
(50)インタフェース装置は、処理装置と相互に通信可能に接続されるインタフェース装置であって、前記入力を受け付ける受付部と、ユーザに対して前記入力又は前記インタフェース装置に対するユーザからの入力に応じた処理に基づく情報を所定のキャラクタとの関連付けにより出力する出力部と、を有するとよい。 (50) The interface device is an interface device that is connected to the processing device so as to be able to communicate with each other, and includes a reception unit that receives the input, and a reception unit that receives the input from the user or responds to the input from the user to the interface device. It is preferable to include an output unit that outputs information based on the processing by associating it with a predetermined character.
このようにすると、ユーザは、処理装置の外部にあるインタフェース装置に対する入力をすることで、そのインタフェース装置とは別の装置である処理装置に自身の入力に応じた処理を実行させるとともに、その入力又は実行させた処理に応じた情報をキャラクタとの関連付けにより、そのインタフェース装置を介して認識することができる。 In this way, by inputting input to the interface device external to the processing device, the user can cause the processing device, which is a device different from the interface device, to execute processing according to the user's input, and also Alternatively, information corresponding to the executed process can be recognized through the interface device by associating it with the character.
(51)上述の(1)から(49)の何れか1つに記載のシステムの制御部の機能をコンピュータに実現させるためのプログラムとするとよい。 (51) The program may be a program for causing a computer to implement the functions of the control unit of the system described in any one of (1) to (49) above.
上述した(1)から(49)に示した発明は、任意に組み合わせることができる。例えば、(1)に示した発明の全て又は一部の構成に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加える構成としてもよい。特に、(1)に示した発明に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加えた発明とするとよい。また、(1)から(49)に示した発明から任意の構成を抽出し、抽出された構成を組み合わせてもよい。本願の出願人は、これらの構成を含む発明について権利を取得する意思を有する。また「~の場合」「~のとき」という記載があったとしても、その場合やそのときに限られる構成として記載はしているものではない。これらはよりよい構成の例を示しているものであって、これらの場合やときでない構成についても権利取得する意思を有する。 The inventions shown in (1) to (49) above can be combined arbitrarily. For example, at least a part of the structure of at least one invention described in (2) and subsequent ones may be added to all or part of the structure of the invention shown in (1). In particular, it is preferable to create an invention in which at least a part of the structure of at least one invention after (2) is added to the invention shown in (1). Further, arbitrary configurations may be extracted from the inventions shown in (1) to (49) and the extracted configurations may be combined. The applicant of this application intends to acquire rights to inventions containing these structures. Furthermore, even if there is a description of "in the case of" or "at the time of", the description is not intended to be limited to those cases or times. These are examples of better configurations, and we intend to acquire rights to these cases and other configurations as well.
また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えたりした構成についても開示しているものであり、権利取得する意思を有する。 Furthermore, the sections described in order are not limited to this order. It also discloses a configuration in which some parts have been deleted or the order has been changed, and we have the intention to acquire the rights.
本発明のシステム等によれば、処理装置のインタフェースを異なる装置で実現するシステム等であり、従来と異なる技術を提供することができる。 According to the system or the like of the present invention, it is a system or the like in which the interface of the processing device is realized by a different device, and it is possible to provide a technology different from the conventional technology.
なお、本願の発明の効果はこれに限定されず、本明細書及び図面等に開示される構成の部分から奏する効果についても開示されており、当該効果を奏する構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」「~可能である」などと記載した箇所などは奏する効果を明示する記載であり、また「~できる」「~可能である」などといった記載がなくとも効果を示す部分が存在する。またこのような記載がなくとも当該構成よって把握される効果が存在する。 Note that the effects of the invention of the present application are not limited to these, and effects obtained from the parts of the configuration disclosed in the present specification, drawings, etc. are also disclosed, and the configurations that provide the effects are also disclosed by divisional applications, amendments, etc. Have the intention to acquire the rights. For example, in this specification, passages such as "can be done," "is possible," etc. are descriptions that clearly indicate the effect to be achieved, and even if there is no description such as "can be done," or "it is possible," the effect can be obtained. There is a part shown. Further, even without such a description, there are effects that can be understood from the configuration.
以下、図面を参照して本発明を実施するための形態について説明する。なお、以下に示す実施形態は、本発明を提供した一つの実施形態であり、以下の記載に基づいて本願発明の内容が限定して解釈されるものではない。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In addition, the embodiment shown below is one embodiment which provided this invention, and the content of this invention is not limited and interpreted based on the following description.
一般的に、パーソナルコンピュータ(PC)等の処理装置において、ユーザの操作を補助するアシスタント機能が知られている。このようなアシスタント機能としては、例えばマイクロソフト社のコルタナや、アップル社のSiri等が知られている。 2. Description of the Related Art Generally, an assistant function for assisting a user's operations is known in a processing device such as a personal computer (PC). Known examples of such assistant functions include Microsoft's Cortana and Apple's Siri.
このようなアシスタント機能は、便利そうには見えるが、機能をアシストするにすぎず、ユーザはつまらないと感じたり、実行する必要性を感じたりしないため、使うモチベーションが上がらないという問題があった。 Although these assistant functions seem convenient, they only provide assistance, and users find them boring or do not feel the need to perform them, so they lack motivation to use them.
そこで、アシスタント機能を、例えばアニメキャラ、ゆるキャラ等のキャラクタがエージェントのような形で実行してくれると面白そうであり、ユーザが使うモチベーションが上がりそうである。とくに、ユーザが気に入ったアニメや、ゲームのキャラクタ、お気に入りのゆるキャラ、企業キャラを利用すると、ユーザが積極的に利用する動機付けになり得る。 Therefore, it would be interesting if a character, such as an anime character or mascot character, could perform the assistant function in the form of an agent, and the user would be more motivated to use it. In particular, if the user uses his/her favorite anime, game characters, favorite mascot characters, or corporate characters, this can motivate the user to actively use them.
ここで、端末装置でキャラクタを動作させるためには、例えばUnity等のゲームエンジンを利用したアプリケーションを実行することが考えられる。しかし、キャラクタを動作させるためのアプリケーションを処理装置で実行するには、それなりのリソースを必要としてしまう。また、処理装置上で実行することで、インタフェースが処理装置のものに限られてしまうという制約が生じてしまう。 Here, in order to make the character move on the terminal device, it is conceivable to execute an application using a game engine such as Unity, for example. However, in order to execute an application for making a character move on a processing device, a certain amount of resources are required. Furthermore, execution on a processing device creates a restriction that the interface is limited to that of the processing device.
このような課題を解決することを1つの目的とした、本実施形態のシステムについて、以下実施形態を説明する。なお、以下の実施形態は、本発明を実現するための一例である。したがって、本発明の内容が、以下の実施形態の形式に限定されるものではない。 An embodiment of the system of this embodiment, which aims to solve such a problem, will be described below. Note that the following embodiment is an example for realizing the present invention. Therefore, the content of the present invention is not limited to the form of the following embodiments.
[1.第1実施形態]
[1.1 システム全体]
図1は、システム1の概要を説明する図である。システム1は、インタフェース装置10と、処理装置20とを含んでいる。
[1. First embodiment]
[1.1 Entire system]
FIG. 1 is a diagram illustrating an overview of the
インタフェース装置10は、処理装置20と通信が可能な装置である。インタフェース装置10は、例えば、表示デバイスとして表示部140を有している。表示部140には、例えば、キャラクタが表示されている。キャラクタは、例えば人を示すものであり、喜怒哀楽の表情を示すことができる。
The
処理装置20は、各種処理が実行可能は装置である。例えば、処理装置20は、汎用的な処理が実行可能なパーソナルコンピュータ(パソコン/PC)にすると好ましい。また、処理装置20は、汎用的な処理が実行可能なパソコンだけでなく、例えばタブレット等の処理装置や、カーナビゲーション、ドライブレコーダといった特定の目的の処理を実行可能な装置であってもよい。
The
処理装置20とインタフェース装置10とは、通信可能距離が所定距離以下である無線の通信路を介して接続され又は有線の通信路を介して接続されてもよい。通信可能距離が所定距離以下である無線の通信路を介して接続される場合、例えば、インタフェース装置10と、処理装置20とは、BLE(Bluetooth Low Energy)等の近距離の無線通信を利用するとよい。有線の通信路の場合、USBやHDMI(登録商標)(High-Definition Multimedia Interface)、その他の規格のケーブルを利用するとよい。ユーザは、自身の近くにあるインタフェース装置10に対する入力をすることで、同じく自身の近くにある処理装置20に、その入力に応じた処理を実行させることができる。インタフェース装置10だけでなく、処理装置20が処理の実行を指示する入力を受け付け可能な構成であることで、ユーザはインタフェース装置10及び処理装置20のどちらを操作しても処理の実行を指示することができるが、インタフェース装置10に対する入力によって処理の実行を指示した場合には、その入力または処理に応じた情報がキャラクタと関連づいた情報により出力されるので、ユーザがインタフェース装置10を使用する動機付けにすることができる。
The
ユーザは、処理装置20の外部デバイスであるインタフェース装置10を用意する。処理装置20には、インタフェース装置10と通信するための軽量なアプリケーションを用意し、インストールしておけばよい。このような構成にすると、処理装置20は、必要とされるリソースの多くを外部デバイスであるインタフェース装置10に分離することができる。
A user prepares an
また、インタフェース装置10は、例えばユーザからの指示を入力可能である。ユーザからの指示としては、本実施形態では、指示の内容を特定するメッセージを入力可能である。インタフェース装置10は、ユーザから入力されたメッセージに対応するコマンドを生成し、処理装置20において実行されているアプリケーションが解釈できる形に変換して送信する。なお、インタフェース装置10は、メッセージに含まれるフレーズに基づいてコマンドを生成してもよい。なお、メッセージ、及びフレーズについては、少なくとも人間が理解可能な言語的な意味を有するものとするとよい。
Further, the
処理装置20は、アプリケーションがコマンドを受信すると、処理装置20のオペレーティングシステムのAPI(Application Programming Interface)等を使用して、目的の処理を実行するように構成される。処理装置20で実行されるアプリケーションは、特に、常駐アプリケーションとして実行されるとよい。常駐アプリケーションは、例えば、処理装置20の電源がONされている期間は継続して動作しているアプリケーション、又はOSの起動とともに起動されるアプリケーションとする等、ユーザが明示に起動を指示しなくとも処理装置20において実行されている状態のアプリケーションとするとよい。
The
このように、ユーザがインタフェース装置10にメッセージを入力すると、メッセージに応じた処理が処理装置20で実行される。すなわち、インタフェース装置10は、処理装置20のAPIを直接実行することを指示したり、コマンドを実行したりすることが可能となる。
In this way, when the user inputs a message to the
なお、このインタフェース装置10は、例えば出願人である株式会社ユピテルが販売するLVR-01であるとよい。当該製品では、株式会社ユピテルが使用するキャラクタである霧島レイが、仮想的なフィギュアとして表示される。以下の実施形態に対応する図面では、当該キャラクタを一例として使用しているが、他のキャラクタにも適用可能である。
Note that this
システム1は、ユーザは、処理装置20の外部にあるインタフェース装置10に対する入力をすることで、そのインタフェース装置10とは別の装置である処理装置20に自身の入力に応じた処理を実行させるとともに、その入力又は実行させた処理に応じた情報をキャラクタとの関連付けにより、そのインタフェース装置を介して認識することができる。
In the
インタフェース装置10が受け付け可能な入力としては、特に、ユーザが直感的に行うことができる入力とするとよく、例えば、ユーザが発する音声や、ユーザが示すジェスチャ動作とするとよい。このようにすると、インタフェース装置10に対するユーザの入力負担が軽減させることができる。なお、インタフェース装置10が受け付け可能な入力としては、これら以外の入力としてもよく、例えば物理キーやタッチセンサ等の入力手段を用いて受け付け可能な入力としてもよい。インタフェース装置10は、例えばメッセージを構成する文字の入力を受け付けるとよい。
The input that can be accepted by the
処理装置20が実行する処理としては、処理装置20が実行可能な処理とするとよく、特に処理装置20にインストールされたアプリケーション・ソフトウェアの機能により実行される処理とするとよい。アプリケーション・ソフトウェアとしては、OS、又はOS上で動作するプログラムとするとよい。このようにすると、ユーザは、処理装置にインストールされているOS、又はOS上で動作するアプリケーションの機能により実行可能な処理を、外部のインタフェース装置に対する入力によって実行させることができる。ユーザは、処理装置に対して、OS、又はOS上で動作するアプリケーションや、それに実行させる処理を指示する入力をしなくてよいので、ユーザの入力負担を軽減させることができる。
The processing executed by the
また、インタフェース装置10は、ユーザが認識可能な情報をキャラクタと関連付けて出力するとよく、特に画像又は音声を出力するとよい。このようにすると、ユーザは、自身の入力又は処理に応じた情報を認識しやすくなる。入力又は実行させた処理に応じた情報としては、入力を受け付けたことや、処理の実行を指示したこととしてもよいが、特に、処理の結果をユーザに認識させることのできる情報とするとよい。このようにすると、ユーザは、処理装置20に実行させた処理の結果を、処理装置20ではなく、インタフェース装置10を通じて認識することができる。
Further, the
[1.2 ハードウェア構成]
各装置のハードウェア構成について、以下、図2を参照して説明する。図2は、インタフェース装置10と、処理装置20とのハードウェア構成の一例を示した図である。
[1.2 Hardware configuration]
The hardware configuration of each device will be described below with reference to FIG. 2. FIG. 2 is a diagram showing an example of the hardware configuration of the
[1.2.1 インタフェース装置]
インタフェース装置10は制御部100と、記憶装置としてストレージ110、ROM120及びRAM130と、表示部140と、入力部150と、音声入力部160と、音声出力部162と、通信部170とを有している。
[1.2.1 Interface device]
The
制御部100は、インタフェース装置10の全体を制御するための機能部である。制御部100は、ストレージ110や、ROM120に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、1又は複数の制御装置/演算装置(CPU(Central Processing Unit)、SoC(System on a Chip))により実現されてもよい。
The
ストレージ110は、プログラムや、データを記憶可能な不揮発性の記憶装置である。例えば、HDD(Hard Disk Drive)や、SSD(Solid State Drive)といった記憶装置で構成されてもよい。また、ストレージ110は、DVD/BDといった光ディスクであってもよいし、USBメモリといった構成でもよい。また、ストレージ110は、例えばクラウド上にある記憶領域であってもよい。
The
ROM120は、電源を切ってもプログラムやデータを保持することが可能な不揮発性のメモリである。
The
RAM130は、主に制御部100が処理を実行時に利用するメインメモリである。RAM130は、ストレージ110や、ROM120から読み出したプログラムや、実行時の結果を含むデータを一時的に保持する書換え可能なメモリである。
The
表示部140は、各種情報や、実行画面を表示可能な表示装置である。表示部140は、例えば、液晶ディスプレイ(LCD;Liquid Crystal Display)や、有機EL(Electro Luminescence)ディスプレイ、電気泳動型ディスプレイ等の表示装置であってもよい。また、表示部140は、表示装置が接続可能なインタフェースを含む。例えば、HDMI(High-Definition Multimedia Interface)や、DVI(Digital Visual Interface)、Display Portを介して接続される外部の表示装置で構成されてもよい。なお、インタフェース装置10側の表示部140は、インタフェース装置10に内蔵された表示部とするほか、インタフェース装置10に外付けされた表示部としてもよい。
The
入力部150は、ユーザからの情報の入力が可能な入力装置(入力手段の一例)である。入力部150は、音声入力部160が受け付ける音声の入力とは異なる入力を受け付ける。入力部150は、例えば、非接触の操作を受け付ける非接触センサを有するとよい。非接触の操作としては、ジェスチャ動作がある。非接触センサとしては、Airタッチセンサと呼ばれるものが用いられるとよいが、ジェスチャ動作を認識するためのカメラや各種センサ類が用いられてもよい。入力部150は、物理キーやタッチセンサ等の入力装置を有してもよい。入力部150は表示部140と一体となってユーザからの入力を受け付ける構成としてもよく、例えば、表示部140に表示された画像に対する入力を受け付けるとよい。また、入力部150は、外部の入力装置が接続可能なインタフェースを含むとよい。例えば、USB(Universal Serial Bus)や、無線を介して接続されるキーボードやマウス等の入力装置で構成されてもよい。
The
音声入力部160は、音(音声を含む)入力を受け付けその音を音データに変換して出力する。音声入力部160は、主にマイク等で構成されるが、オーディオインタフェースや、USB、無線インタフェースを介して接続される外部マイク等で構成されてもよい。
The
音声出力部162は、音データから、音(音声を含む)を出力する。主にスピーカで構成されるが、オーディオインタフェースや、USB、無線インタフェースを介して接続される外部スピーカやヘッドフォン等で構成されてもよい。また、音声は、人間が発した音だけでなく、装置(インタフェース装置10、処理装置20)が出力する音も含むものとする。
The
通信部170は、他の装置と接続をする通信インタフェースである。通信部170は、例えば、有線接続や無線接続が提供可能なネットワークインタフェースであってもよい。本実施形態においては、処理装置20と近距離で接続可能な近距離無線通信(例えば、Bluetooth(登録商標))が好ましい。また、IEEE802.11a/b/g/nといった規格で接続可能な無線LANが可能なネットワークアダプタでもよい。また、通信部170は、処理装置20と、USB等のインタフェースを介して有線で接続してもよい。
The
[1.2.2 処理装置]
処理装置20は、制御部200と、ストレージ210と、ROM220と、RAM230と、表示部240と、操作部250と、通信部270とを有している。これらの構成のうち、上述したインタフェース装置10に同名の構成がある場合は、その構成と基本的な構成は同様である。処理装置20側の表示部240は、処理装置20に内蔵された表示部とするほか、処理装置20に外付けされた表示部としてもよい。操作部250は、ユーザからの操作の入力を受け付ける。操作部250は、例えば、キーボードやテンキー等の処理装置20とは異なる操作手段、例えば処理装置20よりもリッチな操作手段を有するとよい。操作部250は、音声入力による操作など、処理装置20が受け付け可能な操作と同じ操作を受け付ける構成を有してもよい。
[1.2.2 Processing device]
The
[1.2.3 他の構成]
なお、図2の構成はインタフェース装置10、処理装置20の構成の代表的な構成の一例であり、図2に示された構成に限定されるものではない。いわゆる当業者にとって自明の範囲であれば、必要に応じて他の構成を有していたり、図2の構成を有さない場合もある。例えば、通信部170及び通信部270は、複数の通信部を有していてもよい。例えば、移動体通信網と接続するための通信インタフェース(例えば、4G/5G等で移動体通信網と通信可能な通信モジュール)を更に備えてもよい。
[1.2.3 Other configurations]
Note that the configuration in FIG. 2 is an example of a typical configuration of the
[1.3 ソフトウェア構成]
つづいて、システム1におけるソフトウェアの構成について、図3、図4を参照して説明する。以下のような構成とすることで、一般的には処理装置20のオペレーティングシステムに実装されるアシスタントアプリケーションを、キャラクタ化し、処理装置20において、リソースをオペレーティングシステムから分離することができる。
[1.3 Software configuration]
Next, the software configuration in the
[1.3.1 インタフェース装置]
インタフェース装置10は、アプリケーション1000がインストールされている。インタフェース装置10の制御部100が、アプリケーション1000を実行すると、アプリケーション1000により各機能が実現する。また、インタフェース装置10は、アプリケーション1000が、インタフェース装置10で実行されるオペレーティングシステム(OS)上で実行されてもよい。
[1.3.1 Interface device]
The
また、インタフェース装置10は、音声認識部1100と、会話制御部1300と、キャラクタ制御部1400と、情報取得部1500とを実現する。また、インタフェース装置10は、コマンドテーブル1200を記憶する。
The
また、インタフェース装置10は、アプリケーション1000を実行することで、メッセージ解釈部1010、コマンド生成部1020と、コマンド送信部1030と、応答情報受信部1040とを実現する。
Furthermore, by executing the
なお、それぞれの機能は、制御部100が、ROM120又はストレージ110に記憶してあるプログラムを読み出して実現してもよいし、ネットワーク上において提供されているサービスを利用して、それぞれの機能を実現してもよい。
Note that each function may be realized by the
また、音声認識部1100、会話制御部1300、キャラクタ制御部1400、情報取得部1500は、アプリケーション1000が実行してもよいし、予めインタフェース装置10が有している機能を実現してもよい。また、アプリケーション1000が実現する機能は、必要に応じてアプリケーション1000以外のプログラムで実現されてもよい。
Further, the
音声認識部1100は、ユーザが発した音声をメッセージとして認識する。音声認識部1100は、例えばユーザが発した音を音データとして取得し、予め定められた音パターンと照合することにより、音声認識を行ってもよい。また、音声認識部1100は、機械学習やディープラーニングを利用することで、音声認識を行ってもよい。音声認識は、音データをデキストデータである文字列に変換する処理とするとよい。
The
会話制御部1300は、音声認識部1100において認識されたメッセージに対応した反応をすることで、会話を行う。会話制御部1300は、ユーザから受け付けたメッセージに対する応答を、例えば音声出力部162から音として出力してもよい。また、会話制御部1300は、キャラクタ制御部1400を介してキャラクタの表情や動作を変更する表示を行ってもよい。例えば、会話制御部1300が、ユーザが発したメッセージに対応して、音声を出力して応答する場合、キャラクタの表示を変更してもよい。具体的には、キャラクタ制御部1400は、キャラクタの口元を会話に応じて動かすことで、キャラクタが実際に話しているような演出を行ってもよい。また、会話制御部1300は、会話内容に応じて、キャラクタの表情を変化させてもよい。キャラクタの表情としては、例えば、喜怒哀楽を表現する表情とするとよい。
The
会話制御部1300が、ユーザのメッセージに対応する音声を出力しつつ、キャラクタの表示態様を変化させることで、ユーザはあたかもインタフェース装置10に表示されているキャラクタと会話しているように楽しむことができる。
The
また、会話制御部1300は、ユーザから入力されたメッセージに対する応答を、文字で出力してもよい。この場合、会話制御部1300は、表示部140を介して文字を表示してもよい。また、会話制御部1300は、ユーザとの会話応答を行ってもよい。例えば、会話制御部1300は、ユーザが発した音声を受け付けたときに、応答として「わかりました」と音声を出力してもよい。また、会話制御部1300は、ユーザが発した音声が認識できなかったときは、「よくわかりませんでした」や、「もう一度お願いします」と音声を出力してもよい。また、会話制御部1300は、ユーザに複数のメッセージを入力するように促してもよい。
Furthermore, the
キャラクタ制御部1400は、インタフェース装置10の表示部140に表示されているキャラクタの出力を制御する。例えば、キャラクタ制御部1400は、キャラクタの出力の一つとして、キャラクタの表示について動きを制御してもよい。キャラクタの動きの制御は、例えばキャラクタの動作や表情を制御してもよい。キャラクタの表情は、キャラクタの喜怒哀楽の表情や、驚いた顔の表情等といった表情をそれぞれ含めてもよい。また、キャラクタの動作は、キャラクタがウィンクをする、ピースサインをする、走る、就寝する等といった動作をそれぞれ含めてもよい。また、キャラクタの動作は、キャラクタの姿勢を含めてもよい。例えば、キャラクタの動作には、キャラクタが座っている、立っている、寝ているといった姿勢を含んでもよい。
The
また、キャラクタの動きは、視覚的なものだけでなく、聴覚的なものも含んでもよい。例えば、キャラクタ制御部1400は、キャラクタが音声を発することにしてもよい。例えば、「おはよう」「おつかれさま」「ありがとう」「ごめんなさい」といった音声を発することにしてもよい。これらのキャラクタの音声は、例えば、アニメにおいて、キャラクタを担当している声優等、一般的にキャラクタの声で出力されてもよい。また、ユーザが任意の音声を対応付けてもよい。
Further, the character's movement may include not only visual movement but also auditory movement. For example, the
また、キャラクタは、外見上人間を模したキャラクタであってもよいし、動物や植物、仮想的なキャラクタであってもよい。また、キャラクタは、動物、植物や、その他の物が擬人化されたものでもよい。 Further, the character may be a character that imitates a human in appearance, or may be an animal, a plant, or a virtual character. Further, the characters may be anthropomorphized animals, plants, or other objects.
キャラクタは、例えば処理装置20を擬人化したものとするとよい。例えば、処理装置20がコンピュータ、モバイルバッテリ、カーナビゲーション装置等異なるキャラクタで擬人化させてもよい。処理装置20に応じてキャラクタが変化すると、ユーザは、インタフェース装置10が接続されている処理装置20を、キャラクタを見ただけで特定することができるようになる。
The character may be, for example, a personification of the
情報取得部1500は、処理装置20に関する情報を取得する。例えば、処理装置20のOS2200を介して、処理装置20に設定されている情報、処理装置20の状態に関する情報、処理装置20において実行されたプログラムの実行結果に関する情報等を取得することができる。
The
処理装置20に設定されている情報は、例えば、IPアドレス、OSの種類、インストールされているアプリケーションに関する情報、マシン名等の情報が含まれる。また、処理装置20の状態に関する情報は、例えば、処理装置20のストレージの空き容量、バッテリの残容量、メモリの使用量等の情報が含まれる。また、処理装置20において実行されたプログラムの実行結果に関する情報は、正しく実行された、エラーで実行できなかった等の情報が含まれる。
The information set in the
なお、本実施形態おいて、処理装置20のアプリケーション2000が実行した結果は応答情報受信部1040が受信しているが、情報取得部1500が受信してもよい。
Note that in this embodiment, the response
つづいて、アプリケーション1000を実行したときに実現されるメッセージ解釈部1010と、コマンド生成部1020と、コマンド送信部1030と、応答情報受信部1040について説明する。
Next, the
メッセージ解釈部1010は、ユーザから受け付けたメッセージを解釈する。ここで、メッセージとは、ユーザから受け付けられたものであり、音声によるメッセージ、スイッチ等の入力により受け付けたメッセージ、キーボードやマウスといった入力装置からのメッセージ、文字入力によるメッセージ、ユーザのジェスチャによるメッセージ等を含む。本実施形態におけるメッセージは、ユーザが音声により入力し、音声を認識することで得られるメッセージを例に説明する。メッセージ解釈部1010は、音声認識部2100が認識した音声から、ユーザはどのようなメッセージを発したのかを解釈する。
コマンド生成部1020は、ユーザのメッセージに対応するコマンドを生成する。ここで、コマンドとは、処理装置20が実行する処理に対応する命令で、処理装置20に実行を指示する処理を一意に特定できる命令である。コマンドは、予めシステムにより設定されているものであってもよいし、ユーザが設定したものであってもよい。例えば、ユーザにより入力されたメッセージに対応するコマンドは、処理装置20のアプリケーション2000が解釈できる形であればよい。例えば、後述するように、処理装置20のアプリケーション2000は、受信したコマンドを解釈し、例えばOSのAPI等を使用して、目的の処理を実行できればよい。また、メッセージ対応するコマンドは、メッセージに含まれる特定のフレーズに対応してもよい。
The
コマンド生成部1020は、インタフェース装置10から、処理装置20に送信するコマンドが記憶されている。コマンド生成部1020は、コマンドテーブル1200を参照して、メッセージに対応するコマンドを生成してもよい。
The
図5(a)は、コマンドテーブル1200の一例である。コマンドテーブル1200は、コマンドと、メッセージ内容とが対応付けて記憶されている。コマンドテーブル1200は、処理装置20で設定された設定テーブル2300に基づいて生成されてもよい。
FIG. 5(a) is an example of the command table 1200. The command table 1200 stores commands and message contents in association with each other. Command table 1200 may be generated based on setting table 2300 set in
例えば、図5(a)のコマンドテーブル1200に記載されているように、例えばコマンド「WS OPEN」と、メッセージ内容「表計算の一覧表示」とが対応付けられている。ここで、コマンド「WS」は表計算アプリを実行することを示し、「OPEN」は一覧を表示すること示すコマンドである。 For example, as described in the command table 1200 in FIG. 5A, the command "WS OPEN" is associated with the message content "display list of spreadsheets." Here, the command "WS" indicates executing a spreadsheet application, and "OPEN" indicates displaying a list.
メッセージ内容は、メッセージの内容を記憶しており、本実施形態では、一例としてユーザが音声として発する言葉が記憶されている。メッセージ内容に記憶される言葉は、ユーザが発する音声そのままでもよいし、メッセージに含まれている特定のフレーズであってもよい。 The message content stores the content of the message, and in this embodiment, the words uttered by the user as voice are stored as an example. The words stored in the message content may be the voice uttered by the user as is, or may be a specific phrase included in the message.
また、図5(a)のコマンドテーブル1200に記載されているように、メッセージ内容として複数のフレーズと対応してコマンドを生成してもよい。例えば、「昨日」「表計算ファイル」というフレーズが含まれたメッセージに対しては、コマンド「WS YS」とが記憶されている。ここで、例えば、コマンド「YS」は「昨日」を示すコマンドであってもよい。メッセージの内容をフレーズとすることで、ユーザは細かい表現の相違について影響を受けることなく、適切なコマンドが生成される。例えば「昨日」「表計算ファイル」というフレーズが含まれていればよいときは「昨日の表計算ファイルがみたい」「表計算ファイルの昨日分」と何れをユーザが発したときでも適切に処理される。 Further, as described in the command table 1200 in FIG. 5A, commands may be generated in correspondence with a plurality of phrases as message contents. For example, the command "WS YS" is stored for a message containing the phrases "yesterday" and "spreadsheet file." Here, for example, the command "YS" may be a command indicating "yesterday". By setting the content of the message as a phrase, the user is not affected by differences in detailed expressions, and appropriate commands can be generated. For example, if the phrases ``yesterday'' and ``spreadsheet file'' only need to be included, it will be processed appropriately regardless of whether the user utters ``I want to see yesterday's spreadsheet file'' or ``yesterday's spreadsheet file''. Ru.
また、コマンドにパラメータを含めてもよい。例えば、コマンド「DOC %1」と、メッセージ内容「文章%1のファイル」とが対応づいている。ここで、コマンド「DOC」は、一例として文章編集アプリ(例えばワープロアプリ)を起動するコマンドである。また、「%1」は、一例としてパラメータである引き数を示している。例えば、ユーザが「文章nippouファイル」と音声を発したとき、コマンド生成部1020は、「DOC nippou」とコマンドを生成してもよい。
Additionally, the command may include parameters. For example, the command "
コマンド送信部1030は、コマンド生成部1020で生成したコマンドを、処理装置20に送信する。例えば、コマンド送信部1030は、通信部170及び通信部270を介して処理装置20にコマンドを送信してもよい。
The
応答情報受信部1040は、処理装置20から応答情報を受信する。ここで、応答情報は、処理装置20が送信する情報であり、アプリケーション2000が処理を実行した結果等を示す情報を含んでもよい。応答情報は、例えばアプリケーション2000において、コマンドに対応する処理を実行したとき、実行結果が含まれてもよい。
The response
インタフェース装置10において、ユーザは、自身の入力又はその入力によって実行される処理に応じた情報が、所定のキャラクタとの関連付けにより出力されるので、そのキャラクタへの親しみを感じやすくなり、ひいては、インタフェース装置10を用いて処理装置20に処理の実行を指示する強い動機づけとなる。インタフェース装置10において受け付け可能な入力を、ユーザが発する音声の入力とするとよい。このようにすると、ユーザがキャラクタと会話をしているかのような感覚を得ることができ、ユーザがキャラクタとコミュニケーションをとっている感覚をより強く得やすくすることができる。
In the
また、インタフェース装置10において、キャラクタが出力されることから、ユーザは、自身の入力又はその入力によって実行を指示した処理に応じて変化するキャラクタの画像を視認することができる。したがって、ユーザは、そのキャラクタを通じた視覚的な面白みを得ることができる。
Furthermore, since the
また、ユーザは、自身の入力又はその入力によって実行を指示した処理に応じて変化するキャラクタの音声をインタフェース装置10から聞くことができる。ユーザは、キャラクタを通じた聴覚的な面白みを得ることができる。
Further, the user can listen to the character's voice, which changes depending on the user's own input or the process instructed to be executed by the user, from the
このように、インタフェース装置10を利用することで、キャラクタを介した処理装置20の制御を行うことができる。インタフェース装置10からキャラクタに基づいた出力がされることから、ユーザは、視覚的、聴覚的等の面白みを感じることができ、そのキャラクタへの親しみを感じやすくなり、ひいては、インタフェース装置を用いて処理装置に処理の実行を指示する強い動機づけとなる。キャラクタの音声としては、キャラクタと関連付けて発せられる音声とするとよく、特にキャラクタの声とするとよい。
In this way, by using the
[1.3.2 処理装置]
処理装置20は、OS2200がインストールされており、また、アプリケーション2000がインストールされている。処理装置20の制御部200が、アプリケーション2000を実行すると、アプリケーション2000により各機能が実現する。また、処理装置20は、アプリケーション2000が、処理装置20で実行されるOS2200上で実行されてもよい。
[1.3.2 Processing device]
The
また、処理装置20は、コマンド受信部2010と、コマンド解釈部2020と、コマンド実行部2030と、応答情報処理部2040とを実現する。また、処理装置20は、設定テーブル2300を記憶する。
Furthermore, the
なお、それぞれの機能は、制御部200が、ROM220又はストレージ210に記憶してあるプログラムを読み出して実現してもよいし、ネットワーク上において提供されているサービスを利用して、それぞれの機能を実現してもよい。
Note that each function may be realized by the
アプリケーション2000が実現する機能は、必要に応じてアプリケーション2000以外のプログラムで実現されてもよい。
The functions realized by the
OS2200は、一般的なオペレーティングシステムである。OS2200は、例えばWindows(登録商標)、Mac OS(登録商標)、Chorme OS(登録商標)といった、何れかのOSである。
OS2200 is a general operating system. The
コマンド受信部2010は、インタフェース装置10のコマンド送信部1030からコマンドを受信する。コマンド受信部2010は、受信したコマンドをコマンド解釈部2020に送信する。
The
コマンド解釈部2020は、受信したコマンドを解釈し、処理装置20において実行可能な処理内容に変換する。ここで、コマンド解釈部2020は、設定テーブル2300を参照し、コマンドの解釈を行う。
The
そして、コマンド解釈部2020において解釈された処理内容は、コマンド実行部2030で実行される。具体的には、制御部200が、コマンド解釈部より送信された処理内容に基づいてプログラムを実行する。それにより、インタフェース装置10がユーザから受け付けたメッセージ内容に対応する処理内容が、処理装置20において実行される。
The processing content interpreted by the
設定テーブル2300は、コマンドと、メッセージ内容と、処理装置20において実行される処理内容を設定するテーブルである。設定テーブル2300は、予め設定されていてもよいし、ユーザが設定してもよい。
The setting table 2300 is a table for setting commands, message contents, and processing contents executed by the
設定テーブル2300の一例を、図5(b)に示す。設定テーブル2300は、コマンドと、メッセージ内容と、処理内容とを対応付けて記憶する。例えば、コマンド解釈部2020は、コマンド「WS OPEN」をインタフェース装置10から受信すると、「Worksheet.exe」をコマンド実行部2030に送信する。コマンド実行部2030は、処理内容である「Worksheet.exe」を実行することで、表計算アプリを起動する。
An example of the setting table 2300 is shown in FIG. 5(b). The setting table 2300 stores commands, message contents, and processing contents in association with each other. For example, upon receiving the command “WS OPEN” from the
処理内容は、実行するプログラムが記憶されてもよいし、オペレーティングシステムのインタフェースが記憶されてもよい。例えば、Windowsにおいて呼出し可能なAPI(Application Programming Interface)が記憶されてもよい。また、処理内容は、Web APIが記憶されてもよい。 As the processing content, a program to be executed may be stored, or an operating system interface may be stored. For example, an API (Application Programming Interface) that can be called in Windows may be stored. Further, the processing content may be stored as a Web API.
コマンド解釈部2020は、受信したコマンドから、設定テーブル2300を参照して処理内容を生成してもよい。例えば、コマンド「YS」は、昨日を示すコマンドである。したがって、コマンド解釈部2020は、「WS YS」というコマンドを受信すると、コマンドを受信した日の前日の日付に置き換えて処理内容を生成してもよい。設定テーブル2300は、処理内容として「Worksheet.exe [Today()-1]」を記憶する。「Today()」が本日の日付を返す関数であり、「[Today()-1]」と記載された処理内容は、本日の日付から1減算した日(つまり前日)に置き換わってもよい。
The
また、コマンド解釈部2020は、コマンドに引数が含まれているとき、処理内容を引数で置き換えてもよい。例えば「DOC %1」は、引数の指定「%1」が含まれている。したがって、コマンド解釈部2020は、コマンドに含まれる引数「%1」で指定されている文字列を、処理内容「Doc.exe %1」の引数「%1」に置き換えてもよい。
Furthermore, when the command includes an argument, the
応答情報処理部2040は、コマンド実行部2030が実行した結果に基づく応答情報を必要に応じてインタフェース装置10に送信する。
The response
図4は、処理装置20における実行形式について、模式的な図を示す。処理装置20は、OS2200を実行しており、1又は複数の常駐アプリケーション2500を実行することができる。本実施形態では、上述したアプリケーション2000を起動しているとよい。
FIG. 4 shows a schematic diagram of the execution format in the
また、処理装置20は、ユーザからの起動操作により実行する実行アプリケーションを1又は複数実行してもよい。例えば、図4では、実行アプリケーション2600の一例として、表計算アプリ2610、文章編集アプリ2620、メールアプリ2630、ブラウザアプリ2640がインストールされていてもよく、これらのアプリケーションを任意のタイミングで起動することができる。
Furthermore, the
一般的に常駐アプリケーション2500は、実行アプリケーション2600に比べて実行ファイルサイズが小さかったり、実行時に必要なメモリ量が小さかったりするとよい。常駐アプリケーション2500のサイズが小さい程、処理装置20への負荷が小さくなる。
In general, it is preferable that the
また、処理装置20は、各アプリケーションを、OS2200を介して、起動を制御したり、実行を制御したりすることができる。また、OS2200は、APIをインタフェースとして、アプリケーションと通信を行ってもよい。例えば、アプリケーション2000は、API2210を介してOS2200の必要な起動を呼び出し、実行することができる。アプリケーション2000は、API2210を介して、実行アプリケーション2600を実行したり、実行結果を取得してもよい。なお、アプリケーション2000は、実行アプリケーション2600のインタフェースを利用可能であれば、直接実行アプリケーションを制御することで、実行アプリケーション2600を実行したり、実行結果を取得したりしてもよい。
Furthermore, the
また、OS2200は、API2210を介してコントローラ2510から情報を取得してもよい。コントローラ2510は、例えば、処理装置20のハードウェアの情報を取得してもよいし、処理装置20に接続されている外部の装置から情報を取得してもよい。
Further, the
このように、OS2200から、キャラクタを利用したアシスタント機能に係る構成を外部デバイスであるインタフェース装置10に分離する構成とすると、処理装置20は、キャラクタを利用したアシスタント機能にリソースを割かなくてよくなる。
In this way, by separating the configuration related to the assistant function using characters from the
また、処理装置20は、外部デバイスであるインタフェース装置10からコマンドを受信し、コマンドを解釈してAPIに渡す処理を実行するだけのアプリケーション2000をインストールしてもよい。アプリケーション2000は、キャラクタの表示や、会話の制御といった処理を行う必要がないため、小さいプログラムサイズで実現することができる。また、アプリケーション2000は、プログラムサイズが小さいことから、常駐メモリの量も小さく抑えることができる。
Further, the
また、処理装置20が実行した処理の結果については、その処理装置20を通じて確認し、インタフェース装置10については処理が実行されたことについてはキャラクタを通じて確認することができる。インタフェース装置10は、処理装置20を遠隔操作する装置として機能するほか、処理が実行されたことについてはキャラクタを通じて確認できるといった、例えば趣味的、玩具的な性質を持つ装置として機能することができる。
Further, the results of the processing executed by the
[1.4 処理の流れ]
[1.4.1 全体処理]
本実施形態における処理の流れについて、図6を参照して説明する。図6は、インタフェース装置10の処理と、処理装置20の処理とを記載した図である。
[1.4 Process flow]
[1.4.1 Overall processing]
The flow of processing in this embodiment will be explained with reference to FIG. 6. FIG. 6 is a diagram illustrating the processing of the
まず、インタフェース装置10は、認識処理を実行する(ステップS102)。インタフェース装置10は、認識処理を実行すると、ユーザから受け付けたメッセージに応じたコマンドを生成する。そして、インタフェース装置10は、生成したコマンドを処理装置20に送信する(ステップS104)。
First, the
処理装置20は、コマンドを受信すると(ステップS152)、コマンド実行処理を実行する(ステップS154)。すなわち、コマンド受信部2010は、インタフェース装置10からコマンドを受信する。コマンド解釈部2020が、受信したコマンドに対応する処理の内容を設定テーブル2300を参照して解釈する。コマンド実行部2030が、解釈された処理の内容に基づいて処理装置20において処理を実行する。
Upon receiving the command (step S152), the
これにより、処理装置20は、インタフェース装置10において受け付けたメッセージに対応する処理を実行することになる。
As a result, the
また、処理装置20は、コマンドを実行した結果を応答としてインタフェース装置10に返す必要があるときは(ステップS156;Yes)、インタフェース装置10に応答情報を送信する(ステップS158)。
Further, when the
インタフェース装置10は、処理装置20から応答情報を受信すると(ステップS110)、応答処理を実行する(ステップS112)。インタフェース装置10は、応答処理を実行することで、例えば、応答情報に含まれている情報に基づいてキャラクタの表示を制御したり、音声を出力したりすることができる。
When the
このように、図6に記載した処理によれば、ユーザは、インタフェース装置10にメッセージを入力することで、処理装置20で必要な処理を実行することができる。また、ユーザは、インタフェース装置10において、処理装置20からの応答を確認することも可能となる。
In this way, according to the process shown in FIG. 6, the user can execute the necessary process on the
[1.4.2 認識処理]
図6のステップS102に記載した認識処理の一例について、図7を参照して説明する。制御部100は、ユーザからの音声の入力を受け付ける(ステップS1002)。
[1.4.2 Recognition processing]
An example of the recognition process described in step S102 in FIG. 6 will be described with reference to FIG. 7. The
つづいて、制御部100は、音声を認識する(ステップS1004)。ステップS1004では、例えば、音声認識部1100は、音声によるメッセージを認識することで、文字列(つまり、テキストデータ)のメッセージに変換する。また、変換後のメッセージは、会話制御部1300に出力される。会話制御部1300は、入力されたメッセージに基づいて、ユーザと会話を行う。会話制御部1300は、ユーザとの会話に応じて、反応を行ってもよい。例えば、会話制御部1300は、挨拶や、返事(例えば、はい/いいえ)、他の質問を、音声出力部162を介して音声で出力することができる。また、会話制御部1300は、このときキャラクタ制御部1400を介して表示しているキャラクタの表示態様を変えてもよい。例えば、キャラクタ制御部1400は、会話制御部1300が肯定的な返事をするときに、キャラクタを笑顔の表情にしてもよい。
Subsequently, the
このように、会話制御部1300がユーザとの会話を行うことで、ユーザはキャラクタを通して人と話しているように会話を楽しむことができる。また、このとき、キャラクタの表示態様(例えば、キャラクタの顔の表情、キャラクタの身体の動作、姿勢等)を変化させることで、ユーザはキャラクタが会話に応じて変化が生じることから視覚的にも楽しむことが可能となる。
By having the
ここで、制御部100は、メッセージの中に処理装置20において処理を実行するための特定のフレーズが含まれているかを解釈する(ステップS1006)。ユーザから受け付けられたメッセージの一部又は全部が、処理装置20において処理を実行する特定のフレーズがあったとき(ステップS1008;Yes)、制御部100は、当該メッセージ又はフレーズに対応するコマンドを生成する(ステップS1010)。具体的には、コマンド生成部1020が、コマンドテーブル1200を参照し、コマンドを生成する。
Here, the
[1.5 動作例]
例えば、ユーザがインタフェース装置10に特定のフレーズを含む言葉を話しかける。インタフェース装置10は、ユーザが発した言葉(つまり、音声による言葉)を取得する。例えば、「おはよう」というメッセージを認識すると、インタフェース装置10は、メッセージに対応するコマンドを処理装置20に送信する。処理装置20は、コマンドに応じて、例えば、「メーラを起動する」「メーラを起動してメールを受信する」「ブラウザを起動する」といった処理を実行する。なお、この発話に含まれるメッセージやフレーズが、必ずしも特定の指示内容を直接示すものではない。すなわち、この発話に含まれるメッセージやフレーズが、処理装置20において実行するアプリケーションに関連性を有するものであってもよい。関連を有するフレーズは、例えば「メーラ」「メール送受信アプリケーション」に対して、例えば「メールを受信する」というフレーズである。また、関連を有しないフレーズは、例えば「おはよう」「おやすみなさい」「さようなら」といったフレーズである。
[1.5 Operation example]
For example, a user speaks words including a specific phrase to the
例えば、システム1は、メッセージ又はフレーズに対応して、コマンドテーブル1200、設定テーブル2300等を参照し、ユーザが設定した処理内容を処理装置20において実行することができる。なお、ユーザがメッセージ又はフレーズ(つまり、インタフェース装置10が認識した認識フレーズ、ユーザが発話した発話フレーズ)と、コマンドや処理内容との関係の設定については、別の実施形態において説明する。
For example, the
[1.5.1 第1動作例]
図8を参照して、本実施形態の第1動作例について説明する。インタフェース装置10は、表示領域W10に、表示態様V102としてキャラクタを表示している。
[1.5.1 First operation example]
A first operation example of this embodiment will be described with reference to FIG. 8. The
そこで、ユーザU1が「昨日みていた表計算のファイルを探して」と音声を発する(C102)。インタフェース装置10に、当該音声(C102)が入力される。
Then, the user U1 utters a voice saying, "Search for the spreadsheet file you were looking at yesterday" (C102). The audio (C102) is input to the
インタフェース装置10は、入力された音声を認識し、認識したメッセージ(C102)から、処理装置20を操作するためのフレーズを認識し、対応するコマンドを生成する。このとき、例えば処理装置20は、メッセージを受け付けたことをユーザU1に返してもよい。例えば、インタフェース装置10は、「オッケー」と音声を出力してもよい(C104)。インタフェース装置10において出力された音声(C104)は、ユーザU1が聞き取ることができる。また、インタフェース装置10は、表示領域W10に、表示態様V104としてキャラクタを表示する。ここで、表示態様V104は、キャラクタの表情は笑顔で表示されている。また、表示態様V104は、キャラクタの動作としてピースサインをする動作をしている。
The
ユーザU1は、インタフェース装置10からの音声(C104)や、キャラクタの表示態様V104から、メッセージに対応する処理が正しく実行されていることを直感的に理解することができる。また、ユーザU1は、キャラクタと会話しながら処理装置20において所望する処理の実行をすることが可能となる。また、本実施形態のインタフェース装置10は、キャラクタと疑似的に会話ができることから、娯楽性の高いインタフェースを提供することができる。
The user U1 can intuitively understand from the voice (C104) from the
インタフェース装置10は、処理装置20に対してコマンドを送信する(M102)。インタフェース装置10は、処理装置20が解釈できるコマンド「WS YS」を生成し、処理装置20に送信する。
The
処理装置20は、受信したコマンドに基づいて、処理内容(ここでは、Worksheet.exe 20220215)に変換する。そして、処理装置20は、処理を実行する(M104)。処理装置20は、処理を実行したことにより、例えば表示領域W12に、表計算アプリのファイル一覧の画面が表示される(領域R102)。領域R102は、処理において指定された日付のファイルを一覧表示している。
The
[1.5.2 第2動作例]
図9を参照して、本実施形態の第2動作例について説明する。第2動作例は、ユーザがインタフェース装置10と複数回の会話を継続する場合の動作例である。
[1.5.2 Second operation example]
A second operation example of this embodiment will be described with reference to FIG. 9. The second operation example is an operation example in which the user continues a plurality of conversations with the
まず、ユーザU1は、「文章ファイルを開いて」と音声を発する(C122)。インタフェース装置に、当該音声(C122)が入力される。インタフェース装置10は、表示領域W12に、キャラクタが表示態様V122で表示されている。
First, the user U1 utters a voice saying "Open the text file" (C122). The audio (C122) is input to the interface device. In the
例えば、「文章ファイルを開いて」というメッセージは、更に具体的に開く文章ファイルを特定する情報(例えば、ファイル名等)を引数として持たせることができる。そこで、インタフェース装置10は、ユーザU1に対し「何のファイルを開くの?」と音声を発する(C124)。このように、インタフェース装置10は、再度ユーザにメッセージを入力することを促してもよい。
For example, the message "Open text file" can have as an argument information (for example, file name, etc.) that more specifically specifies the text file to be opened. Therefore, the
また、インタフェース装置10は、キャラクタの表示態様を表示態様V124と変化して表示してもよい。例えば、インタフェース装置10は、具体的に開くファイルが特定できないために、キャラクタの表情を怒った表情としたり、困った表情としたりしてもよい。インタフェース装置10は、表情以外にも、例えばキャラクタの動作、姿勢において、困ったことを示す動作を表示してもよい。
Further, the
ユーザU1は、インタフェース装置10から、「何のファイルを開くのか?」と確認されているため、具体的なファイルに関する情報を音声で発する。例えば、ユーザU1は「日報のファイル」と音声を発する(C126)。インタフェース装置10は、音声を認識したメッセージを、「日報」のファイルに対応する「nippou」に変換し、処理装置2にコマンド「DOC nippou」を送信する(M122)。また、インタフェース装置10は、ユーザU1に対しては「オッケー!」と音声を発してもよい(C128)。また、インタフェース装置10は、キャラクタの表示態様を変化させてもよい(V126)。
Since the user U1 has been asked by the
このように、ユーザと、キャラクタとの間で何往復か会話をすることで、会話内容に応じて処理装置20で実行する処理内容を適切に特定することができる。また、インタフェース装置10は、ユーザが発話したメッセージの内容が明確でないときは、会話を繰り返すことによりメッセージの内容を明確にしてもよい。
In this way, by having several back-and-forth conversations between the user and the character, the content of the process to be executed by the
なお、インタフェース装置10に表示されるのは、表情、動作、姿勢等により状態を表現可能なキャラクタが好ましい。例えば、図10は、インタフェース装置10に表示されるキャラクタの一例を示すものであり、人間を模したキャラクタが表示されている。図10(a)は、第1のキャラクタの状態としてキャラクタV130を示すものである。また、図10(b)は、第2のキャラクタの状態としてキャラクタV132を示すものである。
Note that what is displayed on the
例えば、図10(a)のキャラクタV130は、通常の状態を示している。また、図10(b)のキャラクタV132は、怒ってたり、困っていたりする状態を示している。これらキャラクタの状態は、主にキャラクタの表情や、動作、姿勢といた動き(アクション)の組み合わせで表してもよい。キャラクタの表情は、キャラクタの顔の部分で表すことができる。また、キャラクタの動作、姿勢は、キャラクタの身体の部分で表すことができる。また、キャラクタの表情、動作、姿勢から、キャラクタの感情を表すことができる。 For example, character V130 in FIG. 10(a) shows a normal state. Further, the character V132 in FIG. 10(b) shows an angry or troubled state. The states of these characters may be expressed mainly by a combination of movements (actions) such as facial expressions, movements, and postures of the characters. The character's facial expression can be expressed by the character's face. Furthermore, the character's motion and posture can be expressed by the character's body parts. Furthermore, the character's emotions can be expressed from the character's facial expressions, actions, and posture.
例えば、図10(a)から図10(b)にキャラクタの状態を遷移させるときは、顔の部分F102のように通常の表情から、顔の部分F104のように、怒った表情に遷移させるとよい。 For example, when transitioning the state of a character from FIG. 10(a) to FIG. 10(b), it is necessary to transition from a normal expression as in the face part F102 to an angry expression as in the face part F104. good.
なお、顔の表情は種々の表情が考えられる。図10(c)は、顔の表情を模式的に示した図である。顔の表情を喜んでいる表情F112、怒っている表情F114、無表情F116、困っている表情F118、泣いている表情F120、喜んでいる表情F122等、種々の表情に切り替えることができる。 Note that various facial expressions are possible. FIG. 10(c) is a diagram schematically showing facial expressions. The facial expression can be switched to various expressions such as a happy expression F112, an angry expression F114, a neutral expression F116, a troubled expression F118, a crying expression F120, and a happy expression F122.
また、図10(a)から図10(b)にキャラクタの表情を遷移させるときは、身体の部分B102のように通常の状態から、身体の部分B104のように、怒っている動作に遷移させてもよい。 Also, when transitioning the facial expression of the character from FIG. 10(a) to FIG. 10(b), the character's facial expression is transitioned from a normal state like body part B102 to an angry action like body part B104. You can.
なお、身体の動作や、姿勢は種々のものが考えられる。例えば、ピースサインをしている動作、万歳をしている動作、呼びかけている動作、走っている動作、寝ている動作と種々の動作を示してもよい。また、キャラクタの動作は、静止画だけでなく、動画であってもよい。例えば、キャラクタが疲れている動作として、息切れしている動画で動作を示したり、キャラクタが走っている動画で動作を示したりしてもよい。また、キャラクタは人間を模したもの以外にも、動物、装置を模したキャラクタであってもよい。 Note that various body movements and postures can be considered. For example, various motions such as a peace sign, a cheer, a shout, a running motion, and a sleeping motion may be shown. Further, the character's motion may be not only a still image but also a moving image. For example, an action in which the character is tired may be shown by a moving image in which the character is out of breath, or may be shown in a moving image in which the character is running. Moreover, the character may be a character imitating an animal or a device in addition to a character imitating a human being.
[1.6 効果]
このように、本実施形態によれば、インタフェース装置10を利用することで、処理装置20は少ないリソースでキャラクタを利用してユーザが処理の実行の指示を入力するシステムを実現することができる。
[1.6 Effect]
As described above, according to the present embodiment, by using the
例えば、キャラクタに着目すると、キャラクタの「こころ」(例えば、ユーザとの会話を制御する、キャラクタの感情を表現する等)は、インタフェース装置10に実装することができる。また、キャラクタの「耳」もインタフェース装置10に実装することができる。また、キャラクタの「口」についても、インタフェース装置10に実装してもよい。
For example, focusing on a character, the character's "heart" (for example, controlling conversation with the user, expressing the character's emotions, etc.) can be implemented in the
これにより、なるべく処理装置20(例えばPC)のリソースは使わずに、演出効果の高く、ユーザにとって親しみをシステムを提供することができる。 As a result, it is possible to provide a system that is highly effective and user-friendly, without using the resources of the processing device 20 (for example, a PC) as much as possible.
例えば、ユーザから「昨日みていた表計算のファイルを探して」といった指示をインタフェース装置10にする。インタフェース装置10は「オッケー」等の応答を行う。また、インタフェース装置は、応答を行うのと併せて、処理装置20に対して命令(コマンド)を発行することができる。なお、インタフェース装置10は、応答を行うのと同時に命令を発行してもよい。これにより、処理装置20上に、「昨日みていた表計算のファイル」が表示される。
For example, a user may issue an instruction to the
また、本実施形態によれば、外部デバイスであるインタフェース装置10がコントロールする側であり、処理装置20がコントロールされる側である。インタフェース装置10から、処理装置20のOS2200のAPIを直接利用するコマンドを送信してもよい。
Furthermore, according to this embodiment, the
また、インタフェース装置10は、汎用的な装置よりも、専用機とするとよい。例えば、インタフェース装置10は、上述したAirタッチセンサを利用することで、ユーザはキャラクタに触れている感覚を得ることができる。また、インタフェース装置10は、外観を面白い形状とするとよい。
Further, the
また、インタフェース装置10は、OSとしてAndorid(登録商標)や、Windows Embedded(登録商標)、Chrome OSといった軽量のOSに、ディスプレイを備えた持ち運びが可能なくらいの大きさの専用端末とするとよい。
Further, the
また、上述した機能は、他のアプリケーションに組み込まれてもよい。例えば、キャラクタが活躍するゲームアプリに組込むことで、ゲーム操作を行いつつ、キャラクタの状態を確認することが可能となる。 Additionally, the above-described functionality may be incorporated into other applications. For example, by incorporating it into a game application in which characters play an active role, it becomes possible to check the status of the character while performing game operations.
[2.第2実施形態]
第2実施形態について説明する。第2実施形態は、ユーザが音声を発することができない場合の実施形態である。なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。
[2. Second embodiment]
A second embodiment will be described. The second embodiment is an embodiment in which the user is unable to make a sound. Note that the system configuration and the configuration of each device of this embodiment are almost the same as those of the first embodiment, and the following description will focus on the differences in this embodiment.
第2実施形態では、インタフェース装置10は、音声以外の手段でユーザからの操作の入力を受け付けて、処理装置20を遠隔操作したり、キャラクタと関連づけた出力をしたりする機能を有する。インタフェース装置10は、例えば、入力部150を用いてユーザからボタン操作やタッチ操作といった、物理的に設けられた入力手段に対する操作の入力として受け付ける。なお、ユーザからの音声操作以外の操作を物理操作という。物理操作は、物理的にハードウェアボタンが選択されたこと、表示部240に表示されたソフトウェアボタンが選択されたこと等を含むものとする。また、物理操作は、ユーザの動きであるジェスチャに基づいた操作が含まれるようにするとよい。
In the second embodiment, the
また、第2実施形態のコマンドテーブル2200は、コマンドに物理操作が対応付けられている。例えば、コマンドテーブル2200は、「MAIL」のコマンドに、対応する操作ボタン(例えば、インタフェース装置10に設けられている何れかの操作ボタン)が対応付けられている。また、コマンドテーブル2200は、コマンドに、物理操作としてジェスチャ動作を対応付けてもよい。 Further, in the command table 2200 of the second embodiment, physical operations are associated with commands. For example, in the command table 2200, the command "MAIL" is associated with a corresponding operation button (for example, any operation button provided on the interface device 10). Further, the command table 2200 may associate gesture motions as physical operations with commands.
コマンドテーブル2200は、1つのコマンドに複数の物理操作が対応付けられてもよい。また、コマンドテーブル2200は、1つのコマンドに、図5(a)に示したメッセージ内容と、更に物理操作を対応付けてもよい。 In the command table 2200, one command may be associated with a plurality of physical operations. Further, the command table 2200 may associate one command with the message content shown in FIG. 5(a) and further with a physical operation.
図6の認識処理(ステップS102)において、本実施形態では、ユーザから音声以外の物理操作により、コマンドを生成する。 In the recognition process (step S102) in FIG. 6, in this embodiment, a command is generated by a physical operation other than voice from the user.
例えば、図3で示したメッセージ解釈部1010は、音声認識部1100が音声認識をした結果であるメッセージの代わりに、入力部150を用いて入力される物理操作を受け付ける。そして、コマンド生成部1020は、受け付けた物理操作に基づいて、コマンドを生成する。
For example, the
インタフェース装置10は、ユーザからの物理操作を受け付けるために、例えば表示部140に操作ボタンを表示してもよい。ユーザが表示部140に表示している操作ボタンを選択することで、入力部150に対する物理操作があったと判定する。
The
また、インタフェース装置10は、ユーザからの物理操作を受け付けるために、入力部150として物理的な操作ボタンを更に有していてもよい。インタフェース装置10は、ユーザにより物理的な操作ボタンが選択されることで、入力部150に対する物理操作があったと判定する。
Further, the
また、インタフェース装置10は、入力部150を用いて、物理操作としてユーザのジェスチャの入力を受け付け、このジェスチャを認識できる装置であってもよい。例えば、入力部150は、人間の骨格や表情を深度センサやカメラで認識することで、ユーザのジェスチャに応じた操作を受け付けることができる。ユーザのジェスチャを認識することができる装置としては、例えばマイクロソフト社のKinect等を利用してもよい。
Further, the
このように、第2実施形態は、インタフェース装置10は、ユーザからの音声による入力だけでなく、音声以外の入力を受け付ける構成としてもよい。インタフェース装置10は、音声による入力以外の入力である物理操作に基づいて、コマンドを生成してもよい。ユーザは、インタフェース装置10に対して、処理装置20を音声による操作だけでなく、音声以外の操作を行うことで処理装置20において処理を実行することができる。
In this way, in the second embodiment, the
また、ユーザは、音声操作と、物理操作とを、同時に又は切り替えて使用することができる。なお、切り替えて使用する場合、音声操作と、物理操作との切替はユーザが任意のタイミングで切り替えてもよいし、時間帯によって切り替えてもよい。また、インタフェース装置10の設置場所に応じて切り替えてもよい。例えば、インタフェース装置10は、インタフェース装置10の設置場所を位置情報取得手段で取得し、位置に応じて音声操作と物理操作とを切り替えてもよい。ここで、位置取得手段は、例えばGPS(Global Positioning System)利用して位置を取得してもよいし、インタフェース装置10が接続する無線の接続先に応じて取得してもよい。例えば、無線の接続先が、移動体通信システムのときは、基地局装置から送信される基地局装置の情報を利用してもよい。また、無線の接続先が、無線LANのときは、基地局から送信されるSSIDにより位置を特定してもよい。
Furthermore, the user can use voice operations and physical operations simultaneously or by switching between them. In addition, in the case of switching between the voice operation and the physical operation, the user may switch between the voice operation and the physical operation at any timing, or depending on the time of day. Further, it may be switched depending on the installation location of the
[3.第3実施形態]
[3.1 構成]
第3実施形態について説明する。第3実施形態は、インタフェース装置10からの操作入力と併せて、処理装置20において操作入力が可能な実施形態である。なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。
[3. Third embodiment]
[3.1 Configuration]
A third embodiment will be described. The third embodiment is an embodiment in which operation input can be performed on the
第3実施形態のソフトウェア構成を図11に示す。第3実施形態の処理装置20は、更にチャット制御部2400を有している。
FIG. 11 shows the software configuration of the third embodiment. The
チャット制御部2400は、操作部250が受け付けたユーザからの操作入力を表示部240にチャット画面として表示する。ここで、操作は、例えば、表示部240に表示された選択候補の中からユーザが選択する方法でもよいし、ユーザがハードウェアキーボードや、ソフトウェアキーボードより文字又は文字列が入力する方法でもよい。
チャット制御部2400は、ユーザから入力された文字列を、会話制御部1300に送信する。会話制御部1300は、ユーザから入力された文字列に応答する文字列をチャット制御部2400に送信する。
チャット制御部2400は、ユーザから入力された文字列、会話制御部1300から取得された文字列を、チャット画面に表示する。
ここで、チャット画面は、会話制御部1300が制御する会話が表示されている表示画面である。例えば、ユーザが入力した文字列と、会話制御部1300が出力した文字列が、時系列に表示される画面である。
Here, the chat screen is a display screen on which a conversation controlled by the
また、チャット画面は、常時画面に表示されていなくてもよい。例えば、表示画面は普段はタスクバーに格納されていたり、最小化されていたりしてもよい。そして、チャットを行う必要があったときに、必要に応じてポップアップ処理がされたり、ウィンドウが復元され、チャット画面がデスクトップ上に表示されてもよい。 Further, the chat screen does not need to be displayed on the screen all the time. For example, the display screen may normally be stored in the task bar or minimized. Then, when it is necessary to chat, a pop-up process may be performed as necessary, the window may be restored, and the chat screen may be displayed on the desktop.
チャット制御部2400は、チャット画面を表示部240に表示しているが、表示部140に表示してもよいし、双方に表示してもよい。
Although the
すなわち、インタフェース装置10は、ユーザから入力された操作を、処理装置20を介して取得する。また、インタフェース装置10は、ユーザへ出力するメッセージを、処理装置20を介して出力する。
That is, the
また、インタフェース装置10は、会話制御部1300が、ユーザと行う会話の内容に応じてキャラクタの表示態様を変更させるとよい。すなわち、インタフェース装置10は処理装置20に会話で使用する文字列を送信するときに、キャラクタに適当なリアクションをさせる。ユーザは、会話の内容に応じて、適切にキャラクタの表情、姿勢、動作が変化することから、キャラクタに処理を実行してもらっている感じを演出することができる。
Further, in the
[3.2 処理の流れ]
図12は、本実施形態の処理を示した図であり、第1実施形態の図6を置き換えたものである。図12では、チャット処理(ステップS202)を実行する処理が追加されている。
[3.2 Process flow]
FIG. 12 is a diagram showing the processing of this embodiment, replacing FIG. 6 of the first embodiment. In FIG. 12, processing for executing chat processing (step S202) is added.
インタフェース装置10又は処理装置20(以下、インタフェース装置10等という)は、チャットをする必要があるときは、チャット処理を開始する(ステップS202)。例えば、インタフェース装置10は、処理装置20においてチャット処理を実行するためのコマンドや、トリガー信号を処理装置20に送信してもよい。また、処理装置20は、インタフェース装置10からチャット処理を開始するコマンドや、トリガー信号が受信したときに、チャット処理を実行する。
When the
また、処理装置20は、ユーザからの操作がされたとき、チャット処理を実行してもよい。処理装置20は、チャット処理を実行したときに、チャット処理が実行されたことをインタフェース装置10に送信してもよい。
Further, the
処理装置20においてチャット処理が開始されると、処理装置20において文字入力モードが開始してもよい。文字入力モードは、ユーザが文字入力した会話と、キャラクタが話した会話とが会話形式で表示されるとよい。ここで、キャラクタが話した会話とは、インタフェース装置10の会話制御部1300が出力した文字であってもよい。また、インタフェース装置10は、キャラクタが擬似的に会話をしているときは、インタフェース装置10のキャラクタの表示態様を変化させてもよい。
When chat processing is started in the
また、インタフェース装置10等は、チャット処理を中止する構成を有するとよい。チャット処理の中止は、処理装置20において終了の操作がされてもよい。また、チャット処理の中止は、インタフェース装置10においてチャット処理を終了することを検出し、処理装置20にチャット処理を中止するコマンドや、トリガー信号を送信してもよい。
Further, the
チャット処理が中止された場合、第1実施形態と同様に、ユーザは、インタフェース装置10に音声を入力することで、処理装置20を操作することができる。
When the chat process is canceled, the user can operate the
また、インタフェース装置10等は、チャット処理を開始しているときも、インタフェース装置10から音声入力を受け付けてもよい。
Furthermore, the
ここで、インタフェース装置10等が、インタフェース装置10の環境に応じてチャット処理を開始する必要があるか判定する。ここで、チャット処理を開始する必要があると判定する例についていくつか説明する。
Here, the
(1)ユーザからチャットを行う操作で判定する
ユーザによりチャットを行う操作が行われたことを検出した場合、インタフェース装置10等はチャット処理を開始する。例えば、インタフェース装置10に対して、ユーザがチャットを開始する操作をしてもよい。この操作は、ユーザが音声を発してもよいし、操作ボタンによる操作であってもよい。
(1) Determining based on the user's operation to perform a chat If it is detected that the user has performed an operation to perform a chat, the
また、ユーザは処理装置20にチャットを開始する操作をしてもよい。例えば、ユーザは、処理装置20に表示されたチャットを開始するボタンを操作してもよい。また、ユーザは、処理装置20からキー入力を行うことで、チャットを開始してもよい。
Further, the user may perform an operation on the
また、ユーザは操作によりチャットからインタフェース装置10を介した音声入力に切り替える操作をしてもよい。これにより、チャット処理は終了し、ユーザは、第1実施形態と同様にインタフェース装置10に対して音声による操作を入力することができる。
Further, the user may perform an operation to switch from chatting to voice input via the
(2)インタフェース装置10等の場所により判定する
インタフェース装置10が設置されている場所を位置情報取得手段で検出し、必要に応じてチャット処理を実行してもよい。インタフェース装置10の場所を取得する位置情報取得手段は、例えばGPS(Global Positioning System)利用して位置を取得してもよいし、インタフェース装置10が接続する無線の接続先に応じて取得してもよい。例えば、無線の接続先が、移動体通信システムのときは、基地局装置から送信される基地局装置の情報を利用してもよい。また、無線の接続先が、無線LANのときは、基地局から送信されるSSIDにより位置を特定してもよい。
(2) Determination based on the location of the
インタフェース装置10が、前回チャット処理で接続した場所であれば、チャット処理を開始してもよい。例えば、インタフェース装置10は、前回チャット処理を実行した位置、例えば、チャット処理を実行していたときの緯度経度情報、チャット処理を実行していたときのSSID(基地局情報の一例)に対応してチャット処理を関連づける。インタフェース装置10が、対応付けられた緯度経度情報で示された近傍の位置にある場合、チャット処理を開始してもよい。また、インタフェース装置10は、前回チャット処理を開始したときに接続していた基地局に接続しているときは、チャット処理を開始する。
If the
また、インタフェース装置10は、例えば、インタフェース装置10が設置されている場所が、会社や図書館、レストラン等の公共施設等のときは、チャット処理を開始してもよい。また、インタフェース装置10は、例えば電車で移動中の場合はチャット処理を開始してもよい。また、インタフェース装置10は、例えば自動車(例えば、自家用車)で移動中の場合は、チャット処理を終了してもよい。
Further, the
(3)スケジュールにより判定する
チャット処理を開始するスケジュールをインタフェース装置10等に登録してもよい。インタフェース装置10等は、登録されたスケジュールを参照し、チャット処理を開始する時間に含まれていれば、チャット処理を開始してもよい。例えば、ユーザが、深夜等は音がうるさくなるため、チャット処理に切り替える時間帯として登録としてもよい。
(3) Determination based on schedule A schedule for starting chat processing may be registered in the
(4)環境に応じて判定する
インタフェース装置10等は、チャット処理を開始したが方が適切と判定した場合には、チャット処理を実行してもよい。例えば、インタフェース装置10は、周辺の環境音が所定の音量レベル以下のときは、公共施設であると判定し、チャット処理を実行してもよい。また、インタフェース装置10等は、ユーザが小声で会話しているときは、本来声を出せない場所であると判定し、チャット処理に切り替えてもよい。
(4) Determine according to the environment If the
(5)学習結果に応じて判定する
インタフェース装置10等は、チャット処理に切り替えた回数に応じて、学習をし、学習結果に応じてチャット処理を開始するかを判定して、チャット処理を実行してもよい。
(5) Determine according to the learning result The
なお、これらのチャット処理に着替えるのは、ユーザに確認をしてもよいし、自動的に切り替えられてもよい。また、インタフェース装置10は、ユーザに対して「今日もチャットでよい?」と確認をするようにしてもよい。
Note that switching to these chat processes may be confirmed by the user, or may be automatically switched. Further, the
[3.3 動作例]
つづいて、図13を参照して本実施形態の動作について説明する。例えば、インタフェース装置10がチャット処理を行うことを判定してもよい。インタフェース装置10は、処理装置20に対して、チャット処理を実行するトリガー信号を送信する。
[3.3 Operation example]
Next, the operation of this embodiment will be explained with reference to FIG. 13. For example, it may be determined that the
また、処理装置20においてチャット処理を実行する操作がされてもよい。このとき、処理装置20から、インタフェース装置10に対してチャット処理が実行されたことを示す信号や、コマンドを送信してもよい。
Further, an operation may be performed on the
そして、処理装置20は、チャット処理を実行することで表示画面W202に、チャットウィンドウを領域R202に表示する。領域R202に表示されるチャットウィンドウは、操作部250から取得した文字列(C202、C206)と、インタフェース装置10から取得した文字列(C204、C208)とが表示されている。また、チャットウィンドウは、取得した文字列以外にも、ユーザを示す識別表示や、文字列を取得した日時等を併せて表示してもよい。また、識別表示は、例えばユーザを示すアイコンを表示してもよいし、ユーザ名を表示してもよい。また、識別表示は、ユーザ毎にフォントの種類や、文字の色を変えて表示してもよい。
Then, the
ユーザが入力した文字列が、インタフェース装置10に送信されると、インタフェース装置10は、当該文字列に対して認識処理を実行する。文字列に対する認識処理は、当該文字列に対応するコマンドを特定する処理である。そして、ユーザが入力した文字列に対応するコマンドがあるときは、インタフェース装置10は、コマンドを生成して処理装置20に送信する。
When the character string input by the user is transmitted to the
また、処理装置20は、インタフェース装置10から受信したコマンドを解釈し、対応する処理を実行する。例えば、本図では、ユーザが「昨日のファイルを探して」(C202)と文字列を入力すると、インタフェース装置10は当該文字列を受信する。インタフェース装置10は、「昨日のファイルを探して」という文字列を解釈し、昨日付のファイルを一覧表示するコマンドを生成する。そして、処理装置20は、昨日付のファイルを一覧表示するコマンドを受信すると、昨日付のファイルを一覧表示する。これにより、例えば表示画面W202の領域R204には、昨日付のファイルを一覧表示するウィンドウが表示される。
The
なお、チャットウィンドウは、上述した実施形態では、処理装置20に表示しているが、インタフェース装置10に表示してもよい。また、チャットウィンドウは、処理装置20以外の他の装置に表示してもよい。処理装置20以外の他の装置は、例えば、スマートフォンや、タブレット装置であってもよいし、ユーザが身につけているウェアラブル端末装置であってもよい。
Note that although the chat window is displayed on the
このように、本実施形態によれば、音声入力が難しい場面でも、本システムを利用することができる。例えば、会社内など音声による入力が難しい場合には、処理装置20にテキストを入力し、インタフェース装置10に送信される。インタフェース装置10から、入力したテキストに応答する内容が、処理装置20に戻ってくることで、キャラクタとチャットしているような状態を演出できる。すなわち、インタフェース装置10のキャラクタの発言も、処理装置20で確認することができる。
In this way, according to the present embodiment, the present system can be used even in situations where voice input is difficult. For example, if voice input is difficult, such as in a company, text is input into the
また、インタフェース装置10から音声を入力するモード(音声モード)と、処理装置20から文字を入力するモード(チャットモード)とは自動で切り替えてもよい。 Further, the mode for inputting voice from the interface device 10 (voice mode) and the mode for inputting characters from the processing device 20 (chat mode) may be automatically switched.
なお、音声モードとチャットモードとで、インタフェース装置10におけるキャラクタに関連付けた出力、及び処理装置20で実行可能な処理を同じとしてもよいが、少なくとも一方を異ならせてもよい。少なくとも一方を異ならせるようにすると、ユーザが音声モードとチャットモードとの両方を使用する動機が強くなる効果が期待できる。また、音声モードとチャットモードとで、認識した文字列とコマンドとの関係を同じとしてもよいが、異ならせてもよい。同じとすると文字列とコマンドとの関係の設定が簡単なるし、異ならせるようにすると、音声モードとチャットモードの各モードの特性に適した関係を設定しやすくなる。
Note that the output associated with the character in the
[4.第4実施形態]
続いて第4実施形態について説明する。上述した実施形態では、インタフェース装置10は表示部140にキャラクタを表示する装置を例に説明した。本実施形態では、インタフェース装置10を他の装置に置き換えた実施形態である。また、本実施形態では、処理装置20が複数ある場合の実施形態についても説明する。
[4. Fourth embodiment]
Next, a fourth embodiment will be described. In the embodiments described above, the
なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。 Note that the system configuration and the configuration of each device of this embodiment are almost the same as those of the first embodiment, and the following description will focus on the differences in this embodiment.
[4.1 インタフェース装置]
図14(a)は、キャラクタ等を模した人形型のインタフェース装置12のイメージ図である。すなわち、インタフェース装置12の筐体が、キャラクタと関連する外観を有していてもよい。インタフェース装置12の筐体は、人形型の装置であってもよく、キャラクタをそのまま表した形状であってもよいし、デフォルメした形状であってもよい。また、インタフェース装置12の筐体は、例えば外形にポリ塩化ビニルや、ポリレジン、ソフトビニール等の素材を利用してもよい。また、人形型の装置は、いわゆる「ねんどろいど」のような製品を利用してもよい。
[4.1 Interface device]
FIG. 14(a) is an image diagram of a doll-shaped interface device 12 imitating a character or the like. That is, the casing of the interface device 12 may have an appearance related to the character. The casing of the interface device 12 may be a doll-shaped device, or may have a shape that directly represents a character, or may have a deformed shape. Furthermore, the casing of the interface device 12 may be made of a material such as polyvinyl chloride, polyresin, or soft vinyl for its outer shape. Further, as the doll-shaped device, a product such as a so-called "Nendoroid" may be used.
また、インタフェース装置12は、表示部140の代わりに、報知装置を設けてもよい。図14(a)では、LED242を目の部分に設けている。LED242は、点灯、点滅等することにより、ユーザに対して状態を示すことができる。また、インタフェース装置12は、スピーカや、マイクを内蔵してもよい。また、インタフェース装置12は、体部分が動いたり、顔の表情が変化してもよい。インタフェース装置12は、キャラクタ等を模したロボット装置であってもよい。
Further, the interface device 12 may be provided with a notification device instead of the
また、インタフェース装置10は、具体的な筐体で表される形状ではなく、VRゴーグル、MRゴーグルに組み込まれることにより仮想空間に表示されるキャラクタで表してもよい。
Furthermore, the
また、インタフェース装置10は、既存の装置にアプリケーションをインストールすることが実現してもよい。図14(b)は、ユーザが身につける腕時計型のウェアラブル端末装置14である。ウェアラブル端末装置14は例えば、腕時計型装置(ウォッチ型装置)であってもよい。
Furthermore, the
また、図14(c)は、スマートフォン16である。これらの装置に、図3のアプリケーション1000をインストールし、コマンドテーブル1200を記憶することで、インタフェース装置10と同等の機能を実現することが可能である。また、既存の装置は、キャラクタを表示するインタフェースを提供するときは、更に会話制御部1300、キャラクタ制御部1400に相当するアプリケーションをインストールするとよい。また、音声認識部1100、情報取得部1500は、他のアプリケーションを利用してもよいし、併せてインストールしてもよい。
Moreover, FIG. 14(c) shows the smartphone 16. By installing the
[4.2 処理装置]
インタフェース装置10は、複数の処理装置と接続してもよい。例えば、図15は、インタフェース装置10が、複数の処理装置と接続可能なことを模式的に示す図である。インタフェース装置10は、処理装置20の他に、他の処理装置として処理装置22とも接続可能である。
[4.2 Processing device]
The
インタフェース装置10は、異なる処理装置と接続することで、例えばデータ等を共有することが可能である。例えば、インタフェース装置10は、処理装置20から受信した応答情報を受信し、ストレージ110に記憶する。そして、インタフェース装置10は、処理装置22に接続したときに、応答情報に含まれる情報を処理装置22に送信する。これにより、例えば異なる端末装置間でのデータのやり取りを行うことが可能となる。
By connecting the
インタフェース装置10が、複数の処理装置20と接続可能に構成されることにより、インタフェース装置10がハブとなってデータの送受信が可能となる。また、ユーザは、キャラクタがハブになって、複数の処理装置20でデータをやり取りしているように感じることができる。
By configuring the
また、処理装置は、コンピュータ以外の装置と接続してもよい。例えば、図15のインタフェース装置10は、車載用装置24と接続可能である。
Further, the processing device may be connected to a device other than a computer. For example, the
ここで、車載用装置24は、車載して利用することができる装置を含む。例えば、ここでは車載用装置24は、カーナビゲーション装置とするとよい。また、車載用装置24は、他にも、ドライブレコーダ、全運転支援装置(例えば、レーダー探知機やレーザー探知機)、カーオーディオといった車両に搭載される装置であってもおい。また、車載用装置24は、車両で利用可能であればよく、例えば、車両内で使用するスマートフォンや、タブレットも含む概念である。 Here, the in-vehicle device 24 includes a device that can be mounted and used in a vehicle. For example, here, the in-vehicle device 24 may be a car navigation device. In addition, the in-vehicle device 24 may be a device installed in a vehicle, such as a drive recorder, a full driving support device (for example, a radar detector or a laser detector), or a car audio. Further, the in-vehicle device 24 only needs to be usable in the vehicle, and is a concept that includes, for example, a smartphone and a tablet used in the vehicle.
以下、インタフェース装置10と、処理装置20と、車載用装置24とが連携して処理するときについて説明する。
Hereinafter, a case in which the
例えば、ユーザがインタフェース装置10に対して「A駅の近くに美味しいお寿司屋さんはある?」と問いかけると、インタフェース装置10は、コマンドに変換し、処理装置20に送信する。
For example, when a user asks the
処理装置20は、受信したコマンドを解釈し、表示部240に地図を表示する。このとき、処理装置20は、インタフェース装置10から入力された情報に基づいて検索処理を実行してもよい。また、併せて、処理装置20は、地図と併せて店舗情報を一覧表示してもよい。
The
ユーザは、表示された中で、所望する店舗名をインタフェース装置10に対して話かける。インタフェース装置10は、話しかけられた店舗名を含むコマンドを処理装置20に対して送信する。処理装置20は、店舗名に対応する店舗に関する情報を取得し、表示部240に表示する。また、処理装置20は、当該店舗の位置情報を含む店舗情報を、応答情報に含めてインタフェース装置10に送信する。
The user speaks the desired store name into the
インタフェース装置10は、受信した応答情報に含まれる店舗情報をストレージ110に記憶する。インタフェース装置10は、車載用装置24に接続した後、店舗情報を車載用装置24に送信する。車載用装置24であるカーナビゲーション装置は、受信した店舗情報に含まれる位置情報を目的に設定することが可能である。
The
また、インタフェース装置10は、車載用装置24から、運転に関する情報を取得する。そして、インタフェース装置10が、家庭にある処理装置20に接続したときに、インタフェース装置10は、運転に関する情報に基づいたコマンドを処理装置20に送信する。処理装置20は、例えば危険運転があった場所を、ブラウザ上で表示してもよい。また、インタフェース装置10は、キャラクタを介して「あぶない運転があったよ」と、ユーザに知らせてもよい。
The
また、インタフェース装置10は、複数の処理装置20と接続してもよい。このとき、インタフェース装置10は、接続されている処理装置毎に異なるキャラクタを表示してもよい。例えば、ユーザがキャラクタをタッチすることで、操作の対象となる処理装置を特定してもよい。また、ユーザが会話のなかでキャラクタの名前を呼ぶことで、操作の対象となる処理装置を特定してもよい。また、このときキャラクタの状態に応じて、処理装置20でできることが特定できてもよい。例えば、帽子を被っているキャラクタの場合は、処理装置の電源の制御も可能であるというように、キャラクタのアイテムや、特徴により特定ができるようにしてもよい。
Further, the
[5.第5実施形態]
[5.1 概要]
続いて第5実施形態について説明する。第5実施形態は、インタフェース装置10に、処理装置20の状態に応じた表示を行うことができる実施形態である。なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。
[5. Fifth embodiment]
[5.1 Overview]
Next, a fifth embodiment will be described. The fifth embodiment is an embodiment in which display can be performed on the
ここで、装置の状態とは、処理装置20において取得可能な状態である。例えば、処理装置のリソースの状態を示すものであり、処理装置20の種類に応じて、取得できる状態は異なる。本実施形態では、インタフェース装置10は、処理装置の状態と、キャラクタとが関連付けられて出力する。以下、装置の状態として取得可能なものを例示する。
Here, the device state is a state that can be acquired by the
(1)コンピュータ等の情報処理装置
例えば、装置の状態としては、コンピュータのリソースの状態がある。例えば、装置の状態としては、バッテリ残量、装置の負荷率、ストレージの残容量、メモリの残容量、ネットワークの転送量等である。
(1) Information processing devices such as computers For example, the device status includes the status of computer resources. For example, the status of the device includes the remaining battery level, the load factor of the device, the remaining capacity of storage, the remaining capacity of memory, the amount of network transfer, and the like.
これらの装置の状態と、キャラクタとの状態とを関連づけてもよい。例えば、ストレージの残容量が少ないときは、悲しい表情のキャラクタを出力したり、ストレージの残容量が十分なときは、楽しい表情のキャラクタを出力したりしてもよい。装置の状態に応じて、それぞれキャラクタの表情や、キャラクタの動きを対応付けてもよい。 The states of these devices may be associated with the states of the characters. For example, when the remaining capacity of the storage is low, a character with a sad expression may be output, and when the remaining capacity of the storage is sufficient, a character with a happy expression may be output. The facial expressions and movements of the characters may be associated with each other depending on the state of the device.
(2)モバイルバッテリ
処理装置20は、例えば、モバイルバッテリといった装置でもよい。処理装置20がモバイルバッテリの場合、装置の状態として取得可能な状態としてはバッテリ残量、現在の消費電力、充電残り時間等のバッテリの状態である。また、バッテリの状態として、バッテリが充電中や、放電中の状態等も含めてもよい。また、バッテリの状態として、バッテリからの出力電圧、バッテリへの充電時の電圧等を含めてもよい。
(2) Mobile Battery The
処理装置20は、これらのバッテリの状態と、キャラクタの状態とを関連づけてもよい。例えば、バッテリの残量が少ないときには苦しい表情のキャラクタを出力したり、バッテリの残量が十分なときには満腹感を抱いている表情のキャラクタを出力したりしてもよい。また、バッテリが充電中の場合は、例えば自転車をこいでいるキャラクタを出力してもよい。
The
(3)車載用装置
処理装置20は、例えば、カーナビゲーション、安全運転支援装置(いわゆるレーダー探知機やレーザー探知機)、ドライブレコーダ等の車載用装置でもよい。処理装置20が車載用装置の場合、取得可能な状態としては、例えば、位置情報、車両に関する情報、ドライブレコーダ等の加速度センサから取得可能な情報等に基づく状態である。また、車両に関する情報は、例えば、バッテリの電圧値、速度、回転数、水温、その他センサ装置から取得可能な情報、車両の故障診断コネクタを介して取得可能な情報、OBD(On-board diagnostics)から取得可能な情報である。
(3) Vehicle-mounted device The
インタフェース装置10は、これらの車載用装置から取得した状態と、キャラクタの状態を関連付けてもよい。例えば、危険運転を検知したときには、びっくりした表情のキャラクタを出力してもよい。また、インタフェース装置10は、車両の速度に応じて、キャラクタの表情を変化させてもよい。また、インタフェース装置10は、オイル交換等の交換時期がくると、お知らせを促す動きをキャラクタにさせてもよい。
The
[5.2 処理の流れ]
つづいて、具体的な処理について説明する。図16は、図6の処理を置き換えた図である。図16は、第1実施形態で説明した図6に、装置状態表示処理(ステップS300)が追加されている。
[5.2 Process flow]
Next, specific processing will be explained. FIG. 16 is a diagram in which the processing in FIG. 6 is replaced. In FIG. 16, device status display processing (step S300) is added to FIG. 6 described in the first embodiment.
装置状態表示処理は、インタフェース装置10において処理装置20の状態を出力する処理である。装置状態表示処理は、図16では最初に実行されているが、ユーザが実行する操作が行われた場合に実行されてもよい。ここで、処理装置20の状態は、例えば処理装置20のリソースの状態に基づいて出力される。
The device status display process is a process for outputting the status of the
装置状態表示処理において、処理装置20は、装置の状態を取得する(ステップS302)。処理装置20は、例えば、ユーザがインタフェース装置10において、装置の情報を取得する音声操作を行ったときに、装置の状態を取得してもよい。また、インタフェース装置10又は処理装置20は、処理装置20の状態を適宜取得し、処理装置20からインタフェース装置10に送信する動作モードとしてもよい。
In the device status display process, the
処理装置20は、取得した装置の状態を、インタフェース装置10に送信する(ステップS304)。インタフェース装置10は、装置状態を処理装置20から受信する(ステップS306)。インタフェース装置10は、取得した装置状態に基づいて、出力処理を実行する(ステップS308)。出力処理は、装置状態に応じて、表示部140において表示されるキャラクタの表示態様を変更してもよい。また、出力処理は、装置状態に応じて、音声出力部162から、音声を出力してもよい。
The
そして、装置状態表示処理と合わせて、第1実施形態で説明した処理(ステップS102~ステップS112)も実行可能である。 In addition to the device status display process, the processes described in the first embodiment (steps S102 to S112) can also be executed.
また、本実施形態のインタフェース装置10は、処理装置20の装置の状態に基づいてキャラクタの表示態様等を変化させているが、処理装置20と異なる装置であってもよい。例えば、インタフェース装置10は、処理装置20とは別に可搬型のバッテリであるモバイルバッテリに接続し、モバイルバッテリの状態に応じてキャラクタの表示態様を変えてもよい。以下、動作例について説明する。
Further, although the
[5.3 動作例]
動作例について図17を参照して説明する。
[5.3 Operation example]
An example of operation will be described with reference to FIG. 17.
[5.3.1 コンピュータの状態]
インタフェース装置10が接続する処理装置20が、コンピュータ等の情報処理装置の場合について、図17参照して説明する。図17は、処理装置20のバッテリの状態と、キャラクタの表示との対応を示している。インタフェース装置10は、情報取得部1500を介して処理装置20に関する情報を取得する。
[5.3.1 Computer status]
A case where the
例えば、インタフェース装置10が、処理装置20のバッテリ残量の情報を取得する。そして、インタフェース装置10は、処理装置20のバッテリ残量がない(例えば少ない)場合、キャラクタV302は第1の状態(例えば、怒っている表情、怒っている動作となる状態等)で表示する。このとき、インタフェース装置10は、処理装置20に対して充電が行われていることを取得すると、キャラクタV304の第2を状態(例えば、充電中とアナウンスしている状態等)に遷移させる。
For example, the
また、インタフェース装置10は、処理装置20の充電が完了した情報を取得すると、キャラクタV306を第3の状態(例えば、笑顔の表情、楽しい動作となる状態等)で表示させる。
Further, when the
このように、本実施形態によれば、キャラクタの表情や、動作により、ユーザは現在の処理装置20の状態を容易に取得することができる。また、本実施形態によれば、単にバッテリ残量を表示しているのと比較し、キャラクタの状態をみることで、ユーザは楽しく処理装置20の情報を取得することができる。
In this manner, according to the present embodiment, the user can easily obtain the current state of the
また、処理装置20は、上述したキャラクタの表示と共に、音声出力してもよい。例えば、処理装置20は、キャラクタV302を表示するときに「電池の残量ないよ」と音声出力してもよい。また、処理装置20は、キャラクタV304を表示するときに「充電頑張っている!」と音声出力してもよい。また、処理装置20は、キャラクタV306を表示するときに「充電完了!」と音声出力してもよい。
Further, the
また、インタフェース装置10は、バッテリの状態に応じてキャラクタの状態を動的に変化させてもよい。例えば、インタフェース装置10は、処理装置20のバッテリ残量が減ってくると疲れているような表情をキャラクタで表示してもよい。また、インタフェース装置10は、バッテリ残量の代わりに、例えばCPU使用率、メモリ使用率、ディスクアクセスの状態、ネットワークの通信状況に応じてキャラクタの状態を変化させてもよい。また、インタフェース装置10は、処理装置20において開いているウィンドウの数、実行しているプログラムの数に法児手キャラクタの状態を変化させてもよい。
Furthermore, the
また、インタフェース装置10は、キャラクタの状態を変化させる方法としては、例えば、キャラクタが重い物をもっているような状態を表示してもよい。インタフェース装置10は、処理装置20において負荷が大きいほど、重い物を持っている表情、状態のキャラクタを表示してもよい。
Furthermore, as a method of changing the character's state, the
また、インタフェース装置10は、情報取得部1500から、故障の予兆などを検出した場合に、キャラクタからユーザに対して通知をしてもよい。例えば、インタフェース装置10は、処理装置20のストレージとして、例えばSSDや、HDDの故障可能性があるときは、「そろそろ危ないよ」といった故障の予兆や、動作の不具合について、キャラクタを介してユーザに教えてもよい。例えば、インタフェース装置10は、ストレージの故障を稼動時間や、不良セクタ数といった取得可能な情報から判定してもよい。また、インタフェース装置10は、例えばSSDからの故障検知機能にもとづいて、ストレージの故障の可能性を判定してもよい。
Further, when the
また、インタフェース装置10は、ユーザに故障可能性を通知したあと、ユーザからの操作により、故障に対応するコマンドを処理装置20に送信してもよい。例えば、ユーザから「どうしよう?」と話しかけられたとき、インタフェース装置10は、ストレージメーカのウェブサイトを開く処理を実行するコマンドを送信したり、故障報告のメールを送信するコマンドを送信したりしてもおい。
Further, after notifying the user of the possibility of a failure, the
このように、インタフェース装置10は、情報取得部1500から情報を取得することで、処理装置20の状態を監視することが可能である。また、インタフェース装置10は、処理装置の状態に基づいて、キャラクタを介してユーザに処理装置の状態を知らせることが可能となる。
In this way, the
[5.3.2 モバイルバッテリ]
インタフェース装置10が情報を取得する装置がバッテリの場合の動作例について説明する。以下の動作例は、例えばバッテリを可搬型の小型のバッテリであるモバイルバッテリを例に説明する。モバイルバッテリは、例えば自転車につなぐと、自転車のモータ部に給電することで、走行をアシストすることができる。また、モバイルバッテリは、スマートフォンに接続することで、スマートフォンを充電することができる。
[5.3.2 Mobile battery]
An example of operation when the device from which the
なお、バッテリは、処理装置20と異なる装置であってもよいし、処理装置20をバッテリに置き換えてもよい。以下、説明の都合上、処理装置20をモバイルバッテリとして説明する。
Note that the battery may be a different device from the
インタフェース装置10は、モバイルバッテリのとき、バッテリの状態に応じてキャラクタに演出を加えてもよい。インタフェース装置10は、処理装置20であるモバイルバッテリを擬人化し、キャラクタとして表示する。インタフェース装置10に表示されるキャラクタを介して、ユーザに対してモバイルバッテリが電力供給を頑張っていることを報知する機能があるとよい。
When using a mobile battery, the
インタフェース装置10は、例えば、モバイルバッテリの充電・給電の状況を、キャラクタに対するカロリー摂取や消費に例えた形で報知するとよい。また、インタフェース装置10は、モバイルバッテリが充電状態から給電状態かに応じて、キャラクタの出力を異なるものとしてもよい。例えば、インタフェース装置10は、充電時の充電電力に応じて異なる言葉や、表情、感情を出力してもよい。ここで、インタフェース装置10は、充電電力が、例えば標準規格のmicro USBのように電圧一定なら充電電流に基づいて出力を変えてもよい。また、インタフェース装置10は、充電電力が、USB Type Cのように電圧変更ができるのであれば、電圧を判定し、その電圧に応じて出力を変えてもよい。
For example, the
また、インタフェース装置10は、モバイルバッテリの給電時の供給電力に応じて異なる言葉、表情、感情を出力してもよい。例えば、インタフェース装置10は、モバイルバッテリの供給電力が大きいときは、「全力疾走苦しいよー」と出力してもよい。例えば、インタフェース装置10は、出力内容として、モバイルバッテリの状態を、キャラクタの気持ちに置き換え言葉、音声、表情で出力してもよい。また、インタフェース装置10は、モバイルバッテリの気持ちを第三者視点で解説する出力をしてもよい。
Furthermore, the
また、インタフェース装置10は、モバイルバッテリが処理装置20に接続されている場合は、処理装置20を介してモバイルバッテリの状態を取得してもよい。
Further, if the mobile battery is connected to the
[5.3.3 車載用装置]
インタフェース装置10が車載用装置に接続するときの動作例について説明する。車載用装置は、例えばドライブレコーダ、カーナビゲーション装置、安全運転支援装置(いわゆるレーダー探知機)等の装置であってもよい。また、車載用装置は、処理装置20を置き換えてもよいし、処理装置20は異なる装置であってもよい。以下、車載用装置は、処理装置20として説明する。
[5.3.3 In-vehicle equipment]
An example of the operation when the
インタフェース装置10は、車載用装置から、情報取得部1500を介して、車載用装置の状態を取得する。ここで、インタフェース装置10は、車載用装置の状態として、例えばカーナビゲーション装置から施設情報を取得したり、位置情報を取得したりしてもよい。また、インタフェース装置10は、ドライブレコーダから現在の運転している状態を取得してもよい。
The
例えば、ユーザがインタフェース装置10に「お腹空いたよ」と話しかけると、インタフェース装置10は、カーナビゲーション装置に飲食店を検索するコマンドを送信する。そして、インタフェース装置10は、応答情報として近隣の飲食店の情報を取得する。インタフェース装置10は、キャラクタを介して近くのレストランの情報を取得する。また、処理装置20(車載用装置)は、ユーザからのメッセージに応じて検索する処理を実行している。そして、検索する処理を実行した結果を、応答情報としてインタフェース装置10に返信してもよい。
For example, when a user says "I'm hungry" to the
これにより、ユーザは、カーナビゲーション装置のユーザインタフェースに関係なく、同じインタフェースで情報を取得することが可能となる。例えば、ユーザがレンタカーを利用すると、使用する自動車に設置されたカーナビゲーション装置は、メーカー、機種毎に異なるユーザインタフェースが提供されてしまう。カーナビゲーション装置として異なるユーザインタフェースが提供されたとしても、ユーザはいつも利用するインタフェース装置10を介することにより、キャラクタに話かけるだけで、所望する情報を取得することが可能となる。
This allows the user to obtain information using the same interface regardless of the user interface of the car navigation device. For example, when a user uses a rental car, the car navigation device installed in the car used is provided with a different user interface depending on the manufacturer and model. Even if a different user interface is provided as a car navigation device, the user can obtain desired information simply by talking to the character via the
また、インタフェース装置10は、車載用装置から情報を取得するときに、車載用装置を介して、車両の情報を取得してもよい。例えば、車載用装置が、OBDを介して車両の情報を取得可能なとき、インタフェース装置10は、車両の情報を取得できる。
Furthermore, when acquiring information from the vehicle-mounted device, the
これにより、例えば、インタフェース装置10は、車両のメンテナンスに関する情報をキャラクタを介してユーザに通知してもよい。また、インタフェース装置10は、安全運転に関する情報をキャラクタを介してユーザに通知してもよい。例えば、速度超過が続いているときに、インタフェース装置10は、キャラクタから「もう少しゆっくり走りたいな」といったメッセージを出力し、悲しげな表情をさせてもよい。
Thereby, for example, the
また、インタフェース装置10は、安全運転が続いているときや、車両の状態に問題がないときは、キャラクタを笑顔にしたりしてもよい。また、インタフェース装置10は、危険運転を検知したときや、車両の状態に異常がある場合は、キャラクタを悲しげな表情としてもよい。
Further, the
これにより、例えば、ユーザは運転中にキャラクタを見るだけで現在の運転状態や、車両の状態を把握することが可能となる。また、インタフェース装置10は、キャラクタからの通知を、車両が止まっている状態に行ってもよい。
Thereby, for example, the user can grasp the current driving state and the state of the vehicle just by looking at the character while driving. Furthermore, the
[5.3.4 コンピュータと補助装置]
また、インタフェース装置10は、処理装置と、処理装置と異なる装置と接続してもよい。処理装置と異なる装置は、処理装置とは異なる機能を有する装置であり、例えば処理装置を補助するための機能を有する補助装置とするとよい。処理装置と異なる機能とは、処理装置が有していない機能や、処理装置の機能を補助するための機能である。例えば、処処理装置と異なる機能を有する装置は、処理装置が4G/5Gといった移動体通信をする通信モジュールを搭載していないときは、移動体通信が可能な機能を有する装置(例えば、モバイル無線ルータ)とするとよい。また、処理装置と異なる機能を有する装置は、処理装置のバッテリをサポートするときは、処理装置のバッテリを給電するモバイルバッテリとするとよい。
[5.3.4 Computers and auxiliary equipment]
Further, the
処理装置と異なる補助装置は、単体の機能を有する装置であってもよい。単体の機能を有する装置は、或る特定の一機能を有する装置で、もっぱら当該一機能を発揮させる装置として使用される装置である。バッテリ28は、特定の一機能としてバッテリ機能(つまり電池機能)を有する装置で、バッテリ機能を発揮させる装置の一例である。 The auxiliary device different from the processing device may be a device having a single function. A device with a single function is a device that has a certain specific function and is used exclusively as a device that performs that one function. The battery 28 is a device that has a battery function (that is, a battery function) as one specific function, and is an example of a device that exhibits the battery function.
以下、処理装置20の代わりに第1の処理装置としてのコンピュータ26を用い、上述した処理装置20とは異なる装置であって当該処理装置20とは異なる補助装置を第2の処理装置としてのバッテリ28とした場合を説明する。例えば、図18は、インタフェース装置10は、第1の処理装置として、コンピュータ26と接続する。また、インタフェース装置10は、第2の処理装置として、補助装置であるバッテリ28と接続する。補助装置であるバッテリ28は、電力を他の装置に給電することができる装置であり、図18では、第1の処理装置であるコンピュータ26に給電している。
Hereinafter, a computer 26 as a first processing device is used instead of the
図18のインタフェース装置10は、コンピュータ26の状態を人に模したキャラクタV402に対応して表示している。また、インタフェース装置10は、バッテリ28の状態を犬に模したキャラクタV404として表示している。キャラクタV404は、株式会社ユピテルが使用するキャラクタであるテルである。
The
インタフェース装置10は、それぞれの処理装置の状態を異なるキャラクタとして表示している。したがって、ユーザは、インタフェース装置10をみることで、それぞれの装置の状態を確認することが可能である。例えば、バッテリ28の残量に応じて、キャラクタV404の表情が変化する。例えば、バッテリ28の残量が十分にあるときは、キャラクタV404が「楽しそう」な表情をする。また、バッテリ28の残量が少ないときには、キャラクタV404が「悲しそう」な表情をする。
The
これにより、ユーザは、コンピュータ26の状態だけでなく、バッテリ28の状態も確認することが可能となる。なお、インタフェース装置10は、バッテリ28の状態をコンピュータ26を介して取得してもよい。
This allows the user to check not only the status of the computer 26 but also the status of the battery 28. Note that the
なお、補助装置は、処理装置に接続される機能を有する補助装置として、例えば、マイクとしてもよい。例えば、インタフェース装置10は、マイクが取得した音声レベルに応じて、補助装置に対応するキャラクタの状態を変化させてもよい。
Note that the auxiliary device may be, for example, a microphone as an auxiliary device having a function of being connected to the processing device. For example, the
また、補助装置は、処理装置に接続される機能を有する補助装置として、例えば、モバイル無線ルータとしてもよい。例えば、インタフェース装置10は、モバイル無線ルータの通信状況に応じて、補助装置に対応するキャラクタの状態を変化させてもよい。
Further, the auxiliary device may be, for example, a mobile wireless router as an auxiliary device having a function of being connected to the processing device. For example, the
このように、ユーザは、例えば、インタフェース装置を特別に注視することなく、キャラクタを視認しただけで、所望する複数の装置の状態を認識してもよい。また、異なるキャラクタは、例えば処理装置20と、単体の機能を有する装置とで関連があるキャラクタの構成としてもよい。例えば、処理装置20に対応するキャラクタを擬人化されたキャラクタを表示し、単体の機能を有する装置のキャラクタを擬人化されたキャラクタのペットと表示してもよい。このような構成とすると、ユーザは処理装置と単体の機能を有する装置との関係性を認識することが可能となる。具体的には、処理装置が「人」、モバイルバッテリが「犬」で表示されていれば、ユーザは擬人化されたキャラクタである「人」がメインであり、擬人化されたキャラクタのペットとして「犬」が表示されてもよい。
In this manner, the user may, for example, recognize the desired states of the plurality of devices simply by visually recognizing the character, without specifically gazing at the interface device. Furthermore, the different characters may be configured as characters that are related to the
以上のように、インタフェース装置10は、処理装置20の状態を、キャラクタを用いた擬人化した態様による出力をするとよいが、これ以外にも、キャラクタの画像に処理装置の状態を示す画像を関連付けた出力としてもよい。このような出力としては、インタフェース装置10が、キャラクタが、処理装置20の状態を表示するオブジェクト(例えば、ボード状のオブジェクト)を持った状態で表示する出力がある。キャラクタとの関連付けによる出力は、キャラクタの音声に処理装置20の状態を示す音声を関連付けた出力とするとよい。このような出力としては、キャラクタ音声で処理装置20の状態を案内する出力がある。
As described above, the
[6.第6実施形態]
第6実施形態について説明する。第6実施形態は、ユーザが設定テーブル2300、コマンドテーブル1200を生成する実施形態である。なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。
[6. Sixth embodiment]
A sixth embodiment will be described. The sixth embodiment is an embodiment in which a user generates a setting table 2300 and a command table 1200. Note that the system configuration and the configuration of each device of this embodiment are almost the same as those of the first embodiment, and the following description will focus on the differences in this embodiment.
図19は、本実施形態におけるコマンド設定処理を説明するフローである。本処理は、処理装置20の制御部200が、ストレージ210に記憶されているプログラムを読み出して実行することで実現する処理である。
FIG. 19 is a flowchart for explaining command setting processing in this embodiment. This process is realized by the
ユーザにより、処理装置20において、コマンド設定処理の実行が指示されると(ステップS402;Yes)、制御部200は、コマンド設定処理のそれぞれのステップを実行する。
When the user instructs the
まず、制御部200は、ユーザにより操作内容が入力される(ステップS404)。操作内容は、操作(例えば、音声操作等)において含まれるキーワードを登録してもよい。また、操作内容は、ユーザにより操作される言葉、文字列を登録してもよい。ユーザは、インタフェース装置10に対して、操作内容に登録された内容を一部又は全部音声で話しかけることで、対応する処理を実行することができる。
First, the
つづいて、制御部200は、処理内容を登録する(ステップS406)。処理内容を登録する場合、例えば、実行するプログラムや、実行するプログラムに対するパラメータ(引数)の設定を選択又は文字入力により登録してもよい。また、処理装置20において、ユーザにより実際に操作を行わせ、当該操作の内容を処理内容として登録してもよい。
Subsequently, the
つづいて、制御部200は、操作内容と、処理内容とが準備できたことから、この2つの内容に対応するコマンドを生成する。コマンドは、制御部200が任意に作成してもよいし、ユーザが作成してもよい。そして、ユーザは必要に応じて上述した内容を1又は複数登録することができる(ステップS410;No→ステップS404)。
Next, since the operation content and the processing content are ready, the
設定が総て完了すると(ステップS410;Yes)、制御部200は、設定テーブル2300を更新する(ステップS412)。また、制御部200は、インタフェース装置10に記憶されているコマンドテーブル1200を更新する(ステップS414)。
When all settings are completed (step S410; Yes), the
具体的には、制御部200は、上述した項目のうち、操作内容と、コマンドとを、インタフェース装置10に送信する。インタフェース装置10は、受信した操作内容と、コマンドとに基づいて、コマンドテーブル1200を更新する。
Specifically, the
また、ユーザがインタフェース装置10のキャラクタに話しかけた内容が解釈出来ない場合、インタフェース装置10は、操作を登録する動作を行ってもよい。例えば、インタフェース装置10は、ユーザから「○○をやって」と話しかけられたが解釈できないとき、「よくわからなかったから、やってみて」と処理の登録を促す。ユーザが、処理装置20において、登録したい処理を実行すると、制御部200はその処理に基づいて、「○○」というフレーズに対応する処理内容を登録することができる。制御部200は、処理の登録を促した後に行われた操作部250に対する操作を示す操作信号を取得し、その操作信号に基づいて、処理内容を登録してもよい。制御部200は、例えば、登録を促してから又は操作部250に対する操作を示す操作信号の取得を開始してから、所定時間内に行われた操作を示す操作信号に基づいて処理内容を特定し、その登録をしてもよい。あるいは、制御部200は、処理の登録を促した後に行われた操作部250に対する操作を応じて生成されたコマンドに基づいて、処理内容を登録してもよい。これにより、インタフェース装置10に表示されているキャラクタが、今まで解釈できなかったことが解釈できるようになった感覚をユーザに与えることができる。
Furthermore, if the content of what the user has said to the character of the
[7.第7実施形態]
第7実施形態について説明する。第7実施形態は、ユーザがシステムを利用した内容や、利用した履歴に基づいて、処理が変わる実施形態である。なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。
[7. Seventh embodiment]
A seventh embodiment will be described. The seventh embodiment is an embodiment in which processing changes based on the content of the user's use of the system and the history of use. Note that the system configuration and the configuration of each device of this embodiment are almost the same as those of the first embodiment, and the following description will focus on the differences in this embodiment.
本実施形態では、インタフェース装置10及び/又は処理装置20は、履歴情報を記憶するとよい。履歴情報は、例えばインタフェース装置10のストレージ110や、処理装置20のストレージ210に記憶される。
In this embodiment, the
履歴情報は、例えばユーザがインタフェース装置10において話しかけた回数を含むようにするとよい。また、履歴情報は、例えば処理装置20がインタフェース装置10を介して処理を実行した回数を含むようにするとよい。また、履歴情報は、処理装置20が処理を実行した日時、処理内容を含むようにするとよい。また、履歴情報は、ユーザがインタフェース装置10に入力した内容を含むようにするとよい。また、履歴情報は、ユーザが入力した内容のうち、所定のキーワードを含むようにするとよい。
The history information may include, for example, the number of times the user has spoken at the
本実施形態は、処理装置20は、履歴情報を利用することにより、以下のような処理を実現することができる。
In this embodiment, the
(1)制限機能を解放する
例えば、履歴の回数に応じて、処理装置20が実行できる機能が増えていったり、ユーザが任意に設定をするという構成としてもよい。処理装置20は、例えば、履歴回数が3回までは、処理装置20において特定の処理だけを実行することができる。処理装置20は、履歴回数が10回までは、処理装置20において予め設定テーブル2300に記憶されている処理だけが実行できる。処理装置20は、履歴回数が11回以上は、ユーザが設定テーブル2300に新たな処理を登録することができるという構成にしてもよい。すなわち、ユーザの履歴に応じて、ユーザが入力可能な種類が変化してもよい。
(1) Releasing restricted functions For example, the number of functions that can be executed by the
このような構成にすると、ユーザが当該インタフェース装置10を多く利用するといったモチベーションを与えることができる。例えば、広告媒体としてインタフェース装置10を利用するときには、インタフェース装置10を優先的に使ってもらえるという効果がある。
With such a configuration, the user can be motivated to use the
また、ユーザの使用回数に応じてできることが増えることから、ユーザは随時新しい機能を利用することになる。すなわち、ユーザにとってインタフェース装置10の習熟度に応じて段階的に機能を習得することが可能となる。
Furthermore, since the things that can be done increase depending on the number of times the user uses the device, the user will be able to use new functions from time to time. That is, it becomes possible for the user to learn the functions in stages according to the user's level of proficiency with the
また、処理装置20は、ユーザが未成年の場合、最初は利用できる機能を制限してもよい。例えば、処理装置20は、ユーザの使用回数が10回までは、ブラウザを起動させることは制限させるという制限を設けてもよい。ユーザが適切な会話をしているのであれば、インタフェース装置10は、使用回数を10回超えた場合にブラウザを起動させるフレーズを受け付けてもよい。
Furthermore, if the user is a minor, the
(2)キャラクタの変化させる
例えば、インタフェース装置10は、ユーザの履歴回数に応じて、キャラクタとして使用できる数が増えたり、キャラクタの外観を変更したりするとよい。例えば、インタフェース装置10は、履歴回数が100回まではキャラクタとして表示するのは1つであるが、100回を超える毎に、使用可能なキャラクタが1つずつ増やしてもよい。また、キャラクタの種類が有料のとき、インタフェース装置10は、履歴回数が多い場合は割引の処理をしてもよい。
(2) Changing the character For example, the
また、インタフェース装置10は、ユーザの履歴回数に応じて、キャラクタの会話が増えたり、キャラクタの表示が増えてもよい。インタフェース装置10は、例えば、キャラクタは、履歴回数が少ないときは「オッケー!」と返すのみであるが、履歴回数が増えると「わかりました」「りょーかい」といった、異なる会話をするようにしてもよい。また、履歴回数に応じて、キャラクタの衣装が変化したり、アクセサリーを付けられるようになってもよい。また、キャラクタは進化するようにしてもよい。キャラクタが進化するとは、例えば、擬人化したキャラクタの場合、子供から大人等へキャラクタが変化してもよい。このように、ユーザが利用した履歴に応じて、キャラクタの出力を切り替えることにしてもよい。
Further, the
このように、本実施形態によれば、ユーザの利用回数が多いと、ユーザが入力できる種類が増えたり、実行できる機能が増えたり、出力されるキャラクタが変化するようにしてもよい。 In this way, according to the present embodiment, the number of types of input by the user increases, the number of functions that can be executed increases, and the output characters may change as the number of times the user uses the app increases.
また、履歴情報で示される利用の履歴は、利用した回数の他にも、利用間隔、利用時間等であってもよい。また、利用履歴は、インタフェース装置の全体の利用の履歴であってもよいし、キャラクタ毎の利用の履歴や、アプリケーションの利用の履歴であってもよい。利用の履歴によりキャラクタの出力が変わることから、例えば、ユーザは多くシステムを利用することの動機付けになりうる。 Further, the usage history indicated by the history information may include usage intervals, usage time, etc., in addition to the number of usages. Further, the usage history may be a usage history of the entire interface device, a usage history of each character, or a usage history of an application. For example, since the output of the character changes depending on the usage history, this can motivate the user to use the system more often.
[8.第8実施形態]
第8実施形態について説明する。第8実施形態は、インタフェース装置10に必要な情報として、特定の情報が記憶されている実施形態である。なお、本実施形態のシステム構成、各装置の構成は第1実施形態とほぼ同一であり、以下、本実施形態で相違する部分を中心に説明する。
[8. Eighth embodiment]
An eighth embodiment will be described. The eighth embodiment is an embodiment in which specific information is stored as information necessary for the
例えば、インタフェース装置10は、処理装置20が実行アプリケーション2600を実行するときに必要となる特定の情報を、ストレージ110に記憶する。
For example, the
ここで、特定の情報は、例えば、個人情報であってもよい。個人情報は、例えば、住所、氏名、生年月日等の情報や、カード情報等の決裁情報を含んでもよい。また、必要となる情報は、実行アプリケーション2600における、設定情報であってもよい。例えば、設定情報は、実行アプリケーション2600のカスタマイズに利用する情報であってもよい。また、設定情報は、実行アプリケーション2600のライセンス情報であってもよい。また、必要となる情報は、認証情報であってもよい。認証情報は、例えばネットワークのサービスへのログインIDや、パスワードであってもよい。また、認証情報はトークン情報であってもよい。
Here, the specific information may be, for example, personal information. The personal information may include, for example, information such as address, name, date of birth, and settlement information such as card information. Further, the necessary information may be setting information in the
処理装置20は、例えば図6のステップS154において、コマンド実行処理を実行するときに、インタフェース装置10に必要な情報を問い合わせてもよい。例えば、処理装置20から、必要となる情報を要求する信号をインタフェース装置10に送信する。インタフェース装置10は、要求された情報をストレージ110から読み出し、処理装置20に送信する。
The
インタフェース装置10に、必要となる情報を記憶することから、処理装置20に情報を記憶することがない。したがって、個人情報等を処理装置20に記憶する必要がなく、セキュリティの確保や、プライバシーの保護に配慮したシステムを提供することができる。また、インタフェース装置10に必要となる情報が記憶されていることから、例えば処理装置20が複数あるとき、それぞれの処理装置20において、設定情報に基づいて実行アプリケーション2600を実行することができる。ユーザは、処理装置20が異なっても、インタフェース装置10を介することで同じ設定を利用することが可能となる。
Since the necessary information is stored in the
[9.適用例]
上述した実施形態における適用例について、以下説明する。
[9. Application example]
Application examples of the embodiments described above will be described below.
(1)コンピュータでの使用
処理装置20は、例えば自宅にあるコンピュータとしてもよい。インタフェース装置10を、自宅のコンピュータに接続することで、インタフェース装置10を介してコンピュータに対して処理を実行することができる。例えば、ユーザは、自分の好きなキャラクタを表示させることで、コンピュータを使用するときに楽しく利用することができる。
(1) Use in a computer The
(2)リモートワークでの使用
処理装置20は、リモートワークで使用する会社支給のコンピュータであってもよい。このとき、インタフェース装置10は、キャラクタとして、例えば会社のマスコットキャラクタを表示させたりしてもよい。アプリケーション2000は、必要最低限の機能しか実装していないため、コンピュータで実行してもメモリを制限したり、CPUの処理のリソースを多く使用したりすることはない。
(2) Use in remote work The
また、インタフェース装置10は、処理装置20の状態を取得することが可能である。インタフェース装置10は、処理装置20の状態を、例えば管理サーバに送信してもよい。管理サーバは、処理装置20の状態を取得することで、例えばリモートワークにおける社員の勤務状況を把握することができる。
Additionally, the
また、インタフェース装置10が、処理装置20の状態に応じて、キャラクタが注意を促す動作を行ってもよい。例えば、ユーザが会社用の装置である処理装置20で、業務に関係のないホームページをブラウザで見ているとき、インタフェース装置10は、キャラクタが「関係ありませんよ」や、「少し見過ぎではないですか?」と注意喚起をする演出をしてもよい。
Further, the
また、本システムにおいては、インタフェース装置10と、処理装置20との間をBLE等の通信で接続したときは、外部ネットワークを利用することなくインタフェース装置10を介して処理装置20を操作することが可能となる。したがって、セキュリティが確保された状態で、インタフェース装置10を、処理装置20と接続することができる。
Furthermore, in this system, when the
また、リモートワークのシステムでは、インタフェース装置10のキャラクタを変更することができてもよい。例えば、インタフェース装置10は、会社のキャラクタや、ゆるキャラ等を表示してもよい。
Furthermore, in a remote work system, it may be possible to change the character of the
(3)教育での使用
処理装置20は、学校や教育機関で使用するコンピュータであってもよい。このとき、インタフェース装置10及び処理装置20を利用するのは生徒である子供となる。したがって、子供であるユーザは、インタフェース装置10を利用することで、キャラクタを介して処理装置20の処理を実行することができる。ユーザは、キャラクタに話しかけて処理装置20を操作していることになり、親しさを感じながら処理装置20の操作を行うことになる。
(3) Use in education The
(4)レコメンドの処理
上述した実施形態で説明した様に、ユーザとキャラクタ(インタフェース装置10)の間で会話を複数回やり取りすることにより、レコメンドを行ってもよい。
(4) Recommendation Processing As described in the above embodiment, recommendations may be made by exchanging conversations multiple times between the user and the character (interface device 10).
例えば、ユーザがインタフェース装置10に「ブラウザを起動して」と発話する。インタフェース装置10は「何か見たいものある?」と確認をする。そうすると、ユーザはインタフェース装置10に「今話題になっていることは?」と発話する。
For example, the user speaks to the
インタフェース装置10は、処理装置20に対して、「話題になっていることを出力する」というコマンドを送信する。処理装置20は、コマンドに基づいて、ニュースサイトや、SNSを巡回することで、話題になっている情報を集めることができる。また、処理装置20は、同じニュースに対して、色々なところか複数情報を収集してもよい。例えば、ユーザだけでは集めきれなかったサイトとして、例えば、SNS(例えば、Twitter、Instagram、FaceBook等)からも情報を収集してもよい。
The
また、処理装置20は、インタフェース装置10に収集した結果を応答情報として送信してもよい。インタフェース装置10は、この応答情報に応じてキャラクタと関連づく情報の出力を変化させるとよく、特に、キャラクタの表情を変化させるとよい。インタフェース装置10は、例えば悲しいニュースの場合は悲しい顔に表情を変化させ、落ち着いた声でニュースを読み上げてもよい。また、インタフェース装置10は、明るいニュースの場合は、楽しい顔に表情を変化させ、明るい声でニュースを読み上げてもよい。
Furthermore, the
また、インタフェース装置10は、使っているうちにキャラクタとの会話やキャラクタの表情や姿勢、動作等といったキャラクタのリアクションを変化させてもよい。インタフェース装置10は、例えば、ユーザが多く閲覧しているニュースの場合、ユーザの関心が高いと判定し、キャラクタの反応を普段より大きくしてもよい。
Further, while the
(5)人工知能推論部を搭載する
インタフェース装置10は、さらに人工知能を利用した推論部を備えていてもよい。会話制御部1300は、推論部を利用した会話をユーザとおこなってもよい。また、キャラクタ制御部1400は、推論部を利用してキャラクタの状態を変化させてもよい。
(5) Equipped with an artificial intelligence inference unit The
(6)課金サービスを利用する
本システムを課金サービスに適用してもよい。例えば、インタフェース装置10及び/又は処理装置20は、課金サーバに接続する。そして、インタフェース装置10及び/又は処理装置20は、ユーザの現在の課金状況に応じて、利用できる機能を増やしたり、制限を解除してもよい。
(6) Using a billing service This system may be applied to a billing service. For example, the
例えば、インタフェース装置10は、無料では処理装置20は1台しか登録できず、課金することで複数台の処理装置と接続可能とする構成にしてもよい。また、インタフェース装置10は、使用できる機能を課金することで開放してもよい。例えば、インタフェース装置10は、通常は音声入力のみしかできないが、課金することで上述した実施形態のチャット機能が利用できるようにしてもよい。
For example, the
また、インタフェース装置10は、ユーザが課金しないかわりに、キャラクタが一定時間毎に広告を出力してもよい。また、キャラクタが一定時間毎に広告を出力するときに、ユーザが課金することで広告を非表示としてもよい。
Furthermore, the
また、インタフェース装置10は、種々のキャラクタを表示してもよい。例えば、Vtuberや、ゆるキャラ、アニメのキャラクタを表示してもよい。例えば、会社のキャラクタを無料で配布することで、システムは、インタフェース装置10を介した広告機能を提供してもよい。
Additionally, the
[10.変形例]
本発明は上述した各実施の形態に限定されるものではなく、種々の変更が可能である。
すなわち、本発明の要旨を逸脱しない範囲内において適宜変更した技術的手段を組み合わせて得られる実施の形態についても本発明の技術的範囲に含まれる。
[10. Modified example]
The present invention is not limited to the embodiments described above, and various modifications are possible.
That is, embodiments obtained by combining appropriate modified technical means without departing from the gist of the present invention are also included within the technical scope of the present invention.
また、上述した実施形態は、説明の都合上、各実施形態を分けて説明しているが、可能な範囲で組み合わせて実行することが可能である。 In addition, although the embodiments described above are described separately for convenience of explanation, they can be combined and executed to the extent possible.
また、各実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROMやHDDの記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。 Further, in each embodiment, the program that runs on each device is a program that controls a CPU, etc. (a program that causes a computer to function) so as to realize the functions of the above-described embodiments. The information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) during processing, and then stored in various ROM or HDD storage devices, and read out and modified by the CPU as necessary.・Writing is performed.
ここで、プログラムを格納する記録媒体としては、半導体媒体(例えば、ROMや、不揮発性のメモリカード等)、光記録媒体・光磁気記録媒体(例えば、DVD(Digital Versatile Disc)、CD(Compact Disc)、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等の何れであってもよい。 Here, the recording medium for storing the program includes a semiconductor medium (for example, ROM, nonvolatile memory card, etc.), an optical recording medium/magneto-optical recording medium (for example, DVD (Digital Versatile Disc), CD (Compact Disc), etc. ), BD, etc.), magnetic recording media (for example, magnetic tape, flexible disk, etc.).
また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバ装置の記憶装置も本発明に含まれるのは勿論である。 Furthermore, when distributing the program on the market, the program can be stored in a portable recording medium and distributed, or it can be transferred to a server computer connected via a network such as the Internet. In this case, it goes without saying that the storage device of the server device is also included in the present invention.
また、上述したデータは、装置内に記憶されるものではなく、外部の装置に記憶されて、適宜呼び出されてもよい。例えば、データをNAS(Network Attached Storage)に記憶したり、クラウド上に記憶したりしてもよい。 Furthermore, the data described above is not stored within the device, but may be stored in an external device and called up as appropriate. For example, data may be stored in NAS (Network Attached Storage) or on the cloud.
なお、本発明の範囲は、明細書に明示的に説明された構成や限定されるものではなく、本明細書に開示される本発明の様々な側面の組み合わせをも、その範囲に含むものである。本発明のうち、特許を受けようとする構成を、添付の特許請求の範囲に特定したが、現在の処は特許請求の範囲に特定されていない構成であっても、本明細書に開示される構成を、将来的に特許請求の範囲とする意思を有する。 Note that the scope of the present invention is not limited to the configuration explicitly described in the specification, but also includes combinations of various aspects of the invention disclosed in this specification. Of the present invention, the structure for which a patent is sought has been specified in the attached claims, but at present, even if the structure is not specified in the claims, it is not disclosed in this specification. We intend to include such configurations in the scope of claims in the future.
本願発明は上述した実施の形態に記載の構成に限定されない。上述した各実施の形態や変形例の構成要素は任意に選択して組み合わせて構成するとよい。また各実施の形態や変形例の任意の構成要素と、発明を解決するための手段に記載の任意の構成要素又は発明を解決するための手段に記載の任意の構成要素を具体化した構成要素とは任意に組み合わせて構成するとよい。これらについても本願の補正又は分割出願等において権利取得する意思を有する。「~の場合」「~のとき」という記載があったとしてもその場合やそのときに限られる構成として記載はしているものではない。これらの場合やときでない構成についても開示しているものであり、権利取得する意思を有する。また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えた構成についても開示しているものであり、権利取得する意思を有する。 The present invention is not limited to the configuration described in the embodiments described above. The components of each of the embodiments and modifications described above may be arbitrarily selected and combined. Also, any component of each embodiment or modification, any component described in the means for solving the invention, or a component that embodies any component described in the means for solving the invention. It may be configured in any combination. The applicant intends to acquire rights to these matters through amendments to the application or divisional applications. Even if there is a description of ``in the case of'' or ``in the case of'', the description is not intended to be limited to that case or at that time. We have also disclosed these cases and other configurations, and we intend to acquire the rights. Furthermore, the sections described in order are not limited to this order. It also discloses a configuration in which some parts have been deleted or the order has been changed, and we have the intention to acquire the rights.
また、意匠登録出願への変更により、全体意匠又は部分意匠について権利取得する意思を有する。図面は本装置の全体を実線で描画しているが、全体意匠のみならず当該装置の一部の部分に対して請求する部分意匠も包含した図面である。例えば当該装置の一部の部材を部分意匠とすることはもちろんのこと、部材と関係なく当該装置の一部の部分を部分意匠として包含した図面である。当該装置の一部の部分としては、装置の一部の部材としても良いし、その部材の部分としても良い。全体意匠はもちろんのこと、図面の実線部分のうち任意の部分を破線部分とした部分意匠を、権利化する意思を有する。また、装置の筐体の内部のモジュール・部材・部品等についても、図面に表示されているものは、いずれも独立して取引の対象となるものであって、同様に、意匠登録出願への変更を行って権利化を行う意思を有するものである。 In addition, the applicant intends to acquire rights to the entire design or partial design by converting the application to a design registration application. Although the drawing depicts the entire device using solid lines, the drawing includes not only the overall design but also the partial design claimed for some parts of the device. For example, it is a drawing that not only includes some members of the device as a partial design, but also includes some parts of the device as a partial design regardless of the members. The part of the device may be a part of the device or a part of the device. We intend to obtain rights not only for the entire design, but also for partial designs in which any part of the solid line part of the drawing is a broken line part. In addition, the modules, members, parts, etc. inside the device housing shown in the drawings are all subject to independent transactions, and similarly, they are included in the design registration application. There is an intention to make changes and obtain rights.
1 システム
10 インタフェース装置
100 制御部;110 ストレージ;120 ROM;130 RAM
140 表示部;150 入力部;160 音声入力部;162 音声出力部
170 通信部
1000 アプリケーション
1010 メッセージ解釈部;1020 コマンド生成部
1030 コマンド送信部;1040 応答情報受信部
1100 音声認識部
1200 コマンドテーブル
1300 会話制御部
1400 キャラクタ制御部
1500 情報取得部
20、22、24、26、28 処理装置
200 制御部;210 ストレージ;220 ROM;230 RAM
240 表示部;250 操作部;270 通信部
2000 アプリケーション
2010 コマンド受信部;2020 コマンド解釈部
2030 コマンド実行部;2040 応答情報処理部
2200 オペレーティングシステム(OS)
2300 設定テーブル
1
140 Display section; 150 Input section; 160 Voice input section; 162
240 Display section; 250 Operation section; 270
2300 Setting table
Claims (51)
前記処理装置は、
前記インタフェース装置に対するユーザからの入力に応じた処理を実行する制御を行う制御部を有し、
前記インタフェース装置は、
前記入力を受け付ける受付部と、
ユーザに対して前記入力又は前記処理に応じた情報を所定のキャラクタとの関連付けにより出力する出力部と、
を有するシステム。 comprising a processing device and an interface device that are communicably connected to each other,
The processing device includes:
a control unit that performs control to execute processing according to input from a user to the interface device;
The interface device includes:
a reception unit that receives the input;
an output unit that outputs information according to the input or the processing to the user by associating it with a predetermined character;
A system with
請求項1に記載のシステム。 The system according to claim 1, wherein the output unit outputs information according to the input or the processing by displaying an image of the character that changes according to the input or the processing.
請求項2に記載のシステム。 The system according to claim 2, wherein the image of the character that changes depending on the information according to the input or the processing is an image in which the facial expression of the character or the action of the character changes.
請求項2又は3に記載のシステム。 The system according to claim 2 or 3, wherein the output unit outputs information according to the input or the processing using the voice of the character that changes according to the input or the processing.
前記制御部は、実行した処理の結果を、前記処理装置側の表示部に出力し、
前記インタフェース装置の出力部は、前記処理が実行されたことを、前記キャラクタとの関連付けにより出力する
請求項1から4のいずれか一項に記載のシステム。 The processing device includes a display unit that outputs information by display,
The control unit outputs the results of the executed processing to a display unit on the processing device side,
The system according to any one of claims 1 to 4, wherein the output unit of the interface device outputs the fact that the process has been executed in association with the character.
請求項1から5のいずれか一項に記載のシステム。 Any one of claims 1 to 5, wherein the processing device and the interface device are connected via a wireless communication path whose communicable distance is a predetermined distance or less, or connected via a wired communication path. system described in.
請求項1から6のいずれか一項に記載のシステム。 The system according to any one of claims 1 to 6, wherein the output unit outputs the state of the processing device in association with the character.
請求項7に記載のシステム。 The system according to claim 7, wherein the output unit outputs the state of the processing device according to the state of resources of the processing device.
請求項7又は8に記載のシステム。 The system according to claim 7 or 8, wherein the output unit outputs a battery state as the resource state of the processing device.
請求項7から9の何れか一項に記載のシステム。 The system according to any one of claims 7 to 9, wherein the output unit outputs the state of the processing device based on a change in the facial expression of the character or an action of the character.
前記制御部は、前記メッセージ又は前記メッセージに含まれるフレーズに基づいて処理を実行する
請求項1から10の何れか一項に記載のシステム。 The reception unit receives a message from the user,
The system according to any one of claims 1 to 10, wherein the control unit executes processing based on the message or a phrase included in the message.
前記制御部は、前記メッセージ及び/又は再度受け付けたメッセージに基づいて処理を実行する
請求項11に記載のシステム。 The reception unit prompts the user to input a message again based on the message,
The system according to claim 11, wherein the control unit executes processing based on the message and/or the message received again.
前記受付部は、前記音声入力部によりユーザから音声の入力を受け付ける
請求項1から12の何れか一項に記載のシステム。 The interface device further includes an audio input section,
The system according to any one of claims 1 to 12, wherein the reception unit receives voice input from a user through the voice input unit.
前記制御部は、前記メッセージ又は前記メッセージに含まれているフレーズに基づいて処理を実行する
請求項13に記載のシステム。 The interface device recognizes a message from the voice that has received the input,
The system according to claim 13, wherein the control unit executes processing based on the message or a phrase included in the message.
請求項13又は14に記載のシステム。 The system according to claim 13 or 14, wherein the output unit changes and outputs the character according to the voice input by the user.
前記制御部は、前記コマンドを受信し、前記コマンドに対応した処理を実行する制御を行う
請求項1から15の何れか一項に記載のシステム。 The reception unit transmits a command corresponding to the received input to the processing device,
The system according to any one of claims 1 to 15, wherein the control unit receives the command and performs control to execute processing corresponding to the command.
請求項16に記載のシステム。 17. The system of claim 16, wherein the command corresponds to an interface that utilizes functionality of an operating system of the processing device or an application executed on the processing device.
請求項1から17の何れか一項に記載のシステム。 17. The control unit executes an interface that utilizes a function of an operating system executed in the processing device or an application installed in the processing device in response to an input from a user to the interface device. The system described in any one of the above.
請求項1から18の何れか一項に記載のシステム。 19. A system according to any preceding claim, wherein the processing device obtains input from a user to the interface device by means of a resident application.
請求項19に記載のシステム。 20. The system of claim 19, wherein the resident application receives commands from the interface device and obtains input from a user by interpreting the received commands.
請求項1から20のいずれか一項に記載のシステム。 The system according to any one of claims 1 to 20, wherein the output unit outputs the state of the different device depending on the state of the device different from the processing device.
請求項21に記載のシステム。 The system according to claim 21, wherein the different device is a device having a different function from the processing device.
前記出力部は、前記バッテリの状態に関連づけて、前記キャラクタを変化して出力する
請求項22に記載のシステム。 The device having a different function from the processing device is a battery,
The system according to claim 22, wherein the output unit changes and outputs the character in association with the state of the battery.
請求項21から23の何れか一項に記載のシステム。 The system according to any one of claims 21 to 23, wherein the output unit outputs different characters between the processing device and a device having a function different from that of the processing device.
請求項24に記載のシステム。 The system according to claim 24, wherein the output unit displays a different character image or outputs a different sound for each character.
請求項21から25の何れか一項に記載のシステム。 The system according to any one of claims 21 to 25, wherein the output unit outputs the state in association with the state of a predetermined character.
前記インタフェース装置は、
第1の処理装置から取得した前記処理に応じた情報を、異なる第2の処理装置が処理を実行するときに利用するために送信する
請求項1から26の何れか一項に記載のシステム。 The interface device is further connectable with a different processing device,
The interface device includes:
The system according to any one of claims 1 to 26, wherein information corresponding to the processing acquired from the first processing device is transmitted for use when a different second processing device executes the processing.
請求項27に記載のシステム。 The system according to claim 27, wherein the information according to the process includes information regarding a search result when the first processing device executes the search process.
前記制御部は、前記インタフェース装置から前記特定の情報を取得し、特定の情報を利用して処理を実行する
請求項1から29の何れか一項に記載のシステム。 the interface device stores specific information;
The system according to any one of claims 1 to 29, wherein the control unit acquires the specific information from the interface device and executes processing using the specific information.
請求項30に記載のシステム。 The system according to claim 30, wherein the specific information is any one of personal information, setting information when executing the process, and information regarding login.
請求項1から31の何れか一項に記載のシステム。 The system according to any one of claims 1 to 31, wherein the processing device further includes a setting unit that associates and sets the input from the user and the process to be executed.
請求項32に記載のシステム。 The system according to claim 32, wherein the setting unit associates a message or a specific phrase input by a user with the process to be executed.
請求項33に記載のシステム。 The system according to claim 33, wherein the specific phrase is a phrase that has no relation to the process to be executed.
請求項31から34の何れか一項に記載のシステム。 35. The system according to claim 31, wherein the executed process is an application executed on the processing device or an interface that calls a function of an operating system.
前記受付部は、前記ユーザからメッセージの入力を受け付けたとき、当該メッセージに対応するコマンドを前記処理装置に送信し、
前記制御部は、前記コマンドに対応する処理を実行する
請求項31から35の何れか一項に記載のシステム。 the interface device stores the command and the message;
When the reception unit receives a message input from the user, the reception unit transmits a command corresponding to the message to the processing device,
The system according to any one of claims 31 to 35, wherein the control unit executes processing corresponding to the command.
請求項31から36の何れか一項に記載のシステム。 The system according to any one of claims 31 to 36, wherein the setting unit specifies the process to be executed based on an operation input by a user in the processing device.
請求項31から37の何れか一項に記載のシステム。 37. The setting unit sets a process specified based on the user's operation in the processing device in correspondence with the input when the process to be executed cannot be specified based on the user's input. The system described in any one of the above.
請求項1から38の何れか一項に記載のシステム。 The system according to any one of claims 1 to 38, wherein the output unit switches the output of the character according to a history of use of the interface device by the user.
請求項1から39の何れか一項に記載のシステム。 The system according to any one of claims 1 to 39, wherein the reception unit changes the type of input that can be accepted from the user depending on a history of the user's use of the interface device.
請求項1から40の何れか一項に記載のシステム。 The system according to any one of claims 1 to 40, wherein the control unit changes the processing to be executed depending on the history of the user's use of the interface device.
前記出力部は、前記文字入力モードの入力に応じた情報に基づいて出力し、
前記制御部は、前記文字入力モードの入力に応じて指示された処理を実行する
請求項1から41の何れか一項に記載のシステム。 The processing device has a character input mode that accepts character input from a user,
The output unit outputs information based on the input in the character input mode,
The system according to any one of claims 1 to 41, wherein the control unit executes a process instructed in response to input of the character input mode.
請求項42に記載のシステム。 43. The system according to claim 42, wherein the character input mode has a function of realizing a conversational interaction between a user's character input and a character output by an interface device.
請求項42又は43に記載のシステム。 The system according to claim 42 or 43, wherein the character input mode displays characters input by the user and characters acquired from the interface device in a conversational format.
請求項42から44の何れか一項に記載のシステム。 45. The system according to any one of claims 42 to 44, wherein the interface device transmits a signal to the processing device to execute a character input mode depending on the environment of the interface device.
請求項45に記載のシステム。 46. The system of claim 45, wherein the environment of the interface device is an environment based on the location where the interface device is installed.
請求項46に記載のシステム。 47. The system according to claim 46, wherein the location where the interface device is installed is determined according to a connection destination to which the interface device is connected.
請求項45から47の何れか一項に記載のシステム。 48. The system according to any one of claims 45 to 47, wherein the environment of the interface device is determined depending on the volume level of sound acquired by the interface device.
前記筐体は、前記キャラクタと関連する外観を有する
請求項1から48の何れか一項に記載のシステム。 The interface device includes a housing having the output section,
49. A system according to any preceding claim, wherein the housing has an appearance associated with the character.
前記入力を受け付ける受付部と、
ユーザに対して前記入力又は前記インタフェース装置に対するユーザからの入力に応じた処理に基づく情報を所定のキャラクタとの関連付けにより出力する出力部と、
を有するインタフェース装置。 An interface device that is communicably connected to the processing device,
a reception unit that receives the input;
an output unit that outputs information based on processing according to the input to the user or the input from the user to the interface device by associating it with a predetermined character;
An interface device having:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022055291A JP2023147653A (en) | 2022-03-30 | 2022-03-30 | System, interface apparatus, program, and the like |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022055291A JP2023147653A (en) | 2022-03-30 | 2022-03-30 | System, interface apparatus, program, and the like |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023147653A true JP2023147653A (en) | 2023-10-13 |
Family
ID=88288432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022055291A Pending JP2023147653A (en) | 2022-03-30 | 2022-03-30 | System, interface apparatus, program, and the like |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023147653A (en) |
-
2022
- 2022-03-30 JP JP2022055291A patent/JP2023147653A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102306624B1 (en) | Persistent companion device configuration and deployment platform | |
US10357881B2 (en) | Multi-segment social robot | |
US8942849B2 (en) | Humanoid robot equipped with a natural dialogue interface, method for controlling the robot and corresponding program | |
US20170206064A1 (en) | Persistent companion device configuration and deployment platform | |
KR101617665B1 (en) | Automatically adapting user interfaces for hands-free interaction | |
US20180133900A1 (en) | Embodied dialog and embodied speech authoring tools for use with an expressive social robot | |
US20150298315A1 (en) | Methods and systems to facilitate child development through therapeutic robotics | |
AU2017228574A1 (en) | Apparatus and methods for providing a persistent companion device | |
WO2016011159A1 (en) | Apparatus and methods for providing a persistent companion device | |
US11120792B2 (en) | System for processing user utterance and controlling method thereof | |
KR102545666B1 (en) | Method for providing sententce based on persona and electronic device for supporting the same | |
US10140882B2 (en) | Configuring a virtual companion | |
US9792825B1 (en) | Triggering a session with a virtual companion | |
KR20210040856A (en) | Interactive method of smart rearview mirror, apparatus, electronic device and storage medium | |
WO2016206645A1 (en) | Method and apparatus for loading control data into machine device | |
JP2023147653A (en) | System, interface apparatus, program, and the like | |
Neßelrath et al. | SiAM-dp: A platform for the model-based development of context-aware multimodal dialogue applications | |
Marge et al. | Spoken language interaction with robots: Research issues and recommendations, report from the NSF future directions workshop | |
US20040072498A1 (en) | System and method for controlling toy using web | |
WO2018183812A1 (en) | Persistent companion device configuration and deployment platform | |
KR102144891B1 (en) | Humanoid robot developmnet framework system | |
Foen | Exploring the human-car bond through an Affective Intelligent Driving Agent (AIDA) | |
WO2019054009A1 (en) | Information processing device, information processing method and program | |
KR20220072561A (en) | Electronic device and operating method for generating response for user input | |
JP2022047550A (en) | Information processing apparatus and information processing method |