JP2023176404A - Virtual assistant device and program for virtual assistant device - Google Patents

Virtual assistant device and program for virtual assistant device Download PDF

Info

Publication number
JP2023176404A
JP2023176404A JP2022088667A JP2022088667A JP2023176404A JP 2023176404 A JP2023176404 A JP 2023176404A JP 2022088667 A JP2022088667 A JP 2022088667A JP 2022088667 A JP2022088667 A JP 2022088667A JP 2023176404 A JP2023176404 A JP 2023176404A
Authority
JP
Japan
Prior art keywords
story
image
input
display
topic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022088667A
Other languages
Japanese (ja)
Inventor
一元 宮嶋
Kazumoto Miyajima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Niterra Co Ltd
Original Assignee
NGK Spark Plug Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NGK Spark Plug Co Ltd filed Critical NGK Spark Plug Co Ltd
Priority to JP2022088667A priority Critical patent/JP2023176404A/en
Publication of JP2023176404A publication Critical patent/JP2023176404A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a technique capable of providing a topic to a user who utilizes a virtual assistant device and facilitating appropriate continuation of a bidirectional conversation concerning the provided topic.SOLUTION: A virtual assistant device 10 includes: an input unit to which a story from a user is input; a display 15 that displays an image; a control unit 11 that causes the display 15 to display an image of a character 70; and an output unit that outputs a story from the character 70. The control unit 11 displays a topic image different from the image of the character 70 and words concerning the topic image on the display 15. When a story including the words is input to the input unit after the topic image and the words are displayed on the display 15, the control unit 11 causes the output unit to output a story related to the words as a story from the character 70.SELECTED DRAWING: Figure 15

Description

本発明は、バーチャルアシスタント装置及びバーチャルアシスタント装置用のプログラムに関する。 The present invention relates to a virtual assistant device and a program for the virtual assistant device.

特許文献1には、音声出力システムが開示されている。特許文献1の音声出力システムは、音声情報取得手段、出力制御手段、会話情報取得手段、などを備える。音声情報取得手段は、話者から発せられた音声に関する音声情報を取得する。出力制御手段は、表示媒体に表示される表示内容に応じた文章を、音声情報に基づき話者の音声の態様を模した音声により、表示媒体のユーザに用いられる音声出力機器に出力させる。会話情報取得手段は、ユーザと話者との会話に関する会話情報を取得する。話者が文章を音声により発する際に、表示媒体には話者の態様を模した画像が表示される。 Patent Document 1 discloses an audio output system. The audio output system of Patent Document 1 includes audio information acquisition means, output control means, conversation information acquisition means, and the like. The voice information acquisition means acquires voice information regarding the voice uttered by the speaker. The output control means causes an audio output device used by a user of the display medium to output a sentence corresponding to the display content displayed on the display medium in a voice imitating a speaker's voice based on the voice information. The conversation information acquisition means acquires conversation information regarding a conversation between a user and a speaker. When a speaker utters a sentence by voice, an image imitating the speaker's appearance is displayed on the display medium.

特開2020-76885号公報JP2020-76885A

表示部にキャラクタが表示され、キャラクタが利用者との間で会話を行うような装置では、利用者に話題を提供することが望まれ、提供した話題に関する会話が開始した場合には、その会話が双方向に継続することが望まれる。 In devices where a character is displayed on the display and the character converses with the user, it is desirable to provide the user with a topic, and if a conversation about the provided topic starts, the conversation It is hoped that this will continue in both directions.

この種の装置において話題を提供する場合、例えば、利用者が興味を持ちやすい画像を表示部に表示させることが有効である。しかし、画像の表示によって話題を提供した場合、画像を見た利用者がどのような話を発するのか正確に予想しにくいため、装置が応答を返す場合に、利用者が発した話から大きくずれてしまう懸念がある。このように「大きなずれ」が生じると、利用者は、会話が噛み合わない印象を抱いたり、話をしっかり聞いてもらっていない印象を抱いたりする懸念があり、双方向の会話が適切に続かない虞がある。 When providing topics in this type of device, for example, it is effective to display images that are likely to interest the user on the display unit. However, when a topic is provided by displaying an image, it is difficult to predict exactly what the user will say after seeing the image, so when the device returns a response, it may deviate greatly from what the user said. There is a concern that this may occur. If such a "large discrepancy" occurs, there is a concern that users may feel that the conversation does not mesh with each other or that they are not being listened to properly, and there is a risk that two-way conversation may not continue properly. There is.

本発明は、バーチャルアシスタント装置を利用する利用者に対して話題を提供することができ、提供した話題に関する双方向の会話が適切に継続しやすい技術を提供することを一つの目的とする。 One object of the present invention is to provide a technology that can provide a topic to a user using a virtual assistant device and facilitates appropriate continuation of a two-way conversation regarding the provided topic.

本発明の一つであるバーチャルアシスタント装置は、
利用者からの話が入力される入力部と、画像を表示する表示部と、前記表示部にキャラクタの画像を表示させる制御部と、前記キャラクタからの話を出力する出力部と、を備えたバーチャルアシスタント装置であって、
前記制御部は、前記キャラクタの画像とは異なる話題画像及び前記話題画像に関する言葉を前記表示部に表示し、前記話題画像及び前記言葉が前記表示部に表示された後、前記言葉を含む話が前記入力部に入力された場合に、前記言葉に関連する話を前記キャラクタからの話として前記出力部に出力させる。
A virtual assistant device that is one of the present inventions is
An input section into which a story from a user is input, a display section that displays an image, a control section that causes the display section to display an image of a character, and an output section that outputs the story from the character. A virtual assistant device,
The control unit displays a topic image different from the image of the character and words related to the topic image on the display unit, and after the topic image and the words are displayed on the display unit, a story including the words is displayed. When input to the input section, a story related to the word is outputted to the output section as a story from the character.

上記のバーチャルアシスタント装置は、話題となり得る画像(キャラクタの画像とは異なる話題画像)を表示する場合に、話題画像だけでなく、話題画像に関する言葉を表示部に表示することができる。このような表示がなされると、話題画像を見た利用者は、上記言葉を含んだ話を発しやすくなる。従って、バーチャルアシスタント装置側では、上記言葉を含んだ話がなされるものとして、上記言葉に関する応答用の話を用意しておくことができる。更に、バーチャルアシスタント装置は、上記話題画像及び上記言葉が表示された後に、実際に上記言葉を含んだ話が利用者から発せられた場合には、入力部に入力された情報から上記言葉が含まれることを確認した上で、上記言葉に関連する話をキャラクタからの話として出力することができる。このような動作がなされるため、話題画像を見た利用者が発した話に対してキャラクタが無関係の話を返すような対応が抑制されやすく、会話の適切化を図りやすい。 When displaying an image that can become a topic (a topic image different from a character image), the virtual assistant device described above can display not only the topic image but also words related to the topic image on the display unit. When such a display is made, the user who sees the topic image is more likely to utter a story that includes the above-mentioned words. Therefore, on the virtual assistant device side, it is possible to prepare a response story regarding the above-mentioned words, assuming that the speech including the above-mentioned words will be given. Furthermore, if the user actually speaks a story that includes the above-mentioned words after the topic image and the above-mentioned words are displayed, the virtual assistant device determines whether the above-mentioned words are included based on the information input to the input section. After confirming that the word is correct, the story related to the above word can be output as a story from the character. Because such an operation is performed, it is easy to prevent the character from replying with an unrelated story in response to the story uttered by the user who viewed the topic image, and it is easy to make the conversation more appropriate.

上記のバーチャルアシスタント装置において、上記制御部は、上記入力部に入力される話の解析を有効化する有効モードと、上記有効モードを解除する解除モードとを切り替えるように動作してもよい。更に、上記制御部は、上記有効モード中に上記言葉を含む話が上記入力部に入力された場合に上記言葉に関連する話を上記キャラクタからの話として上記出力部に出力させるように動作してもよい。そして、上記制御部は、上記有効モード中に上記言葉に関連する話を上記キャラクタからの話として上記出力部に出力させた場合、上記有効モードを継続しつつ上記利用者からの話を受け付ける期間を設けた後、予め定められた終了条件が成立するまで上記有効モードを継続するように動作してもよい。 In the above virtual assistant device, the control section may operate to switch between an effective mode in which analysis of the story input to the input section is enabled and a cancellation mode in which the effective mode is canceled. Further, the control section operates to cause the output section to output a story related to the word as a story from the character when a story including the word is input to the input section during the valid mode. You can. When the control unit causes the output unit to output a story related to the word as a story from the character during the valid mode, the control unit sets a period during which stories from the user are accepted while continuing the valid mode. After setting, the above-mentioned effective mode may be continued until a predetermined termination condition is satisfied.

上記のバーチャルアシスタント装置は、有効モードと解除モードを切り替えることができるため、有効モード中には話の解析を可能とし、解除モード中には処理負担を低減することができる。そして、制御部は、上記言葉に関連する話を上記キャラクタからの話として上記出力部に出力させた場合、有効モードを継続しつつ利用者からの話を受け付ける期間を設け、終了条件が成立するまで継続することができるため、上記言葉に関連する話を提供した後も、会話を円滑に継続することができる。 Since the virtual assistant device described above can switch between the valid mode and the cancel mode, it is possible to analyze the speech during the valid mode, and reduce the processing load during the cancel mode. When the control unit causes the output unit to output a story related to the word as a story from the character, the control unit sets a period for accepting stories from the user while continuing the valid mode, and the end condition is satisfied. This allows the conversation to continue smoothly even after the story related to the above-mentioned words has been provided.

上記制御部は、上記話題画像に関する上記言葉として単一のキーワードのみを上記表示部に表示するように動作してもよい。 The control unit may operate to display only a single keyword on the display unit as the word related to the topic image.

このように、話題画像と関連させて表示される言葉が単一のキーワードである場合、上記話題画像及び上記言葉を見た利用者が上記キーワードを発しやすくなる。よって、上記キーワードを含む話がバーチャルアシスタント装置にて認識されて会話が適切に継続する可能性が高まる。 In this way, when the word displayed in association with the topic image is a single keyword, the user who sees the topic image and the word becomes more likely to utter the keyword. Therefore, there is an increased possibility that the virtual assistant device will recognize a conversation that includes the above-mentioned keyword and continue the conversation appropriately.

話題画像と関連付けて複数種類のキーワードが表示されると、利用者が興味を持ちやすいキーワードが含まれる可能性が高くなり、且つ、利用者は、より多くの観点で話をしやすくなる。そして、このバーチャルアシスタント装置は、利用者の話しやすさを高めつつ、いずれかのキーワードを含んだ話が発せられた場合にはそのキーワードに対応する話を返すことができるため、利用者の話しやすさと会話の適切化を両立することができる。 When a plurality of types of keywords are displayed in association with a topical image, there is a high possibility that keywords that the user is likely to be interested in are included, and it becomes easier for the user to talk from more viewpoints. This virtual assistant device makes it easier for the user to speak, and when a word that includes any keyword is uttered, it can respond with a story that corresponds to that keyword. It is possible to achieve both ease of use and appropriate conversation.

上記制御部は、上記話題画像をいずれか1種以上の上記言葉と共に第1の組み合わせで上記表示部に表示した後、上記話題画像を上記第1の組み合わせとは異なる組み合わせで上記言葉と共に上記表示部に表示してもよい。 The control unit displays the topic image together with one or more of the words in a first combination on the display unit, and then displays the topic image together with the words in a combination different from the first combination. It may be displayed in the section.

このように、いずれかの話題画像を表示する場合に、関連付けて表示する言葉の組み合わせを変更可能であれば、同種の話題画像を継続的に又は繰り返し利用する場合でも、利用者にとって会話が飽きにくくなり、利用者の利用が促進されやすい。そして、このバーチャルアシスタント装置は、話題画像と言葉の組み合わせが変更されても、表示された言葉を含む話が発せられた場合には、その言葉に関連する話を返すことができるため、会話の飽きにくさと会話の適切化を両立することができる。 In this way, if it is possible to change the combination of words that are displayed in association when displaying any topic image, the conversation will become boring for the user even if the same topic image is used continuously or repeatedly. This makes it easier for users to use the service. Even if the combination of the topic image and words is changed, this virtual assistant device can return a story related to the displayed word if a word that includes the displayed word is uttered, so it can improve the conversation. It is possible to balance the difficulty of getting bored and the appropriateness of the conversation.

本発明の一つであるバーチャルアシスタント装置用のプログラムは、
利用者からの話が入力される入力部と、画像を表示する表示部と、前記表示部にキャラクタの画像を表示させる制御部と、前記キャラクタからの話を出力する出力部と、を備えたバーチャルアシスタント装置に用いられるプログラムであって、
前記キャラクタの画像とは異なる話題画像及び前記話題画像に関する言葉を前記表示部に表示させる制御を、前記制御部に行わせるステップと、
前記話題画像及び前記言葉が前記表示部に表示された後、前記言葉を含む話が前記入力部に入力された場合に、前記言葉に関連する話を前記キャラクタからの話として前記出力部に出力させる制御を、前記制御部に行わせるステップと、
を含む。
A program for a virtual assistant device, which is one of the inventions, is
An input section into which a story from a user is input, a display section that displays an image, a control section that causes the display section to display an image of a character, and an output section that outputs the story from the character. A program used for a virtual assistant device,
causing the control unit to perform control to display a topic image different from the image of the character and words related to the topic image on the display unit;
After the topic image and the word are displayed on the display unit, when a story including the word is input to the input unit, a story related to the word is output to the output unit as a story from the character. a step of causing the control unit to perform control to
including.

上記のバーチャルアシスタント装置用のプログラムは、話題となり得る画像(キャラクタの画像とは異なる話題画像)を表示する場合に、話題画像だけでなく、話題画像に関する言葉を表示部に表示することができる。このような表示がなされると、話題画像を見た利用者は、上記言葉を含んだ話を発しやすくなる。従って、バーチャルアシスタント装置側では、上記言葉を含んだ話がなされるものとして、上記言葉に関する応答用の話を用意しておくことができる。更に、このプログラムは、上記話題画像及び上記言葉が表示された後に、実際に上記言葉を含んだ話を利用者が発した場合に、入力部に入力された情報から上記言葉が含まれることを確認した上で、上記言葉に関連する話をキャラクタからの話として出力するように動作させることができる。このような動作がなされるため、話題画像を見た利用者が発した話に対してキャラクタが無関係の話を返すような対応が抑制されやすく、会話の適切化を図りやすい。 When displaying an image that can become a topic (a topic image different from a character image), the program for the virtual assistant device described above can display not only the topic image but also words related to the topic image on the display unit. When such a display is made, the user who sees the topic image is more likely to utter a story that includes the above-mentioned words. Therefore, on the virtual assistant device side, it is possible to prepare a response story regarding the above-mentioned words, assuming that the speech including the above-mentioned words will be given. Furthermore, if the user actually utters a story that includes the above words after the topic image and the above words are displayed, this program will detect from the information input to the input section that the above words are included. After checking, it can be operated to output a story related to the word as a story from the character. Because such an operation is performed, it is easy to prevent the character from replying with an unrelated story in response to the story uttered by the user who viewed the topic image, and it is easy to make the conversation more appropriate.

本発明によれば、バーチャルアシスタント装置を利用する利用者に対して話題を提供することができ、提供した話題に関する双方向の会話が適切に継続しやすい。 According to the present invention, it is possible to provide a topic to a user using a virtual assistant device, and it is easy to continue a two-way conversation regarding the provided topic appropriately.

図1は、第1実施形態のバーチャルアシスタント装置を備えたバーチャルアシスタントシステムの電気的構成を簡略的に示すブロック図である。FIG. 1 is a block diagram schematically showing the electrical configuration of a virtual assistant system including a virtual assistant device according to a first embodiment. 図2は、第1実施形態のバーチャルアシスタント装置における通常表示の例1を示す説明図である。FIG. 2 is an explanatory diagram showing an example 1 of normal display in the virtual assistant device of the first embodiment. 図3は、管理装置に記憶された利用者データのデータ構造例を概念的に示す説明図である。FIG. 3 is an explanatory diagram conceptually showing an example of the data structure of user data stored in the management device. 図4は、管理装置に記憶されたコンテンツ関連データのデータ構造例を概念的に示す説明図である。FIG. 4 is an explanatory diagram conceptually showing an example of the data structure of content-related data stored in the management device. 図5は、第1実施形態のバーチャルアシスタント装置での制御の流れを例示するフローチャートである。FIG. 5 is a flowchart illustrating the flow of control in the virtual assistant device of the first embodiment. 図6は、第1実施形態のバーチャルアシスタント装置における通常表示の例2を示す説明図である。FIG. 6 is an explanatory diagram showing a second example of normal display in the virtual assistant device of the first embodiment. 図7は、第1実施形態のバーチャルアシスタント装置における通常表示の例3を示す説明図である。FIG. 7 is an explanatory diagram showing a third example of normal display in the virtual assistant device of the first embodiment. 図8は、第1実施形態のバーチャルアシスタント装置における通常表示の例4を示す説明図である。FIG. 8 is an explanatory diagram showing example 4 of normal display in the virtual assistant device of the first embodiment. 図9は、第1実施形態のバーチャルアシスタント装置における「所定の報知」の一例を説明する説明図である。FIG. 9 is an explanatory diagram illustrating an example of "predetermined notification" in the virtual assistant device of the first embodiment. 図10は、第1実施形態のバーチャルアシスタント装置における通常表示の例5を示す説明図であり、報知情報が表示された例を示す図である。FIG. 10 is an explanatory diagram showing a fifth example of normal display in the virtual assistant device of the first embodiment, and is a diagram showing an example in which notification information is displayed. 図11は、第1実施形態のバーチャルアシスタント装置でのコンテンツの提供例1を示す説明図である。FIG. 11 is an explanatory diagram showing example 1 of content provision by the virtual assistant device of the first embodiment. 図12は、第1実施形態のバーチャルアシスタント装置でのコンテンツの提供例2を示す説明図であり、図11の表示に続く表示の例である。FIG. 12 is an explanatory diagram showing example 2 of content provision by the virtual assistant device of the first embodiment, and is an example of a display subsequent to the display in FIG. 11. 図13は、第1実施形態のバーチャルアシスタント装置でのコンテンツの提供例3を示す説明図であり、図12の表示に続く表示の例である。FIG. 13 is an explanatory diagram showing example 3 of content provision by the virtual assistant device of the first embodiment, and is an example of a display subsequent to the display in FIG. 12. 図14は、第1実施形態のバーチャルアシスタント装置でのコンテンツの提供例4を示す説明図であり、図13の表示に続く表示の例である。FIG. 14 is an explanatory diagram showing example 4 of content provision by the virtual assistant device of the first embodiment, and is an example of a display subsequent to the display in FIG. 13. 図15は、第1実施形態のバーチャルアシスタント装置において行われる表示に関し、話題画像を言葉と共に表示する具体例1を説明する説明図である。FIG. 15 is an explanatory diagram illustrating a first specific example of displaying topic images together with words regarding the display performed in the virtual assistant device of the first embodiment. 図16は、各言葉に対応付けて各言葉に対応する話を用意したデータ構成を説明する説明図である。FIG. 16 is an explanatory diagram illustrating a data structure in which a story corresponding to each word is prepared in association with each word. 図17は、第1実施形態のバーチャルアシスタント装置において行われる表示に関し、話題画像を言葉と共に表示する具体例2を説明する説明図である。FIG. 17 is an explanatory diagram illustrating a second specific example in which topic images are displayed together with words regarding the display performed in the virtual assistant device of the first embodiment. 図18は、第1実施形態のバーチャルアシスタント装置において行われる表示に関し、話題画像を言葉と共に表示する具体例3を説明する説明図である。FIG. 18 is an explanatory diagram illustrating a third specific example in which topic images are displayed together with words regarding the display performed in the virtual assistant device of the first embodiment. 図19は、第1実施形態のバーチャルアシスタント装置において行われる表示に関し、話題画像を言葉と共に表示する具体例4を説明する説明図である。FIG. 19 is an explanatory diagram illustrating a fourth specific example in which topic images are displayed together with words regarding the display performed in the virtual assistant device of the first embodiment. 図20は、第1実施形態のバーチャルアシスタント装置において行われる表示に関し、話題画像を言葉と共に表示する具体例5を説明する説明図である。FIG. 20 is an explanatory diagram illustrating a specific example 5 in which topic images are displayed together with words regarding the display performed in the virtual assistant device of the first embodiment. 図21は、比較例のバーチャルアシスタント装置において行われる表示を示す説明図である。FIG. 21 is an explanatory diagram showing a display performed in a virtual assistant device of a comparative example.

<第1実施形態>
1.バーチャルアシスタントシステムの概要
図1に示されるバーチャルアシスタントシステム1は、バーチャルアシスタント装置10と、管理装置90と、を備える。以下の説明では、バーチャルアシスタントシステム1は、単にシステム1とも称される。以下で説明される代表例は、バーチャルアシスタント装置10が、高齢者向けのバーチャルアシスタント装置として機能するものであり、例えば、利用者が、介護施設、自宅、病院などで利用することができるものである。
<First embodiment>
1. Overview of Virtual Assistant System The virtual assistant system 1 shown in FIG. 1 includes a virtual assistant device 10 and a management device 90. In the following description, the virtual assistant system 1 is also simply referred to as system 1. In a typical example described below, the virtual assistant device 10 functions as a virtual assistant device for elderly people, and can be used by a user at a nursing facility, home, hospital, etc. be.

2.バーチャルアシスタント装置のハードウェア構成
図1のように、バーチャルアシスタント装置10は、タブレット端末、スマートフォン、パーソナルコンピュータ、外部装置と通信可能に構成されたテレビジョンなどの汎用の情報端末にアプリケーションプログラムをインストールし、記憶及び利用可能とした情報通信端末であってもよく、後述される各機能を実現できる専用装置であってもよい。バーチャルアシスタント装置10は、通信機能を有する携帯型の情報装置であってもよく、通信機能を有する据置型の情報装置であってもよい。
2. Hardware Configuration of Virtual Assistant Device As shown in FIG. 1, the virtual assistant device 10 installs an application program on a general-purpose information terminal such as a tablet terminal, a smartphone, a personal computer, or a television configured to be able to communicate with an external device. , it may be an information communication terminal that can store and use the information, or it may be a dedicated device that can realize each function described below. The virtual assistant device 10 may be a portable information device having a communication function, or may be a stationary information device having a communication function.

図1のように、バーチャルアシスタント装置10は、制御部11と通信部12とインタフェース13と記憶部14とを備える。以下で説明されるバーチャルアシスタント装置10の代表例は、バーチャルアシスタント装置10が、図2のようにタブレット端末によって実現される例である。 As shown in FIG. 1, the virtual assistant device 10 includes a control section 11, a communication section 12, an interface 13, and a storage section 14. A representative example of the virtual assistant device 10 described below is an example in which the virtual assistant device 10 is implemented by a tablet terminal as shown in FIG.

図1に示される制御部11は、例えば公知の情報処理装置として構成される。制御部11は、CPUなどの公知の演算装置及び他の周辺回路などを備え、様々な制御や演算を行い得る。制御部11は、インタフェース13を構成する表示部15に、具現化されたキャラクタを表示させる機能を有する。 The control unit 11 shown in FIG. 1 is configured as, for example, a known information processing device. The control unit 11 includes a known arithmetic unit such as a CPU and other peripheral circuits, and can perform various controls and calculations. The control unit 11 has a function of displaying an embodied character on the display unit 15 that constitutes the interface 13.

図1に示される通信部12は、公知の有線通信方式又は公知の無線通信方式によって広域通信網に直接又は他装置を介して間接的にアクセス可能な装置である。通信部12は、基地局との間で無線通信を行い、図示されていない基地局を介して広域通信網(例えば、インターネット)に直接アクセスする構成であってもよい。通信部12は、図示されていないアクセスポイントとの間で無線通信を行い、アクセスポイントを介して広域通信網に間接的にアクセスする構成であってもよい。通信部12は、中継装置(ルータ等)との間で有線通信を行い、中継装置を介して広域通信網にアクセスする構成であってもよい。 The communication unit 12 shown in FIG. 1 is a device that can access a wide area communication network directly or indirectly via another device using a known wired communication method or a known wireless communication method. The communication unit 12 may be configured to perform wireless communication with a base station and directly access a wide area communication network (for example, the Internet) via a base station (not shown). The communication unit 12 may be configured to perform wireless communication with an access point (not shown) and indirectly access a wide area communication network via the access point. The communication unit 12 may be configured to perform wired communication with a relay device (such as a router) and access a wide area communication network via the relay device.

図1に示されるインタフェース13は、利用者からの入力の受入れおよび出力を行う装置である。インタフェース13は、表示部15と音声出力部16と操作部17と音声入力部18とを備える。 The interface 13 shown in FIG. 1 is a device that receives and outputs input from a user. The interface 13 includes a display section 15 , an audio output section 16 , an operation section 17 , and an audio input section 18 .

表示部15及び音声出力部16は、出力部の一例に相当し、情報を出力する機能を有する。表示部15は、液晶ディスプレイや有機エレクトロルミネッセンスディスプレイなどの公知の画像表示装置として構成され、様々な画像を表示する機能を有する。以下で説明される代表例では、表示部15は、タッチパネル式の表示装置の一部をなす。音声出力部16は、例えば公知のスピーカなどの発音装置によって構成されている。音声出力部16は、制御部11と協働して各種音声を出力する機能を有する。 The display section 15 and the audio output section 16 correspond to an example of an output section and have a function of outputting information. The display unit 15 is configured as a known image display device such as a liquid crystal display or an organic electroluminescent display, and has a function of displaying various images. In the representative example described below, the display unit 15 forms part of a touch panel type display device. The audio output unit 16 is constituted by, for example, a known sounding device such as a speaker. The audio output section 16 has a function of outputting various sounds in cooperation with the control section 11.

操作部17及び音声入力部18は、情報を入力する入力部として機能する。操作部17は、動作検出部の一例に相当し、接触方式での入力操作が可能とされた入力デバイスである。操作部17は、例えば、タッチパネルなどが好適例であり、情報を入力するためのボタンを備えていてもよい。音声入力部18は、例えば公知のマイクなどの音声入力装置によって構成されている。音声入力部18は、入力される音を電気信号に変換して制御部11に与える機能を有する。音声入力部18は、利用者が音声入力部18に向かって声やその他の音を発した場合に利用者の音声を示す音声信号を取得するように機能する。具体的には、音声入力部18は、自身が検出可能な音声を利用者が発した場合、その音声の内容を示す音声信号を取得し、電気信号に変換し得る。 The operation unit 17 and the voice input unit 18 function as an input unit for inputting information. The operation unit 17 corresponds to an example of a motion detection unit, and is an input device that allows input operations using a contact method. The operation unit 17 is preferably a touch panel, for example, and may include buttons for inputting information. The audio input unit 18 is configured by, for example, a known audio input device such as a microphone. The audio input section 18 has a function of converting input sound into an electrical signal and providing it to the control section 11 . The audio input unit 18 functions to obtain an audio signal representing the user's voice when the user makes a voice or other sound toward the audio input unit 18. Specifically, when the user utters a voice that can be detected by the voice input unit 18, the voice input unit 18 can acquire a voice signal indicating the content of the voice and convert it into an electrical signal.

以下で説明される代表例では、図2等で示されるように、表示部15と操作部17とがタッチパネル式表示装置20を構成する。図2等の例では、操作部17の一部又は全部をなすタッチパネルが、表示部15からの光を透過可能に構成され、表示部15からの画像を外部から視認可能な構成で透明性のパネルとして表示部15を覆っている。 In the representative example described below, the display section 15 and the operation section 17 constitute a touch panel display device 20, as shown in FIG. 2 and the like. In the example shown in FIG. 2, the touch panel forming part or all of the operation unit 17 is configured to be able to transmit light from the display unit 15, and is configured to be transparent so that the image from the display unit 15 can be viewed from the outside. It covers the display section 15 as a panel.

記憶部14は、様々な情報を記憶する機能を有する。記憶部14は、半導体メモリ、HDD、SSD、など、公知の記憶装置が採用される。制御部11は、記憶部14に対して各種情報を書き込む機能や、記憶部14に記憶された各種情報を読み出す機能を有する。記憶部14には、後述されるアプリケーションプログラムなどの様々なプログラムが記憶されている。記憶部14には、管理装置90によって管理されているサイト、情報、プログラム等に対して広域通信網を介してアクセスするための識別情報(例えば、URL(Uniform Resource Locator)など)やその他のデータも記憶されている。 The storage unit 14 has a function of storing various information. The storage unit 14 employs a known storage device such as a semiconductor memory, HDD, or SSD. The control unit 11 has a function of writing various information to the storage unit 14 and a function of reading various information stored in the storage unit 14. The storage unit 14 stores various programs such as application programs to be described later. The storage unit 14 stores identification information (for example, URL (Uniform Resource Locator), etc.) and other data for accessing sites, information, programs, etc. managed by the management device 90 via a wide area communication network. is also remembered.

3.管理装置
図1に示される管理装置90は、様々な情報処理機能や様々な演算機能を有する。管理装置90は、バーチャルアシスタント装置10の外部に設けられた外部装置である。管理装置90は、様々な情報を登録する機能、様々な情報を配信する機能、などを有する。管理装置90は、通信機能及び情報処理機能を有する装置であればよい。管理装置90は、例えば、CPU,記憶媒体、通信装置などを備えたコンピュータとして構成されている。図1の例では、管理装置90は、制御装置91と、通信部92、表示部93、入力部94、記憶部95、を備える。
3. Management Device The management device 90 shown in FIG. 1 has various information processing functions and various calculation functions. The management device 90 is an external device provided outside the virtual assistant device 10. The management device 90 has a function of registering various information, a function of distributing various information, and the like. The management device 90 may be any device as long as it has a communication function and an information processing function. The management device 90 is configured as a computer including, for example, a CPU, a storage medium, a communication device, and the like. In the example of FIG. 1, the management device 90 includes a control device 91, a communication section 92, a display section 93, an input section 94, and a storage section 95.

制御装置91は、例えば公知の情報処理装置として構成される。制御部11は、CPUなどの公知の演算装置及び他の周辺回路などを備え、様々な制御や演算を行い得る。 The control device 91 is configured, for example, as a known information processing device. The control unit 11 includes a known arithmetic unit such as a CPU and other peripheral circuits, and can perform various controls and calculations.

通信部92は、公知の有線通信方式又は公知の無線通信方式によって広域通信網に直接又は他装置を介して間接的にアクセス可能な装置である。通信部92は、基地局との間で無線通信を行い、図示されていない基地局を介して広域通信網に直接アクセスする構成であってもよい。通信部92は、図示されていないアクセスポイントとの間で無線通信を行い、アクセスポイントを介して広域通信網に間接的にアクセスする構成であってもよい。通信部92は、中継装置(ルータ等)との間で有線通信を行い、中継装置を介して広域通信網にアクセスする構成であってもよい。 The communication unit 92 is a device that can access a wide area communication network directly or indirectly via another device using a known wired communication method or a known wireless communication method. The communication unit 92 may be configured to perform wireless communication with a base station and directly access a wide area communication network via a base station (not shown). The communication unit 92 may be configured to perform wireless communication with an access point (not shown) and indirectly access a wide area communication network via the access point. The communication unit 92 may be configured to perform wired communication with a relay device (such as a router) and access a wide area communication network via the relay device.

表示部93は、公知の画像表示装置として構成される。入力部94は、例えば、キーボード、マウス、タッチパネル、音声入力部など、公知の入力デバイスとして構成され、接触による操作や音声入力などによって情報の入力が可能とされる。記憶部95は、様々な情報を記憶する記憶装置である。記憶部95において、データベースが構成されていてもよい。 The display section 93 is configured as a known image display device. The input unit 94 is configured as a known input device such as a keyboard, a mouse, a touch panel, a voice input unit, etc., and allows information to be input by touch operation, voice input, or the like. The storage unit 95 is a storage device that stores various information. A database may be configured in the storage unit 95.

4.管理装置からのコンテンツの配信
管理装置90には、情報の配信対象である利用者に関する情報が登録されている。図3は、図1に示される管理装置90の記憶部95に記憶される利用者データのデータ構造例を示している。図3のように、管理装置90に記憶される利用者データは、データベースを構成しており、各々の利用者に対応付けてID、登録種類、利用者情報が記憶されている。IDは、各々の利用者を識別可能な情報であり、各々の利用者を特定し得る識別情報である。登録種類は、利用者が希望する情報や利用者に有意義な情報の種類を登録する情報である。利用者情報は、利用者に関する各種情報であり、氏名、生年月日、メールアドレス、趣味、健康に関する情報、居住地、過去のエピソード等の個人情報を含んでいてもよく、コンテンツの配信先を特定する配信先情報を含んでいてもよい。例えば、図3の利用者データでは、利用者のIDとしてID1が特定されれば、「ID1」で特定される利用者が希望する情報の種類が「登録種類1」の情報によって特定され、その利用者の個人情報等が「利用者情報1」の情報によって特定される。
4. Distribution of Content from Management Device The management device 90 has registered information regarding users to whom information is to be distributed. FIG. 3 shows an example data structure of user data stored in the storage unit 95 of the management device 90 shown in FIG. 1. As shown in FIG. 3, the user data stored in the management device 90 constitutes a database, in which ID, registration type, and user information are stored in association with each user. The ID is information that can identify each user, and is identification information that can identify each user. The registration type is information for registering the type of information desired by the user or the type of information meaningful to the user. User information is various information about the user, and may include personal information such as name, date of birth, email address, hobbies, health information, place of residence, past episodes, etc. It may also include specific delivery destination information. For example, in the user data in Figure 3, if ID1 is specified as the user ID, the type of information desired by the user specified by "ID1" is specified by the information of "registration type 1", and the The user's personal information, etc. is specified by the information of "user information 1".

本実施形態に係るシステム1では、「利用者が希望する情報の種類」や「利用者に有意義な情報」として、様々な種類が登録可能とされている。具体的には、「利用者が希望する情報の種類」や「利用者に有意義な情報」として、趣味又は生き甲斐に関する複数の種類が予め選定可能に用意され、それら複数の種類から選ばれるいずれか1以上の種類が登録情報に含まれていてもよい。趣味又は生き甲斐に関する種類としては、例えば、園芸、スポーツ、レクリエーション、体操、音楽、美術、料理、懐かしい景色や玩具、旅行、動物、乗り物、ショッピング情報など、様々な種類を用意しておくことができる。或いは、利用者が希望する情報の種類として、病気に関する複数の種類が予め選定可能に用意され、それら複数の種類から選ばれるいずれか1以上の種類が登録情報に含まれていてもよい。具体的には、老齢症候群の予防やリハビリテーションやリラクゼーションに関する複数の種類が予め選定可能に用意され、それら複数の種類から選ばれるいずれか1以上の種類が登録情報に含まれていてもよい。 In the system 1 according to the present embodiment, various types can be registered as "type of information desired by the user" and "information meaningful to the user." Specifically, multiple types of hobbies or purpose in life are available for selection in advance as ``types of information desired by users'' and ``information meaningful to users,'' and any one selected from these multiple types is prepared in advance. One or more types may be included in the registration information. Various types of hobbies or purpose in life can be prepared, such as gardening, sports, recreation, gymnastics, music, art, cooking, nostalgic scenery and toys, travel, animals, vehicles, and shopping information. . Alternatively, as the type of information desired by the user, a plurality of disease-related types may be prepared in advance so as to be selectable, and one or more types selected from the plurality of types may be included in the registered information. Specifically, a plurality of types related to the prevention of geriatric syndromes, rehabilitation, and relaxation may be prepared in advance so as to be selectable, and one or more types selected from the plurality of types may be included in the registered information.

例えば、図3の利用者データにおいて、ID1が「00001」の情報であり、登録種類1が「園芸、体操」を特定する情報であり、利用者情報1が、利用者名として「山田太郎」を特定し、配信先アドレスとして「アドレス情報1」を特定する情報であるとする。この場合、制御装置91は、利用者データを参照すれば、「00001」のIDで特定される利用者の氏名が「山田太郎」であり、配信先アドレスが「アドレス情報1」であり、この利用者が希望する種類が「園芸、体操」であることを特定することができる。 For example, in the user data in FIG. 3, ID1 is information of "00001", registration type 1 is information specifying "gardening, gymnastics", and user information 1 is "Taro Yamada" as the user name. It is assumed that the information specifies "address information 1" as the delivery destination address. In this case, if the control device 91 refers to the user data, the name of the user specified by the ID "00001" is "Taro Yamada", the delivery destination address is "address information 1", and this It is possible to specify that the type desired by the user is "gardening, gymnastics."

管理装置90は、コンテンツの登録及び配信を行うことが可能とされている。図4は、図4は、図1に示される管理装置90の記憶部95に記憶されるコンテンツ関連データのデータ構造例を示している。図4のように、管理装置90に記憶されるコンテンツ関連データは、データベースを構成しており、コンテンツ毎に、コンテンツ識別情報、コンテンツデータ、配信日時、コンテンツの種類が互いに対応付けられて記憶されている。本明細書では、コンテンツデータは、コンテンツ情報の一例に相当し、単にコンテンツとも称される。 The management device 90 is capable of registering and distributing content. FIG. 4 shows an example of the data structure of content-related data stored in the storage unit 95 of the management device 90 shown in FIG. 1. As shown in FIG. As shown in FIG. 4, the content-related data stored in the management device 90 constitutes a database, and for each content, content identification information, content data, delivery date and time, and content type are stored in association with each other. ing. In this specification, content data corresponds to an example of content information, and is also simply referred to as content.

コンテンツ識別情報は、各々のコンテンツを識別可能且つ特定可能な情報であればよく、識別番号であってもよく、具体的な名称であってもよい。コンテンツデータは、コンテンツの具体的なデータであり、動画データ、静止画データ、音声データなどを含んでいてもよく、その他のデータ(例えば、プログラムデータ等)を含んでいてもよい。配信日時は、対応付けられたコンテンツ(コンテンツデータ)が配信される日時を特定する情報である。種類情報は、対応付けられたコンテンツ(コンテンツデータ)の種類を特定する情報である。種類情報で特定されるコンテンツの種類は、1種類であってもよく、複数種類であってもよい。 The content identification information may be any information that allows each content to be identified and specified, and may be an identification number or a specific name. Content data is specific data of content, and may include video data, still image data, audio data, etc., and may also include other data (eg, program data, etc.). The distribution date and time is information that specifies the date and time when the associated content (content data) is distributed. Type information is information that specifies the type of content (content data) that is associated. The type of content specified by the type information may be one type or multiple types.

管理装置90は、各識別情報で特定される各コンテンツ(コンテンツデータ)を、各コンテンツを配信すべき利用者(各コンテンツの種類を登録している利用者)のバーチャルアシスタント装置10に対し、各コンテンツに対応付けられた各配信日時に配信する。なお、図1では、一の利用者が所持する一のバーチャルアシスタント装置10のみが例示されているが、システム1では、多数の利用者がバーチャルアシスタント装置10を所持することができ、図1では、他の利用者が所持するバーチャルアシスタント装置10の図示は省略されている。管理装置90は、コンテンツを配信する場合において、そのコンテンツの配信対象の利用者が複数存在する場合、いずれの利用者のバーチャルアシスタント装置10に対してもコンテンツを配信することができる。なお、本実施形態では、管理装置90が各コンテンツを配信すべき利用者(各コンテンツの種類を登録している利用者)を特定し、当該利用者のバーチャルアシスタント装置10に対し、各コンテンツ(コンテンツデータ)を配信することとしたが、コンテンツの配信はこれに限られない。例えば、利用者のバーチャルアシスタント装置10が、自身の記憶部に記憶されている情報に基づき、管理装置90に対してコンテンツの配信を要求することで、当該利用者のバーチャルアシスタント装置10に対し、各コンテンツ(コンテンツデータ)を配信することとしてもよい。 The management device 90 sends each content (content data) specified by each piece of identification information to the virtual assistant device 10 of the user who should distribute each content (the user who has registered the type of each content). Deliver each distribution date and time associated with the content. Note that in FIG. 1, only one virtual assistant device 10 owned by one user is illustrated, but in the system 1, many users can have virtual assistant devices 10, and in FIG. , illustration of the virtual assistant device 10 owned by another user is omitted. When distributing content, if there are multiple users to whom the content is to be distributed, the management device 90 can distribute the content to the virtual assistant devices 10 of any of the users. Note that in this embodiment, the management device 90 identifies the users to whom each content is to be distributed (users who have registered the types of each content), and sends each content ( However, the content distribution is not limited to this. For example, when the user's virtual assistant device 10 requests the management device 90 to distribute content based on information stored in its own storage unit, the user's virtual assistant device 10 requests Each content (content data) may be distributed.

例えば、図4のコンテンツ関連データにおいて、「識別情報1」が「0000A」の情報であり、「データ1」が「園芸に関する所定の動画データ」であり、「日時情報1」が「2021年1月1日10:00」であり、「種類情報1」が「園芸」を特定する情報であるとする。この場合、制御装置91は、図4のコンテンツ関連データを参照すれば、「0000A」に対応付けられたコンテンツデータ(データ1の「園芸に関する所定の動画データ」)を、「園芸」の種類のデータとして、「2021年1月1日10:00」に配信すべきことを特定することができる。この場合、管理装置90は、識別情報1(0000A)で特定されるコンテンツデータ(データ1の「園芸に関する所定の動画データ」)を、「園芸」の種類のデータを登録する利用者(図3の利用者データにおいて、登録種類として「園芸」を含む利用者)のバーチャルアシスタント装置10に対し「2021年1月1日10:00」に配信する。 For example, in the content-related data in FIG. 4, "identification information 1" is "0000A" information, "data 1" is "predetermined video data related to gardening", and "date and time information 1" is "2021 January 2021". 10:00 on the first day of the month," and "type information 1" is information specifying "horticulture." In this case, the control device 91 refers to the content-related data in FIG. As data, it is possible to specify that the data should be distributed at "January 1, 2021, 10:00". In this case, the management device 90 transfers the content data (data 1 "predetermined video data related to gardening") specified by identification information 1 (0000A) to a user who registers data of the type "gardening" (see FIG. will be delivered to the virtual assistant device 10 of the user whose registered type is "gardening" in the user data of "January 1, 2021, 10:00".

5.バーチャルアシスタント装置の受信制御
5-1.基本制御
バーチャルアシスタント装置10には、アプリケーションプログラムが記憶されている。このアプリケーションプログラムは、バーチャルアシスタント装置10にインストールされている。このアプリケーションプログラムは、記憶部14に記憶され、制御部11によって読み出されて実行される。
5. Reception control of virtual assistant device 5-1. Basic Control The virtual assistant device 10 stores an application program. This application program is installed on the virtual assistant device 10. This application program is stored in the storage unit 14, read out and executed by the control unit 11.

上述されたように、管理装置90は、バーチャルアシスタント装置10に対してコンテンツ(コンテンツデータ)を配信する。管理装置90からバーチャルアシスタント装置10に配信されるコンテンツは、バーチャルアシスタント装置10を所持する利用者が予め登録した種類に属するコンテンツであってもよく、利用者による登録に関係なく管理装置90が選定したコンテンツであってもよい。バーチャルアシスタント装置10は、管理装置90から自身に対して配信されるコンテンツを通信部12によって受信する。制御部11は、外部(管理装置90)から配信されるコンテンツ(コンテンツデータ)を通信部12が受けた場合に、そのコンテンツデータを記憶部14に記憶し、インタフェース13を介して「所定の報知」を行う制御を実行する。なお、「所定の報知」は、コンテンツデータを記憶部14に記憶する前に行ってもよい。 As described above, the management device 90 distributes content (content data) to the virtual assistant device 10. The content distributed from the management device 90 to the virtual assistant device 10 may be content that belongs to a type registered in advance by the user who owns the virtual assistant device 10, and may be selected by the management device 90 regardless of the registration by the user. The content may be The virtual assistant device 10 receives content distributed to itself from the management device 90 through the communication unit 12 . When the communication unit 12 receives content (content data) distributed from the outside (management device 90 ), the control unit 11 stores the content data in the storage unit 14 and sends a “predetermined notification” via the interface 13 . ” Executes control that performs. Note that the "predetermined notification" may be performed before the content data is stored in the storage unit 14.

具体的には、上記アプリケーションプログラムは、図5のような流れで制御部11に制御を行わせるプログラムである。制御部11は、所定の開始条件が成立した場合(例えば、操作部17に対して予め定められた開始操作(例えば、当該アプリケーションプログラムを起動させるためのタッチパネル式表示装置20の操作)がなされた場合)に上記アプリケーションプログラムを実行し、ステップS1において、画像によって具現化されたキャラクタ70を表示部15に表示させる。 Specifically, the application program is a program that causes the control unit 11 to perform control according to the flow shown in FIG. The control unit 11 controls the control unit 11 when a predetermined start condition is satisfied (for example, when a predetermined start operation is performed on the operation unit 17 (for example, an operation on the touch panel display device 20 to start the application program). case), the above application program is executed, and in step S1, the character 70 embodied in the image is displayed on the display section 15.

図2には、ステップS1でなされる表示の具体例が示される。図2において、キャラクタ70は、一般人を模したバーチャルアシスタント(擬人)である。図2に表示されるキャラクタ70は、あくまで一例であり、例えば、介護福祉士、看護師、医師などの特定の職業の者を模したバーチャルアシスタントであってもよい。また、人に限らず動物やロボット等を模したバーチャルアシスタントであってもよい。上記アプリケーションプログラムは、図2に表示されるキャラクタ70が自動的に会話を行うようにチャットボットの機能を実現するプログラムが備えられていてもよい。自動的に行う会話の内容は、利用者が事前に登録した属性(男女、家族構成、住宅環境、誕生日、趣味、コンテンツの難易度など)に合わせて、変更、選択することができる。図2に示されるキャラクタ70の画像は、静止画や動画などによって実現することができ、後述されるステップS3,S8の処理が実行されていない期間には、時間経過に応じて図6、図7,図8のようにキャラクタ70の表情、姿勢、動作、行為などを様々に変化させてもよい。 FIG. 2 shows a specific example of the display made in step S1. In FIG. 2, a character 70 is a virtual assistant (personification) imitating an ordinary person. The character 70 displayed in FIG. 2 is just an example, and may be a virtual assistant modeled after a person in a specific profession, such as a care worker, nurse, or doctor. Further, the virtual assistant is not limited to a human, but may be a virtual assistant modeled after an animal, a robot, or the like. The above application program may include a program that realizes the function of a chatbot so that the character 70 displayed in FIG. 2 automatically carries out a conversation. The content of the automatic conversation can be changed or selected according to the user's pre-registered attributes (gender, family composition, housing environment, birthday, hobbies, content difficulty level, etc.). The image of the character 70 shown in FIG. 2 can be realized by a still image, a moving image, or the like. 7. As shown in FIG. 8, the facial expressions, postures, movements, actions, etc. of the character 70 may be varied in various ways.

制御部11は、ステップS1、S3、S4、S8等において、図2、図6~図8のようにキャラクタ70を表示させ、その場合には、表示部15に、季節、暦、日付、時刻等を表示してもよく、朝・昼・夕方・夜の時間帯をイメージするイラストレーション、写真、コンピューターグラフィック、その他の画像等を表示してもよい。例えば、図6は、予め定められた昼の時間帯の画像を示しており、この画像では、昼の時間帯であることを示すようにキャラクタ70の外側の背景の色を明るい色(具体的には予め定められた明色)で示している。一方、図8は、予め定められた夜の時間帯の画像を示しており、この画像では、夜の時間帯であることを示すようにキャラクタ70の外側の背景の色を暗い色(予め定められた暗色)で示している。 In steps S1, S3, S4, S8, etc., the control unit 11 causes the character 70 to be displayed as shown in FIGS. etc., or may display illustrations, photographs, computer graphics, and other images illustrating morning, noon, evening, and night time zones. For example, FIG. 6 shows an image of a predetermined daytime period, and in this image, the background color outside the character 70 is changed to a bright color (specifically are shown in a predetermined light color). On the other hand, FIG. 8 shows an image of a predetermined night time period, and in this image, the background color outside the character 70 is changed to a dark color (a predetermined color) to indicate the night time period. shown in dark colors).

制御部11は、ステップS1の後、ステップS2において、会話開始条件が成立したか否かを判定する。会話開始条件は、バーチャルアシスタント装置10から会話を発する条件として予め定められた条件である。会話開始条件は、音声入力部18に対して所定の音声が入力されたこと(例えば、予め定められたウエイクワードが入力されたこと)であってもよい。以下で説明される代表例では、キャラクタ70の名前がウエイクワードとされており、このウエイクワードが音声入力されることが会話開始条件の一つとされている。なお、この例はあくまで一例であり、予め定められた挨拶(例えば「こんにちは」の言葉)がウエイクワードとされ、このウエイクワードが音声入力されることが会話開始条件の一つとされてもよい。会話開始条件は、これらの例に限定されず、例えば、操作部17に対して所定の操作がなされたこと(例えば、表示部15近傍をタップする操作がなされたこと)であってもよい。或いは、会話開始条件は、予め設定された予約時刻が到来したことであってもよい。 After step S1, the control unit 11 determines in step S2 whether a conversation start condition is satisfied. The conversation start condition is a condition predetermined as a condition for starting a conversation from the virtual assistant device 10. The conversation start condition may be that a predetermined voice is input to the voice input unit 18 (for example, that a predetermined wake word is input). In the representative example described below, the name of the character 70 is used as a wake word, and one of the conditions for starting a conversation is that this wake word is input by voice. Note that this example is just an example, and a predetermined greeting (for example, the word "hello") may be used as the wake word, and voice input of this wake word may be set as one of the conversation start conditions. The conversation start condition is not limited to these examples, and may be, for example, that a predetermined operation has been performed on the operation unit 17 (for example, that an operation of tapping near the display unit 15 has been performed). Alternatively, the conversation start condition may be that a preset reserved time has arrived.

制御部11は、ステップS2において会話開始条件が成立した判定した場合、ステップS3に進んで会話又はコンテンツの提供を開始する。ステップS3での会話やコンテンツの提供は、後述されるステップS8と同様に行うことができる。一方、ステップS2において会話開始条件が成立していないと判定した場合、ステップS4に進んで通常表示を継続する。なお、ステップS2でのNo判定及びステップS5でのNo判定が繰り返される間は、図2、図6~図8のようなキャラクタ表示を継続させ、継続中には、キャラクタ70の表情、姿勢、動作、行為などを様々に変化させる。 When the control unit 11 determines in step S2 that the conversation start condition is satisfied, the control unit 11 proceeds to step S3 and starts providing the conversation or content. Conversation and content provision in step S3 can be performed in the same manner as step S8, which will be described later. On the other hand, if it is determined in step S2 that the conversation start condition is not satisfied, the process advances to step S4 and normal display is continued. Note that while the No determination in step S2 and the No determination in step S5 are repeated, the character display as shown in FIGS. Change movements, actions, etc.

制御部11は、ステップS3又はステップS4の後、ステップS5において、新たな配信があったか否かの判定を行う。制御部11は、ステップS5において、通信部12が管理装置90から配信されたコンテンツ(コンテンツデータ)を受けていない判定した場合、ステップS5においてNoと判定するとともにステップS2に処理を戻し、ステップS2以降の処理を再び行う。制御部11は、ステップS5において新たな配信があったと判定した場合、ステップS5においてYesと判定し、ステップS6以降の処理を行う。 After step S3 or step S4, the control unit 11 determines whether there is a new distribution in step S5. If the control unit 11 determines in step S5 that the communication unit 12 has not received the content (content data) distributed from the management device 90, the control unit 11 determines No in step S5 and returns the process to step S2, and returns the process to step S2. Perform the following processing again. When the control unit 11 determines that there is a new distribution in step S5, it determines Yes in step S5, and performs the processing from step S6 onwards.

5-2.新たな配信があった場合
制御部11は、ステップS5において、通信部12が管理装置90から配信されたコンテンツ(コンテンツデータ)を受けたか否かを判定し、受けたと判定した場合、ステップS6において、インタフェース13に「所定の報知」を行わせる。「所定の報知」は、「バーチャルアシスタント装置10が外部から新たなコンテンツの配信を受けたことを伝える伝達情報」の表示や音声出力などである。上記伝達情報の表示や音声出力は、メッセージの表示や音声出力などであってもよく、新たなコンテンツの配信を受けたことを伝える記号や絵柄などの画像表示であってもよく、新たなコンテンツの配信を受けたことを伝える報知音(アラーム音やブザー音などの発生)の出力であってもよい。報知音としては、例えば日常生活で聴きなれた電話のベル音やチャーム音が好ましい。例えば、図9には、「所定の報知」の一例が示されている。図9の例では、「所定の報知」として、配信名で特定される配信が届いた旨のメッセージの画像72を表示部15に表示させているが、このようなメッセージ表示に代えて又はメッセージ表示と併用して音声によるメッセージ報知、絵柄等の画像表示、報知音の出力などを行ってもよい。例えば、キャラクタの会話により報知してもよい。
5-2. When there is new distribution The control unit 11 determines in step S5 whether the communication unit 12 has received the content (content data) distributed from the management device 90, and if it is determined that the communication unit 12 has received the content (content data), the control unit 11 determines in step S6 , causes the interface 13 to perform "predetermined notification". The "predetermined notification" is the display or audio output of "transmission information that indicates that the virtual assistant device 10 has received distribution of new content from the outside." The display and audio output of the above-mentioned communication information may be a message display or audio output, or may be an image display such as a symbol or a picture that indicates that new content has been delivered. It may also be the output of a notification sound (generation of an alarm sound, buzzer sound, etc.) to notify that the distribution of the content has been received. Preferably, the notification sound is, for example, a telephone ring or a charm sound that is familiar to the user in daily life. For example, FIG. 9 shows an example of "predetermined notification". In the example of FIG. 9, an image 72 of a message indicating that the distribution specified by the distribution name has arrived is displayed as a "predetermined notification" on the display unit 15, but instead of displaying such a message, or It may be used in combination with display to notify a message by voice, display images such as pictures, output notification sound, etc. For example, the notification may be made through a conversation between characters.

このように、上記のアプリケーションプログラムは、外部(管理装置90)から配信されるコンテンツデータ(コンテンツ情報)を通信部12が受けた場合に、ステップS6において、「インタフェース13を介して所定の報知を行う制御」を制御部11に実行させる。 In this manner, when the communication unit 12 receives content data (content information) distributed from the outside (management device 90), the above application program executes "predetermined notification via the interface 13" in step S6. The control section 11 is caused to execute the "control to be performed."

制御部11は、ステップS6において、インタフェース13に「所定の報知」を行わせた後、ステップS7において、提供指示があったか否かを判定する。具体的には、制御部11は、ステップS7において、「インタフェース13を介してコンテンツの提供を指示する入力を受けたか否か」を判定する。 The control unit 11 causes the interface 13 to perform "predetermined notification" in step S6, and then determines in step S7 whether or not there is a provision instruction. Specifically, in step S7, the control unit 11 determines whether "an input instructing the provision of content has been received via the interface 13."

「コンテンツの提供を指示する入力」は、例えば、操作部17に対する所定操作であってもよく、所定の音声入力であってもよい。例えば、ステップS6の処理によって図9のような「所定の報知」がなされる例では、「所定の報知」のメッセージと共に2つの選択ボタン(「見ない」「見る」のボタン画像)が表示される。この場合、それら選択ボタンのうちの「見る」を選択する操作(例えば、「見る」の画像72をクリックする操作)が「コンテンツの提供を指示する入力」の一例に相当する。従って、ステップS6において図9のような表示が行われた後、「見る」を選択する操作がなされた場合、ステップS7では、コンテンツの提供を指示する入力を受けたと判定し、ステップS8の処理を実行する。 The "input instructing to provide content" may be, for example, a predetermined operation on the operation unit 17 or a predetermined voice input. For example, in an example where a "predetermined notification" as shown in FIG. 9 is made by the process of step S6, two selection buttons ("not watch" and "watch" button images) are displayed together with the message "predetermined notification". Ru. In this case, the operation of selecting "View" from among these selection buttons (for example, the operation of clicking the "View" image 72) corresponds to an example of "input for instructing provision of content." Therefore, if an operation to select "view" is performed after the display as shown in FIG. 9 is performed in step S6, it is determined in step S7 that an input instructing the provision of content has been received, and the processing in step S8 is performed. Execute.

制御部11は、ステップS7において「コンテンツの提供を指示する入力」を受けなかった判定した場合、ステップS9において新たに配信されたコンテンツデータを記憶部14に蓄積する。例えば、制御部11は、ステップS6において「所定の報知」を行った後、所定時間を経過するまで「コンテンツの提供を指示する入力」がなされない場合、図10のように、コンテンツデータ(コンテンツ情報)の配信があったことを示す報知情報の表示を表示部15に行わせる。例えば、管理装置90から新たに2つのコンテンツデータが配信され、ステップS6において図9のように「所定の報知」が行われた場合に、「所定の報知」の開始から所定時間を経過しても「見る」のボタンが押されなかった場合には、ステップS9に進み、新たに配信されてきたコンテンツデータを蓄積するとともに、図10のような画像を表示する。図10の画像では、報知情報として、新たに配信されたコンテンツのうち未提供となっているコンテンツの数を画像74によって表示している。なお、ステップS6において図9のように「所定の報知」が行われた場合に、「見ない」のボタンが選択された場合(即ち、コンテンツの提供の保留を指示する入力がなされた場合)にも、ステップS9に進んで同様の処理を行う。 When the control unit 11 determines in step S7 that the “input instructing the provision of content” has not been received, the control unit 11 stores the newly distributed content data in the storage unit 14 in step S9. For example, if the "input instructing the provision of content" is not made until a predetermined time has elapsed after the "predetermined notification" has been made in step S6, the control unit 11 may generate content data (content information) as shown in FIG. The display unit 15 is caused to display notification information indicating that the information) has been distributed. For example, when two new pieces of content data are distributed from the management device 90 and a "predetermined notification" is performed in step S6 as shown in FIG. If the "view" button is not pressed, the process advances to step S9, where newly distributed content data is accumulated and an image as shown in FIG. 10 is displayed. In the image of FIG. 10, the number of unprovided contents among newly distributed contents is displayed by an image 74 as broadcast information. In addition, when the "predetermined notification" is performed as shown in FIG. 9 in step S6, and the "Do not view" button is selected (that is, when an input instructing to suspend provision of the content is made) In this case, the process advances to step S9 and similar processing is performed.

制御部11は、ステップS7において「コンテンツの提供を指示する入力」を受けたと判定した場合、ステップS8において、会話やコンテンツを提供する表示を表示部15に行わせる。制御部11は、ステップS7でYesと判定してステップS8の処理を行う場合、管理装置90から新たに配信されたコンテンツデータ(コンテンツ情報)に基づくコンテンツの出力(例えば、新たに配信されたコンテンツデータに含まれる動画の再生や静止画の表示、音声の出力等)を表示部15や音声出力部16に行わせる。 If the control unit 11 determines in step S7 that an "input instructing the provision of content" has been received, the control unit 11 causes the display unit 15 to display a conversation and content provision in step S8. When determining Yes in step S7 and performing the process in step S8, the control unit 11 outputs content based on content data (content information) newly distributed from the management device 90 (for example, outputs content based on newly distributed content The display section 15 and the audio output section 16 are caused to play back moving images, display still images, output audio, etc. included in the data.

ステップS7でYesに進んだ場合にステップS8で行う制御は、「通信部12が受けたコンテンツに関する会話」を、インタフェース13を介して出力する制御である。図11~図14は、ステップS7でYesに進んだ場合に、制御部11がステップS8で行う制御の一例を示している。図11~図14は、管理装置90から「園芸」に関する「いきいき配信」というコンテンツが新たに配信された場合においてステップS8でこのコンテンツを提供する例であり、この例では、配信されたコンテンツデータに「園芸」に関する動画や会話データが含まれている。この場合、制御部11は、ステップS8において動作を再生しつつ会話のために音声を発するように制御を行う。例えば、図13の例では、ひまわり畑が表示されたタイミングで「夏の花、ひまわりは元気なイメージですね」という会話を発している。この会話を発する際には、キャラクタ70を表示させておくことで、キャラクタ70が話しかけている印象を与えることができる。なお、制御部11は、会話を発する場合、予め登録された利用者のニックネームで発話をしてもよい。 The control performed in step S8 when the answer is Yes in step S7 is to output "conversation regarding content received by the communication unit 12" via the interface 13. FIGS. 11 to 14 show an example of the control that the control unit 11 performs in step S8 when the result in step S7 is Yes. FIGS. 11 to 14 are examples of providing the content in step S8 when content called "lively delivery" related to "gardening" is newly delivered from the management device 90. In this example, the delivered content data contains videos and conversation data related to ``gardening''. In this case, the control unit 11 performs control in step S8 so as to reproduce the motion and emit a voice for conversation. For example, in the example shown in FIG. 13, when a sunflower field is displayed, the user utters the conversation, ``Sunflowers, summer flowers, have a cheerful image.'' When uttering this conversation, by displaying the character 70, it is possible to give the impression that the character 70 is talking to the user. In addition, when uttering a conversation, the control unit 11 may utter the utterance using the nickname of the user registered in advance.

制御部11は、ステップS8にてコンテンツの提供を行い、図13のように利用者に対して会話を発した場合には、その後、動作検出部が検出する動作又は音声入力部に入力される音声の少なくともいずれかに基づいて「利用者からの応答の認識」を試みる。例えば、操作部17に対する所定の応答操作(例えば、キャラクタ70やその他のデザインをタップする操作)や音声入力部18に対する所定の音声入力(例えば、言葉の入力)が「利用者からの応答」と定められている。制御部11は、インタフェース13において「利用者からの応答」があった場合に、この応答に対する更なる会話を、インタフェース13を介して出力するように制御を行う。「応答に対する更なる会話」は、提供されているコンテンツの種類の話題であってもよく、その種類とは異なる話題であってもよい。「応答に対する更なる会話」は、文字表示と音声出力を併用することが望ましいが、いずれか一方であってもよい。なお、制御部11が「応答に対する更なる会話」を発するように制御を行った場合、再び、「利用者からの応答の認識」を試みることが望ましい。そして、「利用者からの応答」があった場合には、この応答に対する更なる会話を、インタフェース13を介して出力することが望ましい。このように、「応答に対する更なる会話」と「利用者からの応答の認識」を繰り返すことで、会話を継続させることができる。また、更なる会話が行える状態であることを、文字やイラスト、音声、点滅など視覚的効果で知らせてもよい。例えば、「連続会話」と表示することで連続会話が行える状態であることがわかり、利用者にとって親切であるといえる。 The control unit 11 provides content in step S8, and if a conversation is uttered to the user as shown in FIG. An attempt is made to "recognize the response from the user" based on at least one of the voices. For example, a predetermined response operation on the operation unit 17 (e.g., an operation of tapping the character 70 or other design) or a predetermined voice input on the voice input unit 18 (e.g., inputting words) is considered to be a "response from the user." It is determined. When there is a "response from the user" on the interface 13, the control unit 11 performs control so that further conversation in response to this response is output via the interface 13. "Further conversation in response" may be a topic of the type of content being provided, or a topic different from that type. For "further conversation in response to the response," it is desirable to use both text display and audio output, but either one may be used. Note that when the control unit 11 performs control to issue "further conversation in response to the response," it is desirable to attempt "recognition of the response from the user" again. If there is a "response from the user," it is desirable to output further conversation in response to this response via the interface 13. In this way, the conversation can be continued by repeating "further conversation in response to the response" and "recognition of the response from the user." Further, the status for further conversation may be notified by text, illustrations, audio, visual effects such as flashing, etc. For example, displaying ``continuous conversation'' indicates that continuous conversation is possible, which is helpful to the user.

このように、制御部11は、インタフェース13を介して「コンテンツに関する会話」を出力した後、インタフェース13を介して「利用者からの応答」を認識した場合に、インタフェース13を介して「応答に対する会話」を出力するように制御を行う。ステップS8は、このような制御を制御部11に行わせるステップである。 In this way, when the control unit 11 outputs a "conversation about content" via the interface 13 and then recognizes a "response from the user" via the interface 13, control to output "conversation". Step S8 is a step for causing the control section 11 to perform such control.

なお、制御部11は、ステップS8にて会話を行う場合、音声の入出力と併用して、音声入力部18を介して音声入力された発話内容(利用者の発話内容)やバーチャルアシスタント装置10の発話内容(例えば、キャラクタ70の発話内容)を表示部15に文字で表示してもよい。 Note that when having a conversation in step S<b>8 , the control unit 11 is used in conjunction with voice input/output to input and output the utterance content (user's utterance content) voice input via the voice input unit 18 and the virtual assistant device 10 . The content of the utterance (for example, the content of the utterance of the character 70) may be displayed in text on the display unit 15.

なお、図11~図14は、バーチャルアシスタント装置10と対応付けて登録されている種類(利用者が希望する種類)のコンテンツを提供する例が示されるが、ステップS8で提供するコンテンツや会話はこの例に限定されない。 Note that although FIGS. 11 to 14 show examples of providing content of the type registered in association with the virtual assistant device 10 (the type desired by the user), the content and conversation provided in step S8 are It is not limited to this example.

5-3.新たな配信が無い期間の通常動作の詳細
次の説明は、新たな配信が無い期間(ステップS5のNoと判定される期間)になされる通常動作の詳細に関する。この期間、制御部11は、主に、解除モード(待機モード)と有効モード(会話モード)とに切り替わる。本実施形態では、新たな配信が無い期間(ステップS5のNoと判定される期間)において、ステップS4の処理を継続するモードが解除モードの一例である。また、上記期間において、ステップS3の処理を継続するモードが有効モードの一例である。
5-3. Details of normal operations during a period in which there is no new distribution The following description relates to details of normal operations performed during a period in which there is no new distribution (period in which it is determined No in step S5). During this period, the control unit 11 mainly switches between a release mode (standby mode) and a valid mode (conversation mode). In the present embodiment, a mode in which the process in step S4 is continued during a period in which there is no new distribution (a period in which it is determined No in step S5) is an example of the cancellation mode. Furthermore, a mode in which the process of step S3 is continued during the above period is an example of an effective mode.

有効モード(会話モード)は、ステップS2でYesと判定されてから、有効モードの終了条件が成立するまでのモードである。有効モードの終了条件は、有効モードで実行されたコンテンツが終了したことであってもよく、一定時間以上インタフェースに所定入力(例えば、音声入力やタッチパネルに対する操作等)がなされなかったことであってもよく、利用者からインタフェースに対して終了を指示する入力(終了を指示する音声入力や接触操作等)がなされたことであってもよい。有効モードは、具体的には、制御部11がウェイクワード以外の言葉を検出するモードである。制御部11は、有効モード中にインタフェースに音声が入力された場合、インタフェースに入力された音声を解析し、その音声が意味する言葉を公知の方法で認識する。 The effective mode (conversation mode) is a mode from when the determination is Yes in step S2 until the end condition of the effective mode is satisfied. The condition for ending the valid mode may be that the content executed in the valid mode has ended, or that no predetermined input has been made to the interface for a certain period of time (e.g., voice input, touch panel operation, etc.). It may also be that the user has made an input to the interface instructing termination (voice input or touch operation instructing termination, etc.). Specifically, the valid mode is a mode in which the control unit 11 detects words other than the wake word. When a voice is input to the interface during the valid mode, the control unit 11 analyzes the voice input to the interface and recognizes the words meant by the voice using a known method.

解除モード(待機モード)は、ステップS2でNoと判定される期間のモードであり、有効モードが解除されているときのモードである。解除モードは、上記インタフェースにウェイクワードが入力されたか否かを制御部11が監視するモードである。制御部11は、解除モード中にインタフェースに音声が入力された場合、その音声がウェイクワードであるか否かを公知の方法で判定する。但し、制御部11は、解除モード中にインタフェースに入力される音声からウェイクワード以外の音声は認識しない。つまり、制御部11は、解除モードのときには、ウェイクワード以外の音声認識する必要が無く、ウェイクワードであるか否かの判定を行うだけで済むため、有効モードのときよりも音声の認識を簡略化することができる。 The release mode (standby mode) is a mode during a period in which the determination is No in step S2, and is a mode when the effective mode is released. The release mode is a mode in which the control unit 11 monitors whether a wake word has been input to the interface. When a voice is input to the interface during the release mode, the control unit 11 determines whether or not the voice is a wake word using a known method. However, the control unit 11 does not recognize any voice other than the wake word from the voice input to the interface during the release mode. In other words, in the release mode, the control unit 11 does not need to recognize speech other than the wake word, and only needs to determine whether it is a wake word or not, so the speech recognition is simpler than in the enable mode. can be converted into

図5のフローチャートで示されるように、制御部11は、ステップS2、S5でNoの判定が繰り返される期間は解除モードに設定され、解除モード中には、ウェイクワードの検出を継続的に試みる。制御部11は、解除モード中にインタフェース13にウェイクワードが音声入力されたことを検出した場合、ステップS2にてYesと判定するとともに有効モードに切り替わり、処理をステップS3に進める。そして、有効モードの終了条件が成立するまで、有効モードを継続する。制御部11は、有効モードの終了条件が成立した場合、解除モードに切り替わり、解除モードを継続する。制御部11は、解除モード中に、キャラクタが待機動作を行う画像を表示部15に表示させることもできる。 As shown in the flowchart of FIG. 5, the control unit 11 is set to the release mode during a period in which the determination of No in steps S2 and S5 is repeated, and during the release mode, it continuously tries to detect the wake word. When the control unit 11 detects that the wake word is input by voice into the interface 13 during the release mode, it determines Yes in step S2, switches to the valid mode, and advances the process to step S3. Then, the effective mode is continued until the end condition for the effective mode is satisfied. When the termination condition of the effective mode is satisfied, the control unit 11 switches to the release mode and continues the release mode. The control unit 11 can also cause the display unit 15 to display an image in which the character performs a standby action during the release mode.

バーチャルアシスタント装置がステップS3、S8で提供するコンテンツは、単に静止画を表示したり単に動画を流したりするコンテンツであってもよいが、疑似体験ができるコンテンツであってもよい。なお、ステップS3でいずれのコンテンツを実施するかは、ユーザが選択できるようになっていることが望ましい。ユーザによるコンテンツの選択方法は、例えば、複数種類のコンテンツ名をタッチパネル式表示装置20に表示させたうえで、ユーザが希望するコンテンツを選択するような方法であってもよく、キャラクタ70が会話の中で「旅行の動画を見ましょうか?」といった具合にコンテンツの種類を提案し、それに応じてユーザが希望する指示(タップ操作や指示する用語の音声入力など)を行った場合に、そのコンテンツが選択されるようにしてもよい。これらの方法に限定されず、他の方法でコンテンツが選択されてもよい。 The content provided by the virtual assistant device in steps S3 and S8 may be content that simply displays a still image or simply plays a moving image, but may also be content that allows a simulated experience. Note that it is desirable that the user be able to select which content is to be implemented in step S3. The content selection method by the user may be, for example, a method in which multiple types of content names are displayed on the touch panel display device 20 and the user selects the desired content. The content type is suggested, such as "Shall we watch a travel video?", and when the user gives the desired instruction (tap operation, voice input of the specified term, etc.), the content is displayed. may be selected. The content is not limited to these methods, and content may be selected using other methods.

5-4.会話の具体例
次の説明は、ステップS3、S8でなされる会話の具体例に関する。
以下で説明される具体例は、キャラクタ70からの話を出力部が出力することが前提の例である。本実施形態では、音声出力部16及び表示部15が出力部の一例に相当し、キャラクタ70からの話を出力する機能を有する。キャラクタ70からの話を出力する動作は、キャラクタ70が表示部15に表示された状態でキャラクタ70からの話を音声や文字表示などによって出力する動作であってもよい。或いは、キャラクタ70からの話を出力する動作は、キャラクタ70が表示部15に表示された状態でキャラクタ70からの話を音声によって出力する動作とキャラクタ70が表示されずにキャラクタ70からの話を音声によって出力する動作とが併用されてもよい。また、以下で説明される具体例は、利用者からの話が入力部に入力され得ることが前提の例である。本実施形態では、音声入力部18及び操作部17が入力部の一例に相当し、利用者からの話が入力される装置として機能する。制御部11は、各種制御を行う機能を有し、例えば、表示部15にキャラクタ70の画像を表示させる機能、出力部に出力動作を行わせる機能、入力部に入力された情報を解析する機能、などを有する。
5-4. Specific Example of Conversation The following explanation relates to a specific example of the conversation that takes place in steps S3 and S8.
The specific example described below is an example on the premise that the output unit outputs a story from the character 70. In this embodiment, the audio output section 16 and the display section 15 correspond to an example of an output section, and have a function of outputting a story from the character 70. The operation of outputting the story from the character 70 may be an operation of outputting the story from the character 70 in the form of voice, text, etc. while the character 70 is displayed on the display unit 15. Alternatively, the operation of outputting the story from the character 70 may be an operation of outputting the story from the character 70 by voice while the character 70 is displayed on the display unit 15, or an operation of outputting the story from the character 70 with the character 70 not displayed. An operation of outputting audio may also be used. Further, the specific example described below is an example based on the assumption that a message from a user can be input to the input unit. In this embodiment, the voice input section 18 and the operation section 17 correspond to an example of an input section, and function as a device into which a user's speech is input. The control unit 11 has functions to perform various controls, such as a function to display an image of the character 70 on the display unit 15, a function to cause the output unit to perform an output operation, and a function to analyze information input to the input unit. , etc.

本実施形態では、上述のように、制御部11は、有効モードと解除モードとを切り替えるように動作する。有効モードは、上記入力部に入力される話の解析を有効化するモードである。解除モードは、上記有効モードを解除したモードである。解除モード中には、「入力部に入力される話の解析」は行われない。 In this embodiment, as described above, the control unit 11 operates to switch between the valid mode and the cancel mode. The valid mode is a mode for validating the analysis of the story input to the input section. The cancellation mode is a mode in which the above-mentioned valid mode is canceled. During the release mode, "analysis of the story input to the input section" is not performed.

制御部11は、図5の制御においてステップS3の処理で採用する会話として、様々な種類の会話を採用し得るが、ステップS3の処理を行う時点で予め定められた提供条件が成立している場合には、話題画像を表示させるように表示部15を制御する。上記提供条件は、話題画像を提供する条件である。上記提供条件は、予め定められた時間条件が成立したことであってもよく、話題画像を含むコンテンツの配信がバーチャルアシスタント装置10に対してなされたことであってもよく、その他の条件であってもよい。予め定められた時間条件は、予め定められた時刻、日にち、曜日のいずれかが到来したことであってもよく、前回の話題画像の提供終了から一定時間が経過したことであってもよく、その他の時間条件であってもよい。 Although the control unit 11 can adopt various types of conversations as the conversation to be adopted in the process of step S3 in the control of FIG. 5, predetermined provision conditions are satisfied at the time of performing the process of step S3. In this case, the display section 15 is controlled to display the topic image. The above provision condition is a condition for providing a topical image. The above-mentioned provision condition may be that a predetermined time condition is met, that content including a topical image is distributed to the virtual assistant device 10, or that it is another condition. You can. The predetermined time condition may be that a predetermined time, date, or day of the week has arrived, or that a certain amount of time has passed since the last topical image provision ended. Other time conditions may also be used.

制御部11は、ステップS3の処理において上記話題画像を表示するように表示部15を制御する場合、表示する話題画像を決定する。話題画像は、キャラクタ70の画像とは異なる画像であり、会話の話題となる画像である。「会話の話題となる」とは、少なくとも話題画像と対応付けられた言葉が利用者から発せられた場合に、その言葉に関連する話をバーチャルアシスタント装置10が提供するようにして話題になることを含む。 When controlling the display unit 15 to display the topic image in the process of step S3, the control unit 11 determines the topic image to be displayed. The topic image is an image different from the image of the character 70, and is an image that becomes a topic of conversation. "Becoming a topic of conversation" means that when at least a word associated with a topic image is uttered by a user, the virtual assistant device 10 provides a story related to the word and it becomes a topic of conversation. including.

本実施形態では、複数種類の話題画像が予め用意されており、ステップS3の処理で話題画像を提供する場合には、いずれかの話題画像を選定して表示する。本実施形態では、図16に示される話題画像A、話題画像Bのように、複数の話題画像の画像データが予め用意されており、図16には図示されていないが、話題画像C、話題画像D・・・などの多数の画像データも用意されている。用意される話題画像の種類は特に限定されないが、例えば、風景、旅、自然、植物、動物、建物、食べ物、イベント、活動の様子など、様々な画像が挙げられる。 In this embodiment, a plurality of types of topic images are prepared in advance, and when providing topic images in the process of step S3, one of the topic images is selected and displayed. In this embodiment, image data of a plurality of topic images are prepared in advance, such as topic image A and topic image B shown in FIG. 16, and although not shown in FIG. A large number of image data such as image D... are also prepared. The types of topic images to be prepared are not particularly limited, but include various images such as landscapes, travel, nature, plants, animals, buildings, food, events, and activities.

更に、図16の例では、複数の話題画像A,B,C,D・・・の各々の画像データには各話題画像に関連する1以上の言葉のデータが対応付けられて用意されている。話題画像に対応付ける言葉は、1つの単語又は少数の単語の組み合わせからなるキーワードが望ましく、例えば短い語数の名詞が好適例である。但し、この例に限定されず、例えば短文などであってもよい。 Furthermore, in the example of FIG. 16, image data for each of the plurality of topic images A, B, C, D, etc. is prepared in association with data of one or more words related to each topic image. . The word to be associated with the topic image is preferably a keyword consisting of one word or a combination of a small number of words; for example, a noun with a short number of words is a suitable example. However, it is not limited to this example, and may be a short sentence, for example.

更に、図16の例では、更に、各々の言葉のデータには、各言葉に関連する1以上の話のデータが対応付けられて用意されている。例えば、話題画像Aに対応付けられて言葉A1,A2,A3・・・が用意されており、言葉A1に対応付けられて話A11,A12,A13・・・・が用意され、言葉A2に対応付けられて話A21,A22,A23・・・・が用意されている。話題画像Bについても、同様の対応付けがなされている。話題画像に対応付ける言葉としては、風景、植物、動物、建物、食べ物、イベント、活動などの名称、画像の場所の地名などが挙げられる。言葉に関連する1以上の話は、その言葉が含まれた話であることが望ましい。例えば、「熱海」という言葉に関連する話としては、「熱海はいいですよね。」といった話のように、言葉の対象を称賛する話や、「私は熱海にいったことがないな。」といった話のように、言葉の対象に関連する経験の話であってもよく、「熱海は盛況のようですよ。」といった話のように、言葉の対象についての状況に関する話であってもよい。 Furthermore, in the example of FIG. 16, data for each word is associated with data for one or more stories related to each word. For example, words A1, A2, A3, etc. are prepared in correspondence with topic image A, and stories A11, A12, A13, ... are prepared in correspondence with word A1, and they correspond to word A2. Stories A21, A22, A23, etc. are prepared. Similar correspondence is made for topical image B as well. Examples of words associated with topical images include names of landscapes, plants, animals, buildings, foods, events, activities, etc., and place names of the locations of images. It is desirable that the one or more stories related to a word include the word. For example, stories related to the word "Atami" include stories that praise the target of the word, such as "Atami is nice, isn't it?" and stories that praise the target of the word, such as "I've never been to Atami." It can be a story about an experience related to the target of the word, such as ``Atami seems to be thriving.'' It can also be a story about the situation surrounding the target of the word, such as ``Atami seems to be thriving.'' .

各々の話題画像に対して1以上の言葉及び各言葉に関連する話を対応付け対応データが図16のようなデータ構造で記憶部14に記憶されているため、いずれかの話題画像が選定された場合には、当該話題画像のデータ、当該話題画像に対応付けられたいずれかの言葉のデータ、当該言葉に対応付けられたいずれかの話のデータを読み出すことができる。 Since correspondence data that associates one or more words and a story related to each word with each topic image is stored in the storage unit 14 in a data structure as shown in FIG. 16, any topic image is selected. In this case, data of the topic image, data of any word associated with the topic image, and data of any story associated with the word can be read out.

図16のように複数種類の話題画像を用意しておく場合、各々の話題画像がどの属性に属するかを識別する識別情報が付されていてもよい。例えば、話題画像Aは、「旅行」の属性に属し、話題画像Bは、「スポーツ」の属性に属し、話題画像Cは、「花」「イベント」の属性に属するいったように、識別情報を付しておくことができる。各々の話題画像の属性を特定する識別情報は、1種類の属性のみを特定してもよく、2種類以上の属性を特定してもよい。 When a plurality of types of topic images are prepared as shown in FIG. 16, identification information for identifying to which attribute each topic image belongs may be attached. For example, topic image A belongs to the attribute of "travel," topic image B belongs to the attribute of "sports," topic image C belongs to the attributes of "flowers" and "event," and so on. can be attached. The identification information that specifies the attributes of each topical image may specify only one type of attribute, or may specify two or more types of attributes.

制御部11がステップS3で話題画像を選定する方法は、図15のように複数用意された話題画像からランダムに選定する方法であってもよく、複数用意された話題画像を予め決められた順序で順番に選定してもよく、複数用意された話題画像の中から利用者が設定した条件に合致した話題画像を選定してもよい。例えば、上述された「利用者が希望する情報の種類」や「利用者に有意義な情報」として、1以上の種類が登録情報に含まれている場合に、登録された種類に属する話題画像を選定してもよい。例えば、「利用者が希望する情報の種類」や「利用者に有意義な情報」として「旅行」が登録されている場合に、「旅行」に属する話題画像を選定してもよい。 The method by which the control unit 11 selects a topic image in step S3 may be a method of randomly selecting a topic image from a plurality of prepared topic images as shown in FIG. The topic images may be selected in order, or the topic images that match the conditions set by the user may be selected from a plurality of topic images prepared. For example, if the registered information includes one or more types of "information desired by the user" or "information meaningful to the user" mentioned above, topic images belonging to the registered types may be displayed. You may choose. For example, if "travel" is registered as "type of information desired by the user" or "information meaningful to the user," topic images belonging to "travel" may be selected.

制御部11は、いずれかの話題画像を選定した場合に、選定された話題画像に対応する複数の言葉の中からいずれかの言葉を選定するが、言葉の選定方法は、選定された話題画像に対応付けられた複数の言葉の中からランダムに選定する方法であってもよく、複数の言葉の中から予め決められた順序で順番に選定してもよく、複数の言葉の中から利用者が設定した条件に合致した話題画像を選定してもよい。選定された話題画像に対応する言葉を選定する場合、当該話題画像に対応付けられた複数の言葉の中から1つのみを選定してもよく、複数の言葉を選定してもよい。 When the control unit 11 selects any topic image, the control unit 11 selects one of the words from a plurality of words corresponding to the selected topic image. It may be a method of randomly selecting words from among a plurality of words associated with The topic images that match the conditions set by the user may be selected. When selecting a word corresponding to a selected topic image, only one word may be selected from a plurality of words associated with the selected topic image, or a plurality of words may be selected.

制御部11は、ステップS3の処理で上記話題画像を表示する場合、上述のように選定された話題画像及び言葉を互いに関連付けて表示する。例えば、図15のような熱海の海岸の風景を示す話題画像82Aが選定され、話題画像82Aに対応付けられた複数の言葉の中から「熱海」の言葉が選定された場合には、図15のように、選定された話題画像82A及び言葉84Aを同時期に表示するように制御を行う。図15の例では、キャラクタ70の画像とともに、キャラクタ70の背景画像として話題画像82Aを表示し、この話題画像82Aに重ねた形で「熱海」の言葉を同時期に表示している。話題画像82Aを表示する場合に話題画像82Aに対応する言葉84Aを表示する期間は、話題画像82Aが表示される全期間にわたって言葉84Aを表示してもよく、話題画像82Aが表示される一部期間に言葉84Aを表示してもよい。また、話題画像82Aと言葉84Aを関連付けて表示する方法は、両方を同時期に表示する方法でなくてもよい。例えば、「熱海」の言葉84Aを一定期間表示した後、「熱海」の言葉84Aの表示から話題画像82Aの表示に即座に切り替えるように表示を行ってもよい。 When displaying the topic image in the process of step S3, the control unit 11 displays the topic image and words selected as described above in association with each other. For example, if the topic image 82A showing the scenery of the coast of Atami as shown in FIG. 15 is selected and the word "Atami" is selected from among the plural words associated with the topic image 82A, Control is performed so that the selected topic image 82A and words 84A are displayed at the same time. In the example of FIG. 15, a topic image 82A is displayed as a background image of the character 70 together with the image of the character 70, and the word "Atami" is displayed at the same time as superimposed on the topic image 82A. When displaying the topic image 82A, the period for displaying the word 84A corresponding to the topic image 82A may be such that the word 84A is displayed for the entire period during which the topic image 82A is displayed, or for a portion of the period in which the topic image 82A is displayed. The word 84A may be displayed in the period. Further, the method of displaying the topic image 82A and the word 84A in association with each other does not necessarily have to be a method of displaying both at the same time. For example, after displaying the word "Atami" 84A for a certain period of time, the display may be performed such that the display of the word "Atami" 84A is immediately switched to the display of the topic image 82A.

制御部11は、ステップS3の処理において図15のように話題画像82Aの表示を行う場合、話題画像82Aとともに表示部15に表示される言葉84Aをキャラクタ70が読み上げるように音声出力部16に音声を出力させてもよい。 When displaying the topic image 82A as shown in FIG. 15 in the process of step S3, the control section 11 sends audio to the audio output section 16 so that the character 70 reads out the words 84A displayed on the display section 15 together with the topic image 82A. may also be output.

上述の例では、図5の制御を実行するためのプログラムにおいて、ステップS3又はステップS8を実行するためのプログラムの一部が、「キャラクタ70の画像とは異なる話題画像及び話題画像に関する言葉を表示部15に表示させる制御を、制御部11に行わせるステップ」の一例に相当する。制御部11は、このプログラムに従って、図15のようにキャラクタ70の画像とは異なる話題画像及び当該話題画像に関する言葉を表示部15に表示するように動作する。 In the above example, in the program for executing the control shown in FIG. This corresponds to an example of the step of causing the control unit 11 to perform the control to display the display on the unit 15. The control unit 11 operates according to this program to display a topic image different from the image of the character 70 and words related to the topic image on the display unit 15, as shown in FIG.

上述の例では、図5の制御を実行するためのプログラムにおいて、ステップS3又はステップS8を実行するためのプログラムの一部が、「話題画像及び言葉が表示部15に表示された後、上記言葉を含む話が入力部に入力された場合に、上記言葉に関連する話をキャラクタ70からの話として出力部に出力させる制御を制御部11に行わせるステップ」の一例に相当する。制御部11は、このプログラムに従い、話題画像及び言葉が表示部15に表示された後、上記言葉を含む話が入力部に入力された場合に、上記言葉に関連する話をキャラクタ70からの話として出力部に出力させるように動作する。 In the above example, in the program for executing the control shown in FIG. This corresponds to an example of the step of "controlling the control section 11 to output a story related to the word to the output section as a story from the character 70 when a story including the word is input to the input section". According to this program, when a story including the word is input to the input section after the topic image and the word are displayed on the display section 15, the control section 11 displays a story related to the word from the character 70. It operates so that it is output to the output section as .

制御部11は、ステップS3又はS8において上述の話題画像及び言葉の表示を行った場合、その表示後、所定の終了条件が成立するまで有効モードを継続する。具体的には、上述の話題画像及び言葉の両方の表示がなされてから所定期間の間、上記言葉を含む話が入力部(例えば音声入力部18)に入力されたか否かを確認する。「話題画像及び言葉の両方がなされてからの所定期間」は、例えば、「話題画像の表示が開始されたこと」及び「当該話題画像に対応付けられた言葉の表示が開始されたこと」の両条件を満たした時点からの一定期間であってもよく、上記両条件を満たした後、所定条件(例えば、上記言葉を含まない音声が入力されたこと、上記言葉を含まない音声が一定時間継続したこと等)が成立するまでの期間であってもよい。上述の終了条件(有効モードの終了条件)は、上記所定期間が経過したことであってもよく、上記所定期間の経過後、他の条件が成立したことであってもよい。他の条件を採用する場合、他の条件は、上記所定期間よりも長い規定期間が経過したことであってもよく、設定時刻が到来したことであってもよく、操作部に対して所定操作があったことであってもよい。 When the above-described topic image and words are displayed in step S3 or S8, the control unit 11 continues the effective mode after the display until a predetermined termination condition is satisfied. Specifically, for a predetermined period of time after both the topic image and the words are displayed, it is checked whether a story including the words has been input to the input unit (for example, the audio input unit 18). For example, the "predetermined period of time after both the topic image and the words are displayed" means "the display of the topic image has started" and "the display of the words associated with the topic image has started". It may be a certain period of time from the time when both conditions are met, and after both of the above conditions are met, a predetermined condition (for example, that a voice that does not include the above words has been input, that the voice that does not include the above words has been input for a certain period of time) It may also be the period until the conclusion of the agreement (e.g., that the term has been continued). The above-mentioned termination condition (valid mode termination condition) may be that the predetermined period has elapsed, or that another condition is satisfied after the predetermined period has elapsed. When adopting other conditions, the other conditions may be that a specified period longer than the above-mentioned predetermined period has elapsed, or that a set time has arrived, or that a predetermined operation is performed on the operation panel. It may be that there was.

制御部11は、有効モード中において話題画像及び当該話題画像に対応する言葉の両方の表示がなされてから上記所定期間の間に上記言葉を含む話が音声入力部18に入力されたか否かを確認し、上記有効モード中の上記所定期間の間に上記言葉を含む話が入力部(例えば音声入力部18)に入力された場合には、上記言葉に関連する話をキャラクタ70からの話として出力部(例えば、音声出力部16)に出力させるように動作する。この場合、上記言葉に対応付けて用意された複数の話(図16のように用意された候補となる複数の話)の中からいずれかの話を選定して出力するが、話の選定方法は、上記言葉に対応付けられて用意された複数の話の中からランダムに選定する方法であってもよく、複数の話の中から予め決められた順序で順番に選定してもよく、複数の話の中から利用者が設定した条件に合致した話を選定してもよい。 The control unit 11 determines whether a story including the word has been input to the audio input unit 18 during the predetermined period after both the topic image and the word corresponding to the topic image are displayed in the valid mode. If this is confirmed, and a story including the word is input to the input section (for example, the voice input section 18) during the predetermined period in the valid mode, the story related to the word is read as a story from the character 70. It operates to cause the output section (for example, the audio output section 16) to output the signal. In this case, one of the stories is selected and output from among the multiple stories prepared in association with the above words (multiple candidate stories prepared as shown in Figure 16), but the story selection method may be selected at random from among a plurality of stories prepared in association with the above words, or may be selected sequentially from among a plurality of stories in a predetermined order; A story that matches the conditions set by the user may be selected from among the stories.

例えば、制御部11は、図15のように話題画像(熱海の海岸の画像)とともに当該話題画像に関連させた言葉として「熱海」という単一のキーワードを表示するように制御を行った場合、上記話題画像及び上記単一のキーワードの表示後において上記所定期間にわたって音声入力部18に入力された音声を解析する。そして、制御部11は、上記所定期間の間に上記単一のキーワードを含む音声が音声入力部18に入力されたか否かを確認する。単一のキーワードを含む音声は、「熱海」のように当該単一のキーワードのみを発した音声であってもよく、「熱海だね」「熱海はいいね」などのように、当該単一のキーワードに他の語が加えられた音声であってもよい。図15の例では、制御部11は、上記所定期間の間に上記単一のキーワードを含む音声が音声入力部18に入力されたと判定した場合、上記単一のキーワードに対応する話を音声出力部16に出力させるように動作してもよい。例えば、上記所定期間の間に、「熱海だね」といった音声が音声入力部18に入力され、制御部11が、この音声の解析によって「熱海」のキーワードが含まれると判定した場合、制御部11は、「熱海」の言葉に対応付けられて用意された複数の話の中からいずれかの話を選定し、表示部15にキャラクタ70を表示させながら、選定した話の音声を音声出力部16によって出力する。 For example, when the control unit 11 performs control to display a single keyword "Atami" as a word related to the topic image together with the topic image (image of the coast of Atami) as shown in FIG. 15, After the topic image and the single keyword are displayed, the audio input to the audio input unit 18 over the predetermined period is analyzed. Then, the control unit 11 checks whether speech including the single keyword has been input to the voice input unit 18 during the predetermined period. A voice that includes a single keyword may be a voice that utters only the single keyword, such as "Atami," or a voice that utters only the single keyword, such as "It's Atami," or "Atami is nice." It may also be a voice with other words added to the keyword. In the example of FIG. 15, when the control unit 11 determines that the voice including the single keyword has been input to the voice input unit 18 during the predetermined period, the control unit 11 outputs the story corresponding to the single keyword as voice. The unit 16 may be operated to output the information. For example, if a voice such as "It's Atami" is input to the voice input unit 18 during the predetermined period, and the control unit 11 analyzes this voice and determines that the keyword "Atami" is included, the control unit 11 selects one of the stories from a plurality of stories prepared in association with the word "Atami" and displays the character 70 on the display section 15 while outputting the audio of the selected story. 16.

なお、図15のように表示しても、「熱海」の言葉が発せられない懸念もある。そこで、図15のような表示がなされた状態で、「写真がどこなのか教えてよ。」といった話(表示される言葉を含まない話)が利用者から発せられた場合、「気になりますよね。写真に書いてある文字情報を読み上げていただけませんか。」といった話を、キャラクタ70からの話として音声出力し、画面に表示された文字情報の読み上げを促してもよい。その後、上記所定期間の間に、「「熱海」って書いてあるよ。」といった話(表示される言葉を含む話)が入力された場合に、「熱海」に対応付けられた話として、「東京からも新幹線で行けますし、近くて有名な観光地ですね。」といった話を音声出力してもよい。 There is also a concern that even if displayed as shown in Figure 15, the word "Atami" may not be uttered. Therefore, if a user says something like "Please tell me where the photo is" (a story that does not include the displayed words) while the display shown in Figure 15 is displayed, the user might say something like "I'm interested." "Could you please read out the textual information written on the photo?" may be output as a speech from the character 70 to encourage the character 70 to read out the textual information displayed on the screen. After that, during the above-mentioned predetermined period, the message ````Atami'' is written.'' '' (a story that includes the displayed words), the story associated with ``Atami'' will be ``You can get there from Tokyo by Shinkansen, and it's a nearby and famous tourist destination.'' You may also output the speech as audio.

このように制御部11は、言葉に関連する話をキャラクタ70からの話として出力する。キャラクタ70からの話として出力する方法は、キャラクタ70を表示させながら話を音声として出力する方法でもよく、キャラクタ70を表示せずにキャラクタ70の声で話を音声として出力する方法でもよい。 In this way, the control unit 11 outputs a story related to words as a story from the character 70. The method of outputting the story as a story from the character 70 may be a method of outputting the story as audio while displaying the character 70, or a method of outputting the story as audio with the voice of the character 70 without displaying the character 70.

なお、制御部11は、このように上記有効モード中に上記言葉に関連する話をキャラクタ70からの話として出力部(例えば、音声出力部16)に出力させた場合、その後、上記有効モードを継続しつつ上記利用者からの話を受け付ける期間を設けた後、予め定められた終了条件が成立するまで上記有効モードを継続するように動作してもよい。制御部11は、上記言葉に関連する話を出力した後、有効モードを継続する場合、利用者から追加の話が音声入力部18に入力された場合には、その話に対応する話を音声出力部16によって出力するように動作してもよい。例えば、図15の例において、「熱海」の言葉に対応付けられた話を選定し、キャラクタ70を表示させながら選定した話の音声出力した後、利用者から「熱海」に関する追加の話が音声入力部18に入力された場合には、「熱海」に対応付けられて用意された複数の話の中から既に出力した話以外の話を選定し、キャラクタ70を表示させながら選定した話を音声出力してもよい。バーチャルアシスタント装置10では、このような会話を有効モードの終了まで継続することができる。 Note that when the control unit 11 causes the output unit (for example, the audio output unit 16) to output a story related to the word as a story from the character 70 during the valid mode, the control unit 11 thereafter changes the valid mode to After providing a period during which messages from the user are continuously accepted, the effective mode may be continued until a predetermined termination condition is met. If the control unit 11 continues the valid mode after outputting a story related to the above-mentioned word, and if an additional story is input from the user to the voice input unit 18, the control unit 11 outputs a story corresponding to the word. The output unit 16 may also operate to output the information. For example, in the example of FIG. 15, after selecting a story associated with the word "Atami" and outputting the audio of the selected story while displaying the character 70, the user asks for an additional story about "Atami". When input to the input unit 18, a story other than the story that has already been output is selected from a plurality of prepared stories associated with "Atami", and the selected story is voiced while displaying the character 70. You can also output it. The virtual assistant device 10 allows such a conversation to continue until the effective mode ends.

なお、本実施形態では、図16のように、いずれかの話題画像に対応させて複数の言葉が用意されている。このような例では、いずれかの話題画像を「複数種類のうちのいずれか1種以上の言葉」と共に第1の組み合わせで表示部15に表示して上述のように会話を実現した後(具体的には、第1の組み合わせに含まれる言葉が音声入力された場合に、その言葉に対応する話を音声出力するように会話を実現した後)、上記話題画像を上記第1の組み合わせとは異なる組み合わせで当該話題画像に対応付けられた言葉と共に表示部15に表示し、別観点の会話を実現してもよい。この場合、話題画像と言葉を第1の組み合わせとは異なる組み合わせで表示する時期(話題画像再表示時期)は、様々に設定することができ、例えば、第1の組み合わせで表示がなされてから、所定の経過時間(例えば、所定時間、所定日数等)が経過した後の時期であってもよく、所定の日にちや曜日が到来した時期であってもよく、その他の時期であってもよい。 Note that, in this embodiment, as shown in FIG. 16, a plurality of words are prepared in association with one of the topic images. In such an example, after realizing a conversation as described above by displaying one of the topic images on the display unit 15 in the first combination with "any one or more words out of a plurality of types" (specific Specifically, when a word included in the first combination is input by voice, the conversation is realized so that the story corresponding to the word is output as voice), and then the topic image is changed to the first combination. A different combination of words associated with the topic image may be displayed on the display unit 15 to realize a conversation from a different perspective. In this case, the timing at which the topic image and words are displayed in a combination different from the first combination (the topic image re-display timing) can be set variously. For example, after the first combination is displayed, It may be a time after a predetermined elapsed time (for example, a predetermined time, a predetermined number of days, etc.) has passed, it may be a time when a predetermined date or day of the week has arrived, or it may be another time.

例えば、図15のような話題画像(熱海の海岸の画像)と言葉の組み合わせが第1の組み合わせである場合、図15のように第1の組み合わせで表示部15に表示し、「熱海」が音声入力されることに応じて、「熱海」に対応する話を音声出力するように、第1の組み合わせに関する会話を実現した後、上述の話題画像再表示時期が到来した場合に、図17のように、図15と同様の話題画像(熱海の海岸の画像)を上記第1の組み合わせとは異なる組み合わせ(第2の組み合わせ)で当該話題画像に対応付けられた言葉と共に表示部15に表示してもよい。図17の例では、上記話題画像(熱海の海岸の画像)と「海水浴」の組み合わせが「第1の組み合わせとは異なる組み合わせ」である。このように表示を行った場合でも、第1の組み合わせでなされた会話と同様に会話を行うことができ、制御部11は、図17のように表示を行った後、上記所定期間の間に「かいすいよく」を含む話(例えば、「海水浴、そういう季節だね。」といった話)が音声入力されることに応じて、「海水浴」に対応付けられた話(例えば、「いよいよ夏本番ですね。夏の浜辺でスイカ割りしたいなー。」といった話)を音声出力するように、制御を行えばよい。 For example, if the combination of the topic image (image of the coast of Atami) and words as shown in FIG. 15 is the first combination, the first combination is displayed on the display unit 15 as shown in FIG. In response to the voice input, when the conversation regarding the first combination is realized and the time for redisplaying the topic image arrives, the conversation corresponding to "Atami" is output as voice, as shown in FIG. 17. As shown in FIG. 15, a topic image (image of the coast of Atami) similar to that shown in FIG. You can. In the example of FIG. 17, the combination of the topic image (image of the coast of Atami) and "sea bathing" is "a combination different from the first combination." Even when the display is performed in this way, it is possible to have a conversation in the same way as the conversation that took place in the first combination, and after displaying as shown in FIG. In response to voice input of a story that includes "Kaisuiyoku" (for example, "It's that time of year for sea bathing."), a story associated with "sea bathing" (for example, "Summer is finally here!") is input by voice. You can control it so that it outputs a voice saying something like, ``I want to split watermelon on the beach in the summer.''

更には、図17のように第2の組み合わせで会話を行った後、上述の話題画像再表示時期が到来した場合には、図18のように、図15、図17と同様の話題画像(熱海の海岸の画像)を第1及び第2の組み合わせとは異なる組み合わせ(第3の組み合わせ)で当該話題画像に対応付けられた言葉と共に表示部15に表示してもよい。例えば、図15、図17、図18のような画像を異なる日にそれぞれ表示すれば、例えば、同じ話題画像を用いつつ日によって違った話題を提供することができる。 Furthermore, when the above-mentioned topic image re-display time comes after the conversation is performed using the second combination as shown in FIG. 17, the same topic image as in FIGS. 15 and 17 ( Atami beach image) may be displayed on the display unit 15 in a combination (third combination) different from the first and second combinations together with words associated with the topic image. For example, if images such as those shown in FIGS. 15, 17, and 18 are displayed on different days, different topics can be provided depending on the day while using the same topic image.

図18の例は、話題画像に対応付けて用意された複数の言葉を組み合わせた例である。例えば、図18のような話題画像82A(熱海の海岸の画像)に対応付けて予め「熱海」「温泉」といった2種類の言葉が用意されている場合、図18のように、話題画像82Aと共に上記2種類の言葉(「熱海」「温泉」)を同時期に表示するように話題画像及び言葉を提供してもよい。話題画像と対応付けて用意された複数種類の言葉を同時期に表示する方法は、図18のように複数種類の言葉を1行で表示する方法であってもよく、図19のように複数行で表示する方法であってもよい。或いは、複数種類の言葉を離間させて別々の場所に表示する方法であってもよい。図19の例は、話題画像82A(熱海の海岸の画像)に対応付けて予め「熱海」「温泉」「サンビーチ」といった3種類の言葉が用意された例であり、話題画像82Aと関連させて3種類の言葉(「熱海」「温泉」「サンビーチ」)を同時期に複数行で表示する例である。 The example in FIG. 18 is an example in which a plurality of words prepared in association with topic images are combined. For example, if two types of words such as "Atami" and "hot spring" are prepared in advance in association with the topic image 82A (image of the coast of Atami) as shown in FIG. The topic images and words may be provided so that the two types of words (“Atami” and “hot spring”) are displayed at the same time. A method of simultaneously displaying multiple types of words prepared in association with topic images may be a method of displaying multiple types of words in one line as shown in Figure 18, or a method of displaying multiple types of words in one line as shown in Figure 19. It may also be displayed in rows. Alternatively, a method may be used in which multiple types of words are separated and displayed in different locations. The example in FIG. 19 is an example in which three types of words such as "Atami," "hot spring," and "sun beach" are prepared in advance in association with the topic image 82A (image of the coast of Atami). This is an example of displaying three types of words (``Atami'', ``hot spring'', and ``sun beach'') in multiple lines at the same time.

図18、図19の例では、制御部11は、話題画像82Aに関する言葉として複数種類のキーワードを表示部15に表示させ、これら複数種類のキーワードのうちのいずれかキーワードのみを含む話が入力部に入力された場合、入力されたキーワードに対応する話を出力部(例えば音声出力部16)に出力させるように動作する。例えば、図18のように第3の組み合わせで表示を行った後、上記所定期間の間に「熱海」「温泉」のうちの「熱海」のみを含む話が音声として音声入力部18に入力された場合、入力されたキーワード(「熱海」)に対応する話を音声出力部16に音声出力させるように動作する。 In the examples shown in FIGS. 18 and 19, the control unit 11 causes the display unit 15 to display a plurality of types of keywords as words related to the topic image 82A, and the input unit displays a story that includes only one of these keywords. When the input keyword is input, the output unit (for example, the audio output unit 16) operates to output a story corresponding to the input keyword. For example, after displaying the third combination as shown in FIG. 18, a story containing only "Atami" out of "Atami" and "Onsen" is input as audio to the audio input section 18 during the predetermined period. In this case, the voice output unit 16 is operated to output a voice corresponding to the input keyword (“Atami”).

或いは、図19のように第4の組み合わせで表示を行った後、上記所定期間の間に「熱海」「温泉」「サンビーチ」のうちの「サンビーチ」のみを含む話(例えば、「サンビーチは知っているよ」といった話)が音声として音声入力部18に入力された場合、入力されたキーワード(「サンビーチ」)に対応する話(例えば、「この写真は熱海サンビーチの写真です。外国のリゾートのようで雰囲気がとっても気に入ってます。」といった話)を音声出力部16に音声出力させるように動作する。このようにすれば、確実に関心のある話題について深堀できて、会話がつながる。 Alternatively, after displaying the fourth combination as shown in FIG. 19, a story including only "Sun Beach" among "Atami", "Onsen", and "Sun Beach" (for example, "Sun Beach") is displayed during the predetermined period. When a story (such as "I know the beach") is input as voice to the voice input section 18, a story corresponding to the input keyword ("Sun Beach") (for example, "This photo is a photo of Atami Sun Beach. .It looks like a resort in a foreign country and I really like the atmosphere.'') will be outputted by the audio output section 16. This way, you will be able to dig deeper into the topic you are interested in, and the conversation will continue.

なお、図18、図19のような例では、図15、図16のような例と同様、話題画像と対応付けて用意された複数種類の言葉の各々に対して、対応する話が1以上用意されていることが望ましいが、複数種類の言葉の中から選ばれる2以上の言葉の組み合わせに対して、対応する話が1以上用意されていてもよい。例えば、図18のような例では、「熱海」「温泉」のそれぞれに対応する話だけでなく、「熱海温泉」に対応する話が1以上用意されていてもよい。この場合、図18のような表示がなされた場合において、上記所定期間の間に、「熱海」及び「温泉」のいずれも含む音声(例えば、「今日は、熱海温泉について話しましょう。」といった音声など)が入力された場合に、「熱海温泉」に対応付けられて用意された話(例えば、「熱海駅の周辺には、たくさんのホテルや旅館、名所がありますね。行かれたことはありますか。」といった話)を音声出力すればよい。同様に、図19のような例でも、「熱海」「温泉」「サンビーチ」のそれぞれに対応する話だけでなく、「熱海」と「温泉」の組み合わせに対応する話、「熱海」と「サンビーチ」の組み合わせに対応する話、「温泉」と「サンビーチ」の組み合わせに対応する話、「熱海」と「温泉」と「サンビーチ」の組み合わせに対応する話などが、それぞれ1以上対応付けられて用意されていてもよい。この場合、図19のような表示がなされた場合において、上記所定期間の間に、「熱海」「サンビーチ」のいずれも含む音声(例えば、「熱海のサンビーチだね」といった音声など)が入力された場合に、「熱海」と「サンビーチ」の組み合わせに対応付けられて用意された話を音声出力すればよい。 Note that in the examples shown in FIGS. 18 and 19, as in the examples shown in FIGS. 15 and 16, there is one or more corresponding stories for each of the plural types of words prepared in association with the topic image. Although it is desirable that the words be prepared, one or more corresponding stories may be prepared for a combination of two or more words selected from a plurality of types of words. For example, in the example shown in FIG. 18, not only stories corresponding to "Atami" and "hot springs" but also one or more stories corresponding to "Atami hot springs" may be prepared. In this case, when the display shown in Figure 18 is displayed, during the predetermined period, a voice that includes both "Atami" and "hot springs" (for example, "Today, let's talk about Atami Onsen") is displayed. (e.g., voice, etc.), a prepared story associated with "Atami Onsen" (for example, "There are many hotels, inns, and famous places around Atami Station. Have you ever been there?") Do you have any?”) can be output as voice. Similarly, in the example shown in Figure 19, there are not only stories corresponding to "Atami", "Onsen", and "Sun Beach", but also stories corresponding to the combination of "Atami" and "Onsen", "Atami" and " There are at least one story corresponding to the combination of "Sun Beach", a story corresponding to the combination of "Onsen" and "Sun Beach", a story corresponding to the combination of "Atami", "Onsen" and "Sun Beach", etc. It may be attached and prepared. In this case, when the display as shown in Fig. 19 is displayed, during the above predetermined period, voices containing both "Atami" and "Sun Beach" (for example, voices such as "It's Sun Beach in Atami") are heard. When input, a prepared story associated with the combination of "Atami" and "Sun Beach" may be output as audio.

図15、図17~図19の例は、「話題画像82A」と「話題画像82Aに対応付けられた言葉」を表示する例であったが、図20のように話題画像を変更することもできる。図15のように話題画像82Aを表示して会話を行った後、図20のような新たな話題画像を表示する場合、その表示時期は様々に設定することができ、前回の話題画像の表示から一定時間が経過したことであってもよく、任意の時刻、時間、曜日等が到来したことであってもよく、その他の条件が成立したことであってもよい。例えば、図20のような例では、図20のような画像が表示された状態で「写真が変わったね。」といった音声が入力された場合に、「新しい話題です。写真に書いてある文字情報を読み上げてお話しましょう。」といったメッセージを音声等で出力し、写真やイラストの変化を報知することによって新しい感動、話題につなげつつ、画像に表示されている文字情報の読み上げを促すことができる。図20のような画像が表示された状態で、「桜まつりに行きたい」といった話のように、言葉84Dを含む話の音声入力があった場合には、言葉84Dに対応付けられた話(例えば、「この近くで桜の名所はどこですか。」といった話)を音声出力することにより、会話を適切に行いつつ話題を広げることができる。 In the examples shown in FIGS. 15 and 17 to 19, "topic image 82A" and "words associated with topic image 82A" are displayed, but the topic image can also be changed as shown in FIG. 20. can. After displaying the topic image 82A as shown in FIG. 15 and having a conversation, when displaying a new topic image as shown in FIG. 20, the display timing can be set variously, and the display of the previous topic image It may be that a certain period of time has passed since then, it may be that an arbitrary time, time, day of the week, etc. has arrived, or it may be that other conditions have been met. For example, in the example shown in Fig. 20, if the image shown in Fig. 20 is displayed and a voice such as "The photo has changed" is input, "This is a new topic. The text information written on the photo" is input. By outputting a message such as "Let's read aloud and talk about it" and notifying changes in photos and illustrations, it can lead to new impressions and topics, while also encouraging the reader to read out the textual information displayed in the image. . When an image like that shown in Fig. 20 is displayed and there is audio input of a story that includes the word 84D, such as "I want to go to the cherry blossom festival," the story associated with the word 84D ( For example, by outputting a phrase such as "Where is the best place to see cherry blossoms near here?", it is possible to expand the topic while having an appropriate conversation.

6.効果の例示
バーチャルアシスタント装置10は、話題となり得る画像(キャラクタ70の画像とは異なる話題画像)を表示する場合に、話題画像だけでなく、話題画像に関する言葉を表示部15に表示することができる。このような表示がなされると、話題画像を見た利用者は、上記言葉を含んだ話を発しやすくなる。従って、バーチャルアシスタント装置10側では、上記言葉を含んだ話がなされるものとして、上記言葉に関する応答用の話を用意しておくことができる。更に、バーチャルアシスタント装置10は、上記話題画像及び上記言葉が表示された後に、実際に上記言葉を含んだ話が利用者から発せられた場合には、入力部に入力された情報から上記言葉が含まれることを確認した上で、上記言葉に関連する話をキャラクタ70からの話として出力することができる。このような動作がなされるため、話題画像を見た利用者が発した話に対してキャラクタ70が無関係の話を返すような対応が抑制されやすく、会話の適切化を図りやすい。
6. Example of Effect When displaying an image that can become a topic (a topic image different from the image of the character 70), the virtual assistant device 10 can display not only the topic image but also words related to the topic image on the display unit 15. . When such a display is made, the user who sees the topic image is more likely to utter a story that includes the above-mentioned words. Therefore, on the virtual assistant device 10 side, it is possible to prepare a response story regarding the above-mentioned words, assuming that the speech including the above-mentioned words will be given. Furthermore, if the user actually speaks a story that includes the above-mentioned words after the topic image and the above-mentioned words are displayed, the virtual assistant device 10 determines the above-mentioned words from the information input to the input section. After confirming that the word is included, a story related to the word can be output as a story from the character 70. Because such an operation is performed, it is easy to prevent the character 70 from responding to a story uttered by a user who has viewed the topic image by saying an unrelated story, and it is easy to make the conversation more appropriate.

例えば、図21の比較例は、キャラクタの背景に海岸の風景画像が表示される例である。図21のように単に画像を表示するだけでは、利用者が発する話は様々な内容に発散しやすく、例えば、「そこはどこなの?」「どこにいるの?」といった様々な質問がなされたり、「きれいな写真ね」といった感想が述べられたりする。これら以外にも、話題の候補は無数に想定される。このような比較例において、バーチャルアシスタント装置側で会話を継続させるためには、画像を見た利用者からの応答をバーチャルアシスタント装置側で正確に認識し、その認識結果を踏まえて、無数に想定される話題の候補から話題(内容や要旨等)を正確に特定しなければならない。しかし、無数に想定される話題から会話のポイントを正確に特定することは困難であり、例えば、膨大なデータを有する高性能な会話装置を用いつつ、認識の誤りをある程度覚悟しながら会話を行うような方法を採用せざるを得ない。これに対し、上述のバーチャルアシスタント装置10は、表示部に表示される言葉を用いたやり取りにより、キャラクタから無関係の話を返すような事態を防ぐことができるため、会話をより適切に行うことができる。 For example, the comparative example in FIG. 21 is an example in which a coastal landscape image is displayed in the background of the character. By simply displaying an image as shown in Figure 21, the user's conversation tends to diverge into various content, such as asking various questions such as "Where is that?", "Where are you?" Some people commented, ``That's a beautiful photo.'' In addition to these, countless other topics can be considered. In such a comparative example, in order for the virtual assistant device to continue the conversation, the virtual assistant device must accurately recognize the response from the user who has viewed the image, and based on the recognition results, it must make countless assumptions. The topic (content, gist, etc.) must be accurately identified from the topic candidates presented. However, it is difficult to accurately identify the conversation points from a myriad of potential topics. We have no choice but to adopt such a method. On the other hand, the above-described virtual assistant device 10 can prevent situations where the character returns unrelated information by communicating using the words displayed on the display, so it is possible to carry out the conversation more appropriately. can.

なお、図16の例では、話題画像と、話題画像に対応する言葉と、各言葉に対応する話とが対応付けられた構成で対応データが構成されているが、対応データにおいて話題画像が対応付けられていなくてもよい。つまり、話題画像と言葉を含んだ画像(例えば、図15の背景画像のように話題画像と言葉を同時に表示する画像)のデータと、言葉と話を対応付けた対応データ(例えば、図16のデータ構成から、話題画像のデータを除いた対応データ)とが別々に用意されていてもよい。この場合、バーチャルアシスタント装置10が対応データを利用できる環境にあれば、これとは別で画像データ(話題画像と言葉を同時に表示する画像のデータ)が独立していても、適切に会話を成立させることができる。例えば、上記画像データが独立して配信されるようなシステムでは、バーチャルアシスタント装置10が上記画像データを取得して表示するとしても、どのような画像が表示されるのかを認識できない虞がある。例えば、図21の例において、「写真がどこなのか教えてよ」といった会話が利用者から提供された場合、バーチャルアシスタント装置10側で写真の場所を把握していないと、キャラクタからは「ごめんなさい、わからないです」といった回答となってしまい、会話が続かなかったり、話題が広がらなかったりする。しかし、本実施形態を適用すれば、利用者から上記言葉を含む話が発せられやすく、上記言葉を想定した応答を適切に行うことができ、話題も広がりやすい。 In the example shown in FIG. 16, the correspondence data is composed of a topic image, a word corresponding to the topic image, and a story corresponding to each word. It doesn't have to be attached. In other words, there is data of an image that includes a topic image and words (for example, an image that displays a topic image and words at the same time, such as the background image in FIG. 15), and correspondence data that associates words and stories (for example, an image that displays a topic image and words at the same time, such as the background image in FIG. 16). (corresponding data excluding topic image data from the data structure) may be prepared separately. In this case, if the virtual assistant device 10 is in an environment where the corresponding data can be used, a conversation can be properly established even if the image data (image data that displays the topic image and words at the same time) is independent. can be done. For example, in a system where the image data is distributed independently, even if the virtual assistant device 10 acquires and displays the image data, there is a risk that it will not be able to recognize what kind of image will be displayed. For example, in the example shown in FIG. 21, if the user provides a conversation such as "Please tell me where the photo is," if the virtual assistant device 10 does not know the location of the photo, the character will respond with "I'm sorry. , I don't know,'' and the conversation doesn't continue or the topic doesn't expand. However, if this embodiment is applied, it is easy for the user to say something that includes the above-mentioned words, it is possible to appropriately respond based on the above-mentioned words, and it is easy to spread the topic.

バーチャルアシスタント装置10は、有効モード(会話モード)と解除モードを切り替えることができるため、有効モード中には話の解析を可能とし、解除モード中には処理負担を低減することができる。そして、制御部11は、上記言葉に関連する話を上記キャラクタ70からの話として出力部に出力させた場合、有効モードを継続しつつ利用者からの話を受け付ける期間を設け、終了条件が成立するまで継続することができるため、上記言葉に関連する話を提供した後も、会話を円滑に継続することができる。 Since the virtual assistant device 10 can switch between a valid mode (conversation mode) and a cancel mode, it is possible to analyze the conversation during the valid mode, and to reduce the processing load during the cancel mode. Then, when the control unit 11 causes the output unit to output a story related to the word as a story from the character 70, the control unit 11 sets a period for accepting stories from the user while continuing the effective mode, and the termination condition is satisfied. This allows the conversation to continue smoothly even after the user has provided the story related to the above-mentioned words.

図15のように、話題画像82Aと関連させて表示される言葉84Aが単一のキーワードである場合、話題画像82A及び言葉84Aを見た利用者が言葉84A(キーワード)を発しやすくなる。よって、言葉84A(キーワード)を含む話がバーチャルアシスタント装置10によって認識される可能性が高まり、ひいては、会話が適切に継続する可能性が高まる。 As shown in FIG. 15, when the word 84A displayed in association with the topic image 82A is a single keyword, the user who sees the topic image 82A and the word 84A is more likely to utter the word 84A (keyword). Therefore, the possibility that the conversation including the word 84A (keyword) will be recognized by the virtual assistant device 10 increases, and the possibility that the conversation will continue appropriately increases.

図19の例では、制御部11は、複数種類のキーワード(言葉84E,84F,84G)のうちのいずれかキーワードのみを含む言葉が発せられた場合、発せられたキーワードに対応する話を出力部に出力させるように動作する。話題画像と関連付けて複数種類のキーワードが表示されると、利用者が興味を持ちやすいキーワードが含まれる可能性が高くなり、且つ、利用者は、より多くの観点で話をしやすくなる。バーチャルアシスタント装置10は、利用者の話しやすさを高めつつ、いずれかのキーワードを含んだ話が発せられた場合にはそのキーワードに対応する話を返すことができるため、利用者の話しやすさと会話の適切化を両立することができる。 In the example of FIG. 19, when a word containing only one of the plurality of keywords (words 84E, 84F, 84G) is uttered, the control unit 11 outputs a story corresponding to the uttered keyword. It works so that it outputs. When a plurality of types of keywords are displayed in association with a topical image, there is a high possibility that keywords that the user is likely to be interested in are included, and it becomes easier for the user to talk from more viewpoints. The virtual assistant device 10 improves the user's ease of speaking, and when a word containing any keyword is uttered, it can return a story corresponding to that keyword. It is possible to make the conversation more appropriate.

制御部11は、図15のように話題画像82Aを言葉84Aと共に第1の組み合わせで表示部15に表示した後、図17のように話題画像82Aを第1の組み合わせとは異なる組み合わせで言葉84Bと共に表示部15に表示するように動作する。或いは、図18のように話題画像82Aを第1の組み合わせとは異なる組み合わせで言葉84Cと共に表示部15に表示するように動作する。このように、話題画像82Aを表示する場合に、関連付けて表示する言葉の組み合わせを変更可能であれば、同種の話題画像82Aを継続的に又は繰り返し利用する場合でも、利用者にとって会話が飽きにくくなり、利用者の利用が促進されやすい。そして、バーチャルアシスタント装置10は、話題画像と言葉の組み合わせが変更されても、表示された言葉を含む話が発せられた場合には、その言葉に関連する話を返すことができるため、会話の飽きにくさと会話の適切化を両立することができる。 The control unit 11 displays the topic image 82A together with the word 84A in a first combination on the display unit 15 as shown in FIG. 15, and then displays the topic image 82A with the word 84B in a combination different from the first combination as shown in FIG. It also operates to display on the display unit 15. Alternatively, as shown in FIG. 18, the topic image 82A is displayed on the display unit 15 together with the word 84C in a combination different from the first combination. In this way, if it is possible to change the combination of words displayed in association when displaying the topic image 82A, the conversation will be less boring for the user even when the same type of topic image 82A is used continuously or repeatedly. This makes it easier for users to use the service. Even if the combination of the topic image and the word is changed, the virtual assistant device 10 can return a story related to the displayed word if a word that includes the displayed word is uttered. It is possible to balance the difficulty of getting bored and the appropriateness of the conversation.

<他の実施形態>
本発明は上記記述及び図面によって説明した実施形態に限定されるものではなく、例えば次のような実施形態も本発明の技術的範囲に含まれる。また、上述した実施形態や後述する実施形態の様々な特徴は、矛盾しない組み合わせであればどのように組み合わされてもよい。
<Other embodiments>
The present invention is not limited to the embodiments described above and illustrated in the drawings; for example, the following embodiments are also included within the technical scope of the present invention. Further, various features of the embodiments described above and the embodiments described below may be combined in any combination that does not contradict each other.

上述された実施形態では、利用者からの話が入力される入力部として、話が音声として入力され得る音声入力部18が例示されるが、この例に限定されない。例えば、利用者からの話が文字入力によって入力されてもよく、この例では文字入力を行うための操作部17が入力部の一例に相当する。この例では、操作部17は、文字入力を行い得る公知の様々な入力デバイスが採用され得る。 In the embodiment described above, the voice input unit 18 to which the user's speech can be input as voice is exemplified as an input unit into which the user's speech is input, but the input unit is not limited to this example. For example, the user's message may be input by inputting characters, and in this example, the operation unit 17 for inputting characters corresponds to an example of the input unit. In this example, the operation unit 17 may employ various known input devices that can input characters.

上述された実施形態では、利用者が話題画像と共に表示された言葉を含んだ話を発した場合に、制御部11は、この言葉に対応する話をキャラクタからの話として音声によって出力するように制御を行うが、この例に限定されない。例えば、利用者が話題画像と共に表示された言葉を含んだ話を発した場合に、制御部11は、この言葉に対応する話をキャラクタからの話として文字表示によって出力するように表示部15を制御してもよく、文字表示と音声の両方を出力するように表示部15及び音声出力部16を制御してもよい。 In the embodiment described above, when the user utters a story that includes the word displayed together with the topic image, the control unit 11 outputs the story corresponding to the word as a story from the character. control, but is not limited to this example. For example, when a user speaks a story that includes a word displayed together with a topic image, the control section 11 causes the display section 15 to output a story corresponding to this word as a story from a character. Alternatively, the display section 15 and the audio output section 16 may be controlled so as to output both text display and audio.

上述された実施形態では、動作検出部の一例に相当する操作部17がタッチパネルとして構成されるがこの例に限定されない。操作部17は、その他の公知の入力デバイス(キーボード、マウス、タッチペン等)であってもよい。或いは、動作検出部は、操作部17に代えて又は操作部17に加えて他の入力デバイス(例えば、非接触方式での入力操作が可能とされた入力デバイス)を備えていてもよい。具体的には、動作検出部は、撮像部やモーションセンサなどの非接触センサを有していてもよい。この場合、その非接触センサと制御部11とが協働し、利用者の動きやジェスチャーなどを検知してもよい。 In the embodiment described above, the operation unit 17, which is an example of a motion detection unit, is configured as a touch panel, but the present invention is not limited to this example. The operation unit 17 may be any other known input device (keyboard, mouse, touch pen, etc.). Alternatively, the motion detection section may include another input device (for example, an input device capable of non-contact input operation) instead of or in addition to the operation section 17. Specifically, the motion detection section may include a non-contact sensor such as an imaging section or a motion sensor. In this case, the non-contact sensor and the control unit 11 may cooperate to detect the user's movements, gestures, and the like.

上述された実施形態では、表示部15は、静止画や動画を二次元で表示する表示装置として構成されるが、この例に限定されない。表示部15は、三次元表示を行い得る三次元ディスプレイであってもよい。 In the embodiment described above, the display unit 15 is configured as a display device that displays still images and moving images in two dimensions, but is not limited to this example. The display unit 15 may be a three-dimensional display capable of three-dimensional display.

上述されたシステム1では、バーチャルアシスタント装置10の外部に設けられた登録部(記憶部95)に利用者が希望する情報の種類が登録され、そして、制御部11は、登録部に登録される種類のコンテンツに関する会話を、インタフェース13を介して出力する制御を行うようになっていた。しかし、この例に限定されない。例えば、バーチャルアシスタント装置10に登録部が設けられ、利用者が希望する種類の情報が登録されてもよい。例えば、バーチャルアシスタント装置10は、バーチャルアシスタント装置10に登録された種類(利用者が希望する種類)のコンテンツのみを管理装置90から受信してもよい。或いは、バーチャルアシスタント装置10は、管理装置90からコンテンツを受信した場合において、バーチャルアシスタント装置10に登録された種類(利用者が希望する種類)のコンテンツを受信した場合にステップS2において新たな配信があったと判定してもよい。そして、ステップS7では、バーチャルアシスタント装置10に登録された種類(利用者が希望する種類)のコンテンツのみを提供してもよい。 In the system 1 described above, the type of information desired by the user is registered in the registration unit (storage unit 95) provided outside the virtual assistant device 10, and the control unit 11 is registered in the registration unit. Conversations regarding different types of content are controlled to be output via the interface 13. However, it is not limited to this example. For example, the virtual assistant device 10 may be provided with a registration section, and the type of information desired by the user may be registered. For example, the virtual assistant device 10 may receive from the management device 90 only content of a type registered in the virtual assistant device 10 (a type desired by the user). Alternatively, when the virtual assistant device 10 receives content from the management device 90, if the content is of the type registered in the virtual assistant device 10 (the type desired by the user), the virtual assistant device 10 performs a new distribution in step S2. It may be determined that there was. Then, in step S7, only the type of content registered in the virtual assistant device 10 (the type desired by the user) may be provided.

上述された実施形態では、バーチャルアシスタント装置10が、主に高齢者向けのバーチャルアシスタント装置として構成された例を示したが、この例に限定されない。例えば、子供などの他のカテゴリの対象者を対象としてもよい。 In the embodiment described above, an example was shown in which the virtual assistant device 10 was configured as a virtual assistant device mainly for elderly people, but the present invention is not limited to this example. For example, other categories of subjects such as children may be targeted.

本明細書のいずれの例でも、図15、図17、図18、図19、図20のような話題画像を提供して会話を行う場合、会話を行う過程で、キャラクタの表情、キャラクタの動作、テロップ、効果音、アイコンのいずれか1つ又は複数の表示又は音声出力を発生又は変化させてもよい。例えば、制御部11は、キャラクタ70の表情を笑顔にしたり、キャラクタ70に対してジャンプやスキップ等の動作を行わせたりしてもよい。採用されるキャラクタの表情は笑顔に限定されず、沈んだ表情、怒った表情、悲しんだ表情などに変化させてもよく、キャラクタ70に喜んだ動作や泣く動作などを行わせてもよい。 In any of the examples in this specification, when having a conversation by providing topic images such as those shown in FIGS. 15, 17, 18, 19, and 20, the character's facial expressions, Display or audio output of one or more of , telops, sound effects, and icons may be generated or changed. For example, the control unit 11 may make the character 70 smile, or cause the character 70 to perform an action such as jumping or skipping. The facial expression of the adopted character is not limited to a smiling face, but may be changed to a depressed expression, an angry expression, a sad expression, etc., and the character 70 may be made to perform a happy motion, a crying motion, etc.

上述された実施形態では、バーチャルアシスタント装置10に記憶部14が設けられ、記憶部14に上述の対応情報が記憶されるが、この例に限定されない。例えば、第1実施形態の記憶部14に記憶される対応情報と同様の対応情報がバーチャルアシスタント装置10の外部に設けられた装置に記憶されてもよい。例えば、管理装置90の記憶部95が上述の対応情報を記憶する記憶部として機能してもよい。或いは、上述の対応情報は、記憶部14と記憶部95の両方に設けられていてもよい。外部に設けられた装置(例えば記憶部95)に対応情報が記憶される場合、制御部11は、いずれかの話題画像を表示する前に、当該話題画像のデータ及び当該話題画像に対応付けられた言葉のデータを、外部の装置から受信すればよい。更に、制御部11は、上記話題画像を表示する前又は表示した後に当該話題画像に対応付けられた話のデータを外部の装置から受信しておき、記憶部14に記憶しておけばよい。 In the embodiment described above, the storage unit 14 is provided in the virtual assistant device 10, and the above-mentioned correspondence information is stored in the storage unit 14, but the present invention is not limited to this example. For example, correspondence information similar to the correspondence information stored in the storage unit 14 of the first embodiment may be stored in a device provided outside the virtual assistant device 10. For example, the storage unit 95 of the management device 90 may function as a storage unit that stores the above-mentioned correspondence information. Alternatively, the above-mentioned correspondence information may be provided in both the storage unit 14 and the storage unit 95. When the correspondence information is stored in an externally provided device (for example, the storage unit 95), the control unit 11 stores the data of the topic image and information associated with the topic image before displaying any topic image. It is sufficient to receive the data of the words from an external device. Further, the control unit 11 may receive the story data associated with the topic image from an external device before or after displaying the topic image, and store it in the storage unit 14.

なお、今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、今回開示された実施の形態に限定されるものではなく、特許請求の範囲によって示された範囲内又は特許請求の範囲と均等の範囲内での全ての変更が含まれることが意図される。 It should be noted that the embodiments disclosed herein are illustrative in all respects and should not be considered restrictive. The scope of the present invention is not limited to the embodiments disclosed herein, and includes all modifications within the scope indicated by the claims or within the scope equivalent to the claims. is intended.

1…バーチャルアシスタントシステム
10…バーチャルアシスタント装置
11…制御部
12…通信部
13…インタフェース
14…記憶部
15…表示部(出力部)
16…音声出力部(出力部)
17…操作部(入力部)
18…音声入力部(入力部)
70…キャラクタ
82A…話題画像
82B…話題画像
84A…言葉
84B…言葉
84C…言葉
84D…言葉
84E…言葉
84F…言葉
84G…言葉
1...Virtual assistant system 10...Virtual assistant device 11...Control unit 12...Communication unit 13...Interface 14...Storage unit 15...Display unit (output unit)
16...Audio output section (output section)
17...Operation unit (input unit)
18...Audio input section (input section)
70... Character 82A... Topic image 82B... Topic image 84A... Word 84B... Word 84C... Word 84D... Word 84E... Word 84F... Word 84G... Word

Claims (6)

利用者からの話が入力される入力部と、画像を表示する表示部と、前記表示部にキャラクタの画像を表示させる制御部と、前記キャラクタからの話を出力する出力部と、を備えたバーチャルアシスタント装置であって、
前記制御部は、前記キャラクタの画像とは異なる話題画像及び前記話題画像に関する言葉を前記表示部に表示し、前記話題画像及び前記言葉が前記表示部に表示された後、前記言葉を含む話が前記入力部に入力された場合に、前記言葉に関連する話を前記キャラクタからの話として前記出力部に出力させる
バーチャルアシスタント装置。
An input section into which a story from a user is input, a display section that displays an image, a control section that causes the display section to display an image of a character, and an output section that outputs the story from the character. A virtual assistant device,
The control unit displays a topic image different from the image of the character and words related to the topic image on the display unit, and after the topic image and the words are displayed on the display unit, a story including the words is displayed. A virtual assistant device that, when input to the input unit, causes the output unit to output a story related to the word as a story from the character.
前記制御部は、
前記入力部に入力される話の解析を有効化する有効モードと、前記有効モードを解除する解除モードとを切り替え、
前記有効モード中に前記言葉を含む話が前記入力部に入力された場合に前記言葉に関連する話を前記キャラクタからの話として前記出力部に出力させ、
前記言葉に関連する話を前記キャラクタからの話として前記出力部に出力させた場合、前記有効モードを継続しつつ前記利用者からの話を受け付ける期間を設けた後、予め定められた終了条件が成立するまで前記有効モードを継続する
請求項1に記載のバーチャルアシスタント装置。
The control unit includes:
switching between an enable mode that enables analysis of the story input into the input section and a cancellation mode that cancels the enable mode;
When a story including the word is input to the input unit during the valid mode, outputting a story related to the word to the output unit as a story from the character;
When the output unit outputs a story related to the word as a story from the character, a predetermined end condition is met after a period is set for accepting stories from the user while continuing the valid mode. The virtual assistant device according to claim 1, wherein the effective mode is continued until the condition is established.
前記制御部は、前記話題画像に関する前記言葉として単一のキーワードのみを前記表示部に表示する
請求項1又は請求項2に記載のバーチャルアシスタント装置。
The virtual assistant device according to claim 1 or 2, wherein the control unit displays only a single keyword on the display unit as the word related to the topic image.
前記制御部は、前記話題画像に関する前記言葉として複数種類のキーワードを前記表示部に表示させ、前記複数種類の前記キーワードのうちのいずれかキーワードのみを含む話が入力部に入力された場合、入力された前記キーワードに対応する話を前記出力部に出力させる
請求項1又は請求項2に記載のバーチャルアシスタント装置。
The control unit displays a plurality of types of keywords on the display unit as the words related to the topic image, and when a story containing only one of the plurality of keywords is input to the input unit, The virtual assistant device according to claim 1 or 2, wherein the output unit outputs a story corresponding to the keyword.
前記制御部は、前記話題画像をいずれか1種以上の前記言葉と共に第1の組み合わせで前記表示部に表示した後、前記話題画像を前記第1の組み合わせとは異なる組み合わせで前記言葉と共に前記表示部に表示する
請求項1又は請求項2に記載のバーチャルアシスタント装置。
The control unit displays the topic image together with one or more of the words in a first combination on the display unit, and then displays the topic image together with the word in a combination different from the first combination. The virtual assistant device according to claim 1 or 2, wherein the virtual assistant device is displayed on the screen.
利用者からの話が入力される入力部と、画像を表示する表示部と、前記表示部にキャラクタの画像を表示させる制御部と、前記キャラクタからの話を出力する出力部と、を備えたバーチャルアシスタント装置に用いられるプログラムであって、
前記キャラクタの画像とは異なる話題画像及び前記話題画像に関する言葉を前記表示部に表示させる制御を、前記制御部に行わせるステップと、
前記話題画像及び前記言葉が前記表示部に表示された後、前記言葉を含む話が前記入力部に入力された場合に、前記言葉に関連する話を前記キャラクタからの話として前記出力部に出力させる制御を、前記制御部に行わせるステップと、
を含むバーチャルアシスタント装置用のプログラム。
An input section into which a story from a user is input, a display section that displays an image, a control section that causes the display section to display an image of a character, and an output section that outputs the story from the character. A program used for a virtual assistant device,
causing the control unit to perform control to display a topic image different from the image of the character and words related to the topic image on the display unit;
After the topic image and the word are displayed on the display unit, when a story including the word is input to the input unit, a story related to the word is output to the output unit as a story from the character. a step of causing the control unit to perform control to
Programs for virtual assistant equipment, including.
JP2022088667A 2022-05-31 2022-05-31 Virtual assistant device and program for virtual assistant device Pending JP2023176404A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022088667A JP2023176404A (en) 2022-05-31 2022-05-31 Virtual assistant device and program for virtual assistant device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022088667A JP2023176404A (en) 2022-05-31 2022-05-31 Virtual assistant device and program for virtual assistant device

Publications (1)

Publication Number Publication Date
JP2023176404A true JP2023176404A (en) 2023-12-13

Family

ID=89123022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022088667A Pending JP2023176404A (en) 2022-05-31 2022-05-31 Virtual assistant device and program for virtual assistant device

Country Status (1)

Country Link
JP (1) JP2023176404A (en)

Similar Documents

Publication Publication Date Title
US20220284896A1 (en) Electronic personal interactive device
TWI692717B (en) Image display device, topic selection method and program
Van Den Hoven et al. Informing augmented memory system design through autobiographical memory theory
CN102017585B (en) Method and system for notification and telecommunications management
US8577279B2 (en) Visual scene displays, uses thereof, and corresponding apparatuses
US9471902B2 (en) Proxy for asynchronous meeting participation
CN107038197A (en) The content transmission and interaction of situation and activity-driven
AU2004248274A1 (en) Intelligent collaborative media
CN107480766B (en) Method and system for content generation for multi-modal virtual robots
CN110152314B (en) Session output system, session output server, session output method, and storage medium
Tsepapadakis et al. Are you talking to me? An Audio Augmented Reality conversational guide for cultural heritage
JP6598369B2 (en) Voice management server device
Gundermann The stark gaze of the new Argentine cinema: Restoring strangeness to the object in the perverse age of commodity fetishism
Scott Intimacy threats and intersubjective users: telephone training films, 1927–1962
WO2020026799A1 (en) Information processing device, information processing method, and program
JP2023176404A (en) Virtual assistant device and program for virtual assistant device
CN110097883A (en) For accessing the interactive voice of the call function of corollary equipment at main equipment
JP7307576B2 (en) Program and information processing device
JP2022190870A (en) Virtual assistant device and program for virtual assistant device
JP2002041279A (en) Agent message system
JP2022191125A (en) Virtual assistant device and program for virtual assistant device
JP2024110514A (en) Virtual assistant device, virtual assistant system, and program for virtual assistant device
Batz et al. Cuckoo–facilitating communication for people with mental and physical disabilities in residential communities
JP2023087483A (en) Virtual assistant device and program for virtual assistant device
SJ The Value of Spiritual Conversation in the Digital Age

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240226