JP2023087483A - Virtual assistant device and program for virtual assistant device - Google Patents

Virtual assistant device and program for virtual assistant device Download PDF

Info

Publication number
JP2023087483A
JP2023087483A JP2021201889A JP2021201889A JP2023087483A JP 2023087483 A JP2023087483 A JP 2023087483A JP 2021201889 A JP2021201889 A JP 2021201889A JP 2021201889 A JP2021201889 A JP 2021201889A JP 2023087483 A JP2023087483 A JP 2023087483A
Authority
JP
Japan
Prior art keywords
conversation
control
interface
user
virtual assistant
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021201889A
Other languages
Japanese (ja)
Inventor
一元 宮嶋
Kazumoto Miyajima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Niterra Co Ltd
Original Assignee
NGK Spark Plug Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NGK Spark Plug Co Ltd filed Critical NGK Spark Plug Co Ltd
Priority to JP2021201889A priority Critical patent/JP2023087483A/en
Publication of JP2023087483A publication Critical patent/JP2023087483A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To provide a virtual assistant device and a program for the virtual assistant device, which easily increase the interest of a user who uses the virtual assistant device.SOLUTION: In a virtual assistant system 1 comprising a virtual assistant device 10 and a management device 90, the virtual assistant device includes a control section 11 that performs first utterance control so as to cause an interface 13 to output a plurality of choices corresponding to any subject of conversation and cause the interface 13 to output a conversation of a character related to the plurality of output choices, and performs second utterance control so as to cause the interface to output the conversation related to the choice selected by selection input as an utterance from the character after an interval of a predetermined period upon completion of the first utterance control if the selection input for selecting any of choices through the interface 13 after the first utterance control is performed.SELECTED DRAWING: Figure 1

Description

本発明は、バーチャルアシスタント装置及びバーチャルアシスタント装置用のプログラムに関する。 The present invention relates to a virtual assistant device and a program for the virtual assistant device.

特許文献1には、エージェント装置の一例が開示されている。特許文献1のエージェント装置は、表示装置とスピーカとを用いて画像と音声により現出させたエージェントにより状況に応じた違和感の無いユーザ性格判別用の質問をさせる。更に、このエージェント装置は、マイク入力されたユーザの回答結果からユーザの性格を判別し、ユーザの性格に合わせてエージェントの性格を可変させる。 Patent Literature 1 discloses an example of an agent device. The agent apparatus disclosed in Patent Document 1 asks questions for user character determination without any sense of incongruity according to the situation by an agent that is displayed by images and sounds using a display device and a speaker. Furthermore, this agent device discriminates the character of the user from the result of the user's answer inputted by the microphone, and changes the character of the agent according to the character of the user.

特開2007-133728号公報JP-A-2007-133728 特開2001-204774号公報Japanese Patent Application Laid-Open No. 2001-204774

特許文献1の装置は、ユーザの回答結果から判別されたユーザの性格に合わせてエージェントの性格を可変させるようにしてエンターテイメント性を高めているが、単に性格を可変させるだけでは、ユーザの意思を反映した会話を行うことが難しく、ユーザの関心を高めるという観点で、改善の余地がある。 The apparatus disclosed in Patent Document 1 enhances entertainment by changing the character of the agent in accordance with the character of the user determined from the answer result of the user. It is difficult to have a conversation that reflects, and there is room for improvement in terms of increasing user interest.

一方、特許文献2には、介護施設のコミュニケーション支援システムが開示されている。このシステムは、被介護者からの簡単な問い合わせに答えるルールが登録された知識ベースと処理部とを備えており、処理部は、上記ルールに基づいて、被介護者からの簡単な問い合わせに答えるようにエージェントを動作し得る。しかし、このシステムは、被介護者からの問い合わせに適した回答を提供できる可能性はあるものの、問い合わせ毎に話題が完結してしまう可能性が高いため、介護者がエージェントとの間で継続的にコミュニケーションをとっているような印象を受けにくい。この点で、介護者(利用者)の関心が損なわれる懸念がある。 On the other hand, Patent Literature 2 discloses a communication support system for nursing care facilities. This system includes a knowledge base in which rules for answering simple inquiries from care recipients are registered and a processing unit, and the processing unit answers simple inquiries from care recipients based on the rules. You can operate the agent as follows. However, although this system may be able to provide answers that are suitable for inquiries from care recipients, there is a high possibility that the topic will end with each inquiry. It is difficult to get the impression that you are communicating with In this regard, there is a concern that the caregiver's (user's) interest may be lost.

本発明は、バーチャルアシスタント装置を利用する利用者の関心を高めやすい技術を提供することを一つの目的とする。 An object of the present invention is to provide a technology that can easily increase the interest of users who use virtual assistant devices.

本発明の一つであるバーチャルアシスタント装置は、
利用者からの入力の受入れおよび出力を行うインタフェースと、前記インタフェースを構成する表示部に具現化されたキャラクタを表示させる制御部と、を備えたバーチャルアシスタント装置であって、
前記インタフェースは、接触又は非接触による前記利用者からの入力動作を検出する動作検出部又は前記利用者の音声を示す音声信号を取得する音声入力部の少なくともいずれかを有し、
前記制御部は、複数の選択肢を話題と対応付けた対応情報を記憶する記憶部の情報を利用し、いずれかの話題に対応する前記複数の選択肢を前記インタフェースに出力させ且つ出力される前記複数の選択肢に関連する前記キャラクタの会話を前記インタフェースに出力させる第1発話制御を行い、前記複数の選択肢が出力された後に前記インタフェースを介していずれかの選択肢を選択する選択入力がなされた場合、前記第1発話制御の終了後に所定期間をおいてから、前記選択入力で選択された選択肢に関連する話を前記キャラクタからの発話として前記インタフェースに出力させる第2発話制御を行う。
A virtual assistant device, which is one of the present invention,
A virtual assistant device comprising an interface for accepting and outputting input from a user, and a control unit for displaying an embodied character on a display unit constituting the interface,
The interface has at least one of a motion detection unit that detects an input motion from the user by contact or non-contact, or a voice input unit that acquires a voice signal indicating the voice of the user,
The control unit uses information in a storage unit that stores correspondence information in which a plurality of options are associated with topics, causes the interface to output the plurality of options corresponding to any topic, and outputs the plurality of options to be output. When a first utterance control is performed to cause the interface to output the character's conversation related to the option of, and a selection input is made to select one of the options through the interface after the plurality of options are output, After a predetermined period of time after the end of the first utterance control, second utterance control is performed to output a story related to the option selected by the selection input to the interface as an utterance from the character.

上記のバーチャルアシスタント装置は、いずれかの話題に対応する複数の選択肢をインタフェースに出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェースに出力させることができるため、利用者に会話の楽しみを提供しつつ、会話と関連付けた形で利用者の意思を正確に確認することができる。そして、このような会話から時間をおいた後、選択入力で選択された選択肢に関連する会話をキャラクタの会話として提供することができるため、キャラクタが過去の会話の内容を覚えているような印象を与えやすい形で、ユーザに話を提供することができる。特に、このバーチャルアシスタント装置は、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを確実に抑えることができ、利用者がより一層関心をもちやすくなる。 The above-mentioned virtual assistant device can cause the interface to output a plurality of options corresponding to any topic, and can cause the interface to output a conversation of characters related to the plurality of options that are output. While providing enjoyment, it is possible to accurately confirm the user's intention in a form associated with the conversation. After a period of time has passed from such conversation, the conversation related to the option selected by the selection input can be provided as the character's conversation, giving the impression that the character remembers the contents of the past conversation. It is possible to provide a story to the user in a form that makes it easy to give In particular, this virtual assistant device can reliably prevent the ``speech provided by the second speech control'' from greatly deviating from the ``choices selected by the user,'' making it easier for the user to be more interested. .

上記のバーチャルアシスタント装置において、上記第1発話制御は、いずれかの話題の質問と、上記質問に対する答えの候補である上記複数の選択肢と、を含んだ上記キャラクタの会話を上記表示部に表示させる制御である。 In the virtual assistant device, the first utterance control causes the display unit to display a conversation of the character including a question on any topic and the plurality of options that are candidates for answers to the question. Control.

このバーチャルアシスタント装置は、第1発話制御において、質問内容と質問に対する答えの候補とを表示部に表示させることができるため、利用者は、質問と答えの候補を視覚的に確認しながら選択することができる。よって、選択の正確性が高まり、第2発話制御において、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを、より一層確実に抑えることができる。 In the first utterance control, the virtual assistant device can display the content of the question and candidate answers to the question on the display unit, so that the user can select the question and answer candidates while visually confirming them. be able to. Therefore, the accuracy of the selection is improved, and in the second speech control, it is possible to more reliably prevent the "speech provided by the second speech control" from greatly deviating from the "choices selected by the user".

上記のバーチャルアシスタント装置において、上記第2発話制御は、上記選択入力で選択された選択肢の言葉を含む会話を上記キャラクタの会話として上記インタフェースに出力させる制御である。 In the virtual assistant device described above, the second utterance control is control for causing the interface to output a conversation including the word of the option selected by the selection input as a conversation of the character.

このバーチャルアシスタント装置は、第2発話制御に基づいて提供される会話の中に「第1発話制御に応じて選択された選択肢の言葉」が含まれるため、利用者は、第2発話制御の際にキャラクタから提供される話を聞いた場合又は見た場合に、自身が過去に選択した「選択肢の言葉」が印象に残りやすい。その結果、利用者は、自身の話をキャラクタが興味を持って覚えてくれていたような印象をもちやすく、キャラクタの話に関心や愛着をもちやすい。 In this virtual assistant device, the conversation provided based on the second utterance control includes "choice words selected according to the first utterance control". When hearing or seeing a story provided by a character, the "word of choice" that the user has selected in the past tends to leave an impression. As a result, the user tends to have the impression that the character has been interested in and remembers his/her own story, and easily develops an interest in and attachment to the character's story.

本発明の一つであるバーチャルアシスタント装置用のプログラムは、
利用者からの入力の受入れおよび出力を行うインタフェースと、上記インタフェースを構成する表示部に具現化されたキャラクタを表示させる制御部と、を備えたバーチャルアシスタント装置に用いられるプログラムであって、
前記インタフェースは、接触又は非接触による前記利用者からの入力動作を検出する動作検出部又は前記利用者の音声を示す音声信号を取得する音声入力部の少なくともいずれかを有し、
複数の選択肢を話題と対応付けた対応情報が記憶される記憶部の情報を利用し、いずれかの話題に対応する前記複数の選択肢を前記インタフェースに出力させ且つ出力される前記複数の選択肢のいずれかの選択を促す前記キャラクタの会話を前記インタフェースに出力させる第1発話制御を前記制御部に行わせるステップと、
前記第1発話制御の後に前記インタフェースを介していずれかの選択肢を選択する選択入力がなされた場合、前記第1発話制御の終了後に所定期間をおいてから、前記選択入力で選択された選択肢に関連する会話を前記キャラクタの会話として前記インタフェースに出力させる第2発話制御を前記制御部に行わせるステップと、
を含む。
A program for a virtual assistant device, which is one of the present invention,
A program used in a virtual assistant device comprising an interface for accepting and outputting input from a user, and a control unit for displaying a character embodied in a display unit constituting the interface,
The interface has at least one of a motion detection unit that detects an input motion from the user by contact or non-contact, or a voice input unit that acquires a voice signal indicating the voice of the user,
Using information in a storage unit that stores correspondence information that associates a plurality of options with topics, causes the interface to output the plurality of options corresponding to any topic, and selects one of the plurality of options to be output a step of causing the control unit to perform a first utterance control that causes the interface to output a conversation of the character that prompts the user to select either;
When a selection input for selecting one of the options is made through the interface after the first utterance control, after a predetermined period of time after the end of the first utterance control, the option selected by the selection input is selected. causing the control unit to perform a second utterance control for outputting related conversation to the interface as conversation of the character;
including.

上記のバーチャルアシスタント装置用のプログラムは、いずれかの話題に対応する複数の選択肢をインタフェースに出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェースに出力させるように制御することができるため、利用者に会話の楽しみを提供しつつ、会話と関連付けた形で利用者の意思を正確に確認することができる。そして、このような会話から時間をおいた後、選択入力で選択された選択肢に関連する会話をキャラクタの会話として提供することができるため、キャラクタが過去の会話の内容を覚えているような印象を与えやすい形で、ユーザに話を提供することができる。特に、このプログラムは、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを確実に抑えることができ、利用者がより一層関心をもちやすくなる。 The above program for the virtual assistant device can control the interface to output a plurality of options corresponding to any topic and to output the character's conversation related to the plurality of options to be output to the interface. Therefore, while providing the enjoyment of conversation to the user, it is possible to accurately confirm the intention of the user in a form associated with the conversation. After a period of time has passed from such conversation, the conversation related to the option selected by the selection input can be provided as the character's conversation, giving the impression that the character remembers the contents of the past conversation. It is possible to provide a story to the user in a form that makes it easy to give In particular, this program can reliably prevent the ``speech provided by the second speech control'' from greatly deviating from the ``choices selected by the user'', thereby making it easier for the user to be more interested.

本発明によれば、バーチャルアシスタント装置を利用する利用者の関心を高めやすい。 ADVANTAGE OF THE INVENTION According to this invention, it is easy to raise the interest of the user using a virtual assistant apparatus.

図1は、第1実施形態のバーチャルアシスタント装置を備えたバーチャルアシスタントシステムの電気的構成を簡略的に示すブロック図である。FIG. 1 is a block diagram schematically showing an electrical configuration of a virtual assistant system including a virtual assistant device according to the first embodiment. 図2は、第1実施形態のバーチャルアシスタント装置における通常表示の例1を示す説明図である。FIG. 2 is an explanatory diagram showing Example 1 of normal display in the virtual assistant device of the first embodiment. 図3は、管理装置に記憶された利用者データのデータ構造例を概念的に示す説明図である。FIG. 3 is an explanatory diagram conceptually showing a data structure example of user data stored in the management device. 図4は、管理装置に記憶されたコンテンツ関連データのデータ構造例を概念的に示す説明図である。FIG. 4 is an explanatory diagram conceptually showing an example data structure of content-related data stored in the management device. 図5は、第1実施形態のバーチャルアシスタント装置での制御の流れを例示するフローチャートである。FIG. 5 is a flowchart illustrating the flow of control in the virtual assistant device of the first embodiment; 図6は、第1実施形態のバーチャルアシスタント装置における通常表示の例2を示す説明図である。FIG. 6 is an explanatory diagram showing Example 2 of normal display in the virtual assistant device of the first embodiment. 図7は、第1実施形態のバーチャルアシスタント装置における通常表示の例3を示す説明図である。FIG. 7 is an explanatory diagram showing Example 3 of normal display in the virtual assistant device of the first embodiment. 図8は、第1実施形態のバーチャルアシスタント装置における通常表示の例4を示す説明図である。FIG. 8 is an explanatory diagram showing Example 4 of normal display in the virtual assistant device of the first embodiment. 図9は、第1実施形態のバーチャルアシスタント装置における「所定の報知」の一例を説明する説明図である。FIG. 9 is an explanatory diagram illustrating an example of "predetermined notification" in the virtual assistant device of the first embodiment. 図10は、第1実施形態のバーチャルアシスタント装置における通常表示の例5を示す説明図であり、報知情報が表示された例を示す図である。FIG. 10 is an explanatory diagram showing Example 5 of the normal display in the virtual assistant device of the first embodiment, and is a diagram showing an example in which notification information is displayed. 図11は、第1実施形態のバーチャルアシスタント装置でのコンテンツの提供例1を示す説明図である。FIG. 11 is an explanatory diagram showing example 1 of content provision by the virtual assistant device of the first embodiment. 図12は、第1実施形態のバーチャルアシスタント装置でのコンテンツの提供例2を示す説明図であり、図11の表示に続く表示の例である。FIG. 12 is an explanatory diagram showing Content Provision Example 2 in the virtual assistant device of the first embodiment, and is an example of display following the display of FIG. 11 . 図13は、第1実施形態のバーチャルアシスタント装置でのコンテンツの提供例3を示す説明図であり、図12の表示に続く表示の例である。FIG. 13 is an explanatory diagram showing Example 3 of content provision by the virtual assistant device of the first embodiment, and is an example of display following the display of FIG. 12 . 図14は、第1実施形態のバーチャルアシスタント装置でのコンテンツの提供例4を示す説明図であり、図13の表示に続く表示の例である。FIG. 14 is an explanatory diagram showing Content Provision Example 4 in the virtual assistant device of the first embodiment, and is an example of display following the display of FIG. 13 . 図15は、質問動作及び関連会話動作の具体例1についての1回目の第1発話制御を説明する説明図である。FIG. 15 is an explanatory diagram for explaining the first utterance control for the first specific example 1 of the question action and the related conversation action. 図16は、質問動作及び関連会話動作の具体例1についての2回目の第1発話制御を説明する説明図である。FIG. 16 is an explanatory diagram for explaining the second first utterance control for the specific example 1 of the question action and the related conversation action. 図17は、具体例1についての第2発話制御を説明する説明図である。17A and 17B are explanatory diagrams for explaining the second utterance control in the specific example 1. FIG. 図18は、具体例1についての第2発話制御を説明する説明図であり、図17に続く図である。FIG. 18 is an explanatory diagram for explaining the second speech control in the specific example 1, and is a diagram following FIG. 17 . 図19は、質問動作及び関連会話動作の具体例2についての第1発話制御を説明する説明図である。FIG. 19 is an explanatory diagram for explaining the first utterance control for specific example 2 of the question action and the related conversation action. 図20は、具体例2についての第2発話制御を説明する説明図である。20A and 20B are explanatory diagrams for explaining the second speech control in the second specific example. 図21は、具体例2についての第2発話制御を説明する説明図であり、図20に続く図である。FIG. 21 is an explanatory diagram for explaining the second speech control in the specific example 2, and is a diagram following FIG. 20 . 図22は、質問動作及び関連会話動作の具体例3についての第1発話制御を説明する説明図である。FIG. 22 is an explanatory diagram for explaining the first utterance control for specific example 3 of the question action and the related conversation action. 図23は、具体例3についての第2発話制御を説明する説明図である。23A and 23B are explanatory diagrams for explaining the second utterance control in the specific example 3. FIG. 図24は、具体例3についての第2発話制御を説明する説明図であり、図23に続く図である。FIG. 24 is an explanatory diagram for explaining the second speech control in the specific example 3, and is a diagram following FIG. 23 . 図25は、質問動作及び関連会話動作の具体例4についての第1発話制御を説明する説明図である。FIG. 25 is an explanatory diagram for explaining the first utterance control for specific example 4 of questioning action and related conversation action. 図26は、具体例4についての第2発話制御を説明する説明図である。FIG. 26 is an explanatory diagram for explaining the second speech control in specific example 4. FIG. 図27は、質問動作及び関連会話動作の具体例5についての第1発話制御を説明する説明図である。FIG. 27 is an explanatory diagram for explaining the first utterance control for specific example 5 of questioning action and related conversation action. 図28は、具体例5についての第2発話制御を説明する説明図である。28A and 28B are explanatory diagrams for explaining the second utterance control according to the specific example 5. FIG. 図29は、具体例6についてのコンテンツを説明する説明図1である。FIG. 29 is an explanatory diagram 1 for explaining contents of specific example 6. FIG. 図30は、具体例6についてのコンテンツを説明する説明図2である。FIG. 30 is an explanatory diagram 2 for explaining contents of specific example 6. FIG. 図31は、具体例6についてのコンテンツを説明する説明図3である。FIG. 31 is an explanatory diagram 3 for explaining contents of specific example 6. FIG.

<第1実施形態>
1.バーチャルアシスタントシステムの概要
図1に示されるバーチャルアシスタントシステム1は、バーチャルアシスタント装置10と、管理装置90と、を備える。以下の説明では、バーチャルアシスタントシステム1は、単にシステム1とも称される。以下で説明される代表例は、バーチャルアシスタント装置10が、高齢者向けのバーチャルアシスタント装置として機能するものであり、例えば、利用者が、介護施設、自宅、病院などで利用することができるものである。
<First embodiment>
1. Overview of Virtual Assistant System A virtual assistant system 1 shown in FIG. 1 includes a virtual assistant device 10 and a management device 90 . In the following description, the virtual assistant system 1 is also simply referred to as system 1 . A typical example described below is that the virtual assistant device 10 functions as a virtual assistant device for elderly people, and can be used by users in nursing homes, homes, hospitals, etc., for example. be.

2.バーチャルアシスタント装置のハードウェア構成
図1のように、バーチャルアシスタント装置10は、タブレット端末、スマートフォン、パーソナルコンピュータ、外部装置と通信可能に構成されたテレビジョンなどの汎用の情報端末にアプリケーションプログラムをインストールし、記憶及び利用可能とした情報通信端末であってもよく、後述される各機能を実現できる専用装置であってもよい。バーチャルアシスタント装置10は、通信機能を有する携帯型の情報装置であってもよく、通信機能を有する据置型の情報装置であってもよい。
2. Hardware Configuration of Virtual Assistant Device As shown in FIG. 1, a virtual assistant device 10 installs an application program in a general-purpose information terminal such as a tablet terminal, a smartphone, a personal computer, and a television configured to communicate with an external device. , an information communication terminal capable of storing and using the data, or a dedicated device capable of realizing each function described later. The virtual assistant device 10 may be a portable information device having a communication function, or may be a stationary information device having a communication function.

図1のように、バーチャルアシスタント装置10は、制御部11と通信部12とインタフェース13と記憶部14とを備える。以下で説明されるバーチャルアシスタント装置10の代表例は、バーチャルアシスタント装置10が、図2のようにタブレット端末によって実現される例である。 As shown in FIG. 1, the virtual assistant device 10 includes a control section 11, a communication section 12, an interface 13, and a storage section . A representative example of the virtual assistant device 10 described below is an example in which the virtual assistant device 10 is realized by a tablet terminal as shown in FIG.

図1に示される制御部11は、例えば公知の情報処理装置として構成される。制御部11は、CPUなどの公知の演算装置及び他の周辺回路などを備え、様々な制御や演算を行い得る。制御部11は、インタフェース13を構成する表示部15に、具現化されたキャラクタを表示させる機能を有する。 The control unit 11 shown in FIG. 1 is configured as, for example, a known information processing device. The control unit 11 includes a known arithmetic device such as a CPU and other peripheral circuits, and can perform various controls and arithmetic operations. The control unit 11 has a function of displaying an embodied character on the display unit 15 constituting the interface 13 .

図1に示される通信部12は、公知の有線通信方式又は公知の無線通信方式によって広域通信網に直接又は他装置を介して間接的にアクセス可能な装置である。通信部12は、基地局との間で無線通信を行い、図示されていない基地局を介して広域通信網(例えば、インターネット)に直接アクセスする構成であってもよい。通信部12は、図示されていないアクセスポイントとの間で無線通信を行い、アクセスポイントを介して広域通信網に間接的にアクセスする構成であってもよい。通信部12は、中継装置(ルータ等)との間で有線通信を行い、中継装置を介して広域通信網にアクセスする構成であってもよい。 The communication unit 12 shown in FIG. 1 is a device capable of accessing a wide area network directly or indirectly via another device by a known wired communication method or a known wireless communication method. The communication unit 12 may be configured to perform wireless communication with a base station and directly access a wide area communication network (for example, the Internet) via the base station (not shown). The communication unit 12 may be configured to perform wireless communication with an access point (not shown) and indirectly access the wide area network via the access point. The communication unit 12 may be configured to perform wired communication with a relay device (router, etc.) and access a wide area communication network via the relay device.

図1に示されるインタフェース13は、利用者からの入力の受入れおよび出力を行う装置である。インタフェース13は、表示部15と音声出力部16と操作部17と音声入力部18とを備える。 The interface 13 shown in FIG. 1 is a device that accepts and outputs input from a user. The interface 13 includes a display section 15 , an audio output section 16 , an operation section 17 and an audio input section 18 .

表示部15及び音声出力部16は、情報を出力する出力部として機能する。表示部15は、液晶ディスプレイや有機エレクトロルミネッセンスディスプレイなどの公知の画像表示装置として構成される。以下で説明される代表例では、表示部15は、タッチパネル式の表示装置の一部をなす。音声出力部16は、例えば公知のスピーカなどの発音装置によって構成されている。音声出力部16は、制御部11と協働して各種音声を出力する機能を有する。 The display unit 15 and the audio output unit 16 function as output units that output information. The display unit 15 is configured as a known image display device such as a liquid crystal display or an organic electroluminescence display. In the representative example described below, the display unit 15 forms part of a touch panel type display device. The voice output unit 16 is composed of, for example, a sounding device such as a known speaker. The voice output unit 16 has a function of outputting various voices in cooperation with the control unit 11 .

操作部17及び音声入力部18は、情報を入力する入力部として機能する。操作部17は、動作検出部の一例に相当し、接触方式での入力操作が可能とされた入力デバイスである。操作部17は、例えば、タッチパネルなどが好適例である。音声入力部18は、例えば公知のマイクなどの音声入力装置によって構成されている。音声入力部18は、入力される音を電気信号に変換して制御部11に与える機能を有する。音声入力部18は、利用者が音声入力部18に向かって声やその他の音を発した場合(具体的には、音声入力部18が検出可能な音声を利用者が発した場合)に利用者の音声を示す音声信号を取得するように機能する。 The operation unit 17 and the voice input unit 18 function as input units for inputting information. The operation unit 17 corresponds to an example of a motion detection unit, and is an input device capable of input operation by a contact method. A suitable example of the operation unit 17 is, for example, a touch panel. The voice input unit 18 is configured by, for example, a voice input device such as a known microphone. The voice input unit 18 has a function of converting an input sound into an electric signal and giving the electric signal to the control unit 11 . The voice input unit 18 is used when the user utters a voice or other sound toward the voice input unit 18 (specifically, when the user utters a voice that can be detected by the voice input unit 18). function to obtain an audio signal indicative of a person's voice.

以下で説明される代表例では、図2等で示されるように、表示部15と操作部17とがタッチパネル式表示装置20を構成する。タッチパネル式表示装置20は、単にタッチパネル20とも称される。図2等の例では、操作部17は、表示部15からの光を透過可能に構成され、表示部15からの画像を外部から視認可能な構成で透明性のパネルが表示部15を覆っている。 In the representative example described below, the display unit 15 and the operation unit 17 constitute a touch panel display device 20, as shown in FIG. The touch panel display device 20 is also simply referred to as the touch panel 20 . In the example of FIG. 2 and the like, the operation unit 17 is configured to be able to transmit light from the display unit 15, and a transparent panel covers the display unit 15 so that an image from the display unit 15 can be viewed from the outside. there is

記憶部14は、様々な情報を記憶する機能を有する。記憶部14は、半導体メモリ、HDD、SSD、など、公知の記憶装置が採用される。制御部11は、記憶部14に対して各種情報を書き込む機能や、記憶部14に記憶された各種情報を読み出す機能を有する。記憶部14には、後述されるアプリケーションプログラムなどの様々なプログラムが記憶されている。記憶部14には、管理装置90によって管理されているサイト、情報、プログラム等に対して広域通信網を介してアクセスするための識別情報(例えば、URL(Uniform Resource Locator)など)も記憶されている。 The storage unit 14 has a function of storing various information. The storage unit 14 employs a known storage device such as a semiconductor memory, HDD, SSD, or the like. The control unit 11 has a function of writing various information to the storage unit 14 and a function of reading various information stored in the storage unit 14 . Various programs such as an application program to be described later are stored in the storage unit 14 . The storage unit 14 also stores identification information (for example, URL (Uniform Resource Locator), etc.) for accessing sites, information, programs, etc. managed by the management device 90 via a wide area network. there is

3.管理装置
図1に示される管理装置90は、様々な情報処理機能や様々な演算機能を有する。管理装置90は、バーチャルアシスタント装置10の外部に設けられた外部装置である。管理装置90は、様々な情報を登録する機能、様々な情報を配信する機能、などを有する。管理装置90は、通信機能及び情報処理機能を有する装置であればよい。管理装置90は、例えば、CPU,記憶媒体、通信装置などを備えたコンピュータとして構成されている。図1の例では、管理装置90は、制御装置91と、通信部92、表示部93、入力部94、記憶部95、を備える。
3. Management Device The management device 90 shown in FIG. 1 has various information processing functions and various arithmetic functions. The management device 90 is an external device provided outside the virtual assistant device 10 . The management device 90 has a function of registering various information, a function of distributing various information, and the like. The management device 90 may be any device as long as it has a communication function and an information processing function. The management device 90 is configured as a computer including, for example, a CPU, a storage medium, a communication device, and the like. In the example of FIG. 1 , the management device 90 includes a control device 91 , a communication section 92 , a display section 93 , an input section 94 and a storage section 95 .

制御装置91は、例えば公知の情報処理装置として構成される。制御部11は、CPUなどの公知の演算装置及び他の周辺回路などを備え、様々な制御や演算を行い得る。 The control device 91 is configured, for example, as a known information processing device. The control unit 11 includes a known arithmetic device such as a CPU and other peripheral circuits, and can perform various controls and arithmetic operations.

通信部92は、公知の有線通信方式又は公知の無線通信方式によって広域通信網に直接又は他装置を介して間接的にアクセス可能な装置である。通信部92は、基地局との間で無線通信を行い、図示されていない基地局を介して広域通信網に直接アクセスする構成であってもよい。通信部92は、図示されていないアクセスポイントとの間で無線通信を行い、アクセスポイントを介して広域通信網に間接的にアクセスする構成であってもよい。通信部92は、中継装置(ルータ等)との間で有線通信を行い、中継装置を介して広域通信網にアクセスする構成であってもよい。 The communication unit 92 is a device capable of accessing a wide area network directly or indirectly via another device by a known wired communication method or a known wireless communication method. The communication unit 92 may be configured to perform wireless communication with a base station and directly access a wide area network via a base station (not shown). The communication unit 92 may be configured to perform wireless communication with an access point (not shown) and indirectly access the wide area network via the access point. The communication unit 92 may be configured to perform wired communication with a relay device (router, etc.) and access the wide area communication network via the relay device.

表示部93は、公知の画像表示装置として構成される。入力部94は、例えば、キーボード、マウス、タッチパネル、音声入力部など、公知の入力デバイスとして構成され、接触による操作や音声などによって情報の入力が可能とされる。記憶部95は、様々な情報を記憶する記憶装置である。記憶部95において、データベースが構成されていてもよい。 The display unit 93 is configured as a known image display device. The input unit 94 is configured as a known input device such as a keyboard, mouse, touch panel, voice input unit, etc., and enables input of information by touch operation or voice. The storage unit 95 is a storage device that stores various information. A database may be configured in the storage unit 95 .

4.管理装置からのコンテンツの配信
管理装置90には、情報の配信対象である利用者に関する情報が登録されている。図3は、図1に示される管理装置90の記憶部95に記憶される利用者データのデータ構造例を示している。図3のように、管理装置90に記憶される利用者データは、データベースを構成しており、各々の利用者に対応付けてID、登録種類、利用者情報が記憶されている。IDは、各々の利用者を識別可能な情報であり、各々の利用者を特定し得る識別情報である。登録種類は、利用者が希望する情報や利用者に有意義な情報の種類を登録する情報である。利用者情報は、利用者に関する各種情報であり、氏名、生年月日、メールアドレス、趣味、健康に関する情報、居住地、過去のエピソード等の個人情報を含んでいてもよく、コンテンツの配信先を特定する配信先情報を含んでいてもよい。例えば、図3の利用者データでは、利用者のIDとしてID1が特定されれば、「ID1」で特定される利用者が希望する情報の種類が「登録種類1」の情報によって特定され、その利用者の個人情報等が「利用者情報1」の情報によって特定される。
4. Distribution of Content from Management Apparatus In the management apparatus 90, information regarding users to whom information is to be distributed is registered. FIG. 3 shows an example data structure of user data stored in the storage unit 95 of the management device 90 shown in FIG. As shown in FIG. 3, user data stored in the management device 90 constitutes a database, in which an ID, registration type, and user information are stored in association with each user. The ID is information that can identify each user, and is identification information that can identify each user. The registration type is information for registering the type of information desired by the user and the type of information meaningful to the user. User information is various information about users, and may include personal information such as name, date of birth, email address, hobbies, health information, place of residence, past episodes, etc. It may contain information about the specified delivery destination. For example, in the user data of FIG. 3, if ID1 is specified as the user ID, the type of information desired by the user specified by "ID1" is specified by the information of "registration type 1". The personal information of the user is specified by the information of "user information 1".

本実施形態に係るシステム1では、「利用者が希望する情報の種類」や「利用者に有意義な情報」として、様々な種類が登録可能とされている。具体的には、「利用者が希望する情報の種類」や「利用者に有意義な情報」として、趣味又は生き甲斐に関する複数の種類が予め選定可能に用意され、それら複数の種類から選ばれるいずれか1以上の種類が登録情報に含まれていてもよい。趣味又は生き甲斐に関する種類としては、例えば、園芸、スポーツ、レクリエーション、体操、音楽、美術、料理、懐かしい景色や玩具、旅行、動物、乗り物、ショッピング情報など、様々な種類を用意しておくことができる。或いは、利用者が希望する情報の種類として、病気に関する複数の種類が予め選定可能に用意され、それら複数の種類から選ばれるいずれか1以上の種類が登録情報に含まれていてもよい。具体的には、老齢症候群の予防やリハビリテーションやリラクゼーションに関する複数の種類が予め選定可能に用意され、それら複数の種類から選ばれるいずれか1以上の種類が登録情報に含まれていてもよい。 In the system 1 according to the present embodiment, various types can be registered as "types of information desired by users" and "meaningful information for users". Specifically, multiple types of hobbies or purpose in life are prepared in advance as ``types of information desired by users'' and ``meaningful information for users'', and any of these types can be selected. One or more types may be included in the registration information. Various types of hobby or purpose of life can be prepared, such as gardening, sports, recreation, gymnastics, music, art, cooking, nostalgic scenery and toys, travel, animals, vehicles, and shopping information. . Alternatively, a plurality of types of disease-related information may be prepared in advance as types of information desired by the user, and one or more types selected from the plurality of types may be included in the registered information. Specifically, a plurality of types related to geriatric syndrome prevention, rehabilitation, and relaxation may be prepared in advance, and one or more types selected from the plurality of types may be included in the registration information.

例えば、図3の利用者データにおいて、ID1が「00001」の情報であり、登録種類1が「園芸、体操」を特定する情報であり、利用者情報1が、利用者名として「山田太郎」を特定し、配信先アドレスとして「アドレス情報1」を特定する情報であるとする。この場合、制御装置91は、利用者データを参照すれば、「00001」のIDで特定される利用者の氏名が「山田太郎」であり、配信先アドレスが「アドレス情報1」であり、この利用者が希望する種類が「園芸、体操」であることを特定することができる。 For example, in the user data of FIG. 3, ID1 is information of "00001", registration type 1 is information specifying "gardening, gymnastics", and user information 1 is "Taro Yamada" as a user name. and specifies "address information 1" as the delivery destination address. In this case, if the control device 91 refers to the user data, the name of the user identified by the ID of "00001" is "Taro Yamada" and the destination address is "address information 1". It is possible to specify that the type desired by the user is "gardening, gymnastics".

管理装置90は、コンテンツの登録及び配信を行うことが可能とされている。図4は、図4は、図1に示される管理装置90の記憶部95に記憶されるコンテンツ関連データのデータ構造例を示している。図4のように、管理装置90に記憶されるコンテンツ関連データは、データベースを構成しており、コンテンツ毎に、コンテンツ識別情報、コンテンツデータ、配信日時、コンテンツの種類が互いに対応付けられて記憶されている。本明細書では、コンテンツデータは、コンテンツ情報の一例に相当し、単にコンテンツとも称される。 The management device 90 is capable of registering and distributing content. FIG. 4 shows an example data structure of content-related data stored in the storage unit 95 of the management device 90 shown in FIG. As shown in FIG. 4, the content-related data stored in the management device 90 constitute a database, and for each content, content identification information, content data, distribution date and time, and type of content are stored in association with each other. ing. In this specification, content data corresponds to an example of content information and is also simply called content.

コンテンツ識別情報は、各々のコンテンツを識別可能且つ特定可能な情報であればよく、識別番号であってもよく、具体的な名称であってもよい。コンテンツデータは、コンテンツの具体的なデータであり、動画データ、静止画データ、音声データなどを含んでいてもよく、その他のデータ(例えば、プログラムデータ等)を含んでいてもよい。配信日時は、対応付けられたコンテンツ(コンテンツデータ)が配信される日時を特定する情報である。種類情報は、対応付けられたコンテンツ(コンテンツデータ)の種類を特定する情報である。種類情報で特定されるコンテンツの種類は、1種類であってもよく、複数種類であってもよい。 The content identification information may be information that can identify and specify each content, and may be an identification number or a specific name. Content data is specific data of content, and may include moving image data, still image data, audio data, etc., and may include other data (for example, program data, etc.). The distribution date and time is information specifying the date and time when the associated content (content data) is distributed. The type information is information specifying the type of associated content (content data). The type of content specified by the type information may be one type or a plurality of types.

管理装置90は、各識別情報で特定される各コンテンツ(コンテンツデータ)を、各コンテンツを配信すべき利用者(各コンテンツの種類を登録している利用者)のバーチャルアシスタント装置10に対し、各コンテンツに対応付けられた各配信日時に配信する。なお、図1では、一の利用者が所持する一のバーチャルアシスタント装置10のみが例示されているが、システム1では、多数の利用者がバーチャルアシスタント装置10を所持することができ、図1では、他の利用者が所持するバーチャルアシスタント装置10の図示は省略されている。管理装置90は、コンテンツを配信する場合において、そのコンテンツの配信対象の利用者が複数存在する場合、いずれの利用者のバーチャルアシスタント装置10に対してもコンテンツを配信することができる。なお、本実施形態では、管理装置90が各コンテンツを配信すべき利用者(各コンテンツの種類を登録している利用者)を特定し、当該利用者のバーチャルアシスタント装置10に対し、各コンテンツ(コンテンツデータ)を配信することとしたが、コンテンツの配信はこれに限られない。例えば、利用者のバーチャルアシスタント装置10が、自身の記憶部に記憶されている情報に基づき、管理装置90に対してコンテンツの配信を要求することで、当該利用者のバーチャルアシスタント装置10に対し、各コンテンツ(コンテンツデータ)を配信することとしてもよい。 The management device 90 sends each content (content data) specified by each identification information to the virtual assistant device 10 of the user to whom each content should be distributed (the user who has registered the type of each content). Deliver on each delivery date and time associated with the content. Although FIG. 1 illustrates only one virtual assistant device 10 possessed by one user, in the system 1, many users can possess the virtual assistant device 10, and in FIG. , the illustration of the virtual assistant device 10 possessed by another user is omitted. When distributing content, if there are a plurality of users to whom the content is to be distributed, the management device 90 can distribute the content to any user's virtual assistant device 10 . In this embodiment, the management device 90 specifies a user to whom each content should be distributed (a user who has registered the type of each content), and sends each content ( content data), but the content distribution is not limited to this. For example, the virtual assistant device 10 of the user requests the management device 90 to distribute the content based on the information stored in its own storage unit, so that the virtual assistant device 10 of the user: Each content (content data) may be distributed.

例えば、図4のコンテンツ関連データにおいて、「識別情報1」が「0000A」の情報であり、「データ1」が「園芸に関する所定の動画データ」であり、「日時情報1」が「2021年1月1日10:00」であり、「種類情報1」が「園芸」を特定する情報であるとする。この場合、制御装置91は、図4のコンテンツ関連データを参照すれば、「0000A」に対応付けられたコンテンツデータ(データ1の「園芸に関する所定の動画データ」)を、「園芸」の種類のデータとして、「2021年1月1日10:00」に配信すべきことを特定することができる。この場合、管理装置90は、識別情報1(0000A)で特定されるコンテンツデータ(データ1の「園芸に関する所定の動画データ」)を、「園芸」の種類のデータを登録する利用者(図3の利用者データにおいて、登録種類として「園芸」を含む利用者)のバーチャルアシスタント装置10に対し「2021年1月1日10:00」に配信する。 For example, in the content-related data of FIG. 4, "identification information 1" is information of "0000A", "data 1" is "predetermined video data related to gardening", and "date and time information 1" is "January 2021 10:00 on the first day of the month", and the "type information 1" is information specifying "gardening". In this case, the control device 91, referring to the content-related data in FIG. As data, it is possible to specify that it should be delivered at “10:00 on January 1, 2021”. In this case, the management device 90 allows the content data specified by the identification information 1 (0000A) (“Predetermined video data regarding gardening” in data 1) to be registered by the user who registers the data of the type “gardening” (see FIG. 3). (user whose user data includes "gardening" as a registration type) to the virtual assistant device 10 at "10:00 on January 1, 2021".

5.バーチャルアシスタント装置の受信制御
5-1.基本制御
バーチャルアシスタント装置10には、アプリケーションプログラムが記憶されている。このアプリケーションプログラムは、バーチャルアシスタント装置10にインストールされている。このアプリケーションプログラムは、記憶部14に記憶され、制御部11によって読み出されて実行される。
5. Reception control of virtual assistant device 5-1. Basic Control An application program is stored in the virtual assistant device 10 . This application program is installed in the virtual assistant device 10 . This application program is stored in the storage unit 14, read out by the control unit 11, and executed.

上述されたように、管理装置90は、バーチャルアシスタント装置10に対してコンテンツ(コンテンツデータ)を配信する。管理装置90からバーチャルアシスタント装置10に配信されるコンテンツは、バーチャルアシスタント装置10を所持する利用者が予め登録した種類に属するコンテンツであってもよく、利用者による登録に関係なく管理装置90が選定したコンテンツであってもよい。バーチャルアシスタント装置10は、管理装置90から自身に対して配信されるコンテンツを通信部12によって受信する。制御部11は、外部(管理装置90)から配信されるコンテンツ(コンテンツデータ)を通信部12が受けた場合に、そのコンテンツデータを記憶部14に記憶し、インタフェース13を介して「所定の報知」を行う制御を実行する。なお、「所定の報知」は、コンテンツデータを記憶部14に記憶する前に行ってもよい。 As described above, the management device 90 distributes content (content data) to the virtual assistant device 10 . Content distributed from the management device 90 to the virtual assistant device 10 may be content belonging to a type registered in advance by the user who owns the virtual assistant device 10, and selected by the management device 90 regardless of registration by the user. It may be content that has been created. The virtual assistant device 10 receives the content delivered to itself from the management device 90 by the communication unit 12 . When the communication unit 12 receives content (content data) distributed from the outside (the management device 90), the control unit 11 stores the content data in the storage unit 14, and issues a “predetermined notification” through the interface 13. ” to perform the control. Note that the “predetermined notification” may be performed before the content data is stored in the storage unit 14 .

具体的には、上記アプリケーションプログラムは、図5のような流れで制御部11に制御を行わせるプログラムである。制御部11は、所定の開始条件が成立した場合(例えば、操作部17に対して予め定められた開始操作(例えば、当該アプリケーションプログラムを起動させるためのタッチパネル20の操作)がなされた場合)に上記アプリケーションプログラムを実行し、ステップS1において、画像によって具現化されたキャラクタ70を表示部15に表示させる。 Specifically, the application program is a program that causes the control unit 11 to perform control according to the flow shown in FIG. When a predetermined start condition is satisfied (for example, when a predetermined start operation (for example, operation of the touch panel 20 for starting the application program) is performed on the operation unit 17), the control unit 11 The application program is executed, and the character 70 embodied by an image is displayed on the display unit 15 in step S1.

図2には、ステップS1でなされる表示の具体例が示される。図2において、キャラクタ70は、一般人を模したバーチャルアシスタント(擬人)である。図2に表示されるキャラクタ70は、あくまで一例であり、例えば、介護福祉士、看護師、医師などの特定の職業の者を模したバーチャルアシスタントであってもよい。また、人に限らず動物やロボット等を模したバーチャルアシスタントであってもよい。上記アプリケーションプログラムは、図2に表示されるキャラクタ70が自動的に会話を行うようにチャットボットの機能を実現するプログラムが備えられていてもよい。自動的に行う会話の内容は、利用者が事前に登録した属性(男女、家族構成、住宅環境、誕生日、趣味、コンテンツの難易度など)に合わせて、変更、選択することができる。図2に示されるキャラクタ70の画像は、静止画や動画などによって実現することができ、後述されるステップS3,S8の処理が実行されていない期間には、時間経過に応じて図6、図7,図8のようにキャラクタ70の表情、姿勢、動作、行為などを様々に変化させてもよい。 FIG. 2 shows a specific example of display performed in step S1. In FIG. 2, the character 70 is a virtual assistant (personification) imitating a general person. The character 70 displayed in FIG. 2 is merely an example, and may be, for example, a virtual assistant imitating a person of a specific occupation such as a care worker, a nurse, or a doctor. Also, the virtual assistant may be a virtual assistant imitating an animal, a robot, or the like, not limited to a person. The application program may include a program that realizes the function of a chatbot so that the character 70 displayed in FIG. 2 can automatically have a conversation. The content of the automatic conversation can be changed or selected according to the user's pre-registered attributes (gender, family structure, housing environment, birthday, hobbies, content difficulty, etc.). The image of the character 70 shown in FIG. 2 can be realized by a still image, a moving image, or the like. 7. As shown in FIG. 8, the facial expression, posture, motion, action, etc. of the character 70 may be changed in various ways.

制御部11は、ステップS1、S3、S4、S8等において、図2、図6~図8のようにキャラクタ70を表示させ、その場合には、表示部15に、季節、暦、日付、時刻等を表示してもよく、朝・昼・夕方・夜の時間帯をイメージするイラストレーション、写真、コンピューターグラフィック、その他の画像等を表示してもよい。例えば、図6は、予め定められた昼の時間帯の画像を示しており、この画像では、昼の時間帯であることを示すようにキャラクタ70の外側の背景の色を明るい色(具体的には予め定められた明色)で示している。一方、図8は、予め定められた夜の時間帯の画像を示しており、この画像では、夜の時間帯であることを示すようにキャラクタ70の外側の背景の色を暗い色(予め定められた暗色)で示している。 In steps S1, S3, S4, S8, etc., the control unit 11 causes the character 70 to be displayed as shown in FIGS. etc., or illustrations, photographs, computer graphics, other images, etc. that image the time zones of morning, noon, evening, and night may be displayed. For example, FIG. 6 shows an image of a predetermined daytime period. In this image, the color of the background outside the character 70 is changed to a bright color (specifically is shown in a predetermined light color). On the other hand, FIG. 8 shows an image during a predetermined nighttime period. In this image, the color of the background outside the character 70 is changed to a dark color (predetermined color) to indicate the nighttime period. shown in darker shades).

制御部11は、ステップS1の後、ステップS2において、会話開始条件が成立したか否かを判定する。会話開始条件は、バーチャルアシスタント装置10から会話を発する条件として予め定められた条件である。会話開始条件は、音声入力部18に対して所定の音声が入力されたこと(例えば、予め定められたウエイクワードが入力されたこと)であってもよい。以下で説明される代表例では、キャラクタ70の名前がウエイクワードとされており、このウエイクワードが音声入力されることが会話開始条件の一つとされている。なお、この例はあくまで一例であり、予め定められた挨拶(例えば「こんにちは」の言葉)がウエイクワードとされ、このウエイクワードが音声入力されることが会話開始条件の一つとされてもよい。会話開始条件は、これらの例に限定されず、例えば、操作部17に対して所定の操作がなされたこと(例えば、表示部15近傍をタップする操作がなされたこと)であってもよい。或いは、会話開始条件は、予め設定された予約時刻が到来したことであってもよい。 After step S1, the control unit 11 determines in step S2 whether or not the conversation start condition is satisfied. The conversation start condition is a condition predetermined as a condition for starting a conversation from the virtual assistant device 10 . The conversation start condition may be that a predetermined voice is input to the voice input unit 18 (for example, a predetermined wake word is input). In the representative example described below, the name of the character 70 is the wake word, and voice input of the wake word is one of the conversation start conditions. Note that this example is merely an example, and a predetermined greeting (for example, "Hello") may be used as a wake word, and voice input of this wake word may be set as one of the conditions for starting a conversation. The conversation start condition is not limited to these examples, and may be, for example, that a predetermined operation has been performed on the operation unit 17 (for example, an operation of tapping near the display unit 15 has been performed). Alternatively, the conversation start condition may be the arrival of a preset reservation time.

制御部11は、ステップS2において会話開始条件が成立した判定した場合、ステップS3に進んで会話又はコンテンツの提供を開始する。ステップS3での会話やコンテンツの提供は、後述されるステップS8と同様に行うことができる。一方、ステップS2において会話開始条件が成立していないと判定した場合、ステップS4に進んで通常表示を継続する。なお、ステップS2でのNo判定及びステップS5でのNo判定が繰り返される間は、図2、図6~図8のようなキャラクタ表示を継続させ、継続中には、キャラクタ70の表情、姿勢、動作、行為などを様々に変化させる。 When the control unit 11 determines in step S2 that the conversation start condition is established, the process proceeds to step S3 to start providing the conversation or content. Conversation and content provision in step S3 can be performed in the same manner as in step S8, which will be described later. On the other hand, if it is determined in step S2 that the conversation start condition is not met, the process proceeds to step S4 to continue normal display. While the No determination in step S2 and the No determination in step S5 are repeated, the character display as shown in FIGS. 2 and 6 to 8 is continued. To change actions, actions, etc.

制御部11は、ステップS3又はステップS4の後、ステップS5において、新たな配信があったか否かの判定を行う。制御部11は、ステップS5において、通信部12が管理装置90から配信されたコンテンツ(コンテンツデータ)を受けていない判定した場合、ステップS5においてNoと判定するとともにステップS2に処理を戻し、ステップS2以降の処理を再び行う。制御部11は、ステップS5において新たな配信があったと判定した場合、ステップS5においてYesと判定し、ステップS6以降の処理を行う。 After step S3 or step S4, the control unit 11 determines whether or not there is a new delivery in step S5. When the control unit 11 determines in step S5 that the communication unit 12 has not received the content (content data) distributed from the management device 90, it determines No in step S5 and returns the processing to step S2. The subsequent processing is performed again. If the control unit 11 determines that there is a new delivery in step S5, it determines YES in step S5, and performs the processing after step S6.

5-2.新たな配信があった場合
制御部11は、ステップS5において、通信部12が管理装置90から配信されたコンテンツ(コンテンツデータ)を受けたか否かを判定し、受けたと判定した場合、ステップS6において、インタフェース13に「所定の報知」を行わせる。「所定の報知」は、「バーチャルアシスタント装置10が外部から新たなコンテンツの配信を受けたことを伝える伝達情報」の表示や音声出力などである。上記伝達情報の表示や音声出力は、メッセージの表示や音声出力などであってもよく、新たなコンテンツの配信を受けたことを伝える記号や絵柄などの画像表示であってもよく、新たなコンテンツの配信を受けたことを伝える報知音(アラーム音やブザー音などの発生)の出力であってもよい。報知音としては、例えば日常生活で聴きなれた電話のベル音やチャーム音が好ましい。例えば、図9には、「所定の報知」の一例が示されている。図9の例では、「所定の報知」として、配信名で特定される配信が届いた旨のメッセージの画像72を表示部15に表示させているが、このようなメッセージ表示に代えて又はメッセージ表示と併用して音声によるメッセージ報知、絵柄等の画像表示、報知音の出力などを行ってもよい。例えば、キャラクタの会話により報知してもよい。
5-2. When there is a new delivery In step S5, the control unit 11 determines whether or not the communication unit 12 has received the content (content data) delivered from the management device 90. If it is determined that the content (content data) has been received, in step S6 , causes the interface 13 to perform "predetermined notification". The "predetermined notification" is the display or voice output of "communication information for notifying that the virtual assistant device 10 has received new content delivered from the outside". The display and voice output of the transmission information may be the display or voice output of a message, or may be an image display such as a symbol or pattern that conveys that new content has been delivered. It may be an output of a notification sound (generation of an alarm sound, a buzzer sound, etc.) to notify that the delivery of the information has been received. As the notification sound, for example, a ringing sound of a telephone or a charm sound, which is familiar in daily life, is preferable. For example, FIG. 9 shows an example of "predetermined notification". In the example of FIG. 9, as the "predetermined notification", the display unit 15 displays an image 72 of a message to the effect that the delivery identified by the delivery name has arrived. In combination with the display, it is also possible to perform message notification by voice, image display such as a pattern, output of notification sound, and the like. For example, the notification may be made by a character's conversation.

このように、上記のアプリケーションプログラムは、外部(管理装置90)から配信されるコンテンツデータ(コンテンツ情報)を通信部12が受けた場合に、ステップS6において、「インタフェース13を介して所定の報知を行う制御」を制御部11に実行させる。 In this way, when the communication unit 12 receives the content data (content information) distributed from the outside (the management device 90), the above application program, in step S6, "predetermines notification via the interface 13. control” is executed by the control unit 11.

制御部11は、ステップS6において、インタフェース13に「所定の報知」を行わせた後、ステップS7において、提供指示があったか否かを判定する。具体的には、制御部11は、ステップS7において、「インタフェース13を介してコンテンツの提供を指示する入力を受けたか否か」を判定する。 After causing the interface 13 to perform a "predetermined notification" in step S6, the control unit 11 determines whether or not there is a provision instruction in step S7. Specifically, in step S7, the control unit 11 determines "whether or not an input instructing provision of content has been received via the interface 13".

「コンテンツの提供を指示する入力」は、例えば、操作部17に対する所定操作であってもよく、所定の音声入力であってもよい。例えば、ステップS6の処理によって図9のような「所定の報知」がなされる例では、「所定の報知」のメッセージと共に2つの選択ボタン(「見ない」「見る」のボタン画像)が表示される。この場合、それら選択ボタンのうちの「見る」を選択する操作(例えば、「見る」の画像72をクリックする操作)が「コンテンツの提供を指示する入力」の一例に相当する。従って、ステップS6において図9のような表示が行われた後、「見る」を選択する操作がなされた場合、ステップS7では、コンテンツの提供を指示する入力を受けたと判定し、ステップS8の処理を実行する。 The “input for instructing provision of content” may be, for example, a predetermined operation on the operation unit 17 or a predetermined voice input. For example, in the example in which the "predetermined notification" as shown in FIG. 9 is performed by the process of step S6, two selection buttons (button images of "not see" and "see") are displayed together with the message of "predetermined notification". be. In this case, an operation of selecting "view" among the selection buttons (for example, an operation of clicking the image 72 of "view") corresponds to an example of "input instructing provision of content". Therefore, when an operation to select "view" is performed after the display as shown in FIG. 9 is performed in step S6, it is determined in step S7 that an input instructing provision of content has been received, and the process proceeds to step S8. to run.

制御部11は、ステップS7において「コンテンツの提供を指示する入力」を受けなかった判定した場合、ステップS9において新たに配信されたコンテンツデータを記憶部14に蓄積する。例えば、制御部11は、ステップS6において「所定の報知」を行った後、所定時間を経過するまで「コンテンツの提供を指示する入力」がなされない場合、図10のように、コンテンツデータ(コンテンツ情報)の配信があったことを示す報知情報の表示を表示部15に行わせる。例えば、管理装置90から新たに2つのコンテンツデータが配信され、ステップS6において図9のように「所定の報知」が行われた場合に、「所定の報知」の開始から所定時間を経過しても「見る」のボタンが押されなかった場合には、ステップS9に進み、新たに配信されてきたコンテンツデータを蓄積するとともに、図10のような画像を表示する。図10の画像では、報知情報として、新たに配信されたコンテンツのうち未提供となっているコンテンツの数を画像74によって表示している。なお、ステップS6において図9のように「所定の報知」が行われた場合に、「見ない」のボタンが選択された場合(即ち、コンテンツの提供の保留を指示する入力がなされた場合)にも、ステップS9に進んで同様の処理を行う。 If the control unit 11 determines in step S7 that it has not received the "input for instructing provision of content", it stores the newly distributed content data in the storage unit 14 in step S9. For example, after the "predetermined notification" is performed in step S6, if the "input for instructing provision of content" is not performed until a predetermined time elapses, the control unit 11 outputs the content data (content information) is displayed on the display unit 15. For example, when two pieces of content data are newly distributed from the management device 90 and "predetermined notification" is performed in step S6 as shown in FIG. If the "view" button has not been pressed, the process advances to step S9 to accumulate newly distributed content data and display an image such as that shown in FIG. In the image of FIG. 10, an image 74 displays, as notification information, the number of unprovided contents among newly distributed contents. Note that when the "predetermined notification" is performed in step S6 as shown in FIG. 9, the "not watch" button is selected (that is, when an input instructing suspension of provision of the content is made). Also, the process proceeds to step S9 and similar processing is performed.

制御部11は、ステップS7において「コンテンツの提供を指示する入力」を受けたと判定した場合、ステップS8において、会話やコンテンツを提供する表示を表示部15に行わせる。制御部11は、ステップS7でYesと判定してステップS8の処理を行う場合、管理装置90から新たに配信されたコンテンツデータ(コンテンツ情報)に基づくコンテンツの出力(例えば、新たに配信されたコンテンツデータに含まれる動画の再生や静止画の表示、音声の出力等)を表示部15や音声出力部16に行わせる。 If the control unit 11 determines in step S7 that it has received an "input for instructing provision of content", in step S8 it causes the display unit 15 to display a conversation or content. When determining Yes in step S7 and performing the process of step S8, the control unit 11 outputs content based on content data (content information) newly distributed from the management device 90 (for example, newly distributed content The display unit 15 and the audio output unit 16 are caused to reproduce moving images, display still images, output audio, etc. included in the data.

ステップS7でYesに進んだ場合にステップS8で行う制御は、「通信部12が受けたコンテンツに関する会話」を、インタフェース13を介して出力する制御である。図11~図14は、ステップS7でYesに進んだ場合に、制御部11がステップS8で行う制御の一例を示している。図11~図14は、管理装置90から「園芸」に関する「いきいき配信」というコンテンツが新たに配信された場合においてステップS8でこのコンテンツを提供する例であり、この例では、配信されたコンテンツデータに「園芸」に関する動画や会話データが含まれている。この場合、制御部11は、ステップS8において動作を再生しつつ会話のために音声を発するように制御を行う。例えば、図13の例では、ひまわり畑が表示されたタイミングで「夏の花、ひまわりは元気なイメージですね」という会話を発している。この会話を発する際には、キャラクタ70を表示させておくことで、キャラクタ70が話しかけている印象を与えることができる。なお、制御部11は、会話を発する場合、予め登録された利用者のニックネームで発話をしてもよい。 The control performed in step S8 when the process proceeds to Yes in step S7 is control for outputting the “conversation regarding the content received by the communication unit 12” via the interface 13. FIG. FIGS. 11 to 14 show an example of control performed by the control section 11 in step S8 when the process proceeds to Yes in step S7. FIGS. 11 to 14 show an example of providing the content in step S8 in the case where the content “lively delivery” related to “gardening” is newly delivered from the management device 90. In this example, the delivered content data contains videos and conversation data about "gardening". In this case, the control unit 11 performs control so as to reproduce the motion in step S8 and emit a voice for conversation. For example, in the example of FIG. 13, at the timing when the sunflower field is displayed, the conversation "Summer flowers, sunflowers have a lively image, don't they?" By displaying the character 70 when making this conversation, it is possible to give the impression that the character 70 is speaking. It should be noted that the control unit 11 may speak with the pre-registered nickname of the user when speaking.

制御部11は、ステップS8にてコンテンツの提供を行い、図13のように利用者に対して会話を発した場合には、その後、動作検出部が検出する動作又は音声入力部に入力される音声の少なくともいずれかに基づいて「利用者からの応答の認識」を試みる。例えば、操作部17に対する所定の応答操作(例えば、キャラクタ70やその他のデザインをタップする操作)や音声入力部18に対する所定の音声入力(例えば、言葉の入力)が「利用者からの応答」と定められている。制御部11は、インタフェース13において「利用者からの応答」があった場合に、この応答に対する更なる会話を、インタフェース13を介して出力するように制御を行う。「応答に対する更なる会話」は、提供されているコンテンツの種類の話題であってもよく、その種類とは異なる話題であってもよい。「応答に対する更なる会話」は、文字表示と音声出力を併用することが望ましいが、いずれか一方であってもよい。なお、制御部11が「応答に対する更なる会話」を発するように制御を行った場合、再び、「利用者からの応答の認識」を試みることが望ましい。そして、「利用者からの応答」があった場合には、この応答に対する更なる会話を、インタフェース13を介して出力することが望ましい。このように、「応答に対する更なる会話」と「利用者からの応答の認識」を繰り返すことで、会話を継続させることができる。 The control unit 11 provides the content in step S8, and when the user speaks to the user as shown in FIG. Attempt to "recognise user responses" based on at least one of the sounds. For example, a predetermined response operation to the operation unit 17 (for example, an operation of tapping the character 70 or other design) or a predetermined voice input to the voice input unit 18 (for example, input of words) is referred to as a “response from the user”. It is defined. When the interface 13 receives a "response from the user", the control unit 11 performs control so that a further conversation in response to this response is output via the interface 13. FIG. The "further conversation in response" may be a topic of the type of content being served, or a different topic than that type. It is desirable to use both character display and voice output for the "further conversation in response", but either one may be used. It should be noted that, when the control unit 11 performs control to issue a "further conversation in response to the response", it is desirable to attempt "recognition of the response from the user" again. Then, when there is a "response from the user", it is desirable to output a further conversation in response to this response via the interface 13. FIG. In this way, the conversation can be continued by repeating "further conversation in response to the response" and "recognition of the response from the user".

このように、制御部11は、インタフェース13を介して「コンテンツに関する会話」を出力した後、インタフェース13を介して「利用者からの応答」を認識した場合に、インタフェース13を介して「応答に対する会話」を出力するように制御を行う。ステップS8は、このような制御を制御部11に行わせるステップである。 In this way, when the control unit 11 recognizes a “response from the user” via the interface 13 after outputting “conversation about the content” via the interface 13, the control unit 11 via the interface 13 outputs “a response to the response”. Control to output "conversation". Step S8 is a step of causing the control unit 11 to perform such control.

なお、制御部11は、ステップS8にて会話を行う場合、音声の入出力と併用して、音声入力部18を介して音声入力された発話内容(利用者の発話内容)やバーチャルアシスタント装置10の発話内容(例えば、キャラクタ70の発話内容)を表示部15に文字で表示してもよい。 In addition, when the conversation is performed in step S8, the control unit 11 uses the voice input/output together with the speech content (user's speech content) input by voice via the voice input unit 18 and the virtual assistant device 10 (for example, the speech content of the character 70) may be displayed in characters on the display unit 15. FIG.

なお、図11~図14は、バーチャルアシスタント装置10と対応付けて登録されている種類(利用者が希望する種類)のコンテンツを提供する例が示されるが、ステップS8で提供するコンテンツや会話はこの例に限定されない。 11 to 14 show an example of providing content of the type registered in association with the virtual assistant device 10 (the type desired by the user). It is not limited to this example.

5-3.新たな配信が無い期間の通常動作の詳細
次の説明は、新たな配信が無い期間(ステップS5のNoと判定される期間)になされる通常動作の詳細に関する。この期間、制御部11は、主に、待機モードと会話モードとに切り替わる。本実施形態では、新たな配信が無い期間(ステップS5のNoと判定される期間)において、ステップS4の処理を継続するモードが待機モードの一例である。また、上記期間において、ステップS3の処理を継続するモードが会話モードの一例である。
5-3. Details of Normal Operation During No New Delivery Period The following description relates to details of the normal operation performed during the period during which there is no new delivery (the period during which No is determined in step S5). During this period, the control unit 11 mainly switches between the standby mode and the conversation mode. In this embodiment, a mode in which the process of step S4 is continued during a period in which there is no new distribution (a period in which No is determined in step S5) is an example of the standby mode. Further, the mode in which the process of step S3 is continued during the period described above is an example of the conversation mode.

会話モードは、ステップS2でYesと判定されてから、会話モードの終了条件が成立するまでのモードである。会話モードの終了条件は、会話モードで実行されたコンテンツが終了したことであってもよく、一定時間以上インタフェースに所定入力(例えば、音声入力やタッチパネルに対する操作等)がなされなかったことであってもよく、利用者からインタフェースに対して終了を指示する入力(終了を指示する音声入力や接触操作等)がなされたことであってもよい。会話モードは、具体的には、制御部11がウエイクワード以外の言葉を検出するモードである。制御部11は、会話モード中にインタフェースに音声が入力された場合、インタフェースに入力された音声を解析し、その音声が意味する言葉を公知の方法で認識する。 The conversation mode is a mode from when it is judged as Yes in step S2 until the termination condition of the conversation mode is satisfied. The termination condition of the conversation mode may be that the content executed in the conversation mode has ended, or that a predetermined input (for example, voice input, touch panel operation, etc.) has not been made to the interface for a certain period of time or longer. Alternatively, the user may input an instruction to end the interface (such as a voice input or a touch operation to instruct the end). Specifically, the conversation mode is a mode in which the control unit 11 detects words other than wake words. When voice is input to the interface during conversation mode, the control unit 11 analyzes the voice input to the interface and recognizes the words that the voice means by a known method.

待機モードは、ステップS2でNoと判定される期間のモードであり、会話モードが解除されているときのモードである。待機モードは、上記インタフェースにウエイクワードが入力されたか否かを制御部11が監視するモードである。制御部11は、待機モード中にインタフェースに音声が入力された場合、その音声がウエイクワードであるか否かを公知の方法で判定する。但し、制御部11は、待機モード中にインタフェースに入力される音声からウエイクワード以外の音声は認識しない。つまり、制御部11は、待機モードのときには、ウエイクワード以外の音声認識する必要が無く、ウエイクワードであるか否かの判定を行うだけで済むため、会話モードのときよりも音声の認識を簡略化することができる。 The standby mode is a mode during which No is determined in step S2, and is a mode when the conversation mode is canceled. The standby mode is a mode in which the controller 11 monitors whether or not a wake word has been input to the interface. When voice is input to the interface during the standby mode, the control unit 11 determines by a known method whether or not the voice is the wake word. However, the control unit 11 does not recognize any voice other than the wake word from the voice input to the interface during the standby mode. That is, in the standby mode, the control unit 11 does not need to recognize voices other than the wake word, and only determines whether or not it is the wake word. can be

図5のフローチャートで示されるように、制御部11は、ステップS2、S5でNoの判定が繰り返される期間は待機モードに設定され、待機モード中には、ウエイクワードの検出を継続的に試みる。制御部11は、待機モード中にインタフェース13にウエイクワードが音声入力されたことを検出した場合、ステップS2にてYesと判定するとともに会話モードに切り替わり、処理をステップS3に進める。そして、会話モードの終了条件が成立するまで、会話モードを継続する。制御部11は、会話モードの終了条件が成立した場合、待機モードに切り替わり、待機モードを継続する。制御部11は、待機モード中に、キャラクタが待機動作を行う画像を表示部15に表示させることもできる。 As shown in the flowchart of FIG. 5, the control unit 11 is set to the standby mode during the period in which the determination of No is repeated in steps S2 and S5, and continuously tries to detect the wake word during the standby mode. When the control unit 11 detects that the wake word has been voice-inputted to the interface 13 during the standby mode, it determines Yes in step S2, switches to the conversation mode, and advances the process to step S3. Then, the conversation mode is continued until the end condition of the conversation mode is satisfied. When the end condition of the conversation mode is satisfied, the control unit 11 switches to the standby mode and continues the standby mode. The control unit 11 can also cause the display unit 15 to display an image in which the character performs a standby action during the standby mode.

バーチャルアシスタント装置がステップS3、S8で提供するコンテンツは、単に静止画を表示したり単に動画を流したりするコンテンツであってもよいが、バーチャル体験ができるコンテンツであってもよい。バーチャル体験ができるコンテンツは、図21のような疑似的にドライブ体験ができるコンテンツや、図24のような疑似的に仕事体験ができるコンテンツや、図29~図31のような疑似的に育成や飼育などの体験ができるコンテンツなどが挙げられる。なお、ステップS3でいずれのコンテンツを実施するかは、ユーザが選択できるようになっていることが望ましい。ユーザによるコンテンツの選択方法は、例えば、複数種類のコンテンツ名をタッチパネル20に表示させたうえで、ユーザが希望するコンテンツを選択するような方法であってもよく、キャラクタ70が会話の中で「旅行の動画を見ましょうか?」といった具合にコンテンツの種類を提案し、それに応じてユーザが希望する指示(タップ操作や指示する用語の音声入力など)を行った場合に、そのコンテンツが選択されるようにしてもよい。これらの方法に限定されず、他の方法でコンテンツが選択されてもよい。 The content provided by the virtual assistant device in steps S3 and S8 may be content for simply displaying a still image or simply playing a moving image, or may be content that allows a virtual experience. Contents that allow a virtual experience include content that allows a pseudo driving experience as shown in FIG. 21, content that allows a pseudo work experience as shown in FIG. Examples include content that allows you to experience raising animals. In addition, it is desirable that the user can select which content is performed in step S3. The content selection method by the user may be, for example, a method in which a plurality of types of content names are displayed on the touch panel 20 and the user selects the desired content. Would you like to watch a travel video?", and when the user performs a desired instruction (tap operation, voice input of a term to be instructed, etc.) in response to the suggestion, that content is selected. You may do so. Content may be selected by other methods without being limited to these methods.

5-4.質問動作及び関連会話動作の具体例1
次の説明は、ステップS3、S8でなされる会話の具体例に関する。
制御部11は、図5の制御においてステップS3の処理で採用する会話として、様々な種類の会話を採用し得る。その一つとして、図15、図16のように、利用者に対して質問をするような会話を提供することができる。利用者に質問する会話(質問会話)を提供する場合、コンテンツの提供とは関連無く独立して質問会話を提供してもよく、図11~図14のようにコンテンツを提供した後又は提供途中で、コンテンツに関連する内容の質問会話を提供してもよい。
5-4. Concrete Example 1 of Question Action and Related Conversation Action
The following description relates to specific examples of conversations that take place in steps S3 and S8.
The control unit 11 can employ various types of conversations as the conversations employed in the process of step S3 in the control of FIG. As one of them, as shown in FIGS. 15 and 16, it is possible to provide conversations in which questions are asked to the user. When providing a conversation to ask questions to the user (question conversation), the question conversation may be provided independently of the provision of the content, and after or during the provision of the content as shown in FIGS. , may provide a question conversation of content related to the content.

制御部11は、質問会話を提供する提供条件が成立した場合、予め定められた方法で選定される質問会話を提供するようにインタフェース13を動作させる。具体的には、制御部11は、図15、図16のように、いずれかの話題に対応する複数の選択肢をインタフェース13に出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェース13に出力させるように第1発話制御を行う。図15、図16の例では、いずれかの話題の質問と、質問に対する答えの候補である複数の選択肢と、を含んだキャラクタの会話を表示部15に表示させるように第1発話制御を行っている。なお、図5の制御を実行するためのプログラムにおいて、ステップS3又はステップS8を実行するためのプログラムの一部が、「第1発話制御を制御部11に行わせるステップ」の一例に相当する。 The control unit 11 operates the interface 13 so as to provide a question conversation selected by a predetermined method when a provision condition for providing a question conversation is satisfied. Specifically, as shown in FIGS. 15 and 16, the control unit 11 causes the interface 13 to output a plurality of options corresponding to any of the topics, and allows the interface to display the character's conversation related to the plurality of options that are output. The first utterance control is performed so that 13 is output. In the examples of FIGS. 15 and 16, the first utterance control is performed so that the display unit 15 displays the character's conversation including a question on one of the topics and a plurality of options that are candidates for the answer to the question. ing. In the program for executing the control in FIG. 5, a part of the program for executing step S3 or step S8 corresponds to an example of "the step of causing the control unit 11 to perform the first utterance control".

なお、このような第1発話制御を実現するためには、「話題」と「質問」と「複数の選択肢」を対応付けた対応情報が複数種類用意され、このような複数種類の対応情報が記憶部14に記憶されていることが望ましい。例えば、「旅行」の話題が用意されている場合、「旅行」という話題の種類と「旅行」の話題に関する質問(図15参照)とその質問に対する回答の候補である複数の選択肢(図15参照)とを互いに対応付けて含んだ第1の対応情報が記憶部14に記憶されていればよい。また、「乗り物」の話題が用意されている場合、「乗り物」という話題の種類と「乗り物」の話題に関する質問(図19参照)とその質問に対する回答の候補である複数の選択肢(図19参照)とを互いに対応付けて含んだ第2の対応情報が記憶部14に記憶されていればよい。また、「仕事」の話題が用意されている場合、「仕事」という話題の種類と「仕事」の話題に関する質問(図22参照)とその質問に対する回答の候補である複数の選択肢(図22参照)とを互いに対応付けて含んだ第3の対応情報が記憶部14に記憶されていればよい。このようになっていれば、制御部11は、いずれかの話題を選定した場合に、記憶部14に記憶される複数種類の対応情報の中から選定した話題に対応する対応情報(選定した話題に対応する「質問」とその「質問」に対する回答の候補である「複数の選択肢」とを含む対応情報)を読み出すことができ、読み出した対応情報に基づいて、選定された話題に対応付けられた質問及び選択肢を把握することができる。 In addition, in order to realize such first utterance control, a plurality of types of correspondence information are prepared in which a "topic", a "question", and a "plurality of options" are associated with each other. It is desirable that the information is stored in the storage unit 14 . For example, when the topic of "travel" is prepared, the type of the topic "travel", the question (see FIG. 15) related to the topic of "travel", and the multiple options (see FIG. 15) that are candidates for the answer to the question. ) in association with each other is stored in the storage unit 14 . Further, when the topic of "vehicles" is prepared, the type of the topic "vehicles", the question (see FIG. 19) related to the topic of "vehicles", and the multiple options (see FIG. 19) which are the answer candidates for the question. ) in association with each other is stored in the storage unit 14 . In addition, when the topic of "work" is prepared, the type of the topic of "work", the question about the topic of "work" (see FIG. 22), and the multiple options (see FIG. 22) that are candidates for the answer to the question. ) in association with each other is stored in the storage unit 14 . With this configuration, when any topic is selected, the control unit 11 selects corresponding information (selected topic corresponding information (including the "question" corresponding to the "question" and "multiple choices" that are candidates for the answer to the "question"), and based on the read correspondence information, it is associated with the selected topic. can grasp the questions and options presented.

なお、対応情報の「話題」は、独立した話題であってもよく、「いずれかの話題の対応情報において当該話題に対応付けられた選択肢」の話題であってもよい。例えば、「旅行」の話題の対応情報において「旅行」に対応する選択肢として「北海道」「沖縄」「東北」の選択肢が含まれる場合に、「北海道」が別途一つの話題とされ、この話題(北海道の話題)に対応する対応情報として、北海道に関する質問(例えば、図16のような北海道で買いたいお土産を問う質問)とこの質問に対する回答候補としての複数の選択肢(例えば、図16のような、じゃがいも、チーズ、トウモロコシなどの選択肢)とを含む対応情報が別途記憶されていてもよい。 Note that the "topic" of the correspondence information may be an independent topic, or may be a topic of "options associated with the topic in the correspondence information of any topic". For example, when the corresponding information for the topic of "travel" includes options of "Hokkaido", "Okinawa", and "Tohoku" as options corresponding to "travel", "Hokkaido" is treated as a separate topic, and this topic ( As correspondence information corresponding to the topic of Hokkaido), a question about Hokkaido (for example, a question asking what souvenirs you want to buy in Hokkaido as shown in FIG. 16) and multiple options as answer candidates for this question (for example, as shown in FIG. 16). , potato, cheese, corn, etc.) may be stored separately.

このように記憶されていれば、例えば、1回目の第1発話制御でいずれかの話題に関する質問を行った際に、その質問に応じていずれかの選択肢が選択された場合(例えば、図15の質問において北海道が選択された場合)に、その選択された選択肢の話題に対応付けられた対応情報が記憶部14に記憶されている場合(例えば、上記「北海道」に対応付けて図16のような「北海道のお土産」の話題に対応付けられた対応情報が記憶部14に記憶されている場合)には、制御部11は、その選択肢の話題に対応付けられた対応情報に基づいて質問及び複数の選択肢を提供することができる。つまり、制御部11は、第1発話制御の際に選択された選択肢を話題とする対応情報が存在する場合には、その対応情報に基づき、第1発話制御の際に選択された選択肢に関する質問とその質問に対する回答の候補である複数の選択肢を、図16のようなキャラクタの会話によって提供するように、2回目の第1発話制御を行うことができる。なお、いずれの場合でも、対応情報は、記憶部14に継続的に記憶されていてもよく、必要に応じて管理装置90からバーチャルアシスタント装置10に配信されて記憶部14に記憶されてもよい。 If stored in this way, for example, when a question about any topic is asked in the first utterance control for the first time, one of the options is selected in response to the question (for example, FIG. 15 If Hokkaido is selected in the question), and the corresponding information associated with the topic of the selected option is stored in the storage unit 14 (for example, if it is associated with the above "Hokkaido", (If the correspondence information associated with the topic of "Hokkaido souvenir" is stored in the storage unit 14), the control unit 11, based on the correspondence information associated with the topic of the option, Questions and multiple options can be provided. That is, if there is correspondence information whose topic is the option selected during the first utterance control, the control unit 11 asks a question about the option selected during the first utterance control based on the correspondence information. The first utterance control can be performed for the second time so as to provide a plurality of options, which are candidates for the answer to the question, through the character's conversation as shown in FIG. In either case, the correspondence information may be continuously stored in the storage unit 14, or may be distributed from the management device 90 to the virtual assistant device 10 and stored in the storage unit 14 as necessary. .

第1発話制御で提供する質問の話題は、予め登録情報において利用者(図5の制御で提供対象とする利用者)に対応付けられた情報の種類に関する話題であってもよく、ステップS3、S8で提供するコンテンツに関する話題であってもよい。例えば、登録情報において利用者に対して「旅行」が対応付けられて登録されている場合、この「旅行」に関する質問会話として図15のような情報を提供してもよい。或いは、ステップS3やS8において「旅行」に関するコンテンツ(動画等)を表示する場合、「旅行」のコンテンツの提供が終了した後又は提供途中で、「旅行」に関する質問会話として図15のような情報を提供してもよい。図15のような『「旅行」に関する質問会話』を可能にするためには、「旅行」の話題とこの話題に対応する複数の選択肢とを対応付けた対応情報が記憶部14に記憶されていればよい。 The topic of the question provided in the first utterance control may be a topic related to the type of information previously associated with the user (the user to be provided in the control of FIG. 5) in the registered information. The topic may be related to the content provided in S8. For example, when "travel" is associated with the user in the registration information and registered, information such as that shown in FIG. 15 may be provided as a question conversation regarding this "travel". Alternatively, when displaying content (movie, etc.) related to "travel" in steps S3 and S8, information such as that shown in FIG. may be provided. In order to enable the "question conversation about 'travel'" as shown in FIG. All you have to do is

図15の例では、旅行の話題に関する質問として「行きたい都道府県」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的な都道府県名を示した複数の選択肢が採用されている。なお、制御部11は、図15、図16のように第1発話制御を行う場合、表示部15に表示される会話(質問や選択肢の言葉など)をキャラクタ70が読み上げるように音声出力部16に音声を出力させることが望ましい。 In the example of FIG. 15, a question about "the prefecture you want to visit" is adopted as a question about the topic of travel, and a plurality of choices indicating a plurality of types of specific prefecture names are adopted as candidates for the answer to the question. ing. When performing the first utterance control as shown in FIGS. 15 and 16, the control unit 11 controls the voice output unit 16 so that the character 70 reads out the conversation (such as questions and options) displayed on the display unit 15. It is desirable to output audio to

制御部11は、第1発話制御において、図15のように複数の選択肢を出力するようにインタフェース13を制御した場合、複数の選択肢が出力された後にインタフェース13を介していずれかの選択肢を選択する選択入力がなされるか否かを確認する。図15の例では、「いずれかの選択肢を選択する選択入力」は、タッチパネル20において各選択肢(具体的には、北海道、沖縄、東北、の各々)が表示された各領域のいずれかの表面に接触する操作である。例えば、図15の状態で、タッチパネル20における『「北海道」の選択肢が表示された領域の表面に接触する操作(利用者による操作)』がなされた場合、制御部11は、「利用者」と「操作によって選択された選択肢」と「質問内容」とを対応付けた情報を記憶部14に記憶する(具体的には、利用者が行きたい都道府県が北海道であることを特定する結果情報を記憶部14に記憶する)。 When controlling the interface 13 to output a plurality of options as shown in FIG. 15 in the first speech control, the control unit 11 selects one of the options via the interface 13 after the plurality of options are output. It is confirmed whether the selection input to do is made. In the example of FIG. 15, the “selection input to select one of the options” is any surface of each area where each option (specifically, each of Hokkaido, Okinawa, and Tohoku) is displayed on the touch panel 20 This is an operation that touches the For example, in the state of FIG. 15 , when an “operation (user operation) of touching the surface of the area where the option of “Hokkaido” is displayed” is performed on the touch panel 20, the control unit 11 selects “user”. Information that associates "options selected by operation" and "question content" is stored in the storage unit 14 (specifically, result information that specifies that the prefecture that the user wants to visit is Hokkaido is stored in the storage unit 14). stored in the storage unit 14).

質問会話は、1回で終わらせてもよく、図15、図16のように複数の質問会話を行ってもよい。図15、図16の例は、図15のような質問会話(一回目の質問会話)の後に、一回目の質問会話で選択された選択肢に関する更なる質問会話(二回目の質問会話)を提供する例である。 The question conversation may be completed in one session, or a plurality of question conversations as shown in FIGS. 15 and 16 may be conducted. In the examples of FIGS. 15 and 16, after the question conversation (first question conversation) as shown in FIG. 15, a further question conversation (second question conversation) regarding the options selected in the first question conversation is provided. This is an example of

図16の例では、一回目の質問会話で選択された選択肢に関する質問として「北海道に行った場合に買いたいお土産」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的なお土産名を示した複数の選択肢が採用されている。この例でも、制御部11は、図16のように複数の選択肢を出力するようにインタフェース13を制御した場合、複数の選択肢が出力された後にインタフェース13を介していずれかの選択肢を選択する選択入力がなされるか否かを確認する。図16の例では、「いずれかの選択肢を選択する選択入力」は、タッチパネル20において各選択肢(具体的には、じゃがいも、チーズ、とうもろこし、の各々)が表示された各領域のいずれかの表面に接触する操作である。例えば、図16の状態で、タッチパネル20における『「チーズ」の選択肢が表示された領域の表面に接触する操作(利用者による操作)』がなされた場合、制御部11は、「利用者」と「操作によって選択された選択肢」と「質問内容」とを対応付けた情報を記憶部14に記憶する(具体的には、利用者が北海道に言った場合に買いたいお土産がチーズであることを特定する結果情報を記憶部14に記憶する)。 In the example of FIG. 16, a question about "souvenirs I would like to buy when I go to Hokkaido" is adopted as a question about the option selected in the first question conversation, and a plurality of types of concrete answer candidates are used as candidates for the answer to the question. In addition, multiple options indicating the name of the souvenir are adopted. In this example as well, when the control unit 11 controls the interface 13 to output a plurality of options as shown in FIG. Confirm whether or not an input is made. In the example of FIG. 16, the "selection input for selecting one of the options" is any surface of each area where each option (specifically, each of potato, cheese, and corn) is displayed on the touch panel 20. This is an operation that touches the For example, in the state of FIG. 16 , when an “operation (user operation) of touching the surface of the area where the option of “cheese” is displayed” is performed on the touch panel 20, the control unit 11 Information that associates "options selected by operation" and "contents of questions" is stored in the storage unit 14 (specifically, if the user goes to Hokkaido, the souvenir he or she wants to buy is cheese). is stored in the storage unit 14).

制御部11は、ステップS3又はS8において第1発話制御を行った場合、第1発話制御に応じてなされる上述の選択入力を確認し、選択入力が確認された場合には上述の結果情報を記憶部14に記憶した後に、第1発話制御を終了する。制御部11は、ステップS3で第1発話制御を行った場合、第1発話制御の終了後には、ステップS3以降の処理を行う。制御部11は、ステップS8で第1発話制御を行った場合、第1発話制御の終了後には、ステップS8以降の処理を行う。 When the first utterance control is performed in step S3 or S8, the control unit 11 confirms the above-mentioned selection input performed in response to the first utterance control, and when the selection input is confirmed, the above-mentioned result information is transmitted. After storing in the storage unit 14, the first utterance control ends. When the first utterance control is performed in step S3, the control unit 11 performs the processing after step S3 after the first utterance control is finished. When the first utterance control is performed in step S8, the control unit 11 performs the processes after step S8 after the first utterance control is finished.

制御部11は、上述の第1発話制御の終了後、所定期間をおいてから、第2発話制御を行う。「所定期間」は、ある程度の期間が経過したことの基準であればよく、例えば、1週間や1か月などの「予め定められた一定期間」であってもよく、「コンテンツが所定回数視聴されるまでの期間」などであってもよく、「コンテンツが所定個数配信されるまでの期間」などであってもよい。 The control unit 11 performs the second utterance control after a predetermined period of time after the first utterance control ends. The 'predetermined period' may be a standard indicating that a certain amount of time has passed, for example, it may be a 'predetermined period of time' such as one week or one month. It may be a period until the content is distributed" or the like, or a period until a predetermined number of contents are distributed".

具体的には、制御部11は、「第1発話制御が終了してから所定期間が経過する」という第1条件を満たし、且つ、「予め定められた発話開始条件が成立する」という第2条件を満たした場合に、第2発話制御を行う。つまり、第1条件及び第2条件を満たすことが第2発話制御の開始条件である。第2条件である上記発話開始条件は、例えば、「第1発話制御で選択された選択肢に関するコンテンツが管理装置から配信されたこと」であってもよく、「所定の曜日になること」や「所定の日にちになること」であってもよく、「ステップS2の会話開始条件が成立すること」であってもよい。 Specifically, the control unit 11 satisfies a first condition that "a predetermined period of time has elapsed since the end of the first speech control", and satisfies a second condition that "a predetermined speech start condition is satisfied". When the conditions are satisfied, the second speech control is performed. That is, the condition for starting the second speech control is to satisfy the first condition and the second condition. The speech start condition, which is the second condition, may be, for example, ``that the content related to the option selected in the first speech control has been delivered from the management device'', ``that it is a predetermined day of the week'', or `` It may be "a predetermined date" or "a conversation start condition of step S2 is satisfied".

図17、図18で示される代表例では、「第1発話制御で選択された選択肢に関するコンテンツが管理装置90から配信されたこと」が、上記発話開始条件が成立することである。例えば、上述の第1発話制御が終了してから上記所定期間が経過した後、ステップS4の通常表示を継続しているときに「第1発話制御で選択された選択肢(北海道)に関するコンテンツ」が管理装置90からバーチャルアシスタント装置10に配信された場合(即ち、コンテンツの配信があり且つ第2発話制御の開始条件を満たしている場合)、制御部11は、ステップS5においてYesと判定し、ステップS6において、図17のようにインタフェース13に「所定の報知」を行わせた後、ステップS7において、提供指示があったか否かを判定する。制御部11は、ステップS7では、図17のような表示状態において「見る」又は「見ない」のいずれかが選択されたかを判定し、図17のような表示を開始してから所定時間を経過しても「見る」のボタンが押されなかった場合又は「見ない」のボタンが選択された場合には、ステップS9に進み、新たに配信されてきたコンテンツデータを蓄積する。一方、制御部11は、図17のような表示状態において「見る」のボタンが選択された場合には、図18のような画像を表示するように第2発話制御を行う。図18の例では、制御部11は、図15、図16のような第1発話制御において上記選択入力(「北海道」「チーズ」を選択する入力)で選択された選択肢(北海道、チーズ)に関連する話を、キャラクタ70からの発話としてインタフェース13に出力させるように第2発話制御を行っている。この例では、図5の制御を実行するためのプログラムにおいて、ステップS5、S6、S7、S8を実行するためのプログラムが、「第2発話制御を制御部11に行わせるステップ」の一例に相当する。 In the representative examples shown in FIGS. 17 and 18, the above-mentioned speech start condition is met when "the content relating to the option selected in the first speech control is delivered from the management device 90". For example, after the predetermined period of time has elapsed since the end of the first utterance control, the "content related to the option (Hokkaido) selected in the first utterance control" is displayed while the normal display in step S4 is being continued. When delivered from the management device 90 to the virtual assistant device 10 (that is, when the content is delivered and the condition for starting the second utterance control is satisfied), the control unit 11 determines Yes in step S5, and step In S6, after causing the interface 13 to perform "predetermined notification" as shown in FIG. 17, in step S7, it is determined whether or not there is a provision instruction. In step S7, the control unit 11 determines whether either "view" or "not view" is selected in the display state as shown in FIG. If the "view" button has not been pressed or the "not view" button has been selected, the process proceeds to step S9 to store newly distributed content data. On the other hand, when the "view" button is selected in the display state as shown in FIG. 17, the control unit 11 performs the second speech control so as to display the image as shown in FIG. In the example of FIG. 18, the control unit 11 selects the option (Hokkaido, cheese) selected by the selection input (input for selecting "Hokkaido" and "cheese") in the first utterance control as shown in FIGS. The second speech control is performed so that the interface 13 outputs the related story as speech from the character 70 . In this example, in the program for executing the control in FIG. 5, the program for executing steps S5, S6, S7, and S8 corresponds to an example of "the step of causing the control unit 11 to perform the second utterance control." do.

具体的には、制御部11は、上述の選択入力で選択された選択肢(北海道)の言葉を含む会話をキャラクタ70の会話としてインタフェース13に出力させるように第2発話制御を行っている。更に、制御部11は、上述の選択入力で選択された選択肢(チーズ)の言葉を含む会話をキャラクタ70の会話として当該選択肢(チーズ)の画像とともにインタフェース13に出力させるように第2発話制御を行っている。なお、制御部11は、図18のように第2発話制御を行う場合、表示部に表示される会話(言葉)をキャラクタ70が読み上げるように音声を出力することが望ましい。 Specifically, the control unit 11 performs the second utterance control so as to cause the interface 13 to output the conversation including the words of the option (Hokkaido) selected by the selection input as the conversation of the character 70 . Furthermore, the control unit 11 performs second utterance control so that the interface 13 outputs the conversation including the word of the option (cheese) selected by the selection input as the conversation of the character 70 together with the image of the option (cheese). Is going. When performing the second utterance control as shown in FIG. 18, the control unit 11 desirably outputs voice so that the character 70 reads out the conversation (words) displayed on the display unit.

5-5.質問動作及び関連会話動作の具体例2
図15、図16のような第1発話制御に代えて、図19のような第1発話制御を行うようにしてもよい。図19の例では、「乗り物」の話題に関する質問として「乗りたい乗り物」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的な乗り物名を示した複数の選択肢が採用されている。制御部11は、第1発話制御において、図19のように複数の選択肢を出力するようにインタフェース13を制御した場合、タッチパネル20において各選択肢(具体的には、電車、乗用車、バスの各々)が表示された各領域のいずれかの表面に接触する操作がなされたか否かを確認する。例えば、図19の状態で、タッチパネル20における『「乗用車」の表示領域の表面に接触する操作』がなされた場合、制御部11は、「利用者」と「操作によって選択された選択肢」と「質問内容」とを対応付けた情報を記憶部14に記憶する(具体的には、利用者が乗りたい乗り物が乗用車であることを特定する結果情報を記憶部14に記憶する)。
5-5. Concrete Example 2 of Question Action and Related Conversation Action
Instead of the first speech control as shown in FIGS. 15 and 16, the first speech control as shown in FIG. 19 may be performed. In the example of FIG. 19, a question about "a vehicle you want to ride" is adopted as a question on the topic "vehicle", and multiple options indicating a plurality of types of specific vehicle names are adopted as candidates for the answer to the question. ing. In the first utterance control, when the interface 13 is controlled to output a plurality of options as shown in FIG. It is confirmed whether or not an operation has been made to touch the surface of each area where is displayed. For example, in the state of FIG. 19, when "an operation of touching the surface of the display area of 'passenger car'" is performed on the touch panel 20, the control unit 11 selects the 'user', 'options selected by the operation', and ' (Specifically, result information specifying that the vehicle that the user wants to ride is a passenger car is stored in the storage unit 14).

図19の例でも、第1発話制御の終了後、第2発話制御の開始条件が成立した場合、第2発話制御を開始する。例えば、図19のような第1発話制御が終了してから上記所定期間が経過した後、通常表示(図5のステップS4)を継続しているときに「第1発話制御で選択された選択肢(乗り物)に関するコンテンツ」が管理装置90からバーチャルアシスタント装置10に配信された場合、制御部11は、図5のステップS5においてYesと判定し、ステップS6において、図20のようにインタフェース13に「所定の報知」を行わせた後、ステップS7において、提供指示があったか否かを判定する。制御部11は、図20のような表示状態において「見る」のボタンが選択された場合には、図21のような画像を表示するように表示部15を制御する。 In the example of FIG. 19 as well, after the first utterance control ends, the second utterance control is started when the conditions for starting the second utterance control are met. For example, when the normal display (step S4 in FIG. 5) is continued after the predetermined period of time has passed since the first utterance control as shown in FIG. When the "content related to (vehicle)" is delivered from the management device 90 to the virtual assistant device 10, the control unit 11 determines Yes in step S5 of FIG. After the "predetermined notification" is performed, in step S7, it is determined whether or not there is a provision instruction. The control unit 11 controls the display unit 15 to display an image as shown in FIG. 21 when the "view" button is selected in the display state as shown in FIG.

この例では、図20のような会話や表示をインタフェース13に行わせることも第2発話制御の一つである。図20の例では、制御部11は、図19のような第1発話制御の際に「乗用車」を選択する選択入力によって選択された選択肢(乗用車)に関連する話(より具体的には、「ドライブの疑似体験のコンテンツが届きました」というお知らせ)を、キャラクタ70からの発話としてインタフェース13に出力させるように第2発話制御を行っている。更に、図21のような動画を表示させながらキャラクタに乗用車に関する話(例えば、音声による話)を提供させることも第2発話制御の一つである。図21のような例で提供される話としては、例えば、動画で表示されている乗用車の説明、乗用車に乗っているときの気持ち(乗り心地、爽快さ、楽しさなど)、乗用車が通っている場所の説明など、様々な話を採用することができる。 In this example, making the interface 13 perform conversation and display as shown in FIG. 20 is also one of the second speech control. In the example of FIG. 20, the control unit 11 generates a speech (more specifically, The second utterance control is performed so as to cause the interface 13 to output the message "the content of the simulated driving experience has arrived") as an utterance from the character 70 . Furthermore, it is one of the second utterance controls to have the character provide a story (for example, voice story) about a passenger car while displaying a moving image as shown in FIG. The story provided in the example shown in FIG. Various stories can be adopted, such as a description of the location.

5-6.質問動作及び関連会話動作の具体例3
図15、図16のような第1発話制御に代えて、図22のような第1発話制御を行うようにしてもよい。図22の例では、「仕事」の話題に関する質問として「子供の頃に夢見た仕事」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的な仕事名を示した複数の選択肢が採用されている。制御部11は、第1発話制御において、図22のように複数の選択肢を出力するようにインタフェース13を制御した場合、タッチパネル20において各選択肢(具体的には、医師、教員、美容師の各々)が表示された各領域のいずれかの表面に接触する操作がなされたか否かを確認する。例えば、図22の状態で、「美容師」の表示領域の表面に接触する操作がなされた場合、制御部11は、「利用者」と「操作によって選択された選択肢」と「質問内容」とを対応付けた情報を記憶部14に記憶する(具体的には、利用者が子供の頃に夢見た仕事が美容師であることを特定する結果情報を記憶部14に記憶する)。
5-6. Concrete Example 3 of Question Action and Related Conversation Action
Instead of the first speech control as shown in FIGS. 15 and 16, the first speech control as shown in FIG. 22 may be performed. In the example of FIG. 22, a question about "the job you dreamed of when you were a child" is adopted as a question on the topic of "work", and a plurality of specific job names are displayed as candidates for the answer to the question. options are adopted. In the first utterance control, when the interface 13 is controlled to output a plurality of options as shown in FIG. ) is displayed, confirms whether or not an operation has been made to touch the surface of any of the displayed areas. For example, in the state of FIG. 22, when an operation is performed to touch the surface of the display area for "hairdresser", the control unit 11 displays "user", "options selected by operation", and "question content". is stored in the storage unit 14 (specifically, result information specifying that the job dreamed of by the user as a child was a beautician is stored in the storage unit 14).

図22の例でも、第1発話制御の終了後、第2発話制御の開始条件が成立した場合、第2発話制御を開始する。例えば、図22のような第1発話制御が終了してから上記所定期間が経過した後、通常表示(図5のステップS4)を継続しているときに「第1発話制御で選択された選択肢(美容師)に関するコンテンツ」が管理装置90からバーチャルアシスタント装置10に配信された場合、制御部11は、ステップS6において図23のようにインタフェース13に「所定の報知」を行わせた後、ステップS7において、提供指示があったか否かを判定する。制御部11は、図23のような表示状態において「見る」のボタンが選択された場合には、図24のような画像を表示するように表示部15を制御する。 In the example of FIG. 22 as well, after the end of the first speech control, the second speech control is started when the conditions for starting the second speech control are met. For example, when the normal display (step S4 in FIG. 5) is continued after the predetermined period of time has elapsed since the first utterance control as shown in FIG. (Hairdresser)" is delivered from the management device 90 to the virtual assistant device 10, the control unit 11 causes the interface 13 to perform a "predetermined notification" as shown in Fig. 23 in step S6. In S7, it is determined whether or not there is a provision instruction. The control unit 11 controls the display unit 15 to display an image as shown in FIG. 24 when the "view" button is selected in the display state as shown in FIG.

この例では、図23のような会話や表示を行わせることも第2発話制御の一つである。図23の例では、制御部11は、図22のような第1発話制御において上記選択入力(「美容師」を選択する入力)で選択された選択肢(美容師)に関連する話(より具体的には、「美容師さん疑似体験のコンテンツが届きました」というお知らせ)を、キャラクタ70からの発話としてインタフェース13に出力させるように第2発話制御を行っている。更に、図24のような動画を表示させながらキャラクタに美容師の仕事や疑似体験に関する話を提供させることも第2発話制御の一つである。 In this example, making a conversation or display as shown in FIG. 23 is one of the second speech controls. In the example of FIG. 23, the control unit 11 generates a speech (more specifically Specifically, the second utterance control is performed so as to cause the interface 13 to output the notification "The content of the simulated hairdresser's experience has arrived") as an utterance from the character 70 . Furthermore, it is one of the second utterance controls to have the character provide a story about the hairdresser's work and simulated experience while displaying a moving image as shown in FIG.

5-7.質問動作及び関連会話動作の具体例4
図15、図16のような第1発話制御に代えて、図25のような第1発話制御を行うようにしてもよい。図25の例では、「勉強」の話題に関する質問として「興味があって勉強したいこと」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的な勉強対象を示した複数の選択肢(具体的には、料理、生け花、手芸)が採用されている。例えば、図25の状態で、タッチパネル20における「手芸」の表示領域の表面に接触する操作がなされた場合、制御部11は、利用者が勉強したいことが手芸であることを特定する結果情報を記憶部14に記憶する。この例でも、制御部11は、図25のような第1発話制御の終了後、第2発話制御の開始条件が成立した場合、上記結果情報に基づいて第2発話制御を開始する。例えば、第1発話制御の終了後、上述の所定期間が経過した後にステップS2(図5)の会話開始条件が成立した場合、制御部11は、ステップS3において図26のような会話をインタフェース13に出力させる。図26の会話は、図25のような第1発話制御において上記選択入力(「手芸」を選択する入力)で選択された選択肢(手芸)に関連する話(より具体的には、「3か月前に手芸を勉強したいと願っていましたね。来週一緒に刺繍を習いに行きましょう。」といった誘いの話)を、キャラクタ70からの発話としてインタフェース13に出力させる例である。この例では、図5の制御を実行するためのプログラムにおいて、ステップS2、S3を実行するためのプログラムが、「第2発話制御を制御部11に行わせるステップ」の一例に相当する。
5-7. Concrete Example 4 of Question Action and Related Conversation Action
Instead of the first speech control as shown in FIGS. 15 and 16, the first speech control as shown in FIG. 25 may be performed. In the example of FIG. 25, a question about "what you are interested in and want to study" is adopted as a question about the topic of "study", and a plurality of candidates indicating a plurality of types of specific study subjects are used as answer candidates for the question. Choices (specifically cooking, flower arrangement, handicrafts) are employed. For example, in the state of FIG. 25, when an operation is performed to touch the surface of the display area for "handicraft" on the touch panel 20, the control unit 11 outputs result information specifying that handicraft is what the user wants to study. Stored in the storage unit 14 . In this example as well, the control unit 11 starts the second speech control based on the result information when the conditions for starting the second speech control are satisfied after the first speech control as shown in FIG. 25 is finished. For example, when the conversation start condition of step S2 (FIG. 5) is satisfied after the above-described predetermined period has elapsed after the first speech control is finished, the control unit 11 causes the conversation shown in FIG. output to The conversation in FIG. 26 is a conversation (more specifically, "3 or You wanted to study handicrafts a month ago.Let's go learn embroidery together next week.” In this example, in the program for executing the control in FIG. 5, the program for executing steps S2 and S3 corresponds to an example of "the step of causing the control unit 11 to perform the second speech control."

5-8.質問動作及び関連会話動作の具体例5
図15、図16のような第1発話制御に代えて、図27のような第1発話制御を行うようにしてもよい。図27の例では、「歯磨き調査」の話題に関する質問として「いつもの歯のお手入れ方法」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的なお手入れ方法を示した複数の選択肢(具体的には、歯ブラシ、歯間ブラシ、糸ようじ)が採用されている。例えば、図27の状態で、タッチパネル20における「歯間ブラシ」の表示領域の表面に接触する操作がなされた場合、制御部11は、利用者のお手入れ方法が歯間ブラシであることを特定する結果情報を記憶部14に記憶する。この例でも、制御部11は、図27のような第1発話制御の終了後、第2発話制御の開始条件が成立した場合、上記結果情報に基づいて第2発話制御を開始する。例えば、第1発話制御の終了後、上述の所定期間が経過した後にステップS2(図5)の会話開始条件が成立した場合、制御部11は、ステップS3において図28のような会話をインタフェース13に出力させる。図28の会話は、図27のような第1発話制御において上記選択入力(「歯間ブラシ」を選択する入力)で選択された選択肢(歯間ブラシ)に関連する話(より具体的には、「いつも歯間ブラシを使っていましたね。歯みがきでは取りきれないプラークも歯間ブラシで取り除けますよね。」といった話)を、キャラクタ70からの発話としてインタフェース13に出力させる例である。
5-8. Concrete Example 5 of Question Action and Related Conversation Action
Instead of the first speech control as shown in FIGS. 15 and 16, the first speech control as shown in FIG. 27 may be performed. In the example of FIG. 27, a question about "usual tooth care method" is adopted as a question on the topic "brushing survey", and multiple types of specific tooth care methods are shown as candidates for the answer to the question. options (specifically, toothbrushes, interdental brushes, and floss) have been adopted. For example, in the state of FIG. 27 , when an operation is performed to touch the surface of the “interdental brush” display area on the touch panel 20, the control unit 11 specifies that the user's care method is the interdental brush. The result information obtained is stored in the storage unit 14 . In this example as well, the control unit 11 starts the second utterance control based on the result information when the conditions for starting the second utterance control are satisfied after the first utterance control as shown in FIG. 27 is completed. For example, when the conversation start condition of step S2 (FIG. 5) is established after the above-mentioned predetermined period has elapsed after the first speech control is finished, the control unit 11 causes the conversation shown in FIG. output to The conversation in FIG. 28 is a conversation (more specifically, , ``You always used an interdental brush, didn't you?

5-9.質問動作及び関連会話動作の具体例6
ステップS3で提供するコンテンツとしては、図29~図31のような疑似的な育成や飼育を見守るコンテンツであってもよい。この例では、制御部11は、バーチャルアシスタント装置10が継続的に使用される期間において、疑似的な生き物(疑似的な動物、植物、架空生物など)の生育を見守るような見守りコンテンツを実行し得るようになっている。具体的には、図5の制御を実行するためのるプログラムが、上記見守りコンテンツを実行するためのプログラムも有している。
5-9. Concrete Example 6 of Question Action and Related Conversation Action
The content provided in step S3 may be content for watching pseudo breeding and breeding as shown in FIGS. In this example, the control unit 11 executes monitoring content such as watching the growth of pseudo creatures (pseudo animals, plants, fictitious creatures, etc.) during the period in which the virtual assistant device 10 is continuously used. It is designed to be obtained. Specifically, the program for executing the control in FIG. 5 also has a program for executing the watching content.

上記見守りコンテンツを実行するためのプログラムでは、疑似的な見守り対象の状況が多くのパターンに細分化されており、状況毎(パターン毎)に画像が用意されている。そして、このプログラムは、疑似的な見守り対象が各状況にあるとき、利用者からの指示に応じて疑似的な見守り対象に対するアクションを選択するように制御部11を動作させ得る。具体的には、上記プログラムは、前回のコンテンツ視聴時の感想や意見を次のバーチャル体験に反映できるようになっており、利用者の感想や意見がアクションの選択に結び付いている。例えば、上記プログラムは、図29のような画面を表示させるように制御部11を動作させ、図29のような画面の表示中に利用者によってアクションの選択(感想や意見の連絡)がなされた場合には、見守り対象の現在の状況と選択されたアクションとに基づいて、見守り対象の生育状況を、選択されたアクションに対応する状況に移行させるように制御部11を動作させる。図29の例では、疑似的な犬が見守り対象である場合において、利用者に対し、利用者の感想や意見(具体的には希望する次のアクション)を質問しており、利用者は、質問に応じていずれかのアクションを選択することができるようになっている。上記プログラムは、図29のような画面の表示中に利用者がいずれかのアクションを選択すると、疑似的な犬の現在の状況と選択されたアクションとに基づいて、疑似的な犬の生育状況を、選択されたアクションに応じた状況に移行させるように制御部11を動作させる。この例では、制御部11は、例えば図5のステップS3において図29のような画像を表示するように動作することができ、図29のような画像を表示する制御が、第1発話制御の一例に相当する。図29の例では、第1発話制御は、疑似的な見守り対象(疑似的な犬)の話題に対応する複数の選択肢をインタフェース13に出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェース13に出力させる制御である。 In the program for executing the watching content, the situation of the pseudo-watching target is subdivided into many patterns, and an image is prepared for each situation (for each pattern). Then, this program can operate the control unit 11 so as to select an action for the pseudo-watched target according to an instruction from the user when the pseudo-watched target is in each situation. Specifically, the above program is designed to reflect the user's impressions and opinions when viewing the previous content in the next virtual experience, and the user's impressions and opinions are linked to action selection. For example, the above program operates the control unit 11 to display a screen such as that shown in FIG. In this case, based on the current situation of the watching target and the selected action, the control unit 11 is operated so as to shift the growth situation of the watching target to a situation corresponding to the selected action. In the example of FIG. 29, when a pseudo-dog is to be watched over, the user is asked about the user's impressions and opinions (specifically, the desired next action). Either action can be selected according to the question. When the user selects any action while the screen shown in FIG. 29 is displayed, the above program displays the simulated dog's growth situation based on the current situation of the simulated dog and the selected action. to a situation corresponding to the selected action. In this example, the control unit 11 can operate, for example, to display an image as shown in FIG. 29 in step S3 of FIG. 5, and the control for displaying the image as shown in FIG. It corresponds to an example. In the example of FIG. 29, the first utterance control causes the interface 13 to output a plurality of options corresponding to the subject of the pseudo-watching target (a pseudo-dog), and causes the character's conversation related to the plurality of options to be output. is output to the interface 13.

例えば、上記プログラムでは、見守り対象(例えば、疑似的な犬)の状況が多数のパターンに細分化された上で、各パターンにおいて各アクションを選択したときにいずれのパターンに移行するかが定められている。例えば、図29のような質問をしたときの見守り対象(疑似的な犬)の状況が特定パターンである場合、この特定パターンのときに「芸を教える」を指示した場合にどのパターンに移行するかが予め定められており、同様に、上記特定パターンのときに「おもちゃで遊ぶ」を指示した場合にどのパターンに移行するかが定められ、上記特定パターンのときに「ご飯をあげる」を指示した場合にどのパターンに移行するかが定められている。いずれかの状況(パターン)から他の状況(他のパターン)への移行は、利用者からの指示によってもなされるが、その他の環境の変化によってなされてもよい。例えば、ある状況(あるパターン)のまま第1の時間が経過した場合にどの状況に移行するかが定められていてもよく、ある状況(あるパターン)のまま周囲温度が所定値以下に低下した場合にどの状況に移行するかが定められていてもよい。勿論、環境の変化の例はこれら以外であってもよい。 For example, in the above program, the situation of the person being watched over (for example, a pseudo-dog) is subdivided into a number of patterns, and it is determined which pattern to shift to when each action is selected in each pattern. ing. For example, when the situation of the watching target (pseudo dog) when the question as shown in FIG. Similarly, it is determined which pattern to shift to when "playing with a toy" is instructed in the above specific pattern, and "feed food" is instructed in the above specific pattern. It is determined which pattern to shift to when A transition from one situation (pattern) to another situation (another pattern) is made by an instruction from the user, but may be made by other changes in the environment. For example, it may be determined which state to shift to when a certain state (certain pattern) is maintained for the first period of time. It may be determined to which state to shift to in the case. Of course, examples of environmental changes may be other than these.

図5の制御を実行するプログラムは、予め定められたタイミングで、上記見守りコンテンツに関する画像の表示を希望するか否かを利用者に問うように動作し得る。「予め定められたタイミング」は、例えば、ステップS2の会話開始条件の一つであり、具体的には、「前回の見守りコンテンツの画像表示の終了から一定時間が経過したこと」であってもよく、予め決められた時間(例えば、決められた時刻など)が到来したことなどであってもよく、インタフェース13に対して見守りコンテンツ画像を表示するための所定操作がなされたことであってもよい。例えば、制御部11は、図5におけるステップS4の通常表示が繰り返されているとき(ステップS2のNo及びステップS5のNoが繰り返されているとき)に上記「予め定められたタイミング」が到来した場合に、ステップS2でYesに進み、ステップS3で図30のような画像を表示させ、上記見守りコンテンツに関する画像の表示を希望するか否かを利用者に問うように動作する。制御部11は、ステップS3では、図30のような画像の表示中に、「見る」が選択された場合(即ち、見守りコンテンツに関する画像の表示を希望する選択がなされた場合)、図31のように、見守り対象(疑似的な犬)の現在の状況を示す画像を表示する。図31の例では、キャラクタ70が見守り対象の状況を説明する会話を行っており、このような会話と並行して、見守り対象の動画を表示している。 The program that executes the control in FIG. 5 can operate to ask the user whether or not he/she wishes to display an image related to the watching content at a predetermined timing. The "predetermined timing" is, for example, one of the conditions for starting the conversation in step S2. It may be that a predetermined time (for example, a predetermined time) has arrived, or that a predetermined operation for displaying a watching content image has been performed on the interface 13. good. For example, when the normal display of step S4 in FIG. 5 is repeated (when No in step S2 and No in step S5 are repeated), the "predetermined timing" comes. In this case, the process proceeds to Yes in step S2, and in step S3, displays an image such as that shown in FIG. In step S3, when "view" is selected during display of an image such as that shown in FIG. , an image showing the current situation of the watching target (pseudo dog) is displayed. In the example of FIG. 31, the character 70 is having a conversation explaining the situation of the watching target, and the moving image of the watching target is displayed in parallel with such conversation.

このような例でも、制御部11は、第1発話制御によって複数の選択肢が出力された後にインタフェース13を介していずれかの選択肢を選択する選択入力がなされた場合、第1発話制御の終了後に所定期間をおいてから第2発話制御を行うことができる。この例でも、制御部11は、選択入力(例えば、図29におけるいずれかの選択肢の選択)で選択された選択肢に関連する話をキャラクタ70からの発話としてインタフェース13に出力させるように第2発話制御を行う。例えば、制御部11は、図29の画像を表示するような上述の第1発話制御において「おもちゃで遊ぶ」が選択された場合、第1発話制御の終了から所定時間をおいた後日に、例えば、「先日はココちゃんとおもちゃで遊んであげましたね。ココちゃんは楽しそうでしたね。」といったような話をキャラクタ70が発話するようにインタフェース13を動作させるとよい。 Even in such an example, when a selection input is made to select one of the options via the interface 13 after a plurality of options are output by the first utterance control, the control unit 11, after the end of the first utterance control, After a predetermined period of time, the second speech control can be performed. In this example as well, the control unit 11 causes the interface 13 to output a story related to the option selected by selection input (for example, selection of one of the options in FIG. 29) as an utterance from the character 70. control. For example, when "play with a toy" is selected in the above-described first utterance control for displaying the image of FIG. , ``I played with Coco-chan the other day.

6.効果の例示
このように、バーチャルアシスタント装置10は、いずれかの話題に対応する複数の選択肢をインタフェース13に出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェース13に出力させることができるため、利用者に会話の楽しみを提供しつつ、会話と関連付けた形で利用者の意思を正確に確認することができる。そして、このような会話から時間をおいた後、後日、選択入力で選択された選択肢に関連する会話をキャラクタの会話として提供することができるため、キャラクタが過去の会話の内容を覚えているような印象を与えやすい形で、ユーザに話を提供することができる。特に、このバーチャルアシスタント装置10は、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを確実に抑えることができ、利用者がより一層関心をもちやすくなる。
6. Exemplification of Effects As described above, the virtual assistant device 10 can cause the interface 13 to output a plurality of options corresponding to any topic, and can cause the interface 13 to output a conversation of characters related to the plurality of options that are output. Therefore, it is possible to accurately confirm the intention of the user in a manner related to the conversation while providing the enjoyment of the conversation to the user. After a certain period of time has elapsed from such conversation, at a later date, the conversation related to the option selected by the selection input can be provided as the character's conversation. It is possible to provide a story to the user in a form that easily gives a strong impression. In particular, the virtual assistant device 10 can reliably prevent the ``speech provided by the second speech control'' from greatly deviating from the ``options selected by the user'', and the user is more likely to be interested in it. Become.

例えば、図18の例では、図15、図16のような過去の会話で利用者が意思を持って選択した選択肢(北海道、チーズ)が、過去の会話から所定期間以上を空けた後の会話に取り入れられるため、利用者は、あたかも、過去の会話で自身が発した具体的な言葉をキャラクタが覚えていてくれたような感覚又は印象をもつことができ、キャラクタに対する愛着、距離感、信頼感などが一層増しやすく、会話への関心が高まりやすい。 For example, in the example of FIG. 18, the option (Hokkaido, cheese) that the user intentionally selected in the past conversation as shown in FIGS. Therefore, the user can have a feeling or impression as if the character remembered the specific words he or she uttered in the past conversation, and the user has attachment to the character, a sense of distance, and trust. It is easy to increase the feeling, etc., and it is easy to increase the interest in conversation.

バーチャルアシスタント装置10は、第1発話制御において、質問内容と質問に対する答えの候補とを表示部15に表示させることができるため、利用者は、質問と答えの候補を視覚的に確認しながら選択することができる。よって、選択の正確性が高まり、第2発話制御において、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを、より一層確実に抑えることができる。 Since the virtual assistant device 10 can display the question content and the candidate answer to the question on the display unit 15 in the first utterance control, the user can select the question and the candidate answer while visually confirming. can do. Therefore, the accuracy of the selection is improved, and in the second speech control, it is possible to more reliably prevent the "speech provided by the second speech control" from greatly deviating from the "choices selected by the user".

バーチャルアシスタント装置10は、第2発話制御に基づいて提供される会話の中に「第1発話制御に応じて選択された選択肢の言葉」が含まれるため、利用者は、第2発話制御の際にキャラクタから提供される話を聞いた場合又は見た場合に、自身が過去に選択した「選択肢の言葉」が印象に残りやすい。その結果、利用者は、自身の話をキャラクタが興味を持って覚えてくれていたような印象をもちやすく、キャラクタの話に関心や愛着をもちやすい。 Since the virtual assistant device 10 includes "words of options selected according to the first utterance control" in the conversation provided based on the second utterance control, the user can When hearing or seeing a story provided by a character, the "word of choice" that the user has selected in the past tends to leave an impression. As a result, the user tends to have the impression that the character has been interested in and remembers his/her own story, and easily develops an interest in and attachment to the character's story.

<他の実施形態>
本発明は上記記述及び図面によって説明した実施形態に限定されるものではなく、例えば次のような実施形態も本発明の技術的範囲に含まれる。また、上述した実施形態や後述する実施形態の様々な特徴は、矛盾しない組み合わせであればどのように組み合わされてもよい。
<Other embodiments>
The present invention is not limited to the embodiments explained by the above description and drawings, and the following embodiments are also included in the technical scope of the present invention. In addition, various features of the embodiments described above and the embodiments described later may be combined in any way as long as they are consistent combinations.

上述された実施形態では、第1発話制御は、いずれかの話題の質問と、質問に対する答えの候補である複数の選択肢と、を含んだキャラクタの会話を表示部に表示させる制御であったが、いずれかの話題の質問と、質問に対する答えの候補である複数の選択肢と、を含んだキャラクタの会話を音声出力部16によって音声出力する制御であってもよい。この場合、複数の選択肢のいずれかを選択する入力をタッチパネルに対する操作によって行うようにしてもよく、音声入力によって行うようにしてもよい。 In the above-described embodiment, the first utterance control is control for displaying on the display unit a character's conversation including a question on any topic and a plurality of options that are candidates for the answer to the question. , and a plurality of options that are candidates for the answer to the question. In this case, the input for selecting one of the plurality of options may be performed by operating the touch panel, or may be performed by voice input.

上述された実施形態では、第1発話制御は、図15のように、キャラクタの画像と、キャラクタが質問する会話内容を文字によって表した画像と、キャラクタからの質問に対する回答の候補である複数の選択肢を文字によって表した画像とを同時期に表示部15に表示する例が採用されたが、この例に限定されない。例えば、「キャラクタの画像」と「キャラクタが質問する会話内容を文字によって表した画像」とを同時期に表示した後、その表示から「キャラクタからの質問に対する回答の候補である複数の選択肢の画像」に切り替えるように、時間差で順番に表示してもよい。 In the above-described embodiment, the first utterance control includes, as shown in FIG. 15, an image of the character, an image representing the content of the conversation asked by the character in characters, and a plurality of candidate answers to the question from the character. Although the example in which the image representing the options with characters is displayed on the display unit 15 at the same time has been adopted, the present invention is not limited to this example. For example, after simultaneously displaying an "image of a character" and an "image in which text represents the content of a conversation asked by the character", the display then displays "an image of a plurality of options, which are candidates for the answer to the question asked by the character." ” may be displayed in order with a time lag.

上述された実施形態では、第2発話制御は、選択入力で選択された選択肢の言葉の全部を含む会話をキャラクタの会話としてインタフェース13に出力させる制御であったが、この例に限定されない。第2発話制御は、選択入力で選択された選択肢の言葉の一部の名詞を含む会話をキャラクタの会話としてインタフェース13に出力させる制御であってもよい。或いは、第2発話制御は、選択入力で選択された選択肢を表示する静止画や動画をインタフェース13に出力させる制御であってもよい。 In the above-described embodiment, the second utterance control is a control for causing the interface 13 to output a conversation including all the words of the option selected by the selection input as the character's conversation, but it is not limited to this example. The second utterance control may be control for causing the interface 13 to output, as a character's conversation, a conversation including a noun that is part of the word of the option selected by the selection input. Alternatively, the second utterance control may be control for causing the interface 13 to output a still image or a moving image that displays the option selected by the selection input.

上述された実施形態では、動作検出部の一例に相当する操作部17がタッチパネルとして構成されるがこの例に限定されない。操作部17は、その他の公知の入力デバイス(キーボード、マウス、タッチペン等)であってもよい。或いは、動作検出部は、操作部17に代えて又は操作部17に加えて他の入力デバイス(例えば、非接触方式での入力操作が可能とされた入力デバイス)を備えていてもよい。具体的には、動作検出部は、撮像部やモーションセンサなどの非接触センサを有していてもよい。この場合、その非接触センサと制御部11とが協働し、利用者の動きやジェスチャーなどを検知してもよい。 In the above-described embodiment, the operation unit 17 corresponding to an example of the motion detection unit is configured as a touch panel, but is not limited to this example. The operation unit 17 may be other known input devices (keyboard, mouse, touch pen, etc.). Alternatively, the motion detection unit may include another input device (for example, an input device capable of non-contact input operation) instead of or in addition to the operation unit 17 . Specifically, the motion detection section may have a non-contact sensor such as an imaging section or a motion sensor. In this case, the non-contact sensor and the control unit 11 may cooperate to detect the user's movement, gesture, and the like.

上述された実施形態では、表示部15は、静止画や動画を二次元で表示する表示装置として構成されるが、この例に限定されない。表示部15は、三次元表示を行い得る三次元ディスプレイであってもよい。 In the above-described embodiment, the display unit 15 is configured as a display device that displays still images and moving images in two dimensions, but is not limited to this example. The display unit 15 may be a three-dimensional display capable of three-dimensional display.

上述されたシステム1では、バーチャルアシスタント装置10の外部に設けられた登録部(記憶部95)に利用者が希望する情報の種類が登録され、そして、制御部11は、登録部に登録される種類のコンテンツに関する会話を、インタフェース13を介して出力する制御を行うようになっていた。しかし、この例に限定されない。例えば、バーチャルアシスタント装置10に登録部が設けられ、利用者が希望する種類の情報が登録されてもよい。例えば、バーチャルアシスタント装置10は、バーチャルアシスタント装置10に登録された種類(利用者が希望する種類)のコンテンツのみを管理装置90から受信してもよい。或いは、バーチャルアシスタント装置10は、管理装置90からコンテンツを受信した場合において、バーチャルアシスタント装置10に登録された種類(利用者が希望する種類)のコンテンツを受信した場合にステップS2において新たな配信があったと判定してもよい。そして、ステップS7では、バーチャルアシスタント装置10に登録された種類(利用者が希望する種類)のコンテンツのみを提供してもよい。 In the system 1 described above, the type of information desired by the user is registered in the registration unit (storage unit 95) provided outside the virtual assistant device 10, and the control unit 11 is registered in the registration unit. It was designed to control the output of the conversation about the type of content via the interface 13 . However, it is not limited to this example. For example, a registration unit may be provided in the virtual assistant device 10, and the type of information desired by the user may be registered. For example, the virtual assistant device 10 may receive from the management device 90 only the type of content registered in the virtual assistant device 10 (the type desired by the user). Alternatively, when receiving content from the management device 90, the virtual assistant device 10 receives content of the type registered in the virtual assistant device 10 (the type desired by the user). It can be determined that there was Then, in step S7, only the type of content registered in the virtual assistant device 10 (the type desired by the user) may be provided.

上述された実施形態では、バーチャルアシスタント装置10が、主に高齢者向けのバーチャルアシスタント装置として構成された例を示したが、この例に限定されない。例えば、子供などの他のカテゴリの対象者を対象としてもよい。 Although the virtual assistant apparatus 10 showed the example comprised mainly as a virtual assistant apparatus for elderly people in embodiment mentioned above, it is not limited to this example. For example, other categories of subjects such as children may be targeted.

本明細書のいずれの例でも、制御部11がインタフェース13を介して会話を行う場合、コンテンツに関する会話又は応答に対する会話の少なくともいずれかにおいて、キャラクタの表情、キャラクタの動作、テロップ、効果音、アイコンのいずれか1つ又は複数の表示又は音声出力を発生又は変化させてもよい。例えば、制御部11は、キャラクタ70の表情を笑顔にしたり、キャラクタ70に対してジャンプやスキップ等の動作を行わせたりしてもよい。採用されるキャラクタの表情は笑顔に限定されず、沈んだ表情、怒った表情、悲しんだ表情などに変化させてもよく、キャラクタ70に喜んだ動作や泣く動作などを行わせてもよい。 In any example of this specification, when the control unit 11 conducts a conversation via the interface 13, in at least one of the conversation about the content and the conversation about the response, the expression of the character, the action of the character, the telop, the sound effect, the icon display or audio output of any one or more of may be generated or changed. For example, the control unit 11 may make the character 70 smile, or cause the character 70 to perform actions such as jumping and skipping. The facial expression of the adopted character is not limited to a smiling face, and may be changed to a depressed facial expression, an angry facial expression, a sad facial expression, or the like, and the character 70 may be made to perform a happy motion, a crying motion, or the like.

上述された実施形態では、バーチャルアシスタント装置10に記憶部14が設けられ、記憶部14に複数種類の対応情報が記憶されるが、この例に限定されない。例えば、第1実施形態の記憶部14に記憶される対応情報と同様の対応情報がバーチャルアシスタント装置10の外部に設けられた装置に記憶されてもよい。例えば、管理装置90の記憶部95が「複数の選択肢を話題と対応付けた対応情報を記憶する記憶部」として機能してもよい。第1実施形態の内容をこの例に変更する場合、制御部11は、上述の第1発話制御においていずれかの話題を選定した場合に、その選定した話題に対応する対応情報(選定した話題に対応する「質問」とその「質問」に対する回答の候補である「複数の選択肢」とを含む対応情報)を管理装置90に対して通信によって要求し、管理装置90は、いずれかの話題に対応する対応情報の要求を受けた場合に、記憶部95に記憶される複数種類の対応情報の中から要求された話題に対応する対応情報を読み出し、読み出した対応情報をバーチャルアシスタント装置10に送信するように動作すればよい。この場合、バーチャルアシスタント装置10は、管理装置90から対応情報を取得した後には、その取得した対応情報に基づいて第1実施形態と同様に動作すればよい。この変更例と第1実施形態とを比較したときの主な相違は、話題に対応する対応情報を利用する場合に、当該対応情報を記憶部14から読み出して利用するか、当該対応情報を管理装置90から取得して利用するかだけであり、対応情報を取得した後の動作は、上記変更例でも、第1実施形態と同様に行うことができる。 In the embodiment described above, the storage unit 14 is provided in the virtual assistant device 10, and multiple types of correspondence information are stored in the storage unit 14, but the present invention is not limited to this example. For example, correspondence information similar to the correspondence information stored in the storage unit 14 of the first embodiment may be stored in a device provided outside the virtual assistant device 10 . For example, the storage unit 95 of the management device 90 may function as a "storage unit that stores correspondence information in which a plurality of options are associated with topics". When changing the contents of the first embodiment to this example, when any topic is selected in the above-described first speech control, the control unit 11 provides correspondence information corresponding to the selected topic ( A request is made to the management device 90 for correspondence information including a corresponding "question" and "multiple options" that are candidates for answers to the "question" by communication, and the management device 90 responds to any topic. When a request for corresponding information is received, the corresponding information corresponding to the requested topic is read out of the plurality of types of corresponding information stored in the storage unit 95, and the read corresponding information is transmitted to the virtual assistant device 10. It should work like this. In this case, after acquiring the correspondence information from the management device 90, the virtual assistant device 10 may operate in the same manner as in the first embodiment based on the acquired correspondence information. The main difference between this modified example and the first embodiment is that when using correspondence information corresponding to a topic, the correspondence information is read from the storage unit 14 and used, or the correspondence information is managed. All that is required is whether to acquire it from the device 90 and use it, and the operation after acquiring the correspondence information can be performed in the same manner as in the first embodiment even in the above modified example.

なお、上記対応情報は、記憶部14と記憶部95の両方に設けられていてもよい。この例では、例えば、いずれかの話題に対応する対応情報が記憶部14に記憶されておらず記憶部95に記憶されている場合に、記憶部95に記憶された対応情報を用いるようにしてもよく、いずれかの話題に対応する対応情報が記憶部14に記憶されている場合に記憶部14に記憶された対応情報を用いるようにしてもよい。 Note that the correspondence information may be provided in both the storage unit 14 and the storage unit 95 . In this example, for example, when correspondence information corresponding to any topic is not stored in the storage unit 14 but is stored in the storage unit 95, the correspondence information stored in the storage unit 95 is used. Alternatively, if correspondence information corresponding to any topic is stored in the storage unit 14, the correspondence information stored in the storage unit 14 may be used.

第1実施形態のように対応情報が記憶部14に記憶されている場合でも、上述の変更例のように対応情報が記憶部95に記憶されている場合でも、対応情報が記憶部14、95の両方に記憶されている場合でも、第2発話制御を行うための情報は、上記対応情報が記憶される記憶部に記憶されていればよい。第2発話制御を行うための情報は、上記対応情報に含まれる各選択肢に対応する各「話の情報」(例えば、選択肢に対応付けられた会話や画像などの情報)を含んでいればよい。例えば、対応情報とともに「第2発話制御を行うための情報」が記憶部95に記憶されるシステムでは、第1発話制御でいずれかの選択肢が選択された場合に第2発話制御を行うときには、第1発話制御で選択された選択肢に対応する「話の情報」を管理装置90に対して通信によって要求し、管理装置90は、第1発話制御で選択された選択肢に対応する「話の情報」の要求を受けた場合に、記憶部95に記憶される複数種類の話の情報の中から要求された選択肢に対応する「話の情報」を読み出し、読み出した「話の情報」をバーチャルアシスタント装置10に送信するように動作すればよい。そしてバーチャルアシスタント装置10は、取得した「話の情報」に基づいて、第1発話制御で選択された選択肢に対応する会話や画像を提供すればよい。なお、上述の例は、対応情報と第2発話制御を行うための情報が同一の記憶部に記憶された例であるが、この例に限定されるわけではなく、それぞれの情報が別々の記憶部に記憶されていてもよい。 Even if the correspondence information is stored in the storage unit 14 as in the first embodiment, and even if the correspondence information is stored in the storage unit 95 as in the modified example described above, the correspondence information is stored in the storage units 14 and 95. , the information for performing the second speech control may be stored in the storage unit in which the correspondence information is stored. The information for performing the second utterance control may include each "talk information" corresponding to each option included in the corresponding information (for example, information such as conversation and image associated with the option). . For example, in a system in which "information for performing the second utterance control" is stored in the storage unit 95 together with correspondence information, when performing the second utterance control when any option is selected in the first utterance control, The management device 90 is requested by communication to send the "talk information" corresponding to the option selected in the first utterance control. ', the 'story information' corresponding to the requested option is read from among the plurality of types of story information stored in the storage unit 95, and the read 'story information' is sent to the virtual assistant. It is only necessary to operate to transmit to the device 10 . And the virtual assistant device 10 should just provide the conversation and the image corresponding to the option selected by the 1st utterance control based on the acquired "talk information." The above example is an example in which the correspondence information and the information for performing the second speech control are stored in the same storage unit, but the present invention is not limited to this example, and each information is stored separately. may be stored in the unit.

なお、今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、今回開示された実施の形態に限定されるものではなく、特許請求の範囲によって示された範囲内又は特許請求の範囲と均等の範囲内での全ての変更が含まれることが意図される。 It should be noted that the embodiments disclosed this time should be considered as examples in all respects and not restrictive. The scope of the present invention is not limited to the embodiments disclosed this time, and includes all modifications within the scope indicated by the claims or within the scope equivalent to the claims. is intended.

1…バーチャルアシスタントシステム
10…バーチャルアシスタント装置
11…制御部
13…インタフェース
14…記憶部
15…表示部
17…操作部(動作検出部)
18…音声入力部
90…管理装置(外部の装置)
DESCRIPTION OF SYMBOLS 1... Virtual assistant system 10... Virtual assistant apparatus 11... Control part 13... Interface 14... Storage part 15... Display part 17... Operation part (motion detection part)
18... Audio input unit 90... Management device (external device)

Claims (4)

利用者からの入力の受入れおよび出力を行うインタフェースと、前記インタフェースを構成する表示部に具現化されたキャラクタを表示させる制御部と、を備えたバーチャルアシスタント装置であって、
前記インタフェースは、接触又は非接触による前記利用者からの入力動作を検出する動作検出部又は前記利用者の音声を示す音声信号を取得する音声入力部の少なくともいずれかを有し、
前記制御部は、複数の選択肢を話題と対応付けた対応情報を記憶する記憶部の情報を利用し、いずれかの話題に対応する前記複数の選択肢を前記インタフェースに出力させ且つ出力される前記複数の選択肢に関連する前記キャラクタの会話を前記インタフェースに出力させる第1発話制御を行い、前記複数の選択肢が出力された後に前記インタフェースを介していずれかの選択肢を選択する選択入力がなされた場合、前記第1発話制御の終了後に所定期間をおいてから、前記選択入力で選択された選択肢に関連する話を前記キャラクタからの発話として前記インタフェースに出力させる第2発話制御を行う
バーチャルアシスタント装置。
A virtual assistant device comprising an interface for accepting and outputting input from a user, and a control unit for displaying an embodied character on a display unit constituting the interface,
The interface has at least one of a motion detection unit that detects an input motion from the user by contact or non-contact, or a voice input unit that acquires a voice signal indicating the voice of the user,
The control unit uses information in a storage unit that stores correspondence information in which a plurality of options are associated with topics, causes the interface to output the plurality of options corresponding to any topic, and outputs the plurality of options to be output. When a first utterance control is performed to cause the interface to output the character's conversation related to the option of, and a selection input is made to select one of the options through the interface after the plurality of options are output, After a predetermined period of time after the end of the first utterance control, the virtual assistant device performs second utterance control for outputting a story related to the option selected by the selection input to the interface as an utterance from the character.
前記第1発話制御は、いずれかの話題の質問と、前記質問に対する答えの候補である前記複数の選択肢と、を含んだ前記キャラクタの会話を前記表示部に表示させる制御である
請求項1に記載のバーチャルアシスタント装置。
2. According to claim 1, the first utterance control is a control for displaying on the display unit a conversation of the character including a question on any topic and the plurality of options that are candidates for answers to the question. Virtual assistant device as described.
前記第2発話制御は、前記選択入力で選択された選択肢の言葉を含む会話を前記キャラクタの会話として前記インタフェースに出力させる制御である
請求項1又は請求項2に記載のバーチャルアシスタント装置。
The virtual assistant device according to claim 1 or 2, wherein the second utterance control is control for outputting a conversation including a word of the option selected by the selection input to the interface as a conversation of the character.
利用者からの入力の受入れおよび出力を行うインタフェースと、上記インタフェースを構成する表示部に具現化されたキャラクタを表示させる制御部と、を備えたバーチャルアシスタント装置に用いられるプログラムであって、
前記インタフェースは、接触又は非接触による前記利用者からの入力動作を検出する動作検出部又は前記利用者の音声を示す音声信号を取得する音声入力部の少なくともいずれかを有し、
複数の選択肢を話題と対応付けた対応情報が記憶される記憶部の情報を利用し、いずれかの話題に対応する前記複数の選択肢を前記インタフェースに出力させ且つ出力される前記複数の選択肢に関連する前記キャラクタの会話を前記インタフェースに出力させる第1発話制御を前記制御部に行わせるステップと、
前記第1発話制御の後に前記インタフェースを介していずれかの選択肢を選択する選択入力がなされた場合、前記第1発話制御の終了後に所定期間をおいてから、前記選択入力で選択された選択肢に関連する会話を前記キャラクタの会話として前記インタフェースに出力させる第2発話制御を前記制御部に行わせるステップと、
を含むバーチャルアシスタント装置用のプログラム。
A program used in a virtual assistant device comprising an interface for accepting and outputting input from a user, and a control unit for displaying a character embodied in a display unit constituting the interface,
The interface has at least one of a motion detection unit that detects an input motion from the user by contact or non-contact, or a voice input unit that acquires a voice signal indicating the voice of the user,
Using information in a storage unit that stores correspondence information that associates a plurality of options with topics, causes the interface to output the plurality of options corresponding to any topic, and relates to the plurality of options that are output. a step of causing the control unit to perform a first utterance control for outputting a conversation of the character to the interface;
When a selection input for selecting one of the options is made through the interface after the first utterance control, after a predetermined period of time after the end of the first utterance control, the option selected by the selection input is selected. causing the control unit to perform a second utterance control for outputting related conversation to the interface as conversation of the character;
Programs for virtual assistant devices, including .
JP2021201889A 2021-12-13 2021-12-13 Virtual assistant device and program for virtual assistant device Pending JP2023087483A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021201889A JP2023087483A (en) 2021-12-13 2021-12-13 Virtual assistant device and program for virtual assistant device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021201889A JP2023087483A (en) 2021-12-13 2021-12-13 Virtual assistant device and program for virtual assistant device

Publications (1)

Publication Number Publication Date
JP2023087483A true JP2023087483A (en) 2023-06-23

Family

ID=86850844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021201889A Pending JP2023087483A (en) 2021-12-13 2021-12-13 Virtual assistant device and program for virtual assistant device

Country Status (1)

Country Link
JP (1) JP2023087483A (en)

Similar Documents

Publication Publication Date Title
McAfee Navigating the social world: A curriculum for individuals with Asperger's syndrome, high functioning autism and related disorders
Hostyn et al. Interaction with a person with profound intellectual and multiple disabilities: A case study in dialogue with an experienced staff member
CN110152314B (en) Session output system, session output server, session output method, and storage medium
Mentis et al. My self and you: Tension in bodily sharing of experience
CN116149473A (en) Virtual reality-based travel interaction method for old people
JP2023087483A (en) Virtual assistant device and program for virtual assistant device
JP7418975B2 (en) information processing equipment
JP7307576B2 (en) Program and information processing device
JP2022191125A (en) Virtual assistant device and program for virtual assistant device
CN115335898A (en) Information processing apparatus, interactive robot, control method, and program
Yarosh et al. Mobile technologies for parent/child relationships
JP2022190870A (en) Virtual assistant device and program for virtual assistant device
JP7290977B2 (en) Program and information processing device
Ali et al. Seeking Authentic Listening Experiences in Shi’ism: Online and Offline Intersections of Majlis Practices
Zammit The role of screen-based media in the development and maintenance of peer relationships in adolescents with and without autism spectrum conditions in Malta
JP2023176404A (en) Virtual assistant device and program for virtual assistant device
JP2024063745A (en) Virtual assistant device and program for the same
Yamazaki et al. A preliminary study of robotic media effects on older adults with mild cognitive impairment in solitude
JP6863672B2 (en) Notification system, notification method and server device
JP7445938B1 (en) Servers, methods and computer programs
Batz et al. Cuckoo–facilitating communication for people with mental and physical disabilities in residential communities
Rahman Creating a Sense of Presence in Remote Relationships: A concept of Calm Ambient artifact
Williams Creative engagement in interactive immersive environments
JP2024110514A (en) Virtual assistant device, virtual assistant system, and program for virtual assistant device
WO2024214751A1 (en) Behavior control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240226