JP2023087483A - Virtual assistant device and program for virtual assistant device - Google Patents
Virtual assistant device and program for virtual assistant device Download PDFInfo
- Publication number
- JP2023087483A JP2023087483A JP2021201889A JP2021201889A JP2023087483A JP 2023087483 A JP2023087483 A JP 2023087483A JP 2021201889 A JP2021201889 A JP 2021201889A JP 2021201889 A JP2021201889 A JP 2021201889A JP 2023087483 A JP2023087483 A JP 2023087483A
- Authority
- JP
- Japan
- Prior art keywords
- conversation
- control
- interface
- user
- virtual assistant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 9
- 238000007726 management method Methods 0.000 description 48
- 230000009471 action Effects 0.000 description 40
- 238000004891 communication Methods 0.000 description 38
- 238000010586 diagram Methods 0.000 description 34
- 238000000034 method Methods 0.000 description 30
- 230000004044 response Effects 0.000 description 24
- 230000006870 function Effects 0.000 description 21
- 230000008569 process Effects 0.000 description 16
- 238000010413 gardening Methods 0.000 description 10
- 235000013351 cheese Nutrition 0.000 description 9
- 239000003795 chemical substances by application Substances 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 230000008921 facial expression Effects 0.000 description 5
- 241001465754 Metazoa Species 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 235000003222 Helianthus annuus Nutrition 0.000 description 2
- 244000061456 Solanum tuberosum Species 0.000 description 2
- 235000002595 Solanum tuberosum Nutrition 0.000 description 2
- 240000008042 Zea mays Species 0.000 description 2
- 235000005824 Zea mays ssp. parviglumis Nutrition 0.000 description 2
- 235000002017 Zea mays subsp mays Nutrition 0.000 description 2
- 238000009395 breeding Methods 0.000 description 2
- 230000001488 breeding effect Effects 0.000 description 2
- 238000010411 cooking Methods 0.000 description 2
- 235000005822 corn Nutrition 0.000 description 2
- 230000000474 nursing effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000010079 rubber tapping Methods 0.000 description 2
- 206010011469 Crying Diseases 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 241000628997 Flos Species 0.000 description 1
- 241000208818 Helianthus Species 0.000 description 1
- 244000020551 Helianthus annuus Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001680 brushing effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 208000011580 syndromic disease Diseases 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
本発明は、バーチャルアシスタント装置及びバーチャルアシスタント装置用のプログラムに関する。 The present invention relates to a virtual assistant device and a program for the virtual assistant device.
特許文献1には、エージェント装置の一例が開示されている。特許文献1のエージェント装置は、表示装置とスピーカとを用いて画像と音声により現出させたエージェントにより状況に応じた違和感の無いユーザ性格判別用の質問をさせる。更に、このエージェント装置は、マイク入力されたユーザの回答結果からユーザの性格を判別し、ユーザの性格に合わせてエージェントの性格を可変させる。
特許文献1の装置は、ユーザの回答結果から判別されたユーザの性格に合わせてエージェントの性格を可変させるようにしてエンターテイメント性を高めているが、単に性格を可変させるだけでは、ユーザの意思を反映した会話を行うことが難しく、ユーザの関心を高めるという観点で、改善の余地がある。
The apparatus disclosed in
一方、特許文献2には、介護施設のコミュニケーション支援システムが開示されている。このシステムは、被介護者からの簡単な問い合わせに答えるルールが登録された知識ベースと処理部とを備えており、処理部は、上記ルールに基づいて、被介護者からの簡単な問い合わせに答えるようにエージェントを動作し得る。しかし、このシステムは、被介護者からの問い合わせに適した回答を提供できる可能性はあるものの、問い合わせ毎に話題が完結してしまう可能性が高いため、介護者がエージェントとの間で継続的にコミュニケーションをとっているような印象を受けにくい。この点で、介護者(利用者)の関心が損なわれる懸念がある。
On the other hand,
本発明は、バーチャルアシスタント装置を利用する利用者の関心を高めやすい技術を提供することを一つの目的とする。 An object of the present invention is to provide a technology that can easily increase the interest of users who use virtual assistant devices.
本発明の一つであるバーチャルアシスタント装置は、
利用者からの入力の受入れおよび出力を行うインタフェースと、前記インタフェースを構成する表示部に具現化されたキャラクタを表示させる制御部と、を備えたバーチャルアシスタント装置であって、
前記インタフェースは、接触又は非接触による前記利用者からの入力動作を検出する動作検出部又は前記利用者の音声を示す音声信号を取得する音声入力部の少なくともいずれかを有し、
前記制御部は、複数の選択肢を話題と対応付けた対応情報を記憶する記憶部の情報を利用し、いずれかの話題に対応する前記複数の選択肢を前記インタフェースに出力させ且つ出力される前記複数の選択肢に関連する前記キャラクタの会話を前記インタフェースに出力させる第1発話制御を行い、前記複数の選択肢が出力された後に前記インタフェースを介していずれかの選択肢を選択する選択入力がなされた場合、前記第1発話制御の終了後に所定期間をおいてから、前記選択入力で選択された選択肢に関連する話を前記キャラクタからの発話として前記インタフェースに出力させる第2発話制御を行う。
A virtual assistant device, which is one of the present invention,
A virtual assistant device comprising an interface for accepting and outputting input from a user, and a control unit for displaying an embodied character on a display unit constituting the interface,
The interface has at least one of a motion detection unit that detects an input motion from the user by contact or non-contact, or a voice input unit that acquires a voice signal indicating the voice of the user,
The control unit uses information in a storage unit that stores correspondence information in which a plurality of options are associated with topics, causes the interface to output the plurality of options corresponding to any topic, and outputs the plurality of options to be output. When a first utterance control is performed to cause the interface to output the character's conversation related to the option of, and a selection input is made to select one of the options through the interface after the plurality of options are output, After a predetermined period of time after the end of the first utterance control, second utterance control is performed to output a story related to the option selected by the selection input to the interface as an utterance from the character.
上記のバーチャルアシスタント装置は、いずれかの話題に対応する複数の選択肢をインタフェースに出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェースに出力させることができるため、利用者に会話の楽しみを提供しつつ、会話と関連付けた形で利用者の意思を正確に確認することができる。そして、このような会話から時間をおいた後、選択入力で選択された選択肢に関連する会話をキャラクタの会話として提供することができるため、キャラクタが過去の会話の内容を覚えているような印象を与えやすい形で、ユーザに話を提供することができる。特に、このバーチャルアシスタント装置は、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを確実に抑えることができ、利用者がより一層関心をもちやすくなる。 The above-mentioned virtual assistant device can cause the interface to output a plurality of options corresponding to any topic, and can cause the interface to output a conversation of characters related to the plurality of options that are output. While providing enjoyment, it is possible to accurately confirm the user's intention in a form associated with the conversation. After a period of time has passed from such conversation, the conversation related to the option selected by the selection input can be provided as the character's conversation, giving the impression that the character remembers the contents of the past conversation. It is possible to provide a story to the user in a form that makes it easy to give In particular, this virtual assistant device can reliably prevent the ``speech provided by the second speech control'' from greatly deviating from the ``choices selected by the user,'' making it easier for the user to be more interested. .
上記のバーチャルアシスタント装置において、上記第1発話制御は、いずれかの話題の質問と、上記質問に対する答えの候補である上記複数の選択肢と、を含んだ上記キャラクタの会話を上記表示部に表示させる制御である。 In the virtual assistant device, the first utterance control causes the display unit to display a conversation of the character including a question on any topic and the plurality of options that are candidates for answers to the question. Control.
このバーチャルアシスタント装置は、第1発話制御において、質問内容と質問に対する答えの候補とを表示部に表示させることができるため、利用者は、質問と答えの候補を視覚的に確認しながら選択することができる。よって、選択の正確性が高まり、第2発話制御において、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを、より一層確実に抑えることができる。 In the first utterance control, the virtual assistant device can display the content of the question and candidate answers to the question on the display unit, so that the user can select the question and answer candidates while visually confirming them. be able to. Therefore, the accuracy of the selection is improved, and in the second speech control, it is possible to more reliably prevent the "speech provided by the second speech control" from greatly deviating from the "choices selected by the user".
上記のバーチャルアシスタント装置において、上記第2発話制御は、上記選択入力で選択された選択肢の言葉を含む会話を上記キャラクタの会話として上記インタフェースに出力させる制御である。 In the virtual assistant device described above, the second utterance control is control for causing the interface to output a conversation including the word of the option selected by the selection input as a conversation of the character.
このバーチャルアシスタント装置は、第2発話制御に基づいて提供される会話の中に「第1発話制御に応じて選択された選択肢の言葉」が含まれるため、利用者は、第2発話制御の際にキャラクタから提供される話を聞いた場合又は見た場合に、自身が過去に選択した「選択肢の言葉」が印象に残りやすい。その結果、利用者は、自身の話をキャラクタが興味を持って覚えてくれていたような印象をもちやすく、キャラクタの話に関心や愛着をもちやすい。 In this virtual assistant device, the conversation provided based on the second utterance control includes "choice words selected according to the first utterance control". When hearing or seeing a story provided by a character, the "word of choice" that the user has selected in the past tends to leave an impression. As a result, the user tends to have the impression that the character has been interested in and remembers his/her own story, and easily develops an interest in and attachment to the character's story.
本発明の一つであるバーチャルアシスタント装置用のプログラムは、
利用者からの入力の受入れおよび出力を行うインタフェースと、上記インタフェースを構成する表示部に具現化されたキャラクタを表示させる制御部と、を備えたバーチャルアシスタント装置に用いられるプログラムであって、
前記インタフェースは、接触又は非接触による前記利用者からの入力動作を検出する動作検出部又は前記利用者の音声を示す音声信号を取得する音声入力部の少なくともいずれかを有し、
複数の選択肢を話題と対応付けた対応情報が記憶される記憶部の情報を利用し、いずれかの話題に対応する前記複数の選択肢を前記インタフェースに出力させ且つ出力される前記複数の選択肢のいずれかの選択を促す前記キャラクタの会話を前記インタフェースに出力させる第1発話制御を前記制御部に行わせるステップと、
前記第1発話制御の後に前記インタフェースを介していずれかの選択肢を選択する選択入力がなされた場合、前記第1発話制御の終了後に所定期間をおいてから、前記選択入力で選択された選択肢に関連する会話を前記キャラクタの会話として前記インタフェースに出力させる第2発話制御を前記制御部に行わせるステップと、
を含む。
A program for a virtual assistant device, which is one of the present invention,
A program used in a virtual assistant device comprising an interface for accepting and outputting input from a user, and a control unit for displaying a character embodied in a display unit constituting the interface,
The interface has at least one of a motion detection unit that detects an input motion from the user by contact or non-contact, or a voice input unit that acquires a voice signal indicating the voice of the user,
Using information in a storage unit that stores correspondence information that associates a plurality of options with topics, causes the interface to output the plurality of options corresponding to any topic, and selects one of the plurality of options to be output a step of causing the control unit to perform a first utterance control that causes the interface to output a conversation of the character that prompts the user to select either;
When a selection input for selecting one of the options is made through the interface after the first utterance control, after a predetermined period of time after the end of the first utterance control, the option selected by the selection input is selected. causing the control unit to perform a second utterance control for outputting related conversation to the interface as conversation of the character;
including.
上記のバーチャルアシスタント装置用のプログラムは、いずれかの話題に対応する複数の選択肢をインタフェースに出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェースに出力させるように制御することができるため、利用者に会話の楽しみを提供しつつ、会話と関連付けた形で利用者の意思を正確に確認することができる。そして、このような会話から時間をおいた後、選択入力で選択された選択肢に関連する会話をキャラクタの会話として提供することができるため、キャラクタが過去の会話の内容を覚えているような印象を与えやすい形で、ユーザに話を提供することができる。特に、このプログラムは、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを確実に抑えることができ、利用者がより一層関心をもちやすくなる。 The above program for the virtual assistant device can control the interface to output a plurality of options corresponding to any topic and to output the character's conversation related to the plurality of options to be output to the interface. Therefore, while providing the enjoyment of conversation to the user, it is possible to accurately confirm the intention of the user in a form associated with the conversation. After a period of time has passed from such conversation, the conversation related to the option selected by the selection input can be provided as the character's conversation, giving the impression that the character remembers the contents of the past conversation. It is possible to provide a story to the user in a form that makes it easy to give In particular, this program can reliably prevent the ``speech provided by the second speech control'' from greatly deviating from the ``choices selected by the user'', thereby making it easier for the user to be more interested.
本発明によれば、バーチャルアシスタント装置を利用する利用者の関心を高めやすい。 ADVANTAGE OF THE INVENTION According to this invention, it is easy to raise the interest of the user using a virtual assistant apparatus.
<第1実施形態>
1.バーチャルアシスタントシステムの概要
図1に示されるバーチャルアシスタントシステム1は、バーチャルアシスタント装置10と、管理装置90と、を備える。以下の説明では、バーチャルアシスタントシステム1は、単にシステム1とも称される。以下で説明される代表例は、バーチャルアシスタント装置10が、高齢者向けのバーチャルアシスタント装置として機能するものであり、例えば、利用者が、介護施設、自宅、病院などで利用することができるものである。
<First embodiment>
1. Overview of Virtual Assistant System A
2.バーチャルアシスタント装置のハードウェア構成
図1のように、バーチャルアシスタント装置10は、タブレット端末、スマートフォン、パーソナルコンピュータ、外部装置と通信可能に構成されたテレビジョンなどの汎用の情報端末にアプリケーションプログラムをインストールし、記憶及び利用可能とした情報通信端末であってもよく、後述される各機能を実現できる専用装置であってもよい。バーチャルアシスタント装置10は、通信機能を有する携帯型の情報装置であってもよく、通信機能を有する据置型の情報装置であってもよい。
2. Hardware Configuration of Virtual Assistant Device As shown in FIG. 1, a
図1のように、バーチャルアシスタント装置10は、制御部11と通信部12とインタフェース13と記憶部14とを備える。以下で説明されるバーチャルアシスタント装置10の代表例は、バーチャルアシスタント装置10が、図2のようにタブレット端末によって実現される例である。
As shown in FIG. 1, the
図1に示される制御部11は、例えば公知の情報処理装置として構成される。制御部11は、CPUなどの公知の演算装置及び他の周辺回路などを備え、様々な制御や演算を行い得る。制御部11は、インタフェース13を構成する表示部15に、具現化されたキャラクタを表示させる機能を有する。
The
図1に示される通信部12は、公知の有線通信方式又は公知の無線通信方式によって広域通信網に直接又は他装置を介して間接的にアクセス可能な装置である。通信部12は、基地局との間で無線通信を行い、図示されていない基地局を介して広域通信網(例えば、インターネット)に直接アクセスする構成であってもよい。通信部12は、図示されていないアクセスポイントとの間で無線通信を行い、アクセスポイントを介して広域通信網に間接的にアクセスする構成であってもよい。通信部12は、中継装置(ルータ等)との間で有線通信を行い、中継装置を介して広域通信網にアクセスする構成であってもよい。
The
図1に示されるインタフェース13は、利用者からの入力の受入れおよび出力を行う装置である。インタフェース13は、表示部15と音声出力部16と操作部17と音声入力部18とを備える。
The
表示部15及び音声出力部16は、情報を出力する出力部として機能する。表示部15は、液晶ディスプレイや有機エレクトロルミネッセンスディスプレイなどの公知の画像表示装置として構成される。以下で説明される代表例では、表示部15は、タッチパネル式の表示装置の一部をなす。音声出力部16は、例えば公知のスピーカなどの発音装置によって構成されている。音声出力部16は、制御部11と協働して各種音声を出力する機能を有する。
The
操作部17及び音声入力部18は、情報を入力する入力部として機能する。操作部17は、動作検出部の一例に相当し、接触方式での入力操作が可能とされた入力デバイスである。操作部17は、例えば、タッチパネルなどが好適例である。音声入力部18は、例えば公知のマイクなどの音声入力装置によって構成されている。音声入力部18は、入力される音を電気信号に変換して制御部11に与える機能を有する。音声入力部18は、利用者が音声入力部18に向かって声やその他の音を発した場合(具体的には、音声入力部18が検出可能な音声を利用者が発した場合)に利用者の音声を示す音声信号を取得するように機能する。
The
以下で説明される代表例では、図2等で示されるように、表示部15と操作部17とがタッチパネル式表示装置20を構成する。タッチパネル式表示装置20は、単にタッチパネル20とも称される。図2等の例では、操作部17は、表示部15からの光を透過可能に構成され、表示部15からの画像を外部から視認可能な構成で透明性のパネルが表示部15を覆っている。
In the representative example described below, the
記憶部14は、様々な情報を記憶する機能を有する。記憶部14は、半導体メモリ、HDD、SSD、など、公知の記憶装置が採用される。制御部11は、記憶部14に対して各種情報を書き込む機能や、記憶部14に記憶された各種情報を読み出す機能を有する。記憶部14には、後述されるアプリケーションプログラムなどの様々なプログラムが記憶されている。記憶部14には、管理装置90によって管理されているサイト、情報、プログラム等に対して広域通信網を介してアクセスするための識別情報(例えば、URL(Uniform Resource Locator)など)も記憶されている。
The
3.管理装置
図1に示される管理装置90は、様々な情報処理機能や様々な演算機能を有する。管理装置90は、バーチャルアシスタント装置10の外部に設けられた外部装置である。管理装置90は、様々な情報を登録する機能、様々な情報を配信する機能、などを有する。管理装置90は、通信機能及び情報処理機能を有する装置であればよい。管理装置90は、例えば、CPU,記憶媒体、通信装置などを備えたコンピュータとして構成されている。図1の例では、管理装置90は、制御装置91と、通信部92、表示部93、入力部94、記憶部95、を備える。
3. Management Device The
制御装置91は、例えば公知の情報処理装置として構成される。制御部11は、CPUなどの公知の演算装置及び他の周辺回路などを備え、様々な制御や演算を行い得る。
The
通信部92は、公知の有線通信方式又は公知の無線通信方式によって広域通信網に直接又は他装置を介して間接的にアクセス可能な装置である。通信部92は、基地局との間で無線通信を行い、図示されていない基地局を介して広域通信網に直接アクセスする構成であってもよい。通信部92は、図示されていないアクセスポイントとの間で無線通信を行い、アクセスポイントを介して広域通信網に間接的にアクセスする構成であってもよい。通信部92は、中継装置(ルータ等)との間で有線通信を行い、中継装置を介して広域通信網にアクセスする構成であってもよい。
The
表示部93は、公知の画像表示装置として構成される。入力部94は、例えば、キーボード、マウス、タッチパネル、音声入力部など、公知の入力デバイスとして構成され、接触による操作や音声などによって情報の入力が可能とされる。記憶部95は、様々な情報を記憶する記憶装置である。記憶部95において、データベースが構成されていてもよい。
The
4.管理装置からのコンテンツの配信
管理装置90には、情報の配信対象である利用者に関する情報が登録されている。図3は、図1に示される管理装置90の記憶部95に記憶される利用者データのデータ構造例を示している。図3のように、管理装置90に記憶される利用者データは、データベースを構成しており、各々の利用者に対応付けてID、登録種類、利用者情報が記憶されている。IDは、各々の利用者を識別可能な情報であり、各々の利用者を特定し得る識別情報である。登録種類は、利用者が希望する情報や利用者に有意義な情報の種類を登録する情報である。利用者情報は、利用者に関する各種情報であり、氏名、生年月日、メールアドレス、趣味、健康に関する情報、居住地、過去のエピソード等の個人情報を含んでいてもよく、コンテンツの配信先を特定する配信先情報を含んでいてもよい。例えば、図3の利用者データでは、利用者のIDとしてID1が特定されれば、「ID1」で特定される利用者が希望する情報の種類が「登録種類1」の情報によって特定され、その利用者の個人情報等が「利用者情報1」の情報によって特定される。
4. Distribution of Content from Management Apparatus In the
本実施形態に係るシステム1では、「利用者が希望する情報の種類」や「利用者に有意義な情報」として、様々な種類が登録可能とされている。具体的には、「利用者が希望する情報の種類」や「利用者に有意義な情報」として、趣味又は生き甲斐に関する複数の種類が予め選定可能に用意され、それら複数の種類から選ばれるいずれか1以上の種類が登録情報に含まれていてもよい。趣味又は生き甲斐に関する種類としては、例えば、園芸、スポーツ、レクリエーション、体操、音楽、美術、料理、懐かしい景色や玩具、旅行、動物、乗り物、ショッピング情報など、様々な種類を用意しておくことができる。或いは、利用者が希望する情報の種類として、病気に関する複数の種類が予め選定可能に用意され、それら複数の種類から選ばれるいずれか1以上の種類が登録情報に含まれていてもよい。具体的には、老齢症候群の予防やリハビリテーションやリラクゼーションに関する複数の種類が予め選定可能に用意され、それら複数の種類から選ばれるいずれか1以上の種類が登録情報に含まれていてもよい。
In the
例えば、図3の利用者データにおいて、ID1が「00001」の情報であり、登録種類1が「園芸、体操」を特定する情報であり、利用者情報1が、利用者名として「山田太郎」を特定し、配信先アドレスとして「アドレス情報1」を特定する情報であるとする。この場合、制御装置91は、利用者データを参照すれば、「00001」のIDで特定される利用者の氏名が「山田太郎」であり、配信先アドレスが「アドレス情報1」であり、この利用者が希望する種類が「園芸、体操」であることを特定することができる。
For example, in the user data of FIG. 3, ID1 is information of "00001",
管理装置90は、コンテンツの登録及び配信を行うことが可能とされている。図4は、図4は、図1に示される管理装置90の記憶部95に記憶されるコンテンツ関連データのデータ構造例を示している。図4のように、管理装置90に記憶されるコンテンツ関連データは、データベースを構成しており、コンテンツ毎に、コンテンツ識別情報、コンテンツデータ、配信日時、コンテンツの種類が互いに対応付けられて記憶されている。本明細書では、コンテンツデータは、コンテンツ情報の一例に相当し、単にコンテンツとも称される。
The
コンテンツ識別情報は、各々のコンテンツを識別可能且つ特定可能な情報であればよく、識別番号であってもよく、具体的な名称であってもよい。コンテンツデータは、コンテンツの具体的なデータであり、動画データ、静止画データ、音声データなどを含んでいてもよく、その他のデータ(例えば、プログラムデータ等)を含んでいてもよい。配信日時は、対応付けられたコンテンツ(コンテンツデータ)が配信される日時を特定する情報である。種類情報は、対応付けられたコンテンツ(コンテンツデータ)の種類を特定する情報である。種類情報で特定されるコンテンツの種類は、1種類であってもよく、複数種類であってもよい。 The content identification information may be information that can identify and specify each content, and may be an identification number or a specific name. Content data is specific data of content, and may include moving image data, still image data, audio data, etc., and may include other data (for example, program data, etc.). The distribution date and time is information specifying the date and time when the associated content (content data) is distributed. The type information is information specifying the type of associated content (content data). The type of content specified by the type information may be one type or a plurality of types.
管理装置90は、各識別情報で特定される各コンテンツ(コンテンツデータ)を、各コンテンツを配信すべき利用者(各コンテンツの種類を登録している利用者)のバーチャルアシスタント装置10に対し、各コンテンツに対応付けられた各配信日時に配信する。なお、図1では、一の利用者が所持する一のバーチャルアシスタント装置10のみが例示されているが、システム1では、多数の利用者がバーチャルアシスタント装置10を所持することができ、図1では、他の利用者が所持するバーチャルアシスタント装置10の図示は省略されている。管理装置90は、コンテンツを配信する場合において、そのコンテンツの配信対象の利用者が複数存在する場合、いずれの利用者のバーチャルアシスタント装置10に対してもコンテンツを配信することができる。なお、本実施形態では、管理装置90が各コンテンツを配信すべき利用者(各コンテンツの種類を登録している利用者)を特定し、当該利用者のバーチャルアシスタント装置10に対し、各コンテンツ(コンテンツデータ)を配信することとしたが、コンテンツの配信はこれに限られない。例えば、利用者のバーチャルアシスタント装置10が、自身の記憶部に記憶されている情報に基づき、管理装置90に対してコンテンツの配信を要求することで、当該利用者のバーチャルアシスタント装置10に対し、各コンテンツ(コンテンツデータ)を配信することとしてもよい。
The
例えば、図4のコンテンツ関連データにおいて、「識別情報1」が「0000A」の情報であり、「データ1」が「園芸に関する所定の動画データ」であり、「日時情報1」が「2021年1月1日10:00」であり、「種類情報1」が「園芸」を特定する情報であるとする。この場合、制御装置91は、図4のコンテンツ関連データを参照すれば、「0000A」に対応付けられたコンテンツデータ(データ1の「園芸に関する所定の動画データ」)を、「園芸」の種類のデータとして、「2021年1月1日10:00」に配信すべきことを特定することができる。この場合、管理装置90は、識別情報1(0000A)で特定されるコンテンツデータ(データ1の「園芸に関する所定の動画データ」)を、「園芸」の種類のデータを登録する利用者(図3の利用者データにおいて、登録種類として「園芸」を含む利用者)のバーチャルアシスタント装置10に対し「2021年1月1日10:00」に配信する。
For example, in the content-related data of FIG. 4, "
5.バーチャルアシスタント装置の受信制御
5-1.基本制御
バーチャルアシスタント装置10には、アプリケーションプログラムが記憶されている。このアプリケーションプログラムは、バーチャルアシスタント装置10にインストールされている。このアプリケーションプログラムは、記憶部14に記憶され、制御部11によって読み出されて実行される。
5. Reception control of virtual assistant device 5-1. Basic Control An application program is stored in the
上述されたように、管理装置90は、バーチャルアシスタント装置10に対してコンテンツ(コンテンツデータ)を配信する。管理装置90からバーチャルアシスタント装置10に配信されるコンテンツは、バーチャルアシスタント装置10を所持する利用者が予め登録した種類に属するコンテンツであってもよく、利用者による登録に関係なく管理装置90が選定したコンテンツであってもよい。バーチャルアシスタント装置10は、管理装置90から自身に対して配信されるコンテンツを通信部12によって受信する。制御部11は、外部(管理装置90)から配信されるコンテンツ(コンテンツデータ)を通信部12が受けた場合に、そのコンテンツデータを記憶部14に記憶し、インタフェース13を介して「所定の報知」を行う制御を実行する。なお、「所定の報知」は、コンテンツデータを記憶部14に記憶する前に行ってもよい。
As described above, the
具体的には、上記アプリケーションプログラムは、図5のような流れで制御部11に制御を行わせるプログラムである。制御部11は、所定の開始条件が成立した場合(例えば、操作部17に対して予め定められた開始操作(例えば、当該アプリケーションプログラムを起動させるためのタッチパネル20の操作)がなされた場合)に上記アプリケーションプログラムを実行し、ステップS1において、画像によって具現化されたキャラクタ70を表示部15に表示させる。
Specifically, the application program is a program that causes the
図2には、ステップS1でなされる表示の具体例が示される。図2において、キャラクタ70は、一般人を模したバーチャルアシスタント(擬人)である。図2に表示されるキャラクタ70は、あくまで一例であり、例えば、介護福祉士、看護師、医師などの特定の職業の者を模したバーチャルアシスタントであってもよい。また、人に限らず動物やロボット等を模したバーチャルアシスタントであってもよい。上記アプリケーションプログラムは、図2に表示されるキャラクタ70が自動的に会話を行うようにチャットボットの機能を実現するプログラムが備えられていてもよい。自動的に行う会話の内容は、利用者が事前に登録した属性(男女、家族構成、住宅環境、誕生日、趣味、コンテンツの難易度など)に合わせて、変更、選択することができる。図2に示されるキャラクタ70の画像は、静止画や動画などによって実現することができ、後述されるステップS3,S8の処理が実行されていない期間には、時間経過に応じて図6、図7,図8のようにキャラクタ70の表情、姿勢、動作、行為などを様々に変化させてもよい。
FIG. 2 shows a specific example of display performed in step S1. In FIG. 2, the
制御部11は、ステップS1、S3、S4、S8等において、図2、図6~図8のようにキャラクタ70を表示させ、その場合には、表示部15に、季節、暦、日付、時刻等を表示してもよく、朝・昼・夕方・夜の時間帯をイメージするイラストレーション、写真、コンピューターグラフィック、その他の画像等を表示してもよい。例えば、図6は、予め定められた昼の時間帯の画像を示しており、この画像では、昼の時間帯であることを示すようにキャラクタ70の外側の背景の色を明るい色(具体的には予め定められた明色)で示している。一方、図8は、予め定められた夜の時間帯の画像を示しており、この画像では、夜の時間帯であることを示すようにキャラクタ70の外側の背景の色を暗い色(予め定められた暗色)で示している。
In steps S1, S3, S4, S8, etc., the
制御部11は、ステップS1の後、ステップS2において、会話開始条件が成立したか否かを判定する。会話開始条件は、バーチャルアシスタント装置10から会話を発する条件として予め定められた条件である。会話開始条件は、音声入力部18に対して所定の音声が入力されたこと(例えば、予め定められたウエイクワードが入力されたこと)であってもよい。以下で説明される代表例では、キャラクタ70の名前がウエイクワードとされており、このウエイクワードが音声入力されることが会話開始条件の一つとされている。なお、この例はあくまで一例であり、予め定められた挨拶(例えば「こんにちは」の言葉)がウエイクワードとされ、このウエイクワードが音声入力されることが会話開始条件の一つとされてもよい。会話開始条件は、これらの例に限定されず、例えば、操作部17に対して所定の操作がなされたこと(例えば、表示部15近傍をタップする操作がなされたこと)であってもよい。或いは、会話開始条件は、予め設定された予約時刻が到来したことであってもよい。
After step S1, the
制御部11は、ステップS2において会話開始条件が成立した判定した場合、ステップS3に進んで会話又はコンテンツの提供を開始する。ステップS3での会話やコンテンツの提供は、後述されるステップS8と同様に行うことができる。一方、ステップS2において会話開始条件が成立していないと判定した場合、ステップS4に進んで通常表示を継続する。なお、ステップS2でのNo判定及びステップS5でのNo判定が繰り返される間は、図2、図6~図8のようなキャラクタ表示を継続させ、継続中には、キャラクタ70の表情、姿勢、動作、行為などを様々に変化させる。
When the
制御部11は、ステップS3又はステップS4の後、ステップS5において、新たな配信があったか否かの判定を行う。制御部11は、ステップS5において、通信部12が管理装置90から配信されたコンテンツ(コンテンツデータ)を受けていない判定した場合、ステップS5においてNoと判定するとともにステップS2に処理を戻し、ステップS2以降の処理を再び行う。制御部11は、ステップS5において新たな配信があったと判定した場合、ステップS5においてYesと判定し、ステップS6以降の処理を行う。
After step S3 or step S4, the
5-2.新たな配信があった場合
制御部11は、ステップS5において、通信部12が管理装置90から配信されたコンテンツ(コンテンツデータ)を受けたか否かを判定し、受けたと判定した場合、ステップS6において、インタフェース13に「所定の報知」を行わせる。「所定の報知」は、「バーチャルアシスタント装置10が外部から新たなコンテンツの配信を受けたことを伝える伝達情報」の表示や音声出力などである。上記伝達情報の表示や音声出力は、メッセージの表示や音声出力などであってもよく、新たなコンテンツの配信を受けたことを伝える記号や絵柄などの画像表示であってもよく、新たなコンテンツの配信を受けたことを伝える報知音(アラーム音やブザー音などの発生)の出力であってもよい。報知音としては、例えば日常生活で聴きなれた電話のベル音やチャーム音が好ましい。例えば、図9には、「所定の報知」の一例が示されている。図9の例では、「所定の報知」として、配信名で特定される配信が届いた旨のメッセージの画像72を表示部15に表示させているが、このようなメッセージ表示に代えて又はメッセージ表示と併用して音声によるメッセージ報知、絵柄等の画像表示、報知音の出力などを行ってもよい。例えば、キャラクタの会話により報知してもよい。
5-2. When there is a new delivery In step S5, the
このように、上記のアプリケーションプログラムは、外部(管理装置90)から配信されるコンテンツデータ(コンテンツ情報)を通信部12が受けた場合に、ステップS6において、「インタフェース13を介して所定の報知を行う制御」を制御部11に実行させる。
In this way, when the
制御部11は、ステップS6において、インタフェース13に「所定の報知」を行わせた後、ステップS7において、提供指示があったか否かを判定する。具体的には、制御部11は、ステップS7において、「インタフェース13を介してコンテンツの提供を指示する入力を受けたか否か」を判定する。
After causing the
「コンテンツの提供を指示する入力」は、例えば、操作部17に対する所定操作であってもよく、所定の音声入力であってもよい。例えば、ステップS6の処理によって図9のような「所定の報知」がなされる例では、「所定の報知」のメッセージと共に2つの選択ボタン(「見ない」「見る」のボタン画像)が表示される。この場合、それら選択ボタンのうちの「見る」を選択する操作(例えば、「見る」の画像72をクリックする操作)が「コンテンツの提供を指示する入力」の一例に相当する。従って、ステップS6において図9のような表示が行われた後、「見る」を選択する操作がなされた場合、ステップS7では、コンテンツの提供を指示する入力を受けたと判定し、ステップS8の処理を実行する。
The “input for instructing provision of content” may be, for example, a predetermined operation on the
制御部11は、ステップS7において「コンテンツの提供を指示する入力」を受けなかった判定した場合、ステップS9において新たに配信されたコンテンツデータを記憶部14に蓄積する。例えば、制御部11は、ステップS6において「所定の報知」を行った後、所定時間を経過するまで「コンテンツの提供を指示する入力」がなされない場合、図10のように、コンテンツデータ(コンテンツ情報)の配信があったことを示す報知情報の表示を表示部15に行わせる。例えば、管理装置90から新たに2つのコンテンツデータが配信され、ステップS6において図9のように「所定の報知」が行われた場合に、「所定の報知」の開始から所定時間を経過しても「見る」のボタンが押されなかった場合には、ステップS9に進み、新たに配信されてきたコンテンツデータを蓄積するとともに、図10のような画像を表示する。図10の画像では、報知情報として、新たに配信されたコンテンツのうち未提供となっているコンテンツの数を画像74によって表示している。なお、ステップS6において図9のように「所定の報知」が行われた場合に、「見ない」のボタンが選択された場合(即ち、コンテンツの提供の保留を指示する入力がなされた場合)にも、ステップS9に進んで同様の処理を行う。
If the
制御部11は、ステップS7において「コンテンツの提供を指示する入力」を受けたと判定した場合、ステップS8において、会話やコンテンツを提供する表示を表示部15に行わせる。制御部11は、ステップS7でYesと判定してステップS8の処理を行う場合、管理装置90から新たに配信されたコンテンツデータ(コンテンツ情報)に基づくコンテンツの出力(例えば、新たに配信されたコンテンツデータに含まれる動画の再生や静止画の表示、音声の出力等)を表示部15や音声出力部16に行わせる。
If the
ステップS7でYesに進んだ場合にステップS8で行う制御は、「通信部12が受けたコンテンツに関する会話」を、インタフェース13を介して出力する制御である。図11~図14は、ステップS7でYesに進んだ場合に、制御部11がステップS8で行う制御の一例を示している。図11~図14は、管理装置90から「園芸」に関する「いきいき配信」というコンテンツが新たに配信された場合においてステップS8でこのコンテンツを提供する例であり、この例では、配信されたコンテンツデータに「園芸」に関する動画や会話データが含まれている。この場合、制御部11は、ステップS8において動作を再生しつつ会話のために音声を発するように制御を行う。例えば、図13の例では、ひまわり畑が表示されたタイミングで「夏の花、ひまわりは元気なイメージですね」という会話を発している。この会話を発する際には、キャラクタ70を表示させておくことで、キャラクタ70が話しかけている印象を与えることができる。なお、制御部11は、会話を発する場合、予め登録された利用者のニックネームで発話をしてもよい。
The control performed in step S8 when the process proceeds to Yes in step S7 is control for outputting the “conversation regarding the content received by the
制御部11は、ステップS8にてコンテンツの提供を行い、図13のように利用者に対して会話を発した場合には、その後、動作検出部が検出する動作又は音声入力部に入力される音声の少なくともいずれかに基づいて「利用者からの応答の認識」を試みる。例えば、操作部17に対する所定の応答操作(例えば、キャラクタ70やその他のデザインをタップする操作)や音声入力部18に対する所定の音声入力(例えば、言葉の入力)が「利用者からの応答」と定められている。制御部11は、インタフェース13において「利用者からの応答」があった場合に、この応答に対する更なる会話を、インタフェース13を介して出力するように制御を行う。「応答に対する更なる会話」は、提供されているコンテンツの種類の話題であってもよく、その種類とは異なる話題であってもよい。「応答に対する更なる会話」は、文字表示と音声出力を併用することが望ましいが、いずれか一方であってもよい。なお、制御部11が「応答に対する更なる会話」を発するように制御を行った場合、再び、「利用者からの応答の認識」を試みることが望ましい。そして、「利用者からの応答」があった場合には、この応答に対する更なる会話を、インタフェース13を介して出力することが望ましい。このように、「応答に対する更なる会話」と「利用者からの応答の認識」を繰り返すことで、会話を継続させることができる。
The
このように、制御部11は、インタフェース13を介して「コンテンツに関する会話」を出力した後、インタフェース13を介して「利用者からの応答」を認識した場合に、インタフェース13を介して「応答に対する会話」を出力するように制御を行う。ステップS8は、このような制御を制御部11に行わせるステップである。
In this way, when the
なお、制御部11は、ステップS8にて会話を行う場合、音声の入出力と併用して、音声入力部18を介して音声入力された発話内容(利用者の発話内容)やバーチャルアシスタント装置10の発話内容(例えば、キャラクタ70の発話内容)を表示部15に文字で表示してもよい。
In addition, when the conversation is performed in step S8, the
なお、図11~図14は、バーチャルアシスタント装置10と対応付けて登録されている種類(利用者が希望する種類)のコンテンツを提供する例が示されるが、ステップS8で提供するコンテンツや会話はこの例に限定されない。 11 to 14 show an example of providing content of the type registered in association with the virtual assistant device 10 (the type desired by the user). It is not limited to this example.
5-3.新たな配信が無い期間の通常動作の詳細
次の説明は、新たな配信が無い期間(ステップS5のNoと判定される期間)になされる通常動作の詳細に関する。この期間、制御部11は、主に、待機モードと会話モードとに切り替わる。本実施形態では、新たな配信が無い期間(ステップS5のNoと判定される期間)において、ステップS4の処理を継続するモードが待機モードの一例である。また、上記期間において、ステップS3の処理を継続するモードが会話モードの一例である。
5-3. Details of Normal Operation During No New Delivery Period The following description relates to details of the normal operation performed during the period during which there is no new delivery (the period during which No is determined in step S5). During this period, the
会話モードは、ステップS2でYesと判定されてから、会話モードの終了条件が成立するまでのモードである。会話モードの終了条件は、会話モードで実行されたコンテンツが終了したことであってもよく、一定時間以上インタフェースに所定入力(例えば、音声入力やタッチパネルに対する操作等)がなされなかったことであってもよく、利用者からインタフェースに対して終了を指示する入力(終了を指示する音声入力や接触操作等)がなされたことであってもよい。会話モードは、具体的には、制御部11がウエイクワード以外の言葉を検出するモードである。制御部11は、会話モード中にインタフェースに音声が入力された場合、インタフェースに入力された音声を解析し、その音声が意味する言葉を公知の方法で認識する。
The conversation mode is a mode from when it is judged as Yes in step S2 until the termination condition of the conversation mode is satisfied. The termination condition of the conversation mode may be that the content executed in the conversation mode has ended, or that a predetermined input (for example, voice input, touch panel operation, etc.) has not been made to the interface for a certain period of time or longer. Alternatively, the user may input an instruction to end the interface (such as a voice input or a touch operation to instruct the end). Specifically, the conversation mode is a mode in which the
待機モードは、ステップS2でNoと判定される期間のモードであり、会話モードが解除されているときのモードである。待機モードは、上記インタフェースにウエイクワードが入力されたか否かを制御部11が監視するモードである。制御部11は、待機モード中にインタフェースに音声が入力された場合、その音声がウエイクワードであるか否かを公知の方法で判定する。但し、制御部11は、待機モード中にインタフェースに入力される音声からウエイクワード以外の音声は認識しない。つまり、制御部11は、待機モードのときには、ウエイクワード以外の音声認識する必要が無く、ウエイクワードであるか否かの判定を行うだけで済むため、会話モードのときよりも音声の認識を簡略化することができる。
The standby mode is a mode during which No is determined in step S2, and is a mode when the conversation mode is canceled. The standby mode is a mode in which the
図5のフローチャートで示されるように、制御部11は、ステップS2、S5でNoの判定が繰り返される期間は待機モードに設定され、待機モード中には、ウエイクワードの検出を継続的に試みる。制御部11は、待機モード中にインタフェース13にウエイクワードが音声入力されたことを検出した場合、ステップS2にてYesと判定するとともに会話モードに切り替わり、処理をステップS3に進める。そして、会話モードの終了条件が成立するまで、会話モードを継続する。制御部11は、会話モードの終了条件が成立した場合、待機モードに切り替わり、待機モードを継続する。制御部11は、待機モード中に、キャラクタが待機動作を行う画像を表示部15に表示させることもできる。
As shown in the flowchart of FIG. 5, the
バーチャルアシスタント装置がステップS3、S8で提供するコンテンツは、単に静止画を表示したり単に動画を流したりするコンテンツであってもよいが、バーチャル体験ができるコンテンツであってもよい。バーチャル体験ができるコンテンツは、図21のような疑似的にドライブ体験ができるコンテンツや、図24のような疑似的に仕事体験ができるコンテンツや、図29~図31のような疑似的に育成や飼育などの体験ができるコンテンツなどが挙げられる。なお、ステップS3でいずれのコンテンツを実施するかは、ユーザが選択できるようになっていることが望ましい。ユーザによるコンテンツの選択方法は、例えば、複数種類のコンテンツ名をタッチパネル20に表示させたうえで、ユーザが希望するコンテンツを選択するような方法であってもよく、キャラクタ70が会話の中で「旅行の動画を見ましょうか?」といった具合にコンテンツの種類を提案し、それに応じてユーザが希望する指示(タップ操作や指示する用語の音声入力など)を行った場合に、そのコンテンツが選択されるようにしてもよい。これらの方法に限定されず、他の方法でコンテンツが選択されてもよい。
The content provided by the virtual assistant device in steps S3 and S8 may be content for simply displaying a still image or simply playing a moving image, or may be content that allows a virtual experience. Contents that allow a virtual experience include content that allows a pseudo driving experience as shown in FIG. 21, content that allows a pseudo work experience as shown in FIG. Examples include content that allows you to experience raising animals. In addition, it is desirable that the user can select which content is performed in step S3. The content selection method by the user may be, for example, a method in which a plurality of types of content names are displayed on the
5-4.質問動作及び関連会話動作の具体例1
次の説明は、ステップS3、S8でなされる会話の具体例に関する。
制御部11は、図5の制御においてステップS3の処理で採用する会話として、様々な種類の会話を採用し得る。その一つとして、図15、図16のように、利用者に対して質問をするような会話を提供することができる。利用者に質問する会話(質問会話)を提供する場合、コンテンツの提供とは関連無く独立して質問会話を提供してもよく、図11~図14のようにコンテンツを提供した後又は提供途中で、コンテンツに関連する内容の質問会話を提供してもよい。
5-4. Concrete Example 1 of Question Action and Related Conversation Action
The following description relates to specific examples of conversations that take place in steps S3 and S8.
The
制御部11は、質問会話を提供する提供条件が成立した場合、予め定められた方法で選定される質問会話を提供するようにインタフェース13を動作させる。具体的には、制御部11は、図15、図16のように、いずれかの話題に対応する複数の選択肢をインタフェース13に出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェース13に出力させるように第1発話制御を行う。図15、図16の例では、いずれかの話題の質問と、質問に対する答えの候補である複数の選択肢と、を含んだキャラクタの会話を表示部15に表示させるように第1発話制御を行っている。なお、図5の制御を実行するためのプログラムにおいて、ステップS3又はステップS8を実行するためのプログラムの一部が、「第1発話制御を制御部11に行わせるステップ」の一例に相当する。
The
なお、このような第1発話制御を実現するためには、「話題」と「質問」と「複数の選択肢」を対応付けた対応情報が複数種類用意され、このような複数種類の対応情報が記憶部14に記憶されていることが望ましい。例えば、「旅行」の話題が用意されている場合、「旅行」という話題の種類と「旅行」の話題に関する質問(図15参照)とその質問に対する回答の候補である複数の選択肢(図15参照)とを互いに対応付けて含んだ第1の対応情報が記憶部14に記憶されていればよい。また、「乗り物」の話題が用意されている場合、「乗り物」という話題の種類と「乗り物」の話題に関する質問(図19参照)とその質問に対する回答の候補である複数の選択肢(図19参照)とを互いに対応付けて含んだ第2の対応情報が記憶部14に記憶されていればよい。また、「仕事」の話題が用意されている場合、「仕事」という話題の種類と「仕事」の話題に関する質問(図22参照)とその質問に対する回答の候補である複数の選択肢(図22参照)とを互いに対応付けて含んだ第3の対応情報が記憶部14に記憶されていればよい。このようになっていれば、制御部11は、いずれかの話題を選定した場合に、記憶部14に記憶される複数種類の対応情報の中から選定した話題に対応する対応情報(選定した話題に対応する「質問」とその「質問」に対する回答の候補である「複数の選択肢」とを含む対応情報)を読み出すことができ、読み出した対応情報に基づいて、選定された話題に対応付けられた質問及び選択肢を把握することができる。
In addition, in order to realize such first utterance control, a plurality of types of correspondence information are prepared in which a "topic", a "question", and a "plurality of options" are associated with each other. It is desirable that the information is stored in the
なお、対応情報の「話題」は、独立した話題であってもよく、「いずれかの話題の対応情報において当該話題に対応付けられた選択肢」の話題であってもよい。例えば、「旅行」の話題の対応情報において「旅行」に対応する選択肢として「北海道」「沖縄」「東北」の選択肢が含まれる場合に、「北海道」が別途一つの話題とされ、この話題(北海道の話題)に対応する対応情報として、北海道に関する質問(例えば、図16のような北海道で買いたいお土産を問う質問)とこの質問に対する回答候補としての複数の選択肢(例えば、図16のような、じゃがいも、チーズ、トウモロコシなどの選択肢)とを含む対応情報が別途記憶されていてもよい。 Note that the "topic" of the correspondence information may be an independent topic, or may be a topic of "options associated with the topic in the correspondence information of any topic". For example, when the corresponding information for the topic of "travel" includes options of "Hokkaido", "Okinawa", and "Tohoku" as options corresponding to "travel", "Hokkaido" is treated as a separate topic, and this topic ( As correspondence information corresponding to the topic of Hokkaido), a question about Hokkaido (for example, a question asking what souvenirs you want to buy in Hokkaido as shown in FIG. 16) and multiple options as answer candidates for this question (for example, as shown in FIG. 16). , potato, cheese, corn, etc.) may be stored separately.
このように記憶されていれば、例えば、1回目の第1発話制御でいずれかの話題に関する質問を行った際に、その質問に応じていずれかの選択肢が選択された場合(例えば、図15の質問において北海道が選択された場合)に、その選択された選択肢の話題に対応付けられた対応情報が記憶部14に記憶されている場合(例えば、上記「北海道」に対応付けて図16のような「北海道のお土産」の話題に対応付けられた対応情報が記憶部14に記憶されている場合)には、制御部11は、その選択肢の話題に対応付けられた対応情報に基づいて質問及び複数の選択肢を提供することができる。つまり、制御部11は、第1発話制御の際に選択された選択肢を話題とする対応情報が存在する場合には、その対応情報に基づき、第1発話制御の際に選択された選択肢に関する質問とその質問に対する回答の候補である複数の選択肢を、図16のようなキャラクタの会話によって提供するように、2回目の第1発話制御を行うことができる。なお、いずれの場合でも、対応情報は、記憶部14に継続的に記憶されていてもよく、必要に応じて管理装置90からバーチャルアシスタント装置10に配信されて記憶部14に記憶されてもよい。
If stored in this way, for example, when a question about any topic is asked in the first utterance control for the first time, one of the options is selected in response to the question (for example, FIG. 15 If Hokkaido is selected in the question), and the corresponding information associated with the topic of the selected option is stored in the storage unit 14 (for example, if it is associated with the above "Hokkaido", (If the correspondence information associated with the topic of "Hokkaido souvenir" is stored in the storage unit 14), the
第1発話制御で提供する質問の話題は、予め登録情報において利用者(図5の制御で提供対象とする利用者)に対応付けられた情報の種類に関する話題であってもよく、ステップS3、S8で提供するコンテンツに関する話題であってもよい。例えば、登録情報において利用者に対して「旅行」が対応付けられて登録されている場合、この「旅行」に関する質問会話として図15のような情報を提供してもよい。或いは、ステップS3やS8において「旅行」に関するコンテンツ(動画等)を表示する場合、「旅行」のコンテンツの提供が終了した後又は提供途中で、「旅行」に関する質問会話として図15のような情報を提供してもよい。図15のような『「旅行」に関する質問会話』を可能にするためには、「旅行」の話題とこの話題に対応する複数の選択肢とを対応付けた対応情報が記憶部14に記憶されていればよい。 The topic of the question provided in the first utterance control may be a topic related to the type of information previously associated with the user (the user to be provided in the control of FIG. 5) in the registered information. The topic may be related to the content provided in S8. For example, when "travel" is associated with the user in the registration information and registered, information such as that shown in FIG. 15 may be provided as a question conversation regarding this "travel". Alternatively, when displaying content (movie, etc.) related to "travel" in steps S3 and S8, information such as that shown in FIG. may be provided. In order to enable the "question conversation about 'travel'" as shown in FIG. All you have to do is
図15の例では、旅行の話題に関する質問として「行きたい都道府県」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的な都道府県名を示した複数の選択肢が採用されている。なお、制御部11は、図15、図16のように第1発話制御を行う場合、表示部15に表示される会話(質問や選択肢の言葉など)をキャラクタ70が読み上げるように音声出力部16に音声を出力させることが望ましい。
In the example of FIG. 15, a question about "the prefecture you want to visit" is adopted as a question about the topic of travel, and a plurality of choices indicating a plurality of types of specific prefecture names are adopted as candidates for the answer to the question. ing. When performing the first utterance control as shown in FIGS. 15 and 16, the
制御部11は、第1発話制御において、図15のように複数の選択肢を出力するようにインタフェース13を制御した場合、複数の選択肢が出力された後にインタフェース13を介していずれかの選択肢を選択する選択入力がなされるか否かを確認する。図15の例では、「いずれかの選択肢を選択する選択入力」は、タッチパネル20において各選択肢(具体的には、北海道、沖縄、東北、の各々)が表示された各領域のいずれかの表面に接触する操作である。例えば、図15の状態で、タッチパネル20における『「北海道」の選択肢が表示された領域の表面に接触する操作(利用者による操作)』がなされた場合、制御部11は、「利用者」と「操作によって選択された選択肢」と「質問内容」とを対応付けた情報を記憶部14に記憶する(具体的には、利用者が行きたい都道府県が北海道であることを特定する結果情報を記憶部14に記憶する)。
When controlling the
質問会話は、1回で終わらせてもよく、図15、図16のように複数の質問会話を行ってもよい。図15、図16の例は、図15のような質問会話(一回目の質問会話)の後に、一回目の質問会話で選択された選択肢に関する更なる質問会話(二回目の質問会話)を提供する例である。 The question conversation may be completed in one session, or a plurality of question conversations as shown in FIGS. 15 and 16 may be conducted. In the examples of FIGS. 15 and 16, after the question conversation (first question conversation) as shown in FIG. 15, a further question conversation (second question conversation) regarding the options selected in the first question conversation is provided. This is an example of
図16の例では、一回目の質問会話で選択された選択肢に関する質問として「北海道に行った場合に買いたいお土産」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的なお土産名を示した複数の選択肢が採用されている。この例でも、制御部11は、図16のように複数の選択肢を出力するようにインタフェース13を制御した場合、複数の選択肢が出力された後にインタフェース13を介していずれかの選択肢を選択する選択入力がなされるか否かを確認する。図16の例では、「いずれかの選択肢を選択する選択入力」は、タッチパネル20において各選択肢(具体的には、じゃがいも、チーズ、とうもろこし、の各々)が表示された各領域のいずれかの表面に接触する操作である。例えば、図16の状態で、タッチパネル20における『「チーズ」の選択肢が表示された領域の表面に接触する操作(利用者による操作)』がなされた場合、制御部11は、「利用者」と「操作によって選択された選択肢」と「質問内容」とを対応付けた情報を記憶部14に記憶する(具体的には、利用者が北海道に言った場合に買いたいお土産がチーズであることを特定する結果情報を記憶部14に記憶する)。
In the example of FIG. 16, a question about "souvenirs I would like to buy when I go to Hokkaido" is adopted as a question about the option selected in the first question conversation, and a plurality of types of concrete answer candidates are used as candidates for the answer to the question. In addition, multiple options indicating the name of the souvenir are adopted. In this example as well, when the
制御部11は、ステップS3又はS8において第1発話制御を行った場合、第1発話制御に応じてなされる上述の選択入力を確認し、選択入力が確認された場合には上述の結果情報を記憶部14に記憶した後に、第1発話制御を終了する。制御部11は、ステップS3で第1発話制御を行った場合、第1発話制御の終了後には、ステップS3以降の処理を行う。制御部11は、ステップS8で第1発話制御を行った場合、第1発話制御の終了後には、ステップS8以降の処理を行う。
When the first utterance control is performed in step S3 or S8, the
制御部11は、上述の第1発話制御の終了後、所定期間をおいてから、第2発話制御を行う。「所定期間」は、ある程度の期間が経過したことの基準であればよく、例えば、1週間や1か月などの「予め定められた一定期間」であってもよく、「コンテンツが所定回数視聴されるまでの期間」などであってもよく、「コンテンツが所定個数配信されるまでの期間」などであってもよい。
The
具体的には、制御部11は、「第1発話制御が終了してから所定期間が経過する」という第1条件を満たし、且つ、「予め定められた発話開始条件が成立する」という第2条件を満たした場合に、第2発話制御を行う。つまり、第1条件及び第2条件を満たすことが第2発話制御の開始条件である。第2条件である上記発話開始条件は、例えば、「第1発話制御で選択された選択肢に関するコンテンツが管理装置から配信されたこと」であってもよく、「所定の曜日になること」や「所定の日にちになること」であってもよく、「ステップS2の会話開始条件が成立すること」であってもよい。
Specifically, the
図17、図18で示される代表例では、「第1発話制御で選択された選択肢に関するコンテンツが管理装置90から配信されたこと」が、上記発話開始条件が成立することである。例えば、上述の第1発話制御が終了してから上記所定期間が経過した後、ステップS4の通常表示を継続しているときに「第1発話制御で選択された選択肢(北海道)に関するコンテンツ」が管理装置90からバーチャルアシスタント装置10に配信された場合(即ち、コンテンツの配信があり且つ第2発話制御の開始条件を満たしている場合)、制御部11は、ステップS5においてYesと判定し、ステップS6において、図17のようにインタフェース13に「所定の報知」を行わせた後、ステップS7において、提供指示があったか否かを判定する。制御部11は、ステップS7では、図17のような表示状態において「見る」又は「見ない」のいずれかが選択されたかを判定し、図17のような表示を開始してから所定時間を経過しても「見る」のボタンが押されなかった場合又は「見ない」のボタンが選択された場合には、ステップS9に進み、新たに配信されてきたコンテンツデータを蓄積する。一方、制御部11は、図17のような表示状態において「見る」のボタンが選択された場合には、図18のような画像を表示するように第2発話制御を行う。図18の例では、制御部11は、図15、図16のような第1発話制御において上記選択入力(「北海道」「チーズ」を選択する入力)で選択された選択肢(北海道、チーズ)に関連する話を、キャラクタ70からの発話としてインタフェース13に出力させるように第2発話制御を行っている。この例では、図5の制御を実行するためのプログラムにおいて、ステップS5、S6、S7、S8を実行するためのプログラムが、「第2発話制御を制御部11に行わせるステップ」の一例に相当する。
In the representative examples shown in FIGS. 17 and 18, the above-mentioned speech start condition is met when "the content relating to the option selected in the first speech control is delivered from the
具体的には、制御部11は、上述の選択入力で選択された選択肢(北海道)の言葉を含む会話をキャラクタ70の会話としてインタフェース13に出力させるように第2発話制御を行っている。更に、制御部11は、上述の選択入力で選択された選択肢(チーズ)の言葉を含む会話をキャラクタ70の会話として当該選択肢(チーズ)の画像とともにインタフェース13に出力させるように第2発話制御を行っている。なお、制御部11は、図18のように第2発話制御を行う場合、表示部に表示される会話(言葉)をキャラクタ70が読み上げるように音声を出力することが望ましい。
Specifically, the
5-5.質問動作及び関連会話動作の具体例2
図15、図16のような第1発話制御に代えて、図19のような第1発話制御を行うようにしてもよい。図19の例では、「乗り物」の話題に関する質問として「乗りたい乗り物」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的な乗り物名を示した複数の選択肢が採用されている。制御部11は、第1発話制御において、図19のように複数の選択肢を出力するようにインタフェース13を制御した場合、タッチパネル20において各選択肢(具体的には、電車、乗用車、バスの各々)が表示された各領域のいずれかの表面に接触する操作がなされたか否かを確認する。例えば、図19の状態で、タッチパネル20における『「乗用車」の表示領域の表面に接触する操作』がなされた場合、制御部11は、「利用者」と「操作によって選択された選択肢」と「質問内容」とを対応付けた情報を記憶部14に記憶する(具体的には、利用者が乗りたい乗り物が乗用車であることを特定する結果情報を記憶部14に記憶する)。
5-5. Concrete Example 2 of Question Action and Related Conversation Action
Instead of the first speech control as shown in FIGS. 15 and 16, the first speech control as shown in FIG. 19 may be performed. In the example of FIG. 19, a question about "a vehicle you want to ride" is adopted as a question on the topic "vehicle", and multiple options indicating a plurality of types of specific vehicle names are adopted as candidates for the answer to the question. ing. In the first utterance control, when the
図19の例でも、第1発話制御の終了後、第2発話制御の開始条件が成立した場合、第2発話制御を開始する。例えば、図19のような第1発話制御が終了してから上記所定期間が経過した後、通常表示(図5のステップS4)を継続しているときに「第1発話制御で選択された選択肢(乗り物)に関するコンテンツ」が管理装置90からバーチャルアシスタント装置10に配信された場合、制御部11は、図5のステップS5においてYesと判定し、ステップS6において、図20のようにインタフェース13に「所定の報知」を行わせた後、ステップS7において、提供指示があったか否かを判定する。制御部11は、図20のような表示状態において「見る」のボタンが選択された場合には、図21のような画像を表示するように表示部15を制御する。
In the example of FIG. 19 as well, after the first utterance control ends, the second utterance control is started when the conditions for starting the second utterance control are met. For example, when the normal display (step S4 in FIG. 5) is continued after the predetermined period of time has passed since the first utterance control as shown in FIG. When the "content related to (vehicle)" is delivered from the
この例では、図20のような会話や表示をインタフェース13に行わせることも第2発話制御の一つである。図20の例では、制御部11は、図19のような第1発話制御の際に「乗用車」を選択する選択入力によって選択された選択肢(乗用車)に関連する話(より具体的には、「ドライブの疑似体験のコンテンツが届きました」というお知らせ)を、キャラクタ70からの発話としてインタフェース13に出力させるように第2発話制御を行っている。更に、図21のような動画を表示させながらキャラクタに乗用車に関する話(例えば、音声による話)を提供させることも第2発話制御の一つである。図21のような例で提供される話としては、例えば、動画で表示されている乗用車の説明、乗用車に乗っているときの気持ち(乗り心地、爽快さ、楽しさなど)、乗用車が通っている場所の説明など、様々な話を採用することができる。
In this example, making the
5-6.質問動作及び関連会話動作の具体例3
図15、図16のような第1発話制御に代えて、図22のような第1発話制御を行うようにしてもよい。図22の例では、「仕事」の話題に関する質問として「子供の頃に夢見た仕事」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的な仕事名を示した複数の選択肢が採用されている。制御部11は、第1発話制御において、図22のように複数の選択肢を出力するようにインタフェース13を制御した場合、タッチパネル20において各選択肢(具体的には、医師、教員、美容師の各々)が表示された各領域のいずれかの表面に接触する操作がなされたか否かを確認する。例えば、図22の状態で、「美容師」の表示領域の表面に接触する操作がなされた場合、制御部11は、「利用者」と「操作によって選択された選択肢」と「質問内容」とを対応付けた情報を記憶部14に記憶する(具体的には、利用者が子供の頃に夢見た仕事が美容師であることを特定する結果情報を記憶部14に記憶する)。
5-6. Concrete Example 3 of Question Action and Related Conversation Action
Instead of the first speech control as shown in FIGS. 15 and 16, the first speech control as shown in FIG. 22 may be performed. In the example of FIG. 22, a question about "the job you dreamed of when you were a child" is adopted as a question on the topic of "work", and a plurality of specific job names are displayed as candidates for the answer to the question. options are adopted. In the first utterance control, when the
図22の例でも、第1発話制御の終了後、第2発話制御の開始条件が成立した場合、第2発話制御を開始する。例えば、図22のような第1発話制御が終了してから上記所定期間が経過した後、通常表示(図5のステップS4)を継続しているときに「第1発話制御で選択された選択肢(美容師)に関するコンテンツ」が管理装置90からバーチャルアシスタント装置10に配信された場合、制御部11は、ステップS6において図23のようにインタフェース13に「所定の報知」を行わせた後、ステップS7において、提供指示があったか否かを判定する。制御部11は、図23のような表示状態において「見る」のボタンが選択された場合には、図24のような画像を表示するように表示部15を制御する。
In the example of FIG. 22 as well, after the end of the first speech control, the second speech control is started when the conditions for starting the second speech control are met. For example, when the normal display (step S4 in FIG. 5) is continued after the predetermined period of time has elapsed since the first utterance control as shown in FIG. (Hairdresser)" is delivered from the
この例では、図23のような会話や表示を行わせることも第2発話制御の一つである。図23の例では、制御部11は、図22のような第1発話制御において上記選択入力(「美容師」を選択する入力)で選択された選択肢(美容師)に関連する話(より具体的には、「美容師さん疑似体験のコンテンツが届きました」というお知らせ)を、キャラクタ70からの発話としてインタフェース13に出力させるように第2発話制御を行っている。更に、図24のような動画を表示させながらキャラクタに美容師の仕事や疑似体験に関する話を提供させることも第2発話制御の一つである。
In this example, making a conversation or display as shown in FIG. 23 is one of the second speech controls. In the example of FIG. 23, the
5-7.質問動作及び関連会話動作の具体例4
図15、図16のような第1発話制御に代えて、図25のような第1発話制御を行うようにしてもよい。図25の例では、「勉強」の話題に関する質問として「興味があって勉強したいこと」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的な勉強対象を示した複数の選択肢(具体的には、料理、生け花、手芸)が採用されている。例えば、図25の状態で、タッチパネル20における「手芸」の表示領域の表面に接触する操作がなされた場合、制御部11は、利用者が勉強したいことが手芸であることを特定する結果情報を記憶部14に記憶する。この例でも、制御部11は、図25のような第1発話制御の終了後、第2発話制御の開始条件が成立した場合、上記結果情報に基づいて第2発話制御を開始する。例えば、第1発話制御の終了後、上述の所定期間が経過した後にステップS2(図5)の会話開始条件が成立した場合、制御部11は、ステップS3において図26のような会話をインタフェース13に出力させる。図26の会話は、図25のような第1発話制御において上記選択入力(「手芸」を選択する入力)で選択された選択肢(手芸)に関連する話(より具体的には、「3か月前に手芸を勉強したいと願っていましたね。来週一緒に刺繍を習いに行きましょう。」といった誘いの話)を、キャラクタ70からの発話としてインタフェース13に出力させる例である。この例では、図5の制御を実行するためのプログラムにおいて、ステップS2、S3を実行するためのプログラムが、「第2発話制御を制御部11に行わせるステップ」の一例に相当する。
5-7. Concrete Example 4 of Question Action and Related Conversation Action
Instead of the first speech control as shown in FIGS. 15 and 16, the first speech control as shown in FIG. 25 may be performed. In the example of FIG. 25, a question about "what you are interested in and want to study" is adopted as a question about the topic of "study", and a plurality of candidates indicating a plurality of types of specific study subjects are used as answer candidates for the question. Choices (specifically cooking, flower arrangement, handicrafts) are employed. For example, in the state of FIG. 25, when an operation is performed to touch the surface of the display area for "handicraft" on the
5-8.質問動作及び関連会話動作の具体例5
図15、図16のような第1発話制御に代えて、図27のような第1発話制御を行うようにしてもよい。図27の例では、「歯磨き調査」の話題に関する質問として「いつもの歯のお手入れ方法」を問う質問が採用され、その質問に対する答えの候補として複数種類の具体的なお手入れ方法を示した複数の選択肢(具体的には、歯ブラシ、歯間ブラシ、糸ようじ)が採用されている。例えば、図27の状態で、タッチパネル20における「歯間ブラシ」の表示領域の表面に接触する操作がなされた場合、制御部11は、利用者のお手入れ方法が歯間ブラシであることを特定する結果情報を記憶部14に記憶する。この例でも、制御部11は、図27のような第1発話制御の終了後、第2発話制御の開始条件が成立した場合、上記結果情報に基づいて第2発話制御を開始する。例えば、第1発話制御の終了後、上述の所定期間が経過した後にステップS2(図5)の会話開始条件が成立した場合、制御部11は、ステップS3において図28のような会話をインタフェース13に出力させる。図28の会話は、図27のような第1発話制御において上記選択入力(「歯間ブラシ」を選択する入力)で選択された選択肢(歯間ブラシ)に関連する話(より具体的には、「いつも歯間ブラシを使っていましたね。歯みがきでは取りきれないプラークも歯間ブラシで取り除けますよね。」といった話)を、キャラクタ70からの発話としてインタフェース13に出力させる例である。
5-8. Concrete Example 5 of Question Action and Related Conversation Action
Instead of the first speech control as shown in FIGS. 15 and 16, the first speech control as shown in FIG. 27 may be performed. In the example of FIG. 27, a question about "usual tooth care method" is adopted as a question on the topic "brushing survey", and multiple types of specific tooth care methods are shown as candidates for the answer to the question. options (specifically, toothbrushes, interdental brushes, and floss) have been adopted. For example, in the state of FIG. 27 , when an operation is performed to touch the surface of the “interdental brush” display area on the
5-9.質問動作及び関連会話動作の具体例6
ステップS3で提供するコンテンツとしては、図29~図31のような疑似的な育成や飼育を見守るコンテンツであってもよい。この例では、制御部11は、バーチャルアシスタント装置10が継続的に使用される期間において、疑似的な生き物(疑似的な動物、植物、架空生物など)の生育を見守るような見守りコンテンツを実行し得るようになっている。具体的には、図5の制御を実行するためのるプログラムが、上記見守りコンテンツを実行するためのプログラムも有している。
5-9. Concrete Example 6 of Question Action and Related Conversation Action
The content provided in step S3 may be content for watching pseudo breeding and breeding as shown in FIGS. In this example, the
上記見守りコンテンツを実行するためのプログラムでは、疑似的な見守り対象の状況が多くのパターンに細分化されており、状況毎(パターン毎)に画像が用意されている。そして、このプログラムは、疑似的な見守り対象が各状況にあるとき、利用者からの指示に応じて疑似的な見守り対象に対するアクションを選択するように制御部11を動作させ得る。具体的には、上記プログラムは、前回のコンテンツ視聴時の感想や意見を次のバーチャル体験に反映できるようになっており、利用者の感想や意見がアクションの選択に結び付いている。例えば、上記プログラムは、図29のような画面を表示させるように制御部11を動作させ、図29のような画面の表示中に利用者によってアクションの選択(感想や意見の連絡)がなされた場合には、見守り対象の現在の状況と選択されたアクションとに基づいて、見守り対象の生育状況を、選択されたアクションに対応する状況に移行させるように制御部11を動作させる。図29の例では、疑似的な犬が見守り対象である場合において、利用者に対し、利用者の感想や意見(具体的には希望する次のアクション)を質問しており、利用者は、質問に応じていずれかのアクションを選択することができるようになっている。上記プログラムは、図29のような画面の表示中に利用者がいずれかのアクションを選択すると、疑似的な犬の現在の状況と選択されたアクションとに基づいて、疑似的な犬の生育状況を、選択されたアクションに応じた状況に移行させるように制御部11を動作させる。この例では、制御部11は、例えば図5のステップS3において図29のような画像を表示するように動作することができ、図29のような画像を表示する制御が、第1発話制御の一例に相当する。図29の例では、第1発話制御は、疑似的な見守り対象(疑似的な犬)の話題に対応する複数の選択肢をインタフェース13に出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェース13に出力させる制御である。
In the program for executing the watching content, the situation of the pseudo-watching target is subdivided into many patterns, and an image is prepared for each situation (for each pattern). Then, this program can operate the
例えば、上記プログラムでは、見守り対象(例えば、疑似的な犬)の状況が多数のパターンに細分化された上で、各パターンにおいて各アクションを選択したときにいずれのパターンに移行するかが定められている。例えば、図29のような質問をしたときの見守り対象(疑似的な犬)の状況が特定パターンである場合、この特定パターンのときに「芸を教える」を指示した場合にどのパターンに移行するかが予め定められており、同様に、上記特定パターンのときに「おもちゃで遊ぶ」を指示した場合にどのパターンに移行するかが定められ、上記特定パターンのときに「ご飯をあげる」を指示した場合にどのパターンに移行するかが定められている。いずれかの状況(パターン)から他の状況(他のパターン)への移行は、利用者からの指示によってもなされるが、その他の環境の変化によってなされてもよい。例えば、ある状況(あるパターン)のまま第1の時間が経過した場合にどの状況に移行するかが定められていてもよく、ある状況(あるパターン)のまま周囲温度が所定値以下に低下した場合にどの状況に移行するかが定められていてもよい。勿論、環境の変化の例はこれら以外であってもよい。 For example, in the above program, the situation of the person being watched over (for example, a pseudo-dog) is subdivided into a number of patterns, and it is determined which pattern to shift to when each action is selected in each pattern. ing. For example, when the situation of the watching target (pseudo dog) when the question as shown in FIG. Similarly, it is determined which pattern to shift to when "playing with a toy" is instructed in the above specific pattern, and "feed food" is instructed in the above specific pattern. It is determined which pattern to shift to when A transition from one situation (pattern) to another situation (another pattern) is made by an instruction from the user, but may be made by other changes in the environment. For example, it may be determined which state to shift to when a certain state (certain pattern) is maintained for the first period of time. It may be determined to which state to shift to in the case. Of course, examples of environmental changes may be other than these.
図5の制御を実行するプログラムは、予め定められたタイミングで、上記見守りコンテンツに関する画像の表示を希望するか否かを利用者に問うように動作し得る。「予め定められたタイミング」は、例えば、ステップS2の会話開始条件の一つであり、具体的には、「前回の見守りコンテンツの画像表示の終了から一定時間が経過したこと」であってもよく、予め決められた時間(例えば、決められた時刻など)が到来したことなどであってもよく、インタフェース13に対して見守りコンテンツ画像を表示するための所定操作がなされたことであってもよい。例えば、制御部11は、図5におけるステップS4の通常表示が繰り返されているとき(ステップS2のNo及びステップS5のNoが繰り返されているとき)に上記「予め定められたタイミング」が到来した場合に、ステップS2でYesに進み、ステップS3で図30のような画像を表示させ、上記見守りコンテンツに関する画像の表示を希望するか否かを利用者に問うように動作する。制御部11は、ステップS3では、図30のような画像の表示中に、「見る」が選択された場合(即ち、見守りコンテンツに関する画像の表示を希望する選択がなされた場合)、図31のように、見守り対象(疑似的な犬)の現在の状況を示す画像を表示する。図31の例では、キャラクタ70が見守り対象の状況を説明する会話を行っており、このような会話と並行して、見守り対象の動画を表示している。
The program that executes the control in FIG. 5 can operate to ask the user whether or not he/she wishes to display an image related to the watching content at a predetermined timing. The "predetermined timing" is, for example, one of the conditions for starting the conversation in step S2. It may be that a predetermined time (for example, a predetermined time) has arrived, or that a predetermined operation for displaying a watching content image has been performed on the
このような例でも、制御部11は、第1発話制御によって複数の選択肢が出力された後にインタフェース13を介していずれかの選択肢を選択する選択入力がなされた場合、第1発話制御の終了後に所定期間をおいてから第2発話制御を行うことができる。この例でも、制御部11は、選択入力(例えば、図29におけるいずれかの選択肢の選択)で選択された選択肢に関連する話をキャラクタ70からの発話としてインタフェース13に出力させるように第2発話制御を行う。例えば、制御部11は、図29の画像を表示するような上述の第1発話制御において「おもちゃで遊ぶ」が選択された場合、第1発話制御の終了から所定時間をおいた後日に、例えば、「先日はココちゃんとおもちゃで遊んであげましたね。ココちゃんは楽しそうでしたね。」といったような話をキャラクタ70が発話するようにインタフェース13を動作させるとよい。
Even in such an example, when a selection input is made to select one of the options via the
6.効果の例示
このように、バーチャルアシスタント装置10は、いずれかの話題に対応する複数の選択肢をインタフェース13に出力させ且つ出力される複数の選択肢に関連するキャラクタの会話をインタフェース13に出力させることができるため、利用者に会話の楽しみを提供しつつ、会話と関連付けた形で利用者の意思を正確に確認することができる。そして、このような会話から時間をおいた後、後日、選択入力で選択された選択肢に関連する会話をキャラクタの会話として提供することができるため、キャラクタが過去の会話の内容を覚えているような印象を与えやすい形で、ユーザに話を提供することができる。特に、このバーチャルアシスタント装置10は、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを確実に抑えることができ、利用者がより一層関心をもちやすくなる。
6. Exemplification of Effects As described above, the
例えば、図18の例では、図15、図16のような過去の会話で利用者が意思を持って選択した選択肢(北海道、チーズ)が、過去の会話から所定期間以上を空けた後の会話に取り入れられるため、利用者は、あたかも、過去の会話で自身が発した具体的な言葉をキャラクタが覚えていてくれたような感覚又は印象をもつことができ、キャラクタに対する愛着、距離感、信頼感などが一層増しやすく、会話への関心が高まりやすい。 For example, in the example of FIG. 18, the option (Hokkaido, cheese) that the user intentionally selected in the past conversation as shown in FIGS. Therefore, the user can have a feeling or impression as if the character remembered the specific words he or she uttered in the past conversation, and the user has attachment to the character, a sense of distance, and trust. It is easy to increase the feeling, etc., and it is easy to increase the interest in conversation.
バーチャルアシスタント装置10は、第1発話制御において、質問内容と質問に対する答えの候補とを表示部15に表示させることができるため、利用者は、質問と答えの候補を視覚的に確認しながら選択することができる。よって、選択の正確性が高まり、第2発話制御において、「第2発話制御で提供される話」が「利用者が選択した選択肢」から大きくずれることを、より一層確実に抑えることができる。
Since the
バーチャルアシスタント装置10は、第2発話制御に基づいて提供される会話の中に「第1発話制御に応じて選択された選択肢の言葉」が含まれるため、利用者は、第2発話制御の際にキャラクタから提供される話を聞いた場合又は見た場合に、自身が過去に選択した「選択肢の言葉」が印象に残りやすい。その結果、利用者は、自身の話をキャラクタが興味を持って覚えてくれていたような印象をもちやすく、キャラクタの話に関心や愛着をもちやすい。
Since the
<他の実施形態>
本発明は上記記述及び図面によって説明した実施形態に限定されるものではなく、例えば次のような実施形態も本発明の技術的範囲に含まれる。また、上述した実施形態や後述する実施形態の様々な特徴は、矛盾しない組み合わせであればどのように組み合わされてもよい。
<Other embodiments>
The present invention is not limited to the embodiments explained by the above description and drawings, and the following embodiments are also included in the technical scope of the present invention. In addition, various features of the embodiments described above and the embodiments described later may be combined in any way as long as they are consistent combinations.
上述された実施形態では、第1発話制御は、いずれかの話題の質問と、質問に対する答えの候補である複数の選択肢と、を含んだキャラクタの会話を表示部に表示させる制御であったが、いずれかの話題の質問と、質問に対する答えの候補である複数の選択肢と、を含んだキャラクタの会話を音声出力部16によって音声出力する制御であってもよい。この場合、複数の選択肢のいずれかを選択する入力をタッチパネルに対する操作によって行うようにしてもよく、音声入力によって行うようにしてもよい。 In the above-described embodiment, the first utterance control is control for displaying on the display unit a character's conversation including a question on any topic and a plurality of options that are candidates for the answer to the question. , and a plurality of options that are candidates for the answer to the question. In this case, the input for selecting one of the plurality of options may be performed by operating the touch panel, or may be performed by voice input.
上述された実施形態では、第1発話制御は、図15のように、キャラクタの画像と、キャラクタが質問する会話内容を文字によって表した画像と、キャラクタからの質問に対する回答の候補である複数の選択肢を文字によって表した画像とを同時期に表示部15に表示する例が採用されたが、この例に限定されない。例えば、「キャラクタの画像」と「キャラクタが質問する会話内容を文字によって表した画像」とを同時期に表示した後、その表示から「キャラクタからの質問に対する回答の候補である複数の選択肢の画像」に切り替えるように、時間差で順番に表示してもよい。
In the above-described embodiment, the first utterance control includes, as shown in FIG. 15, an image of the character, an image representing the content of the conversation asked by the character in characters, and a plurality of candidate answers to the question from the character. Although the example in which the image representing the options with characters is displayed on the
上述された実施形態では、第2発話制御は、選択入力で選択された選択肢の言葉の全部を含む会話をキャラクタの会話としてインタフェース13に出力させる制御であったが、この例に限定されない。第2発話制御は、選択入力で選択された選択肢の言葉の一部の名詞を含む会話をキャラクタの会話としてインタフェース13に出力させる制御であってもよい。或いは、第2発話制御は、選択入力で選択された選択肢を表示する静止画や動画をインタフェース13に出力させる制御であってもよい。
In the above-described embodiment, the second utterance control is a control for causing the
上述された実施形態では、動作検出部の一例に相当する操作部17がタッチパネルとして構成されるがこの例に限定されない。操作部17は、その他の公知の入力デバイス(キーボード、マウス、タッチペン等)であってもよい。或いは、動作検出部は、操作部17に代えて又は操作部17に加えて他の入力デバイス(例えば、非接触方式での入力操作が可能とされた入力デバイス)を備えていてもよい。具体的には、動作検出部は、撮像部やモーションセンサなどの非接触センサを有していてもよい。この場合、その非接触センサと制御部11とが協働し、利用者の動きやジェスチャーなどを検知してもよい。
In the above-described embodiment, the
上述された実施形態では、表示部15は、静止画や動画を二次元で表示する表示装置として構成されるが、この例に限定されない。表示部15は、三次元表示を行い得る三次元ディスプレイであってもよい。
In the above-described embodiment, the
上述されたシステム1では、バーチャルアシスタント装置10の外部に設けられた登録部(記憶部95)に利用者が希望する情報の種類が登録され、そして、制御部11は、登録部に登録される種類のコンテンツに関する会話を、インタフェース13を介して出力する制御を行うようになっていた。しかし、この例に限定されない。例えば、バーチャルアシスタント装置10に登録部が設けられ、利用者が希望する種類の情報が登録されてもよい。例えば、バーチャルアシスタント装置10は、バーチャルアシスタント装置10に登録された種類(利用者が希望する種類)のコンテンツのみを管理装置90から受信してもよい。或いは、バーチャルアシスタント装置10は、管理装置90からコンテンツを受信した場合において、バーチャルアシスタント装置10に登録された種類(利用者が希望する種類)のコンテンツを受信した場合にステップS2において新たな配信があったと判定してもよい。そして、ステップS7では、バーチャルアシスタント装置10に登録された種類(利用者が希望する種類)のコンテンツのみを提供してもよい。
In the
上述された実施形態では、バーチャルアシスタント装置10が、主に高齢者向けのバーチャルアシスタント装置として構成された例を示したが、この例に限定されない。例えば、子供などの他のカテゴリの対象者を対象としてもよい。
Although the virtual
本明細書のいずれの例でも、制御部11がインタフェース13を介して会話を行う場合、コンテンツに関する会話又は応答に対する会話の少なくともいずれかにおいて、キャラクタの表情、キャラクタの動作、テロップ、効果音、アイコンのいずれか1つ又は複数の表示又は音声出力を発生又は変化させてもよい。例えば、制御部11は、キャラクタ70の表情を笑顔にしたり、キャラクタ70に対してジャンプやスキップ等の動作を行わせたりしてもよい。採用されるキャラクタの表情は笑顔に限定されず、沈んだ表情、怒った表情、悲しんだ表情などに変化させてもよく、キャラクタ70に喜んだ動作や泣く動作などを行わせてもよい。
In any example of this specification, when the
上述された実施形態では、バーチャルアシスタント装置10に記憶部14が設けられ、記憶部14に複数種類の対応情報が記憶されるが、この例に限定されない。例えば、第1実施形態の記憶部14に記憶される対応情報と同様の対応情報がバーチャルアシスタント装置10の外部に設けられた装置に記憶されてもよい。例えば、管理装置90の記憶部95が「複数の選択肢を話題と対応付けた対応情報を記憶する記憶部」として機能してもよい。第1実施形態の内容をこの例に変更する場合、制御部11は、上述の第1発話制御においていずれかの話題を選定した場合に、その選定した話題に対応する対応情報(選定した話題に対応する「質問」とその「質問」に対する回答の候補である「複数の選択肢」とを含む対応情報)を管理装置90に対して通信によって要求し、管理装置90は、いずれかの話題に対応する対応情報の要求を受けた場合に、記憶部95に記憶される複数種類の対応情報の中から要求された話題に対応する対応情報を読み出し、読み出した対応情報をバーチャルアシスタント装置10に送信するように動作すればよい。この場合、バーチャルアシスタント装置10は、管理装置90から対応情報を取得した後には、その取得した対応情報に基づいて第1実施形態と同様に動作すればよい。この変更例と第1実施形態とを比較したときの主な相違は、話題に対応する対応情報を利用する場合に、当該対応情報を記憶部14から読み出して利用するか、当該対応情報を管理装置90から取得して利用するかだけであり、対応情報を取得した後の動作は、上記変更例でも、第1実施形態と同様に行うことができる。
In the embodiment described above, the
なお、上記対応情報は、記憶部14と記憶部95の両方に設けられていてもよい。この例では、例えば、いずれかの話題に対応する対応情報が記憶部14に記憶されておらず記憶部95に記憶されている場合に、記憶部95に記憶された対応情報を用いるようにしてもよく、いずれかの話題に対応する対応情報が記憶部14に記憶されている場合に記憶部14に記憶された対応情報を用いるようにしてもよい。
Note that the correspondence information may be provided in both the
第1実施形態のように対応情報が記憶部14に記憶されている場合でも、上述の変更例のように対応情報が記憶部95に記憶されている場合でも、対応情報が記憶部14、95の両方に記憶されている場合でも、第2発話制御を行うための情報は、上記対応情報が記憶される記憶部に記憶されていればよい。第2発話制御を行うための情報は、上記対応情報に含まれる各選択肢に対応する各「話の情報」(例えば、選択肢に対応付けられた会話や画像などの情報)を含んでいればよい。例えば、対応情報とともに「第2発話制御を行うための情報」が記憶部95に記憶されるシステムでは、第1発話制御でいずれかの選択肢が選択された場合に第2発話制御を行うときには、第1発話制御で選択された選択肢に対応する「話の情報」を管理装置90に対して通信によって要求し、管理装置90は、第1発話制御で選択された選択肢に対応する「話の情報」の要求を受けた場合に、記憶部95に記憶される複数種類の話の情報の中から要求された選択肢に対応する「話の情報」を読み出し、読み出した「話の情報」をバーチャルアシスタント装置10に送信するように動作すればよい。そしてバーチャルアシスタント装置10は、取得した「話の情報」に基づいて、第1発話制御で選択された選択肢に対応する会話や画像を提供すればよい。なお、上述の例は、対応情報と第2発話制御を行うための情報が同一の記憶部に記憶された例であるが、この例に限定されるわけではなく、それぞれの情報が別々の記憶部に記憶されていてもよい。
Even if the correspondence information is stored in the
なお、今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、今回開示された実施の形態に限定されるものではなく、特許請求の範囲によって示された範囲内又は特許請求の範囲と均等の範囲内での全ての変更が含まれることが意図される。 It should be noted that the embodiments disclosed this time should be considered as examples in all respects and not restrictive. The scope of the present invention is not limited to the embodiments disclosed this time, and includes all modifications within the scope indicated by the claims or within the scope equivalent to the claims. is intended.
1…バーチャルアシスタントシステム
10…バーチャルアシスタント装置
11…制御部
13…インタフェース
14…記憶部
15…表示部
17…操作部(動作検出部)
18…音声入力部
90…管理装置(外部の装置)
DESCRIPTION OF
18...
Claims (4)
前記インタフェースは、接触又は非接触による前記利用者からの入力動作を検出する動作検出部又は前記利用者の音声を示す音声信号を取得する音声入力部の少なくともいずれかを有し、
前記制御部は、複数の選択肢を話題と対応付けた対応情報を記憶する記憶部の情報を利用し、いずれかの話題に対応する前記複数の選択肢を前記インタフェースに出力させ且つ出力される前記複数の選択肢に関連する前記キャラクタの会話を前記インタフェースに出力させる第1発話制御を行い、前記複数の選択肢が出力された後に前記インタフェースを介していずれかの選択肢を選択する選択入力がなされた場合、前記第1発話制御の終了後に所定期間をおいてから、前記選択入力で選択された選択肢に関連する話を前記キャラクタからの発話として前記インタフェースに出力させる第2発話制御を行う
バーチャルアシスタント装置。 A virtual assistant device comprising an interface for accepting and outputting input from a user, and a control unit for displaying an embodied character on a display unit constituting the interface,
The interface has at least one of a motion detection unit that detects an input motion from the user by contact or non-contact, or a voice input unit that acquires a voice signal indicating the voice of the user,
The control unit uses information in a storage unit that stores correspondence information in which a plurality of options are associated with topics, causes the interface to output the plurality of options corresponding to any topic, and outputs the plurality of options to be output. When a first utterance control is performed to cause the interface to output the character's conversation related to the option of, and a selection input is made to select one of the options through the interface after the plurality of options are output, After a predetermined period of time after the end of the first utterance control, the virtual assistant device performs second utterance control for outputting a story related to the option selected by the selection input to the interface as an utterance from the character.
請求項1に記載のバーチャルアシスタント装置。 2. According to claim 1, the first utterance control is a control for displaying on the display unit a conversation of the character including a question on any topic and the plurality of options that are candidates for answers to the question. Virtual assistant device as described.
請求項1又は請求項2に記載のバーチャルアシスタント装置。 The virtual assistant device according to claim 1 or 2, wherein the second utterance control is control for outputting a conversation including a word of the option selected by the selection input to the interface as a conversation of the character.
前記インタフェースは、接触又は非接触による前記利用者からの入力動作を検出する動作検出部又は前記利用者の音声を示す音声信号を取得する音声入力部の少なくともいずれかを有し、
複数の選択肢を話題と対応付けた対応情報が記憶される記憶部の情報を利用し、いずれかの話題に対応する前記複数の選択肢を前記インタフェースに出力させ且つ出力される前記複数の選択肢に関連する前記キャラクタの会話を前記インタフェースに出力させる第1発話制御を前記制御部に行わせるステップと、
前記第1発話制御の後に前記インタフェースを介していずれかの選択肢を選択する選択入力がなされた場合、前記第1発話制御の終了後に所定期間をおいてから、前記選択入力で選択された選択肢に関連する会話を前記キャラクタの会話として前記インタフェースに出力させる第2発話制御を前記制御部に行わせるステップと、
を含むバーチャルアシスタント装置用のプログラム。 A program used in a virtual assistant device comprising an interface for accepting and outputting input from a user, and a control unit for displaying a character embodied in a display unit constituting the interface,
The interface has at least one of a motion detection unit that detects an input motion from the user by contact or non-contact, or a voice input unit that acquires a voice signal indicating the voice of the user,
Using information in a storage unit that stores correspondence information that associates a plurality of options with topics, causes the interface to output the plurality of options corresponding to any topic, and relates to the plurality of options that are output. a step of causing the control unit to perform a first utterance control for outputting a conversation of the character to the interface;
When a selection input for selecting one of the options is made through the interface after the first utterance control, after a predetermined period of time after the end of the first utterance control, the option selected by the selection input is selected. causing the control unit to perform a second utterance control for outputting related conversation to the interface as conversation of the character;
Programs for virtual assistant devices, including .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021201889A JP2023087483A (en) | 2021-12-13 | 2021-12-13 | Virtual assistant device and program for virtual assistant device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021201889A JP2023087483A (en) | 2021-12-13 | 2021-12-13 | Virtual assistant device and program for virtual assistant device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023087483A true JP2023087483A (en) | 2023-06-23 |
Family
ID=86850844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021201889A Pending JP2023087483A (en) | 2021-12-13 | 2021-12-13 | Virtual assistant device and program for virtual assistant device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023087483A (en) |
-
2021
- 2021-12-13 JP JP2021201889A patent/JP2023087483A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
McAfee | Navigating the social world: A curriculum for individuals with Asperger's syndrome, high functioning autism and related disorders | |
Hostyn et al. | Interaction with a person with profound intellectual and multiple disabilities: A case study in dialogue with an experienced staff member | |
CN110152314B (en) | Session output system, session output server, session output method, and storage medium | |
Mentis et al. | My self and you: Tension in bodily sharing of experience | |
CN116149473A (en) | Virtual reality-based travel interaction method for old people | |
JP2023087483A (en) | Virtual assistant device and program for virtual assistant device | |
JP7418975B2 (en) | information processing equipment | |
JP7307576B2 (en) | Program and information processing device | |
JP2022191125A (en) | Virtual assistant device and program for virtual assistant device | |
CN115335898A (en) | Information processing apparatus, interactive robot, control method, and program | |
Yarosh et al. | Mobile technologies for parent/child relationships | |
JP2022190870A (en) | Virtual assistant device and program for virtual assistant device | |
JP7290977B2 (en) | Program and information processing device | |
Ali et al. | Seeking Authentic Listening Experiences in Shi’ism: Online and Offline Intersections of Majlis Practices | |
Zammit | The role of screen-based media in the development and maintenance of peer relationships in adolescents with and without autism spectrum conditions in Malta | |
JP2023176404A (en) | Virtual assistant device and program for virtual assistant device | |
JP2024063745A (en) | Virtual assistant device and program for the same | |
Yamazaki et al. | A preliminary study of robotic media effects on older adults with mild cognitive impairment in solitude | |
JP6863672B2 (en) | Notification system, notification method and server device | |
JP7445938B1 (en) | Servers, methods and computer programs | |
Batz et al. | Cuckoo–facilitating communication for people with mental and physical disabilities in residential communities | |
Rahman | Creating a Sense of Presence in Remote Relationships: A concept of Calm Ambient artifact | |
Williams | Creative engagement in interactive immersive environments | |
JP2024110514A (en) | Virtual assistant device, virtual assistant system, and program for virtual assistant device | |
WO2024214751A1 (en) | Behavior control system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240226 |