JP2020190842A - 表示システム、表示方法、および、プログラム - Google Patents
表示システム、表示方法、および、プログラム Download PDFInfo
- Publication number
- JP2020190842A JP2020190842A JP2019094726A JP2019094726A JP2020190842A JP 2020190842 A JP2020190842 A JP 2020190842A JP 2019094726 A JP2019094726 A JP 2019094726A JP 2019094726 A JP2019094726 A JP 2019094726A JP 2020190842 A JP2020190842 A JP 2020190842A
- Authority
- JP
- Japan
- Prior art keywords
- user
- display
- control unit
- unit
- response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザとの対話において、多様な内容を表示する。【解決手段】サイネージシステム(1)において、制御部(22)は、ユーザへの提示内容であって、ユーザからの応答を受け付けるための操作ボタンを含まない提示内容を表示部(23)に表示する処理と、提示内容に対するユーザからの音声による応答を取得する処理と、取得した応答内容に応じて、ユーザへの新たな提示内容を決定する処理とを繰り返し行うよう構成される。【選択図】図1
Description
本発明は、表示システム、表示方法、および、プログラムに関する。
音声対話が可能な、タッチパネル搭載型デジタルサイネージ(以下、「タッチサイネージ」と呼ぶ)において、音声入力待ちの場合に、利用者が音声で入力できる選択肢を画面に表示する技術がある。
なお、特許文献1には、ロボットからの発話に対して人が返答する選択肢を表示し、人がその選択肢をタッチすると、選択された返答の内容がスピーカから発話される対話システムが開示されている。
しかしながら、タッチサイネージによる音声対話において、選択肢ボタンの表示を併用した場合、どうしてもユーザに選択される項目が限られてくるので、表示される内容も限定的になる。従って、タッチサイネージは、同じような内容のみを表示するという問題がある。
本発明の一態様は、ユーザとの対話において、多様な内容を表示することを目的とする。
上記の課題を解決するために、本発明の一態様に係る表示システムは、表示部と制御部とを備えた表示システムであって、前記制御部は、ユーザへの提示内容であって、ユーザからの応答を受け付けるための操作ボタンを含まない提示内容を前記表示部に表示させる処理と、前記提示内容に対するユーザからの音声による応答を取得する処理と、前記取得した応答内容に応じて、ユーザへの新たな提示内容を決定する処理とを繰り返し行うよう構成されており、前記繰り返しの回数が所定の回数を超えた場合に、ユーザからの応答を受け付けるための操作ボタンを含む操作画面を前記表示部に表示させる。
上記の課題を解決するために、本発明の一態様に係る表示方法は、表示部と制御部とを備えた表示システムによる表示方法であって、ユーザへの提示内容であって、ユーザからの応答を受け付けるための操作ボタンを含まない提示内容を前記表示部に表示させる表示ステップ、前記提示内容に対するユーザからの音声による応答を取得する取得ステップと、前記取得した応答内容に応じて、ユーザへの新たな提示内容を決定する決定ステップとを繰り返し含んでおり、前記繰り返しの回数が所定の回数を超えた場合に、ユーザからの応答を受け付けるための操作ボタンを含む操作画面を前記表示部に表示させる。
本発明の一態様によれば、ユーザとの対話において、多様な内容を表示することができる。
〔実施形態1〕
以下、本発明の実施形態1について、詳細に説明する。
以下、本発明の実施形態1について、詳細に説明する。
(サイネージシステム1の構成)
図1は、本実施形態に係るサイネージシステム(表示システム)1の構成を示すブロック図である。図1に示すように、サイネージシステム1は、表示装置2と、サーバ3とを備えている。表示装置2は、例えば、タッチサイネージである。サーバ3は、例えば、サーバ用コンピュータである。表示装置2と、サーバ3とは、ネットワークを介して相互に通信可能である。なお、サイネージシステム1は、表示装置2のみであって、サーバ3を備えていなくてもよい。
図1は、本実施形態に係るサイネージシステム(表示システム)1の構成を示すブロック図である。図1に示すように、サイネージシステム1は、表示装置2と、サーバ3とを備えている。表示装置2は、例えば、タッチサイネージである。サーバ3は、例えば、サーバ用コンピュータである。表示装置2と、サーバ3とは、ネットワークを介して相互に通信可能である。なお、サイネージシステム1は、表示装置2のみであって、サーバ3を備えていなくてもよい。
サイネージシステム1は、最初から選択肢を表示せず、最初は対話のヒントを表示する。サイネージシステム1は、キーワードが見つからなかった場合、適切に案内できなくなった場合などに、選択肢を表示する。
(表示装置2の構成)
図1に示すように、表示装置2は、ハードウェアとして、通信部21、制御部22、表示部23、音声入力部24、音声出力部25、および、記憶部26を備えている。通信部21は、サーバ3との間で通信を行う。制御部22は、表示装置2全体を制御する。表示部23は、制御部22からの指示に応じて画面を表示し、一方、ユーザによる操作を受け付ける部分である。表示部23は、例えば、タッチパネル等である。音声入力部24は、ユーザの音声を入力して、音声データを制御部22に受け渡す部分であり、例えば、マイク等である。音声出力部25は、制御部22からの指示に応じて音声を出力する部分であり、例えば、スピーカ等である。記憶部26は、制御部22からの指示に応じてデータの格納および読み出しを行う。
図1に示すように、表示装置2は、ハードウェアとして、通信部21、制御部22、表示部23、音声入力部24、音声出力部25、および、記憶部26を備えている。通信部21は、サーバ3との間で通信を行う。制御部22は、表示装置2全体を制御する。表示部23は、制御部22からの指示に応じて画面を表示し、一方、ユーザによる操作を受け付ける部分である。表示部23は、例えば、タッチパネル等である。音声入力部24は、ユーザの音声を入力して、音声データを制御部22に受け渡す部分であり、例えば、マイク等である。音声出力部25は、制御部22からの指示に応じて音声を出力する部分であり、例えば、スピーカ等である。記憶部26は、制御部22からの指示に応じてデータの格納および読み出しを行う。
なお、表示装置2は、表示部23に表示する画面のデータ、音声出力部25が出力する音声のデータを、サーバ3から取得してもよいし、表示装置2自身のメモリ、すなわち、記憶部26から読み出してもよい。また、表示装置2は、画面を表示するのみで、必ずしも音声を出力しなくてもよい。
上記によれば、サイネージシステム1は、少なくとも、表示部23と、制御部22とを備えている。
(サーバ3の構成)
図1に示すように、サーバ3は、ハードウェアとして、通信部31、制御部32、および、記憶部33を備えている。通信部31は、表示装置2との間で通信を行う。制御部32は、サーバ3全体を制御する。記憶部33は、制御部32からの指示に応じてデータの格納および読み出しを行う。
図1に示すように、サーバ3は、ハードウェアとして、通信部31、制御部32、および、記憶部33を備えている。通信部31は、表示装置2との間で通信を行う。制御部32は、サーバ3全体を制御する。記憶部33は、制御部32からの指示に応じてデータの格納および読み出しを行う。
サーバ3では、通信部31が、表示装置2から画面のデータ、または、音声のデータの要求を受信する。制御部32は、当該要求に応じて必要なデータを記憶部33から読み出して、通信部31に受け渡す。通信部31は、制御部32から取得したデータを、要求元の表示装置2に送信する。
(対話例1)
図2は、本実施形態に係るサイネージシステム1の対話例1を示す図である。対話例では、表示装置2の表示部23に表示される画面と、ユーザの音声とのやりとりを示す(以下、同様)。なお、表示装置2の音声出力部25は、当該画面の文言を音声出力してもよい(以下、同様)。
図2は、本実施形態に係るサイネージシステム1の対話例1を示す図である。対話例では、表示装置2の表示部23に表示される画面と、ユーザの音声とのやりとりを示す(以下、同様)。なお、表示装置2の音声出力部25は、当該画面の文言を音声出力してもよい(以下、同様)。
(ステップS201)
表示装置2の制御部22は、「○○やXXなどについて案内できます。」との画面を表示部23に表示させる。例えば、○○はエアコンであってもよいし、XXは洗濯機であってもよい。これによれば、サイネージシステム1が案内できる内容を大まかに示すことにより、ユーザに自由な音声入力を促すことができる。
表示装置2の制御部22は、「○○やXXなどについて案内できます。」との画面を表示部23に表示させる。例えば、○○はエアコンであってもよいし、XXは洗濯機であってもよい。これによれば、サイネージシステム1が案内できる内容を大まかに示すことにより、ユーザに自由な音声入力を促すことができる。
(ステップS202)
ユーザは、「△△について知りたい。」と回答する。ユーザが回答した△△は、表示部23に表示された○○およびXXとは関係のない項目である。例えば、△△は、スマートフォンであってもよい。
ユーザは、「△△について知りたい。」と回答する。ユーザが回答した△△は、表示部23に表示された○○およびXXとは関係のない項目である。例えば、△△は、スマートフォンであってもよい。
(ステップS203)
表示装置2の制御部22は、音声入力部24を介して「△△について知りたい。」との音声を取得する。そして、制御部22は、その音声に含まれる「△△」に対する応答として、「△△の**についてですか? △△の●●についてですか?」との画面を表示部23に表示させる。**および●●は、△△に関して案内できる項目である。例えば、△△がスマートフォンである場合、**は新規契約であってもよいし、●●は機種変更であってもよい。
表示装置2の制御部22は、音声入力部24を介して「△△について知りたい。」との音声を取得する。そして、制御部22は、その音声に含まれる「△△」に対する応答として、「△△の**についてですか? △△の●●についてですか?」との画面を表示部23に表示させる。**および●●は、△△に関して案内できる項目である。例えば、△△がスマートフォンである場合、**は新規契約であってもよいし、●●は機種変更であってもよい。
(ステップS204)
ユーザは、ステップS203の表示に対して回答しない。従って、一定時間以上、表示装置2の音声入力部24には音声入力がないことになる。一定時間以上音声入力がないということは、例えば、表示装置2が適切に案内できていないか、または、ユーザが案内を希望するキーワードを思い付かないことを意味する。
ユーザは、ステップS203の表示に対して回答しない。従って、一定時間以上、表示装置2の音声入力部24には音声入力がないことになる。一定時間以上音声入力がないということは、例えば、表示装置2が適切に案内できていないか、または、ユーザが案内を希望するキーワードを思い付かないことを意味する。
(ステップS205)
表示装置2の制御部22は、一定時間以上音声入力がないことを検知して、「お探しのサービスのボタンを押してください。」との画面を表示部23に表示させる。制御部22は、さらに、サービスのボタンを表示部23に表示させる。サービスのボタンは、例えば、「家電」、「スマートフォン」等のボタンであってもよい。
表示装置2の制御部22は、一定時間以上音声入力がないことを検知して、「お探しのサービスのボタンを押してください。」との画面を表示部23に表示させる。制御部22は、さらに、サービスのボタンを表示部23に表示させる。サービスのボタンは、例えば、「家電」、「スマートフォン」等のボタンであってもよい。
なお、ステップS205において、制御部22は、「関係しそうなものを表示します。知りたいものは、この中にありますか。タッチするか、言ってください。」との画面を表示部23に表示させてもよい。
(対話例2)
図3は、本実施形態に係るサイネージシステム1の対話例2を示す図である。
図3は、本実施形態に係るサイネージシステム1の対話例2を示す図である。
(ステップS301)
表示装置2の制御部22は、「○○やXXなどについて案内できます。」との画面を表示部23に表示させる。例えば、○○はエアコンであってもよいし、XXは洗濯機であってもよい。
表示装置2の制御部22は、「○○やXXなどについて案内できます。」との画面を表示部23に表示させる。例えば、○○はエアコンであってもよいし、XXは洗濯機であってもよい。
(ステップS302)
ユーザは、「△△について知りたい。」と回答する。ユーザが回答した△△は、表示部23に表示された○○およびXXとは関係のない項目である。例えば、△△は、スマートフォンであってもよい。
ユーザは、「△△について知りたい。」と回答する。ユーザが回答した△△は、表示部23に表示された○○およびXXとは関係のない項目である。例えば、△△は、スマートフォンであってもよい。
(ステップS303)
表示装置2の制御部22は、音声入力部24を介して「△△について知りたい。」との音声を取得する。そして、制御部22は、その音声に含まれる「△△」に対する応答として、「△△の**についてですか? △△の●●についてですか?」との画面を表示部23に表示させる。**および●●は、△△に関して案内できる項目である。例えば、△△がスマートフォンである場合、**は新規契約であってもよいし、●●は機種変更であってもよい。
表示装置2の制御部22は、音声入力部24を介して「△△について知りたい。」との音声を取得する。そして、制御部22は、その音声に含まれる「△△」に対する応答として、「△△の**についてですか? △△の●●についてですか?」との画面を表示部23に表示させる。**および●●は、△△に関して案内できる項目である。例えば、△△がスマートフォンである場合、**は新規契約であってもよいし、●●は機種変更であってもよい。
(ステップS304)
ユーザは、「どちらでもありません。」と回答する。
ユーザは、「どちらでもありません。」と回答する。
(ステップS305)
表示装置2の制御部22は、音声入力部24を介して「どちらでもありません。」との音声を取得する。そして、制御部22は、△△に関して案内できる**および●●をユーザが希望しないことを認識して、「△△全般についてですか?」との画面を表示部23に表示させる。
表示装置2の制御部22は、音声入力部24を介して「どちらでもありません。」との音声を取得する。そして、制御部22は、△△に関して案内できる**および●●をユーザが希望しないことを認識して、「△△全般についてですか?」との画面を表示部23に表示させる。
(ステップS306)
ユーザは、「違います。」と回答する。これは、例えば、表示装置2が適切に案内できていない、具体的には、ユーザが項目を絞り込むための案内を適切にできていないことを意味する。
ユーザは、「違います。」と回答する。これは、例えば、表示装置2が適切に案内できていない、具体的には、ユーザが項目を絞り込むための案内を適切にできていないことを意味する。
(ステップS307)
表示装置2の制御部22は、音声入力部24を介して「違います。」との音声を取得する。そして、制御部22は、ユーザが「△△全般」を希望していないことを認識して、「案内できるジャンルを表示します。」との画面を表示部23に表示させる。
表示装置2の制御部22は、音声入力部24を介して「違います。」との音声を取得する。そして、制御部22は、ユーザが「△△全般」を希望していないことを認識して、「案内できるジャンルを表示します。」との画面を表示部23に表示させる。
なお、ステップS307において、制御部22は、「それでは、案内できるジャンルを表示しますので、タッチするか、言ってください。」との画面を表示部23に表示させてもよい。
(対話例3)
図4は、本実施形態に係るサイネージシステム1の対話例3を示す図である。
図4は、本実施形態に係るサイネージシステム1の対話例3を示す図である。
(ステップS401)
表示装置2の制御部22は、「いろいろな案内ができます。例えば、こんなことを言ってください。」との画面に例を追加したものを表示部23に表示させる。
表示装置2の制御部22は、「いろいろな案内ができます。例えば、こんなことを言ってください。」との画面に例を追加したものを表示部23に表示させる。
(ステップS402)
ユーザは、「わかりません。」と回答する。これは、ユーザが、画面に表示された例の中に、所望のキーワードを見つけられなかったことを意味する。
ユーザは、「わかりません。」と回答する。これは、ユーザが、画面に表示された例の中に、所望のキーワードを見つけられなかったことを意味する。
(ステップS403)
表示装置2の制御部22は、音声入力部24を介して「わかりません。」との音声を取得する。そして、制御部22は、ユーザがキーワードを見つけられなかったことを認識して、「案内できる種類を表示します。」との画面に案内選択ボタン(操作ボタン)を追加したものを表示部23に表示させる。
表示装置2の制御部22は、音声入力部24を介して「わかりません。」との音声を取得する。そして、制御部22は、ユーザがキーワードを見つけられなかったことを認識して、「案内できる種類を表示します。」との画面に案内選択ボタン(操作ボタン)を追加したものを表示部23に表示させる。
なお、ステップS403において、制御部22は、「それでは、案内できるショップの種類を表示しますので、タッチするか、言ってください。」との画面を表示部23に表示させてもよい。
(対話例4)
図5は、本実施形態に係るサイネージシステム1の対話例4を示す図である。
図5は、本実施形態に係るサイネージシステム1の対話例4を示す図である。
(ステップS501)
表示装置2の制御部22は、「いろいろな案内ができます。」との画面を表示部23に表示させる。
表示装置2の制御部22は、「いろいろな案内ができます。」との画面を表示部23に表示させる。
(ステップS502)
ユーザは、「飲食店の案内をしてください。」と回答する。
ユーザは、「飲食店の案内をしてください。」と回答する。
(ステップS503)
表示装置2の制御部22は、音声入力部24を介して「飲食店の案内をしてください。」との音声を取得する。そして、制御部22は、ユーザが「飲食店」の案内を希望していることを認識して、「どのような料理がお好みですか。」との画面を表示部23に表示させる。
表示装置2の制御部22は、音声入力部24を介して「飲食店の案内をしてください。」との音声を取得する。そして、制御部22は、ユーザが「飲食店」の案内を希望していることを認識して、「どのような料理がお好みですか。」との画面を表示部23に表示させる。
(ステップS504)
ユーザは、「とにかく近くにある店を案内してください。」と回答する。
ユーザは、「とにかく近くにある店を案内してください。」と回答する。
(ステップS505)
表示装置2の制御部22は、音声入力部24を介して「とにかく近くにある店を案内してください。」との音声を取得する。そして、制御部22は、ユーザが「近くにある店」の案内を希望していることを認識し、表示装置2の位置から所定距離内にある飲食店を検索して、「一番近いのは、○○料理のXXです。」との画面を表示部23に表示させる。
表示装置2の制御部22は、音声入力部24を介して「とにかく近くにある店を案内してください。」との音声を取得する。そして、制御部22は、ユーザが「近くにある店」の案内を希望していることを認識し、表示装置2の位置から所定距離内にある飲食店を検索して、「一番近いのは、○○料理のXXです。」との画面を表示部23に表示させる。
(ステップS506)
ユーザは、「いまいちだな。」と回答する。これは、例えば、表示装置2が適切に案内できなかったか、会話だと案内できるまで時間がかかりそうとユーザが認識したことを意味する。
ユーザは、「いまいちだな。」と回答する。これは、例えば、表示装置2が適切に案内できなかったか、会話だと案内できるまで時間がかかりそうとユーザが認識したことを意味する。
(ステップS507)
表示装置2の制御部22は、音声入力部24を介して「いまいちだな。」との音声を取得する。そして、制御部22は、ユーザが「○○料理のXX」を希望していないことを認識して、表示装置2の位置から所定距離内にある飲食店を検索して、「お近くの店の一覧を表示します。タッチするか、名前を言ってください。」との画面を表示部23に表示させる。
表示装置2の制御部22は、音声入力部24を介して「いまいちだな。」との音声を取得する。そして、制御部22は、ユーザが「○○料理のXX」を希望していないことを認識して、表示装置2の位置から所定距離内にある飲食店を検索して、「お近くの店の一覧を表示します。タッチするか、名前を言ってください。」との画面を表示部23に表示させる。
(対話例5)
図6は、本実施形態に係るサイネージシステム1の対話例5を示す図である。
図6は、本実施形態に係るサイネージシステム1の対話例5を示す図である。
(ステップS601)
表示装置2の制御部22は、「いろいろな案内ができます。」との画面を表示部23に表示させる。
表示装置2の制御部22は、「いろいろな案内ができます。」との画面を表示部23に表示させる。
(ステップS602)
ユーザは、「休めるところはないかな。」と回答する。この時点で、ユーザは、喫茶店で休むとまでは考えていない。
ユーザは、「休めるところはないかな。」と回答する。この時点で、ユーザは、喫茶店で休むとまでは考えていない。
(ステップS603)
表示装置2の制御部22は、音声入力部24を介して「休めるところはないかな。」との音声を取得する。そして、制御部22は、ユーザが「休めるところ」の案内を希望していることを認識し、表示装置2の位置から所定距離内に喫茶店があることを検知して、「喫茶店が近くにありますよ。」との画面を表示部23に表示させる。
表示装置2の制御部22は、音声入力部24を介して「休めるところはないかな。」との音声を取得する。そして、制御部22は、ユーザが「休めるところ」の案内を希望していることを認識し、表示装置2の位置から所定距離内に喫茶店があることを検知して、「喫茶店が近くにありますよ。」との画面を表示部23に表示させる。
(ステップS604)
ユーザは、「ケーキが食べられるところはありますか。」と回答する。
ユーザは、「ケーキが食べられるところはありますか。」と回答する。
(ステップS605)
表示装置2の制御部22は、音声入力部24を介して「ケーキが食べられるところはありますか。」との音声を取得する。そして、制御部22は、ユーザが「ケーキが食べられるところ」の案内を希望していることを認識し、表示装置2の位置から所定距離内にあって、かつ、メニューにケーキがある喫茶店を検索して、「近くに2軒あります。地図と、お店の情報を表示します。」との画面に地図および店の情報を追加したものを表示部23に表示させる。
表示装置2の制御部22は、音声入力部24を介して「ケーキが食べられるところはありますか。」との音声を取得する。そして、制御部22は、ユーザが「ケーキが食べられるところ」の案内を希望していることを認識し、表示装置2の位置から所定距離内にあって、かつ、メニューにケーキがある喫茶店を検索して、「近くに2軒あります。地図と、お店の情報を表示します。」との画面に地図および店の情報を追加したものを表示部23に表示させる。
(ステップS606)
ユーザは、「ありがとう。」と回答する。これは、最後まで選択肢表示なしで案内できた例であって、実際の店舗に誘導することができた例である。
ユーザは、「ありがとう。」と回答する。これは、最後まで選択肢表示なしで案内できた例であって、実際の店舗に誘導することができた例である。
(表示装置2の処理)
図7は、本実施形態に係る表示装置2の処理(案内処理)を示すフローチャートである。本処理は、上記の対話例1〜5を実現するものである。表示装置2は、人(ユーザ)が表示装置2の正面近くに存在することを検知した場合などに、本処理を開始する。
図7は、本実施形態に係る表示装置2の処理(案内処理)を示すフローチャートである。本処理は、上記の対話例1〜5を実現するものである。表示装置2は、人(ユーザ)が表示装置2の正面近くに存在することを検知した場合などに、本処理を開始する。
(ステップS701:表示ステップ)
まず、表示装置2は、画面表示および音声出力により、ユーザに対して案内を開始する。詳細には、表示装置2において、制御部22は、案内に関する画面を表示部23に表示させ、一方、案内に関する音声を音声出力部25に出力させる。案内に関する画面は、ユーザへの提示内容であって、ユーザからの応答を受け付けるための操作ボタンを含まない提示内容である。これにより、表示装置2の方からユーザに案内する内容を絞り込むことができる。
まず、表示装置2は、画面表示および音声出力により、ユーザに対して案内を開始する。詳細には、表示装置2において、制御部22は、案内に関する画面を表示部23に表示させ、一方、案内に関する音声を音声出力部25に出力させる。案内に関する画面は、ユーザへの提示内容であって、ユーザからの応答を受け付けるための操作ボタンを含まない提示内容である。これにより、表示装置2の方からユーザに案内する内容を絞り込むことができる。
(ステップS702:取得ステップ)
ユーザは、ステップS701における表示装置2の案内、または、ステップS705における表示装置2の質問に対して、音声で回答する。表示装置2において、音声入力部24は、ユーザの音声を入力して、音声データを制御部22に受け渡す。制御部22は、音声入力部24から音声データ(提示内容に対するユーザからの音声による応答)を取得して、その音声データを認識する処理を行う。なお、一定時間以上ユーザからの音声入力を検知しない場合、制御部22は、ステップS706の処理を実行する。
ユーザは、ステップS701における表示装置2の案内、または、ステップS705における表示装置2の質問に対して、音声で回答する。表示装置2において、音声入力部24は、ユーザの音声を入力して、音声データを制御部22に受け渡す。制御部22は、音声入力部24から音声データ(提示内容に対するユーザからの音声による応答)を取得して、その音声データを認識する処理を行う。なお、一定時間以上ユーザからの音声入力を検知しない場合、制御部22は、ステップS706の処理を実行する。
(ステップS703)
制御部22は、ユーザの音声データが音声案内終了指示を示すか否かを判定する。ユーザの音声データが音声案内終了指示を示す場合(ステップS703のYES)、制御部22は、ステップS706の処理を実行する。ユーザの音声データが音声案内終了指示を示さない場合(ステップS703のNO)、制御部22は、ステップS704の判定を実行する。
制御部22は、ユーザの音声データが音声案内終了指示を示すか否かを判定する。ユーザの音声データが音声案内終了指示を示す場合(ステップS703のYES)、制御部22は、ステップS706の処理を実行する。ユーザの音声データが音声案内終了指示を示さない場合(ステップS703のNO)、制御部22は、ステップS704の判定を実行する。
(ステップS704)
制御部22は、ユーザの音声データに対して次にするべき質問がある(換言すれば、さらに案内を絞り込む内容がある)か否かを判定する。次に質問がある場合(ステップS704のYES)、制御部22は、ステップS705の処理を実行する。次の質問がない場合(ステップS704のNO)、制御部22は、ステップS706の処理を実行する。
制御部22は、ユーザの音声データに対して次にするべき質問がある(換言すれば、さらに案内を絞り込む内容がある)か否かを判定する。次に質問がある場合(ステップS704のYES)、制御部22は、ステップS705の処理を実行する。次の質問がない場合(ステップS704のNO)、制御部22は、ステップS706の処理を実行する。
(ステップS705:決定ステップ、表示ステップ)
表示装置2は、画面表示および音声出力により、ユーザに対して質問を行う。詳細には、表示装置2において、制御部22は、ステップS702で取得した応答内容に応じて、ユーザへの新たな提示内容を決定する。そして、制御部22は、表示部23に質問に関する画面を表示させ、一方、音声出力部25に質問に関する音声を出力させる。質問に関する画面は、ユーザへの提示内容であって、ユーザからの応答を受け付けるための操作ボタンを含まない提示内容である。その後、制御部22は、ステップS702の処理に戻る。
表示装置2は、画面表示および音声出力により、ユーザに対して質問を行う。詳細には、表示装置2において、制御部22は、ステップS702で取得した応答内容に応じて、ユーザへの新たな提示内容を決定する。そして、制御部22は、表示部23に質問に関する画面を表示させ、一方、音声出力部25に質問に関する音声を出力させる。質問に関する画面は、ユーザへの提示内容であって、ユーザからの応答を受け付けるための操作ボタンを含まない提示内容である。その後、制御部22は、ステップS702の処理に戻る。
なお、制御部22は、ステップS702およびS705の処理を繰り返し行うよう構成されている。
上記によれば、サイネージシステム1では、操作ボタンを含む操作画面を表示する前に、操作ボタンを含まない提示内容を表示する。従って、ユーザとの対話において、多様な内容を表示することができる。すなわち、操作ボタン以外の提示内容を表示するため、操作ボタンに関連しない、ユーザからの応答を取得することができるので、さらに多様な内容を表示することができる。
(ステップS706)
制御部22は、これまでの会話の内容に基づいてユーザに案内できる内容を示す案内選択ボタンを含む操作画面を表示部23に表示させる。案内選択ボタンは、ユーザからの応答を受け付けるための操作ボタンである。
制御部22は、これまでの会話の内容に基づいてユーザに案内できる内容を示す案内選択ボタンを含む操作画面を表示部23に表示させる。案内選択ボタンは、ユーザからの応答を受け付けるための操作ボタンである。
なお、制御部22は、ステップS702およびS705の処理の繰り返しにおいて取得したユーザの発話内容から抽出されたキーワードに応じた操作ボタンのセットを含む操作画面を表示部23に表示させてもよい。
上記によれば、サイネージシステム1では、ユーザの発話内容に繋がる、適切な操作画面を表示することができる。これにより、表示装置2は、ユーザに対して、ボタン押下による案内の選択を促すことができる。
(ステップS707)
ユーザは、表示部23に表示されたボタンを押下することにより、所望の案内を選択する。表示装置2は、ユーザによる案内の選択を受け付けて、その選択に応じた案内を行う。詳細には、表示装置2において、制御部22は、表示部23からユーザに選択されたボタンの位置を取得して、そのボタンの位置に応じて、表示部23に案内に関する画面を表示させ、一方、音声出力部25に案内に関する音声を出力させる。
ユーザは、表示部23に表示されたボタンを押下することにより、所望の案内を選択する。表示装置2は、ユーザによる案内の選択を受け付けて、その選択に応じた案内を行う。詳細には、表示装置2において、制御部22は、表示部23からユーザに選択されたボタンの位置を取得して、そのボタンの位置に応じて、表示部23に案内に関する画面を表示させ、一方、音声出力部25に案内に関する音声を出力させる。
(質問に関するデータの作成例)
図8は、本実施形態に係る質問に関するデータの作成方法の例を示す表である。図8に示すように、図8の表は、キーワードと、次の質問とを含む、複数のレコードからなる。キーワードは、表示装置2からの案内に対する、ユーザの回答に含まれるキーワードである。次の質問は、当該キーワードに対して行うべき質問の候補である。1つのキーワードに対して、複数の質問がある場合には、表示装置2は、ランダムに質問を選択してもよいし、時刻、曜日などによって質問を変更してもよい。
図8は、本実施形態に係る質問に関するデータの作成方法の例を示す表である。図8に示すように、図8の表は、キーワードと、次の質問とを含む、複数のレコードからなる。キーワードは、表示装置2からの案内に対する、ユーザの回答に含まれるキーワードである。次の質問は、当該キーワードに対して行うべき質問の候補である。1つのキーワードに対して、複数の質問がある場合には、表示装置2は、ランダムに質問を選択してもよいし、時刻、曜日などによって質問を変更してもよい。
図7のステップS701において、表示装置2は、1回目に、ユーザに対して、案内することができる項目を大まかに通知する。そして、2回目以降は、図7のステップS704において、ユーザからの音声データに、図8の表にあるキーワード(例えば、A〜F)が含まれている場合に、表示装置2は、ステップS705において、当該キーワードに対応する質問(キーワードがAの場合、a1、a2またはa3)をユーザに対して行う。ユーザからの音声データにキーワードが含まれていない場合に、表示装置2は、ステップS706において、案内選択ボタンを表示する。
〔実施形態2〕
本発明の実施形態2について、以下に説明する。なお、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。本実施形態において、表示装置2は、質問および回答を複数回繰り返している中で、案内開始からの時間(t)を計測し、時間(t)が一定時間(T)を超えていた場合、案内選択ボタンの表示に遷移する。また、表示装置2は、質問を繰り返した回数(C)を計測し、一定回数(K)を超えていた場合、案内選択ボタンの表示に遷移する。
本発明の実施形態2について、以下に説明する。なお、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。本実施形態において、表示装置2は、質問および回答を複数回繰り返している中で、案内開始からの時間(t)を計測し、時間(t)が一定時間(T)を超えていた場合、案内選択ボタンの表示に遷移する。また、表示装置2は、質問を繰り返した回数(C)を計測し、一定回数(K)を超えていた場合、案内選択ボタンの表示に遷移する。
図9は、本実施形態に係る表示装置2の処理(案内処理)を示すフローチャートである。図9のステップS901〜S904、S907〜S909は、図7のステップS701からS707と同様である。換言すれば、本処理は、図7のフローチャートに、ステップS905およびS906の判定を追加したものである。そこで、ステップS905およびS906の判定を中心に、本処理の説明を行う。
(ステップS905)
表示装置2において、制御部22は、ユーザの音声データに対して次の質問がある場合(ステップS904のYES)、案内開始からの時間(t)が一定時間(T)よりも大きいか否かを判定する。tがTよりも大きい(ステップS902およびS907の処理の繰り返しが所定の時間を超えた)場合(ステップS905のYES)、制御部22は、ステップS908の処理(案内選択ボタンの表示)を行う。tがTよりも大きくない(tがT以下である)場合(ステップS905のNO)、制御部22は、ステップS906の判定を行う。
表示装置2において、制御部22は、ユーザの音声データに対して次の質問がある場合(ステップS904のYES)、案内開始からの時間(t)が一定時間(T)よりも大きいか否かを判定する。tがTよりも大きい(ステップS902およびS907の処理の繰り返しが所定の時間を超えた)場合(ステップS905のYES)、制御部22は、ステップS908の処理(案内選択ボタンの表示)を行う。tがTよりも大きくない(tがT以下である)場合(ステップS905のNO)、制御部22は、ステップS906の判定を行う。
(ステップS906)
制御部22は、質問を繰り返した回数(C)が一定回数(K)よりも大きいか否かを判定する。CがKよりも大きい(ステップS902およびS907の処理の繰り返しの回数が所定の回数を超えた)場合(ステップS906のYES)、制御部22は、ステップS908の処理(案内選択ボタンの表示)を行う。CがKよりも大きくない(CがK以下である)場合(ステップS906のNO)、制御部22は、ステップS907の処理(ユーザへの質問)を行う。
制御部22は、質問を繰り返した回数(C)が一定回数(K)よりも大きいか否かを判定する。CがKよりも大きい(ステップS902およびS907の処理の繰り返しの回数が所定の回数を超えた)場合(ステップS906のYES)、制御部22は、ステップS908の処理(案内選択ボタンの表示)を行う。CがKよりも大きくない(CがK以下である)場合(ステップS906のNO)、制御部22は、ステップS907の処理(ユーザへの質問)を行う。
なお、制御部22は、ステップS905の判定と、ステップS906の判定とのうち、何れか一方だけを行ってもよいし、両方を行ってもよい。
すなわち、制御部22は、ステップS902およびS907の処理の繰り返しの回数が所定の回数を超えた場合、又は、当該繰り返しが所定の時間を超えた場合に、ユーザからの応答を受け付けるための操作ボタンを含む操作画面を表示部23に表示させてもよい。
上記によれば、サイネージシステム1では、繰り返しの回数が所定の回数を超えた場合、又は、繰り返しが所定の時間を超えた場合に、操作ボタンを含む操作画面を表示する。従って、繰り返しにおいて、操作ボタンを含まない提示内容を表示するので、多様な内容を表示することができる。
また、制御部22は、ステップS902およびS907の処理の繰り返しの回数が所定の回数を超えた場合、かつ、当該繰り返しが所定の時間を超えた場合に、ユーザからの応答を受け付けるための操作ボタンを含む操作画面を前記表示部に表示させでもよい。
上記によれば、サイネージシステム1では、繰り返しの回数が所定の回数を超えた場合、かつ、繰り返しが所定の時間を超えた場合に、操作ボタンを含む操作画面を表示する。従って、繰り返しにおいて、操作ボタンを含まない提示内容を表示するので、多様な内容を表示することができる。
〔実施形態3〕
本発明の実施形態3について、以下に説明する。なお、説明の便宜上、実施形態1、2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。本実施形態では、案内選択ボタンの変形例について説明を行う。本実施形態は、実施形態1、2に適用可能である。
本発明の実施形態3について、以下に説明する。なお、説明の便宜上、実施形態1、2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。本実施形態では、案内選択ボタンの変形例について説明を行う。本実施形態は、実施形態1、2に適用可能である。
図10は、本実施形態に係る案内選択ボタンの変形例を示す図である。表示装置2は、図10(a)に示すような案内選択ボタンを表示してもよい。図10には、案内選択ボタンとして、総合案内ボタン、絞り込み結果ボタン、および、会話継続/前画面ボタンが示されている。総合案内ボタンは、会話による絞り込みを破棄して、総合案内を表示するためのボタンである。絞り込み結果ボタンは、会話による絞り込みに基づいた案内を表示するためのボタンである。会話継続/前画面ボタンは、時間オーバー、または、回数オーバーによりボタン表示に遷移した場合に、1つ前の会話に戻るためのボタンである。
表示装置2の制御部22は、絞り込み結果ボタン(操作画面に含まれる特定の操作ボタン)が操作された場合に、図7のステップS702およびS705の処理、または、図9のステップS902およびS907の処理の繰り返しにおいて取得したユーザの発話内容から抽出されたキーワードに応じた操作ボタンのセットを含む操作画面を表示部23に表示させてもよい。
上記によれば、サイネージシステム1では、ユーザの意図に応じて、当該ユーザの発話内容に繋がる、適切な操作画面を表示することができる。
会話継続/前画面ボタンが押下された場合、表示装置2は、図10(b)に示すような案内選択ボタンを表示してもよい。
図11は、本実施形態に係るボタンセットの例を示す表である。図11の表は、キーワードと、ボタンセットとを含む、複数のレコードからなる。キーワードは、案内選択ボタンを表示する直前にユーザが発した音声のデータに含まれるキーワードである。ボタンセットは、当該キーワードに対応する、案内選択ボタンの組合せである。ボタンセットgは、キーワードGに対応するボタンセットであり、例えば、図10(b)に示すような複数の案内選択ボタンg1、g2、および、g3を定義する。
表示装置2は、キーワードG〜Iを受け付けた場合、ボタンセットg〜iで定義された案内選択ボタンを表示する。一方、表示装置2は、キーワードが一致しない場合、固定の案内選択ボタン(例えば、図10(a)に示すボタン)を表示する。
〔実施形態4〕
上記各実施形態では、1つのサーバ3を用いる例を説明したが、サーバ3の有する各機能が、個別のサーバにて実現されていてもよい。そして、複数のサーバを適用する場合においては、各サーバは、同じ事業者によって管理されていてもよいし、異なる事業者によって管理されていてもよい。
上記各実施形態では、1つのサーバ3を用いる例を説明したが、サーバ3の有する各機能が、個別のサーバにて実現されていてもよい。そして、複数のサーバを適用する場合においては、各サーバは、同じ事業者によって管理されていてもよいし、異なる事業者によって管理されていてもよい。
〔実施形態5〕
表示装置2およびサーバ3の各ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。後者の場合、表示装置2およびサーバ3のそれぞれを、図12に示すようなコンピュータ(電子計算機)を用いて構成することができる。
表示装置2およびサーバ3の各ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。後者の場合、表示装置2およびサーバ3のそれぞれを、図12に示すようなコンピュータ(電子計算機)を用いて構成することができる。
図12は、表示装置2またはサーバ3として利用可能なコンピュータ910の構成を例示したブロック図である。コンピュータ910は、バス911を介して互いに接続された演算装置912と、主記憶装置913と、補助記憶装置914と、入出力インターフェース915と、通信インターフェース916とを備えている。演算装置912、主記憶装置913、および補助記憶装置914は、それぞれ、例えばプロセッサ(例えばCPU:Central Processing Unit等)、RAM(random access memory)、ハードディスクドライブであってもよい。入出力インターフェース915には、ユーザがコンピュータ910に各種情報を入力するための入力装置920、および、コンピュータ910がユーザに各種情報を出力するための出力装置930が接続される。入力装置920および出力装置930は、コンピュータ910に内蔵されたものであってもよいし、コンピュータ910に接続された(外付けされた)ものであってもよい。例えば、入力装置920は、キーボード、マウス、タッチセンサなどであってもよく、出力装置930は、ディスプレイ、プリンタ、スピーカなどであってもよい。また、タッチセンサとディスプレイとが一体化されたタッチパネルのような、入力装置920および出力装置930の双方の機能を有する装置を適用してもよい。そして、通信インターフェース916は、コンピュータ910が外部の装置と通信するためのインターフェースである。
補助記憶装置914には、コンピュータ910を表示装置2またはサーバ3として動作させるための各種のプログラムが格納されている。そして、演算装置912は、補助記憶装置914に格納された上記プログラムを主記憶装置913上に展開して該プログラムに含まれる命令を実行することによって、コンピュータ910を、表示装置2またはサーバ3が備える各部として機能させる。なお、補助記憶装置914が備える、プログラム等の情報を記録する記録媒体は、コンピュータ読み取り可能な「一時的でない有形の媒体」であればよく、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路などであってもよい。また、記録媒体に記録されているプログラムを、主記憶装置913上に展開することなく実行可能なコンピュータであれば、主記憶装置913を省略してもよい。なお、上記各装置(演算装置912、主記憶装置913、補助記憶装置914、入出力インターフェース915、通信インターフェース916、入力装置920、および出力装置930)は、それぞれ1つであってもよいし、複数であってもよい。
また、上記プログラムは、コンピュータ910の外部から取得してもよく、この場合、任意の伝送媒体(通信ネットワークや放送波等)を介して取得してもよい。そして、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明の各態様に係るサイネージシステム1は、コンピュータによって実現してもよく、この場合には、コンピュータをサイネージシステム1が備える各部(ソフトウェア要素)として動作させることによりサイネージシステム1をコンピュータにて実現させるサイネージシステム1のプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1 サイネージシステム
22 制御部
23 表示部
g1、g2、g3 案内選択ボタン(操作ボタン)
22 制御部
23 表示部
g1、g2、g3 案内選択ボタン(操作ボタン)
Claims (7)
- 表示部と制御部とを備えた表示システムであって、
前記制御部は、
ユーザへの提示内容であって、ユーザからの応答を受け付けるための操作ボタンを含まない提示内容を前記表示部に表示させる処理と、
前記提示内容に対するユーザからの音声による応答を取得する処理と、
前記取得した応答内容に応じて、ユーザへの新たな提示内容を決定する処理と
を繰り返し行うよう構成されており、
前記繰り返しの回数が所定の回数を超えた場合に、ユーザからの応答を受け付けるための操作ボタンを含む操作画面を前記表示部に表示させる
ことを特徴とする表示システム。 - 前記制御部は、
前記繰り返しの回数が所定の回数を超えた場合、又は、前記繰り返しが所定の時間を超えた場合に、ユーザからの応答を受け付けるための操作ボタンを含む操作画面を前記表示部に表示させる
ことを特徴とする請求項1に記載の表示システム。 - 前記制御部は、
前記繰り返しの回数が所定の回数を超えた場合、かつ、前記繰り返しが所定の時間を超えた場合に、ユーザからの応答を受け付けるための操作ボタンを含む操作画面を前記表示部に表示させる
ことを特徴とする請求項1に記載の表示システム。 - 前記制御部は、
前記繰り返しにおいて取得したユーザの発話内容から抽出されたキーワードに応じた操作ボタンのセットを含む操作画面を前記表示部に表示させる
ことを特徴とする請求項1から3の何れか1項に記載の表示システム。 - 前記制御部は、
前記操作画面に含まれる特定の操作ボタンが操作された場合に、
前記繰り返しにおいて取得したユーザの発話内容から抽出されたキーワードに応じた操作ボタンのセットを含む操作画面を前記表示部に表示させる請求項1から3の何れか1項に記載の表示システム。 - 表示部と制御部とを備えた表示システムによる表示方法であって、
ユーザへの提示内容であって、ユーザからの応答を受け付けるための操作ボタンを含まない提示内容を前記表示部に表示させる表示ステップ、
前記提示内容に対するユーザからの音声による応答を取得する取得ステップと、
前記取得した応答内容に応じて、ユーザへの新たな提示内容を決定する決定ステップと
を繰り返し含んでおり、
前記繰り返しの回数が所定の回数を超えた場合に、ユーザからの応答を受け付けるための操作ボタンを含む操作画面を前記表示部に表示させる
ことを特徴とする表示方法。 - 請求項1に記載の表示システムとしてコンピュータを機能させるためのプログラムであって、上記制御部としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019094726A JP2020190842A (ja) | 2019-05-20 | 2019-05-20 | 表示システム、表示方法、および、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019094726A JP2020190842A (ja) | 2019-05-20 | 2019-05-20 | 表示システム、表示方法、および、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020190842A true JP2020190842A (ja) | 2020-11-26 |
Family
ID=73454544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019094726A Pending JP2020190842A (ja) | 2019-05-20 | 2019-05-20 | 表示システム、表示方法、および、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020190842A (ja) |
-
2019
- 2019-05-20 JP JP2019094726A patent/JP2020190842A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7596761B2 (en) | Application user interface with navigation bar showing current and prior application contexts | |
US9542949B2 (en) | Satisfying specified intent(s) based on multimodal request(s) | |
US10085127B2 (en) | Pre-determined responses for wireless devices | |
US20210073476A1 (en) | Recording medium, conversation control method, and information processing apparatus | |
JP6485935B1 (ja) | オンラインコミュニケーションのレビューシステム、方法、及びコンピュータプログラム | |
JP2020003925A (ja) | 対話システムの制御方法、対話システム及びプログラム | |
JP6648876B1 (ja) | 会話制御プログラム、会話制御方法および情報処理装置 | |
US20180309703A1 (en) | Communication system and storage medium | |
KR101336622B1 (ko) | 오디오 데이터를 이용한 프레즌스 정보 제공 시스템, 이를 위한 장치 및 이를 위한 방법 | |
CN105843594A (zh) | 移动终端应用程序页面的展现方法和装置 | |
JP2016057508A (ja) | 音声対話装置、音声対話装置の制御方法、および制御プログラム | |
CN105357388A (zh) | 一种信息推荐的方法及电子设备 | |
US20170013118A1 (en) | Electronic device and notification method thereof | |
JP2020190842A (ja) | 表示システム、表示方法、および、プログラム | |
JP2006004054A (ja) | 電子機器のユーザインターフェイス生成装置 | |
JP2007080257A (ja) | 携帯型の営業活動支援装置 | |
JP2019159880A (ja) | 応答装置、応答方法、応答プログラム及び応答システム | |
US20220180893A1 (en) | Method and system for generating multimedia content | |
CN111488435B (zh) | 人工智能对话方法和装置、聊天机器人和存储介质 | |
JP2020086129A (ja) | 情報処理装置、情報処理方法、情報処理システム、およびプログラム | |
JPWO2019103007A1 (ja) | 情報処理装置及び情報処理方法 | |
JP7414128B2 (ja) | 会話制御プログラム、会話制御方法および情報処理装置 | |
US20240177704A1 (en) | Interaction service providing system, information processing apparatus, interaction service providing method, and recording medium | |
KR100698194B1 (ko) | 이동 단말기, 및 이동 단말기에서의 티티에스 기능 제공방법 | |
WO2020258168A1 (en) | A method for managing incoming calls on a communication device and the corresponding device |