JP2020003926A - 対話システムの制御方法、対話システム及びプログラム - Google Patents

対話システムの制御方法、対話システム及びプログラム Download PDF

Info

Publication number
JP2020003926A
JP2020003926A JP2018120890A JP2018120890A JP2020003926A JP 2020003926 A JP2020003926 A JP 2020003926A JP 2018120890 A JP2018120890 A JP 2018120890A JP 2018120890 A JP2018120890 A JP 2018120890A JP 2020003926 A JP2020003926 A JP 2020003926A
Authority
JP
Japan
Prior art keywords
scenario
priority
output
input data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018120890A
Other languages
English (en)
Other versions
JP2020003926A5 (ja
JP6983118B2 (ja
Inventor
高橋 利光
Toshimitsu Takahashi
利光 高橋
義崇 平松
Yoshitaka Hiramatsu
義崇 平松
和将 徳橋
Kazumasa Tokuhashi
和将 徳橋
佑 曽我
Yu Soga
佑 曽我
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018120890A priority Critical patent/JP6983118B2/ja
Priority to US16/360,049 priority patent/US11189270B2/en
Priority to EP19164580.3A priority patent/EP3588267B1/en
Publication of JP2020003926A publication Critical patent/JP2020003926A/ja
Publication of JP2020003926A5 publication Critical patent/JP2020003926A5/ja
Application granted granted Critical
Publication of JP6983118B2 publication Critical patent/JP6983118B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】一定期間内に複数の入力を受け付けたときに、操作が煩雑になるのを防いで、利用者の意図に応じた出力を生成する。【解決手段】プロセッサと、メモリと、音声入力装置と、音声出力装置と、タッチ入力装置と、表示部を有する対話システムで、プロセッサが、前記音声またはタッチ入力装置から入力を受け付けて、入力の内容を解析し、予め設定されたシナリオ情報から前記入力データに対応するシナリオを選択して、前記シナリオで指定された出力データを生成し、前記入力データの優先度を算出し、前記出力データを準備中のシナリオの有無を判定する判定し、前記出力データを生成中の前記シナリオがある場合には、前記優先度に基づいて実行するシナリオの出力方法を変更する。【選択図】図2

Description

本発明は、音声とタッチパネルを利用する対話システムに関する。
近年、機械学習の進展に伴って、音声認識技術が普及している。様々な言語での対応を求められる空港や駅での施設案内や、複雑なサービスを複数取り扱う金融機関や自治体等における窓口業務などのさまざまな対人サービスの提供は、既存の職員だけでは難しくなってきている。このような高度化するサービス業務を支援するため、ロボットや音声アシスタントなどの対話システムの実用化が進められている。
対話システムとしては、音声入力やタッチ入力やペン入力などの複数の入力装置を有する装置が知られている(特許文献1〜3)。例えば、特許文献1には、一定時間内に行われた異なる入力操作に基づいた擬似的な実行結果をそれぞれの選択項目として出力して、利用者に選択させる技術が開示されている。
また、特許文献2には、複数のモダリティの入力について、利用者の意図を解釈し、解釈した結果を利用者に提示して、利用者が要求する結果を選択する装置が開示されている。特許文献3には、少なくとも2種類の入力手段からの入力情報を受信する受信工程と、一方の入力手段の入力数の情報に基づいて、他方の入力手段からの入力の認識処理を制御する制御工程と、前記制御工程の制御のもと認識された認識結果を出力する装置が開示されている。
特開2017−010294号公報 特開平11−288342号公報 特開2006−048628号公報
複数の入力装置を有する対話システムでは、一定期間内に複数の入力を受け付けることができるが、複数の入力の意図が異なる場合、上記特許文献1、2では、複数の入力に対する選択肢を提示して利用者に選択させている。しかしながら、上記従来例では、利用者が回答や指示を入力したのに、さらに選択肢を入力する必要が生じ、操作が煩雑になるという問題があった。また、上記特許文献3では、入力数の情報がない場合には、他方の入力手段からの入力の認識処理を実施するのが難しい、という問題があった。
そこで本発明は、上記問題点に鑑みてなされたもので、一定期間内に複数の入力を受け付けたときに、操作が煩雑になるのを防いで、利用者の意図に応じた出力を生成することを目的とする。
本発明は、プロセッサと、メモリと、音声入力装置と、音声出力装置と、表示部を有する対話システムの制御方法であって、前記プロセッサが、前記音声入力装置から音声入力を受け付けて、音声入力の内容を解析して入力データを生成する入力データ生成ステップと、前記プロセッサが、予め設定されたシナリオ情報から前記入力データに対応するシナリオを選択して、前記シナリオで指定された出力データを生成する出力データ生成ステップと、前記プロセッサが、前記入力データの優先度を算出する優先度算出ステップと、前記プロセッサが、前記出力データを準備中のシナリオの有無を判定する判定ステップと、前記プロセッサが、前記出力データを生成中の前記シナリオがある場合には、前記優先度に基づいて実行するシナリオを変更するシナリオ制御ステップと、を含む。
したがって、本発明によれば、一定期間内に複数の入力を受け付けたときに、操作が煩雑になるのを防いで、利用者の意図に応じた出力を生成することが可能となる。
本発明の実施例を示し、対話システムの構成の一例を示すブロック図である。 本発明の実施例を示し、対話システムの機能の一例を示すブロック図である。 本発明の実施例を示し、対話システムで行われる対話処理の一例を示すフローチャートである。 本発明の実施例を示し、タッチパネルに表示される案内画面の一例を示す図で、シナリオの実行順序を変更する場合である。 本発明の実施例を示し、タッチパネルに表示される案内画面の他の例を示す図で、シナリオの実行順序を変更する場合である。 本発明の実施例を示し、タッチパネルに表示される案内画面の一例を示す図で、店舗情報を表示する場合である。 本発明の実施例の変形例を示し、タッチパネルに表示される選択画面の一例を示す図である。 本発明の実施例の変形例を示し、タッチパネルに表示される選択画面の他の例を示す図である。 本発明の実施例の変形例を示し、タッチパネルに表示される選択画面の他の例を示す図である。 本発明の実施例を示し、タッチパネルに表示される案内画面の他の例を示す図である。 本発明の実施例を示し、利用状況解析部によって出力された利用状況の一例を示す図である。 本発明の実施例を示し、シナリオの一例を示す図である。
以下、本発明の実施形態を添付図面に基づいて説明する。
<システムの構成>
図1は、本発明の実施例を示し、対話システムの構成の一例を示すブロック図である。本実施例の対話システムは、空港や駅、あるいはショッピングモールなどの公共施設に設置されて、利用者に音声またはタッチによる入力を促して、施設の案内を提供する例を示す。
対話システムは、利用者と対向する位置に設置されたタッチパネル4と、タッチパネル4を支持するクレードル8と、クレードル8に設置されたマイク6と、タッチパネル4に設けたスピーカ9とカメラ5と、クレードル8に設置された近接センサ7と、各装置を制御する制御部10を有する。
制御部10は、プロセッサ1と、メモリ2と、ストレージ装置3と、を含む計算機で構成される。
なお、図1はあくまで本発明による対話システムの構成の一例であり、これに限定されるものではない。例えば、クレードル8と制御部10が一体の構成であってもよいし、クレードル8にもカメラやスピーカが搭載された構成であってもよい。なお、カメラ5と近接センサ7は、利用者の状況を検出するセンサとして機能する。
メモリ2には、センサ情報取得部110と、入力内容解析部(入力データ生成部)120と、利用状況解析部130と、優先度算出部140とシナリオ制御部150と、出力内容取得部170と、出力部160が、それぞれプログラムとしてロードされ、プロセッサ1によって実行される。
プロセッサ1は、各機能部のプログラムに従って処理することによって、所定の機能を提供する機能部として稼働する。例えば、プロセッサ1は、センサ情報取得プログラムに従って処理することでセンサ情報取得部110として機能する。他のプログラムについても同様である。さらに、プロセッサ1は、各プログラムが実行する複数の処理のそれぞれの機能を提供する機能部としても稼働する。計算機及び計算機システムは、これらの機能部を含む装置及びシステムである。
制御部10の各機能を実現するプログラム、テーブル等の情報は、ストレージ装置3や不揮発性半導体メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶デバイス、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。
ストレージ装置3には、各プログラムが使用するデータが格納される。図示の例では、施設内の店舗の情報等を含む案内情報を予め格納した回答データベース210と、シナリオテーブル260などを含む会話データベース220と、利用者の入力情報を格納する入力履歴データベース230と、音声認識で使用する音声認識データベース240と、利用状況の解析結果を格納する利用状況履歴データベース250が格納される。各データの詳細については後述する。
タッチパネル4は、タッチパネルディスプレイ40と、タッチセンサ41を含む。タッチパネルディスプレイ40は、制御部10が出力する情報を表示する表示部として機能する。タッチセンサ41は、タッチパネル4に対するタッチ入力を検出して、制御部10にタッチされた位置情報を送信する。マイク6は、利用者の発話や設置環境の騒音などを取得する。スピーカ9は、制御部10からの音声信号を出力する。カメラ5は、利用者を撮影する。近接センサ7は、利用者の有無を検出する。
<機能の概要>
次に、各機能部の概要について説明する。図2は、対話システムの機能の一例を示すブロック図である。
センサ情報取得部110は、カメラ5と、マイク6と、近接センサ7と、タッチセンサ41からの出力(センサ情報)を受け付けて、入力内容解析部120と利用状況解析部130に出力する。
入力内容解析部120は、マイク6に入力された音声情報を基に、周囲の環境音(雑音)と利用者の発話を適宜切り分け、利用者の発話データのみを入力データとして取得すると、音声認識データベース240を参照し、音声認識を実行して発話に対応するテキストを出力する。音声認識は、例えば、隠れマルコフモデルなど周知または公知の技術を用いれば良い。音声認識データベース240は、例えば、音響モデルと、辞書と、言語モデルなど音声認識に必要な情報が予め格納されている。
また、入力内容解析部120は、タッチセンサ41からのタッチ入力を受け付けると、現在実行中のシナリオに応じて、利用者のタッチ入力に対応するテキストまたは値を生成する。
入力内容解析部120は、音声認識結果のテキストと、タッチ入力に対応するテキストまたは値を入力データとして優先度算出部140へ出力する。
利用状況解析部130は、マイク6が設置された環境の騒音を検出(例えば、音圧レベル)し、騒音情報として優先度算出部140へ出力する。また、利用状況解析部130は、カメラ5が撮影した利用者の画像を認識し、利用者の属性や状況を算出する。利用状況解析部130の画像認識は、例えば、周知または公知の画像識技術を利用して、利用者の属性として年齢や性別や所属などを識別する。また、利用状況解析部130は、撮影した利用者の画像から、利用者の人数や利用者の位置を検出する。
また、利用状況解析部130は、利用者の視線や顔の向きや、口や手の動きを取得して、利用者の状況を示す情報とする。利用状況解析部130は、上記認識した利用者の属性や状況を優先度算出部140へ出力する。
また、利用状況解析部130は、近接センサ7の出力から利用者の出現や立ち去り(利用の終了)を検出し、新たな利用者が出現した場合には、シナリオ制御部150へ処理の開始を通知しても良い。
優先度算出部140は、入力内容解析部120から利用者の発話やタッチ入力に対応する入力データと、利用状況解析部130の認識結果から利用者の有無や属性や状況を受け付ける。
優先度算出部140は、入力データの種類(音声入力またはタッチ入力)や入力データの内容や、入力履歴DB230に蓄積された過去の入力データや、利用状況解析部130で出力された利用者の状況や、入力データと現在実行中のシナリオとの関連度基づいて入力データ毎の優先度を算出する。優先度の算出については後述する。優先度算出部140は、算出した入力データ毎の優先度をシナリオ制御部150に出力する。
シナリオ制御部150は、優先度算出部140から受け付けた入力データの優先度に応じて、シナリオテーブル260から実行するシナリオを選択し、選択したシナリオを出力部160に実行させる。
出力部160は、シナリオ制御部150により出力されたシナリオに応じて、入力データに対応する画面出力や音声出力などの出力データを生成し、タッチパネル4やスピーカ9に出力する。また、出力部160は、出力データを出力内容取得部170へ出力する。出力内容取得部170は生成された出力データを優先度算出部140へフィードバックする。
シナリオ制御部150は、一定の期間内に複数の入力データを受け付けた場合には、各入力データの優先度を比較して、優先度の高い順にシナリオの実行順序を入れ替える。あるいは、優先度の高い順にシナリオの実行結果の出力の順序や出力の比率(タッチパネルディスプレイ40上での出力サイズ比や出現時間比、スピーカー9から出力される出力時間比など)を変更する。
シナリオ制御部150は、実行順序(または実行比率)を入れ替えたシナリオに基づく出力結果を出力部160へ通知する。なお、シナリオ制御部150は、一定の期間内に複数の入力データがなければ、入力データに対応する出力シナリオをシナリオテーブル260から選択して出力部160に実行させる。入力データに対応する出力シナリオは、入力データに含まれる単語でシナリオテーブル260を検索した結果や、入力データに含まれる単語とシナリオテーブル260の入力データに含まれる単語の類似度の高いものを検索した結果など、周知または公知の手法を用いてシナリオテーブル260から検索することができる。
ここで、シナリオ制御部150は、入力データを受け付けて、出力部160へ入力データに対応するシナリオを実行させるまでの期間を一定の期間とする。
シナリオ制御部150は、例えば、タッチセンサ41からの入力データと、マイク6からの入力データが一定の期間内に発生した場合、2つの入力データのうち優先度の高い入力データを出力部160に実行させ、優先度の低い入力データの実行を遅延または破棄させる。
なお、出力部160が出力する表示または発話の選択は、シナリオ制御部150が騒音の大きさなどに応じて適宜変更しても良い。なお、本実施例では、出力データをタッチパネルディスプレイ40とスピーカ9の双方から同時に出力することができる。
また、シナリオ制御部150は、入力データを入力履歴データベース230に格納する。
以上のように、本実施例の対話システムでは、一定期間内に複数の入力を受け付けたときに、操作が煩雑になるのを防いで、利用者の意図に応じた出力を提供することができる。
<データの詳細>
以下、制御部10が利用するデータについて説明する。図11は、利用状況解析部130によって出力された利用状況履歴データベース250に格納されるデータの一例を示す図である。
利用状況履歴データベース250は、入力時刻251や、人数252、年齢253、性別254、所属255、環境音256、視線方向257、口の動き258、手の動き259などの利用状況パラメータ(人数、性別、所属、環境音、利用者ごとの視線方向、利用者ごとの口の動き、利用者ごとの手の動きなど)ごとの解析結果をひとつのエントリに含む。
利用状況パラメータごとの解析結果として、利用状況解析部130が解析した結果がそれぞれ記録される。
利用状況パラメータごとの解析結果には、優先度算出部140の優先度算出に利用するため予め所定の重みが設定されている。例えば、所属パラメータの解析される値として、一般ユーザとスタッフ、保守員、その他(分類不明)に分類される場合、スタッフの入力を優先度が最も高い1.0、一般ユーザの入力が0.5、その他(分類不明)の入力が0.3、保守員の入力が0.1の用に優先度算出に寄与する重み付けが設定されている。
なお、前記所属パラメータの解析結果とそれぞれの解析結果に対する重み付けはあくまで一例であり、その他の解析結果や重み付けを設定してもよい。
図12は、会話データベース220に含まれるシナリオテーブル260の一例を示す図である。シナリオテーブル260の各行はリスト番号(図中#)261と対話リスト262から構成される。
対話リスト262は対話システムが利用者に対して実施する対話のリストであり、図ではセミコロンで区切られて1以上の対話が表記されている。対話リスト262には、出力情報と入力情報と次のリスト番号が設定される。
対話リスト262の出力情報としては、リスト番号261=「1」の「QUESTION」が、利用者への問い合わせを意味し、制御部10は「どの様なご用件は何でしょうか?」という対話の内容を表示または発話する。そして、「CASE」は出力する問い合わせ情報の選択肢として「レストラン」、「ショップ」と、次回に実行するシナリオのリスト番号261が設定される。
例えば、利用者が「レストラン」をタッチ入力で選択したときには、次回の処理はリスト番号261=「2」となり、タッチ入力で取得した「レストラン」を示す値は変数「a」に格納される。
リスト番号261=「2」の「QUESTION」では、食事に関するサブカテゴリ「和食」、「洋食」、「中華」、「その他」のいずれを選択するかを問い合わせる。いずれの選択においても、制御部10は問い合わせに対する回答(選択結果)を入力として、回答データベース210を検索し、選択結果に応じたさらなるサブカテゴリを表示するリスト番号261=「4」の「QUESTION」である「どのお店を紹介しましょう?」を問い合わせる。そして、制御部10は次回の処理はリスト番号261=「5」であるので、制御部10は回答に対応する検索結果である店舗案内情報の候補を「ANSWER」として出力する。
図示の例では、リスト番号261=「5」で検索結果を出力(OUTPUT)した後には、GOTO(1)で、リスト番号261=「1」に復帰する例を示すが、これに限定されるものではない。例えば、出力した候補の中から利用者に所望の店舗を選択させて、さらに詳細な情報を提供したり、空席の照会などを実施させてもよい。
対話リスト262は、リスト番号261=「10」の「ANSWER」では、トイレの場所をタッチパネルディスプレイ40へ出力する例を示す。この場合、シナリオ制御部150は、回答データベース210に予め格納された施設内の地図データなどを取得して案内情報として出力すればよい。
なお、回答データベース210は、図示はしないが、例えば、店舗の識別子と、カテゴリと、店舗の営業時間などの詳細情報等で構成することができる。また、入力履歴データベース230についても図示はしないが、日付や時刻と入力された情報等を格納することができる。
<処理の詳細>
図3は、制御部10で行われる対話処理の一例を示すフローチャートである。この処理は、制御部10のセンサ情報取得部110が、タッチ入力や音声入力を受け付けた時に実行される。
まず、ステップS1で、制御部10は、マイク6からの音声入力またはタッチセンサ41からのタッチ入力と、カメラ5からの画像情報と近接センサ7からの近接情報をセンサ情報として取得する。
ステップS2で、制御部10は、利用状況解析部130によってカメラ5が撮影した利用者の画像情報を認識し、利用者の属性(年齢、性別、所属)を識別し、利用者の人数や利用者の位置を検出する。また、利用状況解析部130は、上述したように利用者の視線や顔の向きや、口や手の動きを認識して、利用者の状況を示す情報とする。また、利用状況解析部130は、近接センサ7の出力から利用者の出現や立ち去り(利用の終了)を検出する。さらに、利用状況解析部130はマイク6から取得した音声データからクレードル8が設置された環境における雑音の大きさを検出する。
ステップS3で、制御部10は、入力内容解析部120によって、音声入力に対して音声認識を実施して、利用者の発話に対応するテキストを入力データとして生成する。また、入力内容解析部120は、タッチ入力に対してシナリオテーブル260のシナリオに対応する入力データ(テキストまたはタッチした位置などの値)を生成する。
ステップS3で、制御部10は、入力履歴データベース230を参照して、現在の入力データが前回の入力データと同一であるか否かを判定する。現在の入力データと前回の入力データが同一であればステップS6へ進み、同一でなければステップS5に進む。
ステップS5では、制御部10は、現在の入力データの値を入力履歴データベース230に登録し、回数=1を設定する。一方、ステップS6では、制御部10が、入力履歴データベース230から現在の入力データの連続入力回数を取得し、入力履歴データベース230の連続入力回数をインクリメントしてから登録する。
次に、ステップS7では、制御部10が、シナリオ制御部150で入力データに対応するシナリオをシナリオテーブル260から選択して、画面表示内容や音声再生などの出力内容を生成する。
次に、ステップS8では、制御部10が、現在の入力データの優先度Pを次式により算出する。
ただし、
α:利用状況パラメータごとの優先度に対する重み
β:入力種類(音声入力/タッチ入力)に応じた重み
γ:利用状況パラメータごとの利用状況に応じた値
δ:出力済みデータと生成中の出力内容との関連度
ε:同じ入力データの連続回数
である。
なお、重みの値は予め設定されたものである。また、出力済みの出力内容(前回の入力データに対する出力結果)と、現在の入力データの関連度は、出力済みデータと現在の入力データに含まれる単語間の類似度を用いることができ、例えば、Word2vecやcos類似度などの周知の手法を用いて算出すればよい。
次に、ステップS9では、制御部10が、出力部160で出力データを生成中(準備中)のシナリオがあるか否かを判定し、生成中のシナリオがあればステップS10へ進み、生成中のシナリオがなければステップS13へ進む。
ステップS10では、ステップS8で算出した現在の入力データの優先度と、出力準備中の入力データ(前回の入力データとする)の優先度を比較し、現在の入力データの優先度が前回の入力データの優先度よりも高いか否かを判定する。現在の入力データの優先度が高い場合にはステップS11へ進み、そうでない場合にはステップS13に進む。
ステップS11では、制御部10が、現在出力準備中のシナリオ出力方法を変更して、現在の入力データに対応するシナリオの出力データを加味したシナリオ出力を生成する。この処理は、例えば、出力データを生成するシナリオの実行順序を変更したり、タッチパネルディスプレイ40に出力する出力データのサイズや位置を優先度に応じて変更したり、あるいは、前回の入力データに対する出力データを破棄したりするなど、所定の処理を実行する。
すなわち、制御部10は、現在の入力データに対応する出力データのみを出力するか、現在の入力データに対応する出力データと、前回の入力データに対応する出力データの双方を優先度に応じたサイズや、優先度に応じた位置で出力するかを決定する。
ステップS12では、制御部10が、ステップS11で決定した出力内容に応じて、出力部160から出力するシナリオデータを生成させる。ステップS13では、制御部10が、上記ステップS7またはS12で出力部160に指令したシナリオの出力データを出力する。
以上の処理によって、いずれかの入力が一定期間内に順次発生した場合、現在(最新)の入力データと前回(直前)の入力データの優先度を比較することで、どちらの入力データに対応する出力データを優先すれば良いかを制御部10が自動的に決定することができる。
これにより、前記従来例のように、利用者が回答や指示を入力したのに、さらに選択肢を入力することを防ぐことができる。したがって、一定期間内に複数の入力を受け付けたときに、操作が煩雑になるのを防いで、利用者の意図に応じた出力を生成する対話システムを提供することができる。
図4は、タッチパネルディスプレイ40に表示される案内画面300の一例を示す図で、出力データの順序を変更する場合である。案内画面300は、左下のアバター600が案内を行う想定で、タッチ入力と音声入力の双方を利用し、音声入力結果が入力欄700に表示される。案内画面300では、アバター600の発話が左側に表示され、利用者の入力データが右側に表示され、画面下方から上方に向けてスクロールして表示される例を示す。
まず、対話システムの制御部10は、シナリオテーブル260に従って、タッチパネル4の前に到来した利用者に対して問い合わせを実施して、タッチパネルディスプレイ40に「どの様なご用件でしょうか」(401)を出力する。この時、スピーカ9から音声で出力してもよいし、画面と音声の両方を同時に出力してもよい。図4に示す例では続けて、利用者が音声入力にて「ご飯が食べたい」(501)と応答する。
制御部10は、シナリオテーブル260に従って「どのジャンルの料理を御希望ですか?」(402)という文章と、「和食」〜「その他」の選択肢をタッチパネルディスプレイ40(またはスピーカ9)に出力する。
これに対して、利用者はタッチパネル4の「洋食」(502)をタッチ入力した後に、「やっぱり先にトイレに行きたい」(503)と音声で入力する。制御部10のシナリオ制御部150は、前回の入力データ=「洋食」に対する出力データが準備中であるので、前回の入力データ=「洋食」の優先度と、現在(最新)の入力データ=「〜トイレに行きたい」の優先度を比較する。
制御部10は、現在の入力データの優先度が、直前の入力データの優先度よりも高いと判定した場合、回答データベース210を参照して、図示のように現在地からトイレまでの行き方を示した地図をタッチパネルディスプレイ40へ出力する(403)。このように、制御部10は、複数の入力データを一定期間内に受け付けた場合には、入力データの優先度に応じてシナリオの実行順序を変更することが可能となる。
制御部10は、トイレまでの地図をタッチパネルディスプレイ40へ出力した後に、近接センサ7またはカメラ5の出力から利用者の利用状況として利用者の立ち去りを検出すると、出力データおよび出力準備中のデータを破棄することができる。
一方、制御部10は、トイレまでの地図をタッチパネル4へ出力した後に、近接センサ7またはカメラ5の出力から利用者の存在を継続して検出すると、元のシナリオテーブル260に戻って、前回の入力データに対応するシナリオを実行して出力データを出力することができる。
図5は、タッチパネルディスプレイ40に表示される案内画面300の一例を示す図で、図4にて示したシナリオの実行順序を変更した場合に利用者が継続して検出された場合の一例である。案内画面300には、トイレまでの地図(403)を表示した後に、直前の入力データ=「洋食」(502)に対応する応答として店舗選択404が表示される。
この場合、制御部10では、シナリオ制御部150が現在の入力データに対応するシナリオと、前回の入力データに対応するシナリオを入れ替えて出力部160に実行させることで、出力データの順序が変更される。
そして、店舗選択404の中から、利用者がタッチ入力を行うことにより、制御部10は、回答データベース210から該当する店舗情報を検索してタッチパネル4に表示することができる。
図6は、図5に示した店舗選択404において、利用者が「店舗A」をタッチ入力で選択した場合の一例を示している。図6に示す例では、「店舗A」に関する詳細な店舗情報405がタッチパネルディスプレイ40に出力される。
図7は、タッチパネルディスプレイ40に表示される案内画面300の他の例を示す図で、複数の入力が一定期間内にあった場合に、複数の出力データ(選択肢)を並列して表示する場合である。
制御部10は、「洋食」(502)のタッチ入力(前回の入力データ)に対応して「和食」〜「その他」の選択肢411をタッチパネルディスプレイ40に出力してから、現在の入力データ=「〜トイレに行きたい」(503)に対応する選択肢「トイレ」を並列的に出力する。なお、選択肢411のウィンドウは、ポップアップして表示してもよい。
この場合、制御部10は、現在の入力データの優先度が、前回の入力データの優先度よりも高いので、前回の入力データに対する出力データに、現在の入力データに対する出力データを付加して出力することができる。
制御部10は、前回の入力データと現在の入力データの双方に対して並列的に応答することで、優先度の高い入力データに対応する出力データを優先して表示し、利用者の意図に対応することができる。
図8は、タッチパネルディスプレイ40に表示される案内画面300の他の例を示す図で、複数の出力データ(選択肢)をタブで分けて表示する場合である。
制御部10は、「洋食」(502)のタッチ入力(直前の入力データ)に対応して「レストラン」のタブ421を出力し、現在の入力データに対応する「トイレ」のタブ422を選択肢420として出力する。なお、選択肢420のウィンドウは、ポップアップして表示してもよい。
この場合、制御部10は、現在の入力データの優先度が、前回の入力データの優先度よりも高いので、前回の入力データに対する出力データ(タブ421)に、現在の入力データに対する出力データ(タブ422)を付加して出力することができる。
そして、制御部10は、入力データの優先度が高い方のシナリオの出力データ(タブ422)を、前回の入力データのシナリオによる出力データ(タブ421)よりも前面に出力することで、優先して表示することができる。
以上のように、優先度の高い入力データに対応する出力データを優先的に表示することで、利用者の意図に対応することができる。
図9は、タッチパネルディスプレイ40に表示される案内画面300の他の例を示す図でである。
制御部10は、現在の入力データの優先度が、前回の入力データの優先度よりも高いので、前回の入力データに対するシナリオ応答よりも、現在の入力データに対するシナリオの出力データを優先的に出力する。
制御部10は、前回の入力データに対する出力データである「レストラン」の選択肢431の上に、現在の入力データに対する出力データである「トイレ」の選択肢432のウィンドウを表示する。
従って、制御部10は、入力データの優先度が高い方のシナリオの出力データ(選択肢432)を、前回の入力データのシナリオによる出力データ(選択肢431)よりも前面に出力することで、優先して表示することができる。
以上のように、優先度の高い入力データに対応する出力データを優先的に表示することで、利用者の意図に対応することができる。
また、制御部10は、選択肢432からタッチ入力または音声入力を受け付けると、図10で示すように、選択されたトイレの地図データを回答データベース210から取得してタッチパネル4に出力する。
制御部10は、前回の入力データ(タッチ入力)と現在の入力データ(音声入力)の優先度に応じて出力データを表示することで、利用者の意図に対応することができる。
<まとめ>
なお、上記実施例では、タッチパネルディスプレイ40に表示中の選択肢(ボタン等)に対して、利用者が選択肢以外を入力(主に発話)した場合は、制御部10が、選択肢と入力された内容の関連度を算出して、関連度に応じて実行するシナリオを変更しても良い。
なお、制御部10は、入力データと表示中の関連度に応じてアバター600の演出を変えてもよい。例えば、関連度が高いと相槌を打って表示を切替え、関連度が低いと悩んで表示変更しないなど、所定の表示を行うことができる。また、関連度が低い場合は、画面だけ表示してアバター600の発話を禁止して、利用者の発話を受け付けても良い。
また、上記実施例では、タッチ入力を受け付けるタッチセンサ41と、表示部としてのタッチパネルディスプレイ40が一体のタッチパネル4を用いる例を示したが、これに限定されるものではなく、表示部と入力部が分離する構成であってもよい。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1 プロセッサ
2 メモリ
3 ストレージ装置
4 タッチパネル
5 カメラ
6 マイク
7 近接センサ
8 クレードル
9 スピーカ
10 制御部
40 タッチパネルディスプレイ
41 タッチセンサ
110 センサ情報取得部
120 入力内容解析部
130 利用状況解析部
140 優先度算出部
150 シナリオ制御部
160 出力部
170 出力内容取得部
210 回答データベース
220 会話データベース
230 入力履歴データベース
240 音声認識データベース
250 利用状況履歴データベース
260 シナリオテーブル

Claims (15)

  1. プロセッサと、メモリと、音声入力装置と、音声出力装置と、表示部を有する対話システムの制御方法であって、
    前記プロセッサが、前記音声入力装置から音声入力を受け付けて、音声入力の内容を解析して入力データを生成する入力データ生成ステップと、
    前記プロセッサが、予め設定されたシナリオ情報から前記入力データに対応するシナリオを選択して、前記シナリオで指定された出力データを生成する出力データ生成ステップと、
    前記プロセッサが、前記入力データの優先度を算出する優先度算出ステップと、
    前記プロセッサが、前記出力データを準備中のシナリオの有無を判定する判定ステップと、
    前記プロセッサが、前記出力データを生成中の前記シナリオがある場合には、前記優先度に基づいて実行するシナリオの出力方法を変更するシナリオ制御ステップと、
    を含むことを特徴とする対話システムの制御方法。
  2. 請求項1に記載の対話システムの制御方法であって、
    現在実行中のシナリオを取得する出力内容取得ステップをさらに備え、
    前記優先度算出ステップにおいて、前記入力データと現在実行中のシナリオとの関連度を基に優先度を算出することを特徴とする対話システムの制御方法。
  3. 請求項2に記載の対話システムの制御方法であって、
    利用状況を解析する利用状況解析ステップをさらに備え、
    利用状況の解析結果も加味して優先度を算出することを特徴とする対話システムの制御方法。
  4. 請求項1から請求項3のいずれか一項に記載の対話システムの制御方法であって、
    前記シナリオ制御ステップは、
    前記出力データを生成中の前記シナリオがある場合には、前回の入力データの優先度と、現在の入力データの優先度を比較して、優先度の高い方のシナリオを実行することを特徴とする対話システムの制御方法。
  5. 請求項1から請求項3のいずれか一項に記載の対話システムの制御方法であって、
    前記シナリオ制御ステップは、
    前記出力データを生成中の前記シナリオがある場合には、前回の入力データの優先度と、現在の入力データの優先度を比較して、優先度の高い方のシナリオの出力データを優先的に出力することを特徴とする対話システムの制御方法。
  6. 請求項1から請求項3のいずれか一項に記載の対話システムの制御方法であって、
    前記シナリオ制御ステップは、
    前記出力データを生成中の前記シナリオがある場合には、前回の入力データの優先度と、現在の入力データの優先度を比較して、前記現在の入力データの優先度の方が高い場合には、前回の入力データに対応するシナリオの出力データに、今回の入力データに対応するシナリオの出力データを付加することを特徴とする対話システムの制御方法。
  7. 請求項1から請求項6のいずれか一項に記載の対話システムの制御方法であって、
    前記表示部がタッチ入力を受け付けるタッチパネルで構成され、
    前記入力データ生成ステップは、
    前記タッチ入力の内容を解析して入力データを生成することを特徴とする前記請求項1から請求項6のいずれか一項に記載の対話システムの制御方法。
  8. プロセッサと、メモリと、音声入力装置と、音声出力装置と、表示部を有する対話システムであって、
    前記音声入力装置から音声入力を受け付けて、音声入力の内容を解析して入力データを生成する入力データ生成部と、
    予め設定されたシナリオ情報から前記入力データに対応するシナリオを選択して、前記シナリオで指定された出力データを生成する出力部と、
    前記入力データの優先度を算出する優先度算出部と、
    前記プロセッサが、前記出力データを準備中のシナリオの有無を判定する判定して、前記プロセッサが、前記出力データを生成中の前記シナリオがある場合には、前記優先度に基づいて前記出力部で実行させるシナリオの出力方法を変更するシナリオ制御部と、
    を含むことを特徴とする対話システム。
  9. 請求項8に記載の対話システムであって、
    現在実行中のシナリオを取得する出力内容取得ステップをさらに備え、
    前記優先度算出ステップにおいて、前記入力データと現在実行中のシナリオとの関連度を基に優先度を算出することを特徴とする対話システム。
  10. 請求項9に記載の対話システムであって、
    利用状況を解析する利用状況解析ステップをさらに備え、
    利用状況の解析結果も加味して優先度を算出することを特徴とする対話システム。
  11. 請求項8から請求項10のいずれか一項に記載の対話システムであって、
    前記シナリオ制御部は、
    前記出力データを生成中の前記シナリオがある場合には、前回の入力データの優先度と、現在の入力データの優先度を比較して、優先度の高い方のシナリオを前記出力部で実行させることを特徴とする対話システム。
  12. 請求項8から請求項10のいずれか一項に記載の対話システムであって、
    前記シナリオ制御部は、
    前記出力データを生成中の前記シナリオがある場合には、前回の入力データの優先度と、現在の入力データの優先度を比較して、優先度の高い方のシナリオの出力データを前記出力部から優先的に出力させることを特徴とする対話システム。
  13. 請求項8から請求項10のいずれか一項に記載の対話システムであって、
    前記シナリオ制御部は、
    前記出力データを生成中の前記シナリオがある場合には、前回の入力データの優先度と、現在の入力データの優先度を比較して、前記現在の入力データの優先度の方が高い場合には、前記出力部で生成する前回の入力データに対応するシナリオの出力データに、今回の入力データに対応するシナリオの出力データを付加させることを特徴とする対話システム。
  14. 請求項8から請求項13のいずれか一項に記載の対話システムであって、
    前記表示部がタッチ入力を受け付けるタッチパネルで構成され、
    前記入力データ生成部は、
    前記タッチ入力の内容を解析して入力データを生成することを特徴とする対話システム。
  15. プロセッサと、メモリと、音声入力装置と、音声出力装置と、表示部を有する計算機で対話を実施させるためのプログラムであって、
    前記音声入力装置から音声入力を受け付けて、音声入力の内容を解析して入力データを生成する入力データ生成ステップと、
    予め設定されたシナリオ情報から前記入力データに対応するシナリオを選択して、前記シナリオで指定された出力データを生成する出力データ生成ステップと、
    前記入力データの優先度を算出する優先度算出ステップと、
    前記出力データを準備中のシナリオの有無を判定する判定ステップと、
    前記出力データを生成中の前記シナリオがある場合には、前記優先度に基づいて実行するシナリオの出力方法を変更するシナリオ制御ステップと、
    を前記計算機に実行させるためのプログラム。
JP2018120890A 2018-06-26 2018-06-26 対話システムの制御方法、対話システム及びプログラム Active JP6983118B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018120890A JP6983118B2 (ja) 2018-06-26 2018-06-26 対話システムの制御方法、対話システム及びプログラム
US16/360,049 US11189270B2 (en) 2018-06-26 2019-03-21 Method of controlling dialogue system, dialogue system, and data storage medium
EP19164580.3A EP3588267B1 (en) 2018-06-26 2019-03-22 Method of controlling dialogue system, dialogue system, and data storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018120890A JP6983118B2 (ja) 2018-06-26 2018-06-26 対話システムの制御方法、対話システム及びプログラム

Publications (3)

Publication Number Publication Date
JP2020003926A true JP2020003926A (ja) 2020-01-09
JP2020003926A5 JP2020003926A5 (ja) 2020-10-08
JP6983118B2 JP6983118B2 (ja) 2021-12-17

Family

ID=65904312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018120890A Active JP6983118B2 (ja) 2018-06-26 2018-06-26 対話システムの制御方法、対話システム及びプログラム

Country Status (3)

Country Link
US (1) US11189270B2 (ja)
EP (1) EP3588267B1 (ja)
JP (1) JP6983118B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023011441A1 (zh) * 2021-08-02 2023-02-09 青岛海尔洗衣机有限公司 语音播报的控制方法、装置、设备及存储介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220238109A1 (en) * 2019-06-14 2022-07-28 Sony Group Corporation Information processor and information processing method
KR20190104931A (ko) * 2019-08-22 2019-09-11 엘지전자 주식회사 시설 안내 로봇 및 이를 이용한 시설 안내 방법
CN112306572B (zh) * 2020-10-29 2023-09-12 抖音视界有限公司 信息处理方法、系统及存储介质
US11972095B2 (en) 2021-03-23 2024-04-30 Microsoft Technology Licensing, Llc Voice assistant-enabled client application with user view context and multi-modal input support
US11789696B2 (en) 2021-03-23 2023-10-17 Microsoft Technology Licensing, Llc Voice assistant-enabled client application with user view context
WO2022203968A1 (en) * 2021-03-23 2022-09-29 Microsoft Technology Licensing, Llc Voice assistant-enabled client application with user view context and multi-modal input support

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004325848A (ja) * 2003-04-25 2004-11-18 Nippon Telegr & Teleph Corp <Ntt> 音声対話制御方法、音声対話制御装置、音声対話制御プログラム
US20100049517A1 (en) * 2008-08-20 2010-02-25 Aruze Corp. Automatic answering device, automatic answering system, conversation scenario editing device, conversation server, and automatic answering method
US20140074483A1 (en) * 2012-09-10 2014-03-13 Apple Inc. Context-Sensitive Handling of Interruptions by Intelligent Digital Assistant
WO2015196063A1 (en) * 2014-06-19 2015-12-23 Robert Bosch Gmbh System and method for speech-enabled personalized operation of devices and services in multiple operating environments
JP2016519454A (ja) * 2013-03-14 2016-06-30 アップル インコーポレイテッド 割り込みのコンテクスト依存処理
WO2016157662A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、制御方法、およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5421728A (en) * 1994-03-07 1995-06-06 Honeywell Inc. In-flight radar warning receiver training system
JP3822357B2 (ja) 1998-02-09 2006-09-20 株式会社東芝 マルチモーダル入出力装置のインタフェース装置及びその方法
US7257537B2 (en) * 2001-01-12 2007-08-14 International Business Machines Corporation Method and apparatus for performing dialog management in a computer conversational interface
US7774751B2 (en) * 2003-12-26 2010-08-10 Yefim Zhuk Knowledge-driven architecture
US7747601B2 (en) * 2006-08-14 2010-06-29 Inquira, Inc. Method and apparatus for identifying and classifying query intent
JP4416643B2 (ja) 2004-06-29 2010-02-17 キヤノン株式会社 マルチモーダル入力方法
JP4679254B2 (ja) * 2004-10-28 2011-04-27 富士通株式会社 対話システム、対話方法、及びコンピュータプログラム
NL1030500C2 (nl) * 2005-11-23 2007-05-24 Univ Delft Tech Inrichting voor het tegengaan van een bloeding bij een patient.
JP6078964B2 (ja) * 2012-03-26 2017-02-15 富士通株式会社 音声対話システム及びプログラム
KR101990037B1 (ko) 2012-11-13 2019-06-18 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US10176167B2 (en) * 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10642873B2 (en) * 2014-09-19 2020-05-05 Microsoft Technology Licensing, Llc Dynamic natural language conversation
JP2017010294A (ja) 2015-06-23 2017-01-12 三菱電機株式会社 入力装置、入力方法、および電子機器
JP6814646B2 (ja) 2017-01-23 2021-01-20 株式会社ディスコ 光デバイスウェーハの加工方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004325848A (ja) * 2003-04-25 2004-11-18 Nippon Telegr & Teleph Corp <Ntt> 音声対話制御方法、音声対話制御装置、音声対話制御プログラム
US20100049517A1 (en) * 2008-08-20 2010-02-25 Aruze Corp. Automatic answering device, automatic answering system, conversation scenario editing device, conversation server, and automatic answering method
US20140074483A1 (en) * 2012-09-10 2014-03-13 Apple Inc. Context-Sensitive Handling of Interruptions by Intelligent Digital Assistant
JP2016519454A (ja) * 2013-03-14 2016-06-30 アップル インコーポレイテッド 割り込みのコンテクスト依存処理
WO2015196063A1 (en) * 2014-06-19 2015-12-23 Robert Bosch Gmbh System and method for speech-enabled personalized operation of devices and services in multiple operating environments
WO2016157662A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、制御方法、およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023011441A1 (zh) * 2021-08-02 2023-02-09 青岛海尔洗衣机有限公司 语音播报的控制方法、装置、设备及存储介质

Also Published As

Publication number Publication date
US11189270B2 (en) 2021-11-30
EP3588267A1 (en) 2020-01-01
EP3588267B1 (en) 2022-08-03
US20190392822A1 (en) 2019-12-26
JP6983118B2 (ja) 2021-12-17

Similar Documents

Publication Publication Date Title
JP6983118B2 (ja) 対話システムの制御方法、対話システム及びプログラム
US11869489B2 (en) Providing suggested voice-based action queries
US9734193B2 (en) Determining domain salience ranking from ambiguous words in natural speech
KR102086898B1 (ko) 디바이스 음성 제어
JP6966979B2 (ja) 対話システムの制御方法、対話システム及びプログラム
KR102364400B1 (ko) 다수의 코퍼스들로부터 응답 정보 획득
US9484034B2 (en) Voice conversation support apparatus, voice conversation support method, and computer readable medium
US9583105B2 (en) Modification of visual content to facilitate improved speech recognition
US10672379B1 (en) Systems and methods for selecting a recipient device for communications
US10699706B1 (en) Systems and methods for device communications
TW201512968A (zh) 以語音辨識來發生事件裝置及方法
US20230325148A1 (en) Contextual Assistant Using Mouse Pointing or Touch Cues
KR20210093793A (ko) 시각장애인용 키오스크 장치 및 이의 동작방법
US10841411B1 (en) Systems and methods for establishing a communications session
JPWO2020017151A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP6304396B2 (ja) プレゼンテーション支援方法、プレゼンテーション支援プログラム及びプレゼンテーション支援装置
US20240126501A1 (en) Mitigating latency in spoken input guided selection of item(s)
JP2023536813A (ja) 環境信号に基づくプライバシーに配慮したクエリ活動を提示するための方法およびシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200826

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211122

R150 Certificate of patent or registration of utility model

Ref document number: 6983118

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150