JP6903380B2 - 情報提示装置、情報提示システム、端末装置 - Google Patents

情報提示装置、情報提示システム、端末装置 Download PDF

Info

Publication number
JP6903380B2
JP6903380B2 JP2017206494A JP2017206494A JP6903380B2 JP 6903380 B2 JP6903380 B2 JP 6903380B2 JP 2017206494 A JP2017206494 A JP 2017206494A JP 2017206494 A JP2017206494 A JP 2017206494A JP 6903380 B2 JP6903380 B2 JP 6903380B2
Authority
JP
Japan
Prior art keywords
information
answer
additional information
icon
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017206494A
Other languages
English (en)
Other versions
JP2019079345A (ja
Inventor
及川 卓
卓 及川
朋子 金森
朋子 金森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2017206494A priority Critical patent/JP6903380B2/ja
Priority to US16/158,422 priority patent/US10755711B2/en
Publication of JP2019079345A publication Critical patent/JP2019079345A/ja
Application granted granted Critical
Publication of JP6903380B2 publication Critical patent/JP6903380B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/54Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for retrieval
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Description

本発明は、情報提示装置、情報提示システム、及び端末装置に関する。
音声認識を行い話者の発言の意図を解析し、適切な回答を出力する自然対話システムが知られている。自然対話システムは様々なシーンで利用されているが、例えばキー操作することが困難な車両を運転中の運転者が利用する場合がある。自然対話システムが音声で回答を出力した場合に短い回答であれば話者が理解しやすいが、長くなるほど全てを聞き取ることが困難になる。車両を運転中の運転者の場合は運転に集中しているため、なおさら全てを聞き取ることが困難になりやすい。
図1は、運転者と自然対話システムの会話例を示す。運転者は「近いうちにあるコンサートを教えて」と発言し、自然対話システムが「カレンダーの空き時間にあるコンサートはロック3件、クラシック2件となります。奥様とのご予定のある時間帯をお探しですか?」と回答している。しかしながら、回答の情報量が多く運転者は内容を把握できていない。
問い合わせに対しテキストデータをディスプレイ等に表示する自然対話システムも知られているが、車両の運転中に運転者がテキストデータを注視することは困難である。このような不都合に対し、運転者への回答を選択肢で表示する技術が考案されている(例えば、特許文献1参照。)。特許文献1には運転者が指定した行き先を選択肢で表示し、行き先を絞り込む要求判定装置が開示されている。選択肢であれば比較的短時間に運転者が選択できるため、ディスプレイを注視することなく対話を継続することができる。
特開2001−296888号公報
しかしながら、選択肢を表示するだけでは何についての選択肢であるかを運転者が判断できない場合があり、運転者が内容を把握しにくいという問題が解決されない。例えば、コンサート会場を3つ表示したとしてそれぞれのコンサート会場で何が演奏されるかまでは分からない場合がある。仮に、コンサート会場ごとにコンサートのジャンルをテキストで付記したとしても、ディスプレイの注視時間が長くなってしまう。
なお、ここでは車両の運転者を例に説明しているが、例えば、スマートフォンなどを携帯して歩行する歩行者もスマートフォンを長時間注視することは好ましくないため、歩行者においても同様の問題がある。また、必ずしも自然対話システムのユーザが移動していなくても長い音声の全てを聞き取りにくいことは生じうる。
本発明は上記課題に鑑み、内容を把握しやすい態様で情報を提示する情報提示装置を提供することを目的とする。
本発明は、表示手段と、ユーザからの音声又は操作による入力を受け付ける入力受付手段と、前記入力受付手段が受け付けた入力に基づいて回答文章で回答する情報を検索する検索手段と、前記検索手段が検索した情報に含まれる単語を用いて、前記入力受付手段が受け付けた入力に対する回答文章を生成する回答生成手段と、前記回答生成手段によって生成された前記回答文章に含まれる単語に関連する、画像である付加情報を取得する付加情報取得手段と、前記回答文章を音声で出力する音声出力手段と、前記付加情報を前記表示手段に出力する情報出力手段と、を有し、前記付加情報取得手段は、前記付加情報として前記単語ごとに画像を取得し、前記情報出力手段は前記付加情報の画像を選択肢として表示することを特徴とする情報提示装置を提供する。
内容を把握しやすい態様で情報を提示する情報提示装置を提供することができる。
運転者と自然対話システムの会話例を示す図である。 自然対話システムによる回答の提示例を示す図である。 自然対話システムの概略構成図の一例である。 車載端末装置の一例としてのハードウェア構成図である。 自然対話システムが有する車載端末装置、及び、対話制御サーバの機能をブロック状に示す機能ブロック図の一例である。 対話制御部の機能をブロック状に示す機能ブロック図の一例である。 FSTによる入力理解を説明する図の一例である。 フレームと呼ばれるデータ構造で示す意図理解結果の一例である。 ユーザ発言か否かの判断を説明するためのフレームの一例を示す図である。 自然対話システムが音声データに基づいてアイコンを表示する手順を示すシーケンス図の一例である。 アイコン決定部がアイコン7を決定する手順を示すフローチャート図の一例である。 自然対話システムによる回答の提示例を示す図の一例である。 自然対話システムによる回答の提示例を示す図の一例である。 自然対話システムによる回答の提示例を示す図の一例である。 自然対話システムによる回答の提示例を示す図の一例である。 自然対話システムによる回答の提示例を示す図の一例である。 ディスプレイに表示されたアイコンを示す図の一例である。 選択肢が省略されて表示される場合のアイコンの表示例を示す図である。 アイコンの表示例を示す図である。 車両が停止した場合のアイコンの表示例を説明する図である。 同音異義語を含む回答文章を対話制御部が構築した場合にディスプレイに表示されるアイコンの一例を示す図である。
以下、本発明を実施するための形態について図面を参照しながら説明する。
<自然対話システムの動作の概略>
図2は、本実施形態の自然対話システムによる回答の提示例を示す図である。本実施形態の自然対話システムは、自然対話システムが認識している話題をアイコンとして表示する。なお、以下ではアイコンの符号を7とし、各アイコン7を区別するためにアルファベットを付す。
(1)運転者が「レストラン」と発言する。
(2)自然対話システムは「レストラン」を音声認識することで、レストラン検索要求であると判断し、レストランを検索する。検索の結果、「評判のレストランが3件あります」という音声を出力する。
(3)また、自然対話システムはレストランを表すアイコン7aとレストランの選択肢6をディスプレイ16に表示する。
(4)運転者は選択肢6からレストランを選択することができるが、図2では「ロブスターがおいしい店がいいな」と発言している。
(5)自然対話システムは「ロブスターがおいしい店がいいな」を音声認識することで、レストランのジャンルとして運転者がロブスターを指定したと判断し、ロブスターを提供するレストランを検索する。レストランの検索にはエリアが必要になるため、自然対話システムはレストランのエリアを補足する。例えば、運転者の属性に海が好きであるという属性が登録されていたり、現在地が海の近くであったりすることを利用して「海辺の」という言葉を補足する。検索されたレストランが海辺のレストランであったことを事後的に利用してもよい。検索の結果、自然対話システムは「海辺のロブスターのおいしいレストランをお勧めします。」という音声を出力する。
(6)自然対話システムは発言の中の単語から、運転者が話題にしている単語に関連するアイコンを決定する。例えば、海辺を表すアイコン7bとロブスターを表すアイコン7cと共にレストランの選択肢6をディスプレイ16に表示する。このうち海辺を表すアイコン7bは運転者が発言していない単語から決定されたアイコンである。運転者は選択肢6からレストランをタップして詳細な情報を要求したり、予約したりすることができる。
このように、本実施形態の自然対話システムは、認識した話題の趣旨をアイコン7で表示する。これにより、運転者は自然対話システムの発言(レコメンドされていること)の大枠を直感的に理解できるようになる。例えば、(5)で自然対話システムは「海辺の」というエリアに関する発言をしているが、運転者は海辺とは発言していないので、海辺という話題を予測していない。運転者は予測していない話題を聞き取れなかったり聞き漏らしたりする可能性が高くなるが、本実施形態の自然対話システムは(6)に示すように海辺を表すアイコン7bを表示するため、運転者は自然対話システムの発言を直感的に理解できる。
<用語について>
特許請求の範囲の回答文章とは、自然対話システムが提示する文章を言う。必ずしも質問と回答が適合していなくてもよい。自然対話システムが脈略なく話題を変えたり、自然対話システムから話しかけたりする場合も含まれる。
付加情報とは回答文章に含まれる単語に関連する情報であり、主に単語の理解を補助、支援、補足するための情報である。付加情報はアイコンなどの画像の他、音や匂いでもよい。本実施形態ではアイコンという用語で説明する。
<構成例>
図3は自然対話システム100の概略構成図の一例である。自然対話システム100は、対話制御サーバ50、及び、ネットワークNを介して通信する車載端末装置10を有する。ネットワークNは携帯電話網、無線LAN網、又は、WiMAX通信網などの通信事業者が提供する公衆回線とプロバイダ(インターネットに接続するためのサービスを提供する企業)が提供するプロバイダネットワークとを有している。通信事業者の公衆回線に車載端末装置10が接続するためにネットワークNには基地局9が接続されている。
対話制御サーバ50は、運転者と対話する情報処理装置である。対話制御サーバ50は提示する情報を生成するという意味で情報提示装置の一例である。特定のタスクの達成を目的にするものをタスク指向型対話システムと呼び、雑談的に対話を続けるものを非タスク指向型対話システムと呼ぶ。本実施形態では主に前者が想定されるが後者のシステムでもよい。なお、対話制御サーバ50はその機能が車載端末装置10に搭載されていてもよい。この場合、対話制御サーバ50は不要になる。また、本実施形態では、対話制御サーバ50が音声認識するとして説明するが、音声認識を別のサーバが行ってもよい。
車載端末装置10は情報を提示するという意味で情報提示装置の一例である。車載端末装置10は出発地から目的地までの経路を検索して道路地図に設定し、ディスプレイに表示された電子地図に経路と現在地を表示したり、経路に基づいて進路変更の手前で音声案内や電子地図上のアニメーションなどで適切な進路を案内したりする。この他、AV(Audio Visual)の再生機能、インターネットとの通信機能等を有していてよい。運転者は案内にしたがって車両8を操作することで目的地まで到達できる。この車載端末装置10の機能のうち経路の検索を所定のサーバが行い経路を車載端末装置10に提供してもよい。更に、車両8の位置情報を車載端末装置10が所定のサーバに送信することで、所定のサーバが経路の検索と進路の案内を行ってもよい。
車載端末装置10は、汎用的な情報処理端末である場合とナビゲーション専用端末(PND(Portable Navigation Device)とも呼ばれる。)の場合がある。汎用的な情報処理端末として、例えば、スマートフォン、タブレット端末、携帯電話、PDA(Personal Digital Assistant)、ノートPC、及び、ウェアラブルPC(例えば、腕時計型、サングラス型など)などがある。これらの装置は、普段は情報処理端末として利用されるが、ナビゲーションのためのアプリケーションソフトウェアを実行すると、ナビゲーション専用端末と同様、経路検索及び経路案内等を行う。
このような機能を有する装置をナビゲーション装置というが、本実施形態の車載端末装置10は車載される装置に特有の機能を有する必要はなく、後述するように対話制御サーバ50と自然対話することができればよい。したがって、車載端末装置10はナビゲーション装置に限られない。
また、車載端末装置10は、汎用的な情報処理端末とナビゲーション専用端末の連携(通信)により実現されてもよい。汎用的な情報処理端末に搭載されるアプリが実質的な自然対話の機能を提供し、このアプリが生成する画面をナビゲーション専用端末が通信で取得して表示する。このようなアプリとしてCarPlay(登録商標)やAndroid Auto(登録商標)等が知られている。
このように汎用的な情報処理端末と連携する場合、車載端末装置10はディスプレイオーディオ(又はコネクティッドオーディオ)と呼ばれる装置であってもよい。ディスプレイオーディオはナビゲーションの機能を搭載せずに主にAV機能と通信機能を提供する装置である。
車載端末装置10は、汎用的な情報処理端末とナビゲーション専用端末のどちらの場合でも、車載された状態と携帯可能な状態の切り替えが可能であってもよい。つまり、車載端末装置10は、車両8に脱着可能であってよい。
<装置のハードウェア構成>
図4は、車載端末装置10の一例としてのハードウェア構成図である。車載端末装置10は制御部22により制御され、制御部22には、カメラ11を制御したり画像処理を行ったりするカメラ制御部12、GPS受信機13、自律航法用センサ14、ハードキー15、タッチパネル17付きのディスプレイ16、スピーカ18、マイク19、HUD(Head Up Display)20、及び、通信装置21が接続されている。図示されたハードウェア要素はナビゲーション装置であるもの想定されているが、車載端末装置10は情報処理装置としての機能を有していればよく、図4は一例のハードウェア要素であるにすぎない。
制御部22は、マイコン、又は、コンピュータと呼ばれる機能を有し、車載端末装置10の全体を制御すると共に情報の入力、処理(加工)及び出力を行う。制御部22は、CPU22a、RAM22b、ROM22c、及びフラッシュメモリ22d等を有するが、この他、CANコントローラ、タイマ、I/Oポートなど一般的なECU(Electronic Control Unit)と同様の機能を備えている。また、フラッシュメモリ22dの容量不足を補うためにHDD(Hard Disk Drive)が制御部22に接続されていてもよい。
カメラ11は入射した光をCCDやCMOSなどの光電変換素子により輝度情報を有する画像データに変換する撮像装置である。カメラ11は定期的に画像データをカメラ制御部12に送出する。本実施形態においてカメラ11は運転者の顔画像を撮像するように例えばメータパネルに配置される。カメラ11は運転者の顔画像を撮像することで車載端末装置10が眠気を検出したり、運転者の感情を通信装置が対話制御サーバ50に送信したりすることで、種々の感情に応じた対話を可能にする。
カメラ制御部12はカメラが撮像した画像データに画像処理を施すICである。本実施形態では喜怒哀楽や眠気などを画像処理により検出する。カメラ制御部12は、ディープラーニング、サポートベクターマシン、ニューラルネットワーク、ランダムフォレストなどの機械学習のアルゴリズムで、これら顔画像の特徴と喜怒哀楽や眠気との関係を学習しており、運転者がどのような感情に支配されているかを判断できる。なお、感情の検出は対話管理サーバが行ってもよい。
GPS受信機13はGPS衛星を利用して自車位置を測位する。自律航法用センサ14は加速度センサ、ジャイロセンサ及び地磁気センサ等、自律航法で自車位置や姿勢を推定するためのセンサである。
ハードキー15は、運転者による使用頻度が高いスイッチ、ボタン又はタッチセンサ類であり、例えば、電源ボタン、音量の増減ボタン、CD/DVDの取り出しボタン等である。ステアリングスイッチも含まれる。ディスプレイ16は、例えばLCD(Liquid Cristal Display)や有機ELなどの表示装置である。ディスプレイ16はタッチパネル17を一体に有しており、タッチパネル17はユーザの手指などが接触した座標を検知し制御部22に出力する。ディスプレイ16には自然対話システム100が認識した話題に関するアイコンと選択肢6が表示される。
スピーカ18は進路方向を音声で出力する他、対話管理サーバが送信した回答文章を音声で出力する。マイク19は運転者の音声を認識するために音声を集音する。音声認識は車両と任意のサーバのどちらで行われてもよい。HUD20は運転者の視界に設置された半透明のコンバイナー(フロントガラス)に情報を表示する表示装置である。自然対話システム100が認識した話題に関するアイコンと選択肢6はHUD20に表示されてもよい。通信装置21は3G,4G、無線LAN、WiMaxなどの通信事業者の基地局9と通信し、各種の情報を送受信する。
なお、対話制御サーバ50のハードウェア構成は、一般的な情報処理装置のハードウェア構成と同様とする。すなわち、一般的な構成としてCPU、RAM、ROM、HDD(Hard Disk Drive)、ネットワークカード、入力装置、及び、出力装置を有するため、図示は省略した。なお、対話制御サーバ50はクラウドコンピューティングに対応していてもよい。また、対話制御サーバ50は対話管理サーバ、会話制御サーバ、おしゃべりサーバ等、任意の名称で呼ばれてよい。
<自然対話システムの機能について>
図5は、自然対話システム100が有する車載端末装置10、及び、対話制御サーバ50の機能をブロック状に示す機能ブロック図の一例である。
<<車載端末装置>>
車載端末装置10は、音声取得部31、音声データ送信部32、システム発言取得部33、表示情報取得部34、発言出力部35、表示制御部36、操作受付部37、及び対話情報保持部38を有する。車載端末装置10が有するこれらの各機能は、制御部22のフラッシュメモリ22dからRAM22bに展開されたプログラムをCPU22aが実行することにより実現される機能又は手段である。
音声取得部31は、例えばステアリングスイッチが押下されている間にON(オン)となりマイクが集音した音声を電気信号に変換して音声データとして取得する。音声データ送信部32は、音声取得部31が取得した所定時間分(例えば20ミリ秒)の音声データを繰り返し対話制御サーバ50に送信する。所定時間は音声認識に有利な時間として設定されている。通信プロトコルは特に限定されず、一例として移動体の通信に適した通信プロトコルが使用されればよい。なお、対話制御サーバ50のIPアドレスは予め既知であるとする。
システム発言取得部33は、対話制御サーバ50が生成した回答文章を取得する。システム発言取得部33は対話制御サーバ50が新らに発言するごとに回答文章を取得する。あるいは、運転中や車内での会話中等の場合は、運転者が一時的に回答文章の受信を中断しておくこともできる。この場合は、運転者が回答文章の受信を再開した場合に、回答文章が受信される。回答文章の送信が中断されるとアイコンの送信も中断される。
発言出力部35は、回答文章をスピーカ18から出力する。回答文章がすでにMP3やPCMのフォーマットの音声データになっている場合はそのまま再生すればよい。回答文章がテキストデータで送信される場合は音声合成を行う。
表示情報取得部34は、対話制御サーバ50が生成したアイコン7と選択肢6を取得する。この他、選択肢6に関する詳細な情報を受信することができる。アイコン7のみの場合もあるし、選択肢6のみの場合もある。これらはディスプレイ16又はHUD20に表示されるため、回答文章の出力前、出力中又は出力後に運転者が見ることができる。回答文章とアイコン7(選択肢6がある場合は選択肢6も含む)はほぼ同時に対話制御サーバ50から送信されることが好ましいが、通信の遅延などにより若干の時間差があってもよい。対話制御サーバ50は回答文章に合わせてアイコン7が表示されるように可能な限り同期させてこれらを送信する。少なくとも、1周期前のアイコン7が送信される前に次の周期の回答文章が取得(又は表示)されないように対話制御サーバ50が制御することは好ましい。
システム発言取得部33が取得した回答文章と表示情報取得部34が取得したアイコン7と選択肢6等は表1に示す対話情報保持部38に記憶される。これにより、運転者が後から回答文章等を確認できる。
表示制御部36はアイコン7及び選択肢6を受信した順にディスプレイ16又はHUD20の少なくとも一方に時系列に表示していく。また、表示制御部36は時間的又は会話の履歴的に古くなったアイコン7の表示態様を変更する(例えば、選択肢を隠す)ことができる。また、運転者の操作が受け付けられると、表示制御部36は選択肢6に関する詳細な情報を表示してもよい。
操作受付部37は車載端末装置10に対する各種の操作を受け付ける。本実施形態ではアイコン7に対するタップを受け付け、表示制御部36や発言出力部35に通知する。これにより、表示制御部36は選択肢の表示と非表示を切り替えたり、発言出力部35が回答文章を再度、出力したりすることができる。また、操作受付部37は運転者からのテキスト入力(キータイプによる入力)を受け付けてもよい。テキストによっても自然対話は可能である。
Figure 0006903380
表1は対話情報保持部38に記憶される対話情報を模式的に示す。対話情報は、対話ID、ユーザ発言、回答文章、アイコン、選択肢、及び、詳細情報の各項目を有する。対話IDは対話を識別するための識別情報であり、ユーザ発言とこれへの回答である回答文章に対しそれぞれ付与される。ユーザ発言は運転者の発言内容であり、回答文章は対話制御サーバ50の発言内容である。アイコンは対話制御サーバ50が送信したアイコンであり、選択肢6も同様である。詳細情報は選択肢6に対応付けて対話制御サーバ50から送信される選択肢6の住所、電話番号、ホームページのURL等である。なお、ユーザ発言が車載端末装置10以外で音声認識される場合、車載端末装置10が送信した音声データに対し対話制御サーバ50等から認識されたテキストデータがフィードバックされる。
1つの回答における回答文章とアイコン7(及び選択肢)を対応付けるため、対話制御サーバ50は回答文章とアイコン7に同じ識別情報を付与して車載端末装置10に送信してもよい。相対的な時間差が閾値内の回答文章とアイコン7が同じ対話IDに対応付けられてもよい。
<<対話制御サーバ>>
対話制御サーバ50は音声データ受信部51、単語抽出部52、システム発言送信部53、表示情報送信部54、対話制御部55、ユーザ情報管理部56、外部情報取得部57、及び、ユーザ情報DB58を有する。対話制御サーバ50が有するこれらの機能は、対話制御サーバ50のCPUがプログラムを実行して対話制御サーバ50のハードウェアと協働することで実現される機能又は手段である。
音声データ受信部51は、車載端末装置10から音声データを受信する。音声データ受信部51は受信した音声データを順次、単語抽出部52に送出する。これにより、音声データは単語列に変換される。文字単位に変換される場合はテキストデータが出力されるため、その場合は形態素解析により単語(自立語)に分解される。単語抽出部52はシステム発言送信部53を介して、運転者の発言をユーザ発言として車載端末装置10に送信する。また、単語列は対話制御部55に送出され、対話制御部55は単語列に基づいて対話を制御する。
単語抽出部52による単語の抽出は公知の方法を採用すればよいので簡単に説明する。単語抽出部52は、音声データを単語列に変換する。単語抽出部52は、特徴を抽出しやすくするための前処理、特徴を抽出する特徴抽出処理、及び、音声データを音素に変換する識別演算処理を行う。単語抽出(音声認識)は対話制御サーバ50とは別の音声認識サーバが行い、対話制御サーバ50は変換結果である単語列を取得してもよい。また、車両側に音声認識機能が搭載されていてもよく、この場合は対話制御サーバ50の単語抽出部52は不要になる。
システム発言送信部53は、対話制御部55が生成した回答文章を車載端末装置10に送信する。表示情報送信部54は、対話制御部55が生成したアイコン7及び選択肢6を車載端末装置10に送信する。
ユーザ情報管理部56はユーザに関する情報を表2に示すユーザ情報DB58にて管理しており、対話制御部55からの問い合わせに対しユーザに関する情報に基づいて回答する。これにより、対話制御部55はユーザ毎に適切な対話を行うことができる。外部情報取得部57はインターネット検索等を行ったり所定のサーバのAPI(Application Interface)を介して所望の情報を取得したりする。
Figure 0006903380
表2は、ユーザ情報DB58に記憶されている情報を模式的に示す。ユーザ情報DB58には、一例として、性別、生年月日、好きなエリア、好きな食事、好きなニュース、趣味等のユーザの属性が登録されている。これにより、対話制御部55はユーザの属性に適合した回答文章を出力できる。また、ユーザ情報DB58にはユーザのスケジュールが登録されているか、又は、外部のスケジュール管理サイトと連携できるようになっている。これにより対話制御部55はユーザのスケジュールに適合した回答文章を出力できる。また、ユーザ情報DB58には「奥様との連携」の有無が登録されている。奥様との連携とは、回答文章の構築において、運転者の奥様のスケジュールを考慮するか否かを示す。「奥様との連携」が有りの場合、ユーザ情報DB58には奥様のスケジュールも登録されているものとする。「奥様との連携」の項目がなくてもスケジュールが奥様と共有の場合には、対話制御部55は運転者の奥様のスケジュールを考慮すると判断してよい。なお、奥様以外の友人知人と連携してよい。
<対話制御部の機能について>
続いて、図6を用いて対話制御部55について説明する。図6は、対話制御部55の機能をブロック状に示す機能ブロック図の一例である。なお、対話制御部55は人工知能(AI)により実現されることが多く以下は回答文章の構築例の一形態に過ぎない。例えば、回答文章は、運転者の過去の発言等の学習結果に応じて構築される。
対話制御部55は、入力理解部61、内部状態更新部62、内部状態記憶部63、処理決定部64、外部連携部65、出力生成部66、及びアイコンDB67を有する。適宜、図7、図8を参照して図6の機能ブロックについて説明する。
入力理解部61は、入力された単語列、ジェスチャ、画像データなどをコンピュータが扱える表現に変換する。本実施形態では単語列が主に入力されるものとして説明するが、ジェスチャや画像データが入力に使用されてもよい。入力理解部61は、単語列から発言の意味を判断する。入力理解を実現する一例としてFST(Finite State Transducer)が知られている。
図7はFSTによる入力理解を説明する図の一例である。なお、図7はレストラン検索要求という対話行為における入力理解に関するFSTである。FSTは、初期状態から入力された単語列が入力ラベルと一致するパスを辿って、最終状態に辿り着いた時にパスの出力ラベルをつなぎ合わせたものを出力する。図7では「:」の左側が入力ラベル、右側が出力ラベルである。「ε」は空集合を意味し、入力ラベル又は出力ラベルが省略されることを可能にしている。
例えば「東京のイタリアンのレストランを教えて」という単語列が入力されると、FSTは単語列に一致する入力ラベルの右側の出力ラベルを出力する。したがって、エリア=東京、ジャンル=イタリア料理、対話行為タイプ=レストラン検索要求、が得られる。仮に、単に「レストラン」という単語が入力された場合には、対話行為タイプ=レストラン検索要求、という出力が得られる。対話行為タイプが決定されると、対話管理が可能になる。
内部状態更新部62は入力理解の結果に応じて内部状態63aを更新する。内部状態63aには対話行為に関するあらゆる情報が含まれうる。ただし、どのような情報を保持しておくかは設計によって異なる。一例として、内部状態63aには、運転者と自然対話システム100の対話の履歴、対話行為タイプで決まるフレーム(図8に示す)の意図理解結果、外部連携部65が外部と通信した場合のアクセス結果、運転者と自然対話システム100のどちらが発言すべきか、という談話義務、及び、現在地等が保持される。
図8はフレーム70と呼ばれるデータ構造で示す意図理解結果の一例である。内部状態更新部62は、対話行為タイプに応じて予め定められているシンボルと属性の集合であるフレームで対話を管理する。つまり、対話の進捗に応じてフレームが有するシンボルの属性を更新する。図8で「:」の左側がシンボル、右側が属性である。1つの対話行為タイプにおいてシンボルと属性の集合がフレーム70である。全てのシンボルに対し属性が定まると1つの対話行為が完了したことになる。なお、このような意図理解の方法は一例に過ぎず、例えばベイジアンネットワークのような確率モデル等が用いられてもよい。
処理決定部64は内部状態を適宜参照し、自然対話システム100が次にどのような行動を取るべきかを決定する。処理決定部64は発言決定部64aとアイコン決定部64bを有する。発言決定部64aは内部状態、ユーザの属性、検索結果などに基づき回答文章を構築する。発言の構築には適宜、人工知能が使用される。アイコン決定部64bは回答文章から判断される話題からアイコンを決定する。例えば、発言決定部64aはレストラン検索要求という対話行為では図8のようなフレーム70を満たすための回答文章を構築する。図8のように属性が定まっていないシンボルを抽出して「どのエリアでレストランを探しますか」という対話を指示する。
また、発言決定部64aは、外部連携部65を介して運転者のユーザ情報DB58を参照し「気を利かせる」こともできる。例えば、「奥様との連携」が有りの場合(又はスケジュールが奥様と共有されている場合)、処理決定部64は運転者と奥様の両方が空いている時間帯を検索することができる。あるいは、奥様の属性(例えば、趣味や嗜好等)を考慮してレストランを検索することもできる。
また、ユーザ情報DB58に好きな食事、好きなエリア、趣味等が登録されていれば、フレーム70でジャンルの属性が定まっていなくても、発言決定部64aは運転者の好きなジャンルのレストランの検索結果を対話で出力できる。
発言決定部64aは、フレーム70に含まれる全てのシンボルの属性が定まるか、運転者に関する情報に基づいて検索が可能になると、外部連携部65にフレーム70が保持する情報を渡して、検索を指示する。フレーム70が保持する情報は、例えばレストランの検索条件なので、これにより、外部情報取得部57がレストランに関する情報を取得して、発言決定部64aがレストランの情報を提供できるようになる。
アイコン決定部64bは回答文章に基づいてアイコン7と選択肢6を決定する。アイコン決定部64bはアイコンDB67を参照できる。アイコンDB67には単語に対応付けてアイコンが登録されている。
出力生成部66は、処理決定部64が構築した回答文章及びアイコン7と選択肢6を車載端末装置10に送信する。これにより、例えば「海辺のロブスターのおいしいレストランをお勧めします。」という回答文章、レストランのアイコン、3件の店名とその詳細などが車載端末装置10に送信される。
出力生成部66は、回答文章を出力するためにいわゆる音声合成を行う。どのような方法で音声合成を行ってもよい。例えば、テキストの言語解析を行い読みに変換し、単語の意味に適したアクセントや間(ま)を決定する。次に、読みに対する音声波形データが登録されたデータベースを参照し、テキストデータに沿って音声波形データを並べ、音声波形データ同士が滑らかに接続されるように音声波形データの端部を補正する。音声合成は車両で行ってもよい。
Figure 0006903380
表3はアイコンDB67に登録されている単語とアイコンの対応を示す。アイコンDB67には単語に対応付けてアイコンが登録されている。したがって、アイコン決定部64bは回答文章に含まれる単語に対応付けられているアイコンを特定できる。回答文章に含まれる単語がアイコンDB67に登録されていない場合、処理決定部64は外部連携部65を使ってインターネットからアイコンを検索して取得することができる。なお、表3のアイコンは一例に過ぎない。
<回答文章の構築とアイコンの選択>
発言決定部64aは運転者に確認を求めたり、検索結果を提供したりする回答文章を構築する。構築方法は特に制約がなく、予め保持するフォーマットに単語や検索結果を当てはめればよい。例えば、レストラン検索要求の場合、「評判のレストランがA件あります」「BのCがおいしいレストランをお勧めします」などのフォーマットが決まっており、A,B、Cに検索で得た情報又は検索に使った単語を当てはめる。Aは数字であり、Bはユーザの属性やユーザ発言から取得したエリアに関する単語であり、Cはユーザの属性又はユーザ発言から取得して検索に使用した食材又は食事に関する単語である。
例えば、運転者が「ロブスター」と発言し、発言決定部64aがユーザの属性からエリアとして「海辺」を取得し、ロブスターと海辺で検索した場合、Bは「海辺」でありCは「ロブスター」である。このように、単語の意味が分かっていれば適切なフォーマットを使用して回答文章を構築できる。
次に、アイコンの選択方法を説明する。アイコン決定部64bは例えば以下のような規則でアイコンを用意する。
(i) 回答文章に含まれる全ての自立語
(ii) ユーザが過去に発言していない単語
(iii) フレーム70の属性のうちユーザが発言していない属性
(i)のように回答文章に含まれる全ての自立語には(ii)(iii)が含まれる。また(ii)のようにユーザが過去に発言していない単語には(iii)が含まれる。本実施形態の自然対話システム100は、認識している話題をアイコンとして表示するものであるが、(i)によりそれが満たされる。また、ユーザが予測していないこと、又は、考えていないことをアイコンで表示することで話題の確認を可能とすることは(ii)(iii)により可能となる。(ii)については内部状態の対話履歴を参照することで実現できる。(iii)についてもフレーム70の属性値がユーザ発言に含まれているかどうか対話履歴を参照して判断することで実現できる。このような規則により、運転者が仮に予測又は考えていなくても運転者に確認を求める単語に関連するアイコンが提示される。
図9は、ユーザ発言か否かの判断を説明するためのフレーム70の一例を示す。この例では「海辺」についてはユーザが発言していないことが検出される。
アイコン数には(i)>(ii)>(iii)の大小関係があるが、アイコンが少ないと情報量も減る。どのくらいのアイコンの数が適切かはユーザによって異なるので、運転者が(i)〜(iii)から好みの設定を選択してよい。また、(i)〜(iii)のいずれをアイコン決定部64bが方針としていても、上限のアイコンの数を超えないようにアイコン7の数を制限することができる。この上限のアイコンの数を運転者が設定してもよい。制限の際は、(iii)>(ii)>(i)の順に優先順位を高くする。したがって、フレーム70のシンボルのうちユーザが発言していない単語又はユーザが過去に発言していない単語はアイコン7で表示される可能性を高くできる。
<動作手順>
図10は、本実施形態の自然対話システム100が音声データに基づいてアイコン7を表示する手順を示すシーケンス図の一例である。
S1:車載端末装置10の音声取得部31は運転者の音声を取得して音声データに変換し、音声データ送信部32が音声データを対話制御サーバ50に送信する。
S2:対話制御サーバ50の音声データ受信部51は音声データを受信し、単語抽出部52が音声データに音声認識処理を施し1つ以上の単語(単語列)に変換する。
S3:対話制御部55の入力理解部61は単語列から発言の意味を判断し、内部状態更新部62が内部状態を更新する。すなわち、レストラン検索要求のような対話行為タイプを決定し、対話行為タイプで定まるシンボルに属性を設定する。
S4:発言決定部64aは属性が定まっていないシンボルを特定して、このシンボルの属性を問い合わせる回答文章を構築したり、発言を確認するための回答文章を構築したりする。また、アイコン決定部64bは回答文章に含まれる話題をアイコン7に変換する。アイコン7への変換の詳細を図11にて説明する。出力生成部66は回答文章とアイコンを出力する。また、何らかの検索結果が得られた場合、アイコン決定部64bは予め定められた優先順位に基づいて選択肢6も決定する。例えば、検索結果の上位から3つ、現在地から近い順に3つ、現在の日時から近い順に3つなどである。
S5:システム発言送信部53は回答文章を送信し、表示情報送信部54はアイコン7を送信し、更に選択肢6がある場合は選択肢6を送信する。なお、アイコン7がない場合もあってよい。
S6:車載端末装置10のシステム発言取得部33は回答文章を取得し、表示情報取得部34はアイコン7と選択肢6を受信する。車載端末装置10の発言出力部35は回答文章をスピーカ18から出力する。
S7:表示制御部36はアイコンと選択肢6を予め決まっているフォーマットで表示する。例えば、選択肢の先頭にアイコン7を配置し、選択肢に1、2、3のような番号を付与する。なお、ステップS6とS7は順不同である。
図11は、アイコン決定部64bがアイコン7を決定する手順を示すフローチャート図の一例である。
発言決定部64aは、ユーザの属性、ユーザ発言、及び、これらで検索された検索結果から回答文章を構築する(S12−1)。
次に、発言決定部64aはユーザが発言していないが、フレームが有するシンボルの属性が回答文章に含まれているか否かを判断する(S12−2)。内部状態には運転者の過去のユーザ発言が登録されており(対話履歴)、それがフレーム70のシンボルに含まれているか否かにより、発言決定部64aはユーザが発言していないシンボルの属性を回答文章から特定できる。フレーム70の属性は対話行為を進行させるために参照され、検索にも使用されるため重要であるが、これがアイコン7で表されるため、運転者は自分が予測していない話題をアイコンで確認できる。
次に、アイコン決定部64bはアイコンDB67から回答文章の単語に対応付けられたアイコン7を取得する(S12−3)。
アイコン決定部64bは回答文章に運転者が過去に発言していない単語があるか否かを判断する(S12−4)。内部状態の対話履歴と回答文章を比較して回答文章にあって、対話履歴にはない単語を特定する。
アイコン決定部64bはアイコンDB67から回答文章の単語に対応付けられたアイコン7を取得する(S12−5)。
次に、アイコン決定部64bは回答文章のその他の自立語のアイコン7を取得する(S12−6)。その他の自立語とは、ステップS12−2とS12−4で検出された単語以外の自立語である。
処理決定部64は1つの回答文章に付随するアイコン7の数を調整する(S12−7)。アイコン7の数があまりに多いと運転者が却って見づらいため、上限値以下になるようにアイコン7の数を調整する。アイコン7の優先順位は上記のとおりである。なお、アイコン7の数の調整は行わなくてもよい。また、運転者がアイコン7の数を調整するか否かを調整したり、上限の数を決定したりできてもよい。
次に、処理決定部64は回答文章の出現順にアイコン7を並べ替える(S12−8)。これにより、回答文章の単語とアイコン7の出現順が同じになるので、運転者は意味を把握しやすくなる。なお、発言決定部64aはアイコン7の元になった単語に対しその旨を添付して回答文章と共に車載端末装置10に送信することも有効である。車載端末装置10の発言出力部35は回答文章のうちアイコン7の元になった単語を強調して出力することができるので、運転者は回答文章とアイコン7との関係をつかみやすくなる。強調して出力するとは、音量を大きくしたり、声の波長を変えたり、前後の単語との間で間をあけたりすることなどをいう。また、表示制御部36が回答文章をディスプレイ16又はHUD20に表示することもできるが、その際にアイコン7の元になった単語を強調して表示できる。例えば、色、太さ又はフォントの1つ以上を変えて強調する。
<ユースケース1>
以下では、運転者と対話制御サーバ50の対話によりディスプレイ16に表示されるアイコン7をいくつかのユースケースに分けて説明する。
図12は、本実施形態の自然対話システム100による回答の提示例を示す図である。
(1)運転者が「近くの駐車場を教えて」と発言する。
(2)対話制御サーバ50の入力理解部61はこの発言の意味を理解することで駐車場の検索要求であると判断するが、エリアに関する発言がなく検索するために最低限必要なシンボルの属性がないと判断し、対話制御部55の発言決定部64aが「目的地周辺と現在地周辺どちらの駐車場をお探しですか?」と発言する。
(3)また、アイコン決定部64bは「目的地周辺と現在地周辺どちらの駐車場をお探しですか?」という回答文章から、フレーム70のエリアに関する単語で運転者が過去に発言していない単語として、「目的地周辺」と「現在地周辺」を特定し、これらを表すアイコン7d、7e及び疑問形を表すアイコン7fをディスプレイ16に表示する。疑問形を表すアイコン7fにより運転者に回答を促すことができる。
(4)運転者は回答文章とアイコン7の少なくとも一方から駐車場のエリアを指定する必要があると判断し「ん? ああ、目的地の近くの駐車場を教えて」と発言する。
(5)入力理解部61は「目的地の近く」が指定されたと判断することで、駐車場のエリアが目的地の近くであると判断し、処理決定部64が外部情報取得部57に目的地周辺の駐車場を検索させる。これによりいくつかの駐車場が検索される。この段階で処理決定部64が選択肢6を提案することも可能であるが、検索結果が多いため処理決定部64は運転者による絞り込みを依頼すると判断する。発言決定部64aは絞り込みのため駐車場の特徴を発言する。一例として「割引チケットがあたる駐車場が2件、モノレール乗り場に近い駐車場が3件、ゲートに近い駐車場が2件ございます」という回答文章を構築する。回答文章は車載端末装置10に送信され、スピーカ18から出力される。
(6)また、アイコン決定部64bは、運転者が過去に発言していない単語として「割引チケット」「モノレール乗り場」「ゲート」を特定し、割引チケットを表すアイコン7g、モノレールを表すアイコン7h、及び、ゲートを表すアイコン7iをアイコンDB67から決定する。アイコン7は車載端末装置10に送信され、ディスプレイ16に表示される。
(7)運転者は回答文章とアイコン7の少なくとも一方からどのような駐車場がよいかを判断し「割引チケットがあると良いな」と発言する。
(8)対話制御サーバ50の入力理解部61はこの発言から割引チケットがある駐車場が選択されたと判断し、発言決定部64aは「割引チケットに関係する2件を表示します」という回答文章を構築する。
(9)アイコン決定部64bは、回答文章に含まれる自立語として、割引チケットを表すアイコン7gをアイコンDB67から取得する。また、アイコン決定部64bは割引チケットが利用できる駐車場に関する情報を選択肢6に設定する。したがって、車載端末装置10のディスプレイ16には割引チケットのアイコン7gと選択肢6が表示される。運転者は選択肢6に挙げられた駐車場をタップして詳細な情報を表示させることができる。
<ユースケース2>
図13は、本実施形態の自然対話システム100による回答の提示例を示す図である。
(1)運転者が「近いうちにあるコンサートを教えて」と発言する。
(2)対話制御サーバ50の入力理解部61は発言からコンサートの検索要求であると判断する。発言決定部64aは、運転者のスケジュールが空いている時間帯で、通常の行動範囲をエリアとして、外部連携部65を介して外部情報取得部57に開催日が近いコンサートを検索させる。検索によりいくつかのコンサートの開催情報が得られ、発言決定部64aが「カレンダーの空き時間にあるコンサートはロック3件、クラシック2件となります。」という回答文章を構築する。この時、例えばスケジュールが奥様と共有されている、ユーザ属性、又は、過去に奥様とコンサートに行ったなどの情報に基づいて、処理決定部64は「奥様とのご予定のある時間帯をお探しですか?」という回答文章を構築する。回答文章は車載端末装置10に送信されスピーカ18から出力される。
(3)アイコン決定部64bはこれらの回答文章から、フレーム70のエリアに関する単語で運転者が過去に発言していない単語又は運転者が過去に発言していない単語として、「カレンダー」「ロック」「クラシック」「奥様」を表すアイコン7j、7k、7l、7m及び疑問形を表すアイコン7fを決定する。アイコン7は車載端末装置10に送信されディスプレイ16に表示される。
(4)運転者は回答文章とアイコン7の少なくとも一方から奥様と行動するかどうかを回答する必要があると判断し「ん?ああ、妻と見に行きたいんだけど」と発言する。
(5)入力理解部61は「妻と見に行きたい」という発言から奥様と行くと意味を理解し、処理決定部64は奥様の属性を考慮することが好ましいと判断する。発言決定部64aは外部連携部65を介して外部情報取得部57に、奥様の好きなJAZZのコンサートを検索させる。これにより3件のJAZZのコンサートが検索される。このように奥様の属性も利用される。発言決定部64aは「奥様が好きなJAZZのライブは3件ございます」という回答文章を構築する。回答文章は車載端末装置10に送信され、スピーカ18から出力される。
(6)また、アイコン決定部64bは、フレーム70が有するシンボルの属性で運転者が過去に発言していない単語、単に運転者が過去に発言していない単語、又は、回答文章に含まれる自立語として、「奥様」「JAZZ」「ライブ」を特定し、これらを表すアイコン7m、7n、7oをアイコンDB67から取得する。アイコン決定部64bは複数の単語に意味上の関係がある場合、2つの隣接したアイコン7の間に両者の関係を想起させる第二のアイコン(第二の付加情報)を追加することが好ましい。図13ではアイコン7mと7nの間に「奥様が好きなJAZZ」という意味上の関係を想起させるハートマークの第2のアイコン302が追加されている。こうすることでアイコン間の関係が分かりやすくなり、運転者がアイコンから意味を把握しやすくなる。アイコン7は車載端末装置10に送信され、ディスプレイ16に表示される。
(7)運転者は回答文章とアイコンの少なくとも一方からコンサートのジャンルを理解したが、「ピアノのものはある?」と発言する。
(8)対話制御サーバ50の入力理解部61はこの発言からピアノのコンサートが要求されたと判断する。発言決定部64aは外部連携部65を介して外部情報取得部57に、ピアノのコンサートを検索させる。これにより1件のピアノのコンサートが検索される。発言決定部64aは「ピアノのものは1件ございます。ご予約しますか」という回答文章を構築する。回答文章は車載端末装置10に送信され、スピーカ18から出力される。
(9)アイコン決定部64bは、回答文章に含まれる自立語として「ピアノ」を特定し、これを表すアイコン7pをアイコンDB67から取得する。また、アイコン決定部64bは予約するか否かを問い合わせるアイコン7qと疑問形を表すアイコン7fを特定する。これらは車載端末装置10に送信され、ディスプレイ16に表示される。
(10)運転者は回答文章とアイコン7の少なくとも一方から予約するかどうかを回答すればよいと判断し「お願い」と発言する。
(11)入力理解部61は予約するか否かについて肯定する回答を得たと理解し、処理決定部64が外部連携部65を介して外部情報取得部57に予約システムへの予約を実行させる。発言決定部64aは「予約が完了し、カレンダーに予定を追加しました。奥様にメールをお出ししますか。」という回答文章を構築する。回答文章は車載端末装置10に送信され、スピーカ18から出力される。
(12)アイコン決定部64bは、回答文章に含まれる自立語として、「予約、完了、カレンダー、予定、追加」「奥様」「メール」を特定し、これらを表すアイコン7r、7m、7sをアイコンDB67から取得する。なお、「予約、完了、カレンダー、予定、追加」で1つのアイコン7rに対応する。これはいわゆる定型文であり、複数の単語(自立語)に1つのアイコン7rを対応付けることで1回の回答文章のアイコン7の数を少なくすることができる。アイコン決定部64bは「奥様にメール」という単語間の意味上の関係を検出し、2つの隣接したアイコン7mと7sの間に両者の関係を想起させる第二のアイコン301を追加する。これにより、奥様にメールが送信されることを運転者が把握しやすくなる。アイコン7は車載端末装置10に送信され、ディスプレイ16に表示される。
(13)運転者は回答文章とアイコンの少なくとも一方から奥様にメールするかどうかを回答すればよいと判断し「よろしく」と発言する。
(14)入力理解部61はメールを送信するか否かに対して肯定する回答を得たと判断し、処理決定部64が外部連携部65を介して外部情報取得部57にメールを送信させる。発言決定部64aは「奥様にメールを送信し、カレンダーに予定を追加いたしました。」という回答文章を構築する。回答文章は車載端末装置10に送信され、スピーカ18から出力される。
(15)アイコン決定部64bは、回答文章に含まれる自立語として、「奥様」「メール」「カレンダー、予定、追加」を特定し、これらを表すアイコン7m、7s、7rをアイコンDB67から取得する。なお、「カレンダー、予定、追加」も定型文である。アイコン7は車載端末装置10に送信され、ディスプレイ16に表示される。
<ユースケース3>
図14は、本実施形態の自然対話システム100による回答の提示例を示す図である。
(1)運転者が「時間を教えて」と発言する。
(2)対話制御サーバ50の入力理解部61はこの発言を解析して時間の通知要求であると判断する。また、時間の通知に対してはスケジュールの次の予定を通知するという規則がある場合には、発言決定部64aは、外部連携部65を介してユーザ情報DB58のスケジュールから次の予定を取得する。発言決定部64aは「現在時刻は〇:〇〇分 次のテレビ会議の時刻は45分後、現地(米国)時間PM4:00からです」という回答文章を構築する。回答文章は車載端末装置10に送信され、スピーカ18から出力される。
(3)アイコン決定部64bはこの回答文章から、運転者が過去に発言していない単語、又は、回答文章に含まれる自立語として、「現在時刻」「会議」「予定」「米国」を表すアイコン7t、7u、7j、7vを決定する。アイコン7は車載端末装置10に送信されディスプレイ16に表示される。
<ユースケース4>
(1)運転者は「今月の電気料金は」と発言する。
(2)入力理解部61は「電気料金は」を解析して電気料金を通知すると判断する。発言決定部64aは外部連携部65を介して、外部情報取得部57に家に関する情報を管理するシステムから電気料金、及び、先月の電気料金を取得させる。発言決定部64aは、電気料金を先月と比較し、使用量が多い時間帯を特定する。また、電気料金に納付期限が設定されている場合はリマインダーを設定する。以上から「今月の料金は¥3000です。前月に比較すると1000円アップで、19:00-20:00の使用量が増えています。納付日のリマインダーを設定しておきます。」という回答文章を構築する。回答文章は車載端末装置10に送信され、スピーカ18から出力される。
(3)アイコン決定部64bは、運転者が過去に発言していない単語、又は、回答文章に含まれる自立語として、「料金」「先月」「比較」「19:00〜20:00」「納付日、リマインダー、設定」を特定し、これらを表すアイコン7w、7j、7y、7t、7rをアイコンDB67から取得する。なお、「納付日、リマインダー、設定」で1つのアイコン7rに対応する。アイコン7は車載端末装置10に送信され、ディスプレイ16に表示される。
<ユースケース5>
図15は、本実施形態の自然対話システム100による回答の提示例を示す図である。
(1)運転者が「近くの充電スタンドを教えて」と発言する。
(2)対話制御サーバ50の入力理解部61はこの発言を解析して近くの急速充電スタンドの検索要求であると判断する。発言決定部64aは、検索しても急速充電スタンドがない場合は代替案を提供する。ここでは一例としてスケジュールに空きがあることを確認のうえ、外部情報取得部57がコーヒー店に併設された通常の充電スタンドを検索した。以上から、発言決定部64aは「近隣の急速充電スタンドに空きがありません。空きがある急速充電スタンドにしますか。カレンダー上に空き時間がございますので、コーヒー店に併設されている通常スタンドもご案内できます。」という回答文章を構築する。回答文章は車載端末装置10に送信されスピーカ18から出力される。
(3)アイコン決定部64bはこの回答文章から、運転者が過去に発言していない単語、又は、回答文章に含まれる自立語として、「急速充電スタンド」「カレンダー」「コーヒー店」「通常スタンド」を表すアイコン7z、7j、7aa、7bbを決定する。アイコン7は車載端末装置10に送信されディスプレイ16に表示される。
<ユースケース6>
(1)運転者が「近くで子供の楽しめる場所を教えて」と発言する。
(2)対話制御サーバ50の入力理解部61はこの発言を解析して子供用の施設の検索要求であると判断する。そして、外部連携部65を介して外部情報取得部57が公園と遊園地を検索する。また、施設の検索に対しては天候を考慮するという規則がある場合、発言決定部64aは天候に応じた施設を提案する。一例として、発言決定部64aは「近隣の公園3件、遊園地1件がございますが、本日は雨の予報ですので映画館をお勧めします」という回答文章を構築する。回答文章は車載端末装置10に送信されスピーカ18から出力される。
(3)アイコン決定部64bはこの回答文章から、運転者が過去に発言していない単語、又は、回答文章に含まれる自立語として、「公園」「遊園地」「雨」「映画」を表すアイコン7cc、7dd、7ee、7ffを決定する。アイコン7は車載端末装置10に送信されディスプレイ16に表示される。
(4)運転者は回答文章とアイコンの少なくとも一方から施設を検討し「映画館にするわ」と発言する。
<ユースケース7>
図16は、本実施形態の自然対話システム100による回答の提示例を示す図である。
(1)運転者が「今週末の出張ホテルの予約したいんだけど」と発言する。
(2)対話制御サーバ50の入力理解部61はこの発言を解析することで出張のための宿泊施設の予約要求であると判断する。スケジュールに行き先が登録されているものとする。これによりフレーム70には行き先が設定される。登録されていなければ行き先を問い合わせる。次に、宿泊施設を提案するためフレーム70に交通機関が設定されていない場合は、発言決定部64aは交通機関を運転者に問い合わせる。発言決定部64aは「お車で行かれますか? 電車で行かれますか?」という回答文章を構築する。回答文章は車載端末装置10に送信されスピーカ18から出力される。
(3)アイコン決定部64bはこの回答文章から、フレーム70が有するシンボルの属性で運転者が過去に発言していない単語として「車」「電車」を表すアイコン7gg、7hhを決定する。アイコン7は車載端末装置10に送信されディスプレイ16に表示される。
(4)運転者は回答文章とアイコンの少なくとも一方から交通機関を回答すると判断し「電車で」と発言する。
(5)対話制御サーバ50の入力理解部61はこの発言を解析して内部状態更新部62が交通機関をフレーム70に設定する。発言決定部64aは外部連携部65を介して外部情報取得部57に京都駅付近の宿泊施設を検索させる。発言決定部64aはスケジュールから取得した日付、行き先(京都)、ユーザ属性の趣味(例えば陶芸)に適合する宿泊施設を検索する。発言決定部64aは「○月〇日の京都出張ですね、京都駅付近に駐車場付のホテルで3件空きがありますが、近くで陶芸市が行われているホテルがございます。予約しますか」という回答文章を構築する。回答文章は車載端末装置10に送信されスピーカ18から出力される。
(6)アイコン決定部64bはこの回答文章から、フレーム70が有するシンボルの属性で運転者が過去に発言していない単語、運転者が過去に発言していない単語、又は、回答文章に含まれる自立語として「○月○日」「京都」「駅」「ホテル」「陶芸」を表すアイコン7r、7ii、7hh、7jj、7kkを決定する。アイコン7は車載端末装置10に送信されディスプレイ16に表示される。
(7)運転者は回答文章とアイコンの少なくとも一方から交通機関を回答すると判断し「そこにしよう! お願い」と発言する。
<回答文章の再出力>
車載端末装置10の対話情報保持部38ではアイコンと回答文章が対応付けられているので、車載端末装置10の発言出力部35は任意のタイミングで回答文章をスピーカ18から再度、出力できる。例えば、運転者がアイコン7をタップすることで、このアイコン7と共に送信された回答文章を出力する。
図17は、ディスプレイ16に表示されたアイコン7を示す。図示するように運転者がアイコン7aをタップすると操作受付部37がこれを受け付けて、このアイコン7aに対応付けられた回答文章を対話情報保持部38から読み出して発言出力部35が発言する。こうすることで、運転者は後から回答文章を確認できる。なお、1つの回答文章に複数のアイコン7b、7cが対応付けられている場合、いずれか1つのアイコン7のタップにより全ての回答文章が出力されてよい。また、回答文章の出力はアイコン7のタップに限られず、選択肢6のタップで出力されてもよい。
更に、回答文章のどの単語がアイコン7の元になったかが回答文章に含まれている場合(回答文章の単語とアイコン7が対応付けられている場合)、アイコン7のタップにより発言出力部35が対応付けられている単語のみを出力してもよい。
<選択肢の省略>
図18は、選択肢6が省略されて表示される場合のアイコンの表示例を示す図である。回答文章の回数が多くなるとそれに伴って、アイコン7の送信回数も増えていく。1回に送信される1つ以上のアイコン7がディスプレイ16の1行に表示される場合、古いアイコン7は上の方に(又は下の方に)スクロールされ、表示範囲に収まらないと消去される。古いアイコン7と共に表示される選択肢6は運転者が見る可能性が徐々に低くなるので、表示しておく必要性が低い。このため、表示制御部36は表示から一定時間が経過した選択肢6を非表示に切り替える。図18(a)ではアイコン7aの選択肢6が非表示に切り替えられている。
また、図18(b)に示すように、運転者がタップすることで、表示制御部36は非表示にした選択肢6を再度、表示させる。この時、回答文章は出力されても出力されなくてもよい。このように選択肢6が非表示になることでディスプレイ16を有効に利用できると共に、運転者は任意のタイミングで選択肢6を確認できる。
また、アイコン7は1行ずつ表示される他、図19に示すように1行に可能な限りの数のアイコン7が表示されてもよい。図19では、選択肢6のあるアイコン7、ないアイコン7が、対話制御サーバ50から送信された順番に1行に表示されている。車載端末装置10の表示制御部36は、例えば左上から行方向にアイコン7及び選択肢6を順番に並べて表示する。アイコン7又は選択肢6が右端に達すると行を変えて再度、順番にアイコン7及び選択肢6を表示する。図19のような表示方法では、図18(b)のように選択肢6が非表示になることでアイコン7が左詰めされるので、多くのアイコン7が1画面に表示されるようになり、選択肢6を非表示にすることの効果が大きい。
<車両が停止した場合の表示方法>
非表示になった選択肢6は車両が停止した際に、表示制御部36が表示してもよい。また、車両が停止した際に、回答文章に含まれる時刻など、数字を表示してもよい。
図20(a)では表示から一定時間が経過して選択肢6が非表示になったが、車両の停止により表示制御部36が選択肢6を再度、表示している。こうすることで、車両の停止中はアイコン7に対応付けられている選択肢6を目視することができる。また、図20(b)では車両の停止中に現在の時刻401、及び、テレビ会議が何分後に開始されるかを示す時刻402が表示されている。これにより、運転者はスケジュールの時刻を確認できる。なお、回答文章に含まれている時刻とアイコンは対応付けられて、対話制御サーバ50から送信される。
車両の停止中に表示する情報は数字に限らず、回答文章に含まれている少なくとも一部の情報であれば表示できる。回答文書の全体を表示してもよい。また、車両の停止中に(自動運転等、法令等が許可する範囲で移動中でもよい)、運転者がアイコンをタップすることで回答文章がディスプレイ16に表示されてもよい。
なお、車両が停止したことは、車速センサが検出する車速がゼロ若しくは所定値以下になること、シフトレバーがパーキングに設定されること、又は、パーキングブレーキのON等から判断される。車速センサは車両が有していてもよいし、車載端末装置10が有していてもよい。
<同音異義語の取り扱い>
運転者のユーザ発言に同音異義語が含まれている場合に、対話制御部55がユーザ発言の意図する単語をユーザに確認する技術が知られているが、本実施形態では、運転者が考えていない単語が同音異義語の場合があるため、同音異義語のアイコン7を示すことで明確に運転者に伝えることができる。
図21は同音異義語を含む回答文章を対話制御部55が構築した場合にディスプレイ16に表示されるアイコン7の一例を示す。図21では回答文章が「まっすぐ行った先の端にあります」である場合、「端」がイメージされるアイコン7llをアイコン決定部64bが採用する。また、回答文章が「まっすぐ行った先の橋にあります」である場合は、「橋」がイメージされるアイコン7mmをアイコン決定部64bが採用する。
運転者は端も橋も予測していないので、このような同音異義語が回答文章に含まれていると困惑するおそれがあるが、本実施形態ではアイコン7が同音異義語の意味を示すので運転者は回答文章を容易に理解できる。
<まとめ>
このように、本実施形態の自然対話システム100は、認識した話題の趣旨をアイコン7で表示する。これにより、運転者は自然対話システムの発言(レコメンドされていること)の大枠を直感的に理解できるようになる。
<その他の適用例>
以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
例えば、アイコンは静的なものの他、動くものでもよい。動くアイコンはぱらぱら漫画のように少しずつ異なる静止画を切り替えて表示することで実現できる。また、アイコンはMPEG、H.264などの動画でもよい。
また、アイコン7と回答文章は少ない時間差で車載端末装置10に送信されることが好ましいが、アイコン7は回答文章の後から送信されてもよい。アイコンはディスプレイ16に表示されるため後から運転者が見ることができるためである。また、アイコン7がアイコンDB67に登録されていない場合、外部情報取得部57がアイコン7を検索するために時間がかかることも想定されるためである。
また、発言決定部64aが選択肢の数を提示する場合、その選択肢に関するアイコンを選択肢の数だけアイコン決定部64bが車載端末装置10に送信してもよい。例えば、割引チケットがあたる駐車場が2件ある場合、アイコン決定部64bは割引チケットのアイコンを2個、送信し、表示制御部36が2つの同じアイコンを表示する。これにより、運転者は直感的に数を把握できる。
また、アイコン7の代わりに又はアイコン7と共に音データを対話制御サーバ50が車載端末装置10に送信してもよい。車載端末装置10は音データに基づいて音を再生する。例えばロックのアイコンではロック音楽が再生される。これより、運転者はアイコンの意味をイメージしやすくなる。この音データは任意のタイミングでアイコン7のタップにより再生されることができる。
また、上記の実施形態では、車両という移動体を運転する運転者(ユーザ)が自然対話システム100を利用する場合を例に説明した。しかし、車両の他の移動体にも適用できる。例えば、軽車両、動力付き二輪車(自動二輪車という)等でもよい。また、車載端末装置10はスマートフォンなどの情報処理装置でもよいため、歩行者が車載端末装置10(この場合は単に端末装置という)を保持する場合も含まれている。また、デスクに座ったユーザが自然対話システム100を利用することもできる。
また、上記の実施形態では対話制御サーバ50が車載端末装置10に回答文章とアイコン等を送信しているが、車載端末装置10が対話制御サーバ50の機能を有していてもよい。車載端末装置10が対話制御サーバ50の機能を有する場合、車載端末装置10が情報提示装置に相当する。
また、図5,図6などの構成例は、車載端末装置10、及び対話制御サーバ50の処理の理解を容易にするために、主な機能に応じて分割したものである。処理単位の分割の仕方や名称によって本願発明が制限されることはない。また、車載端末装置10、及び対話制御サーバ50の処理は、処理内容に応じて更に多くの処理単位に分割することもできる。また、1つの処理単位が更に多くの処理を含むように分割することもできる。
なお、ディスプレイ16は表示手段の一例であり、マイク19、ハードキー15、又はタッチパネル17は入力受付手段の一例であり、発言決定部64aは回答生成手段の一例であり、アイコン決定部64bは付加情報取得手段の一例であり、発言出力部35は音声出力手段の一例であり、表示制御部36は情報出力手段の一例である。外部情報取得部57は検索手段の一例であり、対話情報保持部38は情報記憶手段の一例であり、操作受付部37は操作受付手段の一例であり、システム発言送信部53と表示情報送信部54は送信手段の一例である。自然対話システム100は情報提示システムの一例である。
7 :アイコン
8 :車両
10 :車載端末装置
50 :対話制御サーバ
100 :自然対話システム

Claims (11)

  1. 表示手段と、
    ユーザからの音声又は操作による入力を受け付ける入力受付手段と、
    前記入力受付手段が受け付けた入力に基づいて回答文章で回答する情報を検索する検索手段と、
    前記検索手段が検索した情報に含まれる単語を用いて、前記入力受付手段が受け付けた入力に対する回答文章を生成する回答生成手段と、
    前記回答生成手段によって生成された前記回答文章に含まれる単語に関連する、画像である付加情報を取得する付加情報取得手段と、
    前記回答文章を音声で出力する音声出力手段と、
    前記付加情報を前記表示手段に出力する情報出力手段と、を有し、
    前記付加情報取得手段は、前記付加情報として前記単語ごとに画像を取得し、
    前記情報出力手段は前記付加情報の画像を選択肢として表示することを特徴とする情報提示装置。
  2. 前記付加情報取得手段は、前記回答文章に含まれる単語のうち、前記ユーザに確認を求める単語に関連する前記付加情報を取得することを特徴とする請求項1に記載の情報提示装置。
  3. 前記付加情報取得手段は、前記回答文章に含まれる単語のうち、前記ユーザが前記入力受付手段から入力していない単語に関連する前記付加情報を取得することを特徴とする請求項1に記載の情報提示装置。
  4. 前記情報出力手段は、前記選択肢を出力してから一定時間が経過すると前記選択肢を非表示にすることを特徴とする請求項1に記載の情報提示装置。
  5. 前記表示手段に対する操作を受け付ける操作受付手段を有し、
    前記操作が前記付加情報に対する操作を受け付けた場合、前記情報出力手段は前記選択肢の表示と非表示を切り替えることを特徴とする請求項4に記載の情報提示装置。
  6. 前記表示手段に対する操作を受け付ける操作受付手段と、
    前記回答文章と前記付加情報を対応付けて記憶する情報記憶手段と、を有し、
    前記操作受付手段が前記付加情報に対する操作を受け付けた場合、
    前記音声出力手段は、操作された前記付加情報に対応付けられている前記回答文章を前記情報記憶手段から読み出して音声で出力することを特徴とする請求項1〜4のいずれか1項に記載の情報提示装置。
  7. 前記情報提示装置が移動体に搭載されており、
    前記移動体が停止した場合、前記情報出力手段は前記情報記憶手段に記憶されている前記回答文章の少なくとも一部を前記付加情報に対応付けて前記表示手段に表示することを特徴とする請求項6に記載の情報提示装置。
  8. 前記移動体が停止した場合であって、前記操作受付手段が前記付加情報に対する操作を
    受け付けた場合、
    前記情報出力手段は前記情報記憶手段に記憶されている前記回答文章の少なくとも一部を前記表示手段に表示することを特徴とする請求項7に記載の情報提示装置。
  9. 前記付加情報取得手段は1つの前記回答文章に含まれる複数の前記単語に意味上の関係がある場合、複数の前記単語にそれぞれ関連する複数の前記付加情報の間に両者の関係を想起させる第二の付加情報を追加する請求項1〜7のいずれか1項に記載の情報提示装置。
  10. 表示手段と、
    ユーザからの音声又は操作による入力を受け付ける入力受付手段と、
    前記入力受付手段が受け付けた入力に基づいて回答文章で回答する情報を検索する検索手段と、
    前記検索手段が検索した情報に含まれる単語を用いて、前記入力受付手段が受け付けた入力に対する回答文章を生成する回答生成手段と、
    前記回答生成手段によって生成された前記回答文章に含まれる単語に関連する、画像である付加情報を取得する付加情報取得手段と、
    前記回答文章を音声で出力する音声出力手段と、
    前記付加情報を前記表示手段に出力する情報出力手段と、を有し、
    前記付加情報取得手段は、前記付加情報として前記単語ごとに画像を取得し、
    前記情報出力手段は前記付加情報の画像を選択肢として表示することを特徴とする情報提示システム。
  11. 入力受付手段が受け付けた入力に基づいて回答文章で回答する情報を検索する検索手段と、
    前記検索手段が検索した情報に含まれる単語を用いて、前記入力受付手段が受け付けた入力に対する回答文章を生成する回答生成手段と、
    前記回答生成手段によって生成された前記回答文章に含まれる単語に関連する、画像である付加情報を取得する付加情報取得手段と、
    前記回答文章と前記付加情報を端末装置に送信する送信手段と、を有し、前記付加情報取得手段は、前記付加情報として前記単語ごとに画像を取得する情報処理装置とネットワークを介して通信することができる端末装置であって、
    表示手段と、
    ユーザからの音声又は操作による入力を受け付ける入力受付手段と、
    前記回答文章を音声で出力する音声出力手段と、
    前記付加情報を前記表示手段に出力する情報出力手段と、を有し、
    前記情報出力手段は前記付加情報の画像を選択肢として表示することを特徴とする端末装置。
JP2017206494A 2017-10-25 2017-10-25 情報提示装置、情報提示システム、端末装置 Active JP6903380B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017206494A JP6903380B2 (ja) 2017-10-25 2017-10-25 情報提示装置、情報提示システム、端末装置
US16/158,422 US10755711B2 (en) 2017-10-25 2018-10-12 Information presentation device, information presentation system, and terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017206494A JP6903380B2 (ja) 2017-10-25 2017-10-25 情報提示装置、情報提示システム、端末装置

Publications (2)

Publication Number Publication Date
JP2019079345A JP2019079345A (ja) 2019-05-23
JP6903380B2 true JP6903380B2 (ja) 2021-07-14

Family

ID=66171136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017206494A Active JP6903380B2 (ja) 2017-10-25 2017-10-25 情報提示装置、情報提示システム、端末装置

Country Status (2)

Country Link
US (1) US10755711B2 (ja)
JP (1) JP6903380B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD738889S1 (en) * 2013-06-09 2015-09-15 Apple Inc. Display screen or portion thereof with animated graphical user interface
US10891969B2 (en) * 2018-10-19 2021-01-12 Microsoft Technology Licensing, Llc Transforming audio content into images
JP7151654B2 (ja) 2019-07-26 2022-10-12 トヨタ自動車株式会社 検索装置、学習装置、検索システム、検索プログラム、及び学習プログラム
JP6951781B2 (ja) * 2019-11-06 2021-10-20 株式会社MaaS Tech Japan プログラム及び情報処理装置
JP6828231B1 (ja) * 2019-11-25 2021-02-10 株式会社Osk 情報処理装置,コンピュータの制御方法及び制御プログラム
JP2021123133A (ja) * 2020-01-31 2021-08-30 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
CN114566060B (zh) * 2022-02-23 2023-03-24 成都智元汇信息技术股份有限公司 公共交通消息通知处理方法、装置、系统、电子设备及介质

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5660176A (en) * 1993-12-29 1997-08-26 First Opinion Corporation Computerized medical diagnostic and treatment advice system
US6275806B1 (en) * 1999-08-31 2001-08-14 Andersen Consulting, Llp System method and article of manufacture for detecting emotion in voice signals by utilizing statistics for voice signal parameters
JP2001296888A (ja) 2000-04-17 2001-10-26 Denso Corp 要求判定装置
US20030023435A1 (en) * 2000-07-13 2003-01-30 Josephson Daryl Craig Interfacing apparatus and methods
US6523007B2 (en) * 2001-01-31 2003-02-18 Headsprout, Inc. Teaching method and system
ITTO20010179A1 (it) * 2001-02-28 2002-08-28 Cselt Centro Studi Lab Telecom Sistema e metodo per l'accesso a strutture multimediali.
IL154733A0 (en) * 2003-03-04 2003-10-31 Financial transaction authorization apparatus and method
US7331036B1 (en) * 2003-05-02 2008-02-12 Intervoice Limited Partnership System and method to graphically facilitate speech enabled user interfaces
US20060111894A1 (en) * 2004-11-19 2006-05-25 Definitive Business Solutions, Llc Method and system for communication prioritization
JP2006178898A (ja) * 2004-12-24 2006-07-06 Mitsubishi Electric Corp 地点検索装置
US8195749B2 (en) * 2006-11-13 2012-06-05 Bindu Rama Rao Questionnaire server capable of providing questionnaires based on device capabilities
US8285550B2 (en) * 2008-09-09 2012-10-09 Industrial Technology Research Institute Method and system for generating dialogue managers with diversified dialogue acts
US20110099507A1 (en) * 2009-10-28 2011-04-28 Google Inc. Displaying a collection of interactive elements that trigger actions directed to an item
US9197736B2 (en) * 2009-12-31 2015-11-24 Digimarc Corporation Intuitive computing methods and systems
US9493130B2 (en) * 2011-04-22 2016-11-15 Angel A. Penilla Methods and systems for communicating content to connected vehicle users based detected tone/mood in voice input
JP5842452B2 (ja) * 2011-08-10 2016-01-13 カシオ計算機株式会社 音声学習装置及び音声学習プログラム
US9665339B2 (en) * 2011-12-28 2017-05-30 Sonos, Inc. Methods and systems to select an audio track
CN104428766B (zh) * 2012-07-03 2017-07-11 三菱电机株式会社 语音识别装置
JP5835197B2 (ja) * 2012-11-29 2015-12-24 トヨタ自動車株式会社 情報処理システム
KR102133365B1 (ko) * 2013-05-09 2020-07-13 삼성전자 주식회사 정보를 사용자에게 제공하기 위한 전자 장치
JP6171635B2 (ja) * 2013-07-04 2017-08-02 ティアック株式会社 編集処理装置及び編集処理プログラム
KR102220945B1 (ko) * 2013-10-07 2021-02-26 삼성전자 주식회사 휴대 기기에서 연관 정보 표시 방법 및 장치
JP2015106203A (ja) * 2013-11-28 2015-06-08 Necパーソナルコンピュータ株式会社 情報処理装置、情報処理方法、及びプログラム
US9804820B2 (en) * 2013-12-16 2017-10-31 Nuance Communications, Inc. Systems and methods for providing a virtual assistant
US20160034930A1 (en) * 2014-07-31 2016-02-04 Genesys Telecommunications Laboratories, Inc. System and method for managing customer feedback
EP3282447B1 (en) * 2015-03-31 2020-08-26 Sony Corporation PROGRESSIVE UTTERANCE ANALYSIS FOR SUCCESSIVELY DISPLAYING EARLY SUGGESTIONS BASED ON PARTIAL SEMANTIC PARSES FOR VOICE CONTROL. &#xA;REAL TIME PROGRESSIVE SEMANTIC UTTERANCE ANALYSIS FOR VISUALIZATION AND ACTIONS CONTROL.
EP3357782B1 (en) * 2015-09-30 2020-08-05 Nissan Motor Co., Ltd. Information presenting device and information presenting method
JP6419100B2 (ja) * 2016-03-16 2018-11-07 株式会社トヨタマップマスター ナビゲーションシステム、poi提示方法、poi提示プログラム、記録媒体
US10403273B2 (en) * 2016-09-09 2019-09-03 Oath Inc. Method and system for facilitating a guided dialog between a user and a conversational agent
JP2018124888A (ja) * 2017-02-03 2018-08-09 アイシン精機株式会社 車両制御装置

Also Published As

Publication number Publication date
JP2019079345A (ja) 2019-05-23
US10755711B2 (en) 2020-08-25
US20190122664A1 (en) 2019-04-25

Similar Documents

Publication Publication Date Title
JP6903380B2 (ja) 情報提示装置、情報提示システム、端末装置
KR102447546B1 (ko) 가상 비서에서 커맨드 처리를 용이하게 하기 위한 컨텍스트 정보의 이용
JP7247271B2 (ja) 非要請型コンテンツの人間対コンピュータダイアログ内へのプロアクティブな組込み
US10789953B2 (en) Voice and connection platform
CN105190607B (zh) 通过智能数字助理的用户培训
US9609117B2 (en) Methods and arrangements employing sensor-equipped smart phones
CN110248019B (zh) 用于启用语音的对话界面的方法、计算机存储介质和设备
EP3766066B1 (en) Generating response in conversation
US10026400B2 (en) Generating dialog recommendations for chat information systems based on user interaction and environmental data
CN108352006A (zh) 即时消息环境中的智能自动化助理
CN117033578A (zh) 基于设备间对话通信的主动协助
KR20160101079A (ko) 가상 어시스턴트를 제공하기 위한 시스템 및 방법
Saltzman Siri for Dummies
WO2019054009A1 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210622

R150 Certificate of patent or registration of utility model

Ref document number: 6903380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150