JP2020134328A - 音声出力装置および音声出力方法 - Google Patents

音声出力装置および音声出力方法 Download PDF

Info

Publication number
JP2020134328A
JP2020134328A JP2019028487A JP2019028487A JP2020134328A JP 2020134328 A JP2020134328 A JP 2020134328A JP 2019028487 A JP2019028487 A JP 2019028487A JP 2019028487 A JP2019028487 A JP 2019028487A JP 2020134328 A JP2020134328 A JP 2020134328A
Authority
JP
Japan
Prior art keywords
voice
type
output
audio
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019028487A
Other languages
English (en)
Other versions
JP7192561B2 (ja
Inventor
西村 和也
Kazuya Nishimura
和也 西村
義博 大栄
Yoshihiro Daiei
義博 大栄
直貴 上野山
Naoki Uenoyama
直貴 上野山
神丸 博文
Hirofumi Kamimaru
博文 神丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019028487A priority Critical patent/JP7192561B2/ja
Priority to US16/718,309 priority patent/US11295742B2/en
Publication of JP2020134328A publication Critical patent/JP2020134328A/ja
Application granted granted Critical
Publication of JP7192561B2 publication Critical patent/JP7192561B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Navigation (AREA)

Abstract

【課題】出力された音声の内容を乗員が理解しにくい場合、理解しやすい音声を出力できる音声出力装置を提供する。【解決手段】音声出力装置18において、取得部30は、車両の乗員の発話を取得する。判定部32は、取得された発話が聞き返しであるか否か判定する。分類部34は、発話が聞き返しであると判定された場合、聞き返しのタイプを分類する。出力部38は、聞き返しの対象となる音声の内容にもとづいて、分類された聞き返しのタイプに応じた音声を出力する。【選択図】図1

Description

本発明は、音声を出力する音声出力装置および音声出力方法に関する。
近年、車両の走行案内を行うナビゲーション装置が多くの車両に搭載されている。特許文献1は、運転者の医療情報を取得し、運転者の聴力が低下している場合には、ナビゲーション装置の案内時の音声の音量を通常より大きくする技術を開示する。
特開2009−254544号公報
車室内外の雑音が大きい場合、ナビゲーション装置の音声が乗員に聞こえ難いことがある。また、ナビゲーション装置の経路案内の音声に経路案内地点の目印の情報が含まれる場合、その目印を乗員が視認できないこともある。これらの場合、乗員は音声の内容を十分に理解することが困難である。そこで、ナビゲーション装置の音声の内容を乗員が理解しにくい場合、理解しやすい音声を出力することが望まれる。
本発明はこうした状況に鑑みてなされたものであり、その目的は、出力された音声の内容を乗員が理解しにくい場合、理解しやすい音声を出力できる音声出力装置および音声出力方法を提供することにある。
上記課題を解決するために、本発明のある態様の音声出力装置は、車両の乗員の発話を取得する取得部と、取得された前記発話が聞き返しであるか否か判定する判定部と、前記発話が聞き返しであると判定された場合、聞き返しのタイプを分類する分類部と、聞き返しの対象となる音声の内容にもとづいて、分類された聞き返しのタイプに応じた音声を出力する出力部と、を備える。
この態様によると、乗員の聞き返しのタイプを分類し、聞き返しの対象となる音声の内容にもとづいて、分類された聞き返しのタイプに応じた音声を出力するので、音声出力装置の音声の内容を乗員が理解しにくく、聞き返しが行われた場合、理解しやすい音声を出力できる。
前記音声出力装置は、聞き返しの直前に前記出力部から出力された音声にもとづいて、聞き返しの対象となる音声の内容を特定する特定部を備えてもよい。
前記出力部は、聞き返しのタイプが音声の内容の意味を理解していないことを示すタイプである場合、聞き返しの対象となる音声の内容に関連した別の音声を出力してもよい。
前記出力部は、聞き返しのタイプが聞き逃しを示すタイプである場合、聞き返しの対象となる音声を再出力してもよい。
前記出力部は、聞き返しのタイプが聞き取れないことを示すタイプである場合、聞き返しの対象となる音声をより大きい音量で再出力してもよい。
本発明の別の態様は、音声出力方法である。この方法は、車両の乗員の発話を取得する取得ステップと、取得された前記発話が聞き返しであるか否か判定する判定ステップと、前記発話が聞き返しであると判定された場合、聞き返しのタイプを分類する分類ステップと、聞き返しの対象となる音声の内容にもとづいて、分類された聞き返しのタイプに応じた音声を出力する出力ステップと、を備える。
この態様によると、乗員の聞き返しのタイプを分類し、聞き返しの対象となる音声の内容にもとづいて、分類された聞き返しのタイプに応じた音声を出力するので、音声出力装置の音声の内容を乗員が理解しにくく、聞き返しが行われた場合、理解しやすい音声を出力できる。
本発明によれば、出力された音声の内容を乗員が理解しにくい場合、理解しやすい音声を出力できる。
実施の形態に係るナビゲーション装置のブロック図である。 図1の音声出力装置の音声出力処理を示すフローチャートである。
図1は、実施の形態に係るナビゲーション装置10のブロック図である。ナビゲーション装置10は、自動車である車両に搭載される。ナビゲーション装置10は、マイク12と、スピーカ14と、ナビゲーション部16と、音声出力装置18とを備える。
マイク12は、車両の車室内に設置され、乗員の発話などの車室内の音声を音声信号に変換し、変換された音声信号を音声出力装置18に出力する。スピーカ14は、車両の車室内に設置され、音声出力装置18から出力された音声信号を音声に変換し、その音声を出力する。
ナビゲーション部16は、周知の技術を用いて経路案内用の案内経路を設定し、案内経路と地図を図示しない表示部に表示させ、走行案内用の音声を音声出力装置18に出力させ、案内経路に沿って走行案内を行う。走行案内用の音声は、交差点などの走行案内すべき地点の目印の情報を含む。ナビゲーション部16は、車両の位置が案内経路上の走行案内すべき地点に達した場合、音声により、たとえば「まもなく右方向です。コンビニエンスストアABCが目印です」という走行案内を行う。ナビゲーション部16は、走行経路の渋滞情報や工事情報、目的地の天気予報、現在地付近の施設情報など、ドライバの利便性を向上するための各種情報の音声を音声出力装置18に出力させてもよい。
音声出力装置18は、処理部20および記憶部22を備える。処理部20は、取得部30、判定部32、分類部34、特定部36および出力部38を備える。処理部20の構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
出力部38は、ナビゲーション部16から供給された走行案内用などの音声情報にもとづいて、スピーカ14などを介して音声を出力する。
取得部30は、マイク12を介して車両の乗員の発話を取得する。乗員は、ナビゲーション装置10による走行案内用の音声などを聞き取れなかった場合や、その音声の内容を理解できなかった場合、「え?」などの発話、すなわち聞き返しを行うことがある。取得部30は、マイク12から出力された音声信号にもとづいて乗員の発話を音声認識し、その発話をテキストデータとして取得し、発話のテキストデータを判定部32と分類部34に供給する。
記憶部22は、複数の聞き返しのテキストデータをデータベースとして予め保持している。判定部32は、記憶部22のデータベースを参照し、取得部30で取得された発話が聞き返しであるか否か判定し、判定結果を分類部34と特定部36に供給する。判定部32は、発話のテキストデータがデータベースの聞き返しのテキストデータに一致する場合、発話が聞き返しであると判定する。判定部32は、発話のテキストデータがデータベースの聞き返しのテキストデータに一致しない場合、発話が聞き返しではないと判定する。判定部32は、発話のテキストデータがデータベースの聞き返しのテキストデータに一致し、かつ、発話の語尾が上がる場合、発話が聞き返しであると判定してもよい。これにより、判定精度を高めうる。
特定部36は、発話が聞き返しであると判定された場合、聞き返しの直前に出力部38から出力された音声にもとづいて、聞き返しの対象となる音声の内容を特定し、特定した音声の内容を出力部38に供給する。これにより、乗員がどの音声の内容に対して聞き返しを行ったか正しく特定しやすい。
分類部34は、発話が聞き返しであると判定された場合、聞き返しのタイプを分類し、分類した聞き返しのタイプを出力部38に供給する。聞き返しのタイプは、音声の内容の意味を理解していないことを示す第1のタイプ、聞き逃しを示す第2のタイプ、および、聞き取れないことを示す第3のタイプを含む。
記憶部22は、複数の聞き返しのテキストデータのそれぞれと、聞き返しのタイプとの対応関係もデータベースとして予め保持している。聞き返しと、聞き返しのタイプは、1対1に対応付けられている。たとえば、「どこ?」、「どれ?」などの聞き返しは第1のタイプに対応付けられている。「え?なんていった?」などの聞き返しは第2のタイプに対応付けられている。「なになに?聞きづらい」などの聞き返しは第3のタイプに対応付けられている。第1から第3のタイプのいずれにも当てはまる可能性があり、タイプを分類しにくい「なに?」などの聞き返しは、第2のタイプに対応付けられている。また、第1のタイプと第3のタイプのどちらにも当てはまらない聞き返しは、第2のタイプに対応付けられている。
分類部34は、記憶部22のデータベースを参照して、発話のテキストデータに一致する聞き返しのテキストデータのタイプを特定し、特定したタイプを聞き返しのタイプとする。
出力部38は、特定部36から供給された聞き返しの対象となる音声の内容にもとづいて、分類部34で分類された聞き返しのタイプに応じた音声をスピーカ14などを介して出力する。
出力部38は、聞き返しのタイプが第1のタイプである場合、聞き返しの対象となる音声の内容に関連した別の音声を出力する。記憶部22は、聞き返しの対象となる音声の内容ごとに、その音声の内容に関連付けられた1以上の別の音声データをデータベースとして予め保持している。たとえば、聞き返しの対象となる音声の内容が「コンビニエンスストアABCが目印です」である場合、「赤い看板が目印です」、「赤い建物が目印です」などの聞き返しの対象となる音声の内容を言い換える音声データが関連付けられている。つまりこの例では、「コンビニエンスストアABC」の看板と建物は赤色であるとする。乗員は、コンビニエンスストアABCという文字を視認できず、その看板や建物の色を知らないないなどの理由で「コンビニエンスストアABCが目印です」という音声の意味を理解できなかった場合、意味を理解できなかった音声の内容に関連した「赤い看板が目印です」などの音声を聞くことができ、その内容を理解できる可能性がある。
出力部38は、聞き返しのタイプが第2のタイプである場合、聞き返しの対象となる音声を再出力する。これにより、乗員は、音声を聞き逃した場合、聞き逃した音声を再度聞くことができ、その内容を把握しやすい。タイプを分類しにくい聞き返し、第1のタイプと第3のタイプのどちらにも当てはまらない聞き返しの場合にも音声が再出力されるので、意図を特定しにくい聞き返しの場合にも、音声の内容を乗員に理解させることができる可能性がある。
出力部38は、聞き返しのタイプが第3のタイプである場合、聞き返しの対象となる音声をより大きい音量で再出力する。これにより、乗員は、周囲の雑音の影響や自身の聴力の低さなどのために聞き取れなかった音声をより聞き取りやすい音量で再度聞くことができ、その内容を把握しやすい。
次に、以上の構成による音声出力装置18の全体的な動作を説明する。図2は、図1の音声出力装置18の音声出力処理を示すフローチャートである。図2の処理は、繰り返し実行される。
取得部30が乗員の発話を取得していない場合(S10のN)、ステップS10で待機する。発話を取得した場合(S10のY)、発話が聞き返しでなければ(S12のN)、ステップS10に戻る。発話が聞き返しである場合(S12のY)、特定部36は聞き返しの対象となる音声の内容を特定し(S14)、分類部34は聞き返しのタイプを分類し(S16)、出力部38は聞き返しのタイプを確認する(S18)。
出力部38は、聞き返しのタイプが第1のタイプである場合、聞き返しの対象となる音声の内容に関連した別の音声を出力し(S20)、処理を終了する。出力部38は、聞き返しのタイプが第2のタイプである場合、聞き返しの対象となる音声を再出力し(S22)、処理を終了する。出力部38は、聞き返しのタイプが第3のタイプである場合、聞き返しの対象となる音声をより大きい音量で再出力し(S24)、処理を終了する。
本実施の形態によれば、音声出力装置18の音声の内容を乗員が理解しにくく、聞き返しが行われた場合、理解しやすい音声を出力できる。また、聞き返しのタイプを分類し、分類された聞き返しのタイプに応じた音声を出力するので、複数の聞き返しのそれぞれに対して出力用の音声を生成するよりも、構成を簡素化できる。そのため、コストの増加を抑制でき、車載用途に適したナビゲーション装置10を提供できる。
以上、実施の形態をもとに本発明を説明した。実施の形態はあくまでも例示であり、各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
たとえば、音声出力装置18は、車室内のカメラで撮影された車室内の画像を画像認識して、眠っている可能性のある乗員を検出する画像認識部を備えてもよい。画像認識には、周知の技術を用いることができる。出力部38は、聞き返しのタイプが第2のタイプである場合、眠っている可能性のある乗員が画像認識部で検出されなければ、聞き返しの対象となる音声をより大きい音量で再出力してもよい。これにより、音量を維持して音声を再出力する場合よりも、聞き逃した音声の内容を乗員に把握させやすい。一方、出力部38は、聞き返しのタイプが第2のタイプである場合、眠っている可能性のある乗員が検出されれば、音量を維持して、聞き返しの対象となる音声を再出力してもよい。これにより、眠っている乗員に配慮できる。
実施の形態では、データベースを参照して、発話が聞き返しであるか否か判定し、聞き返しのタイプを分類したが、判定部32と分類部34は、発話内容の意図理解を行い、意図理解の結果に応じて、発話が聞き返しであるか否か判定し、聞き返しのタイプを分類してもよい。意図理解には周知の技術を用いることができる。この変形例では、音声出力装置18の構成の自由度を向上できる。
10…ナビゲーション装置、18…音声出力装置、30…取得部、32…判定部、34…分類部、36…特定部、38…出力部。

Claims (6)

  1. 車両の乗員の発話を取得する取得部と、
    取得された前記発話が聞き返しであるか否か判定する判定部と、
    前記発話が聞き返しであると判定された場合、聞き返しのタイプを分類する分類部と、
    聞き返しの対象となる音声の内容にもとづいて、分類された聞き返しのタイプに応じた音声を出力する出力部と、
    を備えることを特徴とする音声出力装置。
  2. 聞き返しの直前に前記出力部から出力された音声にもとづいて、聞き返しの対象となる音声の内容を特定する特定部を備える、ことを特徴とする請求項1に記載の音声出力装置。
  3. 前記出力部は、聞き返しのタイプが音声の内容の意味を理解していないことを示すタイプである場合、聞き返しの対象となる音声の内容に関連した別の音声を出力する、ことを特徴とする請求項1または2に記載の音声出力装置。
  4. 前記出力部は、聞き返しのタイプが聞き逃しを示すタイプである場合、聞き返しの対象となる音声を再出力する、ことを特徴とする請求項1から3のいずれかに記載の音声出力装置。
  5. 前記出力部は、聞き返しのタイプが聞き取れないことを示すタイプである場合、聞き返しの対象となる音声をより大きい音量で再出力する、ことを特徴とする請求項1から4のいずれかに記載の音声出力装置。
  6. 車両の乗員の発話を取得する取得ステップと、
    取得された前記発話が聞き返しであるか否か判定する判定ステップと、
    前記発話が聞き返しであると判定された場合、聞き返しのタイプを分類する分類ステップと、
    聞き返しの対象となる音声の内容にもとづいて、分類された聞き返しのタイプに応じた音声を出力する出力ステップと、
    を備えることを特徴とする音声出力方法。
JP2019028487A 2019-02-20 2019-02-20 音声出力装置および音声出力方法 Active JP7192561B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019028487A JP7192561B2 (ja) 2019-02-20 2019-02-20 音声出力装置および音声出力方法
US16/718,309 US11295742B2 (en) 2019-02-20 2019-12-18 Voice output apparatus and voice output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019028487A JP7192561B2 (ja) 2019-02-20 2019-02-20 音声出力装置および音声出力方法

Publications (2)

Publication Number Publication Date
JP2020134328A true JP2020134328A (ja) 2020-08-31
JP7192561B2 JP7192561B2 (ja) 2022-12-20

Family

ID=72042387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019028487A Active JP7192561B2 (ja) 2019-02-20 2019-02-20 音声出力装置および音声出力方法

Country Status (2)

Country Link
US (1) US11295742B2 (ja)
JP (1) JP7192561B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105192A (ja) * 1996-10-03 1998-04-24 Toyota Motor Corp 車両用音声案内装置
JP2016061970A (ja) * 2014-09-18 2016-04-25 株式会社東芝 音声対話装置、方法およびプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7640164B2 (en) * 2002-07-04 2009-12-29 Denso Corporation System for performing interactive dialog
JP2009254544A (ja) 2008-04-16 2009-11-05 Toyota Motor Corp 乗員情報取得装置及び乗員情報取得システム、並びにこれを用いた車両制御装置及び車両制御システム
US9858925B2 (en) * 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9798799B2 (en) * 2012-11-15 2017-10-24 Sri International Vehicle personal assistant that interprets spoken natural language input based upon vehicle context
US20150379362A1 (en) * 2013-02-21 2015-12-31 Iee International Electronics & Engineering S.A. Imaging device based occupant monitoring system supporting multiple functions
JP6481643B2 (ja) 2016-03-08 2019-03-13 トヨタ自動車株式会社 音声処理システムおよび音声処理方法
US10303772B2 (en) * 2016-07-29 2019-05-28 International Business Machines Corporation Measuring mutual understanding in human-computer conversation
US10521512B2 (en) * 2017-05-26 2019-12-31 Bose Corporation Dynamic text-to-speech response from a smart speaker

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105192A (ja) * 1996-10-03 1998-04-24 Toyota Motor Corp 車両用音声案内装置
JP2016061970A (ja) * 2014-09-18 2016-04-25 株式会社東芝 音声対話装置、方法およびプログラム

Also Published As

Publication number Publication date
US11295742B2 (en) 2022-04-05
US20200265837A1 (en) 2020-08-20
JP7192561B2 (ja) 2022-12-20

Similar Documents

Publication Publication Date Title
JP6604151B2 (ja) 音声認識制御システム
JP2019191828A (ja) 情報提供システムおよび情報提供方法
JP6150077B2 (ja) 車両用音声対話装置
US8751717B2 (en) Interrupt control apparatus and interrupt control method
CN103038818A (zh) 在车载语音识别系统与车外语音识别系统之间的通信系统和方法
US20110288871A1 (en) Information presentation system
JP2010128099A (ja) 車載用音声情報提供システム
US20220128373A1 (en) Vehicle and control method thereof
JP2009251388A (ja) 母国語発話装置
JP2008026653A (ja) 車載用ナビゲーション装置
WO2017015882A1 (en) Navigation device and navigation method
JP2008094228A (ja) 車両用通話警告装置
JP2008309966A (ja) 音声入力処理装置および音声入力処理方法
JP2020060861A (ja) エージェントシステム、エージェント方法、およびプログラム
JP5052241B2 (ja) 車載用の音声処理装置、音声処理システム、及び音声処理方法
US11333518B2 (en) Vehicle virtual assistant systems and methods for storing and utilizing data associated with vehicle stops
JP2008046299A (ja) 音声認識装置
JP2020134328A (ja) 音声出力装置および音声出力方法
JP6984480B2 (ja) 情報処理装置および情報処理方法
JP2020144264A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP2019200125A (ja) 経路案内制御装置および経路案内制御方法
CN111660930A (zh) 提供警示性驾驶通知的系统和方法
JP6596771B2 (ja) 情報提供装置および情報提供方法
JP2018087871A (ja) 音声出力装置
JP2020060623A (ja) エージェントシステム、エージェント方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221121

R151 Written notification of patent or utility model registration

Ref document number: 7192561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151