JP6202041B2 - 車両用音声対話システム - Google Patents
車両用音声対話システム Download PDFInfo
- Publication number
- JP6202041B2 JP6202041B2 JP2015089033A JP2015089033A JP6202041B2 JP 6202041 B2 JP6202041 B2 JP 6202041B2 JP 2015089033 A JP2015089033 A JP 2015089033A JP 2015089033 A JP2015089033 A JP 2015089033A JP 6202041 B2 JP6202041 B2 JP 6202041B2
- Authority
- JP
- Japan
- Prior art keywords
- dialogue
- driver
- voice
- utterance
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Navigation (AREA)
Description
特に、車両用音声対話システムの場合、システムと運転者との対話は、運転者が能動的に車両を操作していることから、車両特有の要因、例えば、自車両が走行している道路や車両の走行状態等によっては操作の支障になる虞がある。
これにより、運転者の運転状況に柔軟に対応し、運転操作に影響を与えることなく適切な時間で運転者の要望に合致した対話を行うことができる。
運転者の単独乗車におけるタスク指向型対話では、運転者がシステムに対して特定の操作タスクを指示し、指示を受けたシステムが対象となる車載機器への操作指令を実行した後に操作タスクの完了を運転者に報告するという定形の対話シナリオに従っているため、システム側の発話内容が限定されており、事前に人手によって作成準備が必要な発話生成ルールについても比較的少量で賄うことができる。しかも、1対1の直接的な対話であるため、システムからの発話タイミングについては、特許文献1のように運転者の運転状況に焦点を合わせることにより運転者の要望に合致させることができる。
一方、運転者が同乗者と共に車両に乗車したときには、運転者からの発話は、システムに向けた発話と、同乗者に向けた発話との2種類の発話になることが予想される。
運転者からシステムに向けた発話の場合、前述したように、システムに対するタスク指向型対話が主に行われ、運転者の要望に合致した対話が実行可能である。
即ち、複数乗員によるドライブにおいて、乗員間の対話に対してもシステムからの自律的な介入を行うことで、わくわく感を飛躍的に増加させることができる。
しかも、システムからの発話タイミングについては、発話元の運転者が単独であるのに対して受け手となる同乗者が1又は複数の複合的な形態になるため、システムが運転者の運転状況に合わせたタイミングで発話したとしても、運転者と対話をしている同乗者にとっては不適切な発話タイミングになることもあり、結果的に複数の乗員とシステムとの協調対話が成立しない虞がある。
また、構成の複雑化を伴うことなく、運転者と同乗者との行動誘発系対話及び行動誘発系対話以外の対話への発話タイミングを決定することができる。
この構成によれば、運転者と同乗者との共通行動目的に関する発話を自律的に行うため、運転者と同乗者の暗黙的な要望に合致した発話によって全乗員の気分を高揚させることができる。
この構成によれば、運転操作に影響を与えることなく適切なタイミングでシステムからの発話を行うことができる。
請求項4の発明は、運転者からの音声入力に応じて対話可能な車両用音声対話システムにおいて、運転者の音声を入力する音声入力手段と、同乗者に対する運転者の音声に含まれた対話終了ワードを判定可能な対話終了ワード判定手段と、前記システムから発話可能な音声出力手段と、運転者が同乗者と対話している際、前記対話終了ワード判定手段によって対話終了ワードが判定されたときに前記システムから発話を発生可能な発話タイミングを決定する発話タイミング決定手段と、複数の合意ワードと複数の終息ワードとを記憶した対話終了ワードデータベースとを有し、前記運転者と同乗者の対話を行動誘発系対話と前記行動誘発系対話以外の対話とに分類し、前記合意ワードに基づいて前記発話タイミングを決定したとき、前記行動誘発系対話に関連した発話を行うことを特徴としている。
この構成によれば、運転者が同乗者と対話している際、対話終了ワード判定手段によって対話終了ワードが判定されたときにシステムから発話を発生可能な発話タイミングを決定する発話タイミング決定手段を設けたため、複数乗員による対話終了ワードを追跡するのみで、乗員間の対話を阻害することなく、システムからの発話の最適な発話タイミングを決定することができる。
また、運転者と同乗者との共通行動目的に関する発話を自律的に行うため、運転者と同乗者の暗黙的な要望に合致した発話によって全乗員の気分を高揚させることができる。
以下の説明は、本発明を車両Vに適用したものを例示したものであり、本発明、その適用物、或いは、その用途を制限するものではない。
図1に示すように、車両用音声対話システム1(以下、システム1と略す)は、車両Vに搭載された音声対話装置2と、情報センタCに設けられたサーバ3等を備えている。
音声対話装置2は、1の例では、スマートフォン等の携帯型端末装置であり、他の例では、車両Vに搭載された通信機能を有する車載PC(ナビゲーション機能等を備えても良い)である。また、携帯型端末装置と車載PCとが協調制御を行う場合には、これら携帯型端末装置及び車載PCが音声対話装置2に相当している。
サーバ3は、大量のデータ処理能力及び大量のデータ容量を有する大型計算機によって形成され、音声対話装置2との間で種々の情報について相互に送受信を行っている。
図1に示すように、音声対話装置2は、マイク4(音声入力手段)と、同乗者検出部5と、生体情報取得部6と、走行状態取得部7と、車載機器8a〜8cと、スピーカ9(音声出力手段)と、通信部10等に電気的に接続されている。
マイク4は、車両Vに乗車している運転者による音声が入力されるものであり、車室内の所定位置に設置されている。このマイク4は、運転者からの音声入力開始から、入力された音声を運転者からの発話として取得することができる。
生体情報取得部6は、運転者の生体情報に基づいて運転者の感情や疲れ具合を検出可能に構成されている。この生体情報取得部6は、例えば、ステアリングホイールに設けられた発汗計(図示略)によって検出された運転者の手の発汗度合い、運転席に内蔵された心拍センサ(図示略)によって検出された運転者の心拍数、車室内に配設された室内カメラ(図示略)によって撮像された運転者の瞳孔径や視線方向等を取得している。
発汗度合いや心拍数は、運転者の活性度と相関関係があり、瞳孔径や視線方向は、運転者の快度と相関関係があるため、運転者の精神状態を推定することができる。
これらの検出結果と運転者の感情及び疲れ具合との相関関係は、予め実験等によって準備されている。
運転者の運転状態は、車両VのCAN(Controller Area Network)を介してアクセル開度センサ(図示略)によって検出されたアクセル操作量や舵角センサ(図示略)によって検出されたステアリング操作量等によって取得されている。
車両Vの走行環境状態は、車両Vのナビゲーションシステム8bやCAN等からの情報に基づき車両Vの挙動(停車、右折、左折、旋回等)や走行環境(走行している道路種別、交差点での一時停止、渋滞状況等)を検出している。
車載機器8a〜8cは、運転者自身の操作や音声によって、制御可能な構成要素(ディバイス、コンテンツ等)、機能、動作等が予め規定されている。
オーディオ8aでは、デバイスがCD、MP3、ラジオ、スピーカであり、機能が音量であり、動作が変更、オン、オフ、再生、停止、選局、音量の上下調節等である。
ナビゲーションシステム8bでは、コンテンツが画面表示、経路誘導、POI検索であり、機能が誘導、検索であり、動作が変更、拡大、縮小等である。
エアコンディショナ8cでは、機能が風量、設定温度であり、動作がオン、オフ、変更、風量や設定温度の上下調節等である。
尚、音声対話装置2は、サーバ3と通信可能な通信部10以外にも、VICS(登録商標)センタと通信する通信部を別途設けてVICS情報を受信しても良い。
音声認識部11は、マイク4に入力された運転者の音声をA/Dコンバータによってデジタル信号として取り込み、このデジタル信号を波形データに変換した後、周波数分析して特徴ベクトルを抽出する。この音声認識部11は、記憶部12dに記憶された言語モデルと運転者の音声との一致度を演算し、入力された音声を認識した後、単語列で表現されたテキストとして対話処理部12に出力している。
対話処理部12は、運転者からシステム1への操作タスクに対する完了報告や各種問い合わせに対する回答に関する応答用テキストを生成可能に構成されている。
図2に示すように、対話処理部12は、制御部12aと、対話終了ワード判定部12b(対話終了ワード判定手段)と、発話タイミング決定部12c(発話タイミング決定手段)と、記憶部12d等を備えている。
制御部12aは、音声認識部11によって認識されたテキストから概念を抽出し、その概念をシステム1が取扱可能な形式で出力する意図理解機能と、この意図理解機能の出力結果に基づきシステム1が応答する概念を決定する対話制御機能と、この対話制御機能から出力された概念に基づき応答用テキスト(タスク指向型対話用テキスト)を生成する応答生成機能と、応答用テキスト又は割込用テキストを発話するタイミングを設定する発話タイミング設定機能とを備え、主に運転者との対話内容や対話タイミング全般を管理可能に構成されている。
制御部12aは、抽出された概念が、車両V内で処理できないタスクの場合や乗員同士の対話である場合、単語列で表現された運転者の音声に基づくテキストを情報検索コマンドとしてURLのフォーマットに変換して情報センタCに送信する。
情報センタCは、車両V内で処理できないタスクに関するテキスト及び乗員同士の対話における運転者の発話に関するテキストを受信する。
情報センタCは、抽出された概念が車両V内で処理できない操作タスクの応答用テキスト、又は運転者を含む乗員同士の対話への割込用テキスト(行動誘発系対話用テキスト又は非タスク指向型対話用テキスト)を生成可能に構成されている。
以下、システム1に対する車載機器8a〜8cの操作や問い合わせのような運転者とシステム1との直接的な操作タスクについての対話をタスク指向型対話、運転者と同乗者との対話であって乗員共通の目的行動を伴う対話を行動誘発系対話、運転者と同乗者との対話であって乗員共通の目的行動を伴わない対話を非タスク指向型対話として説明する。
対話管理部21は、情報データベース22やインターネットを検索すると共に、語彙文法データベース23に基づいて検索結果を組み込んだ応答用テキスト又は割込用テキストを生成可能に構成されている。生成された応答用テキスト又は割込用テキストは、所定のフォーマットに変換されて通信部20から通信部10に送信される。
対話終了ワード判定部12bは、同乗者に対する運転者の音声に含まれた対話終了ワードを判定可能に構成されている。この対話終了ワード判定部12bは、記憶部12dに格納された対話終了ワードとの一致判定によって乗員同士の対話の終了時期を判定している。
対話終了ワードとは、運転者と同乗者との対話において、対話終了の目安になる運転者が発声する特定のキーワードである。対話終了ワードが発声されたことにより、殆どの対話は一旦終了する。対話終了ワードは、行動誘発系対話に対応した合意ワードと、非タスク指向型対話に対応した終息ワードとに分類されている。
発話タイミング決定部12cは、運転者が同乗者と対話している際、対話終了ワード判定手段12bによって対話終了ワードの発話が判定されたとき、システム1から運転者への発話を発生可能な発話タイミングTを決定するように構成されている。
発話タイミング決定部12cは、運転者の状態及び車両Vの走行状態に基づいてシステム1からの発話を制限している。
具体的には、運転者の感情が悪化又は疲れ具合が高い等運転者の生体面から及び高車速、車間距離が狭い、急旋回、急勾配等車両Vの運転環境面から運転者がシステム1からの発話を欲していない場合を自律的に判定し、運転者がシステム1からの発話を欲していない場合にはシステム1からの発話を制限する。
図3に示すように、記憶部12dには、行動誘発系対話ワードデータベースw1と、目的ワードデータベースw2と、対話終了ワードデータベースw3等が記憶されている。
行動誘発系対話ワードは、乗員共通の目的行動を開始するきっかけ(起点)になるワードである。例えば、同乗者が存在する場合に、運転者が「お腹すいた」と発話した場合、車両Vがコンビニやレストラン等を目的地として走行する可能性が高く、「間に合うかな」と発話した場合、車両Vが駅等の特定の目的地に向かって走行する可能性が高い。
目的ワードは、具体的な行動対象となる場所・目的・意思(POI:Position Objective Intention)を特定するワードである。
対話終了ワードは、運転者と同乗者との対話終了を判定するための判定ワードである。
前述したように、対話終了ワードには、乗員共通の目的行動を伴う行動誘発系対話における合意ワードと、乗員間の共通の目的行動を伴わない非タスク指向型対話における終息ワードとが存在している。基本的に、合意ワードで対話が終了したとき、全乗員は対話内容(目的ワード)に関連した共通の目的意識を持って車両Vによる移動を行う。また、終息ワードで対話が終了したとき、対話内容と車両Vによる移動との関連性は存在しない。
対話終了ワードデータベースw3は、合意ワードデータベースw4と終息ワードデータベースw5とによって構成されている。
音声合成部13は、対話処理部12で決定された応答用テキスト、又はサーバ3から受信した応答用テキストや割込用テキストを音声出力に適した表現に正規化し、この正規化したテキストの各単語と記憶部12d内に記憶された言語モデルを用いて発音データに変換する。そして、音声合成部13は、発音データをD/Aコンバータによってデジタル信号による波形データに変換し、スピーカ9に出力している。
尚、音声合成部13には、出力前変換機能を付与しても良い。出力前変換機能は、より自然な対話を行うため、システムからの発話に対して語尾変換(例えば語りかけ口調等)を行い、システムの発話に対して所定の個性を与えることができる。
まず、運転者の音声を取り込み(S1)、単語列で表現されたテキストとして対話処理部12に出力する。
S2では、データベース化された意図理解モデルや課題解決知識等に基づいて発話意図(概念)を理解する。対話内容のテキストを作成し、発話意図に基づき、運転者からの操作タスクか否か、乗員間の対話か否かを選別する。車両V内で処理できない操作タスク及び乗員間の対話については、テキストをサーバ3に送信する。
音声対話装置2は、運転者からの操作指令であり且つ車両V内で処理できる操作タスクに対する対話シナリオを決定する。サーバ3は、運転者からの操作指令であり且つ車両V内で処理できない操作タスクに対する対話シナリオ及び乗員間の対話に対する対話シナリオを決定する。
音声対話装置2は、車両V内で処理できる操作タスクの応答用テキストを作成する。サーバ3は、車両V内で処理できないタスクの応答用テキストや割込用テキストを作成する。
S5では、応答用テキスト又は割込用テキストに応じて音声を合成し、出力前変換を行った後(S6)、スピーカ9に出力して終了する。
尚、Si(i=11,12,…)は、各処理のためのステップを示している。
まず、運転者の音声を取り込み(S11)、運転者の音声が操作タスクか否か判定する(S12)。
S12の判定の結果、運転者の音声が操作タスクの場合、操作タスクの完了後、S13へ移行し、決定された発話タイミングTにて操作タスクに対する完了報告を行って終了する。
S12の判定の結果、運転者の音声が操作タスクではない場合、S14へ移行し、同乗者検出部5の検出結果に基づいて同乗者が存在するか判定する。
S14の判定の結果、同乗者が存在しない場合、運転者の発話は独り言であると推測されるため、s11にリターンする。
S15の判定の結果、行動誘発系対話の場合、運転者と同乗者が共通の目的行動を行うことが推測されるため、S16へ移行し、目的ワードデータベースw2に基づいて運転者から目的ワードが発声されたか否か判定する。
S15の判定の結果、行動誘発系対話ではない場合、乗員間の共通の目的行動を伴わないと推測されるため、S20へ移行し、終息ワードが発声されたか否か判定する。
S16の判定の結果、目的ワードが発声されない場合、乗員共通の目的行動が明確化されていないため、S11にリターンする。
S17の判定の結果、合意ワードが発声された場合、一旦対話が終了されて乗員共通の目的行動が開始されたと推測されるため、S18へ移行し、運転者の状態が良好か否か判定する。S17の判定の結果、合意ワードが発声されていない場合、対話が継続中と推測されるため、S11にリターンする。
運転者の状態は、生体情報である発汗度合い、心拍数、瞳孔径に基づき精神状態が安定している場合、良好と判定され、興奮状態又は緊張状態の場合、良好ではないと判定される。S18の判定の結果、運転者の状態が良好ではない場合、システム1からの発話は運転者に対してストレスを与えるため、S11にリターンする。
走行状態は、車速、車間距離、旋回操作、地形等によって運転操作負荷が高い場合、危険度が大きいと判定され、運転操作負荷が低い場合、危険度が小さいと判定される。
S19の判定の結果、危険度が大きい場合、システム1からの発話は運転操作を阻害するため、S11にリターンする。
S20の判定の結果、終息ワードが発声された場合、一旦対話が終了されたと推測されるため、S18へ移行する。S20の判定の結果、終息ワードが発声されない場合、対話が終了していないため、s11にリターンする。
対話例1は、タスク指向型対話である。
図6に示すように、まず、運転者が「エアコンの温度を下げて。」という操作タスクを指示する。対話処理部12は、音声認識及び概念判定により車両V内で処理できる操作タスクに関する発話と判断し、エアコンディショナ8cに対して設定温度を2℃下げる操作指令を出力する。そして、対話処理部12は、操作タスク完了用対話シナリオに基づいて応答用テキストを生成して音声を合成し、スピーカ9から出力させる。具体的には、システム1は、「設定温度を2℃下げました。」という音声がスピーカ9から出力させる。
図7に示すように、まず、運転者が「お腹すいたね。」と同乗者に対して発話する。
この運転者の発話に続けて同乗者から「今朝出発が早かったからね。」という返答があり、更に、運転者が「どこかのコンビニでも寄っていく?」との質問に対して同乗者から「最も近いコンビニに行こうよ。」との返答後、運転者による「了解。」との対話が行われる。
サーバ3は、対話内容に含まれた「お腹すいたね」、「コンビニ」等のキーワードに基づき各キーワードに関連する情報をデータベースやインターネット等を用いた検索によって抽出する。具体的には、「お腹すいたね」に関連する情報は食堂やレストランの所在地・経路・お勧めメニュー等、「コンビニ」に関連する情報は所在地・経路等である。
対話処理部12は、受信した割込用テキストを発音データに合成し、合意ワードである「了解」によって決定された発話タイミングTの時点において、「最も近いコンビニは、1Km直進後、左折します。」という音声をスピーカ9から出力させる。
図8に示すように、まず、運転者が「昨日 チームAは勝ったかな?」と同乗者に対して質問する。
この運転者の質問に続けて同乗者から「最近 忙しくて試合を観てないんだ。」という返答後、運転者による「そうなんだ。」との対話が行われる。
サーバ3は、対話内容に含まれた「昨日」、「チームA」、「勝ったかな」等のキーワードに基づき各キーワードに関連する情報をデータベースやインターネット等を用いた検索によって抽出する。
次に、サーバ3は、対話内容に含まれたキーワードに対して最も重み付けが高い情報が含まれた割込用テキストを生成して、音声対話装置2に送信する。
対話処理部12は、受信した割込用テキストを発音データに合成し、終息ワードである「そうなんだ」によって決定された発話タイミングTの時点において、「昨日 チームAはチームBに2対1で勝ちました。」という音声をスピーカ9から出力させる。
本車両用音声対話システム1によれば、運転者が同乗者と対話している際、対話終了ワード判定部12bによって対話終了ワードが判定されたときにシステム1から発話を発生可能な発話タイミングを決定する発話タイミング決定部12cを設けたため、複数乗員による対話終了ワードを追跡するのみで、乗員間の対話を阻害することなく、システム1からの発話の最適な発話タイミングTを決定することができる。
これにより、運転者と同乗者との共通行動目的に関する発話を自律的に行うため、運転者と同乗者の暗黙的な要望に合致した発話によって全乗員の気分を高揚させることができる。
1〕前記実施形態においては、運転者の音声のみを入力するマイクを設けた例を説明したが、運転者及び同乗者夫々の音声を入力するマイクを設けても良い。
この場合、システムは、入力された音声に発話した発話者のコードを付与し、運転者の音声によるタスクを同乗者の音声によるタスクに優先して制御を行う。
また、単一の全方向指向型マイクで、全乗員の音声を取得することも可能である。
また、乗員夫々の音声を取得する場合、行動誘発系対話では、運転者からの合意ワードによって発話タイミングを決定し、非タスク型指向対話では、運転者又は同乗者の何れかからの終息ワードによって発話タイミングを決定しても良い。
1 (車両用音声対話)システム
4 マイク
9 スピーカ
12b 対話終了ワード判定部
12c 発話タイミング決定部
w3 対話終了ワードデータベース
Claims (4)
- 運転者からの音声入力に応じて対話可能な車両用音声対話システムにおいて、
運転者の音声を入力する音声入力手段と、
同乗者に対する運転者の音声に含まれた対話終了ワードを判定可能な対話終了ワード判定手段と、
前記システムから発話可能な音声出力手段と、
運転者が同乗者と対話している際、前記対話終了ワード判定手段によって対話終了ワードが判定されたときに前記システムから発話を発生可能な発話タイミングを決定する発話タイミング決定手段と、
複数の合意ワードと複数の終息ワードとを記憶した対話終了ワードデータベースとを有し、
前記運転者と同乗者の対話を行動誘発系対話と前記行動誘発系対話以外の対話とに分類し、
前記行動誘発系対話のとき、前記合意ワードに基づいて前記発話タイミングを決定し、前記行動誘発系対話以外の対話のとき、前記終息ワードに基づいて前記発話タイミングを決定することを特徴とする車両用音声対話システム。 - 前記合意ワードに基づいて前記発話タイミングを決定したとき、前記行動誘発系対話に関連した発話を行うことを特徴とする請求項1に記載の車両用音声対話システム。
- 前記システムからの発話を、運転者の状態と車両の走行状態のうち、少なくとも一方の状態によって制限することを特徴とする請求項1又は2に記載の車両用音声対話システム。
- 運転者からの音声入力に応じて対話可能な車両用音声対話システムにおいて、
運転者の音声を入力する音声入力手段と、
同乗者に対する運転者の音声に含まれた対話終了ワードを判定可能な対話終了ワード判定手段と、
前記システムから発話可能な音声出力手段と、
運転者が同乗者と対話している際、前記対話終了ワード判定手段によって対話終了ワードが判定されたときに前記システムから発話を発生可能な発話タイミングを決定する発話タイミング決定手段と、
複数の合意ワードと複数の終息ワードとを記憶した対話終了ワードデータベースとを有し、
前記運転者と同乗者の対話を行動誘発系対話と前記行動誘発系対話以外の対話とに分類し、
前記合意ワードに基づいて前記発話タイミングを決定したとき、前記行動誘発系対話に関連した発話を行うことを特徴とする車両用音声対話システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015089033A JP6202041B2 (ja) | 2015-04-24 | 2015-04-24 | 車両用音声対話システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015089033A JP6202041B2 (ja) | 2015-04-24 | 2015-04-24 | 車両用音声対話システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016206469A JP2016206469A (ja) | 2016-12-08 |
JP6202041B2 true JP6202041B2 (ja) | 2017-09-27 |
Family
ID=57489838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015089033A Active JP6202041B2 (ja) | 2015-04-24 | 2015-04-24 | 車両用音声対話システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6202041B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7060779B2 (ja) * | 2017-03-28 | 2022-04-27 | テイ・エス テック株式会社 | 組み合わせ選定システム |
JP6722347B2 (ja) | 2017-03-31 | 2020-07-15 | 本田技研工業株式会社 | 行動支援システム、行動支援装置、行動支援方法およびプログラム |
KR102437833B1 (ko) | 2017-06-13 | 2022-08-31 | 현대자동차주식회사 | 음성 명령 기반 작업 선택 장치, 차량, 음성 명령 기반 작업 선택 방법 |
JP6819529B2 (ja) * | 2017-09-27 | 2021-01-27 | 株式会社デンソー | 情報処理装置、情報処理システム、及び情報処理方法 |
CN110562260A (zh) * | 2018-05-17 | 2019-12-13 | 现代自动车株式会社 | 对话系统和对话处理方法 |
JP7196426B2 (ja) * | 2018-05-30 | 2022-12-27 | ヤマハ株式会社 | 情報処理方法および情報処理システム |
US11942081B2 (en) | 2018-12-07 | 2024-03-26 | Sony Group Corporation | Information processing device and information processing method for response presentation |
JP7409781B2 (ja) | 2019-04-01 | 2024-01-09 | Lineヤフー株式会社 | 出力プログラム、出力装置及び出力方法 |
CN111107156A (zh) * | 2019-12-26 | 2020-05-05 | 苏州思必驰信息科技有限公司 | 用于主动发起对话的服务端处理方法及服务器、能够主动发起对话的语音交互系统 |
JP2024075801A (ja) * | 2021-03-24 | 2024-06-05 | 株式会社Nttドコモ | 表示制御装置 |
CN115352361A (zh) * | 2022-08-24 | 2022-11-18 | 中国第一汽车股份有限公司 | 一种车辆用隔窗对话方法、装置和车辆 |
CN117496973B (zh) * | 2024-01-02 | 2024-03-19 | 四川蜀天信息技术有限公司 | 一种提升人机对话交互体验感的方法、装置、设备及介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002156241A (ja) * | 2000-11-16 | 2002-05-31 | Matsushita Electric Ind Co Ltd | ナビゲーション装置およびプログラムを記録した記録媒体 |
US8595014B2 (en) * | 2010-04-19 | 2013-11-26 | Qualcomm Incorporated | Providing audible navigation system direction updates during predetermined time windows so as to minimize impact on conversations |
JP6411017B2 (ja) * | 2013-09-27 | 2018-10-24 | クラリオン株式会社 | サーバ、及び、情報処理方法 |
-
2015
- 2015-04-24 JP JP2015089033A patent/JP6202041B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016206469A (ja) | 2016-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6202041B2 (ja) | 車両用音声対話システム | |
KR102562227B1 (ko) | 대화 시스템, 그를 가지는 차량 및 차량의 제어 방법 | |
KR102338990B1 (ko) | 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법 | |
KR102426171B1 (ko) | 대화 시스템, 이를 포함하는 차량 및 대화 서비스 처리 방법 | |
US11282522B2 (en) | Artificial intelligence apparatus and method for recognizing speech of user | |
US11443747B2 (en) | Artificial intelligence apparatus and method for recognizing speech of user in consideration of word usage frequency | |
KR20200000604A (ko) | 대화 시스템 및 대화 처리 방법 | |
US20200058290A1 (en) | Artificial intelligence apparatus for correcting synthesized speech and method thereof | |
KR20200000155A (ko) | 대화 시스템 및 이를 이용한 차량 | |
KR20190131741A (ko) | 대화 시스템 및 대화 처리 방법 | |
KR20200004054A (ko) | 대화 시스템 및 대화 처리 방법 | |
JP6604267B2 (ja) | 音声処理システムおよび音声処理方法 | |
KR102487669B1 (ko) | 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법 | |
US11709065B2 (en) | Information providing device, information providing method, and storage medium | |
JP2020144274A (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
JP2020060861A (ja) | エージェントシステム、エージェント方法、およびプログラム | |
KR20200006738A (ko) | 대화 시스템 및 대화 처리 방법 | |
JP7288781B2 (ja) | 情報提供装置、情報提供方法、およびプログラム | |
KR102448719B1 (ko) | 대화 시스템과 이를 포함하는 차량 및 모바일 기기와 대화 처리 방법 | |
CN116798415A (zh) | 对话管理方法、用户终端和计算机可读记录介质 | |
CA2839285A1 (en) | Hybrid dialog speech recognition for in-vehicle automated interaction and in-vehicle user interfaces requiring minimal cognitive driver processing for same | |
KR20200000621A (ko) | 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법 | |
JP7175221B2 (ja) | エージェント装置、エージェント装置の制御方法、およびプログラム | |
KR20200095636A (ko) | 대화 시스템이 구비된 차량 및 그 제어 방법 | |
JP2020160848A (ja) | サーバ装置、情報提供システム、情報提供方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170425 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170601 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170814 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6202041 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |