JP2017067851A - 対話装置及び対話方法 - Google Patents

対話装置及び対話方法 Download PDF

Info

Publication number
JP2017067851A
JP2017067851A JP2015189977A JP2015189977A JP2017067851A JP 2017067851 A JP2017067851 A JP 2017067851A JP 2015189977 A JP2015189977 A JP 2015189977A JP 2015189977 A JP2015189977 A JP 2015189977A JP 2017067851 A JP2017067851 A JP 2017067851A
Authority
JP
Japan
Prior art keywords
conversation
content information
information
user
sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015189977A
Other languages
English (en)
Other versions
JP2017067851A5 (ja
JP6376096B2 (ja
Inventor
拓哉 岩佐
Takuya Iwasa
拓哉 岩佐
名田 徹
Toru Nada
徹 名田
真 眞鍋
Makoto Manabe
真 眞鍋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2015189977A priority Critical patent/JP6376096B2/ja
Priority to PCT/JP2016/077975 priority patent/WO2017057173A1/ja
Priority to US15/744,435 priority patent/US10872603B2/en
Publication of JP2017067851A publication Critical patent/JP2017067851A/ja
Publication of JP2017067851A5 publication Critical patent/JP2017067851A5/ja
Application granted granted Critical
Publication of JP6376096B2 publication Critical patent/JP6376096B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザとの継続的な会話のために、会話文に用いる情報を変更可能な構成であっても、ユーザに不自然さを感じさせ難い会話文を生成可能な対話装置等の提供。
【解決手段】対話装置100は、ニュース配信サイトNDSからコンテンツ情報を取得し、このコンテンツ情報から生成した会話文を用いてユーザとの会話を行うことができる。対話装置100は、会話文の生成に用いるコンテンツ情報を変更しつつ、ユーザとの会話を継続する。対話装置100は、会話文の生成に用いられる特定のコンテンツ情報に対し、複数の属性情報を設定する。そして対話装置100は、少なくとも一部の属性情報が特定のコンテンツ情報と同一となるような他のコンテンツ情報を、この特定のコンテンツ情報の次に会話文に用いられる候補として、ニュース配信サイトNDSから取得可能である。
【選択図】図1

Description

本発明は、ユーザとの会話を行う対話装置及び対話方法に関する。
従来、対話装置の一種として、例えば特許文献1には、インターネット上の情報源からニュース等の情報を取得可能な応答システムが開示されている。この応答システムは、「なにか最新ニュースを教えて」といったユーザの質問に対して、インターネットから最新のニュース情報を取得し、取得したニュース情報を用いてユーザへ向けて発話される応答文を生成する。
特開2009−37458号公報
さて、本発明の発明者は、特許文献1の応答システムのような単発の質問に応答する対話装置ではなく、雑談のような比較的長い会話をユーザとの間で展開可能な対話装置について、検討を重ねてきた。その過程において、本発明の発明者は、会話文の生成に用いるニュース等の情報を変更しつつ、ユーザとの会話を継続することが可能な構成を想到した。
しかし、ユーザとの継続的な会話において、会話文の生成に用いるニュース等の情報を不用意に変更してしまうと、変更前のニュース情報から生成される会話文と、変更後のニュース情報から生成される会話文とのつながりが希薄になる。その結果、ユーザは、対話装置によって生成される会話文に不自然さを感じる虞があった。
本発明は、このような問題に鑑みてなされたものであり、その目的は、ユーザとの継続的な会話のために、会話文に用いる情報を変更可能な構成であっても、ユーザに不自然さを感じさせ難い会話文を生成可能な対話装置及び対話方法を提供することにある。
上記目的を達成するため、開示された一つの発明は、コンテンツ情報から生成した会話文を用いてユーザとの会話を行う対話装置であって、情報源(NDS)からコンテンツ情報を取得する情報取得部(45)と、会話文の生成に用いるコンテンツ情報を変更しつつ、ユーザとの会話を継続する会話実行部(71,83)と、会話実行部にて会話文の生成に用いられる特定のコンテンツ情報に対し、複数の属性情報を設定する属性設定部(81)と、少なくとも一部の属性情報が特定のコンテンツ情報と同一となるような他のコンテンツ情報を、この特定のコンテンツ情報の次に会話文に用いられる候補として情報取得部に取得させる取得制御部(82)と、を備える対話装置とする。
この発明によれば、特定のコンテンツ情報における属性情報の少なくとも一部は、このコンテンツ情報の次に会話文に用いられる他のコンテンツ情報の属性情報と同一となり得る。故に、これらのコンテンツ情報から生成される各会話文の間には、つながりが確保され得る。以上によれば、ユーザとの継続的な会話のために、会話文に用いるコンテンツ情報を変更可能な構成であっても、対話装置は、ユーザに不自然さを感じさせ難い会話文を生成することができる。
また、開示された他の一つの発明は、情報源(NDS)からコンテンツ情報を情報取得部(45)によって取得し、コンテンツ情報から生成した会話文を用いてユーザとの会話を行う対話方法であって、少なくとも一つのプロセッサ(60a)によって実施されるステップとして、会話文の生成に用いるコンテンツ情報を変更しつつ、ユーザとの会話を継続する会話実行ステップ(S128)と、会話実行ステップにて会話文の生成に用いられる特定のコンテンツ情報に対し、複数の属性情報を設定する属性設定ステップ(S125)と、少なくとも一部の属性情報が特定のコンテンツ情報と同一となるような他のコンテンツ情報を、この特定のコンテンツ情報の次に会話文に用いられる候補として情報取得部に取得させる取得制御ステップ(S161)と、を含む対話方法とする。
以上の対話方法でも、変更前後のコンテンツ情報から生成される各会話文の間につながりが確保され得るので、ユーザに不自然さを感じさせ難い会話文が生成可能となる。
尚、上記括弧内の参照番号は、本発明の理解を容易にすべく、後述する実施形態における具体的な構成との対応関係の一例を示すものにすぎず、本発明の範囲を何ら制限するものではない。
一実施形態による対話装置の全体構成を示すブロック図である。 運転者における覚醒度と運転のパフォーマンスとの相関を説明するYerkes-Dodson Lawを模式的に示す図である。 制御回路に構築される機能ブロック及びサブブロックを説明する図である。 コンテンツ情報の変更に伴う属性情報の変化の推移を説明するための図であって、コンテンツ情報に対し規定される複数のスレッドをリスト化した図である。 制御回路にて実施される会話開始処理を示すフローチャートである。 制御回路にて実施される会話実行処理を示すフローチャートである。 制御回路にて実施される固定スレッド設定処理を示すフローチャートである。 制御回路にて実施されるコンテンツ情報設定処理を示すフローチャートである。
図1に示す本発明の一実施形態による対話装置100は、車両に搭載されており、ユーザとなる車両の搭乗者と会話を行うことができる。対話装置100は、車両の搭乗者のうちで主に運転者と能動的に対話可能である。対話装置100は、図2に示すように、運転者において高い運転パフォーマンスを示し得る通常の覚醒状態が維持されるよう、運転者との会話を行う。加えて対話装置100は、運転者との会話により、漫然状態に陥った運転者及び居眠り状態に陥りかけた運転者の覚醒度を、通常の覚醒状態に引き戻す役割を果たすことができる。
対話装置100は、図1に示すように、車載状態検出器10、音声認識操作スイッチ21、音声入力器23、及び音声再生装置30と電気的に接続されている。加えて対話装置100は、インターネットに接続されており、インターネットを通じて車両の外部から情報を取得することができる。
車載状態検出器10は、車両に搭載された種々のセンサ及び電子機器である。車載状態検出器10には、操舵角センサ11、アクセルポジションセンサ12、GNSS受信器14、車内撮像部16、車外撮像部17、及び車載ECU群19が少なくとも含まれている。
操舵角センサ11は、運転者によって操縦されたステアリングホイールの操舵角を検出し、対話装置100へ向けて検出結果を出力する。アクセルポジションセンサ12は、運転者によって操作されたアクセルペダルの踏み込み量を検出し、対話装置100へ向けて検出結果を出力する。
GNSS(Global Navigation Satellite System)受信器14は、複数の測位衛星から送信される測位信号を受信することにより、車両の現在位置を示す位置情報を取得する。GNSS受信器14は、取得した位置情報を、対話装置100及びナビゲーションECU(後述する)等へ向けて出力する。
車内撮像部16は、例えば近赤外光源と組み合わされた近赤外カメラを有している。近赤外カメラは、車両の室内に取り付けられており、近赤外光源から照射された光によって主に運転者の顔を撮影する。車内撮像部16は、画像解析によって、運転者の両目の視線方向、及び目(まぶた)の開き具合等を、撮影した画像から抽出する。車内撮像部16は、抽出した運転者の視線方向及び目の開き具合等の情報を、対話装置100へ向けて出力する。尚、車内撮像部16は、複数の近赤外カメラ及び可視光カメラ等を有することにより、例えば運転者の顔以外の範囲を撮影し、手及び体の動きを検出することも可能である。
車外撮像部17は、例えば車両の周囲を向けた姿勢にて、車内及び車外に取り付けられた可視光カメラである。車外撮像部17は、車両前方を少なくとも含む車両周囲を撮影する。車外撮像部17は、画像解析によって、進行方向の道路形状及び車両周囲の道路の混雑具合等を、撮影した画像から抽出する。車外撮像部17は、道路形状及び混雑具合等を示す情報を、対話装置100へ向けて出力する。尚、車外撮像部17は、複数の可視光カメラ、近赤外線カメラ、及び距離画像カメラ等を有していてもよい。
車載ECU(Electronic Control Unit)群19は、それぞれマイコン等を主体に構成されており、統合制御ECU、及びナビゲーションECU等を含んでいる。例えば、統合制御ECUからは、助手席及び後部座席に搭乗者が着座しているか否かを示す同乗者情報が対話装置100によって取得可能に出力される。ナビゲーションECUからは、例えば自車両周囲の道路形状を示す情報等が出力される。
音声認識操作スイッチ21は、運転席の周囲に設けられている。音声認識操作スイッチ21には、対話装置100の会話機能について、作動のオン及びオフを切り替えるための操作が車両の搭乗者によって入力される。音声認識操作スイッチ21は、搭乗者による操作情報を、対話装置100へ出力する。尚、対話装置100の会話機能に係る設定値を変更する操作が音声認識操作スイッチ21に入力可能とされていてもよい。
音声入力器23は、車室内に設けられたマイク24を有している。マイク24は、車両の搭乗者によって発せられた会話の音声を電気信号に変換し、音声情報として対話装置100へ向けて出力する。マイク24は、例えばスマートフォン及びタブレット端末等の通信機器に設けられた通話のための構成であってもよい。またマイク24にて集音された音声データは、対話装置100へ無線送信されてもよい。
音声再生装置30は、搭乗者へ向けて情報を出力する出力インターフェースの機能を有する装置である。音声再生装置30は、表示器、音声制御部31、及びスピーカ32を有している。音声制御部31は、会話文の音声データを取得すると、取得した音声データに基づいてスピーカ32を駆動する。スピーカ32は、車室内に設けられており、車室内に音声を出力する。スピーカ32は、運転者を含む車両の搭乗者に聞き取られるよう、会話文を再生する。
尚、音声再生装置30は、単純な音響機器であってもよく、又はインスツルメントパネルの上面に設置されたコミュニケーションロボット等であってもよい。さらに、対話装置100に接続されたスマートフォン及びタブレット端末等の通信機器が、音声再生装置30の機能を果たしてもよい。
次に、対話装置100の構成を説明する。対話装置100は、入力情報取得部41、音声情報取得部43、通信処理部45、情報出力部47、状態情報処理回路50、及び制御回路60等によって構成されている。
入力情報取得部41は、音声認識操作スイッチ21と接続されている。入力情報取得部41は、音声認識操作スイッチ21から出力された操作情報を取得し、制御回路60へ提供する。音声情報取得部43は、マイク24と接続された音声入力のためのインターフェースである。音声情報取得部43は、マイク24から出力された音声情報を取得し、制御回路60へ提供する。
通信処理部45は、モバイル通信用のアンテナを有している。通信処理部45は、アンテナを介して、車両外部の基地局との間で情報の送受信を行う。通信処理部45は、基地局を通じてインターネットに接続可能である。通信処理部45は、インターネットを通じて種々のコンテンツ情報を取得可能である。コンテンツ情報には、例えばニュース情報、コラム記事情報、ブログ記事情報、自車両が走行している現在地点周辺の混雑具合を示す渋滞情報といった交通情報、並びに現在地点周辺の人気スポット、イベント、及び天気予報といった地域情報等が含まれる。コンテンツ情報は、例えばインターネット上にある少なくとも一つ以上のニュース配信サイトNDS等から取得される。
情報出力部47は、音声再生装置30と接続された音声出力のためのインターフェースである。情報出力部47は、制御回路60によって生成された音声データを音声再生装置30へ向けて出力する。情報出力部47から出力された音声データは、音声制御部31によって取得され、スピーカ32によって再生される。
状態情報処理回路50は、車載状態検出器10から出力された情報を取得することにより、主に運転者の状態を推定する。状態情報処理回路50は、プロセッサ50a、RAM、及びフラッシュメモリを有するマイクロコンピュータを主体に構成されている。状態情報処理回路50には、車載状態検出器10からの信号を受け取る複数の入力インターフェースが設けられている。状態情報処理回路50は、プロセッサ50aによる所定のプログラムの実行により、負荷判定機能及び覚醒状態判定機能を実現させることができる。
負荷判定機能は、車両が現在走行している道路について、運転者の運転負荷が高いか否かを判定する機能である。状態情報処理回路50は、操舵角センサ11及びアクセルポジションセンサ12から出力される検出結果を取得する。状態情報処理回路50は、取得した検出結果の推移に基づき、ステアリング及びアクセルペダルの少なくとも一方を運転者が忙しく操作していると推定した場合に、現在の運転負荷が高いと判定する。
加えて状態情報処理回路50は、車両が走行中の道路の形状情報、及び自車両周囲の混雑具合を示す交通情報等を取得する。道路の形状情報は、車外撮像部17及びナビゲーションECUから取得可能である。交通情報は、車外撮像部17及び通信処理部45から取得可能である。状態情報処理回路50は、進行方向の道路がカーブ形状である場合、及び車両が渋滞の中を走行していると推定される場合に、現在の運転負荷が高いと判定する。
一方、状態情報処理回路50は、車両が概ね直線状の道路を走行中であり、且つ、周囲を走行する他の車両及び歩行者も僅かである場合に、現在の運転負荷が低いと判定する。また状態情報処理回路50は、ステアリング及びアクセルペダルの操作量の変動が僅かである場合にも、運転負荷が低いと判定することができる。
覚醒状態判定機能は、運転者が漫然状態又は居眠り状態にあるか否かを判定する機能である。状態情報処理回路50は、各センサ11,12から取得した検出結果の推移に基づき、ステアリング又はアクセルペダルの緩慢な操作、及び時折入力される大きな修正操作等を検出した場合に、運転者が漫然状態又は居眠り状態にあると判定する。
加えて状態情報処理回路50は、車内撮像部16から運転者の両目の視線方向及び目の開き具合といった情報を取得する。状態情報処理回路50は、両目の視差が不安定であったり進行方向の物体の知覚に適切な状態でなかったりした場合、及び目の開度の低い状態が継続している場合等に、運転者が漫然状態又は居眠り状態にあると判定する。
制御回路60は、ユーザとの間で交わされる会話を統合的に制御する回路である。制御回路60は、プロセッサ60a、RAM、及びフラッシュメモリを有するマイクロコンピュータを主体に構成されている。制御回路60には、対話装置100の他の構成と接続される入出力インターフェースが設けられている。制御回路60は、プロセッサ60aによる所定のプログラムの実行により、図3に示すような音声認識部61、文章処理部80、及び会話処理部70を、機能ブロックとして構築する。以下、制御回路60に構築される各機能ブロックの詳細を、図3及び図1に基づき説明する。
音声認識部61は、ユーザの発話の内容を取得する。音声認識部61は、音声情報取得部43と接続されており、音声情報取得部43から音声データを取得する。音声認識部61は、取得した音声データを読み込み、テキストデータに変換する。音声認識部61は、対話装置100へ投げ掛けられたユーザの質問、ユーザの独り言、ユーザ同士の会話等、車室内にて運転者を含む搭乗者が発した言葉をテキストデータ化し、文章処理部80へ提供する。
文章処理部80は、通信処理部45を通じてコンテンツ情報を取得し、取得したコンテンツ情報を用いてユーザとの会話に用いられる会話文を生成する。文章処理部80は、テキストデータ化されたユーザの発話の内容を音声認識部61から取得し、ユーザの発言に対応した内容の会話文を生成可能である。文章処理部80は、スレッド設定ブロック81、取得制御ブロック82、優先度設定ブロック84、及び類似度算定ブロック85を、コンテンツ情報から会話文を生成する会話文生成ブロック83と共にサブブロックとして含んでいる。尚、以下の説明では、会話文生成ブロック83にて会話文の生成に用いられているコンテンツ情報を、「特定のコンテンツ情報」と記載する。
スレッド設定ブロック81は、特定のコンテンツ情報に対して、複数のスレッドを規定する。スレッドとされる項目は、キーワード、ジャンルの大分類、ジャンルの詳細、日時、場所、コンテンツ情報の提供元となるニュース配信サイトNDS等である(図4参照)。スレッド設定ブロック81は、複数のスレッドのそれぞれに、コンテンツ情報の内容及び履歴等に対応した属性情報を設定する。例えばキーワードのスレッドには、ニュース情報に登場する人名、団体名、地名、イベント名、物品名、及び施設名といった固有名詞及びニュース情報における重要語が属性情報として設定される。ジャンルの大分類には、スポーツ、経済、政治、及び芸能といった属性情報が設定される。属性情報は、コンテンツ情報のタイトル及び本文を解析することによって設定されてもよく、又はニュース配信サイトNDSにて付与されていたタグ情報に基づいて設定されてもよい。
取得制御ブロック82は、通信処理部45によるコンテンツ情報の取得を制御する。取得制御ブロック82は、特定のコンテンツ情報の次に会話文に用いられる候補として、他のコンテンツ情報を通信処理部45に取得させる。取得制御ブロック82は、少なくとも一部の属性情報が特定のコンテンツ情報と同一となり、一部の属性情報が特定のコンテンツ情報と異なるような他のコンテンツ情報を、通信処理部45に検索させる。
具体的に、取得制御ブロック82は、複数のスレッドのうちで、属性情報を固定する固定スレッドを指定する。複数のスレッドのうちで、固定スレッドに指定されない他のスレッドは、属性情報の変化する遷移スレッドとなる。取得制御ブロック82は、固定スレッドに格納されている属性情報に関連する他のコンテンツ情報を、通信処理部45に取得させる。
取得制御ブロック82は、次に会話文に用いられる候補のコンテンツ情報を取得させる度に、固定スレッドに指定するスレッドを変更可能である。加えて取得制御ブロック82は、固定スレッドに指定するスレッドの数を変更可能である。取得制御ブロック82は、特定のコンテンツ情報に基づく会話に対してユーザが興味や関心を示している場合には、固定スレッドの数を多く設定する。一方で、取得制御ブロック82は、会話に対するユーザの興味や関心が薄い場合には、固定スレッドの数を少なく設定する。
加えて取得制御ブロック82は、音声認識部61を通じて取得されるユーザの発話の内容を解析し、特定のコンテンツ情報に対し設定された各属性情報に関連するワードを抽出する。属性情報に関連するワードをユーザの発話から抽出した場合、取得制御ブロック82は、抽出したワードを固定スレッドの属性情報と共に、他のコンテンツ情報を取得させる際の検索ワードとして用いることができる。その結果、取得制御ブロック82は、特定のコンテンツ情報と内容的な繋がりを有し、且つ、ユーザの興味や関心を惹く確率の高い他のコンテンツ情報を、通信処理部45に取得させることができる。
優先度設定ブロック84は、固定スレッドとして選択されるスレッドの優先順位を設定する。優先度設定ブロック84にて設定される優先順位の高いスレッドが、取得制御ブロック82にて固定スレッドに指定される。優先度設定ブロック84は、音声認識部61にて取得されたユーザの発話の履歴に基づいて、スレッドの優先順位を調整可能である。
例えば優先度設定ブロック84は、属性情報に関連するワードがユーザの発話の内容から抽出された場合に、抽出されたワードに関連するスレッドの優先順位を下げて、抽出されたワードによる属性情報の更新を可能にする(図7 S148参照)。また優先度設定ブロック84は、特定のコンテンツ情報に基づく会話に対してユーザが興味や関心を示している場合には、ジャンルの詳細のスレッドについて優先順位を上げる調整を行う(図7 S146参照)。その結果、ジャンルの詳細のスレッドが固定スレッドに指定され易くなるため、ユーザの関心のある話題が継続される。一方で、会話に対するユーザの興味や関心が薄い場合には、優先度設定ブロック84は、ジャンルの詳細及び提供元の各スレッドについて、優先順位を下げる調整を行う(図7 S144参照)。その結果、会話の話題の変更が可能になる。
類似度算定ブロック85は、特定のコンテンツ情報と、次の会話文の生成に用いられる候補として取得されたコンテンツ情報との類似度を算定する(図8 S162参照)。類似度算定ブロック85は、各コンテンツ情報に含まれる特徴的なワードを比較することにより、類似度を算定する。類似度算定ブロック85にて算定される類似度が予め設定された閾値よりも高いコンテンツ情報は、取得制御ブロック82によって会話文に用いられる候補から除外される(図8 S164参照)。以上の処理により、例えば提供元のニュース配信サイトNDSが異なるものの、実質的に同一の出来事を伝えているコンテンツ情報が連続して会話文の生成に採用される事態は、回避される。
会話文生成ブロック83は、取得制御ブロック82の制御によって取得されたコンテンツ情報のタイトル及び本文の内容を要約することにより、一つのコンテンツ情報から複数の会話文を生成可能である。各会話文の語尾は、話し言葉として自然に感じられるような「〜だよ」,「〜だよね」,「〜ですよ」といった形式とされる。ユーザによって質問が投げ掛けられた場合、会話文生成ブロック83は、音声認識部61にて取得されるユーザの発話を認識し、ユーザの質問に応答する会話文を生成することができる。会話文生成ブロック83は、生成した会話文のテキストデータを会話処理部70へ向けて出力する。
会話文生成ブロック83は、ユーザとの会話を継続させるために、会話文の生成に用いるコンテンツ情報を変更することができる。会話文生成ブロック83は、会話文の生成に用いるコンテンツ情報を変更する場合に、変更後のコンテンツ情報から生成した最初の会話文の冒頭につなぎ文を挿入する。つなぎ文は、例えば、「<キーワード>といえば・・・」,「<日時>は・・・」のように、属性情報を含んでいる。会話の話題が継続された場合、会話文生成ブロック83は、属性情報が変更された遷移スレッドを示唆するつなぎ文を挿入する。一方で、会話の話題が大きく変更された場合、会話文生成ブロック83は、属性情報が維持された固定スレッドを示唆するつなぎ文を挿入する。
会話処理部70は、文章処理部80によって生成された会話文を用いて、ユーザとの会話を行う。会話処理部70は、ユーザとの間にて行われる会話を制御するためのサブブロックとして、対話実行ブロック71及び発話制御ブロック72を含んでいる。
対話実行ブロック71は、会話文生成ブロック83によって生成された会話文のテキストデータを取得し、取得した会話文の音声データを合成する。対話実行ブロック71は、音節接続方式の音声合成を行ってもよく、又はコーパスベース方式の音声合成を行ってもよい。具体的に対話実行ブロック71は、会話文のテキストデータから、発話される際の韻律データを生成する。そして対話実行ブロック71は、予め記憶されている音声波形のデータベースから、韻律データにあわせて音声波形データをつなぎ合わせていく。以上のプロセスにより、対話実行ブロック71は、会話文のテキストデータを音声データ化することができる。対話実行ブロック71は、会話文の音声データを情報出力部47から音声制御部31へ出力させることにより、この会話文をスピーカ32によって発話させる。
発話制御ブロック72は、対話実行ブロック71による会話の実行を制御する。例えば、音声認識操作スイッチ21への操作によって、対話装置100の会話機能をオフ状態にする指示が入力されていた場合に、発話制御ブロック72は、対話実行ブロック71を停止状態にする。
また発話制御ブロック72は、状態情報処理回路50による負荷判定に応じて、対話実行ブロック71の作動ステータスを禁止状態及び許容状態とのうちで切り替える。具体的に対話実行ブロック71は、負荷判定機能によって運転負荷が高いと判定された場合に、対話実行ブロック71の作動ステータスを、発話の開始を禁止する禁止状態とする。一方、負荷判定機能によって運転負荷が低いと判定された場合、発話制御ブロック72は、対話実行ブロック71の作動ステータスを発話の開始を許容する許容状態とする。
さらに発話制御ブロック72は、負荷判定機能によって運転負荷が低いと判定された場合でも、予め設定された禁止条件が成立している場合には、対話実行ブロック71の作動ステータスを許容状態とはせずに、禁止状態に維持する。禁止条件は、適宜設定可能である。例えば発話制御ブロック72は、統合ECUから出力される同乗者情報に基づき、運転者以外の搭乗者が居ると判定されている場合に、禁止条件を成立させることができる。
ここまで説明した制御回路60によって実現されるユーザと対話装置100との会話の一例を、以下説明する。尚、実際の会話では、実存する固有名詞が当然に発話されるが、以下の説明では、直接的な明示を避けるため、下記の<>のような記載とする。
対話装置:「<テニスプレーヤND>がV、際立つ勝負強さ、っていうニュースって知ってた?」
ユーザ :「知らなかった」
対話装置:「<テニスプレーヤND>が全豪オープンで2年ぶり5度目の優勝をしたみたいだよ。」
ユーザ :「決勝の相手は誰だったの?」
対話装置:「<テニスプレーヤAM>だったよ。ベスト4はみんなビッグ4だったみたい。」
ユーザ :「負けた<テニスプレーヤAM>はどんな感じだったんだろう?」
ここで、ユーザが<テニスプレーヤAM>の名前を発話したことにより、制御回路60は、ユーザが会話に高い関心を示したと推定する。制御回路60は、現在の会話の話題を継続させるため、会話文の生成に用いるコンテンツ情報をニュース1からニュース2へと変更する(図4参照)。この場合、<テニスプレーヤAM>という属性情報を設定可能なキーワードのスレッドのみが遷移スレッドとされる。そのため、次の会話文の冒頭には、キーワードのスレッドを示唆するつなぎ文が挿入される。
対話装置:「<テニスプレーヤAM>といえば、準Vの<テニスプレーヤAM>は『恥じることではない』って言ってたみたいだよ。」
ユーザ :「負けたといっても準優勝だからね」
対話装置:「<テニスプレーヤAM>は全豪オープンの決勝で、2010年は<テニスプレーヤRF>に、そして2011年と2013年は<テニスプレーヤND>に負けていて、『また来年も戻って来て、決勝戦ではもう少し違う結果を期待したいね。』と語り、観客から大きな拍手を受けていたよ。」
ユーザ :「結構決勝に行っているんだね」
対話装置:「そして自分にも勝てるチャンスがあったと感じていた<テニスプレーヤAM>は『明らかに最初の3セットでは自分にもチャンスがあった。第4セットは彼に全て持って行かれてしまった。ベースラインからのリターンも最高だった。』と試合を振り返っていたようなんですよ。」
ユーザ :「そっか」
以上の「そっか」のように、ユーザが関心の低い返答をした場合、制御回路60は、会話の話題を変更するために、会話文の生成に用いるコンテンツ情報をニュース2からニュース3へと変更する(図4参照)。この場合、ジャンルの大分類のスレッドと日時のスレッドのみが固定スレッドとされる。そのため、次の会話文の冒頭には、日時のスレッドを示唆するつなぎ文が挿入される。
対話装置:「昨日は、<F1チームRB>、カムフラージュされた新車でテスト走行?っていうF1のニュースもあったよ。」
(以下、会話継続)
以上のような継続的な会話を実現するために、制御回路60にて実施される各処理の詳細をさらに説明する。まず、会話開始処理の詳細を、図5に基づき、図3を参照しつつ説明する。図5に示す会話開始処理の各ステップは、主に会話処理部70によって実施される。会話開始処理は、車両の電源がオン状態とされたことに基づいて開始され、車両の電源がオフ状態とされるまで、繰り返し開始される。
S101では、初期設定として、対話実行ブロック71の作動ステータスを禁止状態に設定し、S102に進む。S102では、状態情報処理回路50(図1参照)による負荷判定の判定結果を取得し、現在のユーザにおける運転負荷が低いか否かを判定する。S102にて、現在の運転負荷が高いと判定した場合、S107に進む。一方、S102にて、運転負荷が低いと判定した場合には、S103に進む。
S103では、禁止条件が成立しているか否かを判定する。一方、S103にて、いずれの禁止条件も成立していないと判定した場合には、S104に進む。S104では、対話実行ブロック71の作動ステータスを、禁止状態から許容状態へと切り替えて、S105に進む。
S105では、会話開始条件が成立しているか否かを判定する。会話開始条件は、例えばユーザが漫然状態又は居眠り状態であるか、運転者の嗜好するカテゴリに属するような新着のコンテンツ情報が有るか、といった条件である。S105にて、会話開始条件が成立していないと判定した場合、会話開始処理を一旦終了する。一方、S105にて、会話開始条件が成立していると判定した場合、S106に進む。
S106では、会話開始処理のサブルーチンとしての会話実行処理(図6参照)を開始し、S107に進む。S107では、会話実行処理が実施中か否かを判定する。S107にて、会話実行処理が継続していると判定されている場合、S107の判定を繰り返すことにより、会話実行処理の終了を待機する。そして、会話実行処理が終了していると判定した場合には、会話開始処理を一旦終了する。
次に、S106にて開始される会話実行処理の詳細を、図6に基づき、図3を参照しつつ説明する。
S121では、ユーザとの会話を開始し、S122に進む。S121により、対話装置100(図1参照)は、「〜って知ってた?」というような会話文にて、ユーザに話しかける。こうしたユーザとの会話は、会話文を生成する会話文生成ブロック83と、生成された会話文を音声データに変換する対話実行ブロック71との協働によって実現される。
S122では、会話終了条件が成立しているか否かを判定する。会話終了条件は、例えばユーザが覚醒状態になった、ユーザから会話終了を指示する発話があった、運転負荷が上昇した等の条件である。S122にて、会話終了条件が成立していると判定した場合、S129に進み、S121にて開始した会話を終了する。一方、S122にて、会話終了条件が成立していないと判定した場合、S123に進む。
S123では、現在の特定のコンテンツ情報から継続して会話文を生成可能か否か判定する。S123にて、会話文の生成の継続が可能と判定した場合、S122及びS123の判定を繰り返すことにより、会話文の生成継続が困難となるのを待機する。そして、コンテンツ情報に含まれる概ね全ての情報を会話文として使用し、さらなる会話文の生成が困難となった場合には、S124に進む。
S124では、特定のコンテンツ情報に対して複数のスレッドを規定し、S125に進む。S125では、各スレッドにコンテンツ情報に対応した属性情報を格納し、S126に進む。S126では、サブルーチンとしての固定スレッド設定処理(図7参照)を開始し、S127に進む。
S127では、サブルーチンとしてのコンテンツ情報設定処理(図8参照)を開始し、S128に進む。S128では、会話文生成ブロック83にて会話文の生成に用いるコンテンツ情報を、S127にて設定されたコンテンツ情報に変更する。そして、新たなコンテンツ情報に基づく会話文を用いて、ユーザとの会話を継続する。
次に、S126にて開始される固定スレッド設定処理の詳細を、図7に基づき、図3を参照しつつ説明する。固定スレッド設定処理によれば、複数のスレッドはそれぞれ、固定スレッド及び遷移スレッドのいずれかに設定される。固定スレッド設定処理の各ステップは、主に文章処理部80の各サブブロックによって実施される。
S141では、固定スレッドとして選択されるスレッドの優先順位を設定するため、優先順位の初期設定値を読み込み、S142に進む。初期設定値は、ランダムに設定された順位であってもよく、ユーザによる操作入力によって予め設定された順位であってもよい。さらに、ユーザとの会話履歴に基づいて初期設定値が設定されてもよい。
S142では、音声認識部61から取得しているユーザの発話の内容から、最新の会話に用いられていた特定のコンテンツ情報に対するユーザの関心が高いか否かを推定する。具体的にS142では、例えばユーザが「そっか」,「ふーん」といった反応を示した場合、又はユーザの反応が無い場合、ユーザの関心が低いと判定する。S142にて、関心が低いと判定した場合には、S143に進む。
S143では、固定スレッドの数を予め設定された低関心所定値に設定し、S144に進む。低関心所定値は、会話の話題が大きく変わるように、例えばスレッドの数の過半数以上の値に設定される。本実施形態の低関心所定値は、「4」に予め設定されている。S144では、ジャンルの詳細及び提供元の各スレッドについて優先順位を下げる調整を行い、S149に進む。S144における優先順位の調整により、ジャンルの詳細及び提供元のスレッドに格納される属性情報が変更され易くなる。
一方、S142にて、ユーザの関心が高いと判定した場合には、S145に進む。S145では、固定スレッドの数を予め設定された高関心所定値に設定し、S146に進む。高関心所定値は、会話の話題が継続されるように、例えばスレッドの数の過半数未満の値に設定される。本実施形態の高関心所定値は、「1」に予め設定されている。高関心所定値は、低関心所定値よりも小さい値とされる。S146では、ジャンルの詳細のスレッドについて優先順位を上げる調整を行い、S147に進む。
S147では、会話実行処理のS125(図6参照)にて設定された属性情報に関連するワードがユーザによって発話されたか否かを判定する。S147にて、属性情報に関連するワードがユーザの発話から抽出されなかった場合、S149に進む。一方、S147にて、属性情報に関連するワードがユーザの発話から抽出された場合には、S148に進む。例えば、キーワードのスレッドに属性情報として<テニスプレーヤND>の名前が設定されている場合、他の著名なテニスプレーヤの名前が属性情報に関連するワードに該当する(図4参照)。
S148では、抽出されたワードに関連するスレッドについて優先順位を最下位へ調整し、且つ、当該スレッドの属性情報を抽出したワードにて更新する。具体的に、上述した会話のように、ユーザが<テニスプレーヤAM>の名前を発した場合には、キーワードのスレッドの優先順位が最下位とされ、当該スレッドの属性情報が、<テニスプレーヤND>から<テニスプレーヤAM>に更新される(図4参照)。S149では、S143又はS145にて設定された固定スレッドの数と、S144又はS146〜S148にて設定された優先順位とに基づき、固定スレッドを指定する。
次に、S127(図6参照)にて開始されるコンテンツ情報設定処理の詳細を、図8に基づき、図3を参照しつつ説明する。コンテンツ情報設定処理によれば、次に会話文の生成に用いられるコンテンツ情報が設定される。コンテンツ情報設定処理の各ステップは、主に文章処理部80の各サブブロックによって実施される。
S161では、S149(図7参照)にて指定された固定スレッドの属性情報が同一となるようなコンテンツ情報をインターネットから取得し、S162に進む。取得制御ブロック82にて属性情報に関連するワードがユーザの発話から抽出されていた場合のS161では、抽出されたワードとも関連の高いコンテンツ情報が取得される。
S162では、S161にて取得したコンテンツ情報と、最新の特定コンテンツ情報との類似度を算定し、S163に進む。S163では、S162にて算定された類似度が予め設定された閾値未満か否かを判定する。S163にて、類似度が閾値以上であると判定した場合、S164に進む。S164では、直前のS161にて取得したコンテンツ情報を会話文に用いる候補から除外し、再びS161に戻る。再度のS161では、各属性情報が同一となるようなコンテンツ情報を再検索する。
一方、S163にて、類似度が閾値未満であると判定した場合、S165に進む。S165では、直前のS161にて取得したコンテンツ情報を、次に会話文の生成に用いるコンテンツ情報に設定し、S166へ進む。S166では、属性情報を更新したスレッド、又は属性情報が維持されたスレッドを示唆するつなぎ文を生成し、コンテンツ情報設定処理を終了する。
ここまで説明した本実施形態によれば、特定のコンテンツ情報における属性情報の少なくとも一部は、このコンテンツ情報の次に会話文に用いられる他のコンテンツ情報の属性情報と同一となり得る。故に、上述したニュース1〜3(図4参照)といった複数のコンテンツ情報から生成される各会話文の間には、内容的なつながりが確保され得る。以上によれば、ユーザとの継続的な会話のために、会話文に用いるコンテンツ情報を変更可能な構成であっても、対話装置100は、ユーザに不自然さを感じさせ難い会話文を生成することができる。
加えて本実施形態によるスレッド設定ブロック81は、次の会話文に用いられる他のコンテンツ情報を通信処理部45に取得させる度に、固定スレッドを変更可能である。その結果、会話文に用いるコンテンツ情報の変更が繰り返されることにより、会話の話題は、段階的に変化していく。したがって、対話装置100は、徐々に話題の変化する自然な会話をユーザとの間において展開可能となる。
また本実施形態によれば、優先度設定ブロック84が固定スレッドとするスレッドの優先順位を調整することにより、会話文に用いられるコンテンツ情報の内容の変化が制御される。この優先度設定ブロック84は、ユーザの発話履歴に基づき、固定スレッドとするスレッドの優先順位を調整可能である。以上によれば、対話装置100は、例えばユーザの反応に応じてコンテンツ情報を変えることにより、ユーザの興味が失われないように、会話を盛り上げていくことができる。
さらに本実施形態によれば、会話文生成ブロック83は、会話文の生成に用いるコンテンツ情報を変更する場合に、変更後のコンテンツ情報から生成される会話文の冒頭につなぎ文を挿入する。つなぎ文は、属性情報が更新されたスレッド、又は属性情報が維持されたスレッドを示唆することにより、変更前後の二つのコンテンツ情報についての内容的な関連をユーザに暗示し得る。その結果、ユーザは、会話文に用いられるコンテンツ情報が変更されても、対話装置100から発話される会話文に違和感を覚え難くなる。
加えて本実施形態によれば、取得制御ブロック82は、類似度算定ブロック85によって算定される類似度に基づき、特定のコンテンツ情報と同一の出来事を示した他のコンテンツ情報を、次の会話文の候補から除外できる。以上によれば、同じ出来事を知らせる会話文が連続して生成され、ユーザの利用意欲を失わせてしまう事態は、回避される。
また本実施形態によれば、展開中の話題に対するユーザの関心が高い場合には、固定スレッドの数が増やされる。その結果、話題の変化が小さくなるため、ユーザの関心の高い状態が維持される。一方で、ユーザの関心が低い場合には、固定スレッドの数は減らされる。その結果、対話装置100は、話題を大きく変えて、新鮮味のある情報を提供することで、ユーザの興味を惹くことができる。
尚、本実施形態において、通信処理部45が「情報取得部」に相当し、音声認識部61が「発話取得部」に相当し、対話実行ブロック71及び会話文生成ブロック83が「会話実行部」に相当する。また、スレッド設定ブロック81が「属性設定部」に相当し、取得制御ブロック82が「取得制御部」に相当し、優先度設定ブロック84が「優先度設定部」に相当し、類似度算定ブロック85が「類似度算定部」に相当する。そして、ニュース配信サイトNDSが「情報源」に相当し、S125が「属性設定ステップ」に相当し、S128が「会話実行ステップ」に相当し、S161が「取得制御ステップ」に相当する。
(他の実施形態)
以上、本発明による一実施形態について説明したが、本発明は、上記実施形態に限定して解釈されるものではなく、本発明の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
上記実施形態による対話装置は、固定スレッドに指定するスレッドを適宜変更する制御により、話題の繋がりを維持しながら、話題を徐々に変えていくことで、ユーザとの会話を広げていくことが可能であった。しかし、対話装置は、コンテンツ情報に対してスレッドを規定することなく、維持する属性情報を適宜変更する制御により、話題の繋がりを維持しながら、話題を徐々に変えていくことも可能である。
上記実施形態による対話装置は、会話文の生成に用いられるコンテンツ情報を変更する際に、会話文の冒頭につなぎ文を挿入していた。こうしたつなぎ文は、会話を自然に繋ぐことが可能な言葉でれば、上記実施形態の例に限定されず、適宜変更可能である。また、つなぎ文の挿入は、行われなくてもよい。
上記実施形態による対話装置は、二つのコンテンツ情報の類似度を算定し、類似度が閾値を超えた場合には、取得したコンテンツ情報を会話文の生成に用いる候補から除外していた。しかし、こうした類似度に基づくコンテンツ情報の選別処理は省略されてもよい。また、コンテンツ情報の提供元であるニュース配信サイトNDSを変更した場合に限り、類似度による判定が実施されてもよい。
上記実施形態における会話開始の条件(図5 S105参照)は、適宜変更可能である。例えば、対話装置は、漫然状態を自覚した運転者が運転席周辺に設けられた対話開始スイッチに対して行う入力や、運転者の「雑談しようよ」といった投げ掛け、或いは搭乗者による特定のキーワードの発話等をきかっけとして、ユーザへの雑談を開始可能である。
上記実施形態では、ユーザの関心が高くなるほど、固定スレッドの数が増やされていた。しかし、固定スレッドに指定される数は、ユーザの関心の高さに係わらず一定であってもよい。また、固定スレッドに指定されるスレッドは、ユーザの発話に関係なく、コンテンツ情報を取得する度に変更されてもよい。
上記実施形態において、対話装置100によって一連の会話が開始される直前には、会話開始をユーザに報知するための報知音が、スピーカ32から出力されてよい。報知音は、ユーザの意識を会話の音声に向けさせることができる。その結果、ユーザは、対話装置100から投げかけられた会話の始まりの部分を聞き逃し難くなる。
上記実施形態では、運転者の顔の様子から漫然状態及び居眠り状態が推定されていた。しかし、例えば車内撮像部によって運転者の手及び体の動きを検出可能であれば、手で目及び顔を擦るような動作や、着座位置及び姿勢を頻繁に直すような動作に基づき、漫然状態及び居眠り状態が推定されてもよい。
上記実施形態では、対話すること自体を目的とした非タスク指向型の会話を対話装置が行っている場合について、詳細を説明した。しかし、対話装置は、上述した雑談のような会話だけでなく、搭乗者から投げかけられた質問に返答する、搭乗者の指定するお店を予約するといったタスク指向型の会話も行うことができる。さらに、非タスク指向型の会話を行っている途中で、一時的にタスク指向型の会話を挟むことも可能である。
上記実施形態において、制御回路60のプロセッサ60aによって提供されていた会話実行に係る各機能は、例えば専用の集積回路によって実現されていてもよい。或いは、複数のプロセッサが協働して、会話の実行に係る各処理を実施してもよい。さらに、上述のものとは異なるハードウェア及びソフトウェア、或いはこれらの組み合わせによって、各機能が提供されてよい。同様に、状態情報処理回路50のプロセッサ50aによって提供されていた運転負荷判定及び覚醒度判定に係る機能も、上述のものとは異なるハードウェア及びソフトウェア、或いはこれらの組み合わせによって提供可能である。さらに、各プロセッサ50a,60aにて実行されるプログラムを記憶する記憶媒体は、フラッシュメモリに限定されない。種々の非遷移的実体的記憶媒体が、プログラムを記憶する構成として採用可能である。
本発明は、スマートフォン及びタブレット端末等の通信機器、並びに車両外部のサーバー等にインストールされる対話制御プログラムにも適用可能である。例えば対話制御プログラムは、車内に持ち込まれる通信端末の記憶媒体に、プロセッサによって実行可能なアプリケーションとして記憶されている。通信端末は、対話制御プログラムに従って運転者と対話可能であり、対話を通じて運転者の覚醒状態を維持させることができる。
また、対話制御プログラムがサーバーの記憶媒体に記憶されている場合、サーバーは、車両及び運転者の状態情報を、インターネットを通じて取得することができる。加えてサーバーは、取得した状態情報に基づき生成した会話文を、車両の音声再生装置へ送信し、スピーカから再生させることができる。以上のように、サーバーに対話制御プログラムがインストールされている場合でも、ユーザである運転者とシステムとの会話が実現できる。そして、サーバー型の対話システムでも、運転者の覚醒状態の維持は可能である。
以上のように、対話制御プログラムを実行する通信機器及びサーバー等によって行われる対話方法は、対話装置によって行われる対話方法と実質同一となり得る。また本発明は、車両に搭載される対話装置だけでなく、ユーザと会話を行う機能を備えた装置、例えば、現金自動預け払い機、玩具、受付用ロボット、介護用ロボット等にも適用可能である。
さらに本発明は、自動運転を行う車両(自律走行車)に搭載される対話装置にも適用可能である。例えば、「システムからの運転操作切り替え要請にドライバーが適切に応じるという条件のもと、特定の運転モードにおいて自動化された運転システムが車両の運転操作を行う」という自動化レベルの自動運転が想定されている。このような自動運転車両では、運転者(オペレータ)は、運転操作のバックアップのために、待機状態を維持する必要がある。そのため、待機状態にある運転者は、漫然状態及び居眠り状態に陥り易くなると推測される。故に、本発明を適用した対話装置は、自動運転システムのバックアップとして待機状態にある運転者の覚醒度を維持する構成としても、好適なのである。
45 通信処理部(情報取得部)、60a プロセッサ、61 音声認識部(発話取得部)、71 対話実行ブロック(会話実行部)、81 スレッド設定ブロック(属性設定部)、82 取得制御ブロック(取得制御部)、83 会話文生成ブロック(会話実行部)、84 優先度設定ブロック(優先度設定部)、85 類似度算定ブロック(類似度算定部)、100 対話装置、NDS ニュース配信サイト(情報源)

Claims (8)

  1. コンテンツ情報から生成した会話文を用いてユーザとの会話を行う対話装置であって、
    情報源(NDS)から前記コンテンツ情報を取得する情報取得部(45)と、
    前記会話文の生成に用いる前記コンテンツ情報を変更しつつ、前記ユーザとの会話を継続する会話実行部(71,83)と、
    前記会話実行部にて前記会話文の生成に用いられる特定のコンテンツ情報に対し、複数の属性情報を設定する属性設定部(81)と、
    少なくとも一部の前記属性情報が前記特定のコンテンツ情報と同一となるような他のコンテンツ情報を、この特定のコンテンツ情報の次に前記会話文に用いられる候補として前記情報取得部に取得させる取得制御部(82)と、を備えることを特徴とする対話装置。
  2. 前記属性設定部は、各前記属性情報が設定される複数のスレッドを前記特定のコンテンツ情報に対して規定し、
    前記取得制御部は、次の前記会話文に用いられる前記他のコンテンツ情報を前記情報取得部に取得させる度に、複数の前記スレッドのうちで前記属性情報を固定する固定スレッドを変更可能であることを特徴とする請求項1に記載の対話装置。
  3. 前記固定スレッドとして選択される前記スレッドの優先順位を設定する優先度設定部(84)、をさらに備え、
    前記取得制御部は、前記優先度設定部にて設定される優先順位の高い前記スレッドを、前記固定スレッドに指定することを特徴とする請求項2に記載の対話装置。
  4. 前記ユーザの発話の内容を取得する発話取得部(61)、をさらに備え、
    前記優先度設定部は、前記発話取得部にて取得された前記ユーザの発話の履歴に基づいて、前記スレッドの優先順位を調整することを特徴とする請求項3に記載の対話装置。
  5. 前記会話実行部は、前記会話文の生成に用いる前記コンテンツ情報を変更した場合に、変更後の前記コンテンツ情報から生成した前記会話文の冒頭に、複数の前記スレッドのうちで前記固定スレッドに指定されなかった遷移スレッドを示唆するつなぎ文を挿入することを特徴とする請求項2〜4のいずれか一項に記載の対話装置。
  6. 前記会話実行部は、前記会話文の生成に用いる前記コンテンツ情報を変更した場合に、変更後の前記コンテンツ情報から生成した前記会話文の冒頭に、前記固定スレッドを示唆するつなぎ文を挿入することを特徴とする請求項2〜5のいずれか一項に記載の対話装置。
  7. 前記特定のコンテンツ情報と前記他のコンテンツ情報との類似度を算定する類似度算定部(85)、をさらに備え、
    前記取得制御部は、前記類似度算定部にて算定された類似度が予め設定された閾値よりも高い前記他のコンテンツ情報を、前記会話実行部にて前記会話文の生成に用いられる候補から除外することを特徴とする請求項1〜6のいずれか一項に記載の対話装置。
  8. 情報源(NDS)からコンテンツ情報を情報取得部(45)によって取得し、前記コンテンツ情報から生成した会話文を用いてユーザとの会話を行う対話方法であって、
    少なくとも一つのプロセッサ(60a)によって実施されるステップとして、
    前記会話文の生成に用いる前記コンテンツ情報を変更しつつ、前記ユーザとの会話を継続する会話実行ステップ(S128)と、
    前記会話実行ステップにて前記会話文の生成に用いられる特定のコンテンツ情報に対し、複数の属性情報を設定する属性設定ステップ(S125)と、
    少なくとも一部の前記属性情報が前記特定のコンテンツ情報と同一となるような他のコンテンツ情報を、この特定のコンテンツ情報の次に前記会話文に用いられる候補として前記情報取得部に取得させる取得制御ステップ(S161)と、を含むことを特徴とする対話方法。
JP2015189977A 2015-09-28 2015-09-28 対話装置及び対話方法 Active JP6376096B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015189977A JP6376096B2 (ja) 2015-09-28 2015-09-28 対話装置及び対話方法
PCT/JP2016/077975 WO2017057173A1 (ja) 2015-09-28 2016-09-23 対話装置及び対話方法
US15/744,435 US10872603B2 (en) 2015-09-28 2016-09-23 Dialog device and dialog method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015189977A JP6376096B2 (ja) 2015-09-28 2015-09-28 対話装置及び対話方法

Publications (3)

Publication Number Publication Date
JP2017067851A true JP2017067851A (ja) 2017-04-06
JP2017067851A5 JP2017067851A5 (ja) 2017-08-03
JP6376096B2 JP6376096B2 (ja) 2018-08-22

Family

ID=58423413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015189977A Active JP6376096B2 (ja) 2015-09-28 2015-09-28 対話装置及び対話方法

Country Status (3)

Country Link
US (1) US10872603B2 (ja)
JP (1) JP6376096B2 (ja)
WO (1) WO2017057173A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021144633A (ja) * 2020-03-13 2021-09-24 Kddi株式会社 ユーザの関心度に応じて対話内容を切り替える対話装置、プログラム及び方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11514903B2 (en) * 2017-08-04 2022-11-29 Sony Corporation Information processing device and information processing method
US11404075B1 (en) * 2017-11-09 2022-08-02 Amazon Technologies, Inc. Vehicle voice user interface
US11273778B1 (en) * 2017-11-09 2022-03-15 Amazon Technologies, Inc. Vehicle voice user interface
JP2019101264A (ja) * 2017-12-04 2019-06-24 シャープ株式会社 外部制御装置、音声対話型制御システム、制御方法、およびプログラム
WO2019133698A1 (en) * 2017-12-29 2019-07-04 DMAI, Inc. System and method for personalizing dialogue based on user's appearances
CN112074899A (zh) * 2017-12-29 2020-12-11 得麦股份有限公司 基于多模态传感输入的人机对话的智能发起的系统和方法
US11504856B2 (en) 2017-12-29 2022-11-22 DMAI, Inc. System and method for selective animatronic peripheral response for human machine dialogue
WO2019133710A1 (en) 2017-12-29 2019-07-04 DMAI, Inc. System and method for dialogue management
WO2019160613A1 (en) 2018-02-15 2019-08-22 DMAI, Inc. System and method for dynamic program configuration
WO2020054694A1 (ja) * 2018-09-13 2020-03-19 マクセル株式会社 ヘッドアップディスプレイシステム
US20190051302A1 (en) * 2018-09-24 2019-02-14 Intel Corporation Technologies for contextual natural language generation in a vehicle
WO2023286827A1 (ja) * 2021-07-14 2023-01-19 パイオニア株式会社 コンテンツ出力装置、コンテンツ出力方法、プログラム及び記憶媒体

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188784A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8126713B2 (en) * 2002-04-11 2012-02-28 Shengyang Huang Conversation control system and conversation control method
JP2004070876A (ja) 2002-08-09 2004-03-04 Casio Comput Co Ltd 会話システム及び会話処理プログラム
US7881934B2 (en) * 2003-09-12 2011-02-01 Toyota Infotechnology Center Co., Ltd. Method and system for adjusting the voice prompt of an interactive system based upon the user's state
GB0411377D0 (en) * 2004-05-21 2004-06-23 Univ Belfast Dialogue manager
JP4629560B2 (ja) 2004-12-01 2011-02-09 本田技研工業株式会社 対話型情報システム
JP2009037458A (ja) 2007-08-02 2009-02-19 Toyota Motor Corp 応答システム、及び応答内容制御方法
JP2010224623A (ja) 2009-03-19 2010-10-07 Nomura Research Institute Ltd 関連記事推奨方法および関連記事推奨プログラム
US20140379815A1 (en) * 2013-06-24 2014-12-25 International Business Machines Corporation Aggregating message responses into topic-organized content
US10997226B2 (en) * 2015-05-21 2021-05-04 Microsoft Technology Licensing, Llc Crafting a response based on sentiment identification

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188784A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021144633A (ja) * 2020-03-13 2021-09-24 Kddi株式会社 ユーザの関心度に応じて対話内容を切り替える対話装置、プログラム及び方法

Also Published As

Publication number Publication date
WO2017057173A1 (ja) 2017-04-06
US10872603B2 (en) 2020-12-22
JP6376096B2 (ja) 2018-08-22
US20180204573A1 (en) 2018-07-19

Similar Documents

Publication Publication Date Title
JP6376096B2 (ja) 対話装置及び対話方法
JP6515764B2 (ja) 対話装置及び対話方法
JP6589514B2 (ja) 対話装置及び対話制御方法
JP7301274B2 (ja) 音声再生装置、及び車両
US10176806B2 (en) Motor vehicle operating device with a correction strategy for voice recognition
EP3955247A1 (en) Modifying operations based on acoustic ambience classification
WO2018152007A1 (en) Determining speaker changes in audio input
KR102445365B1 (ko) 대화 시스템, 이를 포함하는 차량 및 대화 처리 방법
US20190279629A1 (en) Speech system
JP2018205211A (ja) 情報提供装置及び情報提供方法
JP6558180B2 (ja) 情報提供装置及び情報提供制御プログラム
CN109568973B (zh) 对话装置、对话方法、服务器装置及计算机可读存储介质
CN110696756A (zh) 一种车辆的音量控制方法及装置、汽车、存储介质
US11735206B2 (en) Emotionally responsive virtual personal assistant
US11074915B2 (en) Voice interaction device, control method for voice interaction device, and non-transitory recording medium storing program
JP2017068359A (ja) 対話装置及び対話制御方法
CN110737422B (zh) 一种声音信号采集方法及装置
US20200082820A1 (en) Voice interaction device, control method of voice interaction device, and non-transitory recording medium storing program
JP2018116206A (ja) 音声認識装置、音声認識方法及び音声認識システム
JP2016095705A (ja) 不明事項解消処理システム
JP2020144264A (ja) エージェント装置、エージェント装置の制御方法、およびプログラム
JP6555113B2 (ja) 対話装置
JP2021047507A (ja) 通知システム、通知制御装置、通知制御方法、及び通知制御プログラム
KR20230033358A (ko) 차량의 hmi 모드 제공방법 및 장치
CN117083670A (zh) 用于车辆的交互式音频娱乐系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180709

R151 Written notification of patent or utility model registration

Ref document number: 6376096

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250