以下、本発明の実施形態の例を、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。尚、本明細書では、記述の簡略化上、情報、信号、物理量又は部材等を参照する記号又は符号を記すことによって、該記号又は符号に対応する情報、信号、物理量又は部材等の名称を省略又は略記することがある。例えば、後述の“21”によって参照される個人識別用情報は(図3参照)、個人識別用情報21と表記されることもあるし、情報21と略記されることもあり得るが、それらは全て同じものを指す。
図1は本実施形態に係る車内の様子を概略的に示した図である。車内とは車両CRの車室内を指す。本実施形態に係る車載装置1は車両CRに設置される。車両CRは路面上を走行可能な車両(自動車等)であれば任意である。車両CRの運転席からステアリングホイールに向かう向きを「前方」と定義し、車両CRのステアリングから運転席に向かう向きを「後方」と定義する。前後方向に直交し且つ路面に平行な方向を左右方向と定義する。車載装置1は、車両CRの運転席の前方など、車両CR内の適所に設置される。
車両CRに最大でn人の乗員が搭乗することができ、車両CRにはn人の乗員が着席可能な座席が設けられる。本実施形態において、乗員とは、特に記述なき限り、車両CRに搭乗している乗員を指す。nは3以上の任意の整数であって良いが、本実施形態では特に断りなき限り、“n=6”であるとし、車内に6つの座席ST[1]〜ST[6]が設置されているものとする。座席ST[1]は、車両CRの運転操作を行うドライバ(運転手)が着席すべき運転席である。ドライバは前を向いて座席ST[1]に座っているものとし、ドライバから見て座席ST[1]の左側に助手席に相当する座席ST[2]が設置される。ドライバから見て座席ST[1]の後方に座席ST[3]〜ST[6]が設置される。座席ST[3]及びST[4]は車両CRの左右方向に沿って並んでおり、座席ST[5]及びST[6]も車両CRの左右方向に沿って並んでいる。座席ST[1]及びST[5]間の中間に座席ST[3]が位置し、座席ST[2]及びST[6]間の中間に座席ST[4]が位置する。尚、座席ST[1]〜ST[6]の内、2以上の座席は互いに分離されない1つの幅広座席により構成されていても良い。例えば、座席ST[5]及びST[6]は1つの幅広座席にて構成されていても良い。
図2を参照し、車両CRに搭乗している6人の乗員を乗員PS[1]〜PS[6]と称する。乗員PS[1]〜PS[6]は、夫々、座席ST[1]〜ST[6]に着席する。但し、“n=6”であっても、車両CRに実際に搭乗する乗員数は5以下であり得る。図2において、装置TD[1]〜TD[6]は、夫々、乗員PS[1]〜PS[6]が所持している端末装置を表す。各端末装置は、例えば、タブレットのような情報端末、又は、携帯電話機(スマートホンに分類されるものを含む)である。但し、各乗員が端末装置を所持していることは必ずしも必要ではなく、乗員PS[1]〜PS[6]の内、1以上の乗員は端末装置を所持していないこともある。
車内において座席ごとにマイクロホン及びスピーカが設置される。座席ST[i]に対して設置されたマイクロホン及びスピーカを夫々マイクロホンMC[i]及びスピーカSP[i]と称する(iは任意の整数)。マイクロホンMC[i]及びスピーカSP[i]は乗員PS[i]に対して割り当てられたマイクロホン及びスピーカである。各マイクロホンは、対応する乗員の発話内容を音声信号に変換して車載装置1に出力する。各スピーカは、車載装置1から提供される音声信号に基づく音を、対応する乗員に対して出力する。
上述の如く、本実施形態では、特に断りなき限り“n=6”であると考えるが、 “n=6”でない場合には、nの値に応じて座席数が変更される。例えば、“n=4”である場合、車内には座席ST[5]及びST[6]が存在せず、この場合、乗員PS[5]及びPS[6]は存在しないと解すれば良い。
図3に本発明の実施形態に係る車載システムSYSの構成図を示す。車載システムSYSは、車載装置1に加えて、車内カメラ部CM、マイク部MC及びスピーカ部SPと、車載センサ部2、GPS処理部3及び計時部4と、を備える。車載装置1と、車内カメラ部CM、マイク部MC及びスピーカ部SPの夫々とは、互いに直接接続されるか、或いは、車両CR内に形成されたCAN(Controller Area Network)を通じて接続される。車載装置1と車載センサ部2、GPS処理部3及び計時部4との接続についても同様である。車載センサ部2、GPS処理部3及び計時部4の内の全部又は一部は車載装置1の構成要素に含まれると解しても良い。車載装置1は、主制御部10、記憶部20、通信モジュール30及びインターフェース部40を備える。
車内カメラ部CMは、車内に設置され、車内に視野(撮影範囲)を持つ。車内カメラ部CMは、自身の視野内の様子を所定のフレームレートで順次撮影して、撮影結果を示すカメラ画像の画像信号(画像データ)を生成し、生成したカメラ画像の画像信号(以下、カメラ画像信号と称する)を順次主制御部10に送る。車内カメラ部CMは、乗員PS[1]〜PS[6]を撮影することを目的の1つとし、車内カメラ部CMの視野に乗員PS[1]〜PS[6]の全身又は一部(少なくとも顔を含む)が含まれる。故に、カメラ画像信号は乗員PS[1]〜PS[6]の撮影結果を含む。車内カメラ部CMは単一のカメラにて構成されることもあるし、複数のカメラにて構成されることもある。座席ごとに、対応する乗員を撮影するためのカメラを設置するようにしても良い(この場合、計6つのカメラが車内カメラ部CMに含まれることになる)。
マイク部MCは、乗員ごとの発話内容を収音可能な収音部であり、図1に示したマイクロホンMC[1]〜MC[6]から成る。マイクロホンMC[i]は、対応する乗員PS[i]の発話内容を収音し、収音した音を音声信号に変換して出力する。マイクロホンMC[1]〜MC[6]の出力音声信号は主制御部10に入力される。マイクロホンMC[i]は、対応する乗員PS[i]の発話内容を効率的に収音できるよう、座席ST[i]以外の各座席よりも座席ST[i]に近い位置に設置される。対応する乗員の発話内容の収音に適するような指向性を各マイクロホンに持たせても良い。
スピーカ部SPは図1に示したスピーカSP[1]〜SP[6]から成る。スピーカSP[i]は、車載装置1から提供される音声信号に基づく音を、対応する乗員PS[i]に対して出力する。スピーカSP[i]の出力音が、対応する乗員PS[i]に対して聞き取りやすくなるよう且つ他の乗員に聞こえにくくなるよう、座席ST[i]以外の各座席よりも座席ST[i]に近い位置にスピーカSP[i]が設置される。対応する乗員が存在する向きに対し感度が高まるような指向性を各スピーカに持たせても良い。
尚、座席ごとのマイクロホンが車両CRに設置されない場合もある。この場合においては、各乗員が所持する端末装置に内蔵されたマイクロホンにてマイク部MCが構成されて良い。即ち、端末装置TD[1]〜TD[6]に内蔵されたマイクロホンをマイクロホンMC[1]〜MC[6]として用いるようにしても良い。同様に、座席ごとのスピーカが車両CRに設置されない場合もある。この場合においては、各乗員が所持する端末装置に内蔵されたスピーカにてスピーカ部SPが構成されて良い。即ち、端末装置TD[1]〜TD[6]に内蔵されたスピーカをスピーカSP[1]〜SP[6]として用いるようにしても良い。
車載装置1と端末装置TD[1]〜TD[6]の夫々とは、Bluetooth(登録商標)などによる無線通信回線を介して双方向通信が可能である。端末装置TD[i]に内蔵されたマイクロホンをマイクロホンMC[i]として用いる場合、マイクロホンMC[i]の出力音声信号を上記無線通信回線を介して車載装置1(主制御部10)に送信すれば良く、端末装置TD[i]に内蔵されたスピーカをスピーカSP[i]として用いる場合、車載装置1(主制御部10)はスピーカSP[i]から出力されるべき音の音声信号を上記無線通信回線を介して端末装置TD[i]に送信すれば良い。
車載センサ部2は、車両CRに設置された複数の車載センサから成り、各車載センサを用いて車両情報を生成する。車両情報は所定周期で順次生成され、取得された車両情報は順次主制御部10に送られる。車両情報は、車両CRの速度を表す車速情報、車両CRに設けられたアクセルペダルの踏み込み量を表すアクセル情報、車両CRに設けられたブレーキペダルの踏み込み量を表すブレーキ情報、及び、車両CRに設けられたステアリングホイールの操舵角を表す操舵角情報などを含む。
GPS処理部3は、GPS(Global Positioning System)を形成する複数のGPS衛星からの信号を受信することで車両CRの位置(現在地)を検出し、検出位置を示す位置情報を生成する。車両CRの位置とは車両CRの存在位置を意味する。位置情報では、車両CRの位置(現在地)が、地球上における経度及び緯度によって表現される。位置情報は所定周期で順次生成され、生成された位置情報は順次主制御部10に送られる。
計時部4は、現在の日付及び時刻を示す時刻情報を生成して主制御部10に送る。GPS処理部3の受信信号を用いて時刻情報が生成又は修正されても良い。
主制御部10は、エージェント処理部11を備える他、車載装置1の各部位の動作を統括的に制御する機能を備える。主制御部10は、CPU(Central Processing Unit)、ROM(Read only memory)及びRAM(Random access memory)等にて構成され、ROMに格納されたプログラムをCPUが実行することで、エージェント処理部11の機能が実現されて良い。
記憶部20は、主制御部10の制御の下で任意の情報及びデータの読み書きを行う。ここでは、個人識別用情報21及び個人関連情報22が既に記憶部20に記憶されているものとする。情報21及び22の詳細及び利用方法は後述される。尚、情報21及び22が記憶部20に記憶されていることは必須ではない。
通信モジュール30は、車載装置1以外の装置(例えばインターネット網に接続されたサーバ装置)と車載装置1との間で情報を送受信するための通信機能を備え、その情報の送受信は任意の無線通信回線を介して行われる。主制御部10と端末装置TD[1]〜TD[6]との間の通信も、通信モジュール30を介して実現されるものであっても良い。
インターフェース部40は、車載装置1と車両CRの各乗員との間のマンマシンインターフェースであり、表示部41及び操作部42を備える。尚、車載装置1と車両CRの各乗員との間のマンマシンインターフェースの構成要素には、マイク部MC及びスピーカ部SPも含まれる。表示部41は液晶ディスプレイパネル等にて構成される表示装置であり、主制御部10の制御の下で任意の画像を表示できる。操作部42は操作者から任意の操作の入力を受け付ける。操作者は車両CRの乗員である。表示部41及び操作部42によりタッチパネルが構成されていても良く、操作部42への操作はタッチパネルに対する操作であっても良い。
車載装置1は、エージェント処理部11によるエージェント機能に加えて、車両CRの目的地までの経路を案内するナビゲーション機能、オーディオデータやビデオデータを再生する機能、テレビ放送波又はラジオ放送波を受信して受信放送波による映像又は音声を出力する機能など、各種の機能を備えていて良いが、以下では、エージェント機能に注目して、エージェント処理部11の詳細を説明する。
エージェント処理部11は、車両CRの乗員とコミュニケーションをとったり、車両CR内の機器の操作等を自律的に行ったりするエージェント機能を実現する。エージェント処理部11では人工知能を有する疑似人格であるソフトウェアエージェント(以下、エージェントと称する)が形成される。本実施形態において、エージェント処理部11とエージェントは、同じものを指すと解して良い。
ここでは、エージェントと乗員との意思疎通は音声のやり取りを通じて実現されるとする。つまり、エージェント処理部11は(換言すればエージェントは)、マイク部MCを用いて乗員の発話内容を受け取り、必要に応じ、スピーカ部SPを用いて乗員に対し通知すべき内容を音声にて出力する。エージェント処理部11(換言すればエージェント)において、マイクロホンMC[i]の出力音声信号にて示される音声は乗員PS[i]の発話による音声であると認識され、乗員PS[i]に対して何らかの通知を行う際には、スピーカSP[i]を通じて乗員PS[i]に当該通知を行う。
エージェント処理部11は、エージェント機能を実現するための機能ブロックとして、音声認識部12、乗員検出部13、会話検出部14及び応答出力部15を備える。
音声認識部12は、マイクロホンから出力される音声信号に基づき、乗員の発話内容を認識して文字列に変換する。これは、マイクロホンごとに(換言すれば乗員ごとに)行われる。即ち、音声認識部12は、マイクロホンMC[i]の出力音声信号に基づき乗員PS[i]の発話内容を認識して文字列に変換する処理を、マイクロホンMC[1]〜MC[6]の夫々に対して(換言すれば乗員PS[1]〜PS[6]の夫々に対して)行う。エージェントは、変換によって得られた文字列に基づき、乗員PS[1]〜PS[6]の発話内容を個別に認識する。
乗員検出部13は、座席ST[1]〜ST[6]に乗員が座っているのか否か等を示す乗員管理情報を検出する。乗員管理情報は、少なくとも、座席に乗員が座っているのか否かを座席ごとに示す乗員存否情報を含み、乗員ごとに乗員が誰であるのかを特定する個人特定情報を更に含みうる。
乗員管理情報の検出方法は任意である。例えば、エージェントが、乗員管理情報を得るための質問を車両CRの何れかの乗員(例えばドライバ)に対して行い、その質問に対する回答内容から、乗員管理情報を検出しても良い。或いは例えば、車両CRの何れかの乗員が操作部42に対して乗員管理情報を入力することで、乗員検出部13にて乗員管理情報が検出されても良い。
或いは例えば、乗員検出部13は、車内カメラ部CMからのカメラ画像信号に基づき乗員存否情報を検出しても良く、更には、車内カメラ部CMからのカメラ画像信号に基づく個人識別処理により個人特定情報を検出しても良い。個人識別処理により個人特定情報を検出する場合には、乗員が誰であるのかを特定するために有益な個人識別用情報21が予め記憶部20に記憶されているものとし、個人識別用情報21とカメラ画像信号とに基づき個人識別処理を実行する。個人識別用情報21は、登録人物の顔の特徴データを含む。乗員検出部13は、座席ST[i]に座っている乗員PS[i]の顔の画像情報を車内カメラ部CMから取得し、取得した画像情報と登録人物の顔の特徴データとの照合により、乗員PS[i]が登録人物と一致するか否かを判断できる。登録人物を複数設定しておけば、個人識別処理により、乗員PS[1]〜PS[6]が誰であるのかを夫々に特定することが可能である。
会話検出部14は、何れかの乗員間で会話が行われているか否か、及び、何れかの乗員間で会話が行われている場合には会話を行っている乗員が何れの乗員であるのかを検出する会話検出処理を行う。エージェントと何れかの乗員との間でも会話が行われうるが、会話検出部14にて注目される会話とは乗員間の会話を指し、以下で述べる会話とは、特に記述なき限り乗員間の会話を指す。尚、以下では、乗員PS[1]〜PS[6]の内、会話に参加している乗員を会話の参加者と称することがあり、会話に参加していない乗員を会話の非参加者と称することがある。会話検出処理により、乗員PS[1]〜PS[6]が会話の参加者又は会話の非参加者に個別に分類される。
会話検出部14は、少なくともマイク部MCの出力音声信号に基づいて会話検出処理を行う。即ち例えば、乗員PS[i]が発話を行い、乗員PS[i]の発話から所定の発話開始判定時間(例えば10秒)内に、その発話内容に対応する発話を乗員PS[j]が行っていると判断されるとき、会話検出部14は、乗員PS[i]及びPS[j]間で会話が行われていると判断する。ここでi及びjは互いに異なる整数である。会話検出部14は、乗員PS[i]及びPS[j]間で会話が行われていると判断した後、所定の発話開始終了時間(例えば20秒)内に、乗員PS[i]及びPS[j]の何れもが発話を行わかなかったとき、乗員PS[i]及びPS[j]間の会話が終了したと判断する。会話検出部14は、乗員PS[i]に対応するマイクロホンMC[i]の出力音声信号から乗員PS[i]が発話を行っているか否かを判断できる。乗員PS[j]についても同様である。
会話検出部14は、マイク部MCの出力音声信号に加え、車内カメラ部CMからのカメラ画像信号も参照して、会話検出処理を行うようにしても良い。各乗員の外観状況を示したカメラ画像信号も利用することで、会話検出処理の精度を高めることができる。即ち例えば、会話している人間同士は顔又は体を互いに対向させ合うことが多いという知見や、各乗員の視線などに基づき、カメラ画像信号も利用して会話検出処理を行うことで、会話検出処理の精度を高めることができる。この他、公知の任意の方法(例えば、特開2015−71320号公報又は特開2019−68237号公報に示された方法を含む)を用いて会話検出処理を実現しても良い。
応答出力部15は、乗員の何れかから指示を受けたとき、その指示に対応する応答を出力する。乗員からの指示は乗員の発話(換言すれば発声)により実現され、指示に対する応答はスピーカ部SPを用いた音声出力にて実現される。図4を参照し、乗員の指示に応じて応答出力部15から応答が出力される動作の流れを説明する。図4は当該動作のフローチャートである。
まずステップS11において、何れか任意の乗員である乗員PS[i]が指示を出す。乗員PS[i]の指示は、乗員PS[i]がエージェントに対する指示内容を発話することで実現される。
ステップS11に続くステップS12において、エージェント処理部11により乗員PS[i]からの指示を受領する。エージェント処理部11による指示の受領とは、指示における乗員PS[i]の発話内容をマイクロホンMC[i]の出力音声信号の受信によって受け取ることを指す。音声認識部12を用いた文字列への変換処理もステップS12の処理に含まれると解して良い。
その後、ステップS13において、エージェント(応答出力部15)は、受領した指示に対応する応答内容を作成する。例えば、乗員PS[i]からの指示が何らかの情報を求める指示である場合、乗員PS[i]が求める情報を応答内容に含める。
エージェントの一部の機能ブロックである応答出力部15は、記憶部20の記憶内容に基づいて、又は、通信モジュール30を通じて外部装置(例えばインターネット網に接続されたサーバ装置)から取得した情報に基づいて、指示に対する応答内容を作成して良い。記憶部20には、様々な指示に対する応答内容を作成するための情報が格納されており、その情報には、エージェントにおける人工知能が学習した内容を含む。指示の内容として様々な内容が考えられるが、単純な例として、天気予報の通知を要求する指示や、近隣のレストランの存否の通知を要求する指示が挙げられる。
天気予報の通知を要求する指示を受けたとき、応答出力部15は、通信モジュール30を通じて外部装置から天気予報(例えば車両CRの現在地における本日及び明日の天気予報)の情報を取得し、取得した天気予報の情報を応答内容に含める。近隣のレストランの存否の通知を要求する指示を受けたとき、応答出力部15は、記憶部20の記憶内容に基づいて又は通信モジュール30を通じて外部装置から取得した情報に基づいて、車両CRの現在地から所定距離以内に存在するレストランを探索し、探索したレストランの種類や所在地を応答内容に含める。
また、ステップS12における指示の受領後、ステップS14において、エージェント(応答出力部15)は応答対象者を設定する。図4では、ステップS13の処理の後にステップS14の処理が実行されるように示されているが、ステップS13及びS14の処理の実行順序は、その逆でも良く、ステップS13及びS14の処理は並列実行されても良い。
応答対象者は、応答の出力対象者であって、指示を行った乗員PS[i]のみでありうるし、乗員PS[i]を含む2以上の乗員でありうる。
ステップS13及びS14の処理の後、ステップS15において、応答出力部15は、設定した応答対象者に対し、ステップS13にて作成した応答内容による応答を出力する。応答の出力とは、応答対象者に対応するスピーカを通じて、応答内容を示す音声を出力することを指す。従って例えば、応答対象者に乗員PS[1]及びPS[2]が含まれる場合、応答内容を示す音声がスピーカSP[1]を通じて乗員PS[1]に出力されると共にスピーカSP[2]を通じて乗員PS[2]に出力される。乗員PS[1]及びPS[2]以外の乗員が応答対象者に含められる場合も同様である。応答対象者に含まれない乗員に対しては応答内容を示す音声が出力されない。即ち例えば、応答対象者に乗員PS[3]が含まれない場合、スピーカSP[3]から応答内容を示す音声が出力されない(つまり応答内容を示す音声がスピーカSP[3]を通じて乗員PS[3]に出力されない)。乗員PS[3]以外の乗員が応答対象者に含められない場合も同様である。
エージェント処理部11においてウェイクアップワードが設定されていても良い。この場合、任意の乗員PS[i]からウェイクアップワードが発話され、ウェイクアップワードに続いて乗員PS[i]から発話があったとき、ウェイクアップワードに続く発話の内容がエージェントに対する指示であるとエージェント処理部11にて認識される。ウェイクアップワードを利用することで、乗員の或る発話が、エージェントに対する指示であるのか否かを正確に認識できる。但し、人工知能の作りによっては、ウェイクアップワードが設定されていなくとも、乗員の或る発話が、エージェントに対する指示であるのか否かを高精度に認識可能となりうる。
このように、応答出力部15は、車内の何れかの乗員から受けた指示に対する応答を乗員ごとに出力可能となっている。この際、応答出力部15は、各乗員の会話への参加状態に応じて応答方法を決定及び変更できるよう構成されている。具体的には、応答出力部15は、各乗員の会話への参加状態に応じて応答対象者(即ち応答の出力対象者)を決定し、決定内容に従い応答対象者に対して応答を出力するよう構成されている。
このような構成により、会話の参加状態から情報を必要としていると判断される乗員には応答の出力により必要な情報を伝える/情報を必要としていないと判断される乗員には応答を非出力とする、といったことが可能となる。情報を必要としていない乗員に応答が出力されたとき、当該乗員は応答の出力を煩わしく感じることがあるが、上記構成により、このような煩わしさの発生が抑制される。
尚、本実施形態では、ステップS11の指示として、何らかの情報を求める指示を主として想定しているが、指示の内容はこれに限定されない。例えば、ステップS11の指示は、車両CRに搭載されたオーディオ機器(不図示)を用いて音楽を再生することを要求する音楽再生指示であったり、車内の温度を上げる又は下げることを要求する空調指示であったりすることもある。
ステップS11の指示が音楽再生指示であるとき、エージェント処理部11は、上記オーディオ機器にて音楽が再生されるよう上記オーディオ機器を制御する。この際、ステップS15で出力される応答は、例えば単に「分かりました」という文章である。ステップS11の指示が上記空調指示であるとき、エージェント処理部11は、車両CRに搭載された空調機器(不図示)の制御を通じ、乗員からの指示に従う向きに車内の温度を調整する。この際にも、ステップS15で出力される応答は、例えば単に「分かりました」という文章でありうる。但し、応答用の文章は様々に変形されうる。
以下、複数の実施例の中で、車載装置1の具体的な動作例、応用技術、変形技術等を説明する。本実施形態にて上述した事項は、特に記述無き限り且つ矛盾無き限り、以下の各実施例に適用され、各実施例において、上述した事項と矛盾する事項については各実施例での記載が優先されて良い。また矛盾無き限り、以下に示す複数の実施例の内、任意の実施例に記載した事項を、他の任意の実施例に適用することもできる(即ち複数の実施例の内の任意の2以上の実施例を組み合わせることも可能である)。
[実施例EX_A1]
実施例EX_A1を説明する。図5に実施例EX_A1に係る会話の参加状態と指示に対する応答方法を示す。実施例EX_A1では、状況ST1が想定される。状況ST1では、乗員PS[1]及びPS[2]間でのみ会話が行われており、結果、会話検出部14により、乗員PS[1]及びPS[2]が会話の参加者であって且つ乗員PS[3]〜PS[6]が会話の非参加者であると検出されている。また、状況ST1では、乗員PS[1]及びPS[2]間で会話が成されているときに、乗員PS[1]の知りたい情報が発生し、その情報を要求する指示CMDを乗員PS[1]がエージェント(車載装置1)に対して行う。
実施例EX_A1に係る応答出力部15は、指示CMDを受けた後、指示CMDに対する応答内容を含んだ応答RESを乗員PS[1]及びPS[2]に対して出力し、応答RESを乗員PS[3]〜PS[6]に対して出力しない。即ち、乗員PS[1]及びPS[2]を応答対象者(応答RESの出力対象者)に含め、乗員PS[3]〜PS[6]を応答対象者から除外する。
状況ST1において、指示CMDは乗員PS[1]及びPS[2]間の会話の過程で乗員PS[1]に発生した要求事項を含んでいる可能性が高く、この場合、指示CMDに対する応答RESは乗員PS[1]だけでなく乗員PS[2]も欲している可能性が高い。例えば、乗員PS[1]及びPS[2]間で、プロ野球の選手について会話をしていたとき、会話の中で、或るプロ野球選手の出身高校が何れの高校であるのかが話題になったとする。この場合に、乗員PS[1]がエージェントに対し、そのプロ野球選手の出身高校を教えることを指示(CMD)したとき、その指示に対する応答RESは乗員PS[1]だけでなく乗員PS[2]も欲している可能性が高い。そこで、乗員PS[1]及びPS[2]を応答対象者に含める。一方、会話の非参加者は応答RESを欲していない可能性が高く(乗員PS[1]及びPS[2]間の会話に無関心であった可能性が高く)、応答RESを欲していない可能性が高い乗員に対して応答RESを出力すると、応答RESが煩わしく感じられることもある。そこで、会話の非参加者である乗員PS[3]〜PS[6]を応答対象者から除外する。これにより、会話の参加状態から情報を必要としていると推定される乗員には応答RESの出力により必要な情報を伝えることができると共に、情報を必要としていないと推定される乗員には応答RESを非出力とすることで、上記のような煩わしさの発生が抑制される。
[実施例EX_A2]
実施例EX_A2を説明する。図6に実施例EX_A2に係る会話の参加状態と指示に対する応答方法を示す。実施例EX_A2でも上述の状況ST1が想定される。このため、会話の参加者に属する乗員PS[1]からの指示CMDがエージェントにて受領され、応答RESが応答対象者に出力されることになるが、この際、会話の非参加者に属する乗員PS[3]に関連付けられた情報が、指示CMD又は応答RESに含められているものとする。
そうすると、実施例EX_A2に係る応答出力部15は、図6に示す如く、指示CMDを受けた後、指示CMDに対する応答内容を含んだ応答RESを乗員PS[1]〜PS[3]に対して出力し、応答RESを乗員PS[4]〜PS[6]に対して出力しない。即ち、会話の参加者である乗員PS[1]及びPS[2]に加えて乗員PS[3]も応答対象者(応答RESの出力対象者)に含める。ここでは、乗員PS[4]〜PS[6]に関連付けられた情報が指示CMD及び応答RESの何れにも含まれていないものとし、結果、乗員PS[4]〜PS[6]は応答対象者から除外される。但し、図6に示す状況とは異なるが、例えば、乗員PS[5]に関連付けられた情報が指示CMD又は応答RESに含まれているのであれば、乗員PS[5]も応答対象者に追加される。
実施例EX_A2では、乗員検出部13により上述の個人特定情報が検出されていることを前提とし、個人関連情報22(図3参照)が利用される。個人関連情報22には各個人に関連付けられた情報が登録されており、個人関連情報22を参照して、任意の乗員について当該乗員に関連付けられた情報が指示CMD又は応答RESに含まれているか否かを判断する。
説明の具体化のため、乗員PS[1]〜PS[6]は夫々第1〜第6人物であり、乗員検出部13により乗員PS[1]〜PS[6]が夫々第1〜第6人物であることが検出及び認識されている場合を考える。また、第1〜第6人物について個別に1以上のキーワードが個人関連情報22に登録されており、第3人物に対して「アイスクリーム」というキーワードが個人関連情報22に登録されているとする。これらのキーワードは、或る乗員が操作部42への操作を通じてエージェント処理部11に予め入力しておいても良いし、エージェントにおける人工知能が過去の乗員PS[1]〜PS[6]の発話内容から第3人物に対して「アイスクリーム」というキーワードを登録するようにしても良い。即ち例えば、第3人物がアイスクリームを好きであるという意見を何れの乗員が過去において発話していたとき、その発話を受けてエージェント処理部11は「アイスクリーム」のキーワードを第3人物に関連する情報として個人関連情報22に登録する。何れにせよ、状況ST1に至る前に、第3人物に対して「アイスクリーム」というキーワードが個人関連情報22に登録されているとする。
そして、状況ST1において、指示CMDにキーワード「アイスクリーム」が含まれているとき(例えば、指示CMDが「次のパーキングエリアに抹茶のアイスクリームは売っているか教えて?」という指示であるとき)、又は、応答RESにキーワード「アイスクリーム」が含まれているとき(例えば、応答RESが「次のパーキングエリアでは抹茶のアイスクリームが人気です」とう応答内容を含むとき)、応答出力部15は、個人関連情報22に基づき、第3人物としての乗員PS[3]に関連付けられた情報が指示CMD又は応答RESに含まれていると判断して、乗員PS[3]も応答対象者(応答RESの出力対象者)に含める。
この際、第4人物について「アイスクリーム」というキーワードが個人関連情報22に登録されていないのであれば乗員PS[4]は応答対象者に含められず、第5人物について「アイスクリーム」というキーワードが個人関連情報22に登録されているのであれば乗員PS[5]も応答対象者に含められる。第6人物としての乗員PS[6]についても同様である。
実施例EX_A2によれば、本来の応答対象者(図6の例において乗員PS[1]及びPS[2])に加えて、指示又は応答の内容から、応答に対して興味を持つ可能性が高いと推定される乗員(図6の例において乗員PS[3])にも応答が出力される。このため、応答出力の有益性が増す(車載装置1の利便性が高まる)と考えられる。
[実施例EX_A3]
実施例EX_A3を説明する。実施例EX_A3でも上述の状況ST1が想定される。但し、実施例EX_A3では、応答対象者の設定方法が第1段階と第2段階に分けられる。応答対象者の第1段階では実施例EX_A1又はEX_A2に示した方法により応答対象者が設定される。今、実施例EX_A1又はEX_A2による応答対象者の設定方法により、乗員PS[1]〜PS[3]のみが応答対象者に含まれた場合を考える。図7に実施例EX_A3に係る会話の参加状態と指示に対する応答方法を示す。
状況ST1における指示CMDの後、上記第1段階の設定で応答対象者に含まれなかった乗員PS[6]が特定の発話を行うと、第2段階の設定として、応答出力部15は応答対象者に乗員PS[6]を追加する。結果、乗員PS[1]〜PS[3]及びPS[6]に対して応答RESが出力されることになる。第1段階の設定で応答対象者に含まれず且つ特定の発話を行わなかった乗員PS[4]及びPS[5]に対して応答RESは出力されない。
特定の発話は「教えて」という用語を含んだ発話であり、「教えて」という用語を含んだ音声による音声信号がマイクロホンMC[6]から出力されたとき、応答出力部15は乗員PS[6]から特定の発話があったと判断する。予め複数の特定キーワードを記憶部20に設定しておき、何れかの特定キーワードに合致する用語の音声信号がマイクロホンMC[6]から出力されたとき、応答出力部15は乗員PS[6]から特定の発話があったと判断して良い。
特定の発話の受付期間は、例えば、エージェント処理部11による指示CMDの受領時点から開始され、指示CMDの受領時点より所定時間(例えば10秒)が経過すると終了する。受付期間中に乗員PS[6]から特定の発話があったときにのみ、応答出力部15は乗員PS[6]から特定の発話があったと判断して応答RESを乗員PS[6]に出力し、受付期間外に乗員PS[6]から特定の発話があったとしても応答RESを乗員PS[6]に出力しない。
乗員PS[6]が特定の発話を行ったタイミングによって、応答RESが乗員PS[1]〜PS[3]及びPS[6]に対して同時に出力されることもあるし、図7に示す如く、乗員PS[1]〜PS[3]への応答RESの出力から遅れて乗員PS[6]への応答RESの出力が行われることもある。乗員PS[6]から特定の発話があったケースを例に挙げたが、乗員PS[6]以外の乗員についても同様とされる。
本実施例によれば、応答出力部15による一次的な判断により応答対象者に含まれなかった乗員に対しても、乗員の希望に沿って応答を出力することが可能となり、利便性が高まる。
[実施例EX_B1]
実施例EX_B1を説明する。図8及び図9に実施例EX_B1に係る会話の参加状態と指示に対する応答方法を示す。実施例EX_B1では、状況ST2が想定される。状況ST2では、乗員PS[2]及びPS[3]間でのみ会話が行われており、結果、会話検出部14により、乗員PS[2]及びPS[3]が会話の参加者であって且つ乗員PS[1]及びPS[4]〜PS[6]が会話の非参加者であると検出されている。また、状況ST2では、乗員PS[2]及びPS[3]間で会話が成されているときに、乗員PS[1]の知りたい情報が発生し、その情報を要求する指示CMDを乗員PS[1]がエージェント(車載装置1)に対して行う。
実施例EX_B1において、応答出力部15は、設定方法MTD1又はMTD2にて応答対象者の設定を行うことができる。設定方法MTD1及びMTD2の何れか一方による応答対象者の設定が固定的に行われるよう、応答出力部15を設計しておいて良い。
図8は、設定方法MTD1が採用される場合に対応している。設定方法MTD1を採用した応答出力部15は、指示CMDを発信した乗員PS[1]を応答対象者(応答RESの出力対象者)に含め、乗員PS[2]〜PS[6]を応答対象者から除外する。つまり、設定方法MTD1を採用した応答出力部15は、指示CMDを受けた後、指示CMDに対する応答内容を含んだ応答RESを、乗員PS[1]に出力し、乗員PS[2]〜PS[6]には出力しない。
図9は、設定方法MTD2が採用される場合に対応している。設定方法MTD2を採用した応答出力部15は、会話に参加していない各乗員を応答対象者(応答RESの出力対象者)に含め、会話に参加している各乗員を応答対象者から除外する。つまり、設定方法MTD2を採用した応答出力部15は、指示CMDを受けた後、応答RESを乗員PS[1]及びPS[4]〜PS[6]に対して出力し、応答RESを乗員PS[2]及びPS[3]に出力しない。
会話の非参加者の指示CMDに対する応答RESは、会話の参加者にとって必要でないと考えられ、この応答RESが会話中の乗員(図8又は図9の例において乗員PS[2]及びPS[3])にも出力されると、会話中の乗員にとって応答RESが煩わしく感じられることもある。そこで、上述の如く、状況ST2においては、会話の参加者である乗員PS[2]及びPS[3]を応答対象者から除外して応答RESを出力する。つまり、情報を必要とする乗員(指示CMDを発した乗員)又は情報が発信されても煩わしさを感じる可能性が低いと推定される乗員(図8又は図9の例において乗員PS[4]〜PS[6])に対して応答RESを出力しつつ、情報を必要としていないと推定される乗員(図8又は図9の例において乗員PS[2]及びPS[3])には応答RESを非出力とする。結果、上記のような煩わしさの発生が抑制される。
[実施例EX_B2]
実施例EX_B2を説明する。実施例EX_B2でも上述の状況ST2が想定される。このため、会話の非参加者に属する乗員PS[1]からの指示CMDがエージェントにて受領され、応答RESが応答対象者に出力されることになる。この際、まず、指示CMDを発信した乗員PS[1]は応答対象者に含められる。
その上で、応答出力部15は、乗員PS[2]〜PS[6]の何れかに関連付けられた情報が指示CMD又は応答RESに含まれているかを判断し、乗員PS[2]〜PS[6]の内、何れかの乗員に関連付けられた情報が指示CMD又は応答RESに含まれている場合、指示CMD又は応答RESに含まれる情報に関連付けられた乗員を応答対象者に追加する。
従って例えば、状況ST2に属するケースの内、乗員PS[6]に関連付けられた情報が指示CMD又は応答RESに含まれる第1ケースにおいては、乗員PS[6]が応答対象者に追加され、応答出力部15は、図10に示す如く、指示CMDを受けた後に、指示CMDに対する応答内容を含んだ応答RESを乗員PS[1]及びPS[6]に対して出力し、応答RESを乗員PS[2]〜PS[5]に対して出力しない。第1ケースでは、乗員PS[2]〜PS[5]に関連付けられた情報が指示CMD及び応答RESの何れにも含まれていないものとし、結果、乗員PS[2]〜PS[5]は応答対象者から除外される。
或いは例えば、状況ST2に属するケースの内、乗員PS[3]に関連付けられた情報が指示CMD又は応答RESに含まれる第2ケースにおいては、乗員PS[3]が応答対象者に追加され、応答出力部15は、図11に示す如く、指示CMDを受けた後に、指示CMDに対する応答内容を含んだ応答RESを乗員PS[1]及びPS[3]に対して出力し、応答RESを乗員PS[2]及びPS[4]〜PS[6]に対して出力しない。第2ケースでは、乗員PS[2]及びPS[4]〜PS[6]に関連付けられた情報が指示CMD及び応答RESの何れにも含まれていないものとし、結果、乗員PS[2]及びPS[4]〜PS[6]は応答対象者から除外される。
図10及び図11に示す方法は図8の設定方法MTD1を基準としているが、実施例EX_B2において図9の設定方法MTD2を基準とし、会話の非参加者(ここでは乗員PS[1]及びPS[4]〜PS[6])を全て応答対象者に含めた上で、会話の参加者の中から、上述の方法に従って、応答対象者に追加すべき乗員を抽出するようにしても良い。この場合、乗員PS[3]に関連付けられた情報が指示CMD又は応答RESに含まれる第2ケースにおいては、乗員PS[1]及びPS[3]〜PS[6]が応答対象者に含められ、乗員PS[2]のみが応答対象者から除外されることになる。
或いは、実施例EX_B2において、会話の参加者(ここでは乗員PS[2]及びPS[3])が応答対象者に含められることが無いようにしても良い。この場合、会話の非参加者のみを対象にして、応答対象者の設定が行われる。
実施例EX_B2では、上述の実施例EX_A2と同様に、乗員検出部13により上述の個人特定情報が検出されていることを前提とし、個人関連情報22(図3参照)が利用される。個人関連情報22には各個人に関連付けられた情報が登録されており、個人関連情報22を参照して、任意の乗員について当該乗員に関連付けられた情報が指示CMD又は応答RESに含まれているか否かを判断する。この判断方法は、実施例EX_A2にて述べた方法と同じであるため、重複する説明を省略する。
このように、実施例EX_B2では、会話に参加していない或る乗員(ここでは乗員PS[1])から指示CMDを受けた場合において、他の乗員に関連付けられた情報が指示CMD又は応答RESに含まれるとき、応答出力部15は、当該他の乗員を応答の出力対象者に含める。
実施例EX_B2によれば、本来の応答対象者(図10及び図11の例において乗員PS[1])に加えて、指示又は応答の内容から、応答に対して興味を持つ可能性が高いと推定される乗員(図10、図11の例において乗員PS[6]、PS[3])にも応答が出力される。このため、応答出力の有益性が増す(車載装置1の利便性が高まる)と考えられる。
[実施例EX_B3]
実施例EX_B3を説明する。実施例EX_B3でも上述の状況ST2が想定される。但し、実施例EX_B3では、応答対象者の設定方法が第1段階と第2段階に分けられる。応答対象者の第1段階では実施例EX_B1又はEX_B2に示した方法にて応答対象者が設定される。今、実施例EX_B1又はEX_B2による応答対象者の設定方法により、乗員PS[1]のみが応答対象者に含まれた場合を考える。図12に実施例EX_B3に係る会話の参加状態と指示に対する応答方法を示す。
状況ST2における指示CMDの後、上記第1段階の設定で応答対象者に含まれなかった乗員PS[6]が特定の発話を行うと、第2段階の設定として、応答出力部15は応答対象者に乗員PS[6]を追加する。結果、乗員PS[1]及びPS[6]に対して応答RESが出力されることになる。第1段階の設定で応答対象者に含まれず且つ特定の発話を行わなかった乗員PS[2]〜PS[5]に対して応答RESは出力されない。
特定の発話の内容、特定の発話があったか否かの判断方法、及び、特定の発話の受付期間については、実施例EX_A3にて上述した通りである。また、実施例EX_A3で述べたように、乗員PS[6]が特定の発話を行ったタイミングによって、応答RESが乗員PS[1]及びPS[6]に対して同時に出力されることもあるし、図12に示す如く、乗員PS[1]への応答RESの出力から遅れて乗員PS[6]への応答RESの出力が行われることもある。
乗員PS[6]から特定の発話があったケースを例に挙げたが、乗員PS[2]〜PS[5]についても同様とされる。従って例えば、状況ST2において、特定の発話の受付期間内に会話の参加者の一人である乗員PS[3]から特定の発話があったのであれば、応答対象者に乗員PS[3]を追加して、乗員PS[3]にも応答RESを出力するようにしても良い。
図12に示す方法は図8の設定方法MTD1を基準としているが、実施例EX_B3において図9の設定方法MTD2を基準とし、会話の非参加者(ここでは乗員PS[1]及びPS[4]〜PS[6])を全て応答対象者に含めた上で、会話の参加者の中から、上述の方法に従って、応答対象者に追加すべき乗員を抽出するようにしても良い。この場合、特定の発話の受付期間内に会話の参加者の一人である乗員PS[3]から特定の発話があったのであれば、応答対象者に乗員PS[3]が追加され、乗員PS[2]のみが応答対象者から除外されることになる。
本実施例によれば、応答出力部15による一次的な判断により応答対象者に含まれなかった乗員に対しても、乗員の希望に沿って応答を出力することが可能となり、利便性が高まる。
[実施例EX_C]
実施例EX_Cを説明する。図13に実施例EX_Cに係る会話の参加状態と指示に対する応答方法を示す。実施例EX_Cでは状況ST3が想定される。状況ST3では、何れの乗員間でも会話が行われておらず、結果、会話検出部14により、乗員PS[1]〜PS[6]が全て会話の非参加者であると検出されている。状況ST3では、乗員PS[1]〜PS[6]が全て会話の非参加者であると検出されているときに、乗員PS[1]の知りたい情報が発生し、その情報を要求する指示CMDを乗員PS[1]がエージェント(車載装置1)に対して行う。この場合、応答出力部15は、指示CMDを受けた後、指示CMDに対する応答内容を含んだ応答RESを乗員PS[1]に対して出力し、応答RESを乗員PS[2]〜PS[6]に対して出力しない。即ち、乗員PS[1]を応答対象者(応答RESの出力対象者)に含め、乗員PS[2]〜PS[6]を応答対象者から除外する。
但し、実施例EX_Cにおいて、実施例EX_A2又はEX_B2に示す方法を適用しても良い。この場合、応答出力部15は、指示CMDを発信した乗員PS[1]を応答対象者に含めた上で、乗員PS[2]〜PS[6]に関連付けられた情報が指示CMD又は応答RESに含まれているかを乗員ごとに判断し、乗員PS[2]〜PS[6]の内、何れかの乗員に関連付けられた情報が指示CMD又は応答RESに含まれている場合、指示CMD又は応答RESに含まれる情報に関連付けられた乗員を応答対象者に追加する。乗員PS[2]〜PS[6]の内、応答対象者に追加されなかった乗員は応答対象者に含められない。
また、実施例EX_Cにおいて、実施例EX_A3又はEX_B3に示す方法を適用しても良い。この場合、応答出力部15は、指示CMDを発信した乗員PS[1]を応答対象者に含めた上で、乗員PS[2]〜PS[6]の内、特定の発話の受付期間内において特定の発話を行った乗員を応答対象者に追加し、特定の発話の受付期間内において特定の発話を行わなかった乗員を応答対象者に含めない。
[実施例EX_D]
実施例EX_Dを説明する。実施例EX_Dでは、上述の各構成及び各方法に対する応用技術や変形技術等を説明する。
上述の各実施例では、主として乗員PS[1]が指示CMDを発信していることを想定しているが、指示CMDを発信する乗員は、乗員PS[1]〜PS[6]の内の任意の乗員でありうる。
また、乗員PS[1]及びPS[2]が会話を行っているケースや乗員PS[2]及びPS[3]が会話を行っているケースを主に想定して応答対象者の設定方法の具体例を説明したが、乗員PS[1]〜PS[6]の内、何れの乗員が会話の参加者であっても良く、会話の参加者は3以上の乗員でありうる。
乗員からエージェント処理部11への指示が乗員の音声による指示であることを想定したが、乗員からエージェント処理部11への指示は、音声を伴わない指示であっても良い。同様に、エージェント処理部11から乗員への応答が音声による応答であることを想定したが、エージェント処理部11から乗員への応答は、音声を伴わない応答であっても良い。例えば、乗員と車載装置1との間で任意の情報の双方向通信を可能とするタッチパネル(不図示)を乗員ごとに車両CRに設置しておき、当該タッチパネルに対する文字入力により指示(CMDに相当)を行い、当該タッチパネルでの文字表示により応答(RESに相当)が行われるようにしても良い。
本発明の実施形態は、特許請求の範囲に示された技術的思想の範囲内において、適宜、種々の変更が可能である。以上の実施形態は、あくまでも、本発明の実施形態の例であって、本発明ないし各構成要件の用語の意義は、以上の実施形態に記載されたものに制限されるものではない。上述の説明文中に示した具体的な数値は、単なる例示であって、当然の如く、それらを様々な数値に変更することができる。