JP7119372B2 - 違和感対象判別方法及び違和感対象判別装置 - Google Patents

違和感対象判別方法及び違和感対象判別装置 Download PDF

Info

Publication number
JP7119372B2
JP7119372B2 JP2017251379A JP2017251379A JP7119372B2 JP 7119372 B2 JP7119372 B2 JP 7119372B2 JP 2017251379 A JP2017251379 A JP 2017251379A JP 2017251379 A JP2017251379 A JP 2017251379A JP 7119372 B2 JP7119372 B2 JP 7119372B2
Authority
JP
Japan
Prior art keywords
discomfort
events
event
detection
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017251379A
Other languages
English (en)
Other versions
JP2019115513A (ja
Inventor
俊行 清水
ルチアン ギョルゲ
義治 紙透
泰宏 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2017251379A priority Critical patent/JP7119372B2/ja
Publication of JP2019115513A publication Critical patent/JP2019115513A/ja
Application granted granted Critical
Publication of JP7119372B2 publication Critical patent/JP7119372B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、違和感対象判別方法及び違和感対象判別装置に関する。
特許文献1には、選択肢がハイライトされた各タイミングを起点とした脳波信号の事象関連電位(ERP)から、ユーザが選択したいと考えている選択肢に対する事象関連電位を所定の識別方法を用いて識別する手法が記載されている。
国際公開第2009/139119号公報
しかしながら、特許文献1の手法では、短い時間内に複数の事象(イベント)が提示された被験者の違和感が検出された場合、複数のイベントのうちのどのイベントに対して被験者が違和感を覚えたかを判別することができない。
本発明は、短い時間内に複数のイベントが提示された場合に、複数のイベントのうちのどのイベントに対して被験者が違和感を覚えたかを適切に判別することができる違和感対象判別方法及び違和感対象判別装置を提供することを目的とする。
本発明の一態様は、被験者の脳波を測定し、被験者に対して複数のイベントが提示された場合、脳波から被験者の違和感を検出し、違和感の検出タイミングと、複数のイベントに対応する違和感の検出精度とに基づき、複数のイベントのうちから違和感の対象を判別することを特徴とする。
本発明によれば、短い時間内に複数のイベントが提示された場合に、複数のイベントのうちのどのイベントに対して被験者が違和感を覚えたかを適切に判別することができる違和感対象判別方法及び違和感対象判別装置を提供することができる。
第1実施形態に係る違和感対象判別装置を搭載した車両の一例を示す概略図である。 第1実施形態に係る脳波測定の一例を説明するためのグラフである。 第1実施形態に係る車内の情報により発生する違和感の例を説明するための概略図である。 第1実施形態に係る車外の情報により発生する違和感の例を説明するための概略図である。 第1実施形態に係るコントローラの一例を示すブロック図である。 第1実施形態に係る脳波特徴量ベクトルの一例を説明するための概略図である。 第1実施形態に係る特徴空間マップの一例を説明するための概略図である。 第1実施形態に係る違和感対象判別処理の一例を説明するためのグラフである。 第1実施形態に係る脳波特徴量ベクトルを用いた違和感対象判別処理の一例を説明するための概略図である。 第1実施形態に係る違和感対象判別方法の一例を説明するためのフローチャートである。 第2実施形態に係る違和感対象判別処理の一例を説明するためのグラフである。 第2実施形態に係る違和感対象判別方法の一例を説明するためのフローチャートである。 第3実施形態に係る違和感対象判別方法の一例を説明するためのフローチャートである。 その他の実施形態に係る違和感対象判別方法の一例を説明するためのフローチャートである。
以下において、図面を参照して、本発明の第1~第3実施形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を貼付している。但し、図面は模式的なものであり、厚みと平面寸法との関係、厚みの比率等は現実のものとは異なることに留意すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。また、以下に示す本発明の第1~第3実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の材質、形状、構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。
本明細書では、車両に搭乗する運転者を被験者として、被験者が覚えた違和感の対象を判別する違和感対象判別方法及び違和感対象判別装置を例示する。しかしながら、本発明は、被験者が車両の運転者である場合に限定されるものではなく、様々な被験者が覚えた違和感の対象の判別に適用可能である。また、車両に搭乗する運転者以外の同乗者を被験者としてもよい。
(第1実施形態)
第1実施形態に係る違和感対象判別装置5は、図1に示すように、車両1に適用可能である。車両1は、周囲環境センサ2、車内センサ3、車内装置4、違和感対象判別装置5及び制御装置6を備える。違和感対象判別装置5と、周囲環境センサ2、車内センサ3、車内装置4及び制御装置6とは、コントローラエリアネットワーク(CAN)バス等の有線又は無線でデータや信号を送受信可能である。
周囲環境センサ2は、車両1の車外の周囲環境を、車両1の運転者(被験者)7に感知される車外のイベントとして検出するセンサである。周囲環境センサ2は、例えば、車両1の周囲の他車両、歩行者、案内板(道路標識)、信号機、道路区分線、道路境界、路肩、道路周辺の地物等の車両1の周囲の物体を、周囲環境として検出する。周囲環境センサ2は、例えば単眼カメラ、ステレオカメラ等の撮像装置や、レーザレンジファインダ(LRF)やレーダ等の測距装置であってよい。周囲環境センサ2の種類や個数は特に限定されない。周囲環境センサ2は、検出した周囲環境を示す周囲環境信号を違和感対象判別装置5へ出力する。
車内センサ3は、車両1内の車室に搭載され、運転者7に感知される車内環境を車内のイベントとして検出するセンサである。例えば、車内センサ3は、運転者7の聴覚により感知される車内環境を検出するマイク等のセンサであってよい。車内センサ3は、視覚により感知される車内環境や運転者7の視線方向を検出するカメラ等のセンサであってもよい。車内センサ3は、触覚により感知される車内環境を検出する振動センサ等のセンサであってもよい。車内センサ3の種類や個数は特に限定されない。車内センサ3は、検出した車内環境を示す車内環境信号を違和感対象判別装置5へ出力する。
車内装置4は、車両1内の車室に搭載され、運転者7に対して情報を提示する装置である。車内装置4から提示される情報も、運転者7に感知される車内のイベントとなる。例えば、車内装置4は、視覚情報を提示する車載ディスプレイ、インストルメンタルパネルであってよい。車内装置4は、音声案内等の聴覚情報を提示するスピーカ等の音響装置であってもよい。車内装置4は、視覚情報及び聴覚情報を提示するナビゲーション装置であってもよい。車内装置4は、車両シートに内蔵され、振動等の触覚情報を提示するアクチュエータであってもよい。車内装置4は、情報を提示した場合に、情報の提示が行われたことを示す提示実行信号を違和感対象判別装置5へ出力する。
ここで、本明細書における「イベント」とは、運転者7に対して提示したときに、運転者7が視覚的、聴覚的又は触覚的等の感覚的に感知可能な対象(感知対象)であって、被験者が違和感を覚える対象となり得るものを意味する。運転者7は、提示されたイベントが運転者7の想定と異なる場合等に、提示されたイベントに対して違和感を覚え得る。
イベントは、車両1の車内のイベントと、車外のイベントとを含む。車内のイベントは、車内装置4から提示される情報を含む。例えば図2に示すように、ナビゲーション装置の車載ディスプレイ4aから地図表示等のナビゲーション情報が、車内のイベントとして、視覚的に提示される。運転者7は、ナビゲーション情報を視覚によって感知(視認)し、ナビゲーション情報に対して違和感(1)~(3)を覚え得る。違和感(1)は、地図表示のサイズが運転者7の想定と異なることに起因して発生する。違和感(2)は、ナビゲーション情報の内容が運転者7の想定と異なることに起因して発生する。違和感(3)は、地図表示が運転者7の想定と異なることに起因して発生する。また、ナビゲーション装置のスピーカ4bから音声案内が、車内のイベントとして、聴覚的に提示される。運転者7は、音声案内を聴覚によって感知し、音声案内のタイミングや内容が運転者7の想定と異なることに起因して違和感(4)~(6)を覚え得る。
車内のイベントは更に、車内装置4から提示される情報以外の、視覚的、聴覚的又は触覚的な車内環境を含む。例えば図2に示すように、車内の振動が、車内のイベントとして触覚的に提示される。運転者7は、車内の振動を触覚で感知し、車内の振動が運転者7の想定と異なることに起因して違和感(7)を覚える。また、車内の音が車内のイベントとして聴覚的に提示される。運転者7は、車内の音を聴覚で感知し、車内の音が運転者7の想定と異なることに起因して違和感(8)を覚える。
一方、車外のイベントは、車両1の周囲環境の情報を含む。例えば図3に示すように、他車両8の車両1に対する相対速度、相対位置等の挙動が、車外のイベントとして、視覚的に提示される。運転者7は、車両1のフロントウインドウ等を介して他車両8の挙動を視覚的に感知(視認)し、他車両8の挙動が運転者7の想定と異なることに起因して違和感(9),(10)を覚える。また、案内板9が車外のイベントとして視覚的に提示される。運転者7は、車両1のフロントウインドウ等を介して案内板9を視覚的に感知し、案内板9の内容が運転者7の想定と異なることに起因して違和感(11)を覚える。
ここで、特許文献1に記載の手法では、上述したような種々のイベントが短い時間内に複数提示された場合に、運転者7の違和感を検出しても、複数のイベントのうちのどのイベントに対して運転者7が違和感を覚えたかを判別することができなかった。これに対して、図1に示した第1実施形態に係る違和感対象判別装置5によれば、短い時間内に複数のイベントが提示された場合であっても、複数のイベントのうちから運転者7が違和感を覚えた対象を判別可能とするものである。
図1に示した違和感対象判別装置5は、脳活動測定装置(脳波センサ)10及びコントローラ11を備える。脳波センサ10は、車両の運転中にリアルタイムで運転者7の脳活動(脳波)を測定する。脳波センサ10は複数の電極を有し、複数の電極が運転者7の頭部に取り付けられる。脳波センサ10の複数の電極は、例えば図4に示すように、国際10-20法に準拠し、認知機能に関わる運転者7の頭頂部Fz,Fcz,Cz,CPzに配置される。脳波センサ10が有する複数の電極の頭部への取り付け方法は特に限定されないが、例えば複数の電極を設けた装着型の電極キャップやバンド、ネット等で構成されていてもよい。
図1に示したコントローラ11は、電子制御ユニット(ECU)等の処理回路で構成することができる。コントローラ11は、プロセッサ12と、記憶装置13等の周辺部品とを含む。プロセッサ12には、算術論理演算装置(ALU)、制御装置、各種レジスタ等を含む中央演算処理装置(CPU)、画像処理装置(GPU)等に等価なマイクロプロセッサ等を対応させることができる。コントローラ11の論理ブロック群を、フィールド・プログラマブル・ゲート・アレイ(FPGA)等のプログラマブル・ロジック・デバイス(PLD)等で物理的に構成してもよく、汎用の半導体集積回路中にソフトウェアによる処理で等価的に設定される機能的な論理回路等で構成してもよい。コントローラ11の論理ブロック群は、単一のハードウェアから構成されてもよく、別個のハードウェアから構成されてもよい。
記憶装置13は、半導体メモリやディスクメディア等からなり、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM及びRAM等の記憶媒体を含んでいてもよい。例えば、記憶装置13に予め記憶された、第1実施形態に係る違和感対象判別装置5の動作に必要な一連の処理を示すコンピュータプログラムをプロセッサ12が実行し得る。記憶装置13は、コントローラ11による違和感判別処理の際に使用可能な複数の判別方法を記憶した判別方法データベース14を有する。
判別方法データベース14に記憶された複数の判別方法は、例えば、脳波特徴量ベクトルに基づく判別方法を含む。脳波特徴量ベクトルに基づく判別方法は、例えば、被験者が違和感を覚えないイベントを発生させたときに測定した脳波の電位と、違和感を覚えるイベントを発生させたときに測定した脳波の電位の各々の特徴ベクトルPを、特徴空間にプロットした特徴空間マップを使用する。特徴ベクトルPは、例えば図5に示すように所定時間T(例えば500ミリ秒)の脳波信号からN個の特徴量p1,p2,…,pNを抽出し、これらを特徴ベクトルP=(p1,p2,…,pN)に変換することにより生成してよい。特徴量は、例えば一定の等間隔でサンプリングした値等を使用可能である。
図6に、特徴空間マップ80の一例を示す。ハッチングされた丸形のプロット点P1は、被験者が違和感を覚えていないときの特徴ベクトルを示し、ハッチングされていない丸形のプロット点P2は、被験者が違和感を覚えているときの特徴ベクトルを示す。特徴ベクトルP1及び特徴ベクトルP2はそれぞれ、特徴空間内の一定の領域に集中する傾向がある。図6の例では、特徴ベクトルP1は比較的左上の領域D1に集中しており、特徴ベクトルP2は比較的右下の領域D2に集中している。このような特徴ベクトルP1及び特徴ベクトルP2を特徴空間上にプロットして特徴空間マップ80を作成することにより、特徴ベクトルP1が取り得る判別領域D1と、特徴ベクトルP2が取り得る判別領域D2を定義することができる。
例えば、コントローラ11は、運転者7の現在の脳波の特徴ベクトルが判別領域D1内に存在すると判別した判別率Rd1と、判別領域D2内に存在すると判別した判別率Rd2とを算出する。コントローラ11は、判別率Rd1が判別率Rd2よりも大きい場合に、運転者7が違和感を覚えていないと判別する。一方、判別率Rd2が判別率Rd1よりも大きい場合には、コントローラ11は、運転者7が違和感を覚えていると判別する。
また、特徴空間マップ80を作成することにより、特徴ベクトルP1が取り得る範囲と、特徴ベクトルP2が取り得る範囲を区分する判別平面(判別器)20を定義できる。判別平面20は、例えば線形判別法を用いて定義することができる。判別方法データベース14に記憶される複数の判別方法は、判別平面を用いた判別方法を使用してもよい。図6の例では、運転者7の現在の脳波の特徴ベクトルが判別平面20よりも上に位置すれば、コントローラ11は、運転者7が違和感を覚えていないと判別する。一方、運転者7の現在の脳波の特徴ベクトルが判別平面20よりも下に位置すれば、コントローラ11は、運転者7が違和感を覚えていると判別する。
また、判別方法データベース14に記憶される複数の判別方法は、事象関連電位に基づく判別方法と、時間周波数解析に基づく判別方法を含んでいてもよい。即ち、複数の判別方法は、脳波特徴量ベクトルの判別領域に基づく判別方法と、脳波特徴量ベクトルの判別平面に基づく判別方法と、事象関連電位に基づく判別方法と、時間周波数解析に基づく判別方法とを含んでよい。
また、脳波特徴量ベクトルに基づく判別方法において、運転者7が違和感を覚えていないときの特徴ベクトルP1が取り得る複数の判別領域と、運転者7が違和感を覚えているときの特徴ベクトルP2が取り得る複数の判別領域を定義することによって、複数の判別方法を定めてもよい。また、脳波特徴量ベクトルに基づく判別方法において、複数の判別平面を定義することによって、複数の判別方法を定めてもよい。また、事象関連電位を検出する方法において、抽出する事象関連電位の成分を異ならせることによって、複数の判別方法を定めてもよい。
コントローラ11は、図7に示すように、イベント検出部30、違和感判別部31及び対象判別部32等の論理ブロックを機能的若しくは物理的なハードウェア資源として備える。イベント検出部30は、周囲環境センサ2からの周囲環境信号、車内センサ3からの車内環境信号、及び車内装置4からの提示実行信号の少なくともいずれかに基づき、運転者7の周囲のイベントの発生タイミング(発生時刻)を検出する。例えば、車載ディスプレイ4a、スピーカ4b等の車内装置4から情報が出力されたタイミング、車内センサ3により検出した運転者7が車載ディスプレイ4aを見たタイミング、或いは車両1の車外で変化が発生したタイミングを検出する。
例えば、図8に示すように、短い時間内の時刻ta,tb,tcにおいて、複数のイベントA,B,Cが連続して発生した場合を考える。イベントAは、車載ディスプレイ4aに右折を促す矢印を提示する視覚的な情報である。イベントBは、スピーカ4bにより「右折して下さい」と音声案内を行う聴覚的な情報である。イベントCは、振動等の車両1の挙動による触覚的な情報である。
イベント検出部30は、複数のイベントA,B,Cの発生タイミング(発生時刻)ta,tb,tcをそれぞれ検出する。イベント検出部30は更に、所定時間T1内に複数のイベントA,B,Cが発生したか否かを判別する。例えば、イベント検出部30は、最初のイベントAの発生タイミングtaを検出した場合、イベントAの発生タイミングtaから所定時間T1内に他のイベントB,Cが発生したか否かを判別する。所定時間T1は、判別方法データベース14に等に予め記憶されていてもよい。
所定時間T1は、例えば、複数のイベントのそれぞれに対して違和感を検出するための脳波の測定時間の少なくとも一部が重複し、複数のイベントのそれぞれが、測定された1つの脳波パターンから検出される違和感の対象となり得る範囲で適宜設定可能である。所定時間T1は、例えば図8に示すように、イベントAの発生タイミングtaから、イベントAに対する違和感を検出するための通常の脳波の測定時間である所定時間T2の開始時刻までの時間に設定可能である。なお、図8では、所定時間T1の終期と所定時間T2の始期が一致する場合を例示するが、これに限定されない。例えば、所定時間T1の終期が所定時間T2の始期よりも前であってもよく、所定時間T1の終期が所定時間T2の始期よりも後であってもよい。
イベント検出部30は更に、例えば周囲環境センサ2からの周囲環境信号、車内センサ3からの車内環境信号、及び車内装置4からの提示実行信号に基づき、イベントA,B,Cの種類を判別する。イベント検出部30は、イベントA,B,Cの種類として、イベントA,B,Cを提示した装置を判別してよい。この場合、イベントAは車載ディスプレイ4aにより提示されたイベントとして判別され、イベントBはスピーカ4bにより提示されたイベントとして判別される。或いは、イベント検出部30は、イベントA,B,Cの種類として、運転者7がイベントA,B,Cを感知する感覚を判別してもよい。この場合、イベントAは視覚のイベントとして判別され、イベントBは聴覚のイベントとして判別され、イベントCは触覚のイベントとして判別される。
或いは、イベント検出部30は、イベントA,B,Cの種類として、車両1の車内のイベントと、車外のイベントとを判別してもよい。この場合、イベントA,B,Cのいずれもが車内のイベントとして判別される。或いは、イベント検出部30は、イベントA,B,Cの種類として、イベントA,B,Cを提示した装置、運転者7がイベントA,B,Cを感知する感覚、及び車両1の車内のイベントであるか、車外のイベントであるかを少なくとも2つ以上組み合わせて判別してもよい。
違和感判別部31は、脳波センサ10により測定された脳波に基づき、運転者7の違和感を検出する。違和感判別部31は、例えば図8に示すように、最初のイベントAの発生タイミングtaよりも後の所定時間T2において、脳波センサ10により測定された脳波に基づき、運転者7が覚えた違和感を検出する。所定時間T2は適宜設定可能であり、判別方法データベース14に予め記憶されていてもよい。
違和感判別部31は、予め設定された所定の判別方法を用いて運転者7の違和感を検出してもよい。或いは、違和感判別部31は、判別方法データベース14に記憶された複数の判別方法のいずれかを選択し、選択した判別方法を用いて運転者7の違和感を検出してもよい。この場合、違和感判別部31は、イベント検出部30により判別された複数のイベントの種類に基づき、判別方法データベース14に記憶された複数の判別方法のうち、複数のイベントに対する違和感の検出に適した判別方法を選択してもよい。例えば、イベントA,B,Cのいずれもが車内のイベントであるため、車内のイベント対する違和感の検出に適した判別方法を選択してもよい。
対象判別部32は、違和感判別部31により運転者7の違和感が検出された場合、違和感の検出タイミングと、複数のイベントに対応する違和感の検出精度とに基づき、複数のイベントのうちから、運転者7が違和感を覚えた対象を判別する。対象判別部32は、例えば図8に示すように、最初のイベントAの発生タイミングtaから所定時間T3内で振幅が最大(出力電圧が最大値V0)となる時刻t0を違和感の検出タイミングとして設定する。所定時間T3は適宜設定可能であり、判別方法データベース14に予め記憶されていてもよい。また、違和感の検出タイミングは、所定時間T3内で振幅が最大となる時刻t0に必ずしも限定されず、時刻t0に前後して、所定時間T3内の違和感の検出に関連する範囲で適宜設定可能である。なお、図8では、所定時間T3の終期と所定時間T2の終期が一致した場合を例示するが、所定時間T3の終期は所定時間T2の終期よりも前後してもよい。また、対象判別部32は、所定時間T2内で振幅が最大値となる時刻t0を違和感の検出タイミングとして設定してもよい。
対象判別部32は、例えば図8に示すように、複数のイベントA,B,Cの発生タイミングta,tb,tcのそれぞれから、違和感の検出タイミングt0までの時間(違和感発生時間)TA,TB,TCを算出する。対象判別部32は、複数のイベントA,B,C毎の違和感発生時間TA,TB,TCと、複数のイベントA,B,Cに共通の基準時間T4との差分の絶対値|TA-T4|,|TB-T4|,|TC-T4|を検出誤差としてそれぞれ算出する。検出誤差|TA-T4|,|TB-T4|,|TC-T4|が小さいほど、対応するイベントA,B,Cが違和感の対象である可能性(確率)が高くなる。図8では、イベントBの検出誤差|TB-T4|が最も小さく算出され、イベントBが違和感の対象である可能性が相対的に高い。一方、イベントCの検出誤差|TC-T4|が最も大きく算出され、イベントCが違和感の対象である可能性が相対的に低い。
複数のイベントA,B,Cに共通の基準時間T4は、各種のイベントA,B,Cが発生してから違和感を検出し得る標準的な時間等を採用でき、例えば300ミリ秒~600ミリ秒程度に設定される。基準時間T4は、実験データ等に基づき適宜設定可能であり、判別方法データベース14に予め記憶されていてもよい。なお、実際には、イベントA,B,Cの種類によって認知時間が異なるため、イベントA,B,Cの発生から違和感を検出し得る時間が異なる。例えば、右折を促す矢印を視覚的に提示するイベントAは、右折を促す音声案内を聴覚的に提示するイベントBよりも認知し易いため、発生から違和感を検出し得るまでの時間が短い場合がある。
対象判別部32は、検出誤差|TA-T4|,|TB-T4|,|TC-T4|に基づき、複数のイベントA,B,Cのうちから違和感の対象候補を抽出し、違和感の対象候補を絞り込んでもよい。例えば、対象判別部32は、検出誤差|TA-T4|,|TB-T4|,|TC-T4|を所定の閾値と比較して、検出誤差|TA-T4|,|TB-T4|が所定の閾値未満のイベントA,Bを違和感の対象候補として抽出してもよい。一方、検出誤差|TC-T4|が所定の閾値以上のイベントCを違和感の対象候補から除外してもよい。なお、対象判別部32は、検出誤差|TA-T4|,|TB-T4|,|TC-T4|のみに基づき、検出誤差|TB-T4|が最小であるイベントBを違和感の対象と判別することも可能である。
対象判別部32は更に、判別方法データベース14に記憶された複数の判別方法を用いて、脳波センサ10により測定された脳波に基づき、運転者7の違和感の有無をそれぞれ判別する。例えば、複数の判別方法として、感覚器毎に適している複数の判別器を選択することができる。ここでは、視覚的に提示されるイベントに対する違和感の判別に適している判別器Aと、聴覚的に提示されるイベントに対する違和感の判別に適している判別器Bと、車両挙動等の触覚的に提示されるイベントに対する違和感の判別に適している判別器Cとを用いる場合を説明する。即ち、判別器Aは、イベントAに対する違和感の検出に適しており、判別器Bは、イベントBに対する違和感の検出に適しており、判別器Cは、イベントCに対する違和感の検出に適している。対象判別部32は、例えば、判別器A,Bにより違和感が有るとそれぞれ判別し、判別器Cにより違和感が無いと判別する。
なお、複数の判別方法の種類や数はこれに限定されない。例えば、複数の判別方法は、車載ディスプレイ4a、スピーカ4b、ナビゲーション装置、インストルメンタルパネル等、刺激を発生する装置毎に適した判別方法を選択してもよい。或いは、種々のイベント毎に適した複数の判別方法を選択してもよく、車内のイベント及び車外のイベントにそれぞれ適した複数の判別方法を選択してもよい。或いは、感覚器毎に適した複数の判別器、装置毎に適した複数の判別器、イベント毎に適した複数の判別器、車内のイベント及び車外のイベントにそれぞれ適した複数の判別器を組み合わせて選択してもよい。
また、複数の判別方法は、脳波特徴量ベクトルの判別領域に基づく判別方法と、脳波特徴量ベクトルの判別平面に基づく判別方法と、事象関連電位に基づく判別方法と、時間周波数解析に基づく判別方法のいずれであってもよい。
例えば、判別方法データベース14に記憶される複数の判別方法が、判別方法毎に異なる判別領域が定義された脳波特徴量ベクトルに基づく判別方法である場合について説明する。図9に示すように、運転者7が違和感を覚えていないときの特徴ベクトルP1が取り得る複数の判別領域Da1~Dc1と、運転者7が違和感を覚えているときの特徴ベクトルP2が取り得る複数の判別領域Da2~Dc2とが定義される。判別領域Da1及びDa2は第1の判別方法の判別領域であり、判別領域Db1及びDb2は第2の判別方法の判別領域であり、判別領域Dc1及びDc2は第3の判別方法の判別領域である。
対象判別部32は、運転者7の脳波の特徴ベクトルPを算出して、特徴空間マップ80に配置する。対象判別部32は、判別領域Da1~Dc1の重心と特徴ベクトルPと距離Dcrを第1~第3の判別方法毎に算出する。同様に、判別領域Da2~Dc2の重心と特徴ベクトルPと距離Derを第1~第3の判別方法毎に算出する。対象判別部32は、第1~第3の判別方法毎に、これらの距離Dcrと距離Derの比率(Dcr/Der)=Rを算出する。対象判別部32は、比率Rが所定の閾値(例えば閾値=1)以上の場合に違和感が有ると判別し、比率Rが所定の閾値未満の場合に違和感が無いと判別する。
対象判別部32は更に、選択した複数の判別方法による運転者7の違和感の有無の判別結果に基づき、違和感が有ると判別した判別方法について、その判別方法による違和感の検出精度(判別精度)を算出する。例えば図9に示すように、距離Dcrと距離Derの比率Rに基づき、違和感の検出精度を算出する。この場合、対象判別部32は、比率Rが大きいほど、違和感の検出精度を高く算出する。
また、複数の判別方法において互いに異なる判別平面が定義されている場合には、対象判別部32は、特徴ベクトルと判別平面との距離を算出し、算出した距離に基づき、違和感の検出精度を算出する。例えば図6に示すように判別平面20が定義されている場合には、特徴ベクトルP1と判別平面20との距離D1を算出し、算出した距離D1に基づき、違和感の検出精度を算出する。この場合、特徴ベクトルP1と判別平面20との距離D1が大きいほど、違和感の検出精度を高く算出する。違和感の検出精度が高いほど、その判別器による判別に適している種類のイベントが違和感の対象である可能性(確率)が高くなる。
対象判別部32は、例えば、違和感が有ると判別した判別器A,Bについて、判別器Aによる違和感の検出精度を60%と算出し、判別器Bによる違和感の検出精度を90%と算出する。この場合、判別器Aによる判別に適している視覚的なイベントAが違和感の対象である可能性が相対的に低く、判別器Bによる判別に適している聴覚的なイベントBが違和感の対象である可能性が相対的に高い。
対象判別部32は、イベント検出部30により検出された違和感の検出タイミングと、複数のイベントに対応する違和感の検出精度とに基づき、複数のイベントのうちから、運転者7が違和感を覚えたイベントを判別する。例えば、イベントA,B,C毎に適した判別器A,B,Cを用いた場合には、対象判別部32は、イベントA,B,C毎の検出誤差|TA-T4|,|TB-T4|,|TC-T4|及び判別器A,B,Cによる違和感の検出精度をそれぞれ重み付けする。そして、対象判別部32は、イベントA,B,C毎の重み付けされた検出誤差|TA-T4|,|TB-T4|,|TC-T4|と、重み付けされた検出精度とに基づき、運転者7が違和感を覚えた対象を判別してもよい。この場合、イベントA,B,C毎の重み付けされた検出誤差|TA-T4|,|TB-T4|,|TC-T4|と、重み付けされた検出精度との和が最大となるイベントを、運転者7が違和感を覚えた対象として判別してもよい。
或いは、対象判別部32は、イベント検出部30により検出された違和感の検出タイミングに基づき算出される違和感の対象の可能性が最も高いイベントと、複数のイベントに対応する違和感の検出精度に基づき算出される違和感の対象の可能性が最も高いイベントとが一致した場合に、そのイベントを違和感の対象として判別してもよい。例えば、対象判別部32は、図8に示した違和感の検出タイミングt0を用いて算出した検出誤差|TA-T4|,|TB-T4|,|TC-T4|のうち、イベントBの検出誤差|TB-T4|が最小であり、且つ、判別器A,B,Cによりそれぞれ算出された検出精度のうち、イベントBに対する違和感の判別に適する判別器Bによる違和感の検出精度が最大である場合、イベントBを違和感の対象と判別してもよい。
図1に示した制御装置6は、違和感対象判別装置5による違和感の対象の判別結果に応じて、車内装置4の動作や車両1の車両挙動を制御する。例えば、図2に示すように、車内装置4であるナビゲーション装置から提供されるナビゲーション情報や音声案内に対して違和感(1)~(5)を覚えたと判別された場合には、制御装置6は、ナビゲーション装置の設定や動作を変更する。また、車内装置4である空調システムから提供される音声案内に対して違和感(6)を覚えたと判別された場合には、制御装置6は、空調システムの動作を変更する。また、車内の振動や音により違和感(7),(8)を覚えたと判別された場合には、制御装置6は、車内の振動や音の原因を運転者7に提示する。また、車両周囲の物体に対して違和感(9),(10)を覚えたと判別された場合には、車両1に設けられたアクチュエータを駆動して自動操舵制御や自動停止制御を行うことにより、物体を回避するための車両挙動を発生させる。
次に、図10のフローチャートを参照しながら、第1実施形態に係る違和感対象判別方法の一例を説明する。
ステップS1において、イベント検出部30は、例えば図8に示すように、所定時間T1内において複数のイベントA,B,Cの発生タイミングta,tb,tcをそれぞれ検出する。ステップS2において、脳波センサ10は、運転者7の脳波を測定する。なお、脳波センサ10は、ステップS1の開始前から運転者7の脳波を常時測定していてもよい。
ステップS3において、違和感判別部31は、判別方法データベース14に記憶された複数の判別方法のいずれかを用いて、脳波センサ10により測定された運転者7の脳波に基づき、運転者7の違和感の有無を判別する。運転者7の違和感が無いと判別された場合、ステップS1に戻る。一方、ステップS3において運転者7の違和感が有ると判別された場合、ステップS4に移行する。
ステップS4において、対象判別部32は、例えば図8に示すように、複数のイベントA,B,Cの発生タイミングta,tb,tcのそれぞれから違和感の検出タイミングt0までの、複数のイベントA,B,C毎の違和感発生時間TA,TB,TCをそれぞれ算出する。ステップS5において、対象判別部32は、違和感発生時間TA,TB,TCと、複数のイベントA,B,Cに共通の基準時間T4との検出誤差|TA-T4|,|TB-T4|,|TC-T4|をそれぞれ算出する。
ステップS6において、対象判別部32は、検出誤差|TA-T4|,|TB-T4|,|TC-T4|に基づき、運転者7が違和感を覚えた対象候補を抽出する。例えば、対象判別部32は、検出誤差|TC-T4|が所定の閾値以上であるイベントCを、運転者7が違和感を覚えた対象候補から除外する。一方、検出誤差|TA-T4|,|TB-T4|が所定の閾値未満のイベントA,Bを、運転者7が違和感を覚えた対象候補とし、イベントA,Bについて以降のステップS7~S15の処理を行ってもよい。なお、ステップS6は省略し、すべてのイベントA,B,Cについて以降のステップS7~S15の処理を行ってもよい。
ステップS7において、対象判別部32は、判別方法データベース14に記憶された複数のイベントA,B,Cに対応する複数の判別方法(判別器)A,B,Cを選択する。なお、ここでは3つの判別器A,B,Cを例示するが、1つ又は2つの判別器を選択してもよく、4つ以上の判別器を選択してもよい。また、複数のイベントA,B,Cと判別器A,B,Cとは1対1で対応していなくてもよい。例えば、イベントA,Bに対する違和感の検出に適する判別器と、イベントCに対する違和感の検出に適する判別器とを選択してもよい。
ステップS8~S13において、対象判別部32は、選択した複数の判別器A,B,Cを用いて、違和感の有無を判別し、違和感が有ると判別された場合には違和感の検出精度を算出する。即ち、ステップS8において、対象判別部32は、判別器Aを用いて、脳波センサ10により測定された運転者7の脳波に基づき、運転者7の違和感の有無を判別する。運転者7の違和感が有ると判別された場合、ステップS9に移行する。ステップS9において、対象判別部32は、判別器Aを用いて、運転者7の違和感の検出精度を算出する。一方、ステップS8において運転者7の違和感が無いと判別された場合、運転者7の違和感の検出精度を算出する処理は実行せずに、ステップS14に移行する。
ステップS8,S9と並列に、ステップS10において、対象判別部32は、判別器Bを用いて、脳波センサ10により測定された運転者7の脳波に基づき、運転者7の違和感の有無を判別する。運転者7の違和感が有ると判別された場合、ステップS11に移行する。ステップS11において、対象判別部32は、判別器Bを用いて、運転者7の違和感の検出精度を算出する。一方、ステップS10において運転者7の違和感が無いと判別された場合、運転者7の違和感の検出精度を算出する処理は実行せずに、ステップS14に移行する。
ステップS8,S9及びステップS10、S11と並列に、ステップS12において、対象判別部32は、判別器Cを用いて、脳波センサ10により測定された運転者7の脳波に基づき、運転者7の違和感の有無を判別する。運転者7の違和感が有ると判別された場合、ステップS13に移行する。ステップS13において、対象判別部32は、判別器Cを用いて、運転者7の違和感の検出精度を算出する。一方、ステップS12において運転者7の違和感が無いと判別された場合、運転者7の違和感の検出精度を算出する処理は実行せずに、ステップS14に移行する。なお、ステップS8,S10,S12において判別器A,B,Cのいずれかでのみ違和感が有ると判別された場合には、違和感が有ると判別された判別器に対応するイベントを違和感の対象として判別してステップS15に移行してもよい。
ステップS14において、対象判別部32は、ステップS5において算出されたイベントA,B,C毎の検出誤差|TA-T4|,|TB-T4|,|TC-T4|と、ステップS9~S11において算出された違和感の検出精度に基づき、複数のイベントA,B,Cのうちから、運転者7が違和感を覚えた対象を判別する。例えば、対象判別部32は、イベントA,B,C毎の検出誤差|TA-T4|,|TB-T4|,|TC-T4|及び違和感の検出精度をそれぞれ重み付けし、イベントA,B,C毎の重み付けされた検出誤差|TA-T4|,|TB-T4|,|TC-T4|と検出精度とに基づき、運転者7が違和感を覚えた対象を判別する。ステップS15において、制御装置6が、対象判別部32による判別結果に基づき、運転者7の違和感を低減するように車両1の各種アクチュエータや車内装置4等の制御を行う。
以上説明したように、第1実施形態によれば、短い時間内に複数のイベントA,B,Cが提示された場合でも、違和感の検出タイミングt0と、複数のイベントA,B,Cに対応する違和感の検出精度とに基づき違和感の対象を判別することにより、複数のイベントA,B,Cのうちのどのイベントに運転者7が違和感を覚えたかを精度良く適切に判別することができる。例えば、複数のイベントA,B,Cが略同時に発生し、違和感の検出タイミングt0からだけでは違和感の対象を判別し難い場合であっても、複数のイベントA,B,Cに対応する複数の判別方法による違和感の検出精度を用いることで、違和感の対象を適切に判別することができる。一方、複数のイベントA,B,Cに対応する判別方法による検出精度からだけでは違和感の対象を判別し難い場合であっても、違和感の検出タイミングt0を用いることで、違和感の対象を適切に判別することができる。
更に、複数のイベントA,B,Cのそれぞれの発生タイミングta,tb,tcから、違和感の検出タイミングt0までの違和感発生時間TA,TB,TCと、複数のイベントに共通の違和感を検出し得る基準時間T4との検出誤差|TA-T4|,|TB-T4|,|TC-T4|に基づき、違和感の対象を判別する。これにより、検出誤差|TA-T4|,|TB-T4|,|TC-T4|を互いに比較して、複数のイベントA,B,Cのうちのどのイベントに運転者7が違和感を覚えたかを精度良く適切に判別することができる。
更に、複数のイベントA,B,C毎に適した複数の判別方法(判別器)A,B,Cを用いて、複数のイベントA,B,C毎の検出精度をそれぞれ算出し、複数のイベントA,B,C毎の検出精度に基づき、違和感の対象を判別する。これにより、複数のイベントA,B,C毎の検出精度を互いに比較して、複数のイベントA,B,Cのうちのどのイベントに運転者7が違和感を覚えたかを精度良く適切に判別することができる。
更に、複数のイベント毎の検出誤差|TA-T4|,|TB-T4|,|TC-T4|及び違和感の検出精度をそれぞれ所定の係数で重み付けし、複数のイベント毎の重み付けした検出誤差|TA-T4|,|TB-T4|,|TC-T4|と違和感の検出精度とに基づき、違和感の対象を判別する。これにより、違和感の検出タイミングと検出精度の情報を適切に組み合わせることができ、違和感を覚えた対象の判別精度を向上することができる。
(第2実施形態)
第2実施形態に係る違和感対象判別装置の構成は、図1に示した第1実施形態に係る違和感対象判別装置と同様である。第2実施形態に係る違和感対象判別処理の一例を、図11を参照しながら説明する。
図8を参照して説明した第1実施形態に係る違和感対象判別処理と同様に、図11に示すように、時刻ta,tb,tcにおいて、複数のイベントA,B,Cが発生した場合を考える。イベントAは、車載ディスプレイ4aにより右折を促す矢印を視覚的に提示するイベントである。イベントBは、スピーカ4bにより「右折して下さい」と音声案内を行う聴覚的なイベントである。イベントCは、振動等の車両1の挙動による触覚的なイベントである。
図1に示したイベント検出部30は、所定時間T1内の複数のイベントA,B,Cの発生タイミングta,tb,tcをそれぞれ検出する。イベント検出部30は更に、例えば周囲環境センサ2からの周囲環境信号、車内センサ3からの車内環境信号、及び車内装置4からの提示実行信号に基づき、イベントA,B,Cの種類を判別する。
違和感判別部31は、図11に示すように、最初のイベントAの発生タイミングtaよりも後の所定時間T2において、脳波センサ10により測定された脳波に基づき、運転者7が覚えた違和感を検出する。違和感判別部31は、予め設定された所定の判別方法を用いて運転者7の違和感を検出してもよい。或いは、違和感判別部31は、判別方法データベース14に記憶された複数の判別方法のいずれかを選択し、選択した判別方法を用いて運転者7の違和感を検出してもよい。
図1に示した対象判別部32は、違和感判別部31により運転者7の違和感が検出された場合、違和感の検出タイミングと、複数のイベントに対応する違和感の検出精度とに基づき、複数のイベントのうちから、運転者7が違和感を覚えた対象を判別する。対象判別部32は、例えば、最初のイベントAの発生タイミングtaから所定時間内の振幅が最大(出力電圧が最大値V0)となる時刻t0を違和感の検出タイミングとして設定する。対象判別部32は更に、イベント検出部30により検出された複数のイベントA,B,Cの種類に応じて、複数のイベントA,B,C毎に違和感を検出し得る時間範囲(違和感発生時間範囲)RA,RB,RCを設定する。違和感発生時間範囲RA,RB,RCは、実験データ等に基づき適宜設定可能であり、判別方法データベース14に予め記憶されていてもよい。
違和感発生時間範囲RAは、イベントAが発生して違和感が最も早く検出し得るタイミングta1から、違和感が最も遅く検出し得るタイミングta3までの時間で設定される。違和感発生時間範囲RBは、イベントBが発生して違和感が最も早く検出し得るタイミングtb1から、違和感が最も遅く検出し得るタイミングtb3までの時間で設定される。違和感発生時間範囲RCは、イベントCが発生して違和感が最も早く検出し得るタイミングtc1から、違和感が最も遅く検出し得るタイミングtc3までの時間で設定される。複数のイベントA,B,Cの種類に応じて認知時間が異なるため、違和感発生時間範囲RA,RB,RCの始期、終期及び長さ等が互いに異なる。
対象判別部32は、違和感の検出タイミングt0が、複数のイベントA,B,C毎の違和感発生時間範囲RA,RB,RCの範囲外となるか否かを判別してもよい。そして、違和感発生時間範囲RA,RB,RCの範囲外となると判別された場合、そのイベントを違和感の対象候補から除外してもよい。例えば仮に、違和感発生時間範囲RCの違和感が最も早く検出し得るタイミングtc1が、違和感の検出タイミングt0よりも後である場合には、違和感の検出タイミングt0が違和感発生時間範囲RCの範囲外となる。この場合、対象判別部32は、イベントCを違和感の対象候補から除外し、イベントA,Bのみを違和感の対象候補としてもよい。
対象判別部32は更に、複数のイベントA,B,C毎の違和感を検出し得る基準タイミングta2,tb2,tc2を設定する。基準タイミングta2,tb2,tc2は適宜設定可能であり、判別方法データベース14に予め記憶されていてもよい。例えば、基準タイミングta2,tb2,tc2は、違和感発生時間範囲RA,RB,RCの半分の時刻等のように、違和感発生時間範囲RA,RB,RCに基づき設定してもよい。或いは、基準タイミングta2,tb2,tc2は、実験により得られた違和感の検出タイミングの平均値や中央値等であってもよい。換言すれば、複数のイベントA,B,Cの発生タイミングta,tb,tcのそれぞれから、基準タイミングta2,tb2,tc2までの基準時間T5,T6,T7が、複数のイベントA,B,C毎に設定されている。
対象判別部32は、複数のイベントA,B,C毎の基準タイミングta2,tb2,tc2と、違和感の検出タイミングt0との検出誤差|ta2-t0|=EA,|tb2-t0|=EB,|tc2-t0|=ECをそれぞれ算出する。検出誤差EA,EB,ECが小さいほど、対応するイベントA,B,Cが違和感の対象である可能性が高くなる。図11では、検出誤差EAが最も小さく算出され、違和感の対象である可能性が相対的に大きい。一方、検出誤差ECが最も大きく算出され、違和感の対象である可能性が相対的に小さい。
対象判別部32は、検出誤差EA,EB,ECに基づき、複数のイベントA,B,Cのうちから違和感の対象候補を抽出して、違和感の対象候補を絞り込んでもよい。例えば、検出誤差EA,EBが所定の閾値未満であるイベントA,Bを違和感の対象候補とし、検出誤差ECが所定の閾値以上であるイベントCを違和感の対象候補から除外してもよい。なお、対象判別部32は、検出誤差EA,EB,ECのみに基づき、検出誤差EAが最小のイベントAを、違和感の対象と判別することもできる。
次に、図12のフローチャートを参照しながら、第2実施形態に係る違和感対象判別方法の一例を説明する。
図12のステップS1~S3の手順は、図10に示した第1実施形態に係る違和感対象判別方法のステップS1~S3の手順と同様であるので、重複した説明を省略する。第2実施形態では、図12のステップS4x,S5xの手順が、図10に示した第1実施形態に係る違和感対象判別方法のステップS4,S5の手順と異なる。ステップS4xにおいて、対象判別部32は、イベント検出部30により検出された複数のイベントA,B,Cの種類に応じて、複数のイベントA,B,C毎に違和感発生時間範囲RA,RB,RCを設定する。対象判別部32は更に、違和感の検出タイミングt0が、複数のイベントA,B,C毎の違和感発生時間範囲RA,RB,RCの範囲外となるイベントが有る場合には、そのイベントを違和感の対象候補から除外してもよい。
ステップS5xにおいて、対象判別部32は、違和感発生時間範囲RA,RB,RCに基づき設定された複数のイベントA,B,C毎の基準タイミングta2,tb2,tc2と、違和感の検出タイミングt0との検出誤差EA,EB,ECをそれぞれ算出する。なお、基準タイミングta2,tb2,tc2が違和感発生時間範囲RA,RB,RCとは個別に設定されていてもよく、ステップS4xの手順を省略してもよい。
図12のステップS6~S15の手順は、第1の実施形態で説明した検出誤差|TA-T4|,|TB-T4|,|TC-T4|の代わりに検出誤差EA,EB,ECを用いる他は、図10に示した第1実施形態に係る違和感対象判別方法のステップS6~S15の手順と同様であるので、重複した説明を省略する。
以上説明したように、第2実施形態によれば、短い時間内に複数のイベントA,B,Cが提示された場合でも、違和感の検出タイミングt0及び違和感の検出精度に基づき違和感の対象を判別することで、複数のイベントのうちのどのイベントに運転者7が違和感を覚えたかを適切に判別することができる。
更に、複数のイベントA,B,C毎の違和感を検出し得る基準タイミングta2,tb2,tc2と、違和感の検出タイミングt0との検出誤差EA,EB,ECに基づき、違和感の対象を判別する。これにより、複数のイベントA,B,Cの種類が異なり、イベントA,B,C毎の違和感を検出し得るタイミングが異なる場合であっても、複数のイベントA,B,C毎の基準タイミングta2,tb2,tc2を用いるので、複数のイベントA,B,Cのうちのどのイベントに運転者7が違和感を覚えたかを適切に判別することができる。
更に、複数のイベントA,B,C毎の違和感を検出し得る違和感発生時間範囲RA,RB,RCを設定し、違和感の検出タイミングt0が、違和感発生時間範囲RA,RB,RCの範囲外か否かを判別し、違和感発生時間範囲RA,RB,RCの範囲外と判別されたイベントを違和感の対象候補から除外する。これにより、複数のイベントA,B,Cのうちのどのイベントに運転者7が違和感を覚えたかを効率的に判別することができる。
更に、複数のイベントA,B,C毎に適した複数の判別方法(判別器)A,B,Cを用いて、複数のイベントA,B,C毎の検出精度をそれぞれ算出し、複数のイベントA,B,C毎の検出精度に基づき、違和感の対象を判別する。これにより、複数のイベントA,B,Cのうちのどのイベントに運転者7が違和感を覚えたかを精度良く適切に判別することができる。
更に、複数のイベント毎の検出誤差EA,EB,EC及び違和感の検出精度をそれぞれ所定の係数で重み付けし、複数のイベント毎の重み付けした検出誤差EA,EB,ECと違和感の検出精度とに基づき、違和感の対象を判別する。これにより、違和感の検出タイミングと検出精度の情報を適切に組み合わせることができ、違和感を覚えた対象の判別精度を向上することができる。
(第3実施形態)
第3実施形態に係る違和感対象判別装置の構成は、図1に示した第1実施形態に係る違和感対象判別装置と同様である。第3実施形態に係る違和感対象判別方法の一例を、図13のフローチャートを参照しながら説明する。
図13のステップS21,S22は、図10に示した第1実施形態に係る違和感対象判別方法のステップS1,S2の手順と同様である。即ち、ステップS21において、図1に示したイベント検出部30は、例えば図8に示すように、所定時間T1内において複数のイベントA,B,Cの発生タイミングta,tb,tcをそれぞれ検出する。イベント検出部30は更に、複数のイベントA,B,Cの種類を判別する。ステップS22において、図1に示した脳波センサ10は、運転者7の脳波を測定する。なお、脳波センサ10は、ステップS21の開始前から運転者7の脳波を常時測定していてもよい。
図13のステップS23~S29は、図10に示した第1実施形態に係る違和感対象判別方法のステップS7~S13の手順と同様である。即ち、ステップS23において、図1に示した違和感判別部31は、判別方法データベース14に記憶された複数の判別方法から、複数のイベントA,B,Cに対応する複数の判別方法(判別器)A,B,Cを選択する。違和感判別部31は、予め設定された複数の判別方法を選択してもよく、イベント検出部30により判別された複数のイベントA,B,Cの種類に基づき、複数のイベントA,B,Cに対する違和感の検出及び複数のイベントA,B,Cの判別に適する複数の判別方法を選択してもよい。選択される複数の判別方法の数は特に限定されない。例えば、複数のイベントA,B,C毎に視覚、聴覚、触覚の違和感の検出にそれぞれ適する判別器A,B,Cを選択してもよい。
ステップS24,S26,S28において、違和感判別部31は、選択した複数の判別器A,B,Cをそれぞれ用いて、脳波センサ10により測定された運転者7の現在の脳波に基づき、運転者7の違和感の有無をそれぞれ判別する。運転者7の違和感が有ると判別された場合、ステップS25,S27,S29にそれぞれ移行して、対象判別部32運転者7の違和感の検出精度を算出する。一方、ステップS24,S26,S28において運転者7の違和感が無いと判別された場合、ステップS30に移行する。
ステップS30において、対象判別部32は、違和感判別部31による違和感の有無の判別結果及び違和感の検出精度に基づき、複数のイベントA,B,Cのうちから違和感の対象候補を抽出し、違和感の対象候補を絞り込む。例えば、違和感が無いと判別された判別器に対応するイベントを違和感の対象候補から除外してもよい。また、違和感の検出精度が所定の閾値未満の判別器に対応するイベントを違和感の対象候補から除外してもよい。そして、以降の処理を、違和感の対象候補であるイベントのみに対して行ってもよい。なお、ステップS30の手順は省略してもよく、以降の処理をすべてのイベントA,B,Cに対して行ってもよい。
図13のステップS31,S32は、図10に示した第1実施形態に係る違和感対象判別方法のステップS4,S5の手順と同様である。即ち、ステップS31において、対象判別部32は、複数のイベントA,B,Cの発生タイミングta,tb,tcから違和感の検出タイミングt0までの時間TA,TB,TCを算出する。ステップS32において、対象判別部32は、複数のイベントA,B,Cの発生タイミングta,tb,tcから違和感の検出タイミングt0までの時間TA,TB,TCと基準時間T4との差分を算出する。
図13のステップS33,S34は、図10に示した第1実施形態に係る違和感対象判別方法のステップS14,S15の手順と同様である。即ち、ステップS33において、対象判別部32は、違和感の検出タイミングt0と、複数のイベントA,B,Cに対応する違和感の検出精度とに基づき、複数のイベントA,B,Cのうちから、運転者7が違和感を覚えた対象となったイベントを判別する。例えば、対象判別部32は、イベントA,B,C毎の検出誤差|TA-T4|,|TB-T4|,|TC-T4|及び違和感の検出精度をそれぞれ重み付けし、イベントA,B,C毎の重み付けされた検出誤差|TA-T4|,|TB-T4|,|TC-T4|及び違和感の検出精度に基づき、違和感の対象である可能性が最も大きいイベントを、運転者7が違和感を覚えた対象として判別する。ステップS34において、制御装置6が、対象判別部32による判別結果に基づき、運転者7の違和感を低減するように車両1のアクチュエータ等を制御する。
以上説明したように、第3実施形態によれば、短い時間内に複数のイベントA,B,Cが提示された場合でも、違和感の検出タイミングt0及び違和感の検出精度に基づき違和感の対象を判別することで、複数のイベントA,B,Cのうちのどのイベントに運転者7が違和感を覚えたかを適切に判別することができる。
更に、複数のイベントA,B,Cのそれぞれの発生タイミングta,tb,tcから、違和感の検出タイミングt0までの違和感発生時間TA,TB,TCと、複数のイベントに共通の違和感を検出し得る基準時間T4との検出誤差|TA-T4|,|TB-T4|,|TC-T4|に基づき、違和感の対象を判別することにより、複数のイベントA,B,Cのうちのどのイベントに運転者7が違和感を覚えたかを精度良く適切に判別することができる。
更に、複数のイベントA,B,C毎に適した複数の判別方法(判別器)A,B,Cを用いて、複数のイベントA,B,C毎の検出精度をそれぞれ算出し、複数のイベントA,B,C毎の検出精度に基づき、違和感の対象を判別する。これにより、複数のイベントA,B,Cのうちのどのイベントに運転者7が違和感を覚えたかを精度良く適切に判別することができる。
更に、複数のイベント毎の検出誤差|TA-T4|,|TB-T4|,|TC-T4|及び違和感の検出精度をそれぞれ所定の係数で重み付けし、複数のイベント毎の重み付けした検出誤差|TA-T4|,|TB-T4|,|TC-T4|と違和感の検出精度とに基づき、違和感の対象を判別する。これにより、違和感の検出タイミングと検出精度の情報を適切に組み合わせることができ、違和感を覚えた対象の判別精度を向上することができる。
(その他の実施形態)
上記のように、本発明は第1~第3実施形態によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替の実施形態、実施例及び運用技術が明らかとなろう。
例えば、図8では、所定時間T1内に3つのイベントA,B,Cが発生した場合を例示するが、所定時間T1内に発生する複数のイベントの数は特に限定されない。即ち、所定時間T1内に2つのイベントが発生してもよく、4つ以上のイベントが発生してもよい。また、所定時間T1内に複数のイベントが同時に発生してもよい。また、所定時間T1内に発生する複数のイベントの種類も特に限定されない。
また、第3実施形態に係る違和感対象判別方法において、図13のステップS31,S32の手順の代わりに、図14に示すように、ステップS31x,S32xの手順を行ってもよい。図14のステップS31x,S32xの手順は、図12に示した第2実施形態に係る違和感対象判別方法のステップS4x,S5xの手順と同様である。
このように、本発明は、ここで記載していない様々な実施形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
1…車両
2…周囲環境センサ
3…車内センサ
4…車内装置
4a…車載ディスプレイ
4b…スピーカ
5…違和感対象判別装置
6…制御装置
7…運転者
8…他車両
9…案内板
10…脳活動測定装置(脳波センサ)
11…コントローラ
12…プロセッサ
13…記憶装置
14…判別方法データベース
20…判別平面
30…イベント検出部
31…違和感判別部
32…対象判別部
80…特徴空間マップ

Claims (8)

  1. 被験者の脳波を測定し、
    前記被験者に対して複数のイベントが提示された場合、前記脳波から前記被験者の違和感を検出し、
    前記複数のイベントのそれぞれの発生タイミングと、前記発生タイミングから前記違和感の検出タイミングまでの時間と、前記違和感を判別するための判別方法による前記違和感の判別結果とに基づき、1つの前記判別方法でのみ前記違和感が有ると判別した場合に、前記複数のイベントのうちから前記違和感が有ると判別した前記判別方法に対応するイベントを前記違和感の対象として判別することを特徴とする違和感対象判別方法。
  2. 前記複数のイベントのそれぞれの発生タイミングと、前記発生タイミングから前記違和感の検出タイミングまでの時間と、前記違和感が有ると判別した判別方法による前記違和感の検出精度とに基づき、前記複数のイベントのうちから前記違和感の対象を判別することを特徴とする請求項1に記載の違和感対象判別方法。
  3. 前記複数のイベントのそれぞれの発生タイミングから前記検出タイミングまでの前記イベント毎の時間と、前記複数のイベントに共通の前記違和感を検出し得る基準時間との差分に基づき、前記違和感の対象を判別することを特徴とする請求項1に記載の違和感対象判別方法。
  4. 前記複数のイベント毎の前記違和感を検出し得る基準タイミングと、前記検出タイミングとの差分に基づき、前記違和感の対象を判別することを特徴とする請求項1に記載の違和感対象判別方法。
  5. 前記検出タイミングが、前記複数のイベント毎の前記違和感を検出し得る時間範囲外か否かを判別し、
    前記時間範囲外と判別された前記イベントを前記違和感の対象候補から除外する
    ことを特徴とする請求項4に記載の違和感対象判別方法。
  6. 前記複数のイベント毎に適した複数の判別方法を用いて、前記判別方法毎の前記検出精度をそれぞれ算出し、
    前記判別方法毎の前記検出精度に基づき、前記違和感の対象を判別する
    ことを特徴とする請求項2に記載の違和感対象判別方法。
  7. 前記検出精度をそれぞれ重み付けし、
    重み付けした前記検出精度に基づき、前記違和感の対象を判別する
    ことを特徴とする請求項6に記載の違和感対象判別方法。
  8. 被験者の脳波を測定する脳波センサと、
    前記被験者に対して複数のイベントが提示された場合、前記脳波から前記被験者の違和感を検出し、前記複数のイベントのそれぞれの発生タイミングと、前記発生タイミングから前記違和感の検出タイミングまでの時間と、前記違和感を判別するための判別方法による前記違和感の判別結果とに基づき、1つの前記判別方法でのみ前記違和感が有ると判別した場合に、前記複数のイベントのうちから前記違和感が有ると判別した前記判別方法に対応するイベントを前記違和感の対象として判別するコントローラと、
    を備えることを特徴とする違和感対象判別装置。
JP2017251379A 2017-12-27 2017-12-27 違和感対象判別方法及び違和感対象判別装置 Active JP7119372B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017251379A JP7119372B2 (ja) 2017-12-27 2017-12-27 違和感対象判別方法及び違和感対象判別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017251379A JP7119372B2 (ja) 2017-12-27 2017-12-27 違和感対象判別方法及び違和感対象判別装置

Publications (2)

Publication Number Publication Date
JP2019115513A JP2019115513A (ja) 2019-07-18
JP7119372B2 true JP7119372B2 (ja) 2022-08-17

Family

ID=67303664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017251379A Active JP7119372B2 (ja) 2017-12-27 2017-12-27 違和感対象判別方法及び違和感対象判別装置

Country Status (1)

Country Link
JP (1) JP7119372B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173803A (ja) 2011-02-17 2012-09-10 Panasonic Corp 安全運転支援装置及び安全運転支援方法
JP2014115913A (ja) 2012-12-11 2014-06-26 Advanced Telecommunication Research Institute International 脳情報処理装置、脳情報処理方法、およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173803A (ja) 2011-02-17 2012-09-10 Panasonic Corp 安全運転支援装置及び安全運転支援方法
JP2014115913A (ja) 2012-12-11 2014-06-26 Advanced Telecommunication Research Institute International 脳情報処理装置、脳情報処理方法、およびプログラム

Also Published As

Publication number Publication date
JP2019115513A (ja) 2019-07-18

Similar Documents

Publication Publication Date Title
JP6394735B2 (ja) 階層型コンテキストアウェアによる手足の検出
EP3809227B1 (en) Driving assistance apparatus and driving assistance method
WO2019161766A1 (en) Method for distress and road rage detection
JP6343808B2 (ja) 視野算出装置および視野算出方法
US9539944B2 (en) Systems and methods of improving driver experience
US20180150701A1 (en) Method and apparatus for determining abnormal object
US20150302718A1 (en) Systems and methods for interpreting driver physiological data based on vehicle events
CN110765807B (zh) 驾驶行为分析、处理方法、装置、设备和存储介质
US10065651B2 (en) Electronic device and method for determining a state of a driver
US9881605B2 (en) In-vehicle control apparatus and in-vehicle control method
US9613459B2 (en) System and method for in-vehicle interaction
JP2018526749A (ja) 広告掲示板ディスプレイ、及び、車両乗員のデモグラフィック情報のセンシングにより広告を選択的に表示する方法
EP3113073A1 (en) Determination device, determination method, and non-transitory storage medium
JP6386618B2 (ja) ジェスチャ用のインテリジェントなチュートリアル
KR20170053903A (ko) 차량 간 메시지 전송 장치 및 방법
JP2016066231A (ja) 衝突防止装置、衝突防止方法、衝突防止プログラムおよび記録媒体
CN109153332B (zh) 车辆用户接口的手语输入
US20240063687A1 (en) Abnormal physical condition determination system, abnormal physical condition determination method, and computer program
JP7119372B2 (ja) 違和感対象判別方法及び違和感対象判別装置
US11332072B2 (en) Driving assistance apparatus, driving assistance method, and computer-readable recording medium
JP6320942B2 (ja) 重み行列学習装置、視線方向予測システム、警告システムおよび重み行列学習方法
CN110381831B (zh) 车辆事件识别
JP7091643B2 (ja) 違和感判別方法及び違和感判別装置
KR20150067679A (ko) 차량용 제스처 인식 시스템 및 그 방법
JP2017130104A (ja) 余裕度判定装置、余裕度判定方法および運転支援システム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190401

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220718

R151 Written notification of patent or utility model registration

Ref document number: 7119372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151