JPWO2011064831A1 - 診断装置及び診断方法 - Google Patents
診断装置及び診断方法 Download PDFInfo
- Publication number
- JPWO2011064831A1 JPWO2011064831A1 JP2011542999A JP2011542999A JPWO2011064831A1 JP WO2011064831 A1 JPWO2011064831 A1 JP WO2011064831A1 JP 2011542999 A JP2011542999 A JP 2011542999A JP 2011542999 A JP2011542999 A JP 2011542999A JP WO2011064831 A1 JPWO2011064831 A1 JP WO2011064831A1
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- recognition
- degree
- host vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W40/09—Driving style or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Abstract
Description
第1実施形態例の診断装置100は、自車両周辺の周辺情報及び運転者の視線を外部の情報取得装置から取得し、自車両周辺の対象物に対する運転者の認知度を、運転者の視線と対象物との位置関係に基づいて診断する。下記に、まず第1実施形態例の診断装置と、情報取得装置と、の関係及びそれぞれのハードウェア構成について説明する。
図1は、第1実施形態例に係る、診断装置と情報取得装置との接続関係及びハードウェア構成を示すブロック図の一例である。
(2−1)診断装置
診断装置100は、例えば、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、入出力機器I/F104、通信I/F(InterFace)108を有している。これらは、バス109を介して互いに接続されている。
情報取得装置200は、例えば、CPU201、ROM202、RAM203、入出力機器I/F204、通信I/F207を有している。これらは、バス208を介して互いに接続されている。
入出力機器I/F204は、周辺情報取得機器205及び視線検出機器206などと接続されている。周辺情報取得機器205及び視線検出機器206により検出された情報は、入出力機器I/F204を介してRAM203、CPU201及び通信I/Fなどに出力される。
周辺情報取得機器205は、自車両周辺に存在する一又は複数の対象物を含む周辺情報を取得する。周辺情報は、例えば自車両周辺の周辺映像、自車両周辺の対象物の位置、大きさなどの対象物情報などを言う。本実施形態例では、周辺情報取得機器205は、周辺情報として周辺映像を取得するものとする。例えば、周辺情報取得機器205は、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像装置からなり、自車両周辺の周辺映像を取得する。
次に、視線検出機器206は、運転者の顔、眼球、虹彩などの視線情報を検出する。
ROM202は、情報取得装置200が行う各種制御プログラムを記憶している。
CPU201は、ROM202に記憶された各種制御プログラムをRAM203に展開し、各種制御を行う。例えば、CPU201は、各種制御プログラムの実行により周辺情報取得機器205及び視線検出機器206を制御し、周辺映像及び視線情報の取得を開始させる。また、CPU201は、視線情報に基づいて、視線原点P及び視線150の方向を示す視線ベクトル150aなどを検出する。なお、視線原点P及び視線ベクトル150aは、図3に示すように、例えば車両300の任意の中心点Oを原点とする空間座標系により定義される。中心点Oは、例えば一例えあるが、車両300の車幅の半分及び車長の半分の位置により定義される。なお、空間座標系はX、Y、Z座標で表すものとし、中心点Oは(X、Y、Z)=(0、0、0)で表される。
図6〜図7を用いて診断装置100による処理の概要を説明する。なお、以下では、自車両300は、対象物の認知度を診断される運転者が運転する車両であり、他車両500は自車両300に対して対象物となり得る車両である。
次に情報取得装置200及び診断装置100の機能構成について説明する。
情報取得装置200の各機能部による処理は、CPU201、ROM202、RAM203、入出力機器I/F204、周辺情報取得機器205、視線検出機器206、通信I/F207等が相互に連携することにより実行される。
周辺情報取得部221は、前述の図2に示す前方カメラ205a、右側カメラ205b、左側カメラ205c及び後方カメラ205dからなる周辺情報取得機器205が撮影した周辺映像を取得し、各種データDB224に格納する。
視線検出部222は、視線検出機器206が検出した運転者の顔、眼球、虹彩などの映像に基づいて、視線原点P及び視線150の方向を示す視線ベクトル150aを算出する。
情報取得装置200の送受信部223は、診断装置100の送受信部121との間で、各種データDB224内の各種データ、各種コマンド等を送受信する。
診断装置100の各機能部による処理は、CPU101、ROM102、RAM103、入出力機器I/F104、ディスプレイ105、スピーカ106、キーボード107、通信I/F108等が相互に連携することにより実行される。
診断装置100の送受信部121は、情報取得装置200の送受信部223との間で、各種データ、各種コマンド等を送受信する。
周辺情報DB131は、自車両周辺の対象物を含む周辺情報として、自車両周辺の周辺映像を情報取得装置200から取得して記憶する。周辺映像には、前方カメラ205a、右側カメラ205b、左側カメラ205c及び後方カメラ205dからなる周辺情報取得機器205が撮影した映像が含まれる。
視線データDB133は、自車両の運転者の視線原点P及び視線ベクトル150aを情報取得装置200から取得し記憶する。また、視線データDB133は、視線判定部126が判定した、ミラー303の視認の有無、ミラー視線原点R及びミラー視線ベクトル155aなども記憶する。
画像処理部122は、各カメラ205が撮影した映像データを周辺情報DB131から取得し、合成することで前述の図6に示すような三次元投影面400に投影された周辺映像を生成する。具体的には、まず、画像処理部122は、各カメラ205a〜205dの各画素と、三次元投影面400の各座標と、の対応関係を、後述の各種対応表DB135から取得する。次に、画像処理部122は、前記座標の対応関係に基づいて、各カメラ205a〜205dの映像データを三次元投影面400に投影し、周辺映像を生成する。
対象物抽出部123は、画像処理部122が生成した周辺映像から、自車両300周辺に存在する一又は複数の対象物を抽出する。
相対情報DB132は、対象物抽出部123から取得した対象物ID及び相対位置Q0及び相対位置Q1を、各フレーム及び各対象物ごとに記憶する。また、相対情報DB132は、相対情報算出部124が算出した相対距離L、相対速度V及び対象物ベクトル160aなどを、各フレーム及び各対象物ごとに記憶する。
相対距離Lx’=Ly’×f/│XQ0−XD│ ・・・(2)
相対情報算出部124は、相対距離Lx’及び相対距離Ly’と、Lxcar及びLycarと、に基づいて、前述と同様に相対距離Lx及び相対距離Lyを算出し、相対情報DB132に格納する。これにより、現在着目している現フレームにおける、相対距離Lx及び相対距離Lyを算出することができる。
危険度算出部125は、相対情報DB132内の相対情報などに基づいて、対象物と自車両300との衝突の危険度を算出する。例えば、危険度算出部125は、次のようにして危険度を算出する。
X方向及びY方向のそれぞれについてTTCを算出するため、まず、危険度算出部125は、相対情報DB132から相対距離Lx、Ly及び相対速度Vx、Vyを取得する。危険度算出部125は、前記式(3)に基づいてX方向のTTCx及びY方向のTTCyを算出する。次に、危険度算出部125は、各種対応表DB135に格納されているTTCと危険度との対応表を読み出し、TTCx及びTTCyを前記対応表に照らし合わせて危険度を算出する。
視線判定部126は、情報取得装置200から取得した視線原点P及び視線ベクトル150aに基づいて、視線ベクトル150aがミラー303上にあるか否かを判定する。ここで、視線判定部126は、自車両300に設けられた左右のドアミラー303L、303R及びバックミラー303Bなどの各ミラー面の領域を例えば情報取得装置200から取得するなどして把握しているものとする。ミラー面の領域とは、入射光を反射する反射面の領域であり、例えば空間座標系を基準とした座標の集合により定義される。視線判定部126は、視線原点Pから延在する視線ベクトル150aと、ミラー面の領域と、が交差するかに基づいて、視線ベクトル150aがミラー303上にあるか否かを判定する。
認知度診断部127は、自車両300の運転者の対象物に対する認知度を診断し、診断結果DB134に格納する。
例えば、認知度診断部127は、図7に示す視線空間151と対象物である他車両500との位置関係に基づいて認知度を診断する。例えば、認知度診断部127は、対象物が視線空間151の中央部に位置しているか否かを判断し、対象物が視線空間の中央部に位置していれば視線150と対象物とが交差しており、対象物の認知度が高いと診断する。また、認知度診断部127は、対象物のうち何%が視線空間151を占有しているかを判断し、対象物全領域が視線空間151を占有していれば、その対象物の認知度が高いと診断する。なお、認知度診断部127は、視線空間151に対する対象物の位置と、認知度と、の関係、視線空間151に含まれる対象物の割合と、認知度と、の関係などを予め保持しているものとする。
例えば、認知度診断部127は、視線ベクトル150a又はミラー視線ベクトル155aと、対象物ベクトル160aと、の成す角Δθの大きさに応じて、認知度を診断する。図20は、成す角ΔθH及びΔθVと認知度との関係を示す対応表の一例である。ΔθH及びΔθVの所定範囲に対して0〜5の6段階の認知度が対応付けられている。認知度診断部127は、診断結果DB134からΔθH及びΔθVを取得し、図20に示す対応表を参照して認知度を診断する。
視認時間が短く対象物を一瞬しか視認していない場合、運転者は対象物を認知できていない。そこで、認知度診断部127は視認時間の長さに応じて認知度を診断する。ここで、各種対応表DB135は視認時間の長さと認知度との対応表を記憶しており、前記対応表では例えば視認時間が長くなるほど認知度が高く設定されているものとする。認知度診断部127は、診断結果DB134から視認時間を読み出し、前記対応表に基づいて認知度を診断する。
対象物についての非視認時間が長い場合、運転者は対象物を認知できていない。そこで、認知度診断部127は、非視認時間の長さに基づいて認知度を診断する。ここで、各種対応表DB135は非視認時間の長さと認知度との対応表を記憶しており、前記対応表では例えば非視認時間が長くなるほど認知度が低く設定されているものとする。認知度診断部127は、診断結果DB134から非視認時間を読み出し、前記対応表に基づいて認知度を診断する。
認知度診断部127は、複数の対象物の各視認時間が所定時間Ta内において占める視認頻度に基づいて、各対象物に対する認知度を診断しても良い。また、診断装置は、複数の対象物それぞれに対する視認間隔に基づいて、各対象物に対する認知度を診断しても良い。
認知度診断部127は、自車両300周辺の対象物数と、自車両300周辺の対象物のうち視認されていると判定された対象物数と、の比に基づいて、運転者の認知度を診断しても良い。自車両300周辺に存在する複数の対象物に対する認知度を全体として診断することができる。
診断結果出力部128は、診断結果DB134から、現在のフレームでの各対象物の認知度を取得し、ディスプレイ105、スピーカ106等の出力機器に出力する。
各種対応表DB135は、各カメラ205a〜205dの各画素と、三次元投影面400の各座標と、の対応関係を、記憶している。
以下に、第1実施形態例にかかる診断装置が実行する処理の流れを説明する。まず全体の処理の流れを説明し、次に全体処理を構成する各処理の流れについて説明する。
図22は、第1実施形態例にかかる診断装置が実行する全体処理の流れの一例を示すフローチャートである。全体処理は各フレームごとに実行される。
図23は、第1実施形態例にかかる視線データのミラー処理の流れの一例を示すフローチャートである。以下に、前述の全体処理のうち、視線データのミラー処理の流れについて説明する。
図24は、第1実施形態例にかかる対象物抽出処理の流れの一例を示すフローチャートである。
図25は、第1実施形態例にかかる相対情報算出処理の流れの一例を示すフローチャートである。
図26は、第1実施形態例にかかる危険度算出処理の流れの一例を示すフローチャートである。
図27は、第1実施形態例にかかる視線判定処理の流れの一例を示すフローチャートである。
以下に本実施形態例の変形例を説明する。
上記実施形態例では、診断装置100は、様々な対象物の各種特徴を記憶したパターンデータに基づいて対象物を抽出し、危険度等に関係なく抽出された対象物について認知度の診断を行う。しかし、診断装置100は、抽出した対象物のうち、危険度が所定値以上の危険対象物についてのみ認知度の診断を行うようにしても良い。
上記実施形態例では、診断装置100は、画像処理部122が生成した周辺映像から、自車両300周辺に存在する一又は複数の対象物を抽出する。しかし、診断装置100は、例えば自車両300に取り付けた障害物検出センサにより対象物を検出しても良い。障害物検出センサは、例えば自車両300の前部バンパ、後部バンパなどに埋め込まれて、障害物との距離を検出するものであって、光学センサ、超音波センサなどで構成することができる。診断装置100の対象物抽出部123は、これらの障害物検出センサが検出したセンサ信号に基づいて自車両300周辺の対象物を検出し、対象物の自車両300に対する相対位置Q0、Q1等を取得する。また、相対情報算出部124は、センサ信号に基づいて、相対距離L、相対速度V及び対象物ベクトル160aなどを算出する。
上記実施形態例では、危険度算出部125は、自車両300と対象物との相対距離L及び相対速度Vに基づいてTTCを算出し、TTCに基づいて危険度を算出している。しかし、TTC及び危険度の算出方法はこれに限定されない。例えば、一例として、自車両300及び対象物それぞれの位置、速度、加速度を考慮して次のようにTTC及び危険度を算出することもできる。図28は、TTCの別の算出方法を示す説明図である。
Y(t+Δt)=Y(t)+Vy(t)×Δt×cos(α(t))-Vx(t)×Δt×sin(α(t)) ・・・(5)
ここで、加速度α(t)=(φ(t)+φ(t-Δt))/2であり、φは自車両300のハンドル302の操舵角である。操舵角φは、例えばハンドル302に設けられたセンサにより検出可能である。
Yoi(t+Δt)=Yoi(t)+Vyoi(t)×Δt+(1/2)×αyoi(t)×Δt2 ・・・(7)
ここで、Xoi(t)及びYoi(t)は、時刻tでの他車両500の位置座標であり、上記実施形態例と同様に自車両300の周辺映像に基づいて特定可能である。Xoi(t)及びYoi(t)は、任意の点O1を原点にした場合において、他車両500の中心点Q2の座標により表される。また、Vxoi(t)及びVyoi(t)は時刻tでの他車両500のX方向及びY方向の速度であり、αxoi(t)及びαyoi(t)は時刻tでの他車両500のX方向及びY方向の加速度である。他車両500の速度及び加速度は、例えば自車両300に設けられた障害物検出センサ及び車車間通信等により取得可能である。
上記実施形態例では、診断装置100は、自車両300の任意の中心点Oを原点とする空間座標系により、対象物の相対位置Q0、Q1、視線原点P、ミラー視線原点Rなどを定義している。しかし、座標系はこれに限定されない。
上記実施形態例では、診断装置100は、対象物のうち自車両300に最も近接する一辺の中心座標であるQ0と、視線原点Pと、に基づいて対象物ベクトル160aを算出している。しかし、対象物ベクトル160aを算出するための座標はQ0に限定されず、例えば、対象物の縦方向及び横方向の中心位置、つまり対象物の中央の座標と、視線原点Pと、に基づいて対象物ベクトル160aを算出しても良い。
第1実施形態例の診断装置100は、自車両周辺の周辺情報及び運転者の視線を外部の情報取得装置200から取得する。一方、第2実施形態例の診断装置170は、自車両300周辺の周辺情報及び運転者の視線を自ら取得する。以下に、第1実施形態例と異なる点について説明する。
また、前述の方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM(Compact Disc−Read Only Memory)、MO(Magneto Optical disk)、DVD、DVD−ROM、DVD−RAM(DVD−Random Access Memory)、BD(Blue-ray Disc)、USBメモリ、半導体メモリなどを挙げることができる。前記コンピュータプログラムは、前記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
122:画像処理部
123:対象物抽出部
124:相対情報算出部
125:危険度算出部
126:視線判定部
127:認知度診断部
128:診断結果出力部
131:周辺情報DB
132:相対情報DB
133:視線データDB
134:診断結果DB
135:各種対応表DB
150a:視線ベクトル
151:視線空間
155a:ミラー視線ベクトル
160a:対象物ベクトル
200:情報取得装置
221:周辺情報取得部
222:視線検出部
300:自車両
301:ダッシュボード
302:ハンドル
303:ミラー
400:三次元投影面
500:他車両
600、601:車線
602a〜602d:車線表示ライン
Claims (16)
- 自車両周辺に存在する一又は複数の対象物を抽出する対象物抽出手段と、
前記自車両の運転者の視線を中心とする視線空間に、前記対象物の少なくとも一領域が含まれるか否かを判定する視線判定手段と、
前記判定結果に基づいて、前記対象物に対する前記運転者の認知度を診断する認知度診断手段と、
を含む診断装置。 - 前記視線判定手段は、前記視線空間と前記対象物との位置関係を判定し、
前記認知度診断手段は、前記視線空間と前記対象物との位置関係に基づいて前記認知度を診断する、請求項1に記載の診断装置。 - 前記視線判定手段は、前記運動者の視線の方向を示す視線ベクトルと、前記運転者から前記対象物への対象物ベクトルと、の成す角に基づいて、前記視線空間に前記対象物の少なくとも一領域が含まれるか否かを判定する、請求項2に記載の診断装置。
- 前記視線判定手段は、各対象物について、前記視線空間に前記対象物の少なくとも一領域が含まれる視認時間をさらに算出し、
前記認知度診断手段は、前記視認時間に基づいて各対象物に対する前記認知度を診断する、請求項1〜3のいずれかに記載の診断装置。 - 前記視線判定手段は、各対象物が前記視線空間の外に存在する非視認時間をさらに算出し、
前記認知度診断手段は、前記非視認時間に基づいて各対象物に対する前記認知度を診断する、請求項1〜4のいずれかに記載の診断装置。 - 前記認知度診断手段は、前記非視認時間が、前記自車両と各対象物とが衝突するまでの衝突時間であるTTC(Time to collision)未満か否かに基づいて、各対象物に対する前記認知度を診断する、請求項5に記載の診断装置。
- 前記認知度診断手段は、前記自車両周辺の対象物数と、前記自車両周辺の対象物のうち前記視線判定手段により前記視線空間に含まれると判定された対象物数と、の比に基づいて、前記運転者の認知度を診断する、請求項1に記載の診断装置。
- 前記視線判定手段は、前記運転者の視線の延長線上に、前記自車両に設けられた1又は複数のミラーがあると判断すると、前記視線の方向を前記ミラーに応じて補正し、補正された視線を中心とする視線空間に、前記対象物の少なくとも一領域が含まれるか否かを判定する、請求項1に記載の診断装置。
- 前記認知度診断手段が診断した前記認知度が所定値以下の対象物に関する情報を出力する診断結果出力手段をさらに含む請求項1に記載の診断装置。
- 各対象物ごとに、前記自車両に対する相対速度及び/又は相対距離含む相対情報を算出する相対情報算出手段と、
前記相対情報に基づいて、前記自車両と各対象物の衝突の危険度を算出する危険度算出手段と、をさらに含み、
前記診断結果出力手段は、前記認知度が所定値以下の対象物について、前記衝突の危険度を出力する、請求項9に記載の診断装置。 - 各対象物ごとに、前記自車両に対する相対速度及び/又は相対距離含む相対情報を算出する相対情報算出手段と、
前記相対情報に基づいて、前記自車両と各対象物の衝突の危険度を算出する危険度算出手段と、をさらに含み、
前記視線判定手段は、前記対象物のうち前記自車両との衝突の危険度が所定の閾値以上の危険対象物について、前記危険対象物の少なくとも一領域が前記視線空間に含まれるか否かを判定し、
前記認知度診断手段は、前記判定結果に基づいて、前記危険対象物に対する前記運転者の認知度を診断する、請求項1に記載の診断装置。 - 診断装置が実行する診断方法であって、
自車両周辺に存在する一又は複数の対象物を抽出する対象物抽出ステップと、
前記自車両の運転者の視線を中心とする視線空間に、前記対象物の少なくとも一領域が含まれるか否かを判定する視線判定ステップと、
前記判定結果に基づいて、前記対象物に対する前記運転者の認知度を診断する認知度診断ステップと、
を含む診断方法。 - 自車両周辺に存在する一又は複数の対象物を含む周辺情報を取得する周辺情報取得手段と、
前記周辺情報から前記一又は複数の対象物を抽出する対象物抽出手段と、
前記自車両の運転者の視線を検出する視線検出手段と、
前記自車両の運転者の視線を中心とする視線空間に、前記対象物の少なくとも一領域が含まれるか否かを判定する視線判定手段と、
前記判定結果に基づいて、前記対象物に対する前記運転者の認知度を診断する認知度診断手段と、
を含む診断装置。 - 前記周辺情報取得手段は、前記自車両の周辺を撮像する1又は複数の撮像装置を含み、
前記撮像装置で撮影された映像から前記自車両の周辺映像を生成する画像処理手段をさらに含み、
前記対象物抽出手段は、前記周辺映像から前記一又は複数の対象物を抽出する、請求項13に記載の診断装置。 - 前記対象物抽出手段は、前記自車両周辺に存在する一又は複数の対象物を検知する対象物センサから検知結果を取得し、前記検知結果にもとづいて前記一又は複数の対象物を抽出する、請求項13に記載の診断装置。
- 前記対象物抽出手段は、前記自車両周辺に存在する一又は複数の対象物から送信される、前記対象物の位置、速度、加速度及び/又は進行方向を含む対象物情報を取得し、前記対象物情報にもとづいて前記一又は複数の対象物を抽出する、請求項13に記載の診断装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2009/006485 WO2011064831A1 (ja) | 2009-11-30 | 2009-11-30 | 診断装置及び診断方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2011064831A1 true JPWO2011064831A1 (ja) | 2013-04-11 |
Family
ID=44065956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011542999A Pending JPWO2011064831A1 (ja) | 2009-11-30 | 2009-11-30 | 診断装置及び診断方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20120307059A1 (ja) |
JP (1) | JPWO2011064831A1 (ja) |
WO (1) | WO2011064831A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019199251A (ja) * | 2018-01-26 | 2019-11-21 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | 車両を運転する際に運転者を支援する方法および運転者支援システム |
JP2020113066A (ja) * | 2019-01-11 | 2020-07-27 | 株式会社Jvcケンウッド | 映像処理装置、映像処理方法、およびプログラム |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101383235B1 (ko) * | 2010-06-17 | 2014-04-17 | 한국전자통신연구원 | 시선 추적을 이용한 좌표 입력 장치 및 그 방법 |
KR101340014B1 (ko) * | 2011-12-09 | 2013-12-10 | 에스엘 주식회사 | 위치 정보 제공 장치 및 방법 |
US20130278441A1 (en) * | 2012-04-24 | 2013-10-24 | Zetta Research and Development, LLC - ForC Series | Vehicle proxying |
DE102012214852B4 (de) | 2012-08-21 | 2024-01-18 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs |
KR101896715B1 (ko) * | 2012-10-31 | 2018-09-07 | 현대자동차주식회사 | 주변차량 위치 추적 장치 및 방법 |
US20150336579A1 (en) * | 2012-11-08 | 2015-11-26 | Toyota Jidosha Kabushiki Kaisha | Drive assist device and method, collision prediction device and method, and alerting device and method |
JP6296684B2 (ja) * | 2013-02-07 | 2018-03-20 | 三菱電機株式会社 | 運転支援装置 |
US9050980B2 (en) * | 2013-02-25 | 2015-06-09 | Honda Motor Co., Ltd. | Real time risk assessment for advanced driver assist system |
US9342986B2 (en) * | 2013-02-25 | 2016-05-17 | Honda Motor Co., Ltd. | Vehicle state prediction in real time risk assessments |
WO2015026350A1 (en) * | 2013-08-22 | 2015-02-26 | Empire Technology Development, Llc | Influence of line of sight for driver safety |
JP6032195B2 (ja) * | 2013-12-26 | 2016-11-24 | トヨタ自動車株式会社 | センサ異常検出装置 |
WO2015146083A1 (ja) * | 2014-03-28 | 2015-10-01 | 日本電気株式会社 | 情報収集装置、情報収集方法、及び、プログラムの記録媒体 |
US20160063761A1 (en) * | 2014-08-27 | 2016-03-03 | Toyota Jidosha Kabushiki Kaisha | Communication of spatial information based on driver attention assessment |
WO2018016075A1 (ja) * | 2016-07-22 | 2018-01-25 | 三菱電機株式会社 | 運転支援装置、運転支援方法及び運転支援プログラム |
JP6564424B2 (ja) | 2017-06-09 | 2019-08-21 | 株式会社Subaru | 車両制御装置 |
JP7043795B2 (ja) | 2017-11-06 | 2022-03-30 | 日本電気株式会社 | 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム |
US10839139B2 (en) | 2018-04-17 | 2020-11-17 | Adobe Inc. | Glyph aware snapping |
JP6744374B2 (ja) * | 2018-09-27 | 2020-08-19 | 本田技研工業株式会社 | 表示装置、表示制御方法、およびプログラム |
US20230045772A9 (en) * | 2018-12-07 | 2023-02-09 | Sony Semiconductor Solutions Corporation | Information processing apparatus, information processing method, and program |
US10832442B2 (en) | 2019-03-28 | 2020-11-10 | Adobe Inc. | Displaying smart guides for object placement based on sub-objects of reference objects |
US10846878B2 (en) * | 2019-03-28 | 2020-11-24 | Adobe Inc. | Multi-axis equal spacing smart guides |
JP7143538B2 (ja) * | 2019-12-04 | 2022-09-28 | 三菱電機株式会社 | 運転支援装置および運転支援方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099899A (ja) * | 2001-09-25 | 2003-04-04 | Toyota Central Res & Dev Lab Inc | 運転行動危険度演算装置 |
JP2006027481A (ja) * | 2004-07-16 | 2006-02-02 | Toyota Motor Corp | 物体警告装置及び物体警告方法 |
JP2007094618A (ja) * | 2005-09-28 | 2007-04-12 | Omron Corp | 通知制御装置および方法、記録媒体、並びに、プログラム。 |
WO2007105792A1 (ja) * | 2006-03-15 | 2007-09-20 | Omron Corporation | 監視装置および監視方法、制御装置および制御方法、並びにプログラム |
WO2008041497A1 (en) * | 2006-09-29 | 2008-04-10 | Aisin Seiki Kabushiki Kaisha | Alarm device for vehicle and alarm method for vehicle |
JP2009163286A (ja) * | 2007-12-28 | 2009-07-23 | Toyota Central R&D Labs Inc | 運転者支援装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5670935A (en) * | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
DE10253509A1 (de) * | 2002-11-16 | 2004-06-17 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Warnung des Fahrers eines Kraftfahrzeuges |
US6859144B2 (en) * | 2003-02-05 | 2005-02-22 | Delphi Technologies, Inc. | Vehicle situation alert system with eye gaze controlled alert signal generation |
WO2008126389A1 (ja) * | 2007-04-02 | 2008-10-23 | Panasonic Corporation | 安全運転支援装置 |
CN101674965B (zh) * | 2007-05-02 | 2013-05-22 | 丰田自动车株式会社 | 车辆行为控制装置 |
JP2009220630A (ja) * | 2008-03-13 | 2009-10-01 | Fuji Heavy Ind Ltd | 車両の走行制御装置 |
-
2009
- 2009-11-30 JP JP2011542999A patent/JPWO2011064831A1/ja active Pending
- 2009-11-30 WO PCT/JP2009/006485 patent/WO2011064831A1/ja active Application Filing
-
2012
- 2012-05-25 US US13/481,146 patent/US20120307059A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003099899A (ja) * | 2001-09-25 | 2003-04-04 | Toyota Central Res & Dev Lab Inc | 運転行動危険度演算装置 |
JP2006027481A (ja) * | 2004-07-16 | 2006-02-02 | Toyota Motor Corp | 物体警告装置及び物体警告方法 |
JP2007094618A (ja) * | 2005-09-28 | 2007-04-12 | Omron Corp | 通知制御装置および方法、記録媒体、並びに、プログラム。 |
WO2007105792A1 (ja) * | 2006-03-15 | 2007-09-20 | Omron Corporation | 監視装置および監視方法、制御装置および制御方法、並びにプログラム |
WO2008041497A1 (en) * | 2006-09-29 | 2008-04-10 | Aisin Seiki Kabushiki Kaisha | Alarm device for vehicle and alarm method for vehicle |
JP2009163286A (ja) * | 2007-12-28 | 2009-07-23 | Toyota Central R&D Labs Inc | 運転者支援装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019199251A (ja) * | 2018-01-26 | 2019-11-21 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | 車両を運転する際に運転者を支援する方法および運転者支援システム |
JP2020113066A (ja) * | 2019-01-11 | 2020-07-27 | 株式会社Jvcケンウッド | 映像処理装置、映像処理方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20120307059A1 (en) | 2012-12-06 |
WO2011064831A1 (ja) | 2011-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2011064831A1 (ja) | 診断装置及び診断方法 | |
JP5387763B2 (ja) | 映像処理装置、映像処理方法及び映像処理プログラム | |
JP4899424B2 (ja) | 物体検出装置 | |
WO2018092265A1 (ja) | 運転支援装置および運転支援方法 | |
US11034294B2 (en) | Driving notification method and driving notification system | |
JP5177515B2 (ja) | 周辺認知支援システム | |
JP3327255B2 (ja) | 安全運転支援システム | |
US20070069872A1 (en) | Vehicle driving assist system | |
JP2011227571A (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
CN103171552A (zh) | 基于avm俯视图的停车辅助系统 | |
KR20160041445A (ko) | 영상인식을 통한 트레일러 궤적 추정 시스템 및 방법 | |
EP2293588A1 (en) | Method for using a stereovision camera arrangement | |
CN109109748A (zh) | 一种用于重型载货汽车右侧盲区的行人识别预警系统 | |
KR20170127036A (ko) | 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치 | |
TWI522257B (zh) | 車用安全系統及其運作方法 | |
US20190102636A1 (en) | Vehicular vision system using smart eye glasses | |
CN109278640A (zh) | 一种盲区检测系统和方法 | |
KR20120086577A (ko) | 카메라를 이용한 측면차량 검출 장치 및 방법 | |
JP2012022646A (ja) | 視線方向検出装置、視線方向検出方法及び安全運転評価システム | |
TWI596580B (zh) | Obstacle warning system and its operation method | |
JP6160594B2 (ja) | 危険運転記録方法、危険運転記録プログラム及び危険運転記録装置 | |
KR102164702B1 (ko) | 자동 주차 장치 및 자동 주차 방법 | |
KR101566963B1 (ko) | 작업 차량 상태를 고려하여 개체를 인식할 수 있는 어라운드 뷰 모니터링 방법, 이를 수행하는 어라운드 뷰 모니터링 장치 및 이를 저장하는 기록매체 | |
JP4677820B2 (ja) | 予測進路表示装置および予測進路表示方法 | |
JP2007133644A (ja) | 歩行者認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130813 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131119 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140120 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140415 |