JPWO2011064831A1 - 診断装置及び診断方法 - Google Patents

診断装置及び診断方法 Download PDF

Info

Publication number
JPWO2011064831A1
JPWO2011064831A1 JP2011542999A JP2011542999A JPWO2011064831A1 JP WO2011064831 A1 JPWO2011064831 A1 JP WO2011064831A1 JP 2011542999 A JP2011542999 A JP 2011542999A JP 2011542999 A JP2011542999 A JP 2011542999A JP WO2011064831 A1 JPWO2011064831 A1 JP WO2011064831A1
Authority
JP
Japan
Prior art keywords
line
sight
recognition
degree
host vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011542999A
Other languages
English (en)
Inventor
譲 山影
譲 山影
濱口 慎吾
慎吾 濱口
尾崎 一幸
一幸 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2011064831A1 publication Critical patent/JPWO2011064831A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

自車両周辺の対象物に対する、運転者の認知度を診断する診断装置及び診断方法を提供することを目的とする。自車両周辺に存在する一又は複数の対象物を抽出する対象物抽出部123と、前記自車両の運転者の視線を中心とする視線空間に、前記対象物の少なくとも一領域が含まれるか否かを判定する視線判定部126と、前記判定結果に基づいて、前記対象物に対する前記運転者の認知度を診断する認知度診断部127と、を含む診断装置を提供する。

Description

本発明は、自車両周辺の対象物に対する、運転者の認知度を診断する診断装置及び診断方法に関する。
車社会において安全を促進させて事故数を減少させることが大きな課題となっており、様々な対策がなされている。例えば、運転者が事故に遭遇した場合であっても、運転者が事故により受ける影響を軽減するためのエアバックが車両に装備されている。エアバックは事故後の対策として設けられるが、事故を未然に防ぐ対策として、例えば車両周辺の障害物など認知すべき対象物を検知するシステムが開発されている。また、運転者が車両を運転している時の運行状態を記憶装置に記憶し、診断者が運行状態を診断して運転者に指導を行う安全指導サービスなども提案されている。その他、引用文献1には、運転者のブレーキ操作及びアクセル操作などから運転技量を判定し、運転者の技量に応じて車両を制御するシステムが開示されている。
特開平11−129924号公報
ここで、運転者の対象物への認知不足が原因である車両事故が、車両事故全体の70%以上であるとの分析もなされている。よって、運転者が対象物をどの程度認知しているかを示す認知度を評価し、認知度に基づいた安全対策を行うことが車両事故を軽減させるには効果的であると言える。
しかし、上述のような対象物を検知するシステム、安全指導サービス及び引用文献1の運転者の技量を判定するシステムなどにより、運転者に対象物を知らせる技術は開発されているものの、運転者が対象物を実際にどの程度認知しているかは診断されていない。
そこで、自車両周辺の対象物に対する、運転者の認知度を診断する診断装置及び診断方法を提供することを目的とする。
自車両周辺に存在する一又は複数の対象物を抽出する対象物抽出手段と、前記自車両の運転者の視線を中心とする視線空間に、前記対象物の少なくとも一領域が含まれるか否かを判定する視線判定手段と、前記判定結果に基づいて、前記対象物に対する前記運転者の認知度を診断する認知度診断手段と、を含む診断装置を提供する。
また、診断装置が実行する診断方法であって、自車両周辺に存在する一又は複数の対象物を抽出する対象物抽出ステップと、前記自車両の運転者の視線を中心とする視線空間に、前記対象物の少なくとも一領域が含まれるか否かを判定する視線判定ステップと、前記判定結果に基づいて、前記対象物に対する前記運転者の認知度を診断する認知度診断ステップと、を含む診断方法を提供する。
自車両周辺の対象物に対する、運転者の認知度を診断する診断装置及び診断方法を提供することができる。
第1実施形態例に係る、診断装置と情報取得装置との接続関係及びハードウェア構成を示すブロック図の一例。 周辺情報取得機器の取付位置と撮影範囲を示す説明図。 視線検出機器の取付位置を示す説明図(1)。 視線検出機器の取付位置を示す説明図(2)。 ミラーにより確認可能な領域の一例を示す説明図。 周辺映像が投影される三次元投影面を示す模式図。 図6の自車両と他車両との関係を示す斜視図。 第1実施形態例にかかる情報取得装置及び診断装置の機能構成を示すブロック図の一例。 視線原点P及び視線ベクトルの算出方法の一例を示す説明図。 周辺情報DBの周辺情報の一例。 視線データDBの視線データの一例。 対象物の抽出方法の一例を示す説明図。 相対情報DBの相対情報の一例。 相対距離Lの算出方法の一例を示す説明図。 TTCと危険度との関係を示す対応表の一例。 診断結果DBの一例。 視線ベクトルと対象物ベクトルとの成す角Δθに基づいた視認の判定方法の一例を示す説明図。 ミラー視線ベクトルと対象物ベクトルとの成す角Δθに基づいた視認の判定方法の一例を示す説明図。 診断結果DBが記憶する視認時間及び非視認時間の一例。 成す角ΔθH及びΔθVと認知度との関係を示す対応表の一例。 視認頻度又は視認間隔に基づいて認知度を診断する方法を説明する説明図。 第1実施形態例にかかる診断装置が実行する全体処理の流れの一例を示すフローチャート。 第1実施形態例にかかる視線データのミラー処理の流れの一例を示すフローチャート。 第1実施形態例にかかる対象物抽出処理の流れの一例を示すフローチャート。 第1実施形態例にかかる相対情報算出処理の流れの一例を示すフローチャート。 第1実施形態例にかかる危険度算出処理の流れの一例を示すフローチャート。 第1実施形態例にかかる視線判定処理の流れの一例を示すフローチャート。 TTCの別の算出方法を示す説明図。 第2実施形態例に係る、診断装置のハードウェア構成を示すブロック図の一例。 第2実施形態例にかかる診断装置の機能構成を示すブロック図の一例。
<第1実施形態例>
第1実施形態例の診断装置100は、自車両周辺の周辺情報及び運転者の視線を外部の情報取得装置から取得し、自車両周辺の対象物に対する運転者の認知度を、運転者の視線と対象物との位置関係に基づいて診断する。下記に、まず第1実施形態例の診断装置と、情報取得装置と、の関係及びそれぞれのハードウェア構成について説明する。
(1)診断装置及び情報取得装置の関係
図1は、第1実施形態例に係る、診断装置と情報取得装置との接続関係及びハードウェア構成を示すブロック図の一例である。
診断装置100は、情報取得装置200から各種情報を取得可能なように接続されておいる。例えば、診断装置100は、SCSI(Small Computer System Interface)、USB(Universal Serial Bus)などのインターフェースなどを介して、情報取得装置200と接続されている。また、診断装置100は、インターネットなどのネットワークを介して情報取得装置200と接続されていても良い。
(2)ハードウェア構成
(2−1)診断装置
診断装置100は、例えば、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、入出力機器I/F104、通信I/F(InterFace)108を有している。これらは、バス109を介して互いに接続されている。
入出力機器I/F104は、ディスプレイ105、スピーカ106及びキーボード107などの入出力機器と接続されており、例えばCPU101からの指示に応じて入出力機器に診断結果を出力する。
ROM102は、診断装置100が行う後述の各種制御に関わる各種制御プログラムを記憶している。
RAM103は、ROM102内の各種制御プログラム、情報取得装置200から取得した各種情報などを一時的に記憶する。各種情報には、例えば自車両周辺の周辺情報及び運転者の視線などが含まれる。また、RAM103は、各種制御プログラムの実行に応じて各種フラグなどの情報を一時的に記憶する。
CPU101は、ROM102に記憶された各種制御プログラムをRAM103に展開し、後述の各種制御を行う。
通信I/F108は、CPU101の制御に基づいて、例えば情報取得装置200との間でコマンド又はデータの送受信などの通信を行う。
バス109は、例えばPCI(Peripheral Component Interconnect)バスやISA(Industrial Standard Architecture)バス等からなり、上記構成を互いに接続する。
(2−2)情報取得装置
情報取得装置200は、例えば、CPU201、ROM202、RAM203、入出力機器I/F204、通信I/F207を有している。これらは、バス208を介して互いに接続されている。
(a)入出力機器I/F
入出力機器I/F204は、周辺情報取得機器205及び視線検出機器206などと接続されている。周辺情報取得機器205及び視線検出機器206により検出された情報は、入出力機器I/F204を介してRAM203、CPU201及び通信I/Fなどに出力される。
(b)周辺情報取得機器
周辺情報取得機器205は、自車両周辺に存在する一又は複数の対象物を含む周辺情報を取得する。周辺情報は、例えば自車両周辺の周辺映像、自車両周辺の対象物の位置、大きさなどの対象物情報などを言う。本実施形態例では、周辺情報取得機器205は、周辺情報として周辺映像を取得するものとする。例えば、周辺情報取得機器205は、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラなどの撮像装置からなり、自車両周辺の周辺映像を取得する。
図2は、周辺情報取得機器の取付位置と撮影範囲を示す説明図である。周辺情報取得機器205は、例えば図2に示すように、例えば前方カメラ205a、右側カメラ205b、左側カメラ205c及び後方カメラ205dの4つのカメラから構成される。前方カメラ205aは、車両300の前部バンパの中央に取り付けられて、車両300の前方を撮影する。後方カメラ205dは、車両300の後部バンパの中央に取り付けられて、車両300の後方を撮影する。右側カメラ205bは、車両300の右側面の中央に取り付けられて、車両300の右側方を撮影する。左側カメラ205cは、車両300の左側面の中央に取り付けられて、車両300の左側方を撮影する。
各カメラ205a〜205dは、例えばそれぞれが180度の画角を有する超広角レンズを用いたカメラである。このことから、図2に示すように、前方カメラ205aは車両300の前方領域210を撮影し、右側カメラ205bは車両300の右側方領域211を撮影し、左側カメラ205cは車両300の左側方領域212を撮影し、後方カメラ205dは、車両300の後方領域213を撮影する。各カメラ205a〜205dの撮影する領域は、それぞれ隣接するカメラが撮影する領域と重複するように構成される。
なお、各カメラ205a〜205dで撮影された映像は、車両300の中心点Oを原点とする後述の空間座標系に適合可能なように、各カメラ205a〜205dの取付位置、取付角度などに応じて補正される。
各カメラ205a〜205dは、図示したように、車両300の前面、右側面、左側面、後面のそれぞれ中央に取り付けることが好ましい。しかし、各カメラ205a〜205dの撮影領域が、隣接するカメラの撮影領域と部分的に重複する位置であればよく、各カメラ205a〜205dの取付位置は特に限定されるものではない。例えば、右側カメラ205b、左側カメラ205cは、車両300の左右のドアミラーに取り付けることも可能である。また、各カメラの撮影領域が一部重複し、かつ車両の周囲360度の範囲を撮影することが可能であればよく、カメラの数は4つに限定されるものではない。
また、各カメラ205a〜205dは、例えば、1秒当たり30枚のフレームを撮影する。カメラ205a〜205dからなる周辺情報取得機器205によって撮影された画像データは、入出力機器I/F204を介してRAM203に記憶される。
上記のように各カメラ205a〜205dにより映像を撮影することで、診断装置100は、後述の画像処理部122により車両300の全周囲の周辺映像を取得することができる。よって、診断装置100は、車両300の全周囲において対象物を抽出することができるため、車両300の運転者が視認困難な死角であっても対象物を抽出することができる。
(c)視線検出機器
次に、視線検出機器206は、運転者の顔、眼球、虹彩などの視線情報を検出する。
図3及び図4は、視線検出機器の取付位置を示す説明図である。視線検出機器206は、運転者の視線情報を取得可能な例えばCCDカメラ、CMOSカメラ、赤外線カメラなどの撮像装置からなる。
視線検出機器206は、図3、図4に示すように、例えば車両300のダッシュボード301上に設けられる。このとき、視線検出機器206は、運転者の顔及び目等を前方から検出可能なように、またハンドル302により遮られずに顔及び目等を撮影可能なように、例えばハンドル302近傍のダッシュボード301上に所定の角度で取り付けられる。ただし、運転者の顔及び目等を検出可能であれは、取付位置及び取付角度等は限定されない。
なお、視線検出機器206が撮影した映像は、その映像から検出される視線原点Pなどが、車両300の中心点Oを中心とする空間座標系の座標として定義可能なように、視線検出機器206の取付位置、取付角度などに応じて補正される。
また、視線検出機器206は、例えば1秒当たり30枚の画像フレームを撮影し、撮影された画像データは、入出力機器I/F204を介してRAM203に記憶される。
視線検出機器206が検出した運転者の顔、眼球、虹彩などの映像に基づいて視線150を検出することが可能である。運転者の視線150が検出されると、視線150の方向により運転者がどの方向を視認していたのかが分かる。例えば、視線150の方向が前方であれば、運転者は前方を視認していたと推測できる。また、視線150の方向がミラー303に向かっていれば、ミラー303を介して車両300の後方及び後側方などを視認していたと推測できる。
なお、車両300に設けられるミラー303には、図4に示すように車両300の左右のドア付近に設けられるドアミラー303L、303R、車両300内部に設けられるバックミラー303B、車両300のボンネット上に設けられるフェンダーミラー等が挙げられる。図5は、ミラーにより確認可能な領域の一例を示す説明図である。車両300の運転者は、左のドアミラー303L、右のドアミラー303R及びバックミラー303Bによって、それぞれ左ミラー領域304L、右ミラー領域304R及びバックミラー領域304Bを視認可能である。
(d)ROM、RAM、通信I/F
ROM202は、情報取得装置200が行う各種制御プログラムを記憶している。
RAM203は、ROM202内の各種制御プログラム、各種フラグ、周辺情報取得機器205及び視線検出機器206から受信した各種情報を一時的に記憶する。
通信I/F207は、CPU201の制御に基づいて診断装置100との間で、周辺情報取得機器205が取得した周辺映像、視線検出機器206が検出した視線情報、各種コマンドなどのデータの送受信を行う。
(e)CPU
CPU201は、ROM202に記憶された各種制御プログラムをRAM203に展開し、各種制御を行う。例えば、CPU201は、各種制御プログラムの実行により周辺情報取得機器205及び視線検出機器206を制御し、周辺映像及び視線情報の取得を開始させる。また、CPU201は、視線情報に基づいて、視線原点P及び視線150の方向を示す視線ベクトル150aなどを検出する。なお、視線原点P及び視線ベクトル150aは、図3に示すように、例えば車両300の任意の中心点Oを原点とする空間座標系により定義される。中心点Oは、例えば一例えあるが、車両300の車幅の半分及び車長の半分の位置により定義される。なお、空間座標系はX、Y、Z座標で表すものとし、中心点Oは(X、Y、Z)=(0、0、0)で表される。
(3)処理の概要
図6〜図7を用いて診断装置100による処理の概要を説明する。なお、以下では、自車両300は、対象物の認知度を診断される運転者が運転する車両であり、他車両500は自車両300に対して対象物となり得る車両である。
図6は、周辺映像が投影される三次元投影面を示す模式図である。
診断装置100は、まず自車両300周辺の対象物を把握するために、情報取得装置200のから自車両300周辺の周辺映像を受信する。なお、対象物とは、自車両300周辺に存在する障害物であり、詳細には、運転者が自車両300を運転する際に認知すべき障害物である。対象物には、車、自転車、バイクなどの車両、人、動物、その他の走行の障害となり得る物体などが含まれる。
次に、診断装置100は、図6に示すように三次元投影面400に周辺映像を投影する。三次元投影面400としては、一例として、自車両300を中心にしたお椀形状の投影面を想定している。これにより、診断装置100は、自車両300の周辺の対象物を把握可能である。図6では、対象物である他車両500は、自車両300の左斜め前方に存在している。
図7は、図6の自車両と他車両との関係を示す斜視図である。他車両500は、自車両300が走行する車線600に対して、左に隣接する車線601上を走行している。また、自車両300の運転者の視線ベクトル150aが他車両500に向かっているため、診断装置100は自車両300の運転者が他車両500を視認していると判定することができる。具体的には、例えば、診断装置100は、自車両300の運転者の視線150を中心とした視線空間151を設定し、視線空間151内に対象物である他車両500の少なくとも一領域が含まれるか否かに基づいて視認しているか否かを判定する。より具体的には後述するが、診断装置100は、視線ベクトル150aと、自車両300から他車両500への対象物ベクトル160aと、の成す角Δθに基づいて判定する。ここで、視線空間151とは、視線原点Pを始点とし、視線ベクトル150aとの成す角θaが所定の閾値θth以下である視線空間線151aの集合が構成する空間を言う。
(4)機能構成
次に情報取得装置200及び診断装置100の機能構成について説明する。
図8は、第1実施形態例にかかる情報取得装置及び診断装置の機能構成を示すブロック図の一例である。なお、図8に示す各機能部の接続線は、データの流れの一例を示したものであり、全てのデータの流れを記載したものではない。
まず情報取得装置200の機能構成について説明する。
(4−1)情報取得装置
情報取得装置200の各機能部による処理は、CPU201、ROM202、RAM203、入出力機器I/F204、周辺情報取得機器205、視線検出機器206、通信I/F207等が相互に連携することにより実行される。
情報取得装置200の機能部には、例えば、周辺情報取得部221、視線検出部222、送受信部223、各種データDB224などが含まれる。
(4−1−1)周辺情報取得部
周辺情報取得部221は、前述の図2に示す前方カメラ205a、右側カメラ205b、左側カメラ205c及び後方カメラ205dからなる周辺情報取得機器205が撮影した周辺映像を取得し、各種データDB224に格納する。
(4−1−2)視線検出部
視線検出部222は、視線検出機器206が検出した運転者の顔、眼球、虹彩などの映像に基づいて、視線原点P及び視線150の方向を示す視線ベクトル150aを算出する。
図9は視線原点P及び視線ベクトルの算出方法の一例を示す説明図である。例えば、視線検出部222は、顔、眼球、虹彩などの映像に基づいて顔の特徴点を算出し、予め記憶している運転者の顔の特徴量と比較する。次に、視線検出部222は、比較結果及び顔、眼球、虹彩の映像などに基づいて顔の向きを抽出するとともに、同図(a)に示す左の眼球152Lと右の眼球152Rとの中心位置を視線原点Pとして検出する。さらに、視線検出部222は、虹彩153aの中心位置、つまり瞳孔153bの中心位置を算出する。最後に、視線検出部222は、視線原点P及び瞳孔153bの中心位置に基づいて視線ベクトル150aを算出する。なお、運転者は頭を前後左右及び上下などに変更し得るため、空間座標系の中心点Oに対する視線原点Pの位置は頭の位置及び向き等に応じて変更される。
視線ベクトル150aは、車両300の任意の中心点Oを原点とする空間座標系内の座標により定義され得る。その他、視線ベクトル150aは、同図(b)及び(c)に示すように、視線ベクトル150aとXY平面との成す角であるピッチ角156aと、視線ベクトル150aとYZ平面との成す角である方位角156bと、により定義されても良い。
視線検出部222は、視線原点P及び視線ベクトル150aを各種データDB224に格納する。
(4−1−3)送受信部
情報取得装置200の送受信部223は、診断装置100の送受信部121との間で、各種データDB224内の各種データ、各種コマンド等を送受信する。
(4−2)診断装置
診断装置100の各機能部による処理は、CPU101、ROM102、RAM103、入出力機器I/F104、ディスプレイ105、スピーカ106、キーボード107、通信I/F108等が相互に連携することにより実行される。
診断装置100の機能部には、例えば、送受信部121、画像処理部122、対象物抽出部123、相対情報算出部124、危険度算出部125、視線判定部126、認知度診断部127、診断結果出力部128などが含まれる。さらに、診断装置100の機能部には、例えば、各種情報を記憶するための、周辺情報DB131、相対情報DB132、視線データDB133、診断結果DB134及び各種対応表DB135などが含まれる。
(4−2−1)送受信部
診断装置100の送受信部121は、情報取得装置200の送受信部223との間で、各種データ、各種コマンド等を送受信する。
(4−2−2)周辺情報DB
周辺情報DB131は、自車両周辺の対象物を含む周辺情報として、自車両周辺の周辺映像を情報取得装置200から取得して記憶する。周辺映像には、前方カメラ205a、右側カメラ205b、左側カメラ205c及び後方カメラ205dからなる周辺情報取得機器205が撮影した映像が含まれる。
図10は、周辺情報DBの周辺情報の一例である。周辺情報DB131は、例えば、各フレームごとに、フレーム番号及び各カメラ205での映像データを記憶する。映像データには、前方カメラ205aが撮影した前方映像、右側カメラ205bが撮影した右側映像、左側カメラ205cが撮影した左側映像及び後方カメラ205dが撮影した後方映像が含まれる。
(4−2−3)視線データDB
視線データDB133は、自車両の運転者の視線原点P及び視線ベクトル150aを情報取得装置200から取得し記憶する。また、視線データDB133は、視線判定部126が判定した、ミラー303の視認の有無、ミラー視線原点R及びミラー視線ベクトル155aなども記憶する。
なお、ミラー視線原点Rとは、視線ベクトル150aとミラー303のミラー面の領域との交点の座標を言うものとする。また、運転者からの視線150はミラー303により反射され、ミラー視線155となる。ミラー視線ベクトル155aとは、ミラー視線155の方向を示すベクトルである。なお、ミラー視線原点R及びミラー視線ベクトル155aは、自車両300の任意の中心点Oを中心とする空間座標系により定義される。
図11は、視線データDBの視線データの一例である。視線データDB133は、各フレームごとに、フレーム番号、視線原点P、視線ベクトル150a、ミラー視認のYes/NO、ミラー視線原点R及びミラー視線ベクトル155aを記憶する。例えば、視線データDB133は、フレーム番号1のレコードにおいて、視線原点P(Xv0、Yv0、Zv0)、視線ベクトルVisual1、ミラー305を視認していないことを示す“NO”を記憶している。また、視線データDB133は、フレーム番号6のレコードにおいて、視線原点P(Xv1、Yv1、Zv1)、視線ベクトルVisual4、ミラー303を視認していることを示す“YES”、ミラー視線原点R(Xm1、Ym1、Zm1)、ミラー視線ベクトルVmirror1を記憶している。
(4−2−4)画像処理部
画像処理部122は、各カメラ205が撮影した映像データを周辺情報DB131から取得し、合成することで前述の図6に示すような三次元投影面400に投影された周辺映像を生成する。具体的には、まず、画像処理部122は、各カメラ205a〜205dの各画素と、三次元投影面400の各座標と、の対応関係を、後述の各種対応表DB135から取得する。次に、画像処理部122は、前記座標の対応関係に基づいて、各カメラ205a〜205dの映像データを三次元投影面400に投影し、周辺映像を生成する。
(4−2−5)対象物抽出部
対象物抽出部123は、画像処理部122が生成した周辺映像から、自車両300周辺に存在する一又は複数の対象物を抽出する。
図12は、対象物の抽出方法の一例を示す説明図である。図12では、車線600上を自車両300が走行しており、左に隣接する車線601上を対象物である他車両500が走行している。まず、対象物抽出部123は、例えば周辺映像における輝度のコントラスト比に基づいてエッジを抽出し、車線表示ライン602a〜602dを検出する。次に、対象物抽出部123は、車線表示ライン602a〜602dの交点から消失点Dを検出し、消失点Dに基づいて対象物の検索範囲を確定する。例えば、検索範囲は、消失点Dと車線表示ライン602a〜602dとにより囲まれる範囲、又は前記範囲を含む所定範囲と確定することができる。
対象物抽出部123は、検索範囲内において自車両300周辺の対象物候補を抽出する。対象物候補とは、対象物となり得る候補を言う。次に、対象物抽出部123は、対象物候補と、予め格納されている対象物の各種特徴を記憶したパターンデータと、を比較することで、対象物候補を対象物とするか否かを決定する。例えば、対象物抽出部123は、対象物候補が車両のパターンデータと一致する場合には、対象物候補を対象物と決定する。ただし、対象物は車両に限られず、例えば人等であっても良い。図12の例では、対象物抽出部123は、対象物として他車両500を抽出している。一方、対象物抽出部123は、対象物候補が対象物のパターンデータと一致しない場合、対象物候補を対象物ではないと決定する。
対象物抽出部123は、抽出した各対象物を識別するために、各対象物に対象物ID(IDentification)を付与し、自車両300に対する対象物の相対位置を取得する。相対位置としては、例えば、対象物のうち、自車両300に最も近接する一辺の中心座標と、対象物のうち、自車両300に最も近接する部分の座標と、が挙げられる。図12のように他車両500が自車両300に対して左前方を走行している場合は、対象物抽出部123は、相対位置として、他車両500の後部の中心点Q0と、他車両500の右隅点Q1と、を取得する。一方、他車両500が自車両300に対して右後方を走行している場合は、対象物抽出部123は、相対位置として、他車両500の前部の中心点Q0と、他車両500の左隅点Q1と、を取得する。
ここで、相対位置Q0、Q1は、車両300の任意の中心点Oを原点とする空間座標系により定義される。なお、対象物抽出部123は、対象物の位置を把握できれば良く、対象物の相対位置は前述の相対位置Q0、Q1に限定されない。
対象物抽出部123は、対象物ID及び相対位置Q0及びQ1を相対情報DB132に格納する。
(4−2−6)相対情報算出部、相対情報DB
相対情報DB132は、対象物抽出部123から取得した対象物ID及び相対位置Q0及び相対位置Q1を、各フレーム及び各対象物ごとに記憶する。また、相対情報DB132は、相対情報算出部124が算出した相対距離L、相対速度V及び対象物ベクトル160aなどを、各フレーム及び各対象物ごとに記憶する。
図13は、相対情報DBの相対情報の一例である。相対情報DB132は、例えば、フレーム番号、対象物ID、相対位置Q0、相対位置Q1、相対距離L、相対速度V及び対象物ベクトル160aを記憶している。相対距離Lとしては、X方向の相対距離Lx及びY方向の相対距離Lyがある。相対速度Vとしては、X方向の相対速度Vx及びY方向の相対速度Vyがある。なお、対象物ベクトル160aとは、視線原点P又はミラー視線原点Rから対象物への方向160を示すベクトルである。
相対情報算出部124は、自車両300と一又は複数の対象物との相対距離L及び相対速度V、対象物ベクトル160aなどの相対情報を算出する。相対情報の算出方法を再び図12を用いて説明する。まず、相対情報算出部124は、相対情報DB132から対象物の相対位置Q1を読み出す。また、相対情報算出部124は、自車両300の中心点Oと対象物の相対位置Q1との距離に基づいて、X方向の相対距離Lx’及びY方向の相対距離Ly’を算出する。なお、相対位置Q1とは、対象物が他車両500であるとすると、他車両500の車体のうち、自車両300に最も近接する部分の座標である。図13の相対情報DB132を参照すると、フレーム番号1及び対象物ID2の場合、相対位置Q0は(X21、Y21、Z21)である。中心点Oの座標は(0、0、0)であるので、X方向の相対距離Lx’はLx’=X21−0=X21と算出される。同様に、Y方向の相対距離Ly’はLy’=Y21−0=Y21と算出される。ここで、相対距離Lx’及びY方向の相対距離Ly’は、自車両300の車幅の半分及び車長の半分を含む距離である。よって、相対情報算出部124は、自車両300のX方向の車幅の半分であるLxcarを、相対距離Lx’から減算することで、相対距離Lxを算出する。同様に、相対情報算出部124は、自車両300のY方向の車長の半分であるLycarを、相対距離Ly’から減算することで、相対距離Lyを算出する。
より具体的な相対距離Lの算出方法として、カメラ205の設置高さ及び焦点距離等を考慮した相対距離の算出方法の一例を次に説明する。図14は、相対距離Lの算出方法の一例を示す説明図である。自車両300の周辺映像を撮影するカメラ205は、自車両300の中心点Oの上部の車体上に設けられているものとする。また、カメラ205の地面からの高さはHであり、カメラ205のレンズの焦点距離はfであり、消失点Dの座標は(XD、YD、ZD)であるとする。ここで、対象物である他車両500の相対位置Q0を(XQ0、YQ0、ZQ0)とすると、相対情報算出部124は、次式(1)、(2)に基づいて相対距離Lx’及び相対距離Ly’を算出する。
相対距離Ly’=f×H/│YQ0−YD│ ・・・(1)
相対距離Lx’=Ly’×f/│XQ0−XD│ ・・・(2)
相対情報算出部124は、相対距離Lx’及び相対距離Ly’と、Lxcar及びLycarと、に基づいて、前述と同様に相対距離Lx及び相対距離Lyを算出し、相対情報DB132に格納する。これにより、現在着目している現フレームにおける、相対距離Lx及び相対距離Lyを算出することができる。
次に、相対情報算出部124は、現フレームに対して1つ前の前フレームにおいて、着目している対象物の相対距離Ly及び相対距離Lxを取得する。つまり、相対情報算出部124は、同一の対象物IDについて、前フレームと現フレームとの相対距離Lの差を算出する。次に、相対情報算出部124は、現フレームと前フレームとの相対距離Lyの差分と、フレーム間の時間と、に基づいてY方向の相対速度Vyを算出する。同様に、相対情報算出部124は、現フレームと前フレームとの相対距離Lxの差分と、フレーム間の時間と、に基づいてX方向の相対速度Vxを算出する。
さらに、相対情報算出部124は、視線データDB133から視線原点P又はミラー視線原点Rを取得する。具体的には、相対情報算出部124は、視線データDB133においてミラー視認の結果が“NO”であれば視線原点Pを取得し、ミラー視認の結果が“YES”であればミラー視線原点Rを取得する。また、相対情報算出部124は、相対情報DB132から、対象物ベクトルの算出対象である対象物の相対位置Q0を取得する。次に、相対情報算出部124は、視線原点P又はミラー視線原点Rから対象物への方向160を示す対象物ベクトル160aを算出する。
フレーム番号1及び対象物IDが2について、対象物ベクトル160aは次のように算出される。相対情報算出部124は、視線データDB133において、ミラー視認の結果が“NO”であるので視線原点P(Xv0、Yv0、Zv0)を取得する。また、相対情報算出部124は、相対情報DB132から相対位置Q0(X21、Y21、Z21)を取得する。次に、相対情報算出部124は、視線原点P(Xv0、Yv0、Zv0)と、相対位置Q0(X21、Y21、Z21)と、に基づいて対象物ベクトルVobject21を算出する。
また、フレーム番号6及び対象物IDが2について、対象物ベクトル160aは次のように算出される。相対情報算出部124は、視線データDB133において、ミラー視認の結果が“YES”であるのでミラー視線原点R(Xm1、Ym1、Zm1)を取得する。ここで、フレーム番号6及び対象物IDが1についての相対位置Q0が(X26、Y26、Z26)であるとする。相対情報算出部124は、ミラー視線原点R(Xm1、Ym1、Zm1)と、相対位置Q0(X26、Y26、Z26)と、に基づいて対象物ベクトルVobject26を算出する。
なお、対象物ベクトル160aは、空間座標系内の座標により定義されても良いし、対象物ベクトル160aとXY平面及びYZ平面との成す角によって定義されても良い。
相対情報算出部124は、上記の算出結果を相対情報DB132に格納する。
なお、対象物は自車両300に近づいたり、離れたりするため、対象物数は増加又は減少する。例えば、図13のフレーム番号1のフレームでの対象物数は“N”であり、フレーム番号2のフレームでの対象物数は“M”であり異なる。また、対象物IDが“1”〜“4”の対象物は、フレーム番号1のフレームで存在していたが、フレーム番号iのフレームでは存在していない。
(4−2−7)危険度算出部、診断結果DB
危険度算出部125は、相対情報DB132内の相対情報などに基づいて、対象物と自車両300との衝突の危険度を算出する。例えば、危険度算出部125は、次のようにして危険度を算出する。
危険度算出部125は、相対距離L及び相対速度Vに基づいてTTC(Time To Collision)を求め、TTCに基づいて危険度を算出する。ここで、TTCとは、対象物と自車両300とが衝突するまでに要する予測時間である。対象物及び自車両300が等速運動すると仮定すると、TTCは次式(3)に基づいて算出できる。
TTC=相対距離/相対速度 ・・・(3)
X方向及びY方向のそれぞれについてTTCを算出するため、まず、危険度算出部125は、相対情報DB132から相対距離Lx、Ly及び相対速度Vx、Vyを取得する。危険度算出部125は、前記式(3)に基づいてX方向のTTCx及びY方向のTTCyを算出する。次に、危険度算出部125は、各種対応表DB135に格納されているTTCと危険度との対応表を読み出し、TTCx及びTTCyを前記対応表に照らし合わせて危険度を算出する。
図15は、TTCと危険度との関係を示す対応表の一例である。図15では、例えばTTCは危険度に応じて10段階に分類されている。危険度算出部125は、例えばTTCxが30秒である場合にはX方向の危険度を3と判定し、TTCyが6秒であるとするとY方向の危険度を9と算出する。さらに、危険度算出部125は、TTCx及びTTCyのそれぞれの危険度を対象物の危険度としても良いが、一例としてX方向及びY方向の危険度のうち高い方の危険度を、対象物の現フレームでの危険度に設定しても良い。
なお、危険度算出部125は、対象物及び自車両300が等速運動すると仮定して前記式(3)に基づいてTTCを算出しているが、相対加速度などをさらに考慮してTTCを算出しても良い。
危険度算出部125は、上記の算出結果を後述の診断結果DB134に格納する。
図16は診断結果DBの一例である。診断結果DB134は、危険度算出部125が算出したTTCx、TTCy及び危険度を各フレーム及び各対象物ごとに記憶する。さらに、診断結果DB134は、後述の視線判定部126での判定結果及び認知度診断部127での診断結果などを記憶する。視線判定部126での判定結果としては、視線ベクトル150a又はミラー視線ベクトル155aと、対象物ベクトル160aと、成す角ΔθH、ΔθV及び視認の有無が挙げられる。また、認知度診断部127での診断結果としては、自車両300の運転者の対象物に対する認知度が挙げられる。
また、診断結果DB134は、さらに後述の図19に示す視認時間及び非視認時間の算出結果を記憶する。
(4−2−8)視線判定部
視線判定部126は、情報取得装置200から取得した視線原点P及び視線ベクトル150aに基づいて、視線ベクトル150aがミラー303上にあるか否かを判定する。ここで、視線判定部126は、自車両300に設けられた左右のドアミラー303L、303R及びバックミラー303Bなどの各ミラー面の領域を例えば情報取得装置200から取得するなどして把握しているものとする。ミラー面の領域とは、入射光を反射する反射面の領域であり、例えば空間座標系を基準とした座標の集合により定義される。視線判定部126は、視線原点Pから延在する視線ベクトル150aと、ミラー面の領域と、が交差するかに基づいて、視線ベクトル150aがミラー303上にあるか否かを判定する。
視線判定部126は、視線ベクトル150aとミラー面の領域とが交差する場合には、その交点をミラー視線原点Rに設定する。さらに、視線判定部126は、視線ベクトル150aをミラー視線原点Rを起点としてミラー303により反射させてミラー視線ベクトル155aを求める。視線判定部126は、これらのミラー303の視認の有無、ミラー視線原点R及びミラー視線ベクトル155aを、前述の図11に示すように視線データDB133に格納する。なお、各ミラー303が微調整されるなどして位置が変更された場合には、視線判定部126は、変更後のミラー面の領域を例えば情報取得装置200から取得するものとする。
また、視線判定部126は、自車両300の運転者の視線150を中心とした視線空間151を設定し、視線空間151内に対象物の少なくとも一領域が含まれるか否かを判定し、視認しているか否かを判定する。ここでは、視線判定部126は、視線ベクトル150a又はミラー視線ベクトル155aと、対象物ベクトル160aと、の成す角Δθに基づいて、運転者が対象物を視認しているか否かを判定する。判定方法について以下に図17、図18を用いて説明する。
図17は視線ベクトルと対象物ベクトルとの成す角Δθに基づいた視認の判定方法の一例を示す説明図である。自車両300は車線600上を走行しており、対象物である他車両500は、車線600の左に隣接する車線601上を走行しており、自車両300に対して左前方に位置している。視線判定部126は、視線データDB133を参照し、判定対象のフレームにおいてミラー視認がNOであると判断すると、視線原点P及び視線ベクトル150aを読み出す。また、視線判定部126は、相対情報DB132を参照し、判定対象のフレーム及び判定対象の対象物について、対象物ベクトル160aを読み出す。次に、視線判定部126は、視線原点Pを起点とする運転者の視線ベクトル150aと、視線原点Pを起点とする対象物ベクトル160aと、の成す角Δθを算出する。ここでは、視線判定部126は、同図(a)に示すように、XY平面内での視線ベクトル150aと対象物ベクトル160aとの成す角ΔθHを算出する。さらに、視線判定部126は、同図(b)に示すように、YZ平面内での視線ベクトル150aと対象物ベクトル160aとの成す角ΔθVを算出する。
次に、視線判定部126は、視認しているか否かを判定するための所定の閾値θthと、算出したΔθと、を比較し、運転者が対象物を視認しているか否かを判定する。閾値θthには、XY面内での成す角ΔθHを判定するための所定の閾値θHthと、YZ面内での成す角ΔθVを判定するための所定の閾値θVthと、がある。よって、視線判定部126は、成す角ΔθHが所定の閾値θHth以下か否かを判定し、さらに成す角ΔθVが所定の閾値θVth以下か否かを判定する。視線判定部126は、成す角ΔθHが所定の閾値θHth以下であり、かつ、成す角ΔθVが所定の閾値θVth以下である場合は、自車両300の運転者が対象物である他車両500を視認していたと判定する。一方、視線判定部126は、成す角ΔθHが所定の閾値θHthより大きいか、あるいは、成す角ΔθVが所定の閾値θVthより大きい場合は、運転者が他車両500を視認していなかったと判定する。
図18はミラー視線ベクトルと対象物ベクトルとの成す角Δθに基づいた視認の判定方法の一例を示す説明図である。自車両300は車線600上を走行しており、対象物である他車両500は、車線600の右に隣接する車線603上を走行しており、自車両300に対して右後方に位置している。視線判定部126は、視線データDB133を参照し、判定対象のフレームにおいてミラー視認がYESであると判断すると、ミラー視線原点R及びミラー視線ベクトル155aを読み出す。例えば、運転者は、自車両300の右のドアミラー303Rを視認しているものとする。よって、図18に示すように、視線原点Pを起点とする視線ベクトル150aは、ミラー303Rにより反射され、ミラー視線原点Rを起点とするミラー視線ベクトル155aとなっている。また、視線判定部126は、相対情報DB132を参照し、判定対象のフレーム及び判定対象の対象物について、対象物ベクトル160aを読み出す。視線判定部126は、ミラー視線原点Rを起点とするミラー視線ベクトル155aと、ミラー視線原点Rを起点とする対象物ベクトル160aと、の成す角Δθを算出する。つまり、視線判定部126は、同図(a)、(b)に示すように、XY平面内でのミラー視線ベクトル155aと対象物ベクトル160aとの成す角ΔθH、及びYZ平面内でのミラー視線ベクトル155aと対象物ベクトル160aとの成す角ΔθVを算出する。さらに、視線判定部126は、前述と同様に、成す角ΔθH及びΔθVと、閾値θHth及びθVthと、を比較することで、自車両300の運転者がミラー303を介して他車両500を視認していたか否かを判定する。
なお、上記では、ΔθH及びΔθVの両方に基づいて視認の有無を判定しているが、例えばいずれか一方のΔθHに基づいて視認の有無を判定することもできる。
視線判定部126は、判定結果として、成す角ΔθH、ΔθV及び視認の有無を診断結果DB134に格納する。
さらに、視線判定部126は、後述の認知度の判定に用いるために、各対象物の視認時間及び非視認時間を算出しても良い。図19は、診断結果DBが記憶する視認時間及び非視認時間の一例である。図19では、各対象物IDについて、各フレームでの視認の有無がYES、NOにより示されている。視線判定部126は、連続するフレームにおいて着目している対象物が視認されている場合は、連続するフレーム数分だけフレーム時間Δtfを加算して視認時間を算出する。視線判定部126は、非視認時間についても同様に、視認されていないフレーム数分だけフレーム時間Δtfを加算して非視認時間を算出する。なお、1フレームのフレーム時間をΔtfとしている。
例えば図19において対象物IDが“1”の対象物は、例えばフレーム番号2〜7までの6フレームでは連続して視認されているため、視線判定部126はフレーム番号7の時点で視認時間を6Δtfと算出する。また、視線判定部126は、フレーム12〜15までの4フレームでは対象物は視認されていないため、視線判定部126はフレーム番号15の時点で非視認時間を4Δtfと算出する。なお、視線判定部126は、視認及び非視認が入れ替わると、視認時間及び非視認時間をリセットする。
(4−2−9)認知度診断部
認知度診断部127は、自車両300の運転者の対象物に対する認知度を診断し、診断結果DB134に格納する。
ここで、運転者が対象物を認知しているとは、対象物がどこに存在するのか、対象物がどの方向に進行しているのか、又は対象物が何であるかなど、対象物に関する情報を運転者が把握している状態を言う。また、対象物に対する認知度とは、対象物をどの程度認知しているかを表す指標である。なお、対象物を単に視認しているだけでは、前述のような対象物に関する情報を運転者が把握しているかどうかは不明であるため、ここでは視認と認知とを区別している。
認知度の診断方法には種々考えられるが、認知度診断部127は例えば以下の方法(i)〜(vi)により認知度を診断することができる。ただし診断方法は一例であり、以下に限定されない。
(i)
例えば、認知度診断部127は、図7に示す視線空間151と対象物である他車両500との位置関係に基づいて認知度を診断する。例えば、認知度診断部127は、対象物が視線空間151の中央部に位置しているか否かを判断し、対象物が視線空間の中央部に位置していれば視線150と対象物とが交差しており、対象物の認知度が高いと診断する。また、認知度診断部127は、対象物のうち何%が視線空間151を占有しているかを判断し、対象物全領域が視線空間151を占有していれば、その対象物の認知度が高いと診断する。なお、認知度診断部127は、視線空間151に対する対象物の位置と、認知度と、の関係、視線空間151に含まれる対象物の割合と、認知度と、の関係などを予め保持しているものとする。
(ii)
例えば、認知度診断部127は、視線ベクトル150a又はミラー視線ベクトル155aと、対象物ベクトル160aと、の成す角Δθの大きさに応じて、認知度を診断する。図20は、成す角ΔθH及びΔθVと認知度との関係を示す対応表の一例である。ΔθH及びΔθVの所定範囲に対して0〜5の6段階の認知度が対応付けられている。認知度診断部127は、診断結果DB134からΔθH及びΔθVを取得し、図20に示す対応表を参照して認知度を診断する。
例えば、認知度診断部127は、ΔθHが0°でΔθVが1°である場合は、認知度を最も高いレベルの“5”と診断する。このとき、運転者の視線150は対象物に直接向けられており、運転者は確実に対象物を認知していると考えられる。また、認知度診断部127は、ΔθHに基づく認知度とΔθVに基づく認知度とが異なる場合は、低い方のレベルに基づいて認知度を判断する。例えば、ΔθHが5°に基づく認知度が5で、ΔθVが1°に基づく認知度が3である場合は、認知度は“3”と診断しても良い。一方、認知度診断部127は、成す角ΔθHが所定の閾値θHthより大きいか、あるいは、成す角ΔθVが所定の閾値θVthより大きい場合は、認知度を最も低いレベルの“0”と診断する。
(iii)
視認時間が短く対象物を一瞬しか視認していない場合、運転者は対象物を認知できていない。そこで、認知度診断部127は視認時間の長さに応じて認知度を診断する。ここで、各種対応表DB135は視認時間の長さと認知度との対応表を記憶しており、前記対応表では例えば視認時間が長くなるほど認知度が高く設定されているものとする。認知度診断部127は、診断結果DB134から視認時間を読み出し、前記対応表に基づいて認知度を診断する。
(iv)
対象物についての非視認時間が長い場合、運転者は対象物を認知できていない。そこで、認知度診断部127は、非視認時間の長さに基づいて認知度を診断する。ここで、各種対応表DB135は非視認時間の長さと認知度との対応表を記憶しており、前記対応表では例えば非視認時間が長くなるほど認知度が低く設定されているものとする。認知度診断部127は、診断結果DB134から非視認時間を読み出し、前記対応表に基づいて認知度を診断する。
また、認知度診断部127は、視認時間及び非視認時間の両方に応じて認知度を診断しても良い。例えば、認知度診断部127は、視認時間が長いことに基づいて一旦認知度を高く診断しても、視認時間が終了した後の非視認時間が長い場合には非視認時間に応じて認知度を低く診断する。
また、認知度診断部127は、非視認時間が、自車両と各対象物とが衝突するまでの予測時間であるTTC未満か否かに基づいて、各対象物に対する認知度を診断しても良い。
対象物に対する非視認時間がTTC以上であると、自車両と対象物とが衝突する可能性がある。よって、認知度診断部127は、非視認時間がTTC以上である場合、対象物に対する認知度を小さくする。一方、認知度診断部127は、非視認時間がTTCよりも小さい場合、対象物に対する認知度を大きくする。
また、認知度診断部127は、視線150が複数の視線空間151を移動する際の移動速度に基づいて認知度を診断しても良い。例えば、認知度診断部127は、移動速度が所定値Va以上の場合は認知度を高くし、移動速度が所定値Va未満の場合は認知度を低くする。
(v)
認知度診断部127は、複数の対象物の各視認時間が所定時間Ta内において占める視認頻度に基づいて、各対象物に対する認知度を診断しても良い。また、診断装置は、複数の対象物それぞれに対する視認間隔に基づいて、各対象物に対する認知度を診断しても良い。
図21は、視認頻度又は視認間隔に基づいて認知度を診断する方法を説明する説明図である。対象物として対象物A、対象物B及び対象物Cが抽出されており、自車両300の運転者は対象物A〜Cを交互に視認しているものとする。図21では、時間軸t上に、各対象物A〜Cの視認時間ta、tb、tcがそれぞれ示されている。認知度診断部127は、所定時間Ta内において各対象物A〜Cが視認されている視認頻度を計数する。認知度診断部127は、例えば各対象物に対する視認頻度が高いほど、認知度を高く診断する。
また、認知度診断部127は、各対象物A〜Cの視認間隔ΔT1、ΔT2、ΔT3を算出し、視認間隔ΔT1〜ΔT3に基づいて認知度を診断する。例えば、認知度診断部127は、視認間隔ΔT1〜ΔT3が、各対象物A〜Cを視認可能な適切な時間間隔であるか否かに基づいて認知度を診断する。視認間隔は、例えば各視認時間の中間点のあいだの時間により算出される。
以上により、診断装置100は、運転者が複数の対象物を認知できているかどうかを診断することができる。
(vi)
認知度診断部127は、自車両300周辺の対象物数と、自車両300周辺の対象物のうち視認されていると判定された対象物数と、の比に基づいて、運転者の認知度を診断しても良い。自車両300周辺に存在する複数の対象物に対する認知度を全体として診断することができる。
(4−2−10)診断結果出力部
診断結果出力部128は、診断結果DB134から、現在のフレームでの各対象物の認知度を取得し、ディスプレイ105、スピーカ106等の出力機器に出力する。
また、診断結果出力部128は、診断結果DB134から取得した認知度と所定値とを比較し、認知度が所定値以下の対象物に関する情報を出力しても良い。対象物に関する情報とは、例えば認知度、衝突の危険度及びTTCなどが挙げられる。また、認知度が所定値以下の対象物とは、視認時間が短い対象物及び視線空間に含まれず視認されていない対象物などが挙げられる。運転者が対象物に関する情報を受け取った場合、運転者は、衝突の危険度が高いにも関わらず認知度が低いなどの情報を取得し、それに応じて運転の改善などを行うことができる。
(4−2−11)各種対応表DB
各種対応表DB135は、各カメラ205a〜205dの各画素と、三次元投影面400の各座標と、の対応関係を、記憶している。
また、各種対応表DB135は、前記図15のTTCと危険度との関係を示す対応表、前記図20の成す角ΔθH及びΔθVと認知度との関係を示す対応表を記憶している。さらに、各種対応表DB135は、視認時間又は非視認時間と認知度との対応表などを記憶している。
(5)処理の流れ
以下に、第1実施形態例にかかる診断装置が実行する処理の流れを説明する。まず全体の処理の流れを説明し、次に全体処理を構成する各処理の流れについて説明する。
(5−1)全体処理
図22は、第1実施形態例にかかる診断装置が実行する全体処理の流れの一例を示すフローチャートである。全体処理は各フレームごとに実行される。
ステップS1:診断装置100は、周辺情報と、視線原点P及び視線ベクトル150aを含む視線データと、を情報取得装置200から取得し、それぞれ周辺情報DB131及び視線データDB133に格納する。
ステップS2:運転者がミラーを視認しているか否かに応じて、視線判定部126は、視線データのミラー処理を行う。
ステップS3:画像処理部122は周辺情報に基づいて自車両300の周辺映像を生成し、対象物抽出部123は、周辺映像から、自車両300周辺に存在する一又は複数の対象物を抽出する。
ステップS4:相対情報算出部124は、自車両300と一又は複数の対象物との相対距離L及び相対速度V、自車両300に対する対象物の方向を示す対象物ベクトル160aなどの相対情報を算出する。
ステップS5:危険度算出部125は、相対情報DB132内の相対情報などに基づいて、対象物と自車両300との衝突の危険度を算出する。
ステップS6:視線判定部126は、視線ベクトル150a又はミラー視線ベクトル155aと、対象物ベクトル160aと、の成す角Δθに基づいて、運転者が対象物を視認しているか否かを判定する。
ステップS7:認知度診断部127は、自車両300の運転者の対象物に対する認知度を診断し、診断結果DB134に格納する。
ステップS8:診断結果出力部128は、現在のフレームでの各対象物について、認知度、衝突の危険度及び/又はTTCなどを含む情報を、ディスプレイ105、スピーカ106等の出力機器に出力する。
(5−2)視線データのミラー処理
図23は、第1実施形態例にかかる視線データのミラー処理の流れの一例を示すフローチャートである。以下に、前述の全体処理のうち、視線データのミラー処理の流れについて説明する。
ステップS2a:視線判定部126は、視線原点P及び視線ベクトル150aに基づいて、視線ベクトル150aがミラー303上にあるか否かを判定する。視線ベクトル150aがミラー303上にある場合にはステップS2bに進み、そうでない場合は終了する。
ステップS2b、S2c:視線判定部126は、ミラー視線原点Rを設定するとともに(S2b)、ミラー視線ベクトル155aを算出する(S2c)。
(5−3)対象物抽出処理
図24は、第1実施形態例にかかる対象物抽出処理の流れの一例を示すフローチャートである。
ステップS3a:画像処理部122は、各カメラ205a〜205dの映像データを三次元投影面400に投影し、周辺映像を生成する。
ステップS3b、S3c:対象物抽出部123は、画像処理部122が生成した周辺映像においてエッジを抽出し(S3b)、車線表示ライン602a〜602dを検出する(S3c)。
ステップS3d、S3e:次に、対象物抽出部123は、車線表示ライン602a〜602dの交点から消失点Dを検出し(S3d)、消失点Dに基づいて対象物の検索範囲を確定する(S3e)。
ステップS3f:対象物抽出部123は、検索範囲内から対象物候補を抽出する。
ステップS3g、S3h:対象物抽出部123は、対象物候補についてパターンマッチングを行い(S3g)、対象物を抽出する(S3h)。
ステップS3i:対象物抽出部123は、抽出した対象物にIDを付与するとともに、自車両300に対する対象物の相対位置Q0及びQ1を取得し、相対情報DB132に格納する。
(5−4)相対情報算出処理
図25は、第1実施形態例にかかる相対情報算出処理の流れの一例を示すフローチャートである。
ステップS4a:相対情報算出部124は、現フレームにおいて一の対象物を選択し、相対情報DB132から位置情報を取得する。位置情報には、自車両300に対する対象物の相対位置Q0、相対位置Q1が含まれる。
ステップS4b、S4c:相対情報算出部124は、自車両300の中心点Oと対象物の相対位置Q1との距離に基づいて、Y方向の相対距離Lyを算出し(S4b)、X方向の相対距離Lx算出する(S4c)。
ステップS4d:次に、相対情報算出部124は、現フレームの1つ前の前フレームにおいて、前記一の対象物の相対距離Ly及び相対距離Lxを取得する。
ステップS4e、S4f:相対情報算出部124は、現フレームと前フレームとの相対距離Lの差分と、フレーム間の時間と、に基づいてY方向の相対速度Vy及びX方向の相対速度Vxを算出する。
ステップS4g:相対情報算出部124は、視線ベクトル150aがミラー303上にあり自車両300の運転者がミラーを視認しているか否かを判定する。
ステップS4h:相対情報算出部124は、視線ベクトル150aがミラー303上にある場合は、視線データDB133からミラー視線原点Rを取得する。
ステップS4i:一方、相対情報算出部124は、運転者がミラーを視認していなければ、視線データDB133から視線原点Pを取得する。
ステップS4j:相対情報算出部124は、視線原点P又はミラー視線原点Rから対象物への方向160を示す対象物ベクトル160aを算出する。
ステップS4k、S4l:相対情報算出部124は、現フレームの全ての対象物について相対情報を算出していれば(S4k)、処理を終了する。そうでない場合は、次の対象物を選択して位置情報を取得するとともに(S4l)、ステップS4bに戻る。
(5−5)危険度算出処理
図26は、第1実施形態例にかかる危険度算出処理の流れの一例を示すフローチャートである。
ステップS5a:危険度算出部125は、X方向の相対距離Lx及び相対速度Vxを相対情報DB132から取得する。
ステップS5b:危険度算出部125は、X方向の相対距離Lx及び相対速度Vxに基づいて、X方向において自車両300と対象物とが衝突するまでのTTCxを算出する。
ステップS5c、S5d:危険度算出部125は、相対情報DB132から取得したY方向の相対距離Ly及び相対速度Vyに基づいて(S5c)、Y方向において自車両300と対象物とが衝突するまでのTTCyを算出する(S5d)。
ステップS5e:危険度算出部125は、TTCx及びTTCyに基づいてX方向及びY方向それぞれについて危険度を算出し、高い方の危険度を現フレームでの対象物の危険度とする。
ステップS5f、S5g:危険度算出部125は、現フレームの全ての対象物について危険度を算出していれば(S5f)、処理を終了する。そうでない場合は、次の対象物を選択して(S5g)、ステップS5aに戻る。
(5−6)視線判定処理
図27は、第1実施形態例にかかる視線判定処理の流れの一例を示すフローチャートである。
ステップS6a:視線判定部126は、視線データDB133を参照し、現フレームにおいて、視線ベクトルがミラー303上にあるか否かに基づいてミラー303の視認の有無を判断する。ミラー303を視認している場合はステップS6dに進み、そうで無い場合はステップS6bに進む。
ステップS6b:視線判定部126は、ミラー303を視認していない場合は、視線データDB133から視線原点P及び視線ベクトル150aを読み出す。
ステップS6c:視線判定部126は、判定対象の対象物を選択し、相対情報DB132から対象物ベクトル160aを読み出す。次に、視線判定部126は、視線原点Pを起点とする視線ベクトル150aと、視線原点Pを起点とする対象物ベクトル160aと、の成す角ΔθH及びΔθVを算出する。
ステップS6d:視線判定部126は、ミラー303を視認している場合は、視線データDB133からミラー視線原点R及びミラー視線ベクトル155aを読み出す。
ステップS6e:視線判定部126は、判定対象の対象物を選択し、相対情報DB132から対象物ベクトル160aを読み出す。次に、視線判定部126は、視線原点Rを起点とするミラー視線ベクトル155aと、ミラー視線原点Rを起点とする対象物ベクトル160aと、の成す角ΔθH及びΔθVを算出する。
ステップS6f:視線判定部126は、成す角ΔθH及びΔθVが、閾値θHth及びθVth以下か否かを判定する。
ステップS6g:視線判定部126は、成す角ΔθHが所定の閾値θHth以下であり、かつ、成す角ΔθVが所定の閾値θVth以下である場合は、自車両300の運転者が対象物を視認していたと判定する。
ステップS6h:一方、視線判定部126は、成す角ΔθHが所定の閾値θHthより大きいか、あるいは、成す角ΔθVが所定の閾値θVthより大きい場合は、運転者が対象物を視認していなかったと判定する。
ステップS6i:さらに、視線判定部126は、各対象物の視認時間及び非視認時間を算出する。
ステップS6j、S6k:危険度算出部125は、現フレームの全ての対象物について上記判定が終了していれば(S6j)、処理を終了する。そうでない場合は、次の対象物を選択して(S6k)、ステップS6aに戻る。
上記本実施形態例に係る診断装置100は、自車両300の運転者の実際の視線方向と、自車両300周辺の対象物と、の位置関係によって対象物に対する認知度を診断するため、認知度の診断精度を向上することができる。
(6)変形例
以下に本実施形態例の変形例を説明する。
(6−1)変形例1
上記実施形態例では、診断装置100は、様々な対象物の各種特徴を記憶したパターンデータに基づいて対象物を抽出し、危険度等に関係なく抽出された対象物について認知度の診断を行う。しかし、診断装置100は、抽出した対象物のうち、危険度が所定値以上の危険対象物についてのみ認知度の診断を行うようにしても良い。
例えば、視線判定部126は、図16に示す診断結果DB134を参照し、危険度が所定値以上であり衝突の可能性が高い危険対象物を選択し、運転者が危険対象物を視認しているか否かを判定する。また、認知度診断部127は、危険対象物について認知度を診断する。視認の有無の判定方法及び認知度の判定方法等は上記実施形態と同様である。
対象物の中には、例えば自車両から遠ざかる方向に進行する車など、自車両との衝突の危険度が低い対象物が含まれる。上記構成によれば、対象物の中でも衝突の危険度の高い危険対象物に対する認知度を選択的に診断することができる。
また、例えば自車両300の運転者に危険を報知する場合において、衝突の危険度が小さい対象物よりも、衝突の危険度が大きい対象物についての情報を報知する必要性の方が高い。上記構成によれば、対象物の中でも、報知の必要性が高い危険対象物について選択的に認知度を診断することができる。
(6−2)変形例2
上記実施形態例では、診断装置100は、画像処理部122が生成した周辺映像から、自車両300周辺に存在する一又は複数の対象物を抽出する。しかし、診断装置100は、例えば自車両300に取り付けた障害物検出センサにより対象物を検出しても良い。障害物検出センサは、例えば自車両300の前部バンパ、後部バンパなどに埋め込まれて、障害物との距離を検出するものであって、光学センサ、超音波センサなどで構成することができる。診断装置100の対象物抽出部123は、これらの障害物検出センサが検出したセンサ信号に基づいて自車両300周辺の対象物を検出し、対象物の自車両300に対する相対位置Q0、Q1等を取得する。また、相対情報算出部124は、センサ信号に基づいて、相対距離L、相対速度V及び対象物ベクトル160aなどを算出する。
また、診断装置100は、自車両300と対象物との間の通信に基づいて、対象物を検出しても良い。前記通信には、例えば車両間の通信である車車間通信が挙げられる。診断装置100の対象物抽出部123は、前記通信に基づいて自車両300周辺の対象物を検出し、対象物の自車両300に対する相対位置Q0、Q1等を取得する。また、相対情報算出部124は、前記通信に基づいて、相対距離L、相対速度V及び対象物ベクトル160aなどを算出する。
(6−3)変形例3
上記実施形態例では、危険度算出部125は、自車両300と対象物との相対距離L及び相対速度Vに基づいてTTCを算出し、TTCに基づいて危険度を算出している。しかし、TTC及び危険度の算出方法はこれに限定されない。例えば、一例として、自車両300及び対象物それぞれの位置、速度、加速度を考慮して次のようにTTC及び危険度を算出することもできる。図28は、TTCの別の算出方法を示す説明図である。
例えば、時刻tでの自車両300のX方向の速度をVx(t)、Y方向の速度をVy(t)とする。Vx(t)及びVy(t)は、自車両300の左右の駆動輪に設けた回転速度検出センサなどにより測定可能である。また、時刻tでの自車両300の位置座標をX(t)、Y(t)とする。X(t)、Y(t)は、上記実施形態例と同様に自車両300の周辺映像に基づいて特定可能である。X(t)、Y(t)は、例えば任意の点O1を原点にした場合において、自車両300の中心点O2の座標により表される。
危険度算出部125は、時刻t+Δtでの自車両300の位置座標X(t+Δt)、Y(t+Δt)を、次式(4)、(5)から算出する。
X(t+Δt)=X(t)+Vy(t)×Δt×sin(α(t))+Vx(t)×Δt×cos(α(t)) ・・・(4)
Y(t+Δt)=Y(t)+Vy(t)×Δt×cos(α(t))-Vx(t)×Δt×sin(α(t)) ・・・(5)
ここで、加速度α(t)=(φ(t)+φ(t-Δt))/2であり、φは自車両300のハンドル302の操舵角である。操舵角φは、例えばハンドル302に設けられたセンサにより検出可能である。
次に、危険度算出部125は、対象物である他車両500について、時刻t+Δtでの位置座標Xoi(t+Δt)、Yoi(t+Δt)を次式(6)、(7)から算出する。
Xoi(t+Δt)=Xoi(t)+Vxoi(t)×Δt+(1/2)×αxoi(t)×Δt2 ・・・(6)
Yoi(t+Δt)=Yoi(t)+Vyoi(t)×Δt+(1/2)×αyoi(t)×Δt2 ・・・(7)
ここで、Xoi(t)及びYoi(t)は、時刻tでの他車両500の位置座標であり、上記実施形態例と同様に自車両300の周辺映像に基づいて特定可能である。Xoi(t)及びYoi(t)は、任意の点O1を原点にした場合において、他車両500の中心点Q2の座標により表される。また、Vxoi(t)及びVyoi(t)は時刻tでの他車両500のX方向及びY方向の速度であり、αxoi(t)及びαyoi(t)は時刻tでの他車両500のX方向及びY方向の加速度である。他車両500の速度及び加速度は、例えば自車両300に設けられた障害物検出センサ及び車車間通信等により取得可能である。
危険度算出部125は、上記式(4)及び(6)に基づいて、自車両300のX(t+Δt)と対象物のXoi(t+Δt)との座標が一致するまでの時間として、X方向の衝突までの時間TTCxを算出する。同様に、上記式(5)及び(7)に基づいて、自車両300のY(t+Δt)と対象物のYoi(t+Δt)との座標が一致するまでの時間として、Y方向の衝突までの時間TTCyを算出する。診断装置100は、このように算出されたTTCx、TTCyに基づいて危険度を算出する。
(6−4)変形例4
上記実施形態例では、診断装置100は、自車両300の任意の中心点Oを原点とする空間座標系により、対象物の相対位置Q0、Q1、視線原点P、ミラー視線原点Rなどを定義している。しかし、座標系はこれに限定されない。
例えば、診断装置100は、前述の消失点Dを原点とする空間座標系により、自車両300の中心点O、対象物の位置、視線原点P、ミラー視線原点Rなどを定義してもよい。よって、例えば、対象物の相対距離Lは、自車両300の中心点Oの座標と、対象物の位置と、の差分により検出される。
また、座標系は1つに限られず、自車両300の運転者の頭のいずれかの点に固定された頭座標系と、自車両300の任意の中心点Oを原点とする空間座標系と、の2つの座標系を用いても良い。例えば、診断装置100は、視線原点P、視線ベクトル150a、ミラー視線原点R、ミラー視線ベクトル155a等の視線データを、頭座標系内の座標で定義する。一方、診断装置100は、対象物の相対位置Q0、Q1等を空間座標系内で定義する。次に、診断装置100は、頭座標系の座標を空間座標系内の座標に変換することで、空間座標系に視線原点P、視線ベクトル150a、ミラー視線原点R、ミラー視線ベクトル155a等を取り込む。このような処理によっても、診断装置100は、視線ベクトル150a又はミラー視線ベクトル155aと、対象物ベクトル160aとの関係を求めることもできる。
(6−5)その他の変形例
上記実施形態例では、診断装置100は、対象物のうち自車両300に最も近接する一辺の中心座標であるQ0と、視線原点Pと、に基づいて対象物ベクトル160aを算出している。しかし、対象物ベクトル160aを算出するための座標はQ0に限定されず、例えば、対象物の縦方向及び横方向の中心位置、つまり対象物の中央の座標と、視線原点Pと、に基づいて対象物ベクトル160aを算出しても良い。
上記実施形態では、情報取得装置200の視線検出部222が、運転者の顔、眼球、虹彩などの映像に基づいて、視線原点P及び視線ベクトル150aを算出する。しかし、診断装置100の視線判定部126が前記映像に基づいて視線原点P及び視線ベクトル150aを算出しても良い。
<第2実施形態例>
第1実施形態例の診断装置100は、自車両周辺の周辺情報及び運転者の視線を外部の情報取得装置200から取得する。一方、第2実施形態例の診断装置170は、自車両300周辺の周辺情報及び運転者の視線を自ら取得する。以下に、第1実施形態例と異なる点について説明する。
第2実施形態例の診断装置170の構成について以下に説明する。図29は、第2実施形態例に係る、診断装置のハードウェア構成を示すブロック図の一例である。
診断装置170は、例えば、CPU101、ROM102、RAM103、入出力機器I/F104、通信I/F108を有している。これらは、バス109を介して互いに接続されている。
入出力機器I/F104は、ディスプレイ105、スピーカ106、キーボード107、周辺情報取得機器205及び視線検出機器206などの入出力機器と接続されている。周辺情報取得機器205は自車両300の周辺映像を含む周辺情報を取得し、視線検出機器206は、運転者の顔、眼球、虹彩などの情報を検出する。これらの情報はRAM103に記憶される。診断装置170のCPU101などは、自装置内の周辺情報取得機器205及び視線検出機器206が取得した情報に基づいて、上記第1実施形態例と同様の処理を行う。
次に診断装置170の機能構成について説明する。図30は、第2実施形態例にかかる診断装置の機能構成を示すブロック図の一例である。第2実施形態例にかかる診断装置170は、第2実施形態例にかかる診断装置100の機能構成に加えて、周辺情報取得部221及び視線検出部222を備える。また、第2実施形態例にかかる診断装置170は、第1実施形態例にかかる診断装置100とは異なり、情報取得装置200とのデータ、コマンドなどの送受信は不要であるため、送受信部121、223及び各種データDB224は省略した。
周辺情報取得部221は、周辺情報取得機器205が撮影した周辺映像を取得し、周辺情報DB131に格納する。また、視線検出部222は、視線検出機器206が検出した運転者の顔、眼球、虹彩などの映像に基づいて、視線原点P及び視線150の方向を示す視線ベクトル150aを算出し、視線データDB133に格納する。
第2実施形態例の診断装置170は自ら周辺情報、運転者の顔、眼球、虹彩などの情報を取得する点を除いて、その他の機能構成及び処理の流れについては第1実施形態例の診断装置100と同様である。また、第1実施形態例での変形例もまた本実施形態例に組み込み可能である。
上記本実施形態例に係る診断装置170においても、自車両300の運転者の実際の視線方向と、自車両300周辺の対象物と、の位置関係によって対象物に対する認知度を診断するため、認知度の診断精度を向上することができる。
<その他の実施形態例>
また、前述の方法をコンピュータに実行させるコンピュータプログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体は、本発明の範囲に含まれる。ここで、コンピュータ読み取り可能な記録媒体としては、例えば、フレキシブルディスク、ハードディスク、CD−ROM(Compact Disc−Read Only Memory)、MO(Magneto Optical disk)、DVD、DVD−ROM、DVD−RAM(DVD−Random Access Memory)、BD(Blue-ray Disc)、USBメモリ、半導体メモリなどを挙げることができる。前記コンピュータプログラムは、前記記録媒体に記録されたものに限られず、電気通信回線、無線又は有線通信回線、インターネットを代表とするネットワーク等を経由して伝送されるものであってもよい。
100、170:診断装置
122:画像処理部
123:対象物抽出部
124:相対情報算出部
125:危険度算出部
126:視線判定部
127:認知度診断部
128:診断結果出力部
131:周辺情報DB
132:相対情報DB
133:視線データDB
134:診断結果DB
135:各種対応表DB
150a:視線ベクトル
151:視線空間
155a:ミラー視線ベクトル
160a:対象物ベクトル
200:情報取得装置
221:周辺情報取得部
222:視線検出部
300:自車両
301:ダッシュボード
302:ハンドル
303:ミラー
400:三次元投影面
500:他車両
600、601:車線
602a〜602d:車線表示ライン

Claims (16)

  1. 自車両周辺に存在する一又は複数の対象物を抽出する対象物抽出手段と、
    前記自車両の運転者の視線を中心とする視線空間に、前記対象物の少なくとも一領域が含まれるか否かを判定する視線判定手段と、
    前記判定結果に基づいて、前記対象物に対する前記運転者の認知度を診断する認知度診断手段と、
    を含む診断装置。
  2. 前記視線判定手段は、前記視線空間と前記対象物との位置関係を判定し、
    前記認知度診断手段は、前記視線空間と前記対象物との位置関係に基づいて前記認知度を診断する、請求項1に記載の診断装置。
  3. 前記視線判定手段は、前記運動者の視線の方向を示す視線ベクトルと、前記運転者から前記対象物への対象物ベクトルと、の成す角に基づいて、前記視線空間に前記対象物の少なくとも一領域が含まれるか否かを判定する、請求項2に記載の診断装置。
  4. 前記視線判定手段は、各対象物について、前記視線空間に前記対象物の少なくとも一領域が含まれる視認時間をさらに算出し、
    前記認知度診断手段は、前記視認時間に基づいて各対象物に対する前記認知度を診断する、請求項1〜3のいずれかに記載の診断装置。
  5. 前記視線判定手段は、各対象物が前記視線空間の外に存在する非視認時間をさらに算出し、
    前記認知度診断手段は、前記非視認時間に基づいて各対象物に対する前記認知度を診断する、請求項1〜4のいずれかに記載の診断装置。
  6. 前記認知度診断手段は、前記非視認時間が、前記自車両と各対象物とが衝突するまでの衝突時間であるTTC(Time to collision)未満か否かに基づいて、各対象物に対する前記認知度を診断する、請求項5に記載の診断装置。
  7. 前記認知度診断手段は、前記自車両周辺の対象物数と、前記自車両周辺の対象物のうち前記視線判定手段により前記視線空間に含まれると判定された対象物数と、の比に基づいて、前記運転者の認知度を診断する、請求項1に記載の診断装置。
  8. 前記視線判定手段は、前記運転者の視線の延長線上に、前記自車両に設けられた1又は複数のミラーがあると判断すると、前記視線の方向を前記ミラーに応じて補正し、補正された視線を中心とする視線空間に、前記対象物の少なくとも一領域が含まれるか否かを判定する、請求項1に記載の診断装置。
  9. 前記認知度診断手段が診断した前記認知度が所定値以下の対象物に関する情報を出力する診断結果出力手段をさらに含む請求項1に記載の診断装置。
  10. 各対象物ごとに、前記自車両に対する相対速度及び/又は相対距離含む相対情報を算出する相対情報算出手段と、
    前記相対情報に基づいて、前記自車両と各対象物の衝突の危険度を算出する危険度算出手段と、をさらに含み、
    前記診断結果出力手段は、前記認知度が所定値以下の対象物について、前記衝突の危険度を出力する、請求項9に記載の診断装置。
  11. 各対象物ごとに、前記自車両に対する相対速度及び/又は相対距離含む相対情報を算出する相対情報算出手段と、
    前記相対情報に基づいて、前記自車両と各対象物の衝突の危険度を算出する危険度算出手段と、をさらに含み、
    前記視線判定手段は、前記対象物のうち前記自車両との衝突の危険度が所定の閾値以上の危険対象物について、前記危険対象物の少なくとも一領域が前記視線空間に含まれるか否かを判定し、
    前記認知度診断手段は、前記判定結果に基づいて、前記危険対象物に対する前記運転者の認知度を診断する、請求項1に記載の診断装置。
  12. 診断装置が実行する診断方法であって、
    自車両周辺に存在する一又は複数の対象物を抽出する対象物抽出ステップと、
    前記自車両の運転者の視線を中心とする視線空間に、前記対象物の少なくとも一領域が含まれるか否かを判定する視線判定ステップと、
    前記判定結果に基づいて、前記対象物に対する前記運転者の認知度を診断する認知度診断ステップと、
    を含む診断方法。
  13. 自車両周辺に存在する一又は複数の対象物を含む周辺情報を取得する周辺情報取得手段と、
    前記周辺情報から前記一又は複数の対象物を抽出する対象物抽出手段と、
    前記自車両の運転者の視線を検出する視線検出手段と、
    前記自車両の運転者の視線を中心とする視線空間に、前記対象物の少なくとも一領域が含まれるか否かを判定する視線判定手段と、
    前記判定結果に基づいて、前記対象物に対する前記運転者の認知度を診断する認知度診断手段と、
    を含む診断装置。
  14. 前記周辺情報取得手段は、前記自車両の周辺を撮像する1又は複数の撮像装置を含み、
    前記撮像装置で撮影された映像から前記自車両の周辺映像を生成する画像処理手段をさらに含み、
    前記対象物抽出手段は、前記周辺映像から前記一又は複数の対象物を抽出する、請求項13に記載の診断装置。
  15. 前記対象物抽出手段は、前記自車両周辺に存在する一又は複数の対象物を検知する対象物センサから検知結果を取得し、前記検知結果にもとづいて前記一又は複数の対象物を抽出する、請求項13に記載の診断装置。
  16. 前記対象物抽出手段は、前記自車両周辺に存在する一又は複数の対象物から送信される、前記対象物の位置、速度、加速度及び/又は進行方向を含む対象物情報を取得し、前記対象物情報にもとづいて前記一又は複数の対象物を抽出する、請求項13に記載の診断装置。
JP2011542999A 2009-11-30 2009-11-30 診断装置及び診断方法 Pending JPWO2011064831A1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/006485 WO2011064831A1 (ja) 2009-11-30 2009-11-30 診断装置及び診断方法

Publications (1)

Publication Number Publication Date
JPWO2011064831A1 true JPWO2011064831A1 (ja) 2013-04-11

Family

ID=44065956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011542999A Pending JPWO2011064831A1 (ja) 2009-11-30 2009-11-30 診断装置及び診断方法

Country Status (3)

Country Link
US (1) US20120307059A1 (ja)
JP (1) JPWO2011064831A1 (ja)
WO (1) WO2011064831A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019199251A (ja) * 2018-01-26 2019-11-21 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 車両を運転する際に運転者を支援する方法および運転者支援システム
JP2020113066A (ja) * 2019-01-11 2020-07-27 株式会社Jvcケンウッド 映像処理装置、映像処理方法、およびプログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101383235B1 (ko) * 2010-06-17 2014-04-17 한국전자통신연구원 시선 추적을 이용한 좌표 입력 장치 및 그 방법
KR101340014B1 (ko) * 2011-12-09 2013-12-10 에스엘 주식회사 위치 정보 제공 장치 및 방법
US20130278441A1 (en) * 2012-04-24 2013-10-24 Zetta Research and Development, LLC - ForC Series Vehicle proxying
DE102012214852B4 (de) 2012-08-21 2024-01-18 Robert Bosch Gmbh Verfahren und Vorrichtung zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
KR101896715B1 (ko) * 2012-10-31 2018-09-07 현대자동차주식회사 주변차량 위치 추적 장치 및 방법
US20150336579A1 (en) * 2012-11-08 2015-11-26 Toyota Jidosha Kabushiki Kaisha Drive assist device and method, collision prediction device and method, and alerting device and method
JP6296684B2 (ja) * 2013-02-07 2018-03-20 三菱電機株式会社 運転支援装置
US9050980B2 (en) * 2013-02-25 2015-06-09 Honda Motor Co., Ltd. Real time risk assessment for advanced driver assist system
US9342986B2 (en) * 2013-02-25 2016-05-17 Honda Motor Co., Ltd. Vehicle state prediction in real time risk assessments
WO2015026350A1 (en) * 2013-08-22 2015-02-26 Empire Technology Development, Llc Influence of line of sight for driver safety
JP6032195B2 (ja) * 2013-12-26 2016-11-24 トヨタ自動車株式会社 センサ異常検出装置
WO2015146083A1 (ja) * 2014-03-28 2015-10-01 日本電気株式会社 情報収集装置、情報収集方法、及び、プログラムの記録媒体
US20160063761A1 (en) * 2014-08-27 2016-03-03 Toyota Jidosha Kabushiki Kaisha Communication of spatial information based on driver attention assessment
WO2018016075A1 (ja) * 2016-07-22 2018-01-25 三菱電機株式会社 運転支援装置、運転支援方法及び運転支援プログラム
JP6564424B2 (ja) 2017-06-09 2019-08-21 株式会社Subaru 車両制御装置
JP7043795B2 (ja) 2017-11-06 2022-03-30 日本電気株式会社 運転支援装置、運転状況情報取得システム、運転支援方法及びプログラム
US10839139B2 (en) 2018-04-17 2020-11-17 Adobe Inc. Glyph aware snapping
JP6744374B2 (ja) * 2018-09-27 2020-08-19 本田技研工業株式会社 表示装置、表示制御方法、およびプログラム
US20230045772A9 (en) * 2018-12-07 2023-02-09 Sony Semiconductor Solutions Corporation Information processing apparatus, information processing method, and program
US10832442B2 (en) 2019-03-28 2020-11-10 Adobe Inc. Displaying smart guides for object placement based on sub-objects of reference objects
US10846878B2 (en) * 2019-03-28 2020-11-24 Adobe Inc. Multi-axis equal spacing smart guides
JP7143538B2 (ja) * 2019-12-04 2022-09-28 三菱電機株式会社 運転支援装置および運転支援方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099899A (ja) * 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc 運転行動危険度演算装置
JP2006027481A (ja) * 2004-07-16 2006-02-02 Toyota Motor Corp 物体警告装置及び物体警告方法
JP2007094618A (ja) * 2005-09-28 2007-04-12 Omron Corp 通知制御装置および方法、記録媒体、並びに、プログラム。
WO2007105792A1 (ja) * 2006-03-15 2007-09-20 Omron Corporation 監視装置および監視方法、制御装置および制御方法、並びにプログラム
WO2008041497A1 (en) * 2006-09-29 2008-04-10 Aisin Seiki Kabushiki Kaisha Alarm device for vehicle and alarm method for vehicle
JP2009163286A (ja) * 2007-12-28 2009-07-23 Toyota Central R&D Labs Inc 運転者支援装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
DE10253509A1 (de) * 2002-11-16 2004-06-17 Robert Bosch Gmbh Verfahren und Vorrichtung zur Warnung des Fahrers eines Kraftfahrzeuges
US6859144B2 (en) * 2003-02-05 2005-02-22 Delphi Technologies, Inc. Vehicle situation alert system with eye gaze controlled alert signal generation
WO2008126389A1 (ja) * 2007-04-02 2008-10-23 Panasonic Corporation 安全運転支援装置
CN101674965B (zh) * 2007-05-02 2013-05-22 丰田自动车株式会社 车辆行为控制装置
JP2009220630A (ja) * 2008-03-13 2009-10-01 Fuji Heavy Ind Ltd 車両の走行制御装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003099899A (ja) * 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc 運転行動危険度演算装置
JP2006027481A (ja) * 2004-07-16 2006-02-02 Toyota Motor Corp 物体警告装置及び物体警告方法
JP2007094618A (ja) * 2005-09-28 2007-04-12 Omron Corp 通知制御装置および方法、記録媒体、並びに、プログラム。
WO2007105792A1 (ja) * 2006-03-15 2007-09-20 Omron Corporation 監視装置および監視方法、制御装置および制御方法、並びにプログラム
WO2008041497A1 (en) * 2006-09-29 2008-04-10 Aisin Seiki Kabushiki Kaisha Alarm device for vehicle and alarm method for vehicle
JP2009163286A (ja) * 2007-12-28 2009-07-23 Toyota Central R&D Labs Inc 運転者支援装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019199251A (ja) * 2018-01-26 2019-11-21 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH 車両を運転する際に運転者を支援する方法および運転者支援システム
JP2020113066A (ja) * 2019-01-11 2020-07-27 株式会社Jvcケンウッド 映像処理装置、映像処理方法、およびプログラム

Also Published As

Publication number Publication date
US20120307059A1 (en) 2012-12-06
WO2011064831A1 (ja) 2011-06-03

Similar Documents

Publication Publication Date Title
WO2011064831A1 (ja) 診断装置及び診断方法
JP5387763B2 (ja) 映像処理装置、映像処理方法及び映像処理プログラム
JP4899424B2 (ja) 物体検出装置
WO2018092265A1 (ja) 運転支援装置および運転支援方法
US11034294B2 (en) Driving notification method and driving notification system
JP5177515B2 (ja) 周辺認知支援システム
JP3327255B2 (ja) 安全運転支援システム
US20070069872A1 (en) Vehicle driving assist system
JP2011227571A (ja) 情報処理方法、情報処理プログラム及び情報処理装置
CN103171552A (zh) 基于avm俯视图的停车辅助系统
KR20160041445A (ko) 영상인식을 통한 트레일러 궤적 추정 시스템 및 방법
EP2293588A1 (en) Method for using a stereovision camera arrangement
CN109109748A (zh) 一种用于重型载货汽车右侧盲区的行人识别预警系统
KR20170127036A (ko) 차도 위의 반사체를 인식하고 평가하기 위한 방법 및 장치
TWI522257B (zh) 車用安全系統及其運作方法
US20190102636A1 (en) Vehicular vision system using smart eye glasses
CN109278640A (zh) 一种盲区检测系统和方法
KR20120086577A (ko) 카메라를 이용한 측면차량 검출 장치 및 방법
JP2012022646A (ja) 視線方向検出装置、視線方向検出方法及び安全運転評価システム
TWI596580B (zh) Obstacle warning system and its operation method
JP6160594B2 (ja) 危険運転記録方法、危険運転記録プログラム及び危険運転記録装置
KR102164702B1 (ko) 자동 주차 장치 및 자동 주차 방법
KR101566963B1 (ko) 작업 차량 상태를 고려하여 개체를 인식할 수 있는 어라운드 뷰 모니터링 방법, 이를 수행하는 어라운드 뷰 모니터링 장치 및 이를 저장하는 기록매체
JP4677820B2 (ja) 予測進路表示装置および予測進路表示方法
JP2007133644A (ja) 歩行者認識装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130813

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131119

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140415