WO2019176037A1 - 危険警告システム及び危険警告方法 - Google Patents
危険警告システム及び危険警告方法 Download PDFInfo
- Publication number
- WO2019176037A1 WO2019176037A1 PCT/JP2018/010127 JP2018010127W WO2019176037A1 WO 2019176037 A1 WO2019176037 A1 WO 2019176037A1 JP 2018010127 W JP2018010127 W JP 2018010127W WO 2019176037 A1 WO2019176037 A1 WO 2019176037A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- driver
- danger
- image
- task
- warning
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Definitions
- a danger warning method is a danger warning method for warning a driver when a danger is detected during automatic driving of the vehicle, and when the danger is detected, the vehicle It is determined whether or not the driver is in a second task, and when the driver is in the second task, a warning is given to the object of the second task using light.
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Traffic Control Systems (AREA)
Abstract
車両の自動運転中に危険が検出された場合に、車両の運転者がセカンドタスク中であるか否かを判断するECU(101)と、運転者がセカンドタスク中である場合に、そのセカンドタスクの対象物に対して、光を用いて警告を行う発光部材(108)と、を備える。
Description
本発明は、危険警告システム及び危険警告方法に関する。
従来から、自動運転の継続が可能でないことを報知する警告を、運転者に行う車載警告システムがある。例えば、特許文献1に記載された車載警告システムは、運転者がハンドルを把持しており、かつ、運転者の視線が前方を向いている場合には、ヘッドアップディスプレイを用いて警告を行い、運転者がハンドルを把持していないか、又は、運転者の視線が前方を向いていない場合には、ヘッドアップディスプレイに加えて、音声出力デバイス又は振動出力デバイスの少なくとも何れかを用いて警告を行っている。
従来の車載警告システムは、運転者が読書等のセカンドタスクを行っている場合に、音声又は振動で警告をするしかなく、運転者が見ている方向に直接警告することができなかった。
そこで、本発明の1又は複数の態様は、セカンドタスクを行っている運転者が見ている方向に直接警告を行うことができるようにすることを目的とする。
本発明の一態様に係る危険警告システムは、車両の自動運転中に危険が検出された場合に、運転者に警告を行う危険警告システムであって、前記危険が検出された場合に、前記車両の運転者がセカンドタスク中であるか否かを判断する制御部と、前記セカンドタスク中である場合に、前記セカンドタスクの対象物に対して、光を用いて警告を行う警告部と、を備えることを特徴とする。
本発明の一態様に係る危険警告方法は、車両の自動運転中に危険が検出された場合に、運転者に警告を行う危険警告方法であって、前記危険が検出された場合に、前記車両の運転者がセカンドタスク中であるか否かを判断し、前記セカンドタスク中である場合に、前記セカンドタスクの対象物に対して、光を用いて警告を行うことを特徴とする。
本発明の1又は複数の態様によれば、セカンドタスクを行っている運転者が見ている方向に直接警告を行うことができる。
実施の形態1.
図1は、実施の形態1に係る危険警告システム100の構成を概略的に示すブロック図である。
危険警告システム100は、ECU(Electronic Control Unit)101と、メモリ102と、CAN(Controller Area Network)インタフェース(以下、CANI/Fという)103と、外部センサ104と、DMS(Driver Monitoring System)105と、スピーカ106と、表示デバイス107と、発光部材108と、姿勢変更機構109とを備える。
図1は、実施の形態1に係る危険警告システム100の構成を概略的に示すブロック図である。
危険警告システム100は、ECU(Electronic Control Unit)101と、メモリ102と、CAN(Controller Area Network)インタフェース(以下、CANI/Fという)103と、外部センサ104と、DMS(Driver Monitoring System)105と、スピーカ106と、表示デバイス107と、発光部材108と、姿勢変更機構109とを備える。
危険警告システム100は、危険警告システム100が搭載された車両の自動運転中に危険が検出された場合に、運転者に警告を行うシステムである。
ECU101は、危険警告システム100での処理を制御する制御部である。例えば、ECU101は、各種処理演算をする回路で実現される。具体的には、ECU101は、CAN/IF103を介して、危険警告システム100が搭載されている車両から各種データを取得して、その車両の自動運転を行う。また、ECU101は、外部センサ104からの検出結果を取得して、予め定められた危険が検出されたか否かを判断する。そして、ECU101は、自動運転中に危険が検出された場合には、運転者がセカンドタスク中であるか否かを判断する。運転者がセカンドタスク中である場合に、ECU101は、発光部材108に、セカンドタスクの対象物に対して、光を用いて警告を行わせる。
メモリ102は、危険警告システム100での処理に必要なプログラム及びデータを記憶する記憶部である。
CANI/F103は、CAN通信を行うための通信インタフェースである。
外部センサ104は、危険警告システム100が搭載された車両の外部に取付けられた各種センサである。例えば、外部センサ104は、危険警告システム100が搭載された車両に関する危険を検出するセンサとして機能する。
CANI/F103は、CAN通信を行うための通信インタフェースである。
外部センサ104は、危険警告システム100が搭載された車両の外部に取付けられた各種センサである。例えば、外部センサ104は、危険警告システム100が搭載された車両に関する危険を検出するセンサとして機能する。
DMS105は、運転者をモニタリングするシステムである。例えば、DMS105は、撮像部として、少なくとも1つのカメラ105aを備えている。ここでのカメラ105aは、運転者の顔が含まれるように、運転者の周りの画像を撮像し、撮像された画像を示す画像データをECU101に与える。
スピーカ106は、音声を出力する音声出力部である。
表示デバイス107は、ヘッドアップディスプレイ等の表示部である。
発光部材108は、ECU101の指示に応じて、予め定められた方向に光を投射する警告部として機能する。
姿勢変更機構109は、ECU101からの指示に応じて、発光部材108の向きを変更することで、発光部材108から投射される光の方向を変更する。
表示デバイス107は、ヘッドアップディスプレイ等の表示部である。
発光部材108は、ECU101の指示に応じて、予め定められた方向に光を投射する警告部として機能する。
姿勢変更機構109は、ECU101からの指示に応じて、発光部材108の向きを変更することで、発光部材108から投射される光の方向を変更する。
図2は、実施の形態1に係る危険警告システム100の動作を示すフローチャートである。
ECU101は、外部センサ104での検出結果を取得し、予め定められた危険が検出されたか否かを判断する(S10)。危険が検出された場合(S10でYes)には、処理はステップS11に進む。
ECU101は、外部センサ104での検出結果を取得し、予め定められた危険が検出されたか否かを判断する(S10)。危険が検出された場合(S10でYes)には、処理はステップS11に進む。
ステップS11では、ECU101は、危険警告システム100が搭載されている車両を自動的に運転する自動運転中であるか否かを判断する(S11)。自動運転中である場合(S11でYes)には、処理はステップS12に進み、自動運転中ではない場合(S11でNo)には、処理はステップS15に進む。
ステップS12では、ECU101は、カメラ105aで撮像された画像の画像データを取得して、その画像データから、運転者の視線の方向を特定する。
そして、ECU101は、特定された運転者の視線の方向から、運転者が、読書等のセカンドタスク中であるか否かを判断する(S13)。例えば、ECU101は、特定された運転者の視線の方向により、運転者が、車両の正面ではない方向を注視している場合に、運転者がセカンドタスク中であると判断する。なお、運転者の視線の方向が、車両の正面ではない方向に予め定められた時間固定されている場合に、ECU101は、運転者が注視していると判断すればよい。運転者がセカンドタスク中である場合(S13でYes)には、処理はステップS14に進み、運転者がセカンドタスク中ではない場合(S13でNo)には、処理はステップS15に進む。
なお、ここでは、セカンドタスクは、運転以外のタスクである。
そして、ECU101は、特定された運転者の視線の方向から、運転者が、読書等のセカンドタスク中であるか否かを判断する(S13)。例えば、ECU101は、特定された運転者の視線の方向により、運転者が、車両の正面ではない方向を注視している場合に、運転者がセカンドタスク中であると判断する。なお、運転者の視線の方向が、車両の正面ではない方向に予め定められた時間固定されている場合に、ECU101は、運転者が注視していると判断すればよい。運転者がセカンドタスク中である場合(S13でYes)には、処理はステップS14に進み、運転者がセカンドタスク中ではない場合(S13でNo)には、処理はステップS15に進む。
なお、ここでは、セカンドタスクは、運転以外のタスクである。
ステップS14では、ECU101は、カメラ105aで撮像された画像データから、運転者の視線の方向にあるセカンドタスクの対象物を特定し、発光部材108及び姿勢変更機構109を制御することにより、特定された対象物の方向に、発光部材108からの光を投射して、運転者に警告を行う。なお、発光部材108は、点滅等の予め定められた投射方法を行うことで、より確実に運転者に警告を行うことができる。
例えば、ECU101は、予め車両の内部を撮像した画像である基準画像の画像データである基準画像データを取得しておいて、基準画像データと、セカンドタスク中の画像データとを比較することにより、セカンドタスク中の画像において運転者の視線の方向にあり、基準画像にはない物をセカンドタスクの対象物として特定すればよい。なお、そのような物がない場合には、ダッシュボード又はピラー等、運転者の視線の先にある物をセカンドタスクの対象物として特定してもよい。
なお、実施の形態1では、DMS105のカメラ105aと、発光部材108とを近接して設けておくことにより、カメラ105aで撮像された画像データで特定された対象物の方向に、発光部材108の光の方向を向ければ、特定された対象物に光を当てることができる。
一方、ステップS15では、ECU101は、発光部材108を用いずに、通常の方法、例えば、スピーカ106で、警告する旨の音声又は警告音を鳴らしたり、表示デバイス107に警告する旨の表示を行ったりすることで、運転者に警告を行う。
以上のように、実施の形態1によれば、例えば、読書中の運転者が目線を動かすことなく、警告を目視することができるため、運転者の注意をいち早く運転に戻すことができる。これにより、運転者がセカンドタスク中であっても、いち早く危険を察知し、運転権限を自分に戻す運転権限移譲を行うことができる。
発光部材108による発光方法もどのようなものであってもよく、ブリンクであったり、輝度を高くしたり、多様な発光方法を利用することができる。
また、夜間で手元ライトを利用して読書をしている場合には、ECU101は、手元ライトを消灯し、かわりに発光部材108からの発光を行ってもよい。
また、夜間で手元ライトを利用して読書をしている場合には、ECU101は、手元ライトを消灯し、かわりに発光部材108からの発光を行ってもよい。
なお、実施の形態1では、危険の検出について外部センサ104を用いるものを示したが、実施の形態1は、このような例に限定されない。ECU101は、外部センサ104を用いなくても、例えば、車両の外部を撮像することのできる図示しないカメラを用いて危険を検出してもよく、図示していない通信部を用いて、他の車両又は他の装置と通信し、自車両に関する危険が検出されたことを示す情報を取得することにより、危険を検出してもよく、危険の検出方法はどのような方法であってもよい。
また、ECU101は、運転者がセカンドタスクの対象物への発光による警告に気づいて視線を前方に戻すまで警告を継続させてもよい。さらに、ECU101は、発光部材108による警告と、スピーカ106及び表示デバイス107の少なくとも何れか一方による警告とを合わせて行わせてもよい。
また、実施の形態1では、発光部材108を用いて、対象物に光で警告を行っているが、実施の形態1はこのような態様に限定されない。例えば、発光部材108の代わりに、運転者に警告するための映像を対象物に投影するプロジェクタを用いることもできる。
実施の形態2.
実施の形態1では、DMS105で視線を検出して見ている対象物を特定しているが、実施の形態2では、運転者の顔向きを検出してセカンドタスクの対象物を検出する。
実施の形態1では、DMS105で視線を検出して見ている対象物を特定しているが、実施の形態2では、運転者の顔向きを検出してセカンドタスクの対象物を検出する。
図3は、実施の形態2に係る危険警告システム200の構成を概略的に示すブロック図である。
危険警告システム200は、ECU201と、メモリ102と、CANI/F103と、外部センサ104と、DMS105と、スピーカ106と、表示デバイス107と、姿勢変更機構209と、プロジェクタ210と、第1の俯瞰カメラ211Aと、第2の俯瞰カメラ211Bとを備える。
実施の形態2に係る危険警告システム200の、メモリ102、CANI/F103、外部センサ104、DMS105、スピーカ106及び表示デバイス107は、実施の形態1に係る危険警告システム100の対応する部分と同様である。
危険警告システム200は、ECU201と、メモリ102と、CANI/F103と、外部センサ104と、DMS105と、スピーカ106と、表示デバイス107と、姿勢変更機構209と、プロジェクタ210と、第1の俯瞰カメラ211Aと、第2の俯瞰カメラ211Bとを備える。
実施の形態2に係る危険警告システム200の、メモリ102、CANI/F103、外部センサ104、DMS105、スピーカ106及び表示デバイス107は、実施の形態1に係る危険警告システム100の対応する部分と同様である。
ECU201は、危険警告システム200での処理を制御する制御部である。実施の形態2におけるECU201は、実施の形態1とほぼ同様の処理を制御するが、第1の俯瞰カメラ211A又は第2の俯瞰カメラ211Bで撮像された画像データを用いて、運転者が向いている方向を特定することで、運転者がセカンドタスク中であるか否かを判断する。運転者がセカンドタスク中であると判断した場合には、ECU201は、第1の俯瞰カメラ211A及び第2の俯瞰カメラ211Bで撮像された画像データを用いて、セカンドタスクの対象物の位置を特定し、プロジェクタ210に、特定された位置に向かって、運転者に警告するための映像を投影させる。具体的には、ECU201は、第1の俯瞰カメラ211A及び第2の俯瞰カメラ211Bで撮像された画像データを用いて、対象物の位置を特定し、プロジェクタ210からこの特定された位置への方向及び距離を算出することで、プロジェクタ210からの映像を特定された対象物に投影させる。
プロジェクタ210は、ECU201からの指示に応じて、運転者に警告を行うための映像を、ECU201からの指示された対象物に投影する警告部として機能する。
姿勢変更機構209は、ECU201からの指示に応じて、プロジェクタ210の向きを変更することで、プロジェクタ210から投影される映像の方向を変更する。
姿勢変更機構209は、ECU201からの指示に応じて、プロジェクタ210の向きを変更することで、プロジェクタ210から投影される映像の方向を変更する。
第1の俯瞰カメラ211A及び第2の俯瞰カメラ211Bの各々は、車内の画像を360度の範囲で撮影する撮像部である。なお、第1の俯瞰カメラ211A及び第2の俯瞰カメラ211Bの各々で撮像される画像には、運転者の首から上である頭部が含まれるようにする。例えば、第1の俯瞰カメラ211A及び第2の俯瞰カメラ211Bは、運転者の頭上斜め前の車内天井に取り付けられているものとする。
第1の俯瞰カメラ211Aを第1の撮像部ともいい、第1の俯瞰カメラ211Aで撮像された画像を第1の画像ともいう。
第2の俯瞰カメラ211Bを第2の撮像部ともいい、第2の俯瞰カメラ211Bで撮像された画像を第2の画像ともいう。
第2の俯瞰カメラ211Bを第2の撮像部ともいい、第2の俯瞰カメラ211Bで撮像された画像を第2の画像ともいう。
図4は、実施の形態2に係る危険警告システム200の動作を示すフローチャートである。
ECU201は、外部センサ104での検出結果を取得し、予め定められた危険が検出されたか否かを判断する(S20)。危険が検出された場合(S20でYes)には、処理はステップS21に進む。
ECU201は、外部センサ104での検出結果を取得し、予め定められた危険が検出されたか否かを判断する(S20)。危険が検出された場合(S20でYes)には、処理はステップS21に進む。
ステップS21では、ECU201は、自動運転中であるか否かを判断する(S21)。自動運転中である場合(S21でYes)には、処理はステップS22に進み、自動運転中ではない場合(S21でNo)には、処理はステップS25に進む。
ステップS22では、ECU201は、第1の俯瞰カメラ211A及び第2の俯瞰カメラ211Bで撮像された画像の画像データを取得して、それらの画像データの何れか一方を用いて、運転者の顔の向きを特定する。
そして、ECU201は、検知された運転者の顔の向きから、運転者が、読書等のセカンドタスク中であるか否かを判断する(S23)。例えば、ECU201は、特定された運転者の顔の向きにより、運転者が、車両の正面ではない方向を注視している場合に、運転者がセカンドタスク中であると判断する。なお、運転者の顔の向きが、車両の正面ではない方向に予め定められた時間固定されている場合に、ECU201は、運転者が注視していると判断すればよい。運転者がセカンドタスク中である場合(S23でYes)には、処理はステップS24に進み、運転者がセカンドタスク中ではない場合(S23でNo)には、処理はステップS25に進む。
そして、ECU201は、検知された運転者の顔の向きから、運転者が、読書等のセカンドタスク中であるか否かを判断する(S23)。例えば、ECU201は、特定された運転者の顔の向きにより、運転者が、車両の正面ではない方向を注視している場合に、運転者がセカンドタスク中であると判断する。なお、運転者の顔の向きが、車両の正面ではない方向に予め定められた時間固定されている場合に、ECU201は、運転者が注視していると判断すればよい。運転者がセカンドタスク中である場合(S23でYes)には、処理はステップS24に進み、運転者がセカンドタスク中ではない場合(S23でNo)には、処理はステップS25に進む。
ステップS24では、ECU201は、第1の俯瞰カメラ211A及び第2の俯瞰カメラ211Bで撮像された画像の画像データを用いて、運転者の視線の先にあるセカンドタスクの対象物を特定するとともに、その位置を特定する。
例えば、そして、ECU201は、第1の俯瞰カメラ211Aで撮像された対象物の特徴点と、第2の俯瞰カメラ211Bで撮像された対象物の特徴点とをパターンマッチングで検出する。ECU201は、検出された特徴点までの距離Zを、下記の(1)式で算出するとともに、検出された特徴点の方向を特定する。
Z=(B×F)÷D (1)
ここで、Bは、第1の俯瞰カメラ211Aと、第2の俯瞰カメラ211Bとの間の距離であり、Fは、第1の俯瞰カメラ211A又は第2の俯瞰カメラ211Bの焦点距離であり、Dは、第1の俯瞰カメラ211A及び第2の俯瞰カメラ211Bの視差である。
例えば、そして、ECU201は、第1の俯瞰カメラ211Aで撮像された対象物の特徴点と、第2の俯瞰カメラ211Bで撮像された対象物の特徴点とをパターンマッチングで検出する。ECU201は、検出された特徴点までの距離Zを、下記の(1)式で算出するとともに、検出された特徴点の方向を特定する。
Z=(B×F)÷D (1)
ここで、Bは、第1の俯瞰カメラ211Aと、第2の俯瞰カメラ211Bとの間の距離であり、Fは、第1の俯瞰カメラ211A又は第2の俯瞰カメラ211Bの焦点距離であり、Dは、第1の俯瞰カメラ211A及び第2の俯瞰カメラ211Bの視差である。
以上のようにして算出された距離Zを、プロジェクタ210からの距離に補正するとともに、特定された方向を、プロジェクタ210からの方向に補正することで、ECU201は、プロジェクタ210からセカンドタスクの対象物までの距離及び方向を特定する。そして、ECU201は、姿勢変更機構209及びプロジェクタ210を制御することで、以上のようにして特定された距離及び方向の対象物に、プロジェクタ210から、運転者に警告するための映像を表示させる。
一方、ステップS25では、ECU201は、プロジェクタ210を用いずに、通常の方法、例えば、スピーカ106で、警告する旨の音声又は警告音を鳴らしたり、表示デバイス107に警告する旨の表示を行ったりすることで、運転者に警告を行う。
以上のように、実施の形態2によれば、DMS105を搭載していなくても、ECU201は、第1の俯瞰カメラ211A及び第2の俯瞰カメラ211Bで撮像された画像データに対して画像処理を行うことで、運転者の顔の向きを用いてセカンドタスク中であるか否かを特定することができる。さらに、ECU201は、画像処理により、セカンドタスクの対象物の位置を検出することができるため、運転者の注意をいち早く運転に戻すために、その対象物に警告を行うための映像を表示させることができる。
上記では、セカンドタスクの対象物の位置は、第1の俯瞰カメラ211A又は第2の俯瞰カメラ211Bからの距離及び方向で特定されているが、実施の形態2は、このような例に限定されない。例えば、セカンドタスクの対象物の位置は、第1の俯瞰カメラ211A又は第2の俯瞰カメラ211Bからの距離及び方向から、予め定められた3次元の座標で特定されてもよい。
実施の形態3.
実施の形態2では、セカンドタスクの対象物に警告を行うための映像が投影されているが、セカンドタスクの対象物の位置、角度又は形状によっては、投影される映像が歪んでしまう。そこで、実施の形態3では、補正された映像が対象物に投影される。
実施の形態2では、セカンドタスクの対象物に警告を行うための映像が投影されているが、セカンドタスクの対象物の位置、角度又は形状によっては、投影される映像が歪んでしまう。そこで、実施の形態3では、補正された映像が対象物に投影される。
図5は、実施の形態3に係る危険警告システム300の構成を概略的に示すブロック図である。
危険警告システム300は、ECU301と、メモリ102と、CANI/F103と、外部センサ104と、DMS105と、スピーカ106と、表示デバイス107と、姿勢変更機構309と、プロジェクタ310と、3D(Dimension)カメラ312とを備える。
実施の形態3に係る危険警告システム300の、メモリ102、CANI/F103、外部センサ104、DMS105、スピーカ106及び表示デバイス107は、実施の形態1に係る危険警告システム100の対応する部分と同様である。
危険警告システム300は、ECU301と、メモリ102と、CANI/F103と、外部センサ104と、DMS105と、スピーカ106と、表示デバイス107と、姿勢変更機構309と、プロジェクタ310と、3D(Dimension)カメラ312とを備える。
実施の形態3に係る危険警告システム300の、メモリ102、CANI/F103、外部センサ104、DMS105、スピーカ106及び表示デバイス107は、実施の形態1に係る危険警告システム100の対応する部分と同様である。
ECU301は、危険警告システム300での処理を制御する制御部である。実施の形態3におけるECU301は、実施の形態1におけるECU101とほぼ同様の処理を制御するが、DMS105のカメラ105aで撮像された画像データから、運転者がセカンドタスク中であると判断した場合には、3Dカメラ312に、運転者の視線方向の画像データを撮像させる。そして、ECU301は、撮像された画像データから、セカンドタスクの対象物の位置及び立体的な形状を特定し、プロジェクタ310からこの対象物へ投影する映像を、特定された形状に合わせて、補正する。具体的には、ECU301は、対象物の立体的な形状にあわせて、公知のプロジェクションマッピング技術を利用して画像処理を行い、プロジェクタ310から処理された映像を特定された対象物に投影させる。
プロジェクタ310は、ECU301からの指示に応じて、運転者に警告を行うための映像を、ECU301から指示された対象物に投影する警告部として機能する。
姿勢変更機構309は、ECU301からの指示に応じて、プロジェクタ310の向きを変更することで、プロジェクタ310から投影される映像の方向を変更する。また、姿勢変更機構309は、ECU301からの指示に応じて、3Dカメラ312の向きを変更することで、3Dカメラ312で撮像する方向を変更する。
姿勢変更機構309は、ECU301からの指示に応じて、プロジェクタ310の向きを変更することで、プロジェクタ310から投影される映像の方向を変更する。また、姿勢変更機構309は、ECU301からの指示に応じて、3Dカメラ312の向きを変更することで、3Dカメラ312で撮像する方向を変更する。
3Dカメラ312は、例えば、異なる複数の方向から撮像対象の画像の画像データを取得することのできるステレオカメラである。例えば、3Dカメラ312は、第1の方向から画像を撮像する第1のカメラ312aと、第1の方向とは異なる第2の方向から画像を撮像する第2のカメラ312bとを備える。このため、ECU301は、実施の形態2と同様に、3Dカメラ312で撮像された複数方向からの画像データを用いて、セカンドタスクの対象物の位置を特定することができるほか、その対象物の立体的な形状を特定することができる。
ここで、第1のカメラ312aを第1の対象撮像部ともいい、第1のカメラ312aで撮像された画像を第1の対象画像ともいう。
第2のカメラ312bを第2の対象撮像部ともいい、第2のカメラ312bで撮像された画像を第2の対象画像ともいう。
第2のカメラ312bを第2の対象撮像部ともいい、第2のカメラ312bで撮像された画像を第2の対象画像ともいう。
なお、3Dカメラ312は、プロジェクタ310と近接した位置に設置されていることが望ましい。このような位置に設置されていることで、3Dカメラ312の姿勢を姿勢変更機構309で変更しやすくすることができるほか、プロジェクタ310で映像を投影する対象物の面の形状を正確に特定することができる。
図6は、実施の形態3に係る危険警告システム300の動作を示すフローチャートである。
ECU301は、外部センサ104での検出結果を取得し、予め定められた危険が検出されたか否かを判断する(S30)。危険が検出された場合(S30でYes)には、処理はステップS31に進む。
ECU301は、外部センサ104での検出結果を取得し、予め定められた危険が検出されたか否かを判断する(S30)。危険が検出された場合(S30でYes)には、処理はステップS31に進む。
ステップS31では、ECU301は、自動運転中であるか否かを判断する(S31)。自動運転中である場合(S31でYes)には、処理はステップS32に進み、自動運転中ではない場合(S31でNo)には、処理はステップS36に進む。
ステップS32では、ECU301は、DMS105で撮像された画像の画像データを取得して、その画像データから、運転者の視線の方向を特定する。
そして、ECU301は、特定された運転者の視線の方向から、運転者が、読書等のセカンドタスク中であるか否かを判断する(S33)。運転者がセカンドタスク中である場合(S33でYes)には、処理はステップS34に進み、運転者がセカンドタスク中ではない場合(S33でNo)には、処理はステップS36に進む。
そして、ECU301は、特定された運転者の視線の方向から、運転者が、読書等のセカンドタスク中であるか否かを判断する(S33)。運転者がセカンドタスク中である場合(S33でYes)には、処理はステップS34に進み、運転者がセカンドタスク中ではない場合(S33でNo)には、処理はステップS36に進む。
ステップS34では、ECU301は、3Dカメラ312及び姿勢変更機構309を制御することで、3Dカメラ312から運転者の視線の方向の画像データを取得する。そして、ECU301は、取得された画像データを用いて、セカンドタスクの対象物の位置として、3Dカメラ312からセカンドタスクの対象物への方向及び距離を算出する。この算出方法は、実施の形態2と同様である。そして、算出された方向及び距離を補正することで、プロジェクタ310から対象物までの方向及び距離を算出する。
さらに、ステップS34において、ECU301は、3Dカメラ312から取得された画像データに基づいて、対象物の立体的な形状を特定する。
さらに、ステップS34において、ECU301は、3Dカメラ312から取得された画像データに基づいて、対象物の立体的な形状を特定する。
次に、ECU301は、プロジェクタ310から投影される映像の画像データを、ステップS34で特定された対象物の立体的な形状に応じて処理するとともに、処理姿勢変更機構309及びプロジェクタ310を制御することで、ステップS34で特定された距離及び方向の対象物に、プロジェクタ310から、処理された画像データに基づいて、運転者に警告するための映像を表示させる。
具体的には、ECU301は、以下のようなアルゴリズムで画像データへの処理を行う。
3Dカメラ312とプロジェクタ310との位置及び姿勢等の幾何学的な関係、並びに、3Dカメラ312及びプロジェクタ310の内部パラメータを、事前に較正を行うことにより、ECU301は、既知とする。
3Dカメラ312とプロジェクタ310との位置及び姿勢等の幾何学的な関係、並びに、3Dカメラ312及びプロジェクタ310の内部パラメータを、事前に較正を行うことにより、ECU301は、既知とする。
一般的にカメラとプロジェクタとの位置及び姿勢等の幾何学的な関係、並びに、カメラ及びプロジェクタの内部パラメータの較正方法には、プロジェクタから投影したパターンとチェスボード又はドットパターンの描かれたキャリブレーションボックスとをカメラで撮影した画像を解析する方法が用いられる。
ここで、プロジェクタからのパターンの統制方法は、グレイコードパターン投映法又は位相シフト法等がある。
ここで、プロジェクタからのパターンの統制方法は、グレイコードパターン投映法又は位相シフト法等がある。
従って、3Dカメラ312で撮像された画像データにおいて対象物が検出された場合、ECU301は、その対象物に関して、プロジェクタ310との位置及び姿勢等の幾何学的な関係を計算可能となる。
また、3Dカメラ312において対象物の形状を検出するには、様々な方法がある。例えば、ECU301は、3Dカメラで撮像された画像データから、対象物の表面の各々の画素を、3次元の直交座標で表現する点群情報を生成する。そして、ECU301は、その点群情報を用いて主成分の分析を行うことで、対象物の投影面を検出することができる。さらに、ECU301は、検出された投影面の歪みを補正するように、警告を行うための画像の画素値を移動することで、対象物の形状に合わせた映像を表示する画像データを生成することができる。
検出された投影面の歪みを補正する補正処理の方法の一例を、図7を用いて説明する。
図7では、検出された投影面330と、プロジェクタ310とを上方から見た概略図である。
図7に示されているように、ECU301は、投影面330と、運転者の視点331との間に、歪みのない仮想上の平面332を設定する。このような場合、平面332に表示される映像が、運転者が認識する映像となる。そのため、ECU301は、運転者の視点331から、平面332において歪みのない映像を表示した場合の画素P1を通る直線が、投影面330に交差する点P2に、プロジェクタ310から画素P1を投影するように、警告するための映像データにおいて、画素P1の画素値を移動することで、投影面330の歪みを補正することができる。
図7では、検出された投影面330と、プロジェクタ310とを上方から見た概略図である。
図7に示されているように、ECU301は、投影面330と、運転者の視点331との間に、歪みのない仮想上の平面332を設定する。このような場合、平面332に表示される映像が、運転者が認識する映像となる。そのため、ECU301は、運転者の視点331から、平面332において歪みのない映像を表示した場合の画素P1を通る直線が、投影面330に交差する点P2に、プロジェクタ310から画素P1を投影するように、警告するための映像データにおいて、画素P1の画素値を移動することで、投影面330の歪みを補正することができる。
一方、ステップS36では、ECU301は、プロジェクタ310を用いずに、通常の方法、例えば、スピーカ106で、警告する旨の音声又は警告音を鳴らしたり、表示デバイス107に警告する旨の表示を行ったりすることで、運転者に警告を行う。
以上のように、実施の形態3によれば、セカンドタスクの対象物がどのような形状であっても、歪みが補正された画像を投影することができ、運転者が危険内容をより認識しやすくなる。これによって危険の種別を示すようなマーク又は記号であったり、危険物の実際の映像であったり、より複雑な映像を運転者が理解できるように投影することができる。
なお、以上に記載した実施の形態3では、姿勢変更機構309で、プロジェクタ310及び3Dカメラ312の姿勢を変更しているが、実施の形態3は、このような例に限定されない。例えば、3Dカメラ312の姿勢を変更する姿勢変更機構が別に設けられていてもよい。
100,200,300 危険警告システム、 101,201,301 ECU、 102 メモリ、 103 CANI/F、 104 外部センサ、 105 DMS、 106 スピーカ、 107 表示デバイス、 108 発光部材、 109,209,309 姿勢変更機構、 210,310 プロジェクタ、 211A 第1の俯瞰カメラ、 211B 第2の俯瞰カメラ、 312 3Dカメラ。
Claims (10)
- 車両の自動運転中に危険が検出された場合に、運転者に警告を行う危険警告システムであって、
前記危険が検出された場合に、前記車両の運転者がセカンドタスク中であるか否かを判断する制御部と、
前記セカンドタスク中である場合に、前記セカンドタスクの対象物に対して、光を用いて警告を行う警告部と、を備えること
を特徴とする危険警告システム。 - 前記運転者の顔が含まれるように、前記運転者の周りの画像を撮像する撮像部をさらに備え、
前記制御部は、前記画像を用いて、前記運転者の視線の方向を特定することで、前記運転者が前記セカンドタスク中であるか否かを判断するとともに、前記セカンドタスク中である場合に、前記画像を用いて、前記運転者の視線の方向にある前記対象物を特定すること
を特徴とする請求項1に記載の危険警告システム。 - 前記運転者の頭部が含まれるように、前記運転者の周りの第1の画像を撮像する第1の撮像部と、
前記頭部が含まれるように、前記運転者の周りの第2の画像を撮像する第2の撮像部と、をさらに備え、
前記制御部は、前記第1の画像又は前記第2の画像を用いて、前記運転者が向いている方向を特定することで、前記運転者が前記セカンドタスク中であるか否かを判断するとともに、前記セカンドタスク中である場合に、前記第1の画像及び前記第2の画像を用いて、前記運転者が向いている方向にある前記対象物の位置を特定し、
前記警告部は、前記特定された位置に向かって前記警告を行うこと
を特徴とする請求項1に記載の危険警告システム。 - 前記警告部は、前記対象物に対して前記光を投射する発光部材であること
を特徴とする請求項1から3の何れか一項に記載の危険警告システム。 - 前記警告部は、前記対象物に対して映像を投影するプロジェクタであること
を特徴とする請求項1から3の何れか一項に記載の危険警告システム。 - 前記運転者の顔が含まれるように、前記運転者の周りの画像を撮像する撮像部と、
第1の対象撮像部と、
第2の対象撮像部と、をさらに備え、
前記警告部は、プロジェクタであり、
前記制御部は、前記画像により、前記運転者の視線の方向を特定することで、前記運転者が前記セカンドタスク中であるか否かを判断するとともに、前記セカンドタスク中である場合に、前記第1の対象撮像部に前記視線の方向の第1の対象画像を撮像させ、前記第2の対象撮像部に前記視線の方向の第2の対象画像を撮像させ、前記第1の対象画像又は前記第2の対象画像を用いて、前記視線の方向にある前記対象物の位置及び立体的な形状を特定し、前記特定された形状にあわせて、前記プロジェクタから前記対象物に投影される映像を補正し、
前記プロジェクタは、前記制御部で補正された映像を、前記特定された位置に投影すること
を特徴とする請求項1に記載の危険警告システム。 - 前記警告部は、前記運転者が前記車両の前方を向くまで、前記警告を継続すること
を特徴とする請求項1から6の何れか一項に記載の危険警告システム。 - 前記危険を検出するセンサをさらに備えること
を特徴とする請求項1から7の何れか一項に記載の危険警告システム。 - 前記車両の外部と通信を行う通信部をさらに備え、
前記制御部は、前記通信部を介して、前記危険が検出されたことを示す情報を取得すること
を特徴とする請求項1から7の何れか一項に記載の危険警告システム。 - 車両の自動運転中に危険が検出された場合に、運転者に警告を行う危険警告方法であって、
前記危険が検出された場合に、前記車両の運転者がセカンドタスク中であるか否かを判断し、
前記セカンドタスク中である場合に、前記セカンドタスクの対象物に対して、光を用いて警告を行うこと
を特徴とする危険警告方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/010127 WO2019176037A1 (ja) | 2018-03-15 | 2018-03-15 | 危険警告システム及び危険警告方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/010127 WO2019176037A1 (ja) | 2018-03-15 | 2018-03-15 | 危険警告システム及び危険警告方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019176037A1 true WO2019176037A1 (ja) | 2019-09-19 |
Family
ID=67906996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2018/010127 WO2019176037A1 (ja) | 2018-03-15 | 2018-03-15 | 危険警告システム及び危険警告方法 |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2019176037A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111857329A (zh) * | 2020-05-26 | 2020-10-30 | 北京航空航天大学 | 注视点计算方法、装置及设备 |
WO2021166509A1 (ja) * | 2020-02-18 | 2021-08-26 | 株式会社デンソー | 運転制御装置およびhmi制御装置 |
JP2021130451A (ja) * | 2020-02-18 | 2021-09-09 | 株式会社デンソー | 運転制御装置およびhmi制御装置 |
WO2023105751A1 (ja) * | 2021-12-10 | 2023-06-15 | 三菱電機株式会社 | 乗員監視装置及び乗員監視方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016197407A (ja) * | 2015-04-03 | 2016-11-24 | 株式会社デンソー | 情報提示装置 |
JP2017206245A (ja) * | 2017-06-20 | 2017-11-24 | 株式会社ユピテル | 車両用投影システム及びそのプログラム |
JP2018005343A (ja) * | 2016-06-28 | 2018-01-11 | パナソニックIpマネジメント株式会社 | 運転支援装置及び運転支援方法 |
-
2018
- 2018-03-15 WO PCT/JP2018/010127 patent/WO2019176037A1/ja active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016197407A (ja) * | 2015-04-03 | 2016-11-24 | 株式会社デンソー | 情報提示装置 |
JP2018005343A (ja) * | 2016-06-28 | 2018-01-11 | パナソニックIpマネジメント株式会社 | 運転支援装置及び運転支援方法 |
JP2017206245A (ja) * | 2017-06-20 | 2017-11-24 | 株式会社ユピテル | 車両用投影システム及びそのプログラム |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021166509A1 (ja) * | 2020-02-18 | 2021-08-26 | 株式会社デンソー | 運転制御装置およびhmi制御装置 |
JP2021130451A (ja) * | 2020-02-18 | 2021-09-09 | 株式会社デンソー | 運転制御装置およびhmi制御装置 |
JP7259832B2 (ja) | 2020-02-18 | 2023-04-18 | 株式会社デンソー | 運転制御装置、hmi制御装置、運転制御プログラム、およびhmi制御プログラム |
CN111857329A (zh) * | 2020-05-26 | 2020-10-30 | 北京航空航天大学 | 注视点计算方法、装置及设备 |
CN111857329B (zh) * | 2020-05-26 | 2022-04-26 | 北京航空航天大学 | 注视点计算方法、装置及设备 |
US11748906B2 (en) | 2020-05-26 | 2023-09-05 | Beihang University | Gaze point calculation method, apparatus and device |
WO2023105751A1 (ja) * | 2021-12-10 | 2023-06-15 | 三菱電機株式会社 | 乗員監視装置及び乗員監視方法 |
JP7483160B2 (ja) | 2021-12-10 | 2024-05-14 | 三菱電機株式会社 | 乗員監視装置及び乗員監視方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019176037A1 (ja) | 危険警告システム及び危険警告方法 | |
JP5341789B2 (ja) | パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム | |
JP4690476B2 (ja) | 車載カメラの校正装置 | |
JP4751939B2 (ja) | 車載カメラの校正装置 | |
JP4461091B2 (ja) | 位置検出装置及びその補正方法 | |
JP4861034B2 (ja) | 車載カメラのキャリブレーションシステム | |
JP5723106B2 (ja) | 車両用ディスプレイ装置及び車両用ディスプレイ方法 | |
JP4557302B2 (ja) | 車両運転支援装置 | |
JP5081313B2 (ja) | 車載カメラの校正装置 | |
JP2007094716A (ja) | 車両の運転支援装置 | |
US10099617B2 (en) | Driving assistance device and driving assistance method | |
JP6471522B2 (ja) | カメラパラメータ調整装置 | |
JP2009085651A (ja) | 画像処理システム | |
KR20170060652A (ko) | 헤드업 디스플레이의 좌표 매칭 장치 및 그 방법 | |
JP2005136561A (ja) | 車両周辺画像表示装置 | |
JP6669182B2 (ja) | 乗員監視装置 | |
KR101055001B1 (ko) | 차선 이탈 경보 시스템용 카메라의 촬영각 오차 자동 보정 방법 | |
JP2007221199A (ja) | 車載カメラ表示装置及び画像処理装置 | |
JP4032052B2 (ja) | 位置検出装置及びその補正方法 | |
JP6855254B2 (ja) | 画像処理装置、画像処理システム、及び、画像処理方法 | |
JP4867035B2 (ja) | 画像処理装置、画像処理用プログラム、画像処理方法 | |
JP5098981B2 (ja) | 顔部位検出装置 | |
KR101709009B1 (ko) | 어라운드 뷰 왜곡 보정 시스템 및 방법 | |
JP4040620B2 (ja) | 車両周辺監視装置 | |
JP2008011187A (ja) | 表示制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18909383 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18909383 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: JP |