JP2018200701A - 車両用制御装置 - Google Patents

車両用制御装置 Download PDF

Info

Publication number
JP2018200701A
JP2018200701A JP2018135118A JP2018135118A JP2018200701A JP 2018200701 A JP2018200701 A JP 2018200701A JP 2018135118 A JP2018135118 A JP 2018135118A JP 2018135118 A JP2018135118 A JP 2018135118A JP 2018200701 A JP2018200701 A JP 2018200701A
Authority
JP
Japan
Prior art keywords
vehicle
target
host vehicle
risk
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018135118A
Other languages
English (en)
Inventor
大介 毛利
Daisuke Mori
大介 毛利
健純 近藤
Takeyoshi Kondo
健純 近藤
勉 足立
Tsutomu Adachi
勉 足立
毅 川西
Takeshi Kawanishi
毅 川西
博司 前川
Hiroshi Maekawa
博司 前川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ADC Technology Inc
Original Assignee
ADC Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ADC Technology Inc filed Critical ADC Technology Inc
Priority to JP2018135118A priority Critical patent/JP2018200701A/ja
Publication of JP2018200701A publication Critical patent/JP2018200701A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Regulating Braking Force (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

【課題】検出した物標に応じて適切に衝突回避処理を実行できる車両用制御装置を提供すること。【解決手段】車両(101)の周囲に存在する、少なくとも一部が人である物標を検出する物標検出ユニット(3)と、前記人の視線方向を推定する視線方向推定ユニット(5)と、前記物標から前記車両に向う方向(A1)に対する、前記視線方向(A2)の角度(θ)に応じて、前記車両と前記物標との衝突を回避するための衝突回避処理を実行する衝突回避処理実行ユニット(7)と、を備えることを特徴とする車両用制御装置(1)。【選択図】図1

Description

本発明は車両用制御装置に関する。
従来、カメラやミリ波センサ等を用いて物標を検出し、検出した物標と自車両との衝突を回避するために衝突回避処理を実行する走行安全装置が知られている(特許文献1参照)。
特開2007−91207号公報
従来の技術では、検出した物標の危険度がどの程度であるかを判断することは困難であった。そのため、検出した物標に対して適切に衝突回避処理を実行することは難しかった。本発明は以上の点に鑑みなされたものであり、上述した課題を解決できる車両用制御装置を提供することを目的とする。
本発明の車両用制御装置は、車両の周囲に存在する、少なくとも一部が人である物標を検出する物標検出ユニットと、前記人の視線方向を推定する視線方向推定ユニットと、前記物標から前記車両に向う方向に対する、前記視線方向の角度に応じて、前記車両と前記物標との衝突を回避するための衝突回避処理を実行する衝突回避処理実行ユニットとを備えることを特徴とする。
本発明の車両用制御装置は、検出した物標の一部である人の視線方向を検出し、その視線方向に応じて衝突回避処理を実行する。そのため、検出した物標の危険度に応じて、衝突回避処理を適切に実行することができる。
車両用制御装置1の構成を表すブロック図である。 自車両101におけるカメラ群及びミリ波センサ群の配置を表す平面図である。 車両用制御装置1が実行する危険度算出処理を表すフローチャートである。 車両用制御装置1が実行する物標の情報取得処理を表すフローチャートである。 物標の位置を規定するxy座標を表す平面図である。 図6A〜図6Cは、角度がθである顔の画像パターンを表す説明図である。 角度θを表す平面図である。 図8Aは角度θと危険D1との関係を表すグラフであり、図8Bはy座標と危険度D2との関係を表すグラフであり、図8Cはx座標と危険度D3との関係を表すグラフであり、図8Dは速度と危険度D4との関係を表すグラフであり、図8Eは人の推定年齢と危険度D5との関係を表すグラフである。 車両用制御装置1が実行する学習処理を表すフローチャートである。 車両用制御装置1が実行する問い合わせ処理を表すフローチャートである。 他車両203の構成を表すブロック図である。 他車両203が実行する回答処理を表すフローチャートである。
本発明の実施形態を図面に基づき説明する。
<第1の実施形態>
1.車両用制御装置1の構成
車両用制御装置1の構成を図1、図2に基づき説明する。車両用制御装置1は、車両に搭載可能なコンピュータである。以下では、車両用制御装置1を搭載した車両を自車両101とする。車両用制御装置1は、CPU、RAM、ROM等の周知の構成を備える。また、車両用制御装置1は、機能的に、情報取得部3、演算部5、衝突回避処理実行部7、及び記憶部8を備える。
情報取得部3は、自車両101に取り付けられた前方カメラ9、後方カメラ11、左方カメラ13、及び右方カメラ15から画像データを取得し、記憶部8に記憶する。画像データの取得及び記憶は所定時間ごとに繰り返し行う。
なお、図2に示すように、前方カメラ9、後方カメラ11、左方カメラ13、及び右方カメラ15は、それぞれ、自車両101のルーフ103における前端、後端、左端、及び右端に取り付けられている。
前方カメラ9は自車両101の前方を撮影可能であり、後方カメラ11は自車両101の後方を撮影可能であり、左方カメラ13は自車両101の左方を撮影可能であり、右方カメラ15は自車両101の右方を撮影可能である。よって、情報取得部3は、前方カメラ9、後方カメラ11、左方カメラ13、及び右方カメラ15を用いて、自車両101の前後左右に存在する物標を撮影可能である。以下では、前方カメラ9、後方カメラ11、左方カメラ13、及び右方カメラ15をまとめてカメラ群と呼ぶこともある。
また、情報取得部3は、自車両101に取り付けられた前方ミリ波センサ(ミリ波レーダ)17、後方ミリ波センサ19、左方ミリ波センサ21、及び右方ミリ波センサ23から自車両の周囲に存在する物標の検出結果を取得し、記憶部8に記憶する。物標の検出結果には、自車両101から物標までの距離と、自車両101を基準とする物標の方位とが含まれる。検出結果の取得及び記憶は所定時間ごとに繰り返し行う。
なお、図2に示すように、前方ミリ波センサ17、後方ミリ波センサ19、左方ミリ波センサ21、及び右方ミリ波センサ23はそれぞれ、自車両101の前端、後端、左側面、右側面に取り付けられている。前方ミリ波センサ17は自車両101の前方に存在する物標を検出可能であり、後方ミリ波センサ19は自車両101の後方に存在する物標を検出可能であり、左方ミリ波センサ21は自車両101の左方に存在する物標を検出可能であり、右方ミリ波センサ23は自車両101の右方に存在する物標を検出可能である。
よって、情報取得部3は、前方ミリ波センサ17、後方ミリ波センサ19、左方ミリ波センサ21、及び右方ミリ波センサ23を用いて、自車両101の前後左右に存在する物標までの距離と、自車両101を基準とする物標の方位とを取得可能である。以下では、前方ミリ波センサ17、後方ミリ波センサ19、左方ミリ波センサ21、及び右方ミリ波センサ23をまとめて、ミリ波センサ群と呼ぶこともある。
また、情報取得部3は、自車両101に取り付けられたGPS25から、自車両101の位置情報を取得する。
演算部5は、自車両101に搭載された第1の通信ユニット27を用いて、自車両10
1の外部に存在するクラウドコンピュータ201と、インターネット回線等を介して通信を行うことができる。また、演算部5は、自車両101に搭載された第2の通信ユニット29を用いて、他車両(自車両101以外の車両)203と無線通信を行うことができる。
また、演算部5は、情報取得部3が取得した各種情報、第1の通信ユニット27を用いて取得した情報、及び第2の通信ユニット29を用いて取得した情報に基づき、後述する処理を実行する。
衝突回避処理実行部7は、演算部5の演算結果に応じ、ブレーキユニット31、操舵ユニット33、前照灯ユニット35、クラクションユニット37、アクセルユニット39、スピーカ41、及びディスプレイ43を用いて、自車両101と物標との衝突を回避するための衝突回避処理を実行する。
ここで、ブレーキユニット31は、自車両101のブレーキを作動させるユニットである。操舵ユニット33は自車両101の操舵を行うユニットである。前照灯ユニット35は自車両101における前照灯の点灯/消灯の切り替え、及びロービーム/ハイビームの切り替えを行うユニットである。クラクションユニット37は自車両101のクラクションを吹鳴するユニットである。アクセルユニット39は自車両101のアクセルを操作するユニットである。スピーカ41は自車両101の車室内に設けられたスピーカであり、ディスプレイ43は自車両101の車室内に設けられた、画像を表示可能な液晶ディスプレイである。
上述した衝突回避処理とは、以下のものである。
・ブレーキユニット31を作動させ、自車両101を減速又は停止する処理。
・操舵ユニット33を用いて、自車両101が物標から遠ざかる方向に操舵する処理。
・前照灯ユニット35を用いて前照灯を点灯し、且つハイビームにして、周囲から自車両101を目立ちやすくする処理。
・クラクションユニット37を用いてクラクションを吹鳴し、周囲から自車両101を目立ちやすくする処理。
・アクセルユニット39を用いて、自車両101のドライバがアクセルを踏んでも、自車両101の加速が通常よりも抑制される状態にする処理。
・自車両101のドライバに対し、スピーカ41の音声、又はディスプレイ43の画像から成る警報を出力する処理。
なお、衝突回避処理実行部7が実行する衝突回避処理は、上記の複数の衝突回避処理のうちの一部であってもよいし、全部であってもよい。また、衝突回避処理実行部7が実行する衝突回避処理は常に一定であってもよいし、状況(例えば、検出した物標の種類、位置、距離、後述する危険度Dの大きさ等)に応じて変化してもよい。
記憶部8は、演算部5が実行する処理に必要な各種情報を記憶する。
2.車両用制御装置1が実行する危険度算出処理
図3〜図8に基づき、車両用制御装置1(特に演算部5)が所定時間ごとに繰り返し実行する危険度算出処理を説明する。
図3のステップ1では、情報取得部3を用いて、カメラ群から画像を取得する。
ステップ2では、前記ステップ1で取得した画像において、予め登録された物標のパターンを認識する画像認識処理を実行する。物標のパターンには、車両のパターン、歩行者のパターン等、複数のパターンがあり、それぞれについて画像認識処理を実行する。
画像において、いずれかの物標のパターンを認識できた場合は、その物標のパターンに対応する物標を検出したと判断し、ステップ3に進む。例えば、画像において車両のパターンを認識できた場合は、車両を検出したと判断し、画像において歩行者のパターンを認識できた場合は、歩行者を検出したと判断する。
一方、画像においていずれの物標のパターンも認識できなかった場合は物標を検出しなかったと判断し、本処理を終了する。なお、車両は、少なくとも一部が人(ドライバ)である物標の一例であり、歩行者も、少なくとも一部が人である物標の一例である。
ステップ3では、前記ステップ2で検出した物標の情報を取得する。この処理を図4のフローチャートに基づき説明する。
図4のステップ11では、前記ステップ2で検出した物標の位置を取得する。そのために、まず、情報取得部3を用いて、ミリ波センサ群から物標の検出結果を取得し、自車両101から前記ステップ2で検出した物標までの距離と、自車両101を基準とする物標の方位とを算出する。
次に、その距離及び方位を、図5に示すxy座標系における座標に変換する。図5に示すxy座標系は、自車両101の中心を通り、自車両101の進行方向に平行な軸をx軸とし、自車両101の中心を通り、x軸に直交する水平軸をy軸とする座標系である。x軸、y軸の原点は自車両101の中心である。また、x軸において自車両101の進行方向が正の方向であり、y軸において(上方から見たときの)右方が正の方向である。
よって、前記ステップ2で検出した物標204の位置は、図5に示すxy座標系におけるx座標、及びy座標として表される。
ステップ12では、前記ステップ2で検出した物標の速度を以下のようにして取得する。まず、過去の画像を記憶部8から読み出し、その過去の画像における、前記ステップ2で検出した物標の位置を取得する。次に、過去の画像における物標の位置と、前記ステップ2で取得した最新の画像における物標の位置とから、物標の移動距離dを算出する。また、過去の画像を取得した時刻と、最新の画像を取得した時刻との時間差Δtを算出する。そして、移動距離dを時間差Δtで割ることで、物標の速度vを算出する。
ステップ13では、前記ステップ2で検出した物標の種類が、車両又は歩行者であるか否かを判断する。このとき、前記ステップ2において、車両のパターン、又は歩行者のパターンを認識できた場合は、物標の種類が車両又は歩行者であると判断できる。前記ステップ2で検出した物標の種類が車両又は歩行者であればステップ14に進み、それ以外のものである場合は本処理を終了する。
ステップ14では、物標に含まれる人(物標が車両の場合はその車両のドライバ、物標が歩行者の場合はその歩行者自体)の視線方向を、以下のように推定する。
記憶部8は、予め、図6A〜6Cに示すような、顔を含む画像パターンを複数備えている。各画像パターンが含む顔は、向きが少しずつ異なる。例えば、図6Aに示す画像パターンは、顔の向きを表す角度θが0°である顔を表現したものであり、図6Bに示す画像パターンは、角度θが45°である顔を表現したものであり、図6Cに示す画像パターンは、角度θが90°である顔を表現したものである。記憶部8は、図6A〜6Cに示すものの他にも、角度θが5°、10°、15°、20°・・・のように、θの値が少しずつ異なる多数の画像パターンを記憶している。
ここで、角度θとは、図7に示すように、物標に含まれる人の顔205から、自車両101のドライバの視点207へ向う方向A1に対する、顔205固有の視線方向(額の正面に直交する方向)A2(図6A〜図6C参照)の角度を表す。
本ステップ14では、前記ステップ2で取得した画像から、物標に含まれる人の顔の領域を抽出する。次に、上述した複数の画像パターンの中から、抽出した人の顔の領域と最も一致度が高いものを選択する。そして、選択した画像パターンにおける角度θが、物標に含まれる人の視線方向を表す角度であると判断する。
このとき、物標に含まれる人から自車両101に向う方向A1に対する、人の視線方向A2の角度θは、選択した画像パターンにおける角度θとなる。
図4に戻り、ステップ15では、物標に含まれる人の年齢を、以下のように推定する。まず、前記ステップ2で取得した画像から、物標に含まれる人の顔の領域を抽出する。そして、その領域から、人の年齢と相関する特徴(例えば、皺の数、皺の深さ、頭髪の色、頭髪の量、顔の大きさ等)を認識する。そして、その認識した特徴の種類と程度を、演算部5が予め備えているマップ(上述した特徴の種類や程度と年齢との関係を規定するマップ)に入力し、物標に含まれる人の年齢を推定する。
図3に戻り、ステップ4では、前記ステップ2で検出した物標の危険度Dを算出する。具体的には、以下のようにする。
まず、物標に含まれる人の視線方向に関する危険度D1と、物標のy座標に関する危険度D2と、物標のx座標に関する危険度D3と、物標の速度に関する危険度D4と、物標に含まれる人の年齢に関する危険度D5とを、以下のようにしてそれぞれ算出する。
記憶部8は、予め、物標に含まれる人の視線方向を表す角度θと、危険度D1との関係を規定するマップを備えている。そのマップは、図8Aに示すように、角度θが大きいほど、危険度D1を高く設定している。この角度θと危険度D1との関係は、角度θが大きいほど、物標に含まれる人が自車両を見ていない可能性が高く、危険度D1が高いことを反映している。このマップに、前記ステップ14で求めた角度θを入力することで、危険度D1を算出する。なお、物標が人を含まないものである場合や、物標に含まれる人の視線方向を認識できなかった場合は、危険度D1を、予め決められた固定値とする。
また、記憶部8は、予め、物標のy座標と、危険度D2との関係を規定するマップを備えている。そのマップは、図8Bに示すように、y座標が0に近い(自車両101の軌道に近い)ほど、危険度D2を高く設定している。このマップに、前記ステップ11で取得した、物標のy座標を入力することで、危険度D2を算出する。
また、記憶部8は、予め、物標のx座標と、危険度D3との関係を規定するマップを備えている。そのマップは、図8Cに示すように、x座標が正であり、その絶対値が小さいならば(物標が自車両101の前方にあり、且つ自車両101に近いならば)、危険度D3を大きく設定し、x座標が負であるか、x座標の絶対値が大きければ(物標が自車両101の後方にあるか、自車両101から遠ければ)、危険度D3を小さく設定する。このマップに、前記ステップ11で取得した、物標のx座標を入力することで、危険度D3を算出する。
また、記憶部8は、予め、物標の速度と、危険度D4との関係を規定するマップを備えている。そのマップは、図8Dに示すように、物標の速度が大きいほど、危険度D4を大きく設定する。このマップに、前記ステップ12で取得した物標の速度を入力することで、危険度D4を算出する。
また、演算部5は、予め、物標に含まれる人の年齢と、危険度D5との関係を規定するマップを備えている。そのマップは、図8Eに示すように、中間の年齢の領域では危険度D5を低く設定し、それより若い年齢の領域、及びそれより高齢の領域では危険度D5を
高く設定する。このマップに、前記ステップ15で推定した、物標に含まれる人の年齢を入力することで危険度D5を算出する。なお、図8Eに示すマップは、物標に含まれる人が歩行者の場合と、車両のドライバである場合とで別のものにすることができる。また、物標が人を含まないものである場合や、物標に含まれる人の年齢を推定できなかった場合は、危険度D5を、予め決められた固定値とする。
最後に、上記のように算出した危険度D1〜D5を全て乗算して、総合的な危険度Dを算出する。
ステップ5では、前記ステップ2で検出した物標が撮影されている過去の画像を記憶部8から読み出し、その過去の画像から認識できる物標の挙動が、記憶部8に記憶されている危険パターンに該当するか否かを判断する。この危険パターンとは、後述する学習処理により学習され、記憶部8に記憶されるものである。危険パターンについては後述する。物標の挙動が危険パターンに該当する場合はステップ6に進み、危険パターンに該当しない場合はステップ7に進む。
ステップ6では、前記ステップ4で算出した危険度Dを補正し、所定の割合だけ増加させる。
ステップ7では、第1の通信ユニット27を用いてクラウドコンピュータ201と通信を行い、前記ステップ2で検出した物標が、クラウドコンピュータ201に記憶されているビッグデータに含まれる危険パターンに該当するか否かを判断する。この危険パターンとは、後述する学習処理により学習され、クラウドコンピュータ201に記憶されるものである。危険パターンについては後述する。検出した物標が危険パターンに該当する場合はステップ8に進み、危険パターンに該当しない場合はステップ9に進む。
ステップ8では、前記ステップ4で算出した危険度D(前記ステップ6で補正した場合は補正後の危険度D)を補正し、所定の割合だけ増加させる。
ステップ9では、前記ステップ4で算出した危険度D(前記ステップ6又は8で補正した場合は補正後の危険度D)が所定の閾値以上であるか否かを判断する。閾値以上である場合はステップ10に進み、閾値未満である場合は本処理を終了する。
ステップ10では、衝突回避処理実行部7を用いて、上述した衝突回避処理を実行する。実行する衝突回避処理は、常に同一であってもよいし、物標の種類や危険度の内容や大きさに応じて変化してもよい。
3.車両用制御装置1が実行する学習処理
図9に基づき、車両用制御装置1(特に演算部5)が所定時間ごとに繰り返し実行する学習処理を説明する。
ステップ21では、情報取得部3を用いて、カメラ群から画像を取得するとともに、ミリ波センサ群から検出結果を取得する。そして、取得した画像及びミリ波センサの検出結果において、危険運転車両を検出できたか否かを判断する。
危険運転車両とは、自車両101に対する危険度が高い動作を行った車両を意味し、例えば、自車両101の前方に急に飛び出したり、他の車線から自車両101の車線に急に割り込んだり、自車両101の前方で急ブレーキをかけたり、道路の進行方向に対し逆走する等の動作を行った車両が該当する。危険運転車両を検出できた場合はステップ22に進み、検出できなかった場合はステップ26に進む。
ステップ22では、前記ステップ21で検出した危険運転車両が撮影されている過去の画像であって、危険度が高い動作を行う前に撮影された画像を記憶部8から読み出す。
ステップ23では、前記ステップ22で読み出した過去の画像から、危険度が高い動作を行う前における危険運転車両の挙動(例えば、速度の推移、走行軌跡、ウインカーの使用の有無、ドライバの視線方向の推移、一時停止標識や交差点等での一時停止の有無等)を認識し、認識した挙動が予め設定された標準挙動と異なるものであれば、それを危険パターンとして記憶部8に記憶する。
例えば、過去の画像において、危険運転車両の速度が予め設定された標準速度を超えていた場合、その速度を危険パターンとして記憶する。また、過去の画像において、危険運転車両の走行軌跡が蛇行しており、予め設定された標準の走行軌跡(例えば直線の走行軌跡)と異なる場合、蛇行した走行軌跡を危険パターンとして記憶する。
また、過去の画像において、危険運転車両がウインカーを使用せず、その場所でウインカーを使用することが標準挙動となっていた場合、ウインカーの不使用を危険パターンとして記憶する。また、過去の画像において、危険運転車両のドライバが左右に視線を向けず、その場所で左右に視線を向けることが標準挙動となっていた場合、左右の不確認を危険パターンとして記憶する。
また、過去の画像において、危険運転車両が一時停止をせず、その場所で一時停止することが標準挙動となっていた場合、一時停止の不履行を危険パターンとして記憶する。なお、記憶部8に記憶された危険パターンは、前記ステップ5の処理で使用される。
ステップ24では、前記ステップ21で検出した危険運転車両が撮影されている画像から、危険運転車両の車種を推定する。具体的には、まず、前記ステップ21で取得した画像から、画像認識により、車両の特徴(形状、大きさ、色等)を認識する。記憶部8には、予め、車両の特徴と車種との関係を規定するマップが記憶されており、このマップに車両の特徴を入力することで、車種を推定することができる。
また、前記ステップ21で取得した画像から、車両のナンバープレートに該当する領域を抽出し、抽出した領域からナンバープレートの数字を読み取る。
ステップ25では、前記ステップ24で推定した車種と、前記ステップ24で読み取ったナンバープレートの数字とを、第1の通信ユニット27を用いてクラウドコンピュータ201に送信する。なお、クラウドコンピュータ201は、受信した車種及びナンバープレートの数字を危険パターンとして記憶する。クラウドコンピュータ201において記憶された危険パターンは、ビッグデータの一部となり、前記ステップ7の処理で使用される。
ステップ26では、情報取得部3を用いて、カメラ群から画像を取得するとともに、ミリ波センサ群から検出結果を取得する。そして、取得した画像及びミリ波センサの検出結果において、危険行動歩行者を検出できたか否かを判断する。
危険行動歩行者とは、自車両101に対する危険度が高い動作を行った歩行者を意味し、例えば、自車両101の前方に急に飛び出す歩行者等が該当する。危険行動歩行者を検出できた場合はステップ27に進み、検出できなかった場合は本処理を終了する。
ステップ27では、前記ステップ26で検出した危険行動歩行者が撮影されている過去の画像であって、危険度が高い動作を行う前に撮影された画像を記憶部8から読み出す。
ステップ28では、前記ステップ27で読み出した過去の画像から、危険度が高い動作を行う前における危険行動歩行者の挙動(例えば、一時停止の有無、視線の方向等)を認識し、認識した挙動が予め設定された標準挙動と異なるものであれば、それを危険パターンとして記憶部8に記憶する。
例えば、過去の画像において、危険行動歩行者が一時停止をせず、その場所で一時停止することが標準挙動となっていた場合、一時停止の不履行を危険パターンとして記憶する。また、過去の画像において、危険行動歩行者が自らの進行方向以外の方向に視線を向けており(よそ見しており)、その場所では自らの進行方向に視線を向けることが標準挙動となっていた場合、歩行者のよそ見を危険パターンとして記憶する。なお、記憶部8に記憶された危険パターンは、前記ステップ5の処理で使用される。
4.車両用制御装置1が実行する問い合わせ処理
図10〜図12に基づき、車両用制御装置1(特に演算部5)が所定時間ごとに繰り返し実行する問い合わせ処理を説明する。
ステップ31では、情報取得部3を用いて、カメラ群から画像を取得するとともに、ミリ波センサ群から検出結果を取得する。そして、取得した画像及びミリ波センサの検出結果において、他車両203を検出できたか否かを判断する。他車両203を検出できた場合はステップ32に進み、検出できなかった場合は本処理を終了する。
ステップ32では、前記ステップ31で検出した他車両203に向けて、第2の通信ユニット29を用い、問い合わせ信号を送信する。この問い合わせ信号は、自車両101の識別番号、及びGPS25で取得した自車両101の位置情報を含む。
ステップ33では、前記ステップ32で問い合わせ信号を送信した他車両203から、回答を受信したか否かを判断する。この回答とは、他車両203が自車両101を検出しているか否かを表す信号である。回答について詳しくは後述する。回答を受信した場合はステップ34に進み、未だ受信していない場合はステップ32に進む。
ステップ34では、前記ステップ33で受信した回答の内容が、他車両203が自車両101を検出しているという内容であるか否かを判断する。回答の内容が、他車両203が自車両101を検出していないという内容である場合はステップ35に進み、他車両203が自車両101を検出しているという内容である場合は本処理を終了する。
ステップ35では、衝突回避処理実行部7を用いて、上述した衝突回避処理を実行する。
ここで、問い合わせ信号(前記ステップ32参照)を受信し、それに対する回答(前記ステップ33参照)を送信する他車両203の構成を説明する。他車両203は、図11に示すように、カメラ209、ミリ波センサ211、通信ユニット213、GPS215、及び制御ユニット217を備える。
カメラ209は、他車両203の周囲を撮影し、画像データを生成する。ミリ波センサ211は、他車両203の周囲に存在する物標(自車両101を含む)を検出可能である。通信ユニット213は無線通信を行うことができる。GPS215は他車両203の位置情報を取得する。制御ユニット217は、カメラ209、ミリ波センサ211、通信ユニット213、及びGPS215により取得した情報を用いて後述する回答処理を実行する。
次に、他車両203が所定時間ごとに繰り返し実行する、回答処理を図12のフローチャートに基づき説明する。ステップ41では、問い合わせ信号を受信したか否かを判断する。なお、この問い合わせ信号は、自車両101が送信したものである(前記ステップ32参照)。問い合わせ信号を受信した場合はステップ42に進み、受信しなかった場合は本処理を終了する。
ステップ42では、カメラ209、及びミリ波センサ211を用いて物標を検出できるか否かを判断する。物標を検出できる場合はステップ43に進み、検出できない場合はステップ46に進む。
ステップ43では、前記ステップ42で検出した物標の位置情報を算出する。この位置情報は、以下のように算出できる。まず、GPS215を用いて、他車両203の位置を取得する。また、カメラ209、及びミリ波センサ211を用いて、他車両203を基準とする、物標の相対的な位置を算出する。最後に、他車両203の位置と、他車両203を基準とする、物標の相対的な位置とを総合して、物標の位置(絶対的な位置)を算出する。
ステップ44では、前記ステップ43で算出した物標の位置と、問い合わせ信号に含まれる自車両101の位置情報とが一致するか否か(すなわち、前記ステップ42で検出した物標は、問い合わせ信号を送信した自車両101であるか否か)を判断する。一致する場合はステップ45に進み、一致しない場合はステップ46に進む。
ステップ45では、他車両203が自車両101を検出しているという内容の回答を自車両101に送信する。回答には、問い合わせ信号に含まれていた自車両101の識別番号を含める。回答を受信した自車両101は、回答に含まれる識別番号により、その回答が自車両101からの問い合わせ信号に対する回答であると判断できる。
ステップ46では、他車両203が自車両101を検出していないという内容の回答を自車両101に送信する。回答には、問い合わせ信号に含まれていた自車両101の識別番号を含める。回答を受信した自車両101は、回答に含まれる識別番号により、その回答が自車両101からの問い合わせ信号に対する回答であると判断できる。
5.車両用制御装置1が奏する効果
(1)車両用制御装置1は、検出した物標の危険度Dを算出し、その危険度Dに応じて衝突回避処理を適切に実行することができる。そのため、自車両101の安全性が向上する。
また、車両用制御装置1は、危険度Dが閾値より低い場合は衝突回避処理を実行しないので、不必要な衝突回避処理の実行を抑制できる。
(2)車両用制御装置1は、少なくとも一部が人である物標(車両又は歩行者)における人の視線方向に基づき、物標の危険度Dを算出する。すなわち、物標から自車両101に向う方向A1に対する、人の視線方向A2の角度θ(図7参照)が大きいほど(視線方向A2が自車両101から大きく外れているほど)、物標の危険度Dを大きくする。そのため、物標の危険度Dを適切に算出することができる。
(3)車両用制御装置1は、人の顔の向きに基づき、その人の視線方向を推定する。そのため、人の視線方向を容易に推定することができる。
(4)車両用制御装置1は、物標の一部である人の視線方向及び年齢、物標の位置、及び物標の速度に基づき、総合的に物標の危険度Dを算出する。そのため、物標の危険度Dを適切に算出することができる。
(5)車両用制御装置1は、車両の危険運転や歩行者の危険行動に結びつきやすい挙動(危険パターン)を予め学習しておき、物標の挙動が危険パターンに該当する場合は、その物標の危険度Dを補正して増加させる。そのことにより、物標の危険度Dを一層適切に算出できる。
(6)車両用制御装置1は、クラウドコンピュータ201に記憶されたビッグデータから、車両の危険運転に結びつきやすい車種やナンバープレート(危険パターン)を取得し、検出した物標の車種やナンバープレートがその危険パターンに該当する場合は、その物標の危険度Dを補正して増加させる。そのことにより、物標の危険度Dを一層適切に算出できる。
(7)車両用制御装置1は、他車両203に対し、他車両203が自車両101を検出しているか否かを問い合わせることができる。また、車両用制御装置1は、他車両203からの回答により、他車両203が自車両101を検出しているか否かを判断し、検出していない場合は衝突回避処理を実行することができる。そのため、自車両101の安全性が向上する。
<その他の実施形態>
前記第1の実施形態における車両用制御装置1は、以下のものであってもよい。
(1)人の視線方向は、人の顔の向きに加えて、眼球の向き(黒目の向き)を加えて判断してもよい。眼球の向きは、例えば、カメラで撮影した画像において、眼窩に対する黒目(瞳)の位置を認識し、その認識結果に基づき判断することができる。例えば、黒目が眼窩における黒目の標準位置(顔の正面方向を見ているときの黒目の位置)よりも左側にあると認識した場合は、眼球が左方向を向いていると判断し、黒目が標準位置にある場合に比べ、視線方向が左寄りであるとすることができる。また、黒目が眼窩における黒目の標準位置よりも右側にあると認識した場合は、眼球が右方向を向いていると判断し、黒目が標準位置にある場合に比べ、視線方向が右寄りであるとすることができる。
あるいは、人の視線方向は、顔の向きは考慮せず、眼球の向きから判断してもよい。
(2)物標の危険度Dを算出する上で基礎となる危険度は、危険度D1〜D5から選択される1〜4個であってもよい。例えば、危険度D1のみを算出し、それをそのまま危険度Dとしてもよい。また、例えば、危険度D2、D3を算出し、それらを乗算して危険度Dを算出してもよい。また、例えば、危険度D4のみを算出し、それをそのまま危険度Dとしてもよい。また、例えば、危険度D5のみを算出し、それをそのまま危険度Dとしてもよい。
また、危険度D1〜D5に加えて、あるいは、危険度D1〜D5の一部に代えて、他の種類の危険度Dnを算出し、前記ステップ4において危険度Dを算出するとき、その危険度Dnも乗算することができる。
他の種類の危険度Dnとしては、例えば、物標の移動方向に関する危険度が挙げられる。例えば、物標の移動方向が自車両101又は自車両101の進路に近づく方向である場合は危険度Dnを大きくし、物標の移動方向が自車両101又は自車両101の進路から遠ざかる方向である場合は危険度Dnを小さくし、物標が停止している場合は危険度Dnを中間の値とすることができる。
また、物標の移動方向が自車両101又は自車両101の進路に近づく方向である場合、物標の移動速度が大きいほど、危険度Dnを一層大きくすることができる。また、また、物標の移動方向が自車両101又は自車両101の進路から遠ざかる方向である場合、物標の移動速度が大きいほど、危険度Dnを一層小さくすることができる。
なお、ここでいう物標の移動方向は、地球を基準とする移動方向であってもよいし、自車両101を基準とする相対的な移動方向であってもよい。
また、他の種類の危険度Dnとしては、例えば、物標の種類(例えば、車両、歩行者、
自転車等)に関する危険度が挙げられる。車両である物標の種類はさらに、大型車両、小型車量、二輪車等に区分してもよい。この場合、例えば、物標の種類ごとに、危険度の値を割り当てることができる。物標の種類と危険度との関係は、例えば、物標の重量が大きい種類であるほど、危険度が高い関係であってもよいし、物標の速度が速い種類であるほど、危険度が高い関係であってもよいし、物標が小さく視認し難い種類であるほど、危険度が高い関係であってもよい。なお、物標の種類は、カメラ群で撮影した画像に対し周知の画像認識処理を実行することで判断できる。
(3)前記ステップ4において危険度Dを算出するとき、乗算以外の方法で危険度Dを算出してもよい。例えば、危険度D1〜D5を加算して危険度Dを算出してもよい。また、乗算、加算以外の関数に危険度D1〜D5を入力し、危険度Dを算出してもよい。
(4)前記ステップ5において危険パターンに該当すると判断した場合、直ちに衝突回避処理を実行するようにしてもよい。また、前記ステップ7において危険パターンに該当すると判断した場合、直ちに衝突回避処理を実行するようにしてもよい。
(5)危険度D1〜D5は、それらに関連するパラメータ(人の視線方向、物標のy座標、物標のx座標、物標の速度、人の年齢)が変化するにつれて、連続的(線形、非線形)に変化してもよいし、非連続的に変化してもよい。
(6)物標を検出する手段は、カメラ、ミリ波センサ以外のものであってもよい。例えば、超音波センサ、三次元レーザレーダ、ステレオカメラ等を用いることができる。
(7)車両用制御装置1は、危険度Dの大きさに応じて、実行する衝突回避処理の種類を変えてもよい。例えば、危険度Dが比較的小さい場合は、衝突回避処理として警報を出力する処理を実行し、危険度Dがそれより大きい場合は、自車両101を減速又は停止する処理等を実行することができる。
また、車両用制御装置1は、危険度Dの大きさに応じて、実行する衝突回避処理の強さを変えてもよい。例えば、危険度Dが比較的小さい場合は、衝突回避処理として自車両101の加速を抑制する処理を実行し、危険度Dがそれより大きい場合は、自車両101を減速又は停止する処理を実行することができる。
(8)自車両101において、カメラ群及びミリ波センサ群を設置する位置は上述した位置には限定されず、適宜選択できる。また、カメラ及びミリ波センサは、自車両101の四方全てに備えていなくてもよい。
(9)車両用制御装置1は、自車両101に固定されたものであってもよいし、自車両101から取り外し、携帯可能なものであってもよい。携帯可能な車両用制御装置1は、例えば、携帯端末(例えばスマートフォン、ノートパソコン、タブレット端末等)に、上述する処理を実行するためのプログラム(アプリケーション)をインストールすることで実現できる。
(10)自車両101は、ドライバが運転する車両であってもよいし、自動運転車両であってもよいし、ドライバによる運転と自動運転とを切り替え可能な車両であってもよい。
(11)前記(1)〜(10)から選択された構成の全部又は一部を組み合わせてもよい。
1…車両用制御装置、3…情報取得部、5…演算部、7…衝突回避処理実行部、8…記憶部、9…前方カメラ、11…後方カメラ、13…左方カメラ、15…右方カメラ、17…前方ミリ波センサ、19…後方ミリ波センサ、21…左方ミリ波センサ、23…右方ミリ波センサ、25…GPS、27…第1の通信ユニット、29…第2の通信ユニット、31…ブレーキユニット、33…操舵ユニット、35…前照灯ユニット、37…クラクションユニット、39…アクセルユニット、101…自車両、103…ルーフ、201…クラウドコンピュータ、203…他車両、205…顔、207…視点、209…カメラ、211…ミリ波センサ、213…通信ユニット、215…GPS、217…制御ユニット

Claims (3)

  1. 車両(101)の周囲に存在する、少なくとも一部が人である物標を検出する物標検出ユニット(3)と、
    前記人の視線方向を推定する視線方向推定ユニット(5)と、
    前記物標から前記車両に向う方向(A1)に対する、前記視線方向(A2)の角度(θ)に応じて、前記車両と前記物標との衝突を回避するための衝突回避処理を実行する衝突回避処理実行ユニット(7)と、
    を備えることを特徴とする車両用制御装置(1)。
  2. 前記物標検出ユニットは前記物標を含む画像を取得可能な画像取得ユニット(3)を備え、
    前記視線方向推定ユニットは、前記画像における前記人の顔の向きに基づき前記視線方向を推定することを特徴とする請求項1に記載の車両用制御装置。
  3. 前記衝突回避処理は、前記車両の減速、前記車両の操舵、前記車両の加速抑制、及び前記車両からの警報出力から成る群から選ばれる1種以上であることを特徴とする請求項1又は2に記載の車両用制御装置。
JP2018135118A 2018-07-18 2018-07-18 車両用制御装置 Pending JP2018200701A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018135118A JP2018200701A (ja) 2018-07-18 2018-07-18 車両用制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018135118A JP2018200701A (ja) 2018-07-18 2018-07-18 車両用制御装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014128309A Division JP2016009251A (ja) 2014-06-23 2014-06-23 車両用制御装置

Publications (1)

Publication Number Publication Date
JP2018200701A true JP2018200701A (ja) 2018-12-20

Family

ID=64668245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018135118A Pending JP2018200701A (ja) 2018-07-18 2018-07-18 車両用制御装置

Country Status (1)

Country Link
JP (1) JP2018200701A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020116994A (ja) * 2019-01-21 2020-08-06 本田技研工業株式会社 車両制御装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342883A (ja) * 2001-05-21 2002-11-29 Yasushi Fujimoto 危険運転抑制装置
JP2012221353A (ja) * 2011-04-12 2012-11-12 Denso Corp 運転支援システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342883A (ja) * 2001-05-21 2002-11-29 Yasushi Fujimoto 危険運転抑制装置
JP2012221353A (ja) * 2011-04-12 2012-11-12 Denso Corp 運転支援システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020116994A (ja) * 2019-01-21 2020-08-06 本田技研工業株式会社 車両制御装置
JP7045339B2 (ja) 2019-01-21 2022-03-31 本田技研工業株式会社 車両制御装置

Similar Documents

Publication Publication Date Title
JP2016009251A (ja) 車両用制御装置
US9880554B2 (en) Misrecognition determination device
JP6838479B2 (ja) 運転支援装置、及び運転支援プログラム
JP6372228B2 (ja) 衝突予想時間算出装置
TWI653170B (zh) 駕駛提示方法與系統
JP6512164B2 (ja) 物体検出装置、物体検出方法
WO2013030906A1 (ja) 運転支援装置及び運転支援方法
US20170080929A1 (en) Movement-assisting device
US11287879B2 (en) Display control device, display control method, and program for display based on travel conditions
JPWO2019038903A1 (ja) 周囲車両表示方法及び周囲車両表示装置
US11548443B2 (en) Display system, display method, and program for indicating a peripheral situation of a vehicle
KR101511858B1 (ko) 보행자 또는 이륜차를 인지하는 운전보조시스템 및 그 제어방법
KR20110067359A (ko) 차량 충돌 방지 장치 및 방법
CN109720343B (zh) 车辆控制设备
JP6970547B2 (ja) 車両制御装置及び車両制御方法
WO2019039275A1 (ja) 車両制御装置
KR20150051551A (ko) 풍속 측정 기반의 제동장치 및 그 제어방법
JP6193177B2 (ja) 動作支援システム及び物体認識装置
US20240112580A1 (en) Traffic safety support system and storage medium
JP2018200701A (ja) 車両用制御装置
CN109823344B (zh) 驾驶提示方法与系统
JP2018116637A (ja) 車両制御装置
JP2012103849A (ja) 情報提供装置
JP2021022026A (ja) 画像認識装置および画像認識方法
JP6992285B2 (ja) 運転支援装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180723

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190612

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191217