JP6722400B2 - 車両の運転支援装置 - Google Patents

車両の運転支援装置 Download PDF

Info

Publication number
JP6722400B2
JP6722400B2 JP2016123691A JP2016123691A JP6722400B2 JP 6722400 B2 JP6722400 B2 JP 6722400B2 JP 2016123691 A JP2016123691 A JP 2016123691A JP 2016123691 A JP2016123691 A JP 2016123691A JP 6722400 B2 JP6722400 B2 JP 6722400B2
Authority
JP
Japan
Prior art keywords
pedestrian
vehicle
mobile terminal
hand
looking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016123691A
Other languages
English (en)
Other versions
JP2017010560A (ja
Inventor
浩幸 宮山
浩幸 宮山
小野 勝一
勝一 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Co Ltd
Original Assignee
Suzuki Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Co Ltd filed Critical Suzuki Motor Co Ltd
Publication of JP2017010560A publication Critical patent/JP2017010560A/ja
Application granted granted Critical
Publication of JP6722400B2 publication Critical patent/JP6722400B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Regulating Braking Force (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、
車両に搭載した車載カメラにより車両前方に存在する歩行者や自転車搭乗者を検出する検出部を備えた車両の運転支援装置に関する。
従来、上記の車両の運転支援装置として、特許文献1に開示されている技術があった。この技術では、車両の進行路の立体物(車、歩行者、自転車など)を検出部の車載カメラにより撮影して検出し、検出後に車両との衝突の可能性を判定し、ドライバーに注意を喚起、警報し、最終的に車両との接触を避けるために自動ブレーキを作動させていた。
特開2008−126957号公報
近年、歩行者のなかには、携帯電話やスマートフォン等の携帯端末を見ながら歩いている歩行者がいる。また、自転車搭乗者のなかにも、携帯端末を見ながら片手で自転車を運転している自転車搭乗者がいる。これらの歩行者等は携帯端末の操作に夢中になって注意力が散漫になり、自動車の接近に気付かず交通課題の一つとなっている。
しかしながら、上記従来の技術では、携帯端末を見ながら移動している歩行者や自転車搭乗者と、携帯端末を見ずに移動している歩行者や自転車搭乗者とを区別せず、車両との接触の可能性がどちらも同じの通常の歩行者や自転車搭乗者として、これらに車両が接触しないように車両を制御していた。そのために、上記従来の技術によれば、携帯端末を見ながら移動している歩行者や自転車搭乗者と車両とが接触する可能性があった。
本発明の目的は、携帯端末を操作中の歩行者や自転車搭乗者と車両との接触を回避することができる車両の運転支援装置を提供する点にある。
本発明は、車両に搭載した車載カメラにより車両前方に存在する歩行者や自転車搭乗者を検出する検出部を備えた車両の運転支援装置において、
前記歩行者や自転車搭乗者に対して、頭と手の位置に注目した携帯端末の操作姿勢に基づく画像処理によって、胴と頭の角度、胴と手の角度を求め、前記各角度の差が所定値以下の場合、前記携帯端末を操作中と判定し、ドライバーにブレーキ警報を出すとともに自動ブレーキを作動させることを特徴とする。(請求項1)
上記の構成により、前記歩行者や自転車搭乗者に対して、頭と手の位置に注目した携帯端末の操作姿勢に基づく画像処理によって、歩行者や自転車搭乗者が携帯端末を操作中か否かを判定する。
そして、例えば、携帯端末を操作中の歩行者や自転車搭乗者に車両が接触して車両の運転に障害が発生すると判定する場合、ドライバーにブレーキ警報を出すとともに自動ブレーキを作動させる。
これにより、携帯端末を操作中の歩行者や自転車搭乗者と車両の接触を回避することができる。
また、前記歩行者や自転車搭乗者に対して、頭と手の位置に注目した携帯端末の操作姿勢に基づく画像処理によって、歩行者や自転車搭乗者が携帯端末を操作中か否かを判定するから、判定の正確性を向上させることができる。(請求項1)
本発明において、
前記ブレーキ警報は、前記歩行者や自転車搭乗者について、前記携帯端末を操作している場合と操作していない場合との2種類にすることを特徴とすると、次の作用を奏することができる。(請求項2)
携帯端末を操作していない通常の歩行者や自転車搭乗者と車両の接触を回避することができる。(請求項2)
本発明において、
前記画像処理は学習機能を備えたパターンマッチングとすることを特徴とすると、次の作用を奏することができる。(請求項3)
このような学習機能を備えているので、本装置の性能を向上させることができる。(請求項3)
本発明において、
前記車載カメラはステレオカメラであり、画像から特徴量を算出して、前記歩行者や自転車搭乗者が前記携帯端末を操作中か否かを判定することを特徴とすると、次の作用を奏することができる。(請求項4)
距離画像から歩行者や自転車搭乗者の手と頭の3次元位置を求めることができ、車両に接触する可能性が有る歩行者を簡単に判定でき、判定漏れの恐れがない。また、例えばHog特徴量は、輝度勾配を求めるヒストグラムを正規化するため、照明などの明るさの変化に強いので、車両に接触する可能性が有る歩行者をどのような場面でも検出しやすいという利点がある。(請求項4)
本発明によれば、
携帯端末を操作中の歩行者や自転車搭乗者歩行者と車両との接触を回避することができる車両の運転支援装置を提供することができた。
車両の運転支援装置のシステム構成図 車両の運転支援装置の全体フローチャート 判定フローチャート (a)は、携帯端末を見ずに歩いている通常の歩行者を前方から見た模式図、(b)は、携帯端末を見ながら歩いている歩行者(携帯端末を操作中の歩行者、以下、同じ)を横方向から見た模式図、(c)は、携帯端末を見ながら歩いている歩行者を前方から見た模式図 携帯端末を見ながら自転車を運転している自転車搭乗者(携帯端末を操作中の自転車搭乗者、以下、同じ)を横方向から見た模式図 携帯端末を見ながら歩く歩行者の特徴を示す図であり、(a)は、車両に対して横向き(あるいは斜め向き)の歩行者の模式図、(b)は、車両に対して真後ろ向き、真正面向きの歩行者の模式図 (a)〜(d)は、携帯端末を見ている歩行者の姿勢を示す模式図、(e)は、携帯端末を見ていない歩行者の姿勢を示す模式図 携帯端末を操作している歩行者の胴体に対する頭や手の角度を算出する手段を示す図 (a)は、携帯端末を見ている歩行者が存在する場合のブレーキ警報・自動ブレーキを作動させるタイミングを示す図、(b)は、携帯端末を見ていない歩行者が存在する場合のブレーキ警報・自動ブレーキを作動させるタイミングを示す図 接触する前の車両と歩行者の位置関係を示す模式図 第2の実施形態の車両の運転支援装置の全体フローチャート 第2の実施形態の判定フローチャート
以下、本発明を実施するための形態を図面に基づいて説明する。
図1に、車両の運転支援装置9のシステム構成図を示してある。この運転支援装置9は、車両前方Frの歩行者5(図7,図10等参照)を車載カメラ11により撮影して検出する歩行者検出部1(検出部に相当)と、
歩行者5に対して、頭5Aと手5Bの位置に注目した携帯端末50の操作姿勢に基づく画像処理によって、歩行者5が携帯端末50(図4(b),図4(c)参照)を操作中か否かを判定する歩行者判定部2と、
車両制御部3とを備えている。携帯端末50は、携帯電話やスマートフォン等の総称である。
車両制御部3は、警報手段31と自動ブレーキ手段32を備えている。そして、車両100の運転に障害が発生すると歩行者判定部2が判定する場合、すなわち、歩行者5が車両100(図10参照)に接触する可能性があり、かつ、歩行者5が携帯端末50を見ながら移動している状態にある(携帯端末50を操作中にある)と歩行者判定部2の接触可能性判定手段22が判定すると、ドライバーに対するブレーキ警報が出るとともに自動ブレーキが作動するように車両制御部3が車両100を制御する。
前記ブレーキ警報は、歩行者5について、携帯端末50を操作している場合と操作していない場合との2種類であり、車両制御部3は、歩行者5が車両100に接触する可能性があり、かつ、歩行者5が携帯端末50を見ながら移動している状態にないと歩行者判定部2が判定した場合にも、ドライバーに対するブレーキ警報が出るとともに自動ブレーキが作動するように車両100を制御する。
車両制御部3は、歩行者5が携帯端末50を見ながら移動している状態にある場合、携帯端末50を見ながら移動している状態にない場合よりも早いタイミングでブレーキ警報が出るとともに自動ブレーキが作動するように車両100を制御する。
図2に示すように、ステップ1(ステップS1)において、検出した歩行者5が自車進行路外に存在するかどうかを判定する。自車進行路外に存在する場合は、歩行者5との距離と自車速から求まるTTC(歩行者5に対する接触予測時間)により車両制御する。
次のステップ2において、自車進行路外に存在する歩行者が、携帯端末50を見ている接触可能性有り歩行者5か、それとも通常歩行者5かをt秒間判定する(詳細は、図3のフローチャート(歩行者判定部2のフローチャート)参照)。
最後のステップ3において、判定された接触可能性有り歩行者5と通常歩行者5に対して車両制御を行う。
前述のように、ブレーキ警報を出すタイミング、自動ブレーキを作動させるタイミングは、携帯端末50を見ながら移動している状態にある接触可能性有り歩行者5と、携帯端末50を見ながら移動している状態にない通常歩行者5とで異なり、図9(a),図9(b)に示す通りである。図9(a),図9(b)については後で詳しく説明する。
[ステップ2の詳細(その1)]
歩行者判定部2の判定には学習段階と実用段階がある。学習段階では、図4(a)〜図4(c),図7(a)〜図7(e)に示すように、携帯端末50を見ている歩行者5の様々な向きの画像D1,D2,D3,D4,………(図8(a)参照)を収集する。図7(e)は、携帯端末50を見ていない歩行者5の姿勢を示す模式図である。
図4(a)は、携帯端末50を見ずに歩いている通常の歩行者5を前方から見た模式図、図4(b)は、携帯端末50を見ながら歩いている歩行者5を横方向から見た模式図、図4(c)は、携帯端末50を見ながら歩いている歩行者5を前方から見た模式図である。
そして、歩行者判定部2の特徴量算出手段21(図1参照)が、各画像に対してHog(Histograms of Oriented Gradients)特徴量Xを求めるとともに、図8(a)に示すように、歩行者5の頭5Aと胴5Cの角度(y1)と、手5Bと胴5Cの角度(y2)とを求めた学習データベースを構築する。
図8(b)の符号A1,A2は、Hog特徴量Xから角度に変換する(nx1)行列であり、n個の学習データセット{(yi,xi)|i=1…n}から学習型パターン認識方法を用いて決定する。
例としてはニューラルネットワーク、AdaBoost、サポートベクターマシーンなどの学習型パターン認識方法である。 実用段階では、画像から入力されたHog特徴量Xに対して、学習段階で算出した変換行列A1,A2を用いて、歩行者5の胴5Cと頭5Aの角度y1、歩行者5の胴5Cと手5Bの角度y2が求められる。
y2とy1の差(y2−y1)の絶対値が17度以下であれば、携帯端末50を見ている歩行者5と判定する。すなわち、人間工学の下記非特許文献により携帯電話を使用している頭と手の角度は、最大7度であり、計測分解能5度であるため頭と手が反対方向に誤計測されるとワースト10度(=5度×2)の誤差が生じるので、10度+7度=17度としている。
[非特許文献]
フラットパネルディスプレイの人間工学シンポジウム2014(2014年3月7日(金)成蹊大学4号館ホール開催)にて成蹊大学 窪田悟教授が発表した「ディスプレイの人間中心設計3Dと4Kについて」の講演資料のスライド24ページ
更に、画像から手領域を求め、その領域から直線状の物体を検出(エッジ画像を求めて直線近似する)できれば携帯端末50を持っている可能性が高いと判定する。
前記画像処理は学習機能を備えたパターンマッチングである。このような学習機能を車両の運転支援装置9が備えているので、車両の運転支援装置9の性能を向上させることができる。
[ステップ2の詳細(その2)]
次に、前記ステップ2の詳細を示している図3について説明する。
(ステップ201〜ステップ204)
ステップ201の歩行者5に対し、ステップ202において、歩行者5のエッジを抽出し、ステップ203において、歩行者5の頭5Aの向きと両手5Bの向きを算出する。そして、ステップ204において、歩行者5の車両100(自車)に対する向きを推定する。
(ステップ205)
ステップ205において、歩行者5が車両100に対して横向き、斜め向きか否か判定する。
(ステップ206)
歩行者5が車両100に対して横向き、斜め向きであると、ステップ206において、歩行者5の頭5Aと手5Bの成す角度[θ]を算出する。[θ]=|y2−y1|である。
(ステップ207)
ステップ207において、0≦[θ]≦17を判定する。
(ステップ208)
0≦[θ]≦17であると、ステップ208において、歩行者5の手5Bから直線のエッジが出ているか否か判定する。0≦[θ]≦17でないと、ステップ212において、歩行者5は携帯端末50を見ていないと判定する。
(ステップ209)
ステップ208において、歩行者5の手5Bから直線のエッジが出ていないと判定すると、ステップ209において、歩行者5が携帯端末50を見ている可能性は中程度と判定する。
(ステップ211)
ステップ208において、歩行者5の手5Bから直線のエッジが出ていると判定すると、ステップ211において、歩行者5が携帯端末50を見ている可能性が大と判定する。
(ステップ210)
ステップ205において、歩行者5が車両100に対して横向き、斜め向きでない(正面向き、後向きである)と判定すると、ステップ210において、片方の手5Bの向きが固定、又は、両手5Bの向きが固定か否かを判定する。片方の手5Bの向きが固定、又は、両手5Bの向きが固定であると、前記ステップ208に進む。片方の手5Bの向きが固定でなく、両手5Bの向きも固定でないと、ステップ212に進む。
[検出対象を歩行者5だけでなく自転車搭乗者5に拡張した場合]
本発明においては、検出対象を歩行者5だけでなく自転車搭乗者5にも拡張することができる。この場合には、図5に示すように、携帯端末50を見ながら自転車60を運転する自転車搭乗者5の学習用画像を収集する。フローチャート、処理方法は歩行者5の場合と同様である。この場合には、歩行者検出部1には歩行者5と自転車搭乗者5を分ける手段も必要となる。
例えば、前記T=5.0sにしたとき、図9(a)のt、tは下記の表1と表2のようになる。表1と表2の相対速度は、車両100と歩行者5の自車の進行方向の相対速度である。
表1は、通常歩行者の警報を出すタイミング:TTC(s)(図9(b)のt)、表2は、接触可能性有り歩行者判定時間(図9(a),図9(b)のt)を示す。
Figure 0006722400
Figure 0006722400
表2の判定時間tを用いて、携帯端末50を見ている接触可能性有り歩行者5か、携帯端末50を見ていない通常歩行者5かを判定する。歩行者5との距離が遠ければ遠いほど(速度が早ければ早いほど)認識精度が落ちるため、近いほど値は小さい。
表1は、車両100の警報を出すタイミングである。相対速度が−8.33(m/s)からなのは、図2のフローチャートより、歩行者5との距離が10m以上としているので、−8.33(m/s)以上であると警報を出す距離が10m以下になるからである。
表1のラップ率ごとの結果は、歩行者5が横移動した時(車両100の進行方向の速度が0km/h(図10のVha)とする)のt秒後、歩行者5と車両100がどう重なるかを示しており、ラップ率が大きいほど、車両100と歩行者5の横位置が近く、衝突する可能性が高いので早めに警報を出している(歩行者5が横方向に直進、車両100が進行方向に直進したときの結果)。図10のhは歩行者5と車両100との間の距離である。
表1と表2のラップ率………歩行者5のTTC後の位置における歩行者5と車両100とが重なる割合(歩行者全体で100%)とする。
表1と表2の相対速度………車両100の進行方向への車両100の速度(Vca)と歩行者速度(Vha)の差とする。
表1と表2の相対速度が−30.566(m/s)以下の速度が無いのは、相対速度−30.566(m/s)以下で通常は一般道を走行することはないためである。
次に、表1の警報を出すタイミングの証明をする。
(相対速度−13.89m/s、ラップ率10%のときのTTC 1.37(s)の証明)(表1の★1マーク)
(相対速度−13.89m/s、ラップ率20%のときのTTC1.47(s)の証明)(表1の★2マーク)
表1より、Vha=0(m/s),Vhb=1.388(m/s),Vca=13.89(m/s),Vcb=0(m/s),1=1.475(m)とし、乾燥したアスファルト(μ=0.8)停止距離は以下のように求めることができる。(この場合は、減速度減速度0.8G一定と仮定し、警報を制御しているコントローラからブレーキを制御しているESPコントローラへの通信遅延は0.3(s)とする。)
制動距離(m)=(初速度の2乗)/(2×路面摩擦係数×重力加速度)=13.89/(2×0.8×9.8)=12.30(m)
空走距離(m)= 反応時間(s)×制動前の車速(m/s) =0.3×13.89=4.17(m)
停止距離(m)=12.30+4.17=16.47(m)
停止距離の1m手前で止まるように警報を出すので、
(16.47+1)/13.89 =1.26(s)
歩行者5との相対速度が−13.89(m/s)のときは、TTCが1.26(s)のときに警報を出す。これは、ラップ0%のときに警報を出すタイミングであり、ラップ率10%の場合は、車両100の左端(自車幅(1=1.475(m))から0.1475(m)で歩行者5と衝突する。歩行者5は、車両100の左端から10%のところまで、0.106(s)(0.1475(m)÷1.388(m/s)で歩行するので、更に0.11(s)手前で警報を出す必要がある。
1.26+0.11= 1.37(s)
次に、ラップ率20%の場合は、車両100の左端から0.295(m)のところで歩行者と衝突し、ラップ率20%のとき、ラップ率20%のところまで歩行者5は0.21(s)で歩行するので、0.21(s)手前で警報を出す必要がある。
1.26+0.21=1.47(s)
表1のラップ率30%以上の値は、停止したときに歩行者5との距離を1m以上保つために、上記の式と同じく算出され、ラップ率が大きくなるたびに手前で警報がでるようになっている。また、表2の相対速度−13.89(m/s),ラップ率10(%)のときの判定時間1.5(s)は、歩行者5と相対速度を考慮して決めた。表は歩行者とのTTC5.0(s)から判定し、歩行者5との距離が遠いため、多く保つように1.5(s)にした。
本発明によれば、携帯端末50を操作している歩行者5や自転車搭乗者5と車両100の接触を回避することができる。また、前記歩行者5や自転車搭乗者5に対して、頭5Aと手5Bの位置に注目した携帯端末50の操作姿勢に基づく画像処理によって、歩行者5や自転車搭乗者5が携帯端末50を操作中か否かを判定するから、判定の正確性を向上させることができる。
[第2の実施形態]
第2の実施形態では、前記歩行者検出部1は、車両前方Frの歩行者5(図7,図10等参照)をステレオカメラにより撮影して検出する。そして、図11に示すように、ステップ301(ステップS301)において、検出した歩行者5が自車進行路外に存在するかどうかを歩行者判定部2(図1参照)が判定する。歩行者5が自車進行路外に存在する場合は、車両制御部3(図1参照)が、車両100と歩行者5の距離と自車速から求まるTTC(歩行者5に対する接触予測時間)により車両を制御する。
次のステップ302において、自車進行路外に存在する歩行者が、携帯端末50を見ている接触可能性有り歩行者5か、それとも通常歩行者5かを歩行者判定部2がt秒間判定する(詳細は、図12のフローチャート(歩行者判定部2のフローチャート)参照)。
最後のステップ303において、車両制御部3が、判定された接触可能性有り歩行者5と通常歩行者5に対して車両制御を行う。
ブレーキ警報を出すタイミング、自動ブレーキを作動させるタイミングは、携帯端末50を見ながら移動している状態にある接触可能性有り歩行者5と、携帯端末50を見ながら移動している状態にない通常歩行者5とで異なる。前記タイミングは、第1の実施形態において説明した図9(a),図9(b)に示す通りである。
[ステップ302の詳細]
図12は前記ステップ302の詳細を示している。この図12に示すように、前記歩行者判定部2は次のように判定を実行する。
(ステップ401〜ステップ403)
ステップ401の歩行者5に対し、ステップ402において、歩行者5の向きを算出し、ステップ403においてHog特徴量(Hog特徴量は、画像中に存在する物体の形状を表現可能な特徴量であり、画像の各画素(ピクセル)の輝度情報から求められ、画像中の局所領域(セル)における輝度勾配の方向及び大きさを基にして得られるヒストグラム化された特徴量)を算出する。
(ステップ404)
ステップ404において、歩行者5が車両100(自車)に対して真後ろ又は真正面を向いているか否かを判定する。
(ステップ408)〜(ステップ410)
歩行者5が車両100に対して横向き又は斜め向きであると、ステップ408において距離画像を作成し、ステップ409において、Hog特徴量から歩行者5の「手5B、頭5A」位置を算出する。そして、ステップ410において、手5Bが歩行者5の進行方向に向いているか否かを判定する。手5Bが歩行者5の進行方向に向いていないとステップ402に戻る。
(ステップ411)
手5Bが歩行者5の進行方向に向いていると、ステップ411において、歩行者5の胴5Cと頭5Aのなす角度y1と、歩行者5の胴5Cと手5Bのなす角度y2とを求める。
(ステップ412)
そして、ステップ412において、0≦|y1−y2|≦17を判定する。
(ステップ208)
0≦|y1−y2|≦17であると、ステップ407において、歩行者5は携帯端末50を見ている歩行者5であると判定する。その理由は、第1の実施形態で説明した通りである。0≦|y1−y2|≦17でないとステップ402に戻る。
(ステップ405)
ステップ404において、歩行者5が車両100に対して正面向き又は後向きであると判定すると、ステップ405において、Hog特徴量から歩行者5の「手5B、頭5A」位置を算出する。そして、ステップ406において、片方の手5Bの向きが固定であるか、又は、両手5Bの向きが固定であるか否かを判定する。片方の手5Bの向きが固定であるか、又は、両手5Bの向きが固定であると、ステップ407において歩行者5は携帯端末50を見ている歩行者5であると判定する。両手5Bの向きが固定でないとステップ402に戻る。
上記のように、歩行者判定部2は、ステレオカメラから距離画像を作成し、ステレオカメラ画像からHog特徴量を算出し、距離画像の手5Bと頭5Aの高さ情報を用いてHog特徴量の輝度勾配が変化したところから手5Bと頭5Aの位置を求める。Hog特徴量は、輝度勾配を求めるヒストグラムを正規化するため、照明などの明るさの変化に強く、エッジ検出より手5Bと頭5Aの位置を検出しやすいという利点がある。
上記の構成によれば、車両100の前を歩行している接触可能性有り歩行者5と通常歩行者5を分けることができ、携帯端末50を見ながら歩行していて車両100に気付いていない接触可能性有り歩行者5を優先的に見つけだすことができる。これは、ステレオカメラから距離画像が作成され、3次元位置を求めることができるため、手5Bと頭5Aの位置を見て角度を求め、手5Bが歩行者5の進行方向に向いていると携帯端末50に夢中になり車両100に気付いていない歩行者5と検出できるからである。
また、第1の実施形態で説明した学習データベースに当てはまらない接触可能性有り歩行者5を、接触可能性有り歩行者5として判定しないといった判定ミスを回避することができる。
そして、本第2の実施形態の発明では、地面から探索しHog特徴量の輝度勾配が大きく変化したところから手5Bと頭5Aの位置を求め、距離画像から手5Bと頭5Aの3次元位置を求めるので、接触可能性有り歩行者5を簡単に判定でき、判定漏れの恐れがない。
本第2の実施形態の発明においても、検出対象を歩行者5だけでなく自転車搭乗者5にも拡張することができる。
1 検出部(歩行者検出部)
5 歩行者、自転車搭乗者
5A 頭
5B 手
11 車載カメラ
50 携帯端末(携帯電話、スマートフォン等)
100 車両
Fr 車両前方

Claims (4)

  1. 車両に搭載した車載カメラにより車両前方に存在する歩行者や自転車搭乗者を検出する検出部を備えた車両の運転支援装置において、
    前記歩行者や自転車搭乗者に対して、頭と手の位置に注目した携帯端末の操作姿勢に基づく画像処理によって、胴と頭の角度、胴と手の角度を求め、前記各角度の差が所定値以下の場合、前記携帯端末を操作中と判定し、ドライバーにブレーキ警報を出すとともに自動ブレーキを作動させることを特徴とする車両の運転支援装置。
  2. 前記ブレーキ警報は、前記歩行者や自転車搭乗者について、前記携帯端末を操作している場合と操作していない場合との2種類にすることを特徴とする請求項1記載の車両の運転支援装置。
  3. 前記画像処理は学習機能を備えたパターンマッチングとすることを特徴とする請求項1又は2記載の車両の運転支援装置。
  4. 前記車載カメラはステレオカメラであり、画像から特徴量を算出して、前記歩行者や自転車搭乗者が前記携帯端末を操作中か否かを判定することを特徴とする請求項1記載の車両の運転支援装置。
JP2016123691A 2015-06-24 2016-06-22 車両の運転支援装置 Active JP6722400B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015126399 2015-06-24
JP2015126399 2015-06-24

Publications (2)

Publication Number Publication Date
JP2017010560A JP2017010560A (ja) 2017-01-12
JP6722400B2 true JP6722400B2 (ja) 2020-07-15

Family

ID=57763827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016123691A Active JP6722400B2 (ja) 2015-06-24 2016-06-22 車両の運転支援装置

Country Status (1)

Country Link
JP (1) JP6722400B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017216000A1 (de) 2017-09-11 2019-03-14 Conti Temic Microelectronic Gmbh Gestensteuerung zur Kommunikation mit einem autonomen Fahrzeug auf Basis einer einfachen 2D Kamera
CN108725440B (zh) 2018-04-20 2020-11-27 深圳市商汤科技有限公司 前向碰撞控制方法和装置、电子设备、程序和介质
CN109017675A (zh) * 2018-08-06 2018-12-18 佛山市苔藓云链科技有限公司 一种智能车辆及车辆智能起动方法
JP2020160518A (ja) * 2019-03-25 2020-10-01 新明工業株式会社 不良予知システム
JP7275001B2 (ja) 2019-10-18 2023-05-17 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
CN110853338A (zh) * 2019-11-08 2020-02-28 上海博泰悦臻电子设备制造有限公司 基于车载终端的提醒行人方法及系统、存储介质及车载终端
WO2021234937A1 (ja) * 2020-05-22 2021-11-25 三菱電機株式会社 警報制御装置及び警報制御方法
WO2022064592A1 (ja) * 2020-09-24 2022-03-31 日本電気株式会社 運転状態判定装置、方法、及びコンピュータ可読媒体
CN117698667A (zh) * 2024-01-04 2024-03-15 广州三雅摩托车有限公司 一种摩托车用安全刹车系统及方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006151114A (ja) * 2004-11-26 2006-06-15 Fujitsu Ten Ltd 運転支援装置
JP2006185046A (ja) * 2004-12-27 2006-07-13 Canon Inc 計算方法及び計算装置
JP2009140023A (ja) * 2007-12-03 2009-06-25 Mazda Motor Corp 車両用障害物検出装置

Also Published As

Publication number Publication date
JP2017010560A (ja) 2017-01-12

Similar Documents

Publication Publication Date Title
JP6722400B2 (ja) 車両の運転支援装置
US10102751B2 (en) Inclination detection in two-wheelers
EP3366540B1 (en) Information processing apparatus and non-transitory computer-readable recording medium
US8655579B2 (en) Driving assistance device
EP3188156B1 (en) Object recognition device and vehicle control system
JP6665929B2 (ja) 駐車支援方法および装置
JP4319928B2 (ja) 車両状態検知システムおよび車両状態検知方法
JP2013225295A5 (ja)
JP2009009209A (ja) 画像認識装置および画像認識処理方法
JP2010019589A (ja) 車間距離検出装置、ドライブレコーダ装置
KR20060021922A (ko) 두 개의 카메라를 이용한 장애물 감지 기술 및 장치
JP2016009251A (ja) 車両用制御装置
JP2012088217A (ja) 運転支援制御装置
JP4913101B2 (ja) 車両用道路形状検出装置
JP2013161202A (ja) 車両周辺監視装置
US20200180510A1 (en) Parking Assistance Method and Parking Assistance Device
JP2016197018A (ja) 衝突回避支援装置
CN115440069B (zh) 信息处理服务器、信息处理服务器的处理方法、非易失性存储介质
JP4768499B2 (ja) 車載周辺他車検出装置
JP2007188349A (ja) 後方車両解析装置及び衝突予測装置
JP6812701B2 (ja) 画像処理装置、移動体機器制御システム、画像処理方法、及びプログラム
CN114746923B (zh) 信号机识别方法及信号机识别装置
JP2014178836A (ja) 車両の外部環境認識装置
JP2018116637A (ja) 車両制御装置
JP2012118682A (ja) 運転支援制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200604

R151 Written notification of patent or utility model registration

Ref document number: 6722400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151