JP2017010560A - Vehicle driving support device - Google Patents
Vehicle driving support device Download PDFInfo
- Publication number
- JP2017010560A JP2017010560A JP2016123691A JP2016123691A JP2017010560A JP 2017010560 A JP2017010560 A JP 2017010560A JP 2016123691 A JP2016123691 A JP 2016123691A JP 2016123691 A JP2016123691 A JP 2016123691A JP 2017010560 A JP2017010560 A JP 2017010560A
- Authority
- JP
- Japan
- Prior art keywords
- pedestrian
- vehicle
- portable terminal
- support device
- driving support
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Regulating Braking Force (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、
車両に搭載した車載カメラにより車両前方に存在する歩行者や自転車搭乗者を検出する検出部を備えた車両の運転支援装置に関する。
The present invention
The present invention relates to a driving support apparatus for a vehicle provided with a detection unit that detects a pedestrian or a bicycle occupant existing in front of the vehicle by an in-vehicle camera mounted on the vehicle.
従来、上記の車両の運転支援装置として、特許文献1に開示されている技術があった。この技術では、車両の進行路の立体物(車、歩行者、自転車など)を検出部の車載カメラにより撮影して検出し、検出後に車両との衝突の可能性を判定し、ドライバーに注意を喚起、警報し、最終的に車両との接触を避けるために自動ブレーキを作動させていた。
Conventionally, there has been a technology disclosed in
近年、歩行者のなかには、携帯電話やスマートフォン等の携帯端末を見ながら歩いている歩行者がいる。また、自転車搭乗者のなかにも、携帯端末を見ながら片手で自転車を運転している自転車搭乗者がいる。これらの歩行者等は携帯端末の操作に夢中になって注意力が散漫になり、自動車の接近に気付かず交通課題の一つとなっている。
しかしながら、上記従来の技術では、携帯端末を見ながら移動している歩行者や自転車搭乗者と、携帯端末を見ずに移動している歩行者や自転車搭乗者とを区別せず、車両との接触の可能性がどちらも同じの通常の歩行者や自転車搭乗者として、これらに車両が接触しないように車両を制御していた。そのために、上記従来の技術によれば、携帯端末を見ながら移動している歩行者や自転車搭乗者と車両とが接触する可能性があった。
本発明の目的は、携帯端末を操作中の歩行者や自転車搭乗者と車両との接触を回避することができる車両の運転支援装置を提供する点にある。
In recent years, among pedestrians, there are pedestrians walking while looking at mobile terminals such as mobile phones and smartphones. In addition, among bicycle riders, there are bicycle riders who drive a bicycle with one hand while looking at a mobile terminal. These pedestrians are obsessed with the operation of mobile terminals, distracting attention, and are not aware of the approach of cars, which is one of the traffic issues.
However, the conventional technology described above does not distinguish between a pedestrian or a bicycle occupant who is moving while looking at a mobile terminal, and a pedestrian or a bicycle occupant who is moving without looking at a mobile terminal. As a normal pedestrian or bicycle occupant who has the same possibility of contact, the vehicle is controlled so that the vehicle does not contact them. Therefore, according to the above-described conventional technology, there is a possibility that a pedestrian or a bicycle occupant who is moving while looking at the mobile terminal is in contact with the vehicle.
An object of the present invention is to provide a vehicle driving support device capable of avoiding contact between a vehicle and a pedestrian or bicycle rider who is operating a portable terminal.
本発明の特徴は、
車両に搭載した車載カメラにより車両前方に存在する歩行者や自転車搭乗者を検出する検出部を備えた車両の運転支援装置において、
前記歩行者や自転車搭乗者に対して、頭と手の位置に注目した携帯端末の操作姿勢に基づく画像処理によって前記携帯端末を操作中か否かを判定し、前記車両の運転に障害が発生すると判定する場合にドライバーにブレーキ警報を出すとともに自動ブレーキを作動させる点にある。(請求項1)
The feature of the present invention is that
In a vehicle driving support device including a detection unit that detects a pedestrian or a bicycle occupant existing in front of a vehicle by an in-vehicle camera mounted on the vehicle,
For the pedestrian or bicycle occupant, it is determined whether or not the mobile terminal is being operated by image processing based on the operation attitude of the mobile terminal that focuses on the position of the head and hand, and an obstacle occurs in driving the vehicle. In this case, the brake warning is given to the driver and the automatic brake is activated. (Claim 1)
上記の構成により、前記歩行者や自転車搭乗者に対して、頭と手の位置に注目した携帯端末の操作姿勢に基づく画像処理によって、歩行者や自転車搭乗者が携帯端末を操作中か否かを判定する。
そして、例えば、携帯端末を操作中の歩行者や自転車搭乗者に車両が接触して車両の運転に障害が発生すると判定する場合、ドライバーにブレーキ警報を出すとともに自動ブレーキを作動させる。
これにより、携帯端末を操作中の歩行者や自転車搭乗者と車両の接触を回避することができる。
また、前記歩行者や自転車搭乗者に対して、頭と手の位置に注目した携帯端末の操作姿勢に基づく画像処理によって、歩行者や自転車搭乗者が携帯端末を操作中か否かを判定するから、判定の正確性を向上させることができる。(請求項1)
Whether the pedestrian or the bicycle occupant is operating the mobile terminal by the image processing based on the operation posture of the mobile terminal focusing on the position of the head and the hand with respect to the pedestrian or the bicycle occupant with the above configuration. Determine.
For example, when it is determined that the vehicle is in contact with a pedestrian or bicycle rider who is operating the mobile terminal and the vehicle is operating, a brake warning is issued to the driver and an automatic brake is activated.
Thereby, the contact of the vehicle with the pedestrian or bicycle rider who is operating the portable terminal can be avoided.
In addition, it is determined whether or not the pedestrian or the bicycle occupant is operating the mobile terminal by image processing based on the operation posture of the mobile terminal focusing on the position of the head and the hand. Therefore, the accuracy of determination can be improved. (Claim 1)
本発明において、
前記ブレーキ警報は、前記歩行者や自転車搭乗者について、前記携帯端末を操作している場合と操作していない場合との2種類にすることを特徴とすると、次の作用を奏することができる。(請求項2)
In the present invention,
If the brake alarm is made to be two types of the pedestrian and the bicycle occupant, that is, the case where the portable terminal is operated and the case where the portable terminal is not operated, the following effects can be obtained. (Claim 2)
携帯端末を操作していない通常の歩行者や自転車搭乗者と車両の接触を回避することができる。(請求項2) Contact between a normal pedestrian or bicycle rider who is not operating the portable terminal and the vehicle can be avoided. (Claim 2)
本発明において、
前記画像処理は学習機能を備えたパターンマッチングとすることを特徴とすると、次の作用を奏することができる。(請求項3)
In the present invention,
If the image processing is characterized by pattern matching having a learning function, the following effects can be obtained. (Claim 3)
このような学習機能を備えているので、本装置の性能を向上させることができる。(請求項3) Since such a learning function is provided, the performance of the present apparatus can be improved. (Claim 3)
本発明において、
前記車載カメラはステレオカメラであり、画像から特徴量を算出して、前記歩行者や自転車搭乗者が前記携帯端末を操作中か否かを判定することを特徴とすると、次の作用を奏することができる。(請求項4)
In the present invention,
The in-vehicle camera is a stereo camera, and calculates the feature amount from the image to determine whether the pedestrian or the bicycle occupant is operating the portable terminal, and has the following effects. Can do. (Claim 4)
距離画像から歩行者や自転車搭乗者の手と頭の3次元位置を求めることができ、車両に接触する可能性が有る歩行者を簡単に判定でき、判定漏れの恐れがない。また、例えばHog特徴量は、輝度勾配を求めるヒストグラムを正規化するため、照明などの明るさの変化に強いので、車両に接触する可能性が有る歩行者をどのような場面でも検出しやすいという利点がある。(請求項4) The three-dimensional position of the hand and head of the pedestrian or bicycle rider can be obtained from the distance image, and a pedestrian who may come into contact with the vehicle can be easily determined, and there is no fear of omission of determination. In addition, for example, the Hog feature value normalizes a histogram for obtaining a luminance gradient, and thus is resistant to changes in brightness such as lighting. Therefore, it is easy to detect a pedestrian who may be in contact with a vehicle in any scene. There are advantages. (Claim 4)
本発明によれば、
携帯端末を操作中の歩行者や自転車搭乗者歩行者と車両との接触を回避することができる車両の運転支援装置を提供することができた。
According to the present invention,
It has been possible to provide a driving support device for a vehicle that can avoid contact between a pedestrian operating a portable terminal or a bicycle pedestrian and a vehicle.
以下、本発明を実施するための形態を図面に基づいて説明する。
図1に、車両の運転支援装置9のシステム構成図を示してある。この運転支援装置9は、車両前方Frの歩行者5(図7,図10等参照)を車載カメラ11により撮影して検出する歩行者検出部1(検出部に相当)と、
歩行者5に対して、頭5Aと手5Bの位置に注目した携帯端末50の操作姿勢に基づく画像処理によって、歩行者5が携帯端末50(図4(b),図4(c)参照)を操作中か否かを判定する歩行者判定部2と、
車両制御部3とを備えている。携帯端末50は、携帯電話やスマートフォン等の総称である。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
FIG. 1 shows a system configuration diagram of a vehicle
With respect to the
A vehicle control unit 3. The
車両制御部3は、警報手段31と自動ブレーキ手段32を備えている。そして、車両100の運転に障害が発生すると歩行者判定部2が判定する場合、すなわち、歩行者5が車両100(図10参照)に接触する可能性があり、かつ、歩行者5が携帯端末50を見ながら移動している状態にある(携帯端末50を操作中にある)と歩行者判定部2の接触可能性判定手段22が判定すると、ドライバーに対するブレーキ警報が出るとともに自動ブレーキが作動するように車両制御部3が車両100を制御する。
The vehicle control unit 3 includes an
前記ブレーキ警報は、歩行者5について、携帯端末50を操作している場合と操作していない場合との2種類であり、車両制御部3は、歩行者5が車両100に接触する可能性があり、かつ、歩行者5が携帯端末50を見ながら移動している状態にないと歩行者判定部2が判定した場合にも、ドライバーに対するブレーキ警報が出るとともに自動ブレーキが作動するように車両100を制御する。
There are two types of brake alarms for the
車両制御部3は、歩行者5が携帯端末50を見ながら移動している状態にある場合、携帯端末50を見ながら移動している状態にない場合よりも早いタイミングでブレーキ警報が出るとともに自動ブレーキが作動するように車両100を制御する。
When the
図2に示すように、ステップ1(ステップS1)において、検出した歩行者5が自車進行路外に存在するかどうかを判定する。自車進行路外に存在する場合は、歩行者5との距離と自車速から求まるTTC(歩行者5に対する接触予測時間)により車両制御する。
As shown in FIG. 2, in step 1 (step S1), it is determined whether or not the detected
次のステップ2において、自車進行路外に存在する歩行者が、携帯端末50を見ている接触可能性有り歩行者5か、それとも通常歩行者5かをt秒間判定する(詳細は、図3のフローチャート(歩行者判定部2のフローチャート)参照)。
In the
最後のステップ3において、判定された接触可能性有り歩行者5と通常歩行者5に対して車両制御を行う。
In the final step 3, vehicle control is performed on the
前述のように、ブレーキ警報を出すタイミング、自動ブレーキを作動させるタイミングは、携帯端末50を見ながら移動している状態にある接触可能性有り歩行者5と、携帯端末50を見ながら移動している状態にない通常歩行者5とで異なり、図9(a),図9(b)に示す通りである。図9(a),図9(b)については後で詳しく説明する。
As described above, the timing for issuing the brake alarm and the timing for operating the automatic brake are determined by moving while looking at the
[ステップ2の詳細(その1)]
歩行者判定部2の判定には学習段階と実用段階がある。学習段階では、図4(a)〜図4(c),図7(a)〜図7(e)に示すように、携帯端末50を見ている歩行者5の様々な向きの画像D1,D2,D3,D4,………(図8(a)参照)を収集する。図7(e)は、携帯端末50を見ていない歩行者5の姿勢を示す模式図である。
[Details of Step 2 (Part 1)]
The determination by the
図4(a)は、携帯端末50を見ずに歩いている通常の歩行者5を前方から見た模式図、図4(b)は、携帯端末50を見ながら歩いている歩行者5を横方向から見た模式図、図4(c)は、携帯端末50を見ながら歩いている歩行者5を前方から見た模式図である。
4A is a schematic view of a
そして、歩行者判定部2の特徴量算出手段21(図1参照)が、各画像に対してHog(Histograms of Oriented Gradients)特徴量Xを求めるとともに、図8(a)に示すように、歩行者5の頭5Aと胴5Cの角度(y1)と、手5Bと胴5Cの角度(y2)とを求めた学習データベースを構築する。
Then, the feature amount calculation means 21 (see FIG. 1) of the
図8(b)の符号A1,A2は、Hog特徴量Xから角度に変換する(nx1)行列であり、n個の学習データセット{(yi,xi)|i=1…n}から学習型パターン認識方法を用いて決定する。
例としてはニューラルネットワーク、AdaBoost、サポートベクターマシーンなどの学習型パターン認識方法である。 実用段階では、画像から入力されたHog特徴量Xに対して、学習段階で算出した変換行列A1,A2を用いて、歩行者5の胴5Cと頭5Aの角度y1、歩行者5の胴5Cと手5Bの角度y2が求められる。
y2とy1の差(y2−y1)の絶対値が17度以下であれば、携帯端末50を見ている歩行者5と判定する。すなわち、人間工学の下記非特許文献により携帯電話を使用している頭と手の角度は、最大7度であり、計測分解能5度であるため頭と手が反対方向に誤計測されるとワースト10度(=5度×2)の誤差が生じるので、10度+7度=17度としている。
[非特許文献]
フラットパネルディスプレイの人間工学シンポジウム2014(2014年3月7日(金)成蹊大学4号館ホール開催)にて成蹊大学 窪田悟教授が発表した「ディスプレイの人間中心設計3Dと4Kについて」の講演資料のスライド24ページ
Codes A1 and A2 in FIG. 8B are (nx1) matrices for converting Hog feature amounts X into angles, and learning types from n learning data sets {(yi, xi) | i = 1... N}. It is determined using a pattern recognition method.
Examples are learning pattern recognition methods such as neural networks, AdaBoost, and support vector machines. In the practical stage, the Hog feature amount X input from the image is subjected to the transformation matrix A1 and A2 calculated in the learning stage, and the angle y1 between the
If the absolute value of the difference between y2 and y1 (y2−y1) is 17 degrees or less, it is determined that the
[Non-patent literature]
Prof. Satoru Kubota, Professor, Seikei University at the Ergonomics Symposium 2014 (Friday, March 7th, 2014) held at the flat panel display ergonomics symposium Slide 24 pages
更に、画像から手領域を求め、その領域から直線状の物体を検出(エッジ画像を求めて直線近似する)できれば携帯端末50を持っている可能性が高いと判定する。
Further, a hand region is obtained from the image, and if a linear object can be detected from the region (an edge image is obtained and linear approximation is performed), it is determined that the
前記画像処理は学習機能を備えたパターンマッチングである。このような学習機能を車両の運転支援装置9が備えているので、車両の運転支援装置9の性能を向上させることができる。
The image processing is pattern matching having a learning function. Since the vehicle driving
[ステップ2の詳細(その2)]
次に、前記ステップ2の詳細を示している図3について説明する。
(ステップ201〜ステップ204)
ステップ201の歩行者5に対し、ステップ202において、歩行者5のエッジを抽出し、ステップ203において、歩行者5の頭5Aの向きと両手5Bの向きを算出する。そして、ステップ204において、歩行者5の車両100(自車)に対する向きを推定する。
[Details of Step 2 (Part 2)]
Next, FIG. 3 showing details of
(Step 201 to Step 204)
For the
(ステップ205)
ステップ205において、歩行者5が車両100に対して横向き、斜め向きか否か判定する。
(Step 205)
In step 205, it is determined whether or not the
(ステップ206)
歩行者5が車両100に対して横向き、斜め向きであると、ステップ206において、歩行者5の頭5Aと手5Bの成す角度[θ]を算出する。[θ]=|y2−y1|である。
(Step 206)
If the
(ステップ207)
ステップ207において、0≦[θ]≦17を判定する。
(Step 207)
In
(ステップ208)
0≦[θ]≦17であると、ステップ208において、歩行者5の手5Bから直線のエッジが出ているか否か判定する。0≦[θ]≦17でないと、ステップ212において、歩行者5は携帯端末50を見ていないと判定する。
(Step 208)
If 0 ≦ [θ] ≦ 17, it is determined in step 208 whether or not a straight edge comes out of the
(ステップ209)
ステップ208において、歩行者5の手5Bから直線のエッジが出ていないと判定すると、ステップ209において、歩行者5が携帯端末50を見ている可能性は中程度と判定する。
(Step 209)
If it is determined in step 208 that there is no straight edge from the
(ステップ211)
ステップ208において、歩行者5の手5Bから直線のエッジが出ていると判定すると、ステップ211において、歩行者5が携帯端末50を見ている可能性が大と判定する。
(Step 211)
If it is determined in step 208 that a straight edge has come out of the
(ステップ210)
ステップ205において、歩行者5が車両100に対して横向き、斜め向きでない(正面向き、後向きである)と判定すると、ステップ210において、片方の手5Bの向きが固定、又は、両手5Bの向きが固定か否かを判定する。片方の手5Bの向きが固定、又は、両手5Bの向きが固定であると、前記ステップ208に進む。片方の手5Bの向きが固定でなく、両手5Bの向きも固定でないと、ステップ212に進む。
(Step 210)
If it is determined in step 205 that the
[検出対象を歩行者5だけでなく自転車搭乗者5に拡張した場合]
本発明においては、検出対象を歩行者5だけでなく自転車搭乗者5にも拡張することができる。この場合には、図5に示すように、携帯端末50を見ながら自転車60を運転する自転車搭乗者5の学習用画像を収集する。フローチャート、処理方法は歩行者5の場合と同様である。この場合には、歩行者検出部1には歩行者5と自転車搭乗者5を分ける手段も必要となる。
[When the detection target is extended not only to the
In the present invention, the detection target can be extended not only to the
例えば、前記Th=5.0sにしたとき、図9(a)のtA、tは下記の表1と表2のようになる。表1と表2の相対速度は、車両100と歩行者5の自車の進行方向の相対速度である。
表1は、通常歩行者の警報を出すタイミング:TTC(s)(図9(b)のtB)、表2は、接触可能性有り歩行者判定時間(図9(a),図9(b)のt)を示す。
Table 1 shows a normal pedestrian warning timing: TTC (s) (t B in FIG. 9B), and Table 2 shows a pedestrian determination time with a possibility of contact (FIGS. 9A and 9B). b) t) is shown.
表2の判定時間tを用いて、携帯端末50を見ている接触可能性有り歩行者5か、携帯端末50を見ていない通常歩行者5かを判定する。歩行者5との距離が遠ければ遠いほど(速度が早ければ早いほど)認識精度が落ちるため、近いほど値は小さい。
Using the determination time t in Table 2, it is determined whether the
表1は、車両100の警報を出すタイミングである。相対速度が−8.33(m/s)からなのは、図2のフローチャートより、歩行者5との距離が10m以上としているので、−8.33(m/s)以上であると警報を出す距離が10m以下になるからである。
Table 1 shows the timing for issuing an alarm for the
表1のラップ率ごとの結果は、歩行者5が横移動した時(車両100の進行方向の速度が0km/h(図10のVha)とする)のtA秒後、歩行者5と車両100がどう重なるかを示しており、ラップ率が大きいほど、車両100と歩行者5の横位置が近く、衝突する可能性が高いので早めに警報を出している(歩行者5が横方向に直進、車両100が進行方向に直進したときの結果)。図10のhは歩行者5と車両100との間の距離である。
The results for each lap rate in Table 1 indicate that when
表1と表2のラップ率………歩行者5のTTC後の位置における歩行者5と車両100とが重なる割合(歩行者全体で100%)とする。
表1と表2の相対速度………車両100の進行方向への車両100の速度(Vca)と歩行者速度(Vha)の差とする。
表1と表2の相対速度が−30.566(m/s)以下の速度が無いのは、相対速度−30.566(m/s)以下で通常は一般道を走行することはないためである。
The lap ratios in Tables 1 and 2 are set to a ratio in which the
Relative speeds in Tables 1 and 2: A difference between the speed (V ca ) of the
The reason why the relative speeds in Table 1 and Table 2 are not less than −30.666 (m / s) is that the relative speed is less than −30.566 (m / s) and usually it does not travel on the general road. It is.
次に、表1の警報を出すタイミングの証明をする。
(相対速度−13.89m/s、ラップ率10%のときのTTC 1.37(s)の証明)(表1の★1マーク)
(相対速度−13.89m/s、ラップ率20%のときのTTC1.47(s)の証明)(表1の★2マーク)
Next, the timing for issuing the alarm shown in Table 1 is proved.
(Proof of TTC 1.37 (s) when the relative speed is 13.89 m / s and the lap rate is 10%) (* 1 mark in Table 1)
(Proof of TTC 1.47 (s) when the relative speed is 13.89 m / s and the lap rate is 20%) (* 2 mark in Table 1)
表1より、Vha=0(m/s),Vhb=1.388(m/s),Vca=13.89(m/s),Vcb=0(m/s),1h=1.475(m)とし、乾燥したアスファルト(μ=0.8)停止距離は以下のように求めることができる。(この場合は、減速度減速度0.8G一定と仮定し、警報を制御しているコントローラからブレーキを制御しているESPコントローラへの通信遅延は0.3(s)とする。) From Table 1, V ha = 0 (m / s), V hb = 1.388 (m / s), V ca = 1.89 (m / s), V cb = 0 (m / s), 1 h = 1.475 (m), and the dry asphalt (μ = 0.8) stop distance can be determined as follows. (In this case, it is assumed that the deceleration deceleration is constant 0.8G, and the communication delay from the controller that controls the alarm to the ESP controller that controls the brake is 0.3 (s).)
制動距離(m)=(初速度の2乗)/(2×路面摩擦係数×重力加速度)=13.892/(2×0.8×9.8)=12.30(m)
空走距離(m)= 反応時間(s)×制動前の車速(m/s) =0.3×13.89=4.17(m)
停止距離(m)=12.30+4.17=16.47(m)
停止距離の1m手前で止まるように警報を出すので、
(16.47+1)/13.89 =1.26(s)
歩行者5との相対速度が−13.89(m/s)のときは、TTCが1.26(s)のときに警報を出す。これは、ラップ0%のときに警報を出すタイミングであり、ラップ率10%の場合は、車両100の左端(自車幅(1h=1.475(m))から0.1475(m)で歩行者5と衝突する。歩行者5は、車両100の左端から10%のところまで、0.106(s)(0.1475(m)÷1.388(m/s)で歩行するので、更に0.11(s)手前で警報を出す必要がある。
1.26+0.11= 1.37(s)
Braking distance (m) = (square of initial velocity) / (2 × road friction coefficient × gravity acceleration) = 13.89 2 /(2×0.8×9.8)=12.30 (m)
Free running distance (m) = Reaction time (s) x Vehicle speed before braking (m / s) = 0.3 x 13.89 = 4.17 (m)
Stop distance (m) = 12.30 + 4.17 = 16.47 (m)
Since an alarm is issued so that it stops 1m before the stop distance,
(16.47 + 1) /13.89 = 1.26 (s)
When the relative speed with the
1.26 + 0.11 = 1.37 (s)
次に、ラップ率20%の場合は、車両100の左端から0.295(m)のところで歩行者と衝突し、ラップ率20%のとき、ラップ率20%のところまで歩行者5は0.21(s)で歩行するので、0.21(s)手前で警報を出す必要がある。
1.26+0.21=1.47(s)
Next, when the lap rate is 20%, the
1.26 + 0.21 = 1.47 (s)
表1のラップ率30%以上の値は、停止したときに歩行者5との距離を1m以上保つために、上記の式と同じく算出され、ラップ率が大きくなるたびに手前で警報がでるようになっている。また、表2の相対速度−13.89(m/s),ラップ率10(%)のときの判定時間1.5(s)は、歩行者5と相対速度を考慮して決めた。表は歩行者とのTTC5.0(s)から判定し、歩行者5との距離が遠いため、多く保つように1.5(s)にした。
The value of lap rate of 30% or more in Table 1 is calculated in the same way as the above formula in order to keep the distance from the
本発明によれば、携帯端末50を操作している歩行者5や自転車搭乗者5と車両100の接触を回避することができる。また、前記歩行者5や自転車搭乗者5に対して、頭5Aと手5Bの位置に注目した携帯端末50の操作姿勢に基づく画像処理によって、歩行者5や自転車搭乗者5が携帯端末50を操作中か否かを判定するから、判定の正確性を向上させることができる。
According to the present invention, it is possible to avoid contact between the
[第2の実施形態]
第2の実施形態では、前記歩行者検出部1は、車両前方Frの歩行者5(図7,図10等参照)をステレオカメラにより撮影して検出する。そして、図11に示すように、ステップ301(ステップS301)において、検出した歩行者5が自車進行路外に存在するかどうかを歩行者判定部2(図1参照)が判定する。歩行者5が自車進行路外に存在する場合は、車両制御部3(図1参照)が、車両100と歩行者5の距離と自車速から求まるTTC(歩行者5に対する接触予測時間)により車両を制御する。
[Second Embodiment]
In 2nd Embodiment, the said
次のステップ302において、自車進行路外に存在する歩行者が、携帯端末50を見ている接触可能性有り歩行者5か、それとも通常歩行者5かを歩行者判定部2がt秒間判定する(詳細は、図12のフローチャート(歩行者判定部2のフローチャート)参照)。
In the next step 302, the
最後のステップ303において、車両制御部3が、判定された接触可能性有り歩行者5と通常歩行者5に対して車両制御を行う。
In the final step 303, the vehicle control unit 3 performs vehicle control on the
ブレーキ警報を出すタイミング、自動ブレーキを作動させるタイミングは、携帯端末50を見ながら移動している状態にある接触可能性有り歩行者5と、携帯端末50を見ながら移動している状態にない通常歩行者5とで異なる。前記タイミングは、第1の実施形態において説明した図9(a),図9(b)に示す通りである。
The timing of issuing a brake alarm and the timing of operating the automatic brake are not in the state of moving while looking at the
[ステップ302の詳細]
図12は前記ステップ302の詳細を示している。この図12に示すように、前記歩行者判定部2は次のように判定を実行する。
(ステップ401〜ステップ403)
ステップ401の歩行者5に対し、ステップ402において、歩行者5の向きを算出し、ステップ403においてHog特徴量(Hog特徴量は、画像中に存在する物体の形状を表現可能な特徴量であり、画像の各画素(ピクセル)の輝度情報から求められ、画像中の局所領域(セル)における輝度勾配の方向及び大きさを基にして得られるヒストグラム化された特徴量)を算出する。
[Details of Step 302]
FIG. 12 shows details of step 302. As shown in FIG. 12, the
(Step 401 to Step 403)
For the
(ステップ404)
ステップ404において、歩行者5が車両100(自車)に対して真後ろ又は真正面を向いているか否かを判定する。
(Step 404)
In step 404, it is determined whether or not the
(ステップ408)〜(ステップ410)
歩行者5が車両100に対して横向き又は斜め向きであると、ステップ408において距離画像を作成し、ステップ409において、Hog特徴量から歩行者5の「手5B、頭5A」位置を算出する。そして、ステップ410において、手5Bが歩行者5の進行方向に向いているか否かを判定する。手5Bが歩行者5の進行方向に向いていないとステップ402に戻る。
(Step 408) to (Step 410)
If the
(ステップ411)
手5Bが歩行者5の進行方向に向いていると、ステップ411において、歩行者5の胴5Cと頭5Aのなす角度y1と、歩行者5の胴5Cと手5Bのなす角度y2とを求める。
(Step 411)
If the
(ステップ412)
そして、ステップ412において、0≦|y1−y2|≦17を判定する。
(Step 412)
In
(ステップ208)
0≦|y1−y2|≦17であると、ステップ407において、歩行者5は携帯端末50を見ている歩行者5であると判定する。その理由は、第1の実施形態で説明した通りである。0≦|y1−y2|≦17でないとステップ402に戻る。
(Step 208)
If 0 ≦ | y1−y2 | ≦ 17, it is determined in
(ステップ405)
ステップ404において、歩行者5が車両100に対して正面向き又は後向きであると判定すると、ステップ405において、Hog特徴量から歩行者5の「手5B、頭5A」位置を算出する。そして、ステップ406において、片方の手5Bの向きが固定であるか、又は、両手5Bの向きが固定であるか否かを判定する。片方の手5Bの向きが固定であるか、又は、両手5Bの向きが固定であると、ステップ407において歩行者5は携帯端末50を見ている歩行者5であると判定する。両手5Bの向きが固定でないとステップ402に戻る。
(Step 405)
If it is determined in step 404 that the
上記のように、歩行者判定部2は、ステレオカメラから距離画像を作成し、ステレオカメラ画像からHog特徴量を算出し、距離画像の手5Bと頭5Aの高さ情報を用いてHog特徴量の輝度勾配が変化したところから手5Bと頭5Aの位置を求める。Hog特徴量は、輝度勾配を求めるヒストグラムを正規化するため、照明などの明るさの変化に強く、エッジ検出より手5Bと頭5Aの位置を検出しやすいという利点がある。
As described above, the
上記の構成によれば、車両100の前を歩行している接触可能性有り歩行者5と通常歩行者5を分けることができ、携帯端末50を見ながら歩行していて車両100に気付いていない接触可能性有り歩行者5を優先的に見つけだすことができる。これは、ステレオカメラから距離画像が作成され、3次元位置を求めることができるため、手5Bと頭5Aの位置を見て角度を求め、手5Bが歩行者5の進行方向に向いていると携帯端末50に夢中になり車両100に気付いていない歩行者5と検出できるからである。
According to said structure, the
また、第1の実施形態で説明した学習データベースに当てはまらない接触可能性有り歩行者5を、接触可能性有り歩行者5として判定しないといった判定ミスを回避することができる。
そして、本第2の実施形態の発明では、地面から探索しHog特徴量の輝度勾配が大きく変化したところから手5Bと頭5Aの位置を求め、距離画像から手5Bと頭5Aの3次元位置を求めるので、接触可能性有り歩行者5を簡単に判定でき、判定漏れの恐れがない。
In addition, it is possible to avoid a determination error such that a
In the invention of the second embodiment, the position of the
本第2の実施形態の発明においても、検出対象を歩行者5だけでなく自転車搭乗者5にも拡張することができる。
In the invention of the second embodiment as well, the detection target can be extended not only to the
1 検出部(歩行者検出部)
5 歩行者、自転車搭乗者
5A 頭
5B 手
11 車載カメラ
50 携帯端末(携帯電話、スマートフォン等)
100 車両
Fr 車両前方
1 detector (pedestrian detector)
5 Pedestrians and
100 Vehicle Fr Vehicle front
Claims (4)
前記歩行者や自転車搭乗者に対して、頭と手の位置に注目した携帯端末の操作姿勢に基づく画像処理によって前記携帯端末を操作中か否かを判定し、前記車両の運転に障害が発生すると判定する場合にドライバーにブレーキ警報を出すとともに自動ブレーキを作動させることを特徴とする車両の運転支援装置。 In a vehicle driving support device including a detection unit that detects a pedestrian or a bicycle occupant existing in front of a vehicle by an in-vehicle camera mounted on the vehicle,
For the pedestrian or bicycle occupant, it is determined whether or not the mobile terminal is being operated by image processing based on the operation attitude of the mobile terminal that focuses on the position of the head and hand, and an obstacle occurs in driving the vehicle. A vehicle driving support device that issues a brake warning to the driver and activates an automatic brake when the determination is made.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015126399 | 2015-06-24 | ||
JP2015126399 | 2015-06-24 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017010560A true JP2017010560A (en) | 2017-01-12 |
JP6722400B2 JP6722400B2 (en) | 2020-07-15 |
Family
ID=57763827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016123691A Active JP6722400B2 (en) | 2015-06-24 | 2016-06-22 | Vehicle driving support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6722400B2 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109017675A (en) * | 2018-08-06 | 2018-12-18 | 佛山市苔藓云链科技有限公司 | A kind of intelligent vehicle and Vehicular intelligent starting method |
CN110853338A (en) * | 2019-11-08 | 2020-02-28 | 上海博泰悦臻电子设备制造有限公司 | Pedestrian reminding method and system based on vehicle-mounted terminal, storage medium and vehicle-mounted terminal |
JP2020160518A (en) * | 2019-03-25 | 2020-10-01 | 新明工業株式会社 | Failure prediction system |
JP2020533662A (en) * | 2017-09-11 | 2020-11-19 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | Gesture control with a simple 2D camera to communicate with autonomously driving vehicles |
JP2021504856A (en) * | 2018-04-20 | 2021-02-15 | 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. | Forward collision control methods and devices, electronics, programs and media |
JP2021068015A (en) * | 2019-10-18 | 2021-04-30 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
JPWO2021234937A1 (en) * | 2020-05-22 | 2021-11-25 | ||
WO2022064592A1 (en) * | 2020-09-24 | 2022-03-31 | 日本電気株式会社 | Driving state determination device, method, and computer-readable medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006151114A (en) * | 2004-11-26 | 2006-06-15 | Fujitsu Ten Ltd | Driving support device |
JP2006185046A (en) * | 2004-12-27 | 2006-07-13 | Canon Inc | Calculation method and calculation device |
JP2009140023A (en) * | 2007-12-03 | 2009-06-25 | Mazda Motor Corp | Vehicle obstacle detection unit |
-
2016
- 2016-06-22 JP JP2016123691A patent/JP6722400B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006151114A (en) * | 2004-11-26 | 2006-06-15 | Fujitsu Ten Ltd | Driving support device |
JP2006185046A (en) * | 2004-12-27 | 2006-07-13 | Canon Inc | Calculation method and calculation device |
JP2009140023A (en) * | 2007-12-03 | 2009-06-25 | Mazda Motor Corp | Vehicle obstacle detection unit |
Non-Patent Citations (2)
Title |
---|
新村 文郷 FUMITO SHINMURA: "車載カメラ画像からの「スマホ歩き」認識に基づく歩行者の不注意度推定 Pedestrian's Inattention Estimat", 電子情報通信学会技術研究報告 VOL.115 NO.98 IEICE TECHNICAL REPORT, JPN6020007083, 11 June 2015 (2015-06-11), JP, pages 83 - 88, ISSN: 0004221222 * |
皆本光 HIKARU MINAMOTO: "歩行者の不注意行動認識 - 歩きスマホ検出 -, Recognize Careless Behavior of Walker -Detect Texting Whi", 第6回視覚・聴覚支援システム(VHIS)研究会予稿集(2015), JPN6020007085, 24 March 2015 (2015-03-24), ISSN: 0004221223 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020533662A (en) * | 2017-09-11 | 2020-11-19 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH | Gesture control with a simple 2D camera to communicate with autonomously driving vehicles |
JP7280865B2 (en) | 2017-09-11 | 2023-05-24 | コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング | Gesture control employing a simple 2D camera to communicate with an autonomously driving vehicle |
US11557150B2 (en) | 2017-09-11 | 2023-01-17 | Conti Temic Microelectronic Gmbh | Gesture control for communication with an autonomous vehicle on the basis of a simple 2D camera |
JP2021504856A (en) * | 2018-04-20 | 2021-02-15 | 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. | Forward collision control methods and devices, electronics, programs and media |
US11643076B2 (en) | 2018-04-20 | 2023-05-09 | Shenzhen Sensetime Technology Co., Ltd. | Forward collision control method and apparatus, electronic device, program, and medium |
CN109017675A (en) * | 2018-08-06 | 2018-12-18 | 佛山市苔藓云链科技有限公司 | A kind of intelligent vehicle and Vehicular intelligent starting method |
JP2020160518A (en) * | 2019-03-25 | 2020-10-01 | 新明工業株式会社 | Failure prediction system |
JP2021068015A (en) * | 2019-10-18 | 2021-04-30 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
US11814041B2 (en) | 2019-10-18 | 2023-11-14 | Honda Motor Co., Ltd. | Vehicle control device, vehicle control method, and storage medium that performs risk calculation for traffic participant |
CN110853338A (en) * | 2019-11-08 | 2020-02-28 | 上海博泰悦臻电子设备制造有限公司 | Pedestrian reminding method and system based on vehicle-mounted terminal, storage medium and vehicle-mounted terminal |
JPWO2021234937A1 (en) * | 2020-05-22 | 2021-11-25 | ||
WO2021234937A1 (en) * | 2020-05-22 | 2021-11-25 | 三菱電機株式会社 | Alarm control device and alarm control method |
JP7357784B2 (en) | 2020-05-22 | 2023-10-06 | 三菱電機株式会社 | Alarm control device and alarm control method |
WO2022064592A1 (en) * | 2020-09-24 | 2022-03-31 | 日本電気株式会社 | Driving state determination device, method, and computer-readable medium |
JPWO2022064592A1 (en) * | 2020-09-24 | 2022-03-31 | ||
JP7420277B2 (en) | 2020-09-24 | 2024-01-23 | 日本電気株式会社 | Operating state determination device, method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6722400B2 (en) | 2020-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6722400B2 (en) | Vehicle driving support device | |
EP3366540B1 (en) | Information processing apparatus and non-transitory computer-readable recording medium | |
US20190149752A1 (en) | Image processing device, image processing method, and image processing system | |
US8655579B2 (en) | Driving assistance device | |
US20170270374A1 (en) | Pedestrian detection and motion prediction with rear-facing camera | |
JP2022016448A (en) | Recognizing assigned passenger for autonomous vehicle | |
KR102227316B1 (en) | Method and system for adjusting the orientation of a virtual camera when the vehicle is turning | |
WO2017057016A1 (en) | Measurement device and method, and program | |
JP2019119296A (en) | Vehicle control device, vehicle control method, program, and information acquisition device | |
JPWO2019038903A1 (en) | Surrounding vehicle display method and surrounding vehicle display device | |
JP5561396B1 (en) | Driving support system and driving support method | |
WO2019073920A1 (en) | Information processing device, moving device and method, and program | |
EP3299994A1 (en) | A method for advanced and low cost cross traffic alert, related processing system, cross traffic alert system and vehicle | |
JP2009009209A (en) | Image recognition device and image recognition processing method | |
KR101698781B1 (en) | Driver assistance apparatus and Vehicle including the same | |
JP4601505B2 (en) | Top-view image generation apparatus and top-view image display method | |
JP2005254861A (en) | Vehicle condition detection system and vehicle condition detection method | |
JP2019049774A (en) | Vehicle control device, vehicle control method, and program | |
JP2016009251A (en) | Control device for vehicle | |
JP2020065141A (en) | Vehicle overhead image generation system and method thereof | |
WO2021053763A1 (en) | Driving assistance device, driving assistance method, and program | |
JP6595647B2 (en) | Travel control device, vehicle, and travel control method | |
JP2014035561A (en) | Vehicle travel support device and vehicle travel support method | |
KR20150072942A (en) | Driver assistance apparatus and Vehicle including the same | |
KR101985496B1 (en) | Driving assistance apparatus and vehicle having the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190322 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200303 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200604 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6722400 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |