JP2017010560A - Vehicle driving support device - Google Patents

Vehicle driving support device Download PDF

Info

Publication number
JP2017010560A
JP2017010560A JP2016123691A JP2016123691A JP2017010560A JP 2017010560 A JP2017010560 A JP 2017010560A JP 2016123691 A JP2016123691 A JP 2016123691A JP 2016123691 A JP2016123691 A JP 2016123691A JP 2017010560 A JP2017010560 A JP 2017010560A
Authority
JP
Japan
Prior art keywords
pedestrian
vehicle
portable terminal
support device
driving support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016123691A
Other languages
Japanese (ja)
Other versions
JP6722400B2 (en
Inventor
浩幸 宮山
Hiroyuki Miyayama
浩幸 宮山
小野 勝一
Katsuichi Ono
勝一 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp filed Critical Suzuki Motor Corp
Publication of JP2017010560A publication Critical patent/JP2017010560A/en
Application granted granted Critical
Publication of JP6722400B2 publication Critical patent/JP6722400B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Regulating Braking Force (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle driving support device capable of avoiding contact between a pedestrian or a bicycle passenger who is operating a portable terminal and a vehicle.SOLUTION: A vehicle driving support device includes a detection part for detecting a pedestrian or a bicycle passenger existing in front of a vehicle with the use of an on-vehicle camera mounted on the vehicle. It is determined whether a portable terminal is being operated or not by image processing based on the operation posture of the portable terminal by noting the positions of a head and a hand with respect to the pedestrian or the bicycle passenger. When it is determined that a failure is to occur in the driving of the vehicle, brake alarm is issued to a driver and also automatic brake is actuated.SELECTED DRAWING: Figure 2

Description

本発明は、
車両に搭載した車載カメラにより車両前方に存在する歩行者や自転車搭乗者を検出する検出部を備えた車両の運転支援装置に関する。
The present invention
The present invention relates to a driving support apparatus for a vehicle provided with a detection unit that detects a pedestrian or a bicycle occupant existing in front of the vehicle by an in-vehicle camera mounted on the vehicle.

従来、上記の車両の運転支援装置として、特許文献1に開示されている技術があった。この技術では、車両の進行路の立体物(車、歩行者、自転車など)を検出部の車載カメラにより撮影して検出し、検出後に車両との衝突の可能性を判定し、ドライバーに注意を喚起、警報し、最終的に車両との接触を避けるために自動ブレーキを作動させていた。   Conventionally, there has been a technology disclosed in Patent Literature 1 as the above-described vehicle driving support device. In this technology, three-dimensional objects (cars, pedestrians, bicycles, etc.) on the traveling path of the vehicle are photographed and detected by the in-vehicle camera of the detection unit, and after the detection, the possibility of collision with the vehicle is determined and attention is paid to the driver. It used to alert, warn, and finally activate the automatic brake to avoid contact with the vehicle.

特開2008−126957号公報JP 2008-126957 A

近年、歩行者のなかには、携帯電話やスマートフォン等の携帯端末を見ながら歩いている歩行者がいる。また、自転車搭乗者のなかにも、携帯端末を見ながら片手で自転車を運転している自転車搭乗者がいる。これらの歩行者等は携帯端末の操作に夢中になって注意力が散漫になり、自動車の接近に気付かず交通課題の一つとなっている。
しかしながら、上記従来の技術では、携帯端末を見ながら移動している歩行者や自転車搭乗者と、携帯端末を見ずに移動している歩行者や自転車搭乗者とを区別せず、車両との接触の可能性がどちらも同じの通常の歩行者や自転車搭乗者として、これらに車両が接触しないように車両を制御していた。そのために、上記従来の技術によれば、携帯端末を見ながら移動している歩行者や自転車搭乗者と車両とが接触する可能性があった。
本発明の目的は、携帯端末を操作中の歩行者や自転車搭乗者と車両との接触を回避することができる車両の運転支援装置を提供する点にある。
In recent years, among pedestrians, there are pedestrians walking while looking at mobile terminals such as mobile phones and smartphones. In addition, among bicycle riders, there are bicycle riders who drive a bicycle with one hand while looking at a mobile terminal. These pedestrians are obsessed with the operation of mobile terminals, distracting attention, and are not aware of the approach of cars, which is one of the traffic issues.
However, the conventional technology described above does not distinguish between a pedestrian or a bicycle occupant who is moving while looking at a mobile terminal, and a pedestrian or a bicycle occupant who is moving without looking at a mobile terminal. As a normal pedestrian or bicycle occupant who has the same possibility of contact, the vehicle is controlled so that the vehicle does not contact them. Therefore, according to the above-described conventional technology, there is a possibility that a pedestrian or a bicycle occupant who is moving while looking at the mobile terminal is in contact with the vehicle.
An object of the present invention is to provide a vehicle driving support device capable of avoiding contact between a vehicle and a pedestrian or bicycle rider who is operating a portable terminal.

本発明の特徴は、
車両に搭載した車載カメラにより車両前方に存在する歩行者や自転車搭乗者を検出する検出部を備えた車両の運転支援装置において、
前記歩行者や自転車搭乗者に対して、頭と手の位置に注目した携帯端末の操作姿勢に基づく画像処理によって前記携帯端末を操作中か否かを判定し、前記車両の運転に障害が発生すると判定する場合にドライバーにブレーキ警報を出すとともに自動ブレーキを作動させる点にある。(請求項1)
The feature of the present invention is that
In a vehicle driving support device including a detection unit that detects a pedestrian or a bicycle occupant existing in front of a vehicle by an in-vehicle camera mounted on the vehicle,
For the pedestrian or bicycle occupant, it is determined whether or not the mobile terminal is being operated by image processing based on the operation attitude of the mobile terminal that focuses on the position of the head and hand, and an obstacle occurs in driving the vehicle. In this case, the brake warning is given to the driver and the automatic brake is activated. (Claim 1)

上記の構成により、前記歩行者や自転車搭乗者に対して、頭と手の位置に注目した携帯端末の操作姿勢に基づく画像処理によって、歩行者や自転車搭乗者が携帯端末を操作中か否かを判定する。
そして、例えば、携帯端末を操作中の歩行者や自転車搭乗者に車両が接触して車両の運転に障害が発生すると判定する場合、ドライバーにブレーキ警報を出すとともに自動ブレーキを作動させる。
これにより、携帯端末を操作中の歩行者や自転車搭乗者と車両の接触を回避することができる。
また、前記歩行者や自転車搭乗者に対して、頭と手の位置に注目した携帯端末の操作姿勢に基づく画像処理によって、歩行者や自転車搭乗者が携帯端末を操作中か否かを判定するから、判定の正確性を向上させることができる。(請求項1)
Whether the pedestrian or the bicycle occupant is operating the mobile terminal by the image processing based on the operation posture of the mobile terminal focusing on the position of the head and the hand with respect to the pedestrian or the bicycle occupant with the above configuration. Determine.
For example, when it is determined that the vehicle is in contact with a pedestrian or bicycle rider who is operating the mobile terminal and the vehicle is operating, a brake warning is issued to the driver and an automatic brake is activated.
Thereby, the contact of the vehicle with the pedestrian or bicycle rider who is operating the portable terminal can be avoided.
In addition, it is determined whether or not the pedestrian or the bicycle occupant is operating the mobile terminal by image processing based on the operation posture of the mobile terminal focusing on the position of the head and the hand. Therefore, the accuracy of determination can be improved. (Claim 1)

本発明において、
前記ブレーキ警報は、前記歩行者や自転車搭乗者について、前記携帯端末を操作している場合と操作していない場合との2種類にすることを特徴とすると、次の作用を奏することができる。(請求項2)
In the present invention,
If the brake alarm is made to be two types of the pedestrian and the bicycle occupant, that is, the case where the portable terminal is operated and the case where the portable terminal is not operated, the following effects can be obtained. (Claim 2)

携帯端末を操作していない通常の歩行者や自転車搭乗者と車両の接触を回避することができる。(請求項2)   Contact between a normal pedestrian or bicycle rider who is not operating the portable terminal and the vehicle can be avoided. (Claim 2)

本発明において、
前記画像処理は学習機能を備えたパターンマッチングとすることを特徴とすると、次の作用を奏することができる。(請求項3)
In the present invention,
If the image processing is characterized by pattern matching having a learning function, the following effects can be obtained. (Claim 3)

このような学習機能を備えているので、本装置の性能を向上させることができる。(請求項3)   Since such a learning function is provided, the performance of the present apparatus can be improved. (Claim 3)

本発明において、
前記車載カメラはステレオカメラであり、画像から特徴量を算出して、前記歩行者や自転車搭乗者が前記携帯端末を操作中か否かを判定することを特徴とすると、次の作用を奏することができる。(請求項4)
In the present invention,
The in-vehicle camera is a stereo camera, and calculates the feature amount from the image to determine whether the pedestrian or the bicycle occupant is operating the portable terminal, and has the following effects. Can do. (Claim 4)

距離画像から歩行者や自転車搭乗者の手と頭の3次元位置を求めることができ、車両に接触する可能性が有る歩行者を簡単に判定でき、判定漏れの恐れがない。また、例えばHog特徴量は、輝度勾配を求めるヒストグラムを正規化するため、照明などの明るさの変化に強いので、車両に接触する可能性が有る歩行者をどのような場面でも検出しやすいという利点がある。(請求項4)   The three-dimensional position of the hand and head of the pedestrian or bicycle rider can be obtained from the distance image, and a pedestrian who may come into contact with the vehicle can be easily determined, and there is no fear of omission of determination. In addition, for example, the Hog feature value normalizes a histogram for obtaining a luminance gradient, and thus is resistant to changes in brightness such as lighting. Therefore, it is easy to detect a pedestrian who may be in contact with a vehicle in any scene. There are advantages. (Claim 4)

本発明によれば、
携帯端末を操作中の歩行者や自転車搭乗者歩行者と車両との接触を回避することができる車両の運転支援装置を提供することができた。
According to the present invention,
It has been possible to provide a driving support device for a vehicle that can avoid contact between a pedestrian operating a portable terminal or a bicycle pedestrian and a vehicle.

車両の運転支援装置のシステム構成図System configuration diagram of vehicle driving support device 車両の運転支援装置の全体フローチャートOverall flowchart of vehicle driving support device 判定フローチャートJudgment flowchart (a)は、携帯端末を見ずに歩いている通常の歩行者を前方から見た模式図、(b)は、携帯端末を見ながら歩いている歩行者(携帯端末を操作中の歩行者、以下、同じ)を横方向から見た模式図、(c)は、携帯端末を見ながら歩いている歩行者を前方から見た模式図(A) is a schematic view of a normal pedestrian walking without looking at the mobile terminal, and (b) is a pedestrian walking while looking at the mobile terminal (a pedestrian operating the mobile terminal) , The same shall apply hereinafter) viewed from the side, (c) is a schematic view of a pedestrian walking from the front while looking at the mobile terminal. 携帯端末を見ながら自転車を運転している自転車搭乗者(携帯端末を操作中の自転車搭乗者、以下、同じ)を横方向から見た模式図Schematic view of a bicycle occupant driving a bicycle while looking at the mobile device (bicycle occupant operating the mobile device, the same applies hereinafter) seen from the side. 携帯端末を見ながら歩く歩行者の特徴を示す図であり、(a)は、車両に対して横向き(あるいは斜め向き)の歩行者の模式図、(b)は、車両に対して真後ろ向き、真正面向きの歩行者の模式図It is a figure which shows the characteristic of the pedestrian who walks while looking at a portable terminal, (a) is a schematic diagram of the pedestrian who is transversely (or diagonally) with respect to the vehicle, (b) is directly behind the vehicle, Schematic diagram of a pedestrian facing straight ahead (a)〜(d)は、携帯端末を見ている歩行者の姿勢を示す模式図、(e)は、携帯端末を見ていない歩行者の姿勢を示す模式図(A)-(d) is a schematic diagram which shows the attitude | position of the pedestrian who is looking at a portable terminal, (e) is a schematic diagram which shows the attitude | position of the pedestrian who does not look at a portable terminal 携帯端末を操作している歩行者の胴体に対する頭や手の角度を算出する手段を示す図The figure which shows the means to calculate the angle of the head and hand with respect to the trunk of the pedestrian who is operating the portable terminal (a)は、携帯端末を見ている歩行者が存在する場合のブレーキ警報・自動ブレーキを作動させるタイミングを示す図、(b)は、携帯端末を見ていない歩行者が存在する場合のブレーキ警報・自動ブレーキを作動させるタイミングを示す図(A) is a figure which shows the timing which act | operates a brake alarm and an automatic brake when the pedestrian who is looking at a portable terminal exists, (b) is the brake when the pedestrian who does not look at a portable terminal exists Diagram showing the timing to activate the alarm / automatic brake 接触する前の車両と歩行者の位置関係を示す模式図Schematic diagram showing the positional relationship between the vehicle and the pedestrian before contact 第2の実施形態の車両の運転支援装置の全体フローチャートOverall Flowchart of Vehicle Driving Support Device of Second Embodiment 第2の実施形態の判定フローチャートDetermination flowchart according to the second embodiment

以下、本発明を実施するための形態を図面に基づいて説明する。
図1に、車両の運転支援装置9のシステム構成図を示してある。この運転支援装置9は、車両前方Frの歩行者5(図7,図10等参照)を車載カメラ11により撮影して検出する歩行者検出部1(検出部に相当)と、
歩行者5に対して、頭5Aと手5Bの位置に注目した携帯端末50の操作姿勢に基づく画像処理によって、歩行者5が携帯端末50(図4(b),図4(c)参照)を操作中か否かを判定する歩行者判定部2と、
車両制御部3とを備えている。携帯端末50は、携帯電話やスマートフォン等の総称である。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
FIG. 1 shows a system configuration diagram of a vehicle driving support device 9. The driving support device 9 includes a pedestrian detection unit 1 (corresponding to a detection unit) that detects a pedestrian 5 (see FIG. 7, FIG. 10, etc.) in front of the vehicle by photographing with the in-vehicle camera 11,
With respect to the pedestrian 5, the pedestrian 5 can use the mobile terminal 50 (see FIGS. 4B and 4C) by image processing based on the operation posture of the mobile terminal 50 focusing on the positions of the head 5 </ b> A and the hand 5 </ b> B. A pedestrian determination unit 2 that determines whether or not the user is operating,
A vehicle control unit 3. The portable terminal 50 is a general term for a mobile phone, a smartphone, and the like.

車両制御部3は、警報手段31と自動ブレーキ手段32を備えている。そして、車両100の運転に障害が発生すると歩行者判定部2が判定する場合、すなわち、歩行者5が車両100(図10参照)に接触する可能性があり、かつ、歩行者5が携帯端末50を見ながら移動している状態にある(携帯端末50を操作中にある)と歩行者判定部2の接触可能性判定手段22が判定すると、ドライバーに対するブレーキ警報が出るとともに自動ブレーキが作動するように車両制御部3が車両100を制御する。   The vehicle control unit 3 includes an alarm unit 31 and an automatic brake unit 32. When the pedestrian determination unit 2 determines that a failure occurs in the driving of the vehicle 100, that is, the pedestrian 5 may contact the vehicle 100 (see FIG. 10), and the pedestrian 5 is a portable terminal. When the contact possibility determination means 22 of the pedestrian determination unit 2 determines that the vehicle is moving while looking at 50 (while operating the portable terminal 50), a brake warning is issued to the driver and an automatic brake is activated. As described above, the vehicle control unit 3 controls the vehicle 100.

前記ブレーキ警報は、歩行者5について、携帯端末50を操作している場合と操作していない場合との2種類であり、車両制御部3は、歩行者5が車両100に接触する可能性があり、かつ、歩行者5が携帯端末50を見ながら移動している状態にないと歩行者判定部2が判定した場合にも、ドライバーに対するブレーキ警報が出るとともに自動ブレーキが作動するように車両100を制御する。   There are two types of brake alarms for the pedestrian 5, the case where the portable terminal 50 is operated and the case where the portable terminal 50 is not operated, and the vehicle control unit 3 may cause the pedestrian 5 to contact the vehicle 100. Also, when the pedestrian determination unit 2 determines that the pedestrian 5 is not moving while looking at the portable terminal 50, the vehicle 100 is configured so that the brake warning is given to the driver and the automatic brake is activated. To control.

車両制御部3は、歩行者5が携帯端末50を見ながら移動している状態にある場合、携帯端末50を見ながら移動している状態にない場合よりも早いタイミングでブレーキ警報が出るとともに自動ブレーキが作動するように車両100を制御する。   When the pedestrian 5 is in a state of moving while looking at the mobile terminal 50, the vehicle control unit 3 automatically gives a brake warning at an earlier timing than when the pedestrian 5 is in a state of moving while looking at the mobile terminal 50. The vehicle 100 is controlled so that the brake is activated.

図2に示すように、ステップ1(ステップS1)において、検出した歩行者5が自車進行路外に存在するかどうかを判定する。自車進行路外に存在する場合は、歩行者5との距離と自車速から求まるTTC(歩行者5に対する接触予測時間)により車両制御する。   As shown in FIG. 2, in step 1 (step S1), it is determined whether or not the detected pedestrian 5 exists outside the own vehicle traveling path. If the vehicle exists outside the traveling path of the vehicle, the vehicle is controlled based on the TTC (predicted contact time for the pedestrian 5) obtained from the distance to the pedestrian 5 and the vehicle speed.

次のステップ2において、自車進行路外に存在する歩行者が、携帯端末50を見ている接触可能性有り歩行者5か、それとも通常歩行者5かをt秒間判定する(詳細は、図3のフローチャート(歩行者判定部2のフローチャート)参照)。   In the next step 2, it is determined for t seconds whether the pedestrian existing outside the own vehicle traveling path is the pedestrian 5 with the possibility of contact looking at the portable terminal 50 or the normal pedestrian 5 (for details, see FIG. 3 (refer to the flowchart of the pedestrian determination unit 2).

最後のステップ3において、判定された接触可能性有り歩行者5と通常歩行者5に対して車両制御を行う。   In the final step 3, vehicle control is performed on the determined pedestrian 5 with a possibility of contact and the normal pedestrian 5.

前述のように、ブレーキ警報を出すタイミング、自動ブレーキを作動させるタイミングは、携帯端末50を見ながら移動している状態にある接触可能性有り歩行者5と、携帯端末50を見ながら移動している状態にない通常歩行者5とで異なり、図9(a),図9(b)に示す通りである。図9(a),図9(b)については後で詳しく説明する。   As described above, the timing for issuing the brake alarm and the timing for operating the automatic brake are determined by moving while looking at the portable terminal 50 and the pedestrian 5 with a possibility of contact while moving while looking at the portable terminal 50. Unlike the normal pedestrian 5 who is not in the state of being, it is as shown in FIGS. 9 (a) and 9 (b). 9 (a) and 9 (b) will be described in detail later.

[ステップ2の詳細(その1)]
歩行者判定部2の判定には学習段階と実用段階がある。学習段階では、図4(a)〜図4(c),図7(a)〜図7(e)に示すように、携帯端末50を見ている歩行者5の様々な向きの画像D1,D2,D3,D4,………(図8(a)参照)を収集する。図7(e)は、携帯端末50を見ていない歩行者5の姿勢を示す模式図である。
[Details of Step 2 (Part 1)]
The determination by the pedestrian determination unit 2 includes a learning stage and a practical stage. In the learning stage, as shown in FIGS. 4 (a) to 4 (c) and FIGS. 7 (a) to 7 (e), the images D1 and D1 in various directions of the pedestrian 5 looking at the portable terminal 50 are shown. D2, D3, D4,... (See FIG. 8A) are collected. FIG. 7E is a schematic diagram showing the posture of the pedestrian 5 who is not looking at the mobile terminal 50.

図4(a)は、携帯端末50を見ずに歩いている通常の歩行者5を前方から見た模式図、図4(b)は、携帯端末50を見ながら歩いている歩行者5を横方向から見た模式図、図4(c)は、携帯端末50を見ながら歩いている歩行者5を前方から見た模式図である。   4A is a schematic view of a normal pedestrian 5 walking without looking at the portable terminal 50, and FIG. 4B is a schematic view of the pedestrian 5 walking while looking at the portable terminal 50. FIG. FIG. 4C is a schematic diagram viewed from the lateral direction, and is a schematic diagram of the pedestrian 5 walking from the front while looking at the mobile terminal 50.

そして、歩行者判定部2の特徴量算出手段21(図1参照)が、各画像に対してHog(Histograms of Oriented Gradients)特徴量Xを求めるとともに、図8(a)に示すように、歩行者5の頭5Aと胴5Cの角度(y1)と、手5Bと胴5Cの角度(y2)とを求めた学習データベースを構築する。   Then, the feature amount calculation means 21 (see FIG. 1) of the pedestrian determination unit 2 obtains a Hog (Histograms of Oriented Gradients) feature amount X for each image and, as shown in FIG. A learning database is constructed in which the angle (y1) between the head 5A and the torso 5C of the person 5 and the angle (y2) between the hand 5B and the torso 5C are constructed.

図8(b)の符号A1,A2は、Hog特徴量Xから角度に変換する(nx1)行列であり、n個の学習データセット{(yi,xi)|i=1…n}から学習型パターン認識方法を用いて決定する。
例としてはニューラルネットワーク、AdaBoost、サポートベクターマシーンなどの学習型パターン認識方法である。 実用段階では、画像から入力されたHog特徴量Xに対して、学習段階で算出した変換行列A1,A2を用いて、歩行者5の胴5Cと頭5Aの角度y1、歩行者5の胴5Cと手5Bの角度y2が求められる。
y2とy1の差(y2−y1)の絶対値が17度以下であれば、携帯端末50を見ている歩行者5と判定する。すなわち、人間工学の下記非特許文献により携帯電話を使用している頭と手の角度は、最大7度であり、計測分解能5度であるため頭と手が反対方向に誤計測されるとワースト10度(=5度×2)の誤差が生じるので、10度+7度=17度としている。
[非特許文献]
フラットパネルディスプレイの人間工学シンポジウム2014(2014年3月7日(金)成蹊大学4号館ホール開催)にて成蹊大学 窪田悟教授が発表した「ディスプレイの人間中心設計3Dと4Kについて」の講演資料のスライド24ページ
Codes A1 and A2 in FIG. 8B are (nx1) matrices for converting Hog feature amounts X into angles, and learning types from n learning data sets {(yi, xi) | i = 1... N}. It is determined using a pattern recognition method.
Examples are learning pattern recognition methods such as neural networks, AdaBoost, and support vector machines. In the practical stage, the Hog feature amount X input from the image is subjected to the transformation matrix A1 and A2 calculated in the learning stage, and the angle y1 between the pedestrian 5C and the head 5A, and the pedestrian 5 torso 5C. And the angle y2 of the hand 5B is obtained.
If the absolute value of the difference between y2 and y1 (y2−y1) is 17 degrees or less, it is determined that the pedestrian 5 is viewing the mobile terminal 50. That is, according to the following non-patent literature on ergonomics, the angle between the head and hand using a mobile phone is 7 degrees at the maximum, and the measurement resolution is 5 degrees. Since an error of 10 degrees (= 5 degrees × 2) occurs, 10 degrees + 7 degrees = 17 degrees.
[Non-patent literature]
Prof. Satoru Kubota, Professor, Seikei University at the Ergonomics Symposium 2014 (Friday, March 7th, 2014) held at the flat panel display ergonomics symposium Slide 24 pages

更に、画像から手領域を求め、その領域から直線状の物体を検出(エッジ画像を求めて直線近似する)できれば携帯端末50を持っている可能性が高いと判定する。   Further, a hand region is obtained from the image, and if a linear object can be detected from the region (an edge image is obtained and linear approximation is performed), it is determined that the mobile terminal 50 is likely to be held.

前記画像処理は学習機能を備えたパターンマッチングである。このような学習機能を車両の運転支援装置9が備えているので、車両の運転支援装置9の性能を向上させることができる。   The image processing is pattern matching having a learning function. Since the vehicle driving support device 9 has such a learning function, the performance of the vehicle driving support device 9 can be improved.

[ステップ2の詳細(その2)]
次に、前記ステップ2の詳細を示している図3について説明する。
(ステップ201〜ステップ204)
ステップ201の歩行者5に対し、ステップ202において、歩行者5のエッジを抽出し、ステップ203において、歩行者5の頭5Aの向きと両手5Bの向きを算出する。そして、ステップ204において、歩行者5の車両100(自車)に対する向きを推定する。
[Details of Step 2 (Part 2)]
Next, FIG. 3 showing details of step 2 will be described.
(Step 201 to Step 204)
For the pedestrian 5 in step 201, the edge of the pedestrian 5 is extracted in step 202, and in step 203, the direction of the head 5A and the direction of both hands 5B of the pedestrian 5 are calculated. In step 204, the direction of the pedestrian 5 relative to the vehicle 100 (own vehicle) is estimated.

(ステップ205)
ステップ205において、歩行者5が車両100に対して横向き、斜め向きか否か判定する。
(Step 205)
In step 205, it is determined whether or not the pedestrian 5 is laterally or obliquely with respect to the vehicle 100.

(ステップ206)
歩行者5が車両100に対して横向き、斜め向きであると、ステップ206において、歩行者5の頭5Aと手5Bの成す角度[θ]を算出する。[θ]=|y2−y1|である。
(Step 206)
If the pedestrian 5 is oriented sideways and obliquely with respect to the vehicle 100, in step 206, the angle [θ] formed by the head 5A and the hand 5B of the pedestrian 5 is calculated. [Θ] = | y2−y1 |.

(ステップ207)
ステップ207において、0≦[θ]≦17を判定する。
(Step 207)
In step 207, 0 ≦ [θ] ≦ 17 is determined.

(ステップ208)
0≦[θ]≦17であると、ステップ208において、歩行者5の手5Bから直線のエッジが出ているか否か判定する。0≦[θ]≦17でないと、ステップ212において、歩行者5は携帯端末50を見ていないと判定する。
(Step 208)
If 0 ≦ [θ] ≦ 17, it is determined in step 208 whether or not a straight edge comes out of the hand 5B of the pedestrian 5. If 0 ≦ [θ] ≦ 17, it is determined in step 212 that the pedestrian 5 is not looking at the portable terminal 50.

(ステップ209)
ステップ208において、歩行者5の手5Bから直線のエッジが出ていないと判定すると、ステップ209において、歩行者5が携帯端末50を見ている可能性は中程度と判定する。
(Step 209)
If it is determined in step 208 that there is no straight edge from the hand 5B of the pedestrian 5, in step 209, the possibility that the pedestrian 5 is looking at the portable terminal 50 is determined to be medium.

(ステップ211)
ステップ208において、歩行者5の手5Bから直線のエッジが出ていると判定すると、ステップ211において、歩行者5が携帯端末50を見ている可能性が大と判定する。
(Step 211)
If it is determined in step 208 that a straight edge has come out of the hand 5B of the pedestrian 5, it is determined in step 211 that the possibility that the pedestrian 5 is looking at the portable terminal 50 is high.

(ステップ210)
ステップ205において、歩行者5が車両100に対して横向き、斜め向きでない(正面向き、後向きである)と判定すると、ステップ210において、片方の手5Bの向きが固定、又は、両手5Bの向きが固定か否かを判定する。片方の手5Bの向きが固定、又は、両手5Bの向きが固定であると、前記ステップ208に進む。片方の手5Bの向きが固定でなく、両手5Bの向きも固定でないと、ステップ212に進む。
(Step 210)
If it is determined in step 205 that the pedestrian 5 is not laterally or obliquely (front or rearward) with respect to the vehicle 100, the orientation of one hand 5B is fixed or the orientation of both hands 5B is determined in step 210. It is determined whether or not it is fixed. If the direction of one hand 5B is fixed or the direction of both hands 5B is fixed, the process proceeds to step 208. If the direction of one hand 5B is not fixed and the direction of both hands 5B is not fixed, the process proceeds to step 212.

[検出対象を歩行者5だけでなく自転車搭乗者5に拡張した場合]
本発明においては、検出対象を歩行者5だけでなく自転車搭乗者5にも拡張することができる。この場合には、図5に示すように、携帯端末50を見ながら自転車60を運転する自転車搭乗者5の学習用画像を収集する。フローチャート、処理方法は歩行者5の場合と同様である。この場合には、歩行者検出部1には歩行者5と自転車搭乗者5を分ける手段も必要となる。
[When the detection target is extended not only to the pedestrian 5 but also to the bicycle occupant 5]
In the present invention, the detection target can be extended not only to the pedestrian 5 but also to the bicycle occupant 5. In this case, as shown in FIG. 5, learning images of the bicycle rider 5 who drives the bicycle 60 while looking at the portable terminal 50 are collected. The flowchart and processing method are the same as those for the pedestrian 5. In this case, the pedestrian detection unit 1 also needs means for separating the pedestrian 5 and the bicycle occupant 5.

例えば、前記T=5.0sにしたとき、図9(a)のt、tは下記の表1と表2のようになる。表1と表2の相対速度は、車両100と歩行者5の自車の進行方向の相対速度である。
表1は、通常歩行者の警報を出すタイミング:TTC(s)(図9(b)のt)、表2は、接触可能性有り歩行者判定時間(図9(a),図9(b)のt)を示す。

Figure 2017010560
Figure 2017010560
For example, when T h = 5.0 s, t A and t in FIG. 9A are as shown in Table 1 and Table 2 below. The relative speeds in Tables 1 and 2 are relative speeds in the traveling direction of the vehicle 100 and the pedestrian 5.
Table 1 shows a normal pedestrian warning timing: TTC (s) (t B in FIG. 9B), and Table 2 shows a pedestrian determination time with a possibility of contact (FIGS. 9A and 9B). b) t) is shown.
Figure 2017010560
Figure 2017010560

表2の判定時間tを用いて、携帯端末50を見ている接触可能性有り歩行者5か、携帯端末50を見ていない通常歩行者5かを判定する。歩行者5との距離が遠ければ遠いほど(速度が早ければ早いほど)認識精度が落ちるため、近いほど値は小さい。   Using the determination time t in Table 2, it is determined whether the pedestrian 5 is likely to be in contact with the mobile terminal 50 or is a normal pedestrian 5 who is not looking at the mobile terminal 50. Since the recognition accuracy decreases as the distance from the pedestrian 5 increases (the speed increases), the value decreases as the distance from the pedestrian 5 increases.

表1は、車両100の警報を出すタイミングである。相対速度が−8.33(m/s)からなのは、図2のフローチャートより、歩行者5との距離が10m以上としているので、−8.33(m/s)以上であると警報を出す距離が10m以下になるからである。   Table 1 shows the timing for issuing an alarm for the vehicle 100. The reason why the relative speed is from −8.33 (m / s) is that the distance from the pedestrian 5 is 10 m or more from the flowchart of FIG. 2, so that an alarm is issued if it is −8.33 (m / s) or more. This is because the distance is 10 m or less.

表1のラップ率ごとの結果は、歩行者5が横移動した時(車両100の進行方向の速度が0km/h(図10のVha)とする)のt秒後、歩行者5と車両100がどう重なるかを示しており、ラップ率が大きいほど、車両100と歩行者5の横位置が近く、衝突する可能性が高いので早めに警報を出している(歩行者5が横方向に直進、車両100が進行方向に直進したときの結果)。図10のhは歩行者5と車両100との間の距離である。 The results for each lap rate in Table 1 indicate that when pedestrian 5 moves sideways (the speed in the traveling direction of vehicle 100 is 0 km / h (V ha in FIG. 10)) after t A seconds, It shows how the vehicles 100 overlap. The larger the lap rate, the closer the lateral position of the vehicle 100 and the pedestrian 5 is, and the higher the possibility of collision, so the warning is given early (the pedestrian 5 is in the lateral direction). Result when the vehicle 100 goes straight in the direction of travel). In FIG. 10, h is the distance between the pedestrian 5 and the vehicle 100.

表1と表2のラップ率………歩行者5のTTC後の位置における歩行者5と車両100とが重なる割合(歩行者全体で100%)とする。
表1と表2の相対速度………車両100の進行方向への車両100の速度(Vca)と歩行者速度(Vha)の差とする。
表1と表2の相対速度が−30.566(m/s)以下の速度が無いのは、相対速度−30.566(m/s)以下で通常は一般道を走行することはないためである。
The lap ratios in Tables 1 and 2 are set to a ratio in which the pedestrian 5 and the vehicle 100 overlap each other at a position after the TTC of the pedestrian 5 (100% for the entire pedestrian).
Relative speeds in Tables 1 and 2: A difference between the speed (V ca ) of the vehicle 100 in the traveling direction of the vehicle 100 and the pedestrian speed (V ha ).
The reason why the relative speeds in Table 1 and Table 2 are not less than −30.666 (m / s) is that the relative speed is less than −30.566 (m / s) and usually it does not travel on the general road. It is.

次に、表1の警報を出すタイミングの証明をする。
(相対速度−13.89m/s、ラップ率10%のときのTTC 1.37(s)の証明)(表1の★1マーク)
(相対速度−13.89m/s、ラップ率20%のときのTTC1.47(s)の証明)(表1の★2マーク)
Next, the timing for issuing the alarm shown in Table 1 is proved.
(Proof of TTC 1.37 (s) when the relative speed is 13.89 m / s and the lap rate is 10%) (* 1 mark in Table 1)
(Proof of TTC 1.47 (s) when the relative speed is 13.89 m / s and the lap rate is 20%) (* 2 mark in Table 1)

表1より、Vha=0(m/s),Vhb=1.388(m/s),Vca=13.89(m/s),Vcb=0(m/s),1=1.475(m)とし、乾燥したアスファルト(μ=0.8)停止距離は以下のように求めることができる。(この場合は、減速度減速度0.8G一定と仮定し、警報を制御しているコントローラからブレーキを制御しているESPコントローラへの通信遅延は0.3(s)とする。) From Table 1, V ha = 0 (m / s), V hb = 1.388 (m / s), V ca = 1.89 (m / s), V cb = 0 (m / s), 1 h = 1.475 (m), and the dry asphalt (μ = 0.8) stop distance can be determined as follows. (In this case, it is assumed that the deceleration deceleration is constant 0.8G, and the communication delay from the controller that controls the alarm to the ESP controller that controls the brake is 0.3 (s).)

制動距離(m)=(初速度の2乗)/(2×路面摩擦係数×重力加速度)=13.89/(2×0.8×9.8)=12.30(m)
空走距離(m)= 反応時間(s)×制動前の車速(m/s) =0.3×13.89=4.17(m)
停止距離(m)=12.30+4.17=16.47(m)
停止距離の1m手前で止まるように警報を出すので、
(16.47+1)/13.89 =1.26(s)
歩行者5との相対速度が−13.89(m/s)のときは、TTCが1.26(s)のときに警報を出す。これは、ラップ0%のときに警報を出すタイミングであり、ラップ率10%の場合は、車両100の左端(自車幅(1=1.475(m))から0.1475(m)で歩行者5と衝突する。歩行者5は、車両100の左端から10%のところまで、0.106(s)(0.1475(m)÷1.388(m/s)で歩行するので、更に0.11(s)手前で警報を出す必要がある。
1.26+0.11= 1.37(s)
Braking distance (m) = (square of initial velocity) / (2 × road friction coefficient × gravity acceleration) = 13.89 2 /(2×0.8×9.8)=12.30 (m)
Free running distance (m) = Reaction time (s) x Vehicle speed before braking (m / s) = 0.3 x 13.89 = 4.17 (m)
Stop distance (m) = 12.30 + 4.17 = 16.47 (m)
Since an alarm is issued so that it stops 1m before the stop distance,
(16.47 + 1) /13.89 = 1.26 (s)
When the relative speed with the pedestrian 5 is -13.89 (m / s), an alarm is issued when the TTC is 1.26 (s). This is the timing for issuing an alarm when the lap is 0%. When the lap rate is 10%, 0.1475 (m) from the left end of the vehicle 100 (own vehicle width (1 h = 1.475 (m)). The pedestrian 5 collides with the pedestrian 5. The pedestrian 5 walks from the left end of the vehicle 100 to 10% at 0.106 (s) (0.1475 (m) ÷ 1.388 (m / s). Further, it is necessary to issue an alarm before 0.11 (s).
1.26 + 0.11 = 1.37 (s)

次に、ラップ率20%の場合は、車両100の左端から0.295(m)のところで歩行者と衝突し、ラップ率20%のとき、ラップ率20%のところまで歩行者5は0.21(s)で歩行するので、0.21(s)手前で警報を出す必要がある。
1.26+0.21=1.47(s)
Next, when the lap rate is 20%, the vehicle 100 collides with a pedestrian at 0.295 (m) from the left end of the vehicle 100. When the lap rate is 20%, the pedestrian 5 reaches 0. Since it walks at 21 (s), it is necessary to issue an alarm before 0.21 (s).
1.26 + 0.21 = 1.47 (s)

表1のラップ率30%以上の値は、停止したときに歩行者5との距離を1m以上保つために、上記の式と同じく算出され、ラップ率が大きくなるたびに手前で警報がでるようになっている。また、表2の相対速度−13.89(m/s),ラップ率10(%)のときの判定時間1.5(s)は、歩行者5と相対速度を考慮して決めた。表は歩行者とのTTC5.0(s)から判定し、歩行者5との距離が遠いため、多く保つように1.5(s)にした。   The value of lap rate of 30% or more in Table 1 is calculated in the same way as the above formula in order to keep the distance from the pedestrian 5 at least 1 m when stopped, and an alarm will be issued before the lap rate increases. It has become. The determination time 1.5 (s) when the relative speed in Table 2 is -13.89 (m / s) and the lap rate is 10 (%) was determined in consideration of the pedestrian 5 and the relative speed. The table was determined from TTC 5.0 (s) with pedestrians, and since the distance to pedestrians 5 is far, 1.5 (s) was set so as to keep a large amount.

本発明によれば、携帯端末50を操作している歩行者5や自転車搭乗者5と車両100の接触を回避することができる。また、前記歩行者5や自転車搭乗者5に対して、頭5Aと手5Bの位置に注目した携帯端末50の操作姿勢に基づく画像処理によって、歩行者5や自転車搭乗者5が携帯端末50を操作中か否かを判定するから、判定の正確性を向上させることができる。   According to the present invention, it is possible to avoid contact between the vehicle 100 and the pedestrian 5 or the bicycle occupant 5 who is operating the portable terminal 50. Further, the pedestrian 5 or the bicycle occupant 5 uses the mobile terminal 50 to perform the image processing based on the operation posture of the mobile terminal 50 focusing on the positions of the head 5A and the hand 5B. Since it is determined whether or not the operation is in progress, the accuracy of the determination can be improved.

[第2の実施形態]
第2の実施形態では、前記歩行者検出部1は、車両前方Frの歩行者5(図7,図10等参照)をステレオカメラにより撮影して検出する。そして、図11に示すように、ステップ301(ステップS301)において、検出した歩行者5が自車進行路外に存在するかどうかを歩行者判定部2(図1参照)が判定する。歩行者5が自車進行路外に存在する場合は、車両制御部3(図1参照)が、車両100と歩行者5の距離と自車速から求まるTTC(歩行者5に対する接触予測時間)により車両を制御する。
[Second Embodiment]
In 2nd Embodiment, the said pedestrian detection part 1 image | photographs and detects the pedestrian 5 (refer FIG.7, FIG.10 etc.) of the vehicle front Fr with a stereo camera. As shown in FIG. 11, in step 301 (step S301), the pedestrian determination unit 2 (see FIG. 1) determines whether or not the detected pedestrian 5 exists outside the own vehicle traveling path. When the pedestrian 5 exists outside the own vehicle traveling path, the vehicle control unit 3 (see FIG. 1) uses the TTC (predicted contact time for the pedestrian 5) determined from the distance between the vehicle 100 and the pedestrian 5 and the own vehicle speed. Control the vehicle.

次のステップ302において、自車進行路外に存在する歩行者が、携帯端末50を見ている接触可能性有り歩行者5か、それとも通常歩行者5かを歩行者判定部2がt秒間判定する(詳細は、図12のフローチャート(歩行者判定部2のフローチャート)参照)。   In the next step 302, the pedestrian determination unit 2 determines whether the pedestrian existing outside the traveling path of the vehicle is the pedestrian 5 with contact possibility watching the portable terminal 50 or the normal pedestrian 5 for t seconds. (For details, see the flowchart of FIG. 12 (the flowchart of the pedestrian determination unit 2)).

最後のステップ303において、車両制御部3が、判定された接触可能性有り歩行者5と通常歩行者5に対して車両制御を行う。   In the final step 303, the vehicle control unit 3 performs vehicle control on the determined pedestrian 5 with a possibility of contact and the normal pedestrian 5.

ブレーキ警報を出すタイミング、自動ブレーキを作動させるタイミングは、携帯端末50を見ながら移動している状態にある接触可能性有り歩行者5と、携帯端末50を見ながら移動している状態にない通常歩行者5とで異なる。前記タイミングは、第1の実施形態において説明した図9(a),図9(b)に示す通りである。   The timing of issuing a brake alarm and the timing of operating the automatic brake are not in the state of moving while looking at the portable terminal 50 and the pedestrian 5 with a possibility of contact while moving while looking at the portable terminal 50. It differs from pedestrian 5. The timing is as shown in FIGS. 9A and 9B described in the first embodiment.

[ステップ302の詳細]
図12は前記ステップ302の詳細を示している。この図12に示すように、前記歩行者判定部2は次のように判定を実行する。
(ステップ401〜ステップ403)
ステップ401の歩行者5に対し、ステップ402において、歩行者5の向きを算出し、ステップ403においてHog特徴量(Hog特徴量は、画像中に存在する物体の形状を表現可能な特徴量であり、画像の各画素(ピクセル)の輝度情報から求められ、画像中の局所領域(セル)における輝度勾配の方向及び大きさを基にして得られるヒストグラム化された特徴量)を算出する。
[Details of Step 302]
FIG. 12 shows details of step 302. As shown in FIG. 12, the pedestrian determination unit 2 performs determination as follows.
(Step 401 to Step 403)
For the pedestrian 5 in step 401, the orientation of the pedestrian 5 is calculated in step 402. In step 403, the Hog feature amount (the Hog feature amount is a feature amount that can represent the shape of an object present in the image). Then, a histogram-like feature amount obtained from the luminance information of each pixel (pixel) of the image and obtained based on the direction and magnitude of the luminance gradient in the local region (cell) in the image is calculated.

(ステップ404)
ステップ404において、歩行者5が車両100(自車)に対して真後ろ又は真正面を向いているか否かを判定する。
(Step 404)
In step 404, it is determined whether or not the pedestrian 5 is facing directly behind or directly in front of the vehicle 100 (own vehicle).

(ステップ408)〜(ステップ410)
歩行者5が車両100に対して横向き又は斜め向きであると、ステップ408において距離画像を作成し、ステップ409において、Hog特徴量から歩行者5の「手5B、頭5A」位置を算出する。そして、ステップ410において、手5Bが歩行者5の進行方向に向いているか否かを判定する。手5Bが歩行者5の進行方向に向いていないとステップ402に戻る。
(Step 408) to (Step 410)
If the pedestrian 5 is lateral or oblique with respect to the vehicle 100, a distance image is created in step 408, and in step 409, the "hand 5B, head 5A" position of the pedestrian 5 is calculated from the Hog feature amount. In step 410, it is determined whether or not the hand 5 </ b> B is oriented in the traveling direction of the pedestrian 5. If the hand 5B is not in the direction of travel of the pedestrian 5, the process returns to step 402.

(ステップ411)
手5Bが歩行者5の進行方向に向いていると、ステップ411において、歩行者5の胴5Cと頭5Aのなす角度y1と、歩行者5の胴5Cと手5Bのなす角度y2とを求める。
(Step 411)
If the hand 5B is facing the direction of travel of the pedestrian 5, in step 411, an angle y1 formed by the torso 5C and the head 5A of the pedestrian 5 and an angle y2 formed by the torso 5C of the pedestrian 5 and the hand 5B are obtained. .

(ステップ412)
そして、ステップ412において、0≦|y1−y2|≦17を判定する。
(Step 412)
In step 412, 0 ≦ | y1-y2 | ≦ 17 is determined.

(ステップ208)
0≦|y1−y2|≦17であると、ステップ407において、歩行者5は携帯端末50を見ている歩行者5であると判定する。その理由は、第1の実施形態で説明した通りである。0≦|y1−y2|≦17でないとステップ402に戻る。
(Step 208)
If 0 ≦ | y1−y2 | ≦ 17, it is determined in step 407 that the pedestrian 5 is the pedestrian 5 looking at the mobile terminal 50. The reason is as described in the first embodiment. Unless 0 ≦ | y1−y2 | ≦ 17, the process returns to step 402.

(ステップ405)
ステップ404において、歩行者5が車両100に対して正面向き又は後向きであると判定すると、ステップ405において、Hog特徴量から歩行者5の「手5B、頭5A」位置を算出する。そして、ステップ406において、片方の手5Bの向きが固定であるか、又は、両手5Bの向きが固定であるか否かを判定する。片方の手5Bの向きが固定であるか、又は、両手5Bの向きが固定であると、ステップ407において歩行者5は携帯端末50を見ている歩行者5であると判定する。両手5Bの向きが固定でないとステップ402に戻る。
(Step 405)
If it is determined in step 404 that the pedestrian 5 is facing frontward or rearward with respect to the vehicle 100, in step 405, the “hand 5B, head 5A” position of the pedestrian 5 is calculated from the Hog feature amount. In step 406, it is determined whether the direction of one hand 5B is fixed or whether the direction of both hands 5B is fixed. If the direction of one hand 5B is fixed or the direction of both hands 5B is fixed, it is determined in step 407 that the pedestrian 5 is the pedestrian 5 looking at the portable terminal 50. If the orientation of both hands 5B is not fixed, the process returns to step 402.

上記のように、歩行者判定部2は、ステレオカメラから距離画像を作成し、ステレオカメラ画像からHog特徴量を算出し、距離画像の手5Bと頭5Aの高さ情報を用いてHog特徴量の輝度勾配が変化したところから手5Bと頭5Aの位置を求める。Hog特徴量は、輝度勾配を求めるヒストグラムを正規化するため、照明などの明るさの変化に強く、エッジ検出より手5Bと頭5Aの位置を検出しやすいという利点がある。   As described above, the pedestrian determination unit 2 creates a distance image from the stereo camera, calculates a Hog feature amount from the stereo camera image, and uses the height information of the hand 5B and the head 5A of the distance image to generate the Hog feature amount. The positions of the hand 5B and the head 5A are obtained from the change of the brightness gradient of the head 5A. The Hog feature value normalizes a histogram for obtaining a luminance gradient, and thus has an advantage that it is resistant to changes in brightness such as illumination, and that it is easier to detect the positions of the hand 5B and the head 5A than edge detection.

上記の構成によれば、車両100の前を歩行している接触可能性有り歩行者5と通常歩行者5を分けることができ、携帯端末50を見ながら歩行していて車両100に気付いていない接触可能性有り歩行者5を優先的に見つけだすことができる。これは、ステレオカメラから距離画像が作成され、3次元位置を求めることができるため、手5Bと頭5Aの位置を見て角度を求め、手5Bが歩行者5の進行方向に向いていると携帯端末50に夢中になり車両100に気付いていない歩行者5と検出できるからである。   According to said structure, the pedestrian 5 with the possibility of contact and the normal pedestrian 5 who are walking in front of the vehicle 100 can be separated, and it walks while seeing the portable terminal 50, and does not notice the vehicle 100. A pedestrian 5 with a possibility of contact can be found preferentially. This is because a distance image is created from a stereo camera, and a three-dimensional position can be obtained. Therefore, an angle is obtained by looking at the positions of the hand 5B and the head 5A, and the hand 5B is directed in the traveling direction of the pedestrian 5. This is because it is possible to detect the pedestrian 5 who is absorbed in the mobile terminal 50 and is not aware of the vehicle 100.

また、第1の実施形態で説明した学習データベースに当てはまらない接触可能性有り歩行者5を、接触可能性有り歩行者5として判定しないといった判定ミスを回避することができる。
そして、本第2の実施形態の発明では、地面から探索しHog特徴量の輝度勾配が大きく変化したところから手5Bと頭5Aの位置を求め、距離画像から手5Bと頭5Aの3次元位置を求めるので、接触可能性有り歩行者5を簡単に判定でき、判定漏れの恐れがない。
In addition, it is possible to avoid a determination error such that a pedestrian 5 with a contact possibility that does not apply to the learning database described in the first embodiment is not determined as a pedestrian 5 with a contact possibility.
In the invention of the second embodiment, the position of the hand 5B and the head 5A is obtained from the place where the brightness gradient of the Hog feature amount is greatly changed by searching from the ground, and the three-dimensional position of the hand 5B and the head 5A from the distance image. Therefore, it is possible to easily determine the pedestrian 5 with a possibility of contact, and there is no fear of omission of determination.

本第2の実施形態の発明においても、検出対象を歩行者5だけでなく自転車搭乗者5にも拡張することができる。   In the invention of the second embodiment as well, the detection target can be extended not only to the pedestrian 5 but also to the bicycle occupant 5.

1 検出部(歩行者検出部)
5 歩行者、自転車搭乗者
5A 頭
5B 手
11 車載カメラ
50 携帯端末(携帯電話、スマートフォン等)
100 車両
Fr 車両前方
1 detector (pedestrian detector)
5 Pedestrians and bicycle riders 5A Head 5B Hand 11 Car-mounted camera 50 Mobile terminal (cell phone, smartphone, etc.)
100 Vehicle Fr Vehicle front

Claims (4)

車両に搭載した車載カメラにより車両前方に存在する歩行者や自転車搭乗者を検出する検出部を備えた車両の運転支援装置において、
前記歩行者や自転車搭乗者に対して、頭と手の位置に注目した携帯端末の操作姿勢に基づく画像処理によって前記携帯端末を操作中か否かを判定し、前記車両の運転に障害が発生すると判定する場合にドライバーにブレーキ警報を出すとともに自動ブレーキを作動させることを特徴とする車両の運転支援装置。
In a vehicle driving support device including a detection unit that detects a pedestrian or a bicycle occupant existing in front of a vehicle by an in-vehicle camera mounted on the vehicle,
For the pedestrian or bicycle occupant, it is determined whether or not the mobile terminal is being operated by image processing based on the operation attitude of the mobile terminal that focuses on the position of the head and hand, and an obstacle occurs in driving the vehicle. A vehicle driving support device that issues a brake warning to the driver and activates an automatic brake when the determination is made.
前記ブレーキ警報は、前記歩行者や自転車搭乗者について、前記携帯端末を操作している場合と操作していない場合との2種類にすることを特徴とする請求項1記載の車両の運転支援装置。   2. The vehicle driving support device according to claim 1, wherein the brake warning is classified into two types for the pedestrian and the bicycle occupant when the portable terminal is operated and when the portable terminal is not operated. . 前記画像処理は学習機能を備えたパターンマッチングとすることを特徴とする請求項1又は2記載の車両の運転支援装置。   The vehicle driving support device according to claim 1, wherein the image processing is pattern matching having a learning function. 前記車載カメラはステレオカメラであり、画像から特徴量を算出して、前記歩行者や自転車搭乗者が前記携帯端末を操作中か否かを判定することを特徴とする請求項1記載の車両の運転支援装置。   2. The vehicle according to claim 1, wherein the in-vehicle camera is a stereo camera, and calculates a feature amount from an image to determine whether the pedestrian or a bicycle rider is operating the portable terminal. Driving assistance device.
JP2016123691A 2015-06-24 2016-06-22 Vehicle driving support device Active JP6722400B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015126399 2015-06-24
JP2015126399 2015-06-24

Publications (2)

Publication Number Publication Date
JP2017010560A true JP2017010560A (en) 2017-01-12
JP6722400B2 JP6722400B2 (en) 2020-07-15

Family

ID=57763827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016123691A Active JP6722400B2 (en) 2015-06-24 2016-06-22 Vehicle driving support device

Country Status (1)

Country Link
JP (1) JP6722400B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109017675A (en) * 2018-08-06 2018-12-18 佛山市苔藓云链科技有限公司 A kind of intelligent vehicle and Vehicular intelligent starting method
CN110853338A (en) * 2019-11-08 2020-02-28 上海博泰悦臻电子设备制造有限公司 Pedestrian reminding method and system based on vehicle-mounted terminal, storage medium and vehicle-mounted terminal
JP2020160518A (en) * 2019-03-25 2020-10-01 新明工業株式会社 Failure prediction system
JP2020533662A (en) * 2017-09-11 2020-11-19 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Gesture control with a simple 2D camera to communicate with autonomously driving vehicles
JP2021504856A (en) * 2018-04-20 2021-02-15 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. Forward collision control methods and devices, electronics, programs and media
JP2021068015A (en) * 2019-10-18 2021-04-30 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
JPWO2021234937A1 (en) * 2020-05-22 2021-11-25
WO2022064592A1 (en) * 2020-09-24 2022-03-31 日本電気株式会社 Driving state determination device, method, and computer-readable medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006151114A (en) * 2004-11-26 2006-06-15 Fujitsu Ten Ltd Driving support device
JP2006185046A (en) * 2004-12-27 2006-07-13 Canon Inc Calculation method and calculation device
JP2009140023A (en) * 2007-12-03 2009-06-25 Mazda Motor Corp Vehicle obstacle detection unit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006151114A (en) * 2004-11-26 2006-06-15 Fujitsu Ten Ltd Driving support device
JP2006185046A (en) * 2004-12-27 2006-07-13 Canon Inc Calculation method and calculation device
JP2009140023A (en) * 2007-12-03 2009-06-25 Mazda Motor Corp Vehicle obstacle detection unit

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
新村 文郷 FUMITO SHINMURA: "車載カメラ画像からの「スマホ歩き」認識に基づく歩行者の不注意度推定 Pedestrian's Inattention Estimat", 電子情報通信学会技術研究報告 VOL.115 NO.98 IEICE TECHNICAL REPORT, JPN6020007083, 11 June 2015 (2015-06-11), JP, pages 83 - 88, ISSN: 0004221222 *
皆本光 HIKARU MINAMOTO: "歩行者の不注意行動認識 - 歩きスマホ検出 -, Recognize Careless Behavior of Walker -Detect Texting Whi", 第6回視覚・聴覚支援システム(VHIS)研究会予稿集(2015), JPN6020007085, 24 March 2015 (2015-03-24), ISSN: 0004221223 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020533662A (en) * 2017-09-11 2020-11-19 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Gesture control with a simple 2D camera to communicate with autonomously driving vehicles
JP7280865B2 (en) 2017-09-11 2023-05-24 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング Gesture control employing a simple 2D camera to communicate with an autonomously driving vehicle
US11557150B2 (en) 2017-09-11 2023-01-17 Conti Temic Microelectronic Gmbh Gesture control for communication with an autonomous vehicle on the basis of a simple 2D camera
JP2021504856A (en) * 2018-04-20 2021-02-15 深▲せん▼市商▲湯▼科技有限公司Shenzhen Sensetime Technology Co., Ltd. Forward collision control methods and devices, electronics, programs and media
US11643076B2 (en) 2018-04-20 2023-05-09 Shenzhen Sensetime Technology Co., Ltd. Forward collision control method and apparatus, electronic device, program, and medium
CN109017675A (en) * 2018-08-06 2018-12-18 佛山市苔藓云链科技有限公司 A kind of intelligent vehicle and Vehicular intelligent starting method
JP2020160518A (en) * 2019-03-25 2020-10-01 新明工業株式会社 Failure prediction system
JP2021068015A (en) * 2019-10-18 2021-04-30 本田技研工業株式会社 Vehicle control device, vehicle control method, and program
US11814041B2 (en) 2019-10-18 2023-11-14 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and storage medium that performs risk calculation for traffic participant
CN110853338A (en) * 2019-11-08 2020-02-28 上海博泰悦臻电子设备制造有限公司 Pedestrian reminding method and system based on vehicle-mounted terminal, storage medium and vehicle-mounted terminal
JPWO2021234937A1 (en) * 2020-05-22 2021-11-25
WO2021234937A1 (en) * 2020-05-22 2021-11-25 三菱電機株式会社 Alarm control device and alarm control method
JP7357784B2 (en) 2020-05-22 2023-10-06 三菱電機株式会社 Alarm control device and alarm control method
WO2022064592A1 (en) * 2020-09-24 2022-03-31 日本電気株式会社 Driving state determination device, method, and computer-readable medium
JPWO2022064592A1 (en) * 2020-09-24 2022-03-31
JP7420277B2 (en) 2020-09-24 2024-01-23 日本電気株式会社 Operating state determination device, method, and program

Also Published As

Publication number Publication date
JP6722400B2 (en) 2020-07-15

Similar Documents

Publication Publication Date Title
JP6722400B2 (en) Vehicle driving support device
EP3366540B1 (en) Information processing apparatus and non-transitory computer-readable recording medium
US20190149752A1 (en) Image processing device, image processing method, and image processing system
US8655579B2 (en) Driving assistance device
US20170270374A1 (en) Pedestrian detection and motion prediction with rear-facing camera
JP2022016448A (en) Recognizing assigned passenger for autonomous vehicle
KR102227316B1 (en) Method and system for adjusting the orientation of a virtual camera when the vehicle is turning
WO2017057016A1 (en) Measurement device and method, and program
JP2019119296A (en) Vehicle control device, vehicle control method, program, and information acquisition device
JPWO2019038903A1 (en) Surrounding vehicle display method and surrounding vehicle display device
JP5561396B1 (en) Driving support system and driving support method
WO2019073920A1 (en) Information processing device, moving device and method, and program
EP3299994A1 (en) A method for advanced and low cost cross traffic alert, related processing system, cross traffic alert system and vehicle
JP2009009209A (en) Image recognition device and image recognition processing method
KR101698781B1 (en) Driver assistance apparatus and Vehicle including the same
JP4601505B2 (en) Top-view image generation apparatus and top-view image display method
JP2005254861A (en) Vehicle condition detection system and vehicle condition detection method
JP2019049774A (en) Vehicle control device, vehicle control method, and program
JP2016009251A (en) Control device for vehicle
JP2020065141A (en) Vehicle overhead image generation system and method thereof
WO2021053763A1 (en) Driving assistance device, driving assistance method, and program
JP6595647B2 (en) Travel control device, vehicle, and travel control method
JP2014035561A (en) Vehicle travel support device and vehicle travel support method
KR20150072942A (en) Driver assistance apparatus and Vehicle including the same
KR101985496B1 (en) Driving assistance apparatus and vehicle having the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200604

R151 Written notification of patent or utility model registration

Ref document number: 6722400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151