JP2018045385A - Vehicle control apparatus, vehicle control method, and vehicle control program - Google Patents

Vehicle control apparatus, vehicle control method, and vehicle control program Download PDF

Info

Publication number
JP2018045385A
JP2018045385A JP2016178763A JP2016178763A JP2018045385A JP 2018045385 A JP2018045385 A JP 2018045385A JP 2016178763 A JP2016178763 A JP 2016178763A JP 2016178763 A JP2016178763 A JP 2016178763A JP 2018045385 A JP2018045385 A JP 2018045385A
Authority
JP
Japan
Prior art keywords
vehicle
pedestrian
unit
vehicle control
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016178763A
Other languages
Japanese (ja)
Other versions
JP6340738B2 (en
Inventor
瞬 岩崎
Shun Iwasaki
瞬 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2016178763A priority Critical patent/JP6340738B2/en
Publication of JP2018045385A publication Critical patent/JP2018045385A/en
Application granted granted Critical
Publication of JP6340738B2 publication Critical patent/JP6340738B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle control apparatus configured to prevent a warning from being issued at a time not intended by a driver and accurately recognize an object, a vehicle control method, and a vehicle control program.SOLUTION: A vehicle control system includes: an object detection unit which detects an object near a vehicle; a recognition unit which determines a positional relationship between the vehicle and the object detected by the object detection unit, and identifies a type of the object detected by the object detection unit, to modify the content of processing for identifying the type of the object, on the basis of the determined positional relationship; and a travel support unit which supports travel of the vehicle, on the basis of an identification result of the recognition unit.SELECTED DRAWING: Figure 1

Description

本発明は、車両制御装置、車両制御方法、および車両制御プログラムに関する。   The present invention relates to a vehicle control device, a vehicle control method, and a vehicle control program.

従来、車両の周辺の物体を検出し、検出した物体が歩行者であるか否かを認識する装置がある。例えば、車両の存在する位置や車速等に基づいて、車両と歩行者とが接触する危険度を求め、警報を行う装置であって、この危険度に応じて検出した物体を歩行者として認識する認識レベルを切り替えて、車両の周辺の歩行者を認識し、警報する装置が開示されている(例えば、特許文献1参照)。   Conventionally, there is an apparatus that detects an object around a vehicle and recognizes whether or not the detected object is a pedestrian. For example, it is a device that calculates the degree of risk of contact between a vehicle and a pedestrian based on the position of the vehicle, the vehicle speed, etc., and gives an alarm, and recognizes an object detected according to the degree of risk as a pedestrian An apparatus for switching and recognizing pedestrians around a vehicle and alarming is disclosed (for example, see Patent Document 1).

特開2009−64274号公報JP 2009-64274 A

しかしながら、上記特許文献1の装置は、車両と検出した物体との位置関係によっては、ノイズや歩行者でない物体を歩行者と認識したり、歩行者をノイズや歩行者でない物体と認識したりすることで運転者が意図しないタイミングで警報がされる場合があり、商品性を損ねる可能性がある。   However, depending on the positional relationship between the vehicle and the detected object, the device of Patent Document 1 recognizes noise or an object that is not a pedestrian as a pedestrian, or recognizes a pedestrian as an object that is not noise or a pedestrian. Thus, an alarm may be issued at a timing unintended by the driver, which may impair the merchantability.

本発明は、このような事情を考慮してなされたものであり、運転者が意図しないタイミングでの警報等を抑制すると共に、精度よく物体を認識することができる車両制御装置、車両制御方法、および車両制御プログラムを提供することを目的の一つとする。   The present invention has been made in view of such circumstances, and suppresses an alarm or the like at a timing not intended by the driver, and can accurately recognize an object, a vehicle control device, a vehicle control method, Another object is to provide a vehicle control program.

請求項1記載の発明は、車両の周辺の物体を検出する物体検出部(12)と、前記車両と前記物体検出部により検出された物体との位置関係を求めると共に、前記物体検出部により検出された物体の種別を識別する認識部であって、前記求めた位置関係に基づいて、前記物体の種別を識別する処理の内容を変更する認識部(32)と、前記認識部による識別結果に基づいて、前記車両の走行を支援する走行支援部(70)とを備える車両制御システム(1)である。   According to the first aspect of the present invention, an object detection unit (12) that detects an object around the vehicle and a positional relationship between the vehicle and the object detected by the object detection unit are obtained and detected by the object detection unit. A recognition unit for identifying the type of the detected object, the recognition unit (32) for changing the content of the process for identifying the type of the object based on the obtained positional relationship, and the identification result by the recognition unit Based on this, it is a vehicle control system (1) provided with the driving assistance part (70) which assists driving | running | working of the said vehicle.

請求項2記載の発明は、請求項1記載の車両制御システムであって、前記認識部は、物体を検出する対象の領域において、前記車両の進行予定の軌跡である進行方向軌跡上にある前記物体の種別を識別するために用いる閾値を、前記進行方向軌跡上にない前記物体の種別を識別するために用いる閾値に比して高く設定するものである。   Invention of Claim 2 is the vehicle control system of Claim 1, Comprising: The said recognition part exists on the advancing direction locus | trajectory which is the locus | trajectory which the said vehicle is going to advance in the area | region of the object detected object. The threshold used for identifying the type of the object is set higher than the threshold used for identifying the type of the object that is not on the trajectory in the traveling direction.

請求項3記載の発明は、請求項2記載の車両制御システムであって、前記認識部は、車両の進行予定の軌跡である進行方向軌跡を前記物体が横切ろうとしていると判定した場合、前記横切ろうとしている物体に対して、前記閾値を低く設定するものである。   Invention of Claim 3 is the vehicle control system of Claim 2, Comprising: The said recognition part determines that the said object is going to cross the advancing direction locus | trajectory which is a locus | trajectory which the vehicle is going to advance, The threshold value is set low with respect to the object to be crossed.

請求項4記載の発明は、請求項1から3のうちいずれか1項記載の車両制御システムであって、前記認識部は、前記車両の横方向の位置に関して前記車両から遠い領域ほど、前記閾値を低く設定するものである。   Invention of Claim 4 is a vehicle control system of any one of Claim 1 to 3, Comprising: The said recognition part is the said threshold value, so that the area | region far from the said vehicle regarding the position of the horizontal direction of the said vehicle. Is set low.

請求項5記載の発明は、請求項1から4のうちいずれか1項記載の車両制御システムであって、前記認識部は、前記車両の進行方向に関して前記車両から第1の距離以上の第1領域については、前記車両から前記第1の距離に至る手前の第2領域に比して、前記閾値を高く設定するものである。   A fifth aspect of the present invention is the vehicle control system according to any one of the first to fourth aspects, wherein the recognition unit has a first distance greater than or equal to a first distance from the vehicle with respect to a traveling direction of the vehicle. For the region, the threshold value is set higher than that of the second region before the vehicle reaches the first distance.

請求項6記載の発明は、請求項1から5のうちいずれか1項記載の車両制御システムであって、前記認識部は、前記車両の進行方向に関して前記車両から第2の距離未満の第3領域については、前記車両から第2の距離以上となる第4領域に比して、物体の種別を識別するために用いる閾値を高く設定するものである。   A sixth aspect of the present invention is the vehicle control system according to any one of the first to fifth aspects, wherein the recognition unit has a third distance less than a second distance from the vehicle with respect to a traveling direction of the vehicle. For the area, a threshold value used for identifying the type of the object is set higher than that of the fourth area that is equal to or greater than the second distance from the vehicle.

請求項7記載の発明は、請求項2から6のうちいずれか1項記載の車両制御システムであって、前記物体検出部は、画像を撮像する撮像部であって、物体のエッジの分布が記憶された物体モデル情報を格納する記憶部を、更に備え、前記認識部は、前記撮像部により撮像された時系列の画像からエッジを抽出し、抽出したエッジの分布と、前記記憶部が格納する物体モデル情報に記憶されたエッジの分布との類似度の指標を、前記時系列の画像ごとに導出し、前記時系列の画像ごとに導出した類似度の指標の変動に基づいて、前記物体を認識するものである。   A seventh aspect of the present invention is the vehicle control system according to any one of the second to sixth aspects, wherein the object detection unit is an imaging unit that captures an image, and an object edge distribution is A storage unit configured to store the stored object model information, wherein the recognition unit extracts edges from a time-series image captured by the imaging unit, and the distribution of the extracted edges and the storage unit store An index of similarity with the edge distribution stored in the object model information is derived for each of the time-series images, and based on the variation of the similarity index derived for each of the time-series images, the object Is to recognize.

請求項8記載の発明は、コンピュータが、車両の周辺の物体を検出し、前記車両と前記検出された物体との位置関係を求めると共に、前記検出された物体の種別を識別する処理を実行し、前記求めた位置関係に基づいて、前記物体の種別を識別する処理の内容を変更し、前記識別結果に基づいて、前記車両の走行を支援する車両制御方法である。   According to an eighth aspect of the present invention, the computer detects an object around the vehicle, obtains a positional relationship between the vehicle and the detected object, and executes a process of identifying the type of the detected object. The vehicle control method is configured to change the content of the process for identifying the type of the object based on the obtained positional relationship, and to support the traveling of the vehicle based on the identification result.

請求項9記載の発明は、コンピュータに、車両の周辺の物体を検出させ、前記車両と前記検出された物体との位置関係を求めると共に、前記検出された物体の種別を識別する処理を実行させ、前記求めた位置関係に基づいて、前記物体の種別を識別する処理の内容を変更させ、前記識別結果に基づいて、前記車両の走行を支援させる車両制御プログラムである。   The invention according to claim 9 causes a computer to detect an object around the vehicle, obtain a positional relationship between the vehicle and the detected object, and execute a process of identifying the type of the detected object. The vehicle control program changes the content of the process for identifying the type of the object based on the obtained positional relationship, and assists the vehicle on the basis of the identification result.

請求項1から9記載の発明によれば、車両と物体検出部により検出された物体との位置関係に基づいて、前記物体の種別を識別する処理の内容を変更することにより、運転者が意図しないタイミングでの警報等を抑制すると共に、精度よく物体を認識することができる。また、走行制御部は、認識部の識別結果に基づいて、車両の走行を支援することにより、周辺の状況に応じた車両の制御を実現することができる。   According to the first to ninth aspects of the present invention, the driver intends to change the content of the process for identifying the type of the object based on the positional relationship between the vehicle and the object detected by the object detection unit. It is possible to suppress an alarm or the like at a timing when it is not performed and accurately recognize an object. In addition, the travel control unit can realize vehicle control according to the surrounding situation by assisting the vehicle travel based on the identification result of the recognition unit.

物体認識装置20を含む車両制御システム1の機能構成の一例を示す図である。2 is a diagram illustrating an example of a functional configuration of a vehicle control system 1 including an object recognition device 20. FIG. 歩行者モデル情報64の内容を模式的に示した図である。It is the figure which showed the content of the pedestrian model information 64 typically. 物体認識装置20により実行される処理の流れを示すフローチャートである。4 is a flowchart showing a flow of processing executed by the object recognition device 20. 処理部36により実行される閾値の設定処理の流れを示すフローチャートである。4 is a flowchart illustrating a flow of threshold setting processing executed by a processing unit. 候補領域が進行方向軌跡内に存在する場合に設定される閾値を説明するための図である。It is a figure for demonstrating the threshold value set when a candidate area | region exists in the advancing direction locus | trajectory. 自車両の横方向の位置に基づいて設定される閾値を説明するための図である。It is a figure for demonstrating the threshold set based on the position of the horizontal direction of the own vehicle. 進行方向に関する距離に応じて設定される閾値を説明するための図である。It is a figure for demonstrating the threshold value set according to the distance regarding the advancing direction. 第2の距離に基づいて閾値が設定される処理が省略される場合の一例を示す図である。It is a figure which shows an example in case the process which sets a threshold value based on 2nd distance is abbreviate | omitted. 第1の距離に基づいて閾値が設定される処理が省略される場合の一例を示す図である。It is a figure which shows an example when the process which sets a threshold value based on 1st distance is abbreviate | omitted. ラップ量について説明するための図である。It is a figure for demonstrating the amount of laps. 横断歩行者の姿勢と類似度の指標の変動との関係について説明するための図である。It is a figure for demonstrating the relationship between the attitude | position of a crossing pedestrian and the fluctuation | variation of the parameter | index of a similarity degree. 横断歩行者でないと識別される類似度の指標の変動について説明するための図である。It is a figure for demonstrating the fluctuation | variation of the parameter | index of the similarity identified as not being a crossing pedestrian. 第2の実施形態の物体認識装置20により実行される処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the process performed by the object recognition apparatus 20 of 2nd Embodiment. 第2の実施形態の車両制御システム1Aの機能構成の一例を示す図である。It is a figure which shows an example of a function structure of 1 A of vehicle control systems of 2nd Embodiment.

以下、図面を参照し、本発明の車両制御システム、車両制御方法、および車両制御プログラムの実施形態について説明する。   Hereinafter, embodiments of a vehicle control system, a vehicle control method, and a vehicle control program of the present invention will be described with reference to the drawings.

<第1実施形態>
図1は、物体認識装置20を含む車両制御システム1の機能構成の一例を示す図である。車両制御システム1は、例えば、レーダ装置10、カメラ12、車両センサ14、物体認識装置20、車両制御装置70、走行駆動装置72、およびブレーキ装置74を備える。
<First Embodiment>
FIG. 1 is a diagram illustrating an example of a functional configuration of a vehicle control system 1 including an object recognition device 20. The vehicle control system 1 includes, for example, a radar device 10, a camera 12, a vehicle sensor 14, an object recognition device 20, a vehicle control device 70, a travel drive device 72, and a brake device 74.

レーダ装置10は、例えば、車両制御システム1が搭載された車両(以下、自車両)のバンパーや、フロントグリル等の周辺に設けられる。レーダ装置10は、例えば、自車両の前方にミリ波を放射し、放射したミリ波が物体に当たって反射した反射波を受信し、受信した反射波を解析することにより、物体の位置を特定する。物体の位置は、例えば自車両から物体までの距離を少なくとも含み、その他、自車両に対する物体の方位や横位置等を含んでもよい。レーダ装置10は、例えばFM−CW(Frequency−Modulated Continuous Wave)方式によって物体の位置を検出し、検出結果を物体認識装置20に出力する。レーダ装置10は、「物体検出部」の一例である。   The radar apparatus 10 is provided, for example, in the vicinity of a bumper of a vehicle (hereinafter referred to as the host vehicle) on which the vehicle control system 1 is mounted, a front grille, and the like. For example, the radar apparatus 10 radiates a millimeter wave in front of the host vehicle, receives a reflected wave reflected by the radiated millimeter wave hitting the object, and analyzes the received reflected wave, thereby specifying the position of the object. The position of the object includes, for example, at least a distance from the own vehicle to the object, and may include an azimuth or a lateral position of the object with respect to the own vehicle. The radar apparatus 10 detects the position of an object by, for example, FM-CW (Frequency-Modulated Continuous Wave) method, and outputs the detection result to the object recognition apparatus 20. The radar apparatus 10 is an example of an “object detection unit”.

カメラ12は、CCD(Charge Couple Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ12は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ12は、例えば、周期的に繰り返し自車両の前方を撮像する。カメラ12は、例えば、画像を撮像し、撮像した画像を物体認識装置20に出力する。カメラ12は、1台に限らず、自車両に複数設けられてもよいし、複数のカメラを含むステレオカメラであってもよい。カメラ12は、「物体検出部」の一例である。   The camera 12 is a digital camera using a solid-state imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). The camera 12 is attached to the upper part of the front windshield, the rear surface of the rearview mirror, etc. For example, the camera 12 periodically images the front of the host vehicle. For example, the camera 12 captures an image and outputs the captured image to the object recognition device 20. The camera 12 is not limited to one, and a plurality of cameras 12 may be provided in the host vehicle, or a stereo camera including a plurality of cameras may be used. The camera 12 is an example of an “object detection unit”.

車両センサ14は、車速を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両の向きを検出する方位センサ等を含む。車両センサ14は、各センサの検出結果を車両制御装置70に出力する。   The vehicle sensor 14 includes a vehicle speed sensor that detects a vehicle speed, an acceleration sensor that detects acceleration, a yaw rate sensor that detects an angular velocity around a vertical axis, a direction sensor that detects the direction of the host vehicle, and the like. The vehicle sensor 14 outputs the detection result of each sensor to the vehicle control device 70.

物体認識装置20は、例えば、画像取得部30、画像認識部32、周辺状況認識部50、および記憶部60を備える。画像取得部30、画像認識部32、および周辺状況認識部50のうち、一部または全部は、プロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらのうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。また、物体認識装置20に含まれる各機能部は、複数のコンピュータ装置によって分散化されたものであってもよい。記憶部60は、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等で実現される。   The object recognition device 20 includes, for example, an image acquisition unit 30, an image recognition unit 32, a surrounding situation recognition unit 50, and a storage unit 60. Some or all of the image acquisition unit 30, the image recognition unit 32, and the surrounding situation recognition unit 50 are realized by a processor executing a program (software). Some or all of these may be realized by hardware such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit), or may be realized by a combination of software and hardware. Further, each functional unit included in the object recognition device 20 may be distributed by a plurality of computer devices. The storage unit 60 is realized by a ROM (Read Only Memory), a RAM (Random Access Memory), an HDD (Hard Disk Drive), a flash memory, or the like.

画像取得部30は、カメラ12により撮像された画像を取得する。   The image acquisition unit 30 acquires an image captured by the camera 12.

画像認識部32は、例えば、特徴量抽出部34、処理部36、および識別部38を備える。処理部36は、車両と画像取得部30により取得された画像における処理対象となる領域(物体が含まれる領域)との位置関係を求める。例えば、処理部36は、カメラ12の位置や、カメラ12の焦点距離、画像における無限遠点(例えば道路消失点)等のパラメータに基づいて処理対象の領域に対応する位置を導出する。   The image recognition unit 32 includes, for example, a feature amount extraction unit 34, a processing unit 36, and an identification unit 38. The processing unit 36 obtains the positional relationship between the vehicle and the region to be processed (region including the object) in the image acquired by the image acquisition unit 30. For example, the processing unit 36 derives a position corresponding to the region to be processed based on parameters such as the position of the camera 12, the focal length of the camera 12, and an infinite point (for example, a road vanishing point) in the image.

特徴量抽出部34は、画像取得部30により取得された画像から特徴量を取得し、取得した特徴量からエッジを導出する。エッジとは、周辺画素または画素をグループ化した画素群との輝度差や色彩パラメータの差が基準より大きく変化する画素または画素群である。例えば、エッジは、SOBELフィルタなどにより周辺の画素または画素群の間において特徴量の変化が求められることで導出される。   The feature amount extraction unit 34 acquires a feature amount from the image acquired by the image acquisition unit 30, and derives an edge from the acquired feature amount. An edge is a pixel or a pixel group in which a luminance difference or a color parameter difference from a peripheral pixel or a pixel group obtained by grouping pixels changes more than a reference. For example, the edge is derived by obtaining a change in the feature amount between neighboring pixels or pixel groups using a SOBEL filter or the like.

処理部36は、求めた位置関係に基づいて、物体の種別を識別する処理の内容を変更する。以下の説明では、識別する対象の物体の種別は、歩行者であるものとして説明する。
物体の種別を識別する処理の内容の変更とは、識別部38が物体を歩行者であると識別する処理に用いる閾値を変更することである。処理部36は、識別部38により識別された実空間上の歩行者の位置を導出する。処理部36は、時系列の画像における物体(例えば歩行者)の位置の変化に基づいて、その物体の移動方向や移動速度等を導出する。
The processing unit 36 changes the content of the process for identifying the type of the object based on the obtained positional relationship. In the following description, it is assumed that the type of the object to be identified is a pedestrian.
The change in the content of the process for identifying the type of the object is to change the threshold value used for the process in which the identification unit 38 identifies the object as a pedestrian. The processing unit 36 derives the position of the pedestrian in the real space identified by the identifying unit 38. The processing unit 36 derives the moving direction, moving speed, and the like of the object based on the change in the position of the object (for example, a pedestrian) in the time-series image.

識別部38は、特徴量抽出部34により抽出された特徴量と、記憶部60に記憶された歩行者モデル情報64とに基づいて物体が歩行者であるか否かを識別する。   The identification unit 38 identifies whether the object is a pedestrian based on the feature amount extracted by the feature amount extraction unit 34 and the pedestrian model information 64 stored in the storage unit 60.

周辺状況認識部50は、レーダ装置10の検出結果を取得し、取得した結果に基づいて、物体の位置を認識する。また、周辺状況認識部50は、画像認識部32の処理結果として、実空間上の歩行者の位置を取得する。なお、周辺状況認識部50は、レーダ装置10によって特定された物体の位置のうち自車両からの距離を重視すると共に、画像認識部32から取得した歩行者の位置のうち方位または横位置を重視する傾向で、これらの位置を統合し、歩行者の位置を認識してもよい。また、レーダ装置10に代えて(または、加えて)レーザレーダ、超音波センサ等のセンサを備えてもよい。   The surrounding situation recognition unit 50 acquires the detection result of the radar device 10, and recognizes the position of the object based on the acquired result. Moreover, the surrounding situation recognition part 50 acquires the position of the pedestrian in real space as a process result of the image recognition part 32. FIG. The surrounding situation recognition unit 50 places importance on the distance from the host vehicle among the positions of the objects specified by the radar apparatus 10 and also places importance on the azimuth or lateral position among the positions of the pedestrians acquired from the image recognition unit 32. Therefore, these positions may be integrated to recognize the position of the pedestrian. Further, instead of (or in addition to) the radar apparatus 10, a sensor such as a laser radar or an ultrasonic sensor may be provided.

また、周辺状況認識部50は、車車間通信や、道路を歩行、または横断する歩行者を検出するセンサから取得した情報に基づいて、歩行者の位置や速度等を検出してもよい。この場合、自車両は、他の車両や、道路を走行する車両を検出するセンサ等と通信する通信部を備える。   Moreover, the surrounding state recognition part 50 may detect the position, speed, etc. of a pedestrian based on the information acquired from the vehicle-to-vehicle communication or the sensor which detects the pedestrian who walks or crosses a road. In this case, the host vehicle includes a communication unit that communicates with another vehicle, a sensor that detects a vehicle traveling on the road, and the like.

車両制御装置70は、車両センサ14の検出結果、および周辺状況認識部50により認識された歩行者の位置に基づいて、自車両を制御する。例えば、車両制御装置70は、認識された歩行者とのTTC(Time To Collision)が一定以下になったときにブレーキ装置74に制動力を出力させる自動ブレーキ制御を行う。また、車両制御装置70は、スピーカ(不図示)に警報を出力させてもよい。また、車両制御装置70は、歩行者との距離が一定距離以下に近づかないように走行駆動装置72またはブレーキ装置74を制御してもよい。車両制御装置70は、「走行支援部」の一例である。   The vehicle control device 70 controls the host vehicle based on the detection result of the vehicle sensor 14 and the position of the pedestrian recognized by the surrounding situation recognition unit 50. For example, the vehicle control device 70 performs an automatic brake control that causes the brake device 74 to output a braking force when a TTC (Time To Collision) with the recognized pedestrian falls below a certain level. Further, the vehicle control device 70 may cause a speaker (not shown) to output an alarm. Further, the vehicle control device 70 may control the travel drive device 72 or the brake device 74 so that the distance from the pedestrian does not approach a certain distance or less. The vehicle control device 70 is an example of a “running support unit”.

記憶部60には、例えば、簡易モデル情報62、歩行者モデル情報64や、その他車両を制御するための制御プログラム等が記憶される。簡易モデル情報62は、歩行者モデル情報64よりも緩やかな基準で生成された歩行者のエッジの分布を表す歩行者モデル情報である。緩やかな基準とは、エッジの分布が歩行者モデル情報64に含まれる歩行者のエッジの分布に比して少ないことをいう。歩行者モデル情報64には、少なくとも、歩行者のエッジの分布を表す歩行者モデル情報が、その物体の識別情報と共に記憶されている。   The storage unit 60 stores, for example, simple model information 62, pedestrian model information 64, and other control programs for controlling the vehicle. The simple model information 62 is pedestrian model information that represents a pedestrian edge distribution generated based on a gentler standard than the pedestrian model information 64. The gradual reference means that the edge distribution is smaller than the pedestrian edge distribution included in the pedestrian model information 64. In the pedestrian model information 64, at least pedestrian model information representing the distribution of pedestrian edges is stored together with the identification information of the object.

図2は、歩行者モデル情報64の内容を模式的に示した図である。歩行者モデル情報64は、例えば、歩行者が撮像された画像から抽出されると想定されるエッジの分布を示している。この歩行者モデル情報64から、エッジが所定の間隔で間引かれたものが、簡易モデル情報62である。また、歩行者モデル情報64において、歩行者モデル情報は歩行者の部位ごとに細分化されて記憶されてよい。   FIG. 2 is a diagram schematically showing the contents of the pedestrian model information 64. The pedestrian model information 64 indicates, for example, an edge distribution assumed to be extracted from an image in which a pedestrian is captured. Simple model information 62 is obtained by thinning the edges from the pedestrian model information 64 at a predetermined interval. Moreover, in the pedestrian model information 64, the pedestrian model information may be subdivided and stored for each part of the pedestrian.

走行駆動装置72は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動装置72は、例えば、自車両が内燃機関を動力源とした自動車である場合、エンジン、変速機、およびエンジンを制御するエンジンECU(Electronic Control Unit)を備え、自車両が電動機を動力源とした電気自動車である場合、走行用モータおよび走行用モータを制御するモータECUを備え、自車両がハイブリッド自動車である場合、エンジン、変速機、およびエンジンECUと走行用モータおよびモータECUとを備える。走行駆動装置72がエンジンのみを含む場合、エンジンECUは、後述する車両制御装置70から入力される情報に従って、エンジンのスロットル開度やシフト段等を調整する。走行駆動装置72が走行用モータのみを含む場合、モータECUは、車両制御装置70から入力される情報に従って、走行用モータに与えるPWM信号のデューティ比を調整する。走行駆動装置72がエンジンおよび走行用モータを含む場合、エンジンECUおよびモータECUは、車両制御装置70から入力される情報に従って、互いに協調して走行駆動力を制御する。   The travel drive device 72 outputs a travel drive force (torque) for traveling of the vehicle to the drive wheels. For example, when the host vehicle is an automobile using an internal combustion engine as a power source, the travel drive device 72 includes an engine, a transmission, and an engine ECU (Electronic Control Unit) that controls the engine, and the host vehicle uses the motor as a power source. When the vehicle is a hybrid vehicle, the vehicle includes an engine, a transmission, and an engine ECU, and a travel motor and a motor ECU. . When the travel drive device 72 includes only an engine, the engine ECU adjusts the throttle opening, shift stage, and the like of the engine according to information input from the vehicle control device 70 described later. When travel drive device 72 includes only the travel motor, motor ECU adjusts the duty ratio of the PWM signal applied to the travel motor in accordance with information input from vehicle control device 70. When travel drive device 72 includes an engine and a travel motor, engine ECU and motor ECU control the travel drive force in cooperation with each other in accordance with information input from vehicle control device 70.

ブレーキ装置74は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、制動制御部とを備える電動サーボブレーキ装置である。電動サーボブレーキ装置の制動制御部は、不図示の自動ブレーキ制御部により出力された情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。電動サーボブレーキ装置は、ブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置74は、上記説明した電動サーボブレーキ装置に限らず、電子制御式油圧ブレーキ装置であってもよい。電子制御式油圧ブレーキ装置は、車両制御装置70により出力された情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する。また、自車両が走行用モータを含む場合、ブレーキ装置74は、走行駆動装置72のところで説明した走行用モータによる回生ブレーキを含んでもよい。   The brake device 74 is, for example, an electric servo brake device that includes a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a braking control unit. The braking control unit of the electric servo brake device controls the electric motor according to the information output by an automatic brake control unit (not shown) so that the brake torque corresponding to the braking operation is output to each wheel. The electric servo brake device may include, as a backup, a mechanism that transmits the hydraulic pressure generated by operating the brake pedal to the cylinder via the master cylinder. The brake device 74 is not limited to the electric servo brake device described above, but may be an electronically controlled hydraulic brake device. The electronically controlled hydraulic brake device controls the actuator according to the information output by the vehicle control device 70, and transmits the hydraulic pressure of the master cylinder to the cylinder. Further, when the host vehicle includes a travel motor, the brake device 74 may include a regenerative brake by the travel motor described in the travel drive device 72.

図3は、物体認識装置20により実行される処理の流れを示すフローチャートである。
本処理は、例えば、画像取得部30が、カメラ12により撮像された画像を取得するごとに実行される。なお、このフローチャートの処理は、繰り返し実行されることを前提とし、今回のルーチンでの時刻をtとして表現している。
FIG. 3 is a flowchart showing a flow of processing executed by the object recognition device 20.
This process is executed each time the image acquisition unit 30 acquires an image captured by the camera 12, for example. Note that the process of this flowchart is expressed as t in the current routine on the premise that the process is repeatedly executed.

まず、画像取得部30が、カメラ12により撮像された画像を取得する(ステップS100)。次に、特徴量抽出部34が、ステップS100で取得された画像からエッジを抽出する(ステップS102)。次に、処理部36が、歩行者が時刻t−1において(すなわち前回のルーチンにおいて)横断歩行者を認識したか否かを判定する(ステップS104)。横断歩行者とは、自車両の進行方向に対して横方向に移動している歩行者である。横方向に移動しているとは、歩行者の移動軌跡を移動方向に対して仮想的に延出させた仮想線と、自車両の移動軌跡を移動方向に対して仮想的に延出させた仮想線とが直交する場合に加え、これらの仮想線が交差する場合も含む。   First, the image acquisition unit 30 acquires an image captured by the camera 12 (step S100). Next, the feature amount extraction unit 34 extracts an edge from the image acquired in step S100 (step S102). Next, the processing unit 36 determines whether or not the pedestrian has recognized the crossing pedestrian at time t-1 (that is, in the previous routine) (step S104). A crossing pedestrian is a pedestrian who is moving laterally with respect to the traveling direction of the host vehicle. Moving in the horizontal direction means that the pedestrian's movement locus is virtually extended with respect to the movement direction, and the own vehicle's movement locus is virtually extended with respect to the movement direction. In addition to the case where the virtual lines are orthogonal, the case where these virtual lines intersect is also included.

歩行者が時刻t−1において横断歩行者を認識していない場合、処理部36は、候補領域を抽出する(ステップS106)。ステップS106における候補領域は、画像に含まれる領域が複数の領域に細分化された領域のうち、歩行者が存在している可能性が高い領域である。処理部36は、抽出されたエッジの分布と、簡易モデル情報62のエッジの分布との類似度が所定以上のエッジの分布を含む領域を候補領域として抽出する。また、処理部36は、例えば、レーダ装置10により物体が検出された領域や、所定数以上のエッジが含まれる領域を候補領域として抽出してもよい。   When the pedestrian does not recognize the crossing pedestrian at time t-1, the processing unit 36 extracts a candidate area (step S106). The candidate area in step S106 is an area where a pedestrian is likely to exist among areas obtained by subdividing the area included in the image into a plurality of areas. The processing unit 36 extracts, as candidate areas, areas including edge distributions whose similarity between the extracted edge distribution and the edge distribution of the simplified model information 62 is greater than or equal to a predetermined value. For example, the processing unit 36 may extract a region where an object is detected by the radar device 10 or a region including a predetermined number of edges or more as candidate regions.

次に、処理部36は、ステップS106で抽出した候補領域に歩行者が存在するか否かを識別するために、自車両と物体との位置関係に基づいて、歩行者を識別する処理に用いる閾値を設定する(ステップS108)。位置関係とは、例えば、実平面上の自車両の位置と物体の位置との関係である。なお、閾値の設定の詳細については後述する。   Next, the processing unit 36 is used for the process of identifying a pedestrian based on the positional relationship between the vehicle and the object in order to identify whether or not a pedestrian exists in the candidate area extracted in step S106. A threshold value is set (step S108). The positional relationship is, for example, the relationship between the position of the host vehicle and the position of the object on the real plane. Details of the threshold setting will be described later.

次に、識別部38が、ステップS102で抽出されたエッジの分布、歩行者モデル情報64のエッジの分布、および処理部36により設定された閾値に基づいて、ステップS106で抽出された候補領域における物体が歩行者であるか否かを識別する(ステップS110)。例えば、識別部38は、抽出されたエッジの分布と、歩行者モデル情報64のエッジの分布との類似度が、ステップS108で設定された閾値以上の場合、抽出されたエッジの分布に対応する物体は歩行者であると識別する。   Next, based on the edge distribution extracted in step S102, the edge distribution of the pedestrian model information 64, and the threshold set by the processing unit 36, the identification unit 38 in the candidate region extracted in step S106. Whether or not the object is a pedestrian is identified (step S110). For example, the identification unit 38 corresponds to the extracted edge distribution when the similarity between the extracted edge distribution and the edge distribution of the pedestrian model information 64 is equal to or larger than the threshold set in step S108. The object is identified as a pedestrian.

一方、識別部38は、抽出されたエッジの分布と、歩行者モデル情報64のエッジの分布との類似度が、処理部36により設定された閾値未満の場合、抽出されたエッジの分布に対応する物体は歩行者でなくノイズや、道路における窪み、歩行者以外の物体であると識別する。この場合、識別部38は、抽出されたエッジの分布と、他のモデル情報の分布との類似度に基づいて、物体を識別してもよい。他のモデル情報とは、歩行者とは異なる物体の識別情報と、その物体のエッジの分布を表す情報とが対応付けられて記憶された情報である。歩行者とは異なる物体とは、例えば車両や、動物など、自車両が走行する際に注視すべき物体が類型化されたものである。他のモデル情報は、記憶部60に記憶される。   On the other hand, when the similarity between the extracted edge distribution and the edge distribution of the pedestrian model information 64 is less than the threshold set by the processing unit 36, the identification unit 38 corresponds to the extracted edge distribution. The object to be identified is not a pedestrian but noise, a depression on the road, or an object other than a pedestrian. In this case, the identification unit 38 may identify the object based on the similarity between the extracted edge distribution and the distribution of other model information. The other model information is information stored by associating identification information of an object different from the pedestrian and information indicating the distribution of the edge of the object. An object different from a pedestrian is a type of object to be watched when the host vehicle travels, such as a vehicle or an animal. Other model information is stored in the storage unit 60.

時刻t−1において横断歩行者を認識している場合、処理部36は、前回以前の画像に基づいて、候補領域を抽出する(ステップS112)。ステップS112における候補領域は、画像が複数の領域に細分化された領域のうち、追跡している歩行者が存在している可能性が高い領域である。処理部36は、例えば、前回以前の画像に基づいて導出された追跡している歩行者の移動方向や、移動速度に基づいて、今回のルーチンで取得した画像において歩行者が存在している可能性が高い候補領域を抽出する。   When the crossing pedestrian is recognized at time t−1, the processing unit 36 extracts a candidate area based on the previous image (step S112). The candidate area in step S112 is an area in which there is a high possibility that a pedestrian being tracked exists among areas obtained by subdividing the image into a plurality of areas. For example, the processing unit 36 may have a pedestrian in the image acquired in the current routine based on the moving direction and moving speed of the pedestrian tracked derived based on the previous image. A candidate region having a high probability is extracted.

次に、処理部36が、歩行者を識別する処理に用いる閾値を設定する(ステップS114)。処理部36は、例えば、候補領域の自車両に対する相対位置、追跡している歩行者の移動方向、追跡している歩行者の移動速度のうち少なくとも1つ以上の要素に基づいて、閾値を設定する。相対位置とは、実平面上の相対位置であり、画像平面上の位置から写像された位置である。ステップS114の処理の詳細については後述する。   Next, the process part 36 sets the threshold value used for the process which identifies a pedestrian (step S114). For example, the processing unit 36 sets a threshold based on at least one element among the relative position of the candidate area with respect to the host vehicle, the moving direction of the pedestrian being tracked, and the moving speed of the pedestrian being tracked. To do. The relative position is a relative position on the real plane and is a position mapped from a position on the image plane. Details of the processing in step S114 will be described later.

次に、識別部38が、ステップS102で抽出されたエッジの分布、歩行者モデル情報64の分布、および処理部36により設定された閾値に基づいて、ステップS112で抽出された候補領域における物体を識別する(ステップS116)。例えば、識別部38は、抽出されたエッジの分布と、歩行者モデル情報64の分布との類似度が、ステップS114で設定された閾値以上の場合、抽出されたエッジの分布に対応する物体は歩行者であると識別する。これにより、画像認識部32により横断歩行者が検出される。   Next, based on the edge distribution extracted in step S102, the distribution of the pedestrian model information 64, and the threshold set by the processing unit 36, the identification unit 38 selects objects in the candidate area extracted in step S112. Identify (step S116). For example, if the similarity between the extracted edge distribution and the distribution of the pedestrian model information 64 is equal to or greater than the threshold set in step S114, the identification unit 38 determines that the object corresponding to the extracted edge distribution is Identify as a pedestrian. Thereby, the crossing pedestrian is detected by the image recognition unit 32.

次に、画像認識部32は、検出された歩行者についてトラッキング処理を実行する(ステップS118)。画像認識部32は、例えば、トラッキングとして以下の処理を行う。画像認識部32は、例えば、識別した歩行者の自車両に対する相対位置を導出する。また、画像認識部32は、例えば、歩行者が前回以前のルーチンで検出されている場合、今回および前回以前のルーチンで導出された歩行者の相対位置に基づいて、歩行者の移動方向や、移動速度等を導出する。ここで導出された移動方向や、移動速度は、次のルーチンの処理で取得された画像おいて、歩行者の位置を推定する処理に用いられるため、画像認識部32は、歩行者に関する情報を記憶部60に記憶される。   Next, the image recognition unit 32 performs a tracking process for the detected pedestrian (step S118). For example, the image recognition unit 32 performs the following processing as tracking. For example, the image recognition unit 32 derives a relative position of the identified pedestrian with respect to the host vehicle. In addition, for example, when the pedestrian has been detected in the routine before the previous time, the image recognition unit 32, based on the relative position of the pedestrian derived in the current and previous routines, Deriving movement speed and the like. The moving direction and moving speed derived here are used for the process of estimating the position of the pedestrian in the image acquired by the process of the next routine. It is stored in the storage unit 60.

また、周辺状況認識部50は、画像認識部32の処理結果、およびレーダ装置10により特定された物体の情報を取得し、取得した情報に基づいて、自車両の周辺に存在する歩行者を把握する。そして、車両制御装置70は、周辺状況認識部50により把握された歩行者の位置や、移動方向等に基づいて、走行駆動装置72またはブレーキ装置74を制御する。これにより本フローチャートの処理は終了する。   Further, the surrounding situation recognition unit 50 acquires the processing result of the image recognition unit 32 and the information of the object specified by the radar apparatus 10, and grasps the pedestrians existing around the own vehicle based on the acquired information. To do. Then, the vehicle control device 70 controls the travel drive device 72 or the brake device 74 based on the position of the pedestrian, the moving direction, and the like ascertained by the surrounding situation recognition unit 50. Thereby, the process of this flowchart is complete | finished.

[閾値の設定の詳細(その1)]
ここで、ステップS108の閾値設定処理について説明する。図4は、処理部36により実行される閾値の設定処理の流れを示すフローチャートである。まず、処理部36が、図3のステップS106で抽出した候補領域が進行方向軌跡内に存在するか否かを判定する(ステップS200)。候補領域が進行方向軌跡内に存在する場合、候補領域において歩行者を識別する処理に用いる閾値を高く設定し(ステップS202)、候補領域が進行方向軌跡内に存在しない場合、ステップS204の処理に進む。進行方向軌跡は、自車両の左右端を自車両Mの中心軸方向に延出させた二本の線で囲まれた領域であってもよいし、操舵角等を考慮して曲がりを持って設定されてもよい。候補領域において歩行者を識別する処理に用いる閾値を高く設定とは、他の領域に比して相対的に閾値を高く設定することである(以下同様)。
[Details of threshold setting (part 1)]
Here, the threshold value setting process in step S108 will be described. FIG. 4 is a flowchart showing a flow of threshold setting processing executed by the processing unit 36. First, the processing unit 36 determines whether or not the candidate area extracted in step S106 of FIG. 3 exists in the traveling direction locus (step S200). When the candidate area exists in the traveling direction trajectory, the threshold used for the process of identifying the pedestrian in the candidate area is set high (step S202). When the candidate area does not exist in the traveling direction locus, the process of step S204 is performed. move on. The traveling direction trajectory may be a region surrounded by two lines extending from the left and right ends of the host vehicle in the direction of the central axis of the host vehicle M, and has a bend in consideration of the steering angle and the like. It may be set. Setting the threshold used for identifying a pedestrian in a candidate area to be high means that the threshold is set to be relatively high compared to other areas (the same applies hereinafter).

処理部36は、自車両から候補領域までの距離を算出する。距離が算出された候補領域の位置を、例えば図5に示すように上方から自車両を見た場合の二次元空間で表す。   The processing unit 36 calculates the distance from the own vehicle to the candidate area. The position of the candidate area for which the distance has been calculated is represented in a two-dimensional space when the host vehicle is viewed from above, for example, as shown in FIG.

図5は、候補領域が進行方向軌跡内に存在する場合に設定される閾値を説明するための図である。図中、X方向は自車両Mの横方向を表し、Y方向は自車両Mの進行方向を示している。また、図中、領域A1は、カメラ12により撮像される領域を表し、領域A2は、進行方向軌跡に対応する領域を表している。図中、領域CA1および領域CA2は、処理対象の候補領域を表している。   FIG. 5 is a diagram for explaining a threshold value that is set when a candidate region is present in the traveling direction locus. In the figure, the X direction represents the lateral direction of the host vehicle M, and the Y direction represents the traveling direction of the host vehicle M. In the figure, the area A1 represents an area captured by the camera 12, and the area A2 represents an area corresponding to the traveling direction locus. In the drawing, a region CA1 and a region CA2 represent candidate regions to be processed.

処理部36は、自車両Mの進行方向軌跡に対応する領域A2に含まれる領域CA1に対して、領域A2に含まれない領域CA2に比して、歩行者を識別する処理に用いる閾値を高く設定する。ここで、領域A2において、閾値が高く設定されないと、ノイズ等を歩行者であると認識する誤認識が生じる場合がある。この場合、車両制御装置70は、誤認識した結果に基づいて自車両Mを制御するため、煩わしい。一方、上述したように領域A2において、閾値が高く設定されると、誤認識が生じることが抑制されることで、不要な制御が行われること無く自車両Mの周辺状況に応じて自車両Mの制御を実現することができる。   The processing unit 36 increases the threshold used for the process of identifying a pedestrian as compared with the area CA2 not included in the area A2 with respect to the area CA1 included in the area A2 corresponding to the traveling direction locus of the host vehicle M. Set. Here, if the threshold value is not set high in the area A2, there may occur a misrecognition that recognizes noise or the like as a pedestrian. In this case, the vehicle control device 70 is troublesome because it controls the host vehicle M based on the erroneously recognized result. On the other hand, if the threshold value is set high in the area A2 as described above, the occurrence of erroneous recognition is suppressed, and unnecessary control is not performed, so that the host vehicle M can be used according to the surrounding situation of the host vehicle M. Can be realized.

次に、処理部36は、自車両Mの横方向の位置に基づいて、歩行者を識別する処理に用いる閾値を決定する(ステップS204)。図6は、自車両Mの横方向の位置に基づいて設定される閾値を説明するための図である。図中、領域CA11および領域CA12は、処理対象の候補領域を表している。仮想線LAは、仮想線LBに直交するように仮想的に延出された仮想線である。仮想線LBは、自車両Mから自車両Mの中心軸方向に仮想的に延出させた仮想線である。なお、図5と重複する説明は省略する。   Next, the process part 36 determines the threshold value used for the process which identifies a pedestrian based on the position of the horizontal direction of the own vehicle M (step S204). FIG. 6 is a diagram for explaining a threshold set based on the position of the host vehicle M in the lateral direction. In the figure, an area CA11 and an area CA12 represent candidate areas to be processed. The virtual line LA is a virtual line that is virtually extended so as to be orthogonal to the virtual line LB. The virtual line LB is a virtual line that virtually extends from the host vehicle M in the direction of the central axis of the host vehicle M. In addition, the description which overlaps with FIG.

処理部36は、自車両Mの横方向の位置に関して、自車両Mから遠い領域ほど、閾値を低く設定する。図示する例では、処理部36は、領域CA12と仮想線LBとの距離を示す仮想線LA2の長さは、領域CA11と仮想線LBとの距離を示す仮想線LA1の長さに比して長いため、領域CA12において歩行者を識別する処理に用いる閾値は、領域CA11において歩行者を識別する処理に用いる閾値より低く設定される。自車両Mの横方向の位置に関して、自車両Mから遠い領域にいる歩行者は、この時点では注視する対象とならないため、上記のように閾値が低く設定されても問題はない。むしろ、閾値が低く設定されることで、物体を歩行者として認識しやすくし、認識した歩行者を追跡の対象とすることができる。これにより、以降の処理において、認識された物体の種別をより確実に認識することができる。   The processing unit 36 sets a lower threshold for the lateral position of the host vehicle M in a region farther from the host vehicle M. In the example shown in the figure, the processing unit 36 compares the length of the virtual line LA2 indicating the distance between the area CA12 and the virtual line LB with respect to the length of the virtual line LA1 indicating the distance between the area CA11 and the virtual line LB. Since it is long, the threshold used for the process for identifying the pedestrian in the area CA12 is set lower than the threshold used for the process for identifying the pedestrian in the area CA11. As for the lateral position of the host vehicle M, a pedestrian who is in a region far from the host vehicle M is not a target to be watched at this point, so there is no problem even if the threshold value is set low as described above. Rather, by setting the threshold value low, the object can be easily recognized as a pedestrian, and the recognized pedestrian can be set as a tracking target. Thereby, it is possible to more reliably recognize the recognized object type in the subsequent processing.

次に、処理部36は、自車両Mの進行方向に関して、ステップS106で抽出された候補領域が自車両Mから第1の距離以上の領域に含まれるか否かを判定する(ステップS206)。第1の距離以上の領域に候補領域が存在する場合、処理部36は、候補領域において歩行者を識別する処理に用いる閾値を高く設定し(ステップS208)、第1の距離以上の領域に候補領域が存在しない場合、ステップS210の処理に進む。   Next, the processing unit 36 determines whether or not the candidate area extracted in step S106 is included in an area equal to or greater than the first distance from the host vehicle M with respect to the traveling direction of the host vehicle M (step S206). When there is a candidate area in the area that is equal to or greater than the first distance, the processing unit 36 sets a high threshold to be used for the process of identifying the pedestrian in the candidate area (step S208), and the candidate is set in the area that is equal to or greater than the first distance. If the area does not exist, the process proceeds to step S210.

次に、処理部36は、自車両Mの進行方向に関して、ステップS106で抽出された候補領域が自車両Mから第2の距離未満の領域に存在するか否かを判定する(ステップS210)。第2の距離未満の領域に候補領域が存在する場合、処理部36は、候補領域において歩行者を識別する処理に用いる閾値を高く設定し(ステップS212)、第2の距離未満の領域に候補領域が存在しない場合、本フローチャートの処理は終了する。   Next, the processing unit 36 determines whether or not the candidate area extracted in Step S106 exists in an area less than the second distance from the own vehicle M with respect to the traveling direction of the own vehicle M (Step S210). When there is a candidate area in the area less than the second distance, the processing unit 36 sets a high threshold to be used for the process of identifying the pedestrian in the candidate area (step S212), and the candidate is set in the area below the second distance. If the area does not exist, the process of this flowchart ends.

図7は、進行方向に関する距離に応じて設定される閾値を説明するための図である。図中、領域A11は、自車両Mの基準点(例えば重心)から自車両Mの進行方向に対して第1の距離以上の領域である。領域A11は、「第1領域」の一例である。第1の距離以上の領域においては、物体が小さく認識されているため、候補領域に含まれる対象が歩行者であるか、ノイズ等であるかの識別が困難な場合がある。このため、処理部36は、第1の距離以上の候補領域においては、歩行者(図中、OB1)を識別する処理に用いる閾値を高く設定することで、誤認識を抑制する。   FIG. 7 is a diagram for explaining a threshold value set according to the distance in the traveling direction. In the figure, a region A11 is a region equal to or greater than a first distance from the reference point (for example, the center of gravity) of the host vehicle M with respect to the traveling direction of the host vehicle M. The area A11 is an example of a “first area”. In an area greater than or equal to the first distance, since an object is recognized as being small, it may be difficult to identify whether the target included in the candidate area is a pedestrian or noise. For this reason, the processing unit 36 suppresses misrecognition by setting a high threshold to be used for the process of identifying a pedestrian (OB1 in the figure) in the candidate region of the first distance or more.

図中、領域A12は、自車両Mの基準点から自車両Mの進行方向に対して第2の距離未満の候補領域である。領域A12は、「第3領域」の一例である。第2の距離未満の領域においては、誤認識によりノイズ等を歩行者であると識別すると、自車両Mは歩行者を回避する動作や急制動等を行うことがあり、自車両Mの走行状態が不安定となる。このため、処理部36は、第2の距離未満の領域においては、歩行者(図中、OB2)を識別する処理に用いる閾値を高く設定することで、誤認識を抑制する。   In the figure, a region A12 is a candidate region that is less than the second distance from the reference point of the host vehicle M with respect to the traveling direction of the host vehicle M. The area A12 is an example of a “third area”. In an area less than the second distance, if noise or the like is identified as a pedestrian due to misrecognition, the host vehicle M may perform an operation to avoid the pedestrian, sudden braking, or the like. Becomes unstable. For this reason, the processing unit 36 suppresses misrecognition by setting a high threshold value for use in the process of identifying a pedestrian (OB2 in the figure) in an area less than the second distance.

なお、処理部36は、自車両Mの進行方向に対して第1の距離に至る手前、且つ第2の距離以上となる領域A13に存在する物体OB3を識別する処理に用いる閾値は変化させない。領域A13は、「車両から第1の距離に至る手前の第2領域」、および「車両から第2の距離以上となる第4領域」の一例である。   Note that the processing unit 36 does not change the threshold value used for the process of identifying the object OB3 existing in the region A13 that is in the area closer to the first distance than the second distance in the traveling direction of the host vehicle M. The region A13 is an example of “a second region before the first distance from the vehicle” and “a fourth region that is equal to or more than the second distance from the vehicle”.

なお、図示する例では、第1の距離と第2の距離とは異なる距離であるものとして説明したが、同じ距離であってもよい。   In the illustrated example, the first distance and the second distance are described as different distances, but the same distance may be used.

また、第1の距離に基づいて閾値が設定される処理(ステップS206、ステップS208)と、第2の距離に基づいて閾値が設定される処理(ステップS210およびステップS212)とのうち、一方の処理は省略されてもよい。   In addition, one of a process for setting a threshold based on the first distance (steps S206 and S208) and a process for setting a threshold based on the second distance (steps S210 and S212). Processing may be omitted.

図8は、第2の距離に基づいて閾値が設定される処理が省略される場合の一例を示す図である。図7と重複する説明は省略する。図中、領域A13#は、自車両Mの基準点から自車両Mの進行方向に対して第1の距離未満の領域である。領域A13#は、「車両から第1の距離に至る手前の第2領域」の一例である。処理部36は、第1の距離以上の領域においては、歩行者(図中、OB1)を識別する処理に用いる閾値を、車両から第1の距離に至る手前の領域A13#に比して高く設定することで、誤認識を抑制する。   FIG. 8 is a diagram illustrating an example of a case where the process of setting a threshold based on the second distance is omitted. The description overlapping with FIG. 7 is omitted. In the drawing, a region A13 # is a region less than the first distance from the reference point of the host vehicle M with respect to the traveling direction of the host vehicle M. The area A13 # is an example of “a second area in front of reaching the first distance from the vehicle”. In the area equal to or greater than the first distance, the processing unit 36 sets the threshold used for the process for identifying the pedestrian (OB1 in the figure) higher than the area A13 # in front of the vehicle from the vehicle to the first distance. By setting, erroneous recognition is suppressed.

図9は、第1の距離に基づいて閾値が設定される処理が省略される場合の一例を示す図である。図7と重複する説明は省略する。図中、領域A13##は、自車両Mの基準点から自車両Mの進行方向に対して第2の距離以上となる候補領域である。領域A13##は、「車両から第2の距離以上となる第4領域」の一例である。処理部36は、第2の距離未満の領域においては、歩行者(図中、OB2)を識別する処理に用いる閾値を、車両から第2の距離以上となる領域A13##に比して、高く設定することで、誤認識を抑制する。   FIG. 9 is a diagram illustrating an example of a case where the process of setting the threshold based on the first distance is omitted. The description overlapping with FIG. 7 is omitted. In the figure, a region A13 ## is a candidate region that is at least a second distance from the reference point of the host vehicle M with respect to the traveling direction of the host vehicle M. Area A13 ## is an example of “fourth area that is equal to or greater than the second distance from the vehicle”. In the area less than the second distance, the processing unit 36 sets the threshold value used for the process of identifying the pedestrian (OB2 in the figure) as compared to the area A13 ## that is equal to or greater than the second distance from the vehicle. Setting it higher suppresses misrecognition.

また、処理部36は、自車両Mと候補領域の距離に基づく処理に代えて、物体の大きさに基づいて、閾値を変更してもよい。例えば、処理部36は、物体の大きさが所定の大きさ以下の場合、閾値を高く設定してもよい。   Further, the processing unit 36 may change the threshold value based on the size of the object instead of the processing based on the distance between the host vehicle M and the candidate area. For example, the processing unit 36 may set the threshold value high when the size of the object is equal to or smaller than a predetermined size.

[閾値の設定の詳細(その2)]
ここで、図3のステップS114で処理部36が、物体を識別する処理に用いる閾値を設定する処理について説明する。処理部36は、ステップS106で抽出された歩行者が存在している可能性が高い領域である候補領域について、その候補領域が進行方向軌跡内に存在する場合、候補領域において歩行者を識別する処理に用いる閾値を高く設定するが、自車両Mの進行方向に横断歩行者が存在していると判定された場合はこの限りではなく、進行方向軌跡内の候補領域の閾値を低く設定する。これにより、横断歩行者の検出安定性を向上させることができる。また、閾値を低く設定するに当たってさらに条件を追加し、候補領域が進行方向軌跡内に存在し、且つ、自車両Mと横断歩行者との衝突の可能性が高い場合には、候補領域において歩行者を識別する処理に用いる閾値を低く設定してもよい。衝突の可能性が高いとは、横断歩行者が進行方向軌跡内に存在していると予測される時間において、横断歩行者が存在している領域を自車両Mが通過、またはその領域付近に接近することが予測することができることである。
[Details of threshold setting (part 2)]
Here, the process in which the processing unit 36 sets a threshold value used for the object identifying process in step S114 in FIG. 3 will be described. The processing unit 36 identifies a pedestrian in the candidate area when the candidate area is in the traveling direction locus with respect to the candidate area that is highly likely to be the pedestrian extracted in step S106. The threshold value used for the process is set high, but this is not the case when it is determined that there is a crossing pedestrian in the traveling direction of the host vehicle M, and the threshold value of the candidate region in the traveling direction locus is set low. Thereby, the detection stability of a crossing pedestrian can be improved. Further, a condition is further added to set the threshold value low, and if the candidate area exists in the traveling direction trajectory and the possibility of collision between the own vehicle M and the crossing pedestrian is high, walking is performed in the candidate area. The threshold used for the process of identifying a person may be set low. The possibility of a collision is high when the own vehicle M passes through the area where the crossing pedestrian is present or in the vicinity of the area where the crossing pedestrian is predicted to exist in the traveling direction trajectory. It is possible to predict approaching.

例えば、処理部36は、時系列における横断歩行者の位置および移動速度に基づいて、横断歩行者が進行方向軌跡内に存在していると予測される時間帯、または横断歩行者が進行方向軌跡内から進行方向軌跡外に移動すると予測される時刻を導出する。処理部36は、現在の時刻から横断歩行者が進行方向軌跡内から進行方向軌跡外に移動すると予測される時刻との間の時間に対して、自車両Mの速度を乗算することにより、自車両Mの将来位置を予測する。この場合、処理部36は、自車両Mの進行方向において、自車両Mの将来位置が、横断歩行者の位置よりも所定距離以上手前であれば、衝突の可能性は低いと判定し、所定距離以上手前でない、または予測した横断歩行者の位置を通過している場合は、衝突の可能性が高いと判定する。   For example, the processing unit 36 determines a time zone in which the crossing pedestrian is predicted to exist in the traveling direction trajectory based on the position and moving speed of the crossing pedestrian in time series, or the crossing pedestrian travels in the traveling direction trajectory. The time predicted to move out of the trajectory in the traveling direction is derived. The processing unit 36 multiplies the speed of the host vehicle M by the time between the current time and the time when the crossing pedestrian is predicted to move out of the traveling direction trajectory from the traveling direction trajectory. The future position of the vehicle M is predicted. In this case, the processing unit 36 determines that the possibility of a collision is low if the future position of the host vehicle M is a predetermined distance or more before the position of the crossing pedestrian in the traveling direction of the host vehicle M. If the distance is not more than the distance or the predicted position of the crossing pedestrian is passing, it is determined that the possibility of the collision is high.

また、処理部36は、衝突地点を横断歩行者がほぼ通過していない場合において、自車両Mの進行方向軌跡と、横断歩行者の移動方向の軌跡である移動軌跡との重なり量を評価する指標値であるラップ量およびラップ率を用いて、衝突の可能性を判定してもよい。衝突地点とは、自車両Mの進行方向軌跡と、歩行者の移動軌跡との重なる部分である。   Further, the processing unit 36 evaluates the amount of overlap between the traveling direction trajectory of the host vehicle M and the moving trajectory that is the trajectory in the moving direction of the crossing pedestrian when the crossing pedestrian has not substantially passed the collision point. You may determine the possibility of a collision using the lap amount and lap ratio which are index values. The collision point is a portion where the traveling direction trajectory of the host vehicle M and the movement trajectory of the pedestrian overlap.

図10は、ラップ量について説明するための図である。図中、横断歩行者OB1#は、自車両Mが衝突地点に到達する予想時刻における歩行者の予想位置である。また、y1は自車両Mの左端部から自車両Mの進行方向に延出する仮想線であり、y2は自車両Mの右端部から自車両Mの進行方向に延出する仮想線である。   FIG. 10 is a diagram for explaining the lap amount. In the figure, the crossing pedestrian OB1 # is the predicted position of the pedestrian at the predicted time when the host vehicle M reaches the collision point. Further, y1 is a virtual line extending from the left end portion of the host vehicle M in the traveling direction of the host vehicle M, and y2 is a virtual line extending from the right end portion of the host vehicle M in the traveling direction of the host vehicle M.

処理部36は、横断歩行者の予想位置を求め、横断歩行者OB1#の移動する方向を考慮した前端部(この場合、左端部H1L)から、既に前端部が通過した第2の仮想直線y2までの距離βH1を、ラップ量として算出する。ここで、横断歩行者OB1#が、第1の仮想直線y1と第2の仮想直線y2との間の領域である進行方向軌跡の外に存在する場合、ラップ量はゼロと算出される。更に、処理部36は、ラップ量を第1の仮想直線y1と第2の仮想直線y2との幅Wで除算し、100を乗じた値をラップ率[%]として算出する。そして、処理部36は、ラップ率が70[%]以上である場合、衝突の可能性は高いと判定する。また、処理部36は、ラップ率が70[%]未満であっても、ラップ率が0[%]を超える場合、ラップ率が0[%]より大きくなるにつれて衝突の可能性は高い傾向であると判定する。また、処理部36は、上記したように進行方向軌跡の外に横断歩行者が存在する場合、衝突の可能性は低いと判定する。尚、衝突の可能性が高いと判定するにあたって、ラップ率の基準値は70[%]に限定されるものではなく、横断歩行者OB1#がある程度ラップしていればよく、例えば50[%]などとしてもよい。   The processing unit 36 obtains the predicted position of the crossing pedestrian, and the second virtual straight line y2 that has already passed through the front end from the front end (in this case, the left end H1L) considering the moving direction of the crossing pedestrian OB1 #. Is calculated as a lap amount. Here, when the crossing pedestrian OB1 # exists outside the trajectory in the traveling direction that is an area between the first virtual line y1 and the second virtual line y2, the lap amount is calculated as zero. Further, the processing unit 36 divides the wrap amount by the width W between the first virtual line y1 and the second virtual line y2, and calculates a value obtained by multiplying by 100 as a wrap rate [%]. And the process part 36 determines with the possibility of a collision being high, when a lap | wrap rate is 70 [%] or more. In addition, even when the lap rate is less than 70 [%], the processing unit 36 tends to have a higher possibility of collision as the lap rate becomes larger than 0 [%] when the lap rate exceeds 0 [%]. Judge that there is. In addition, as described above, the processing unit 36 determines that the possibility of a collision is low when a crossing pedestrian exists outside the traveling direction trajectory. When determining that the possibility of a collision is high, the reference value of the lap rate is not limited to 70 [%], and it is sufficient that the crossing pedestrian OB1 # wraps to some extent, for example, 50 [%]. And so on.

また、処理部36は、上記の[閾値の設定の詳細(その2)]に代えて(加えて)、横方向に移動した歩行者を識別する処理に用いる閾値を低く設定してもよいし、1つ前の処理において横断歩行者であると識別された物体と同一である可能性が高い物体を識別する処理に用いる閾値を低く設定してもよい。同一である可能性が高いとは、1つ前以前の処理における物体の位置や移動速度から予測される位置と、今回の処理において検出された物体の位置とが合致することである。   Further, the processing unit 36 may set the threshold value used for the process of identifying the pedestrian moving in the lateral direction to be low instead of (in addition to) the above [details of setting the threshold value (part 2)]. The threshold used for the process of identifying an object that is highly likely to be the same as the object identified as a crossing pedestrian in the previous process may be set low. The high possibility of being the same is that the position predicted from the position and moving speed of the object in the previous process and the position of the object detected in the current process match.

また、処理部36は、上記の[閾値の設定の詳細(その2)]に代えて(加えて)、自車両Mの車速が所定の速度以下であり、且つ自車両Mの位置から所定距離以上の位置に物体が存在する場合、歩行者を識別する処理に用いる閾値を上げてもよい。   Further, the processing unit 36 replaces (in addition to) the above [details of threshold value setting (part 2)], the vehicle speed of the host vehicle M is equal to or lower than a predetermined speed, and is a predetermined distance from the position of the host vehicle M. When an object exists in the above position, the threshold used for the process for identifying a pedestrian may be increased.

上述した図3のフローチャートでは、処理部36が、ある時刻において撮像された画像ごとに閾値を設定し、物体が横断歩行者であるか否かを識別するものとしたが、これに代えて(または加えて)、所定の時間内に撮像された複数の画像に基づいて、物体が横断歩行者であるか否かを識別してもよい。   In the flowchart of FIG. 3 described above, the processing unit 36 sets a threshold value for each image captured at a certain time and identifies whether or not the object is a crossing pedestrian, but instead ( In addition, it may be determined whether or not the object is a crossing pedestrian based on a plurality of images captured within a predetermined time.

ここで、画像に含まれる物体が歩行者であるか否かが識別される場合、歩行者から抽出したエッジの分布と、歩行者モデル情報に含まれるエッジの分布との類似度を用いて、物体が横断歩行者であるか否かが識別される。しかしながら、横断歩行者は横断の動作によって姿勢を変えるため、歩行者を精度よく識別するためには、横断歩行者の姿勢ごとにエッジの分布の情報を用意する必要がある。また、横断歩行者の姿勢ごとにエッジの分布の情報を用意しても、姿勢ごとのエッジの分布と、画像から抽出したエッジの分布とを比較する必要があるため、処理が煩雑になる場合がある。   Here, when it is identified whether or not the object included in the image is a pedestrian, using the similarity between the edge distribution extracted from the pedestrian and the edge distribution included in the pedestrian model information, It is identified whether the object is a crossing pedestrian. However, since crossing pedestrians change postures by crossing movements, it is necessary to prepare edge distribution information for each crossing pedestrian posture in order to identify pedestrians with high accuracy. Also, even if you prepare edge distribution information for each pedestrian's posture, it is necessary to compare the edge distribution for each posture with the edge distribution extracted from the image, so the processing becomes complicated There is.

図11は、横断歩行者の姿勢と類似度の指標の変動との関係について説明するための図である。横断歩行者は、歩行の動作に応じて図中(a)から(d)のように姿勢が変化する。この場合、横断歩行者が撮像された画像から抽出されたエッジの分布と、歩行者モデル情報64のエッジの分布との類似度の指標は、歩行者の動作(時間)ごとに変動する。図中のグラフの縦軸は、類似度の指標を示し、横軸は時間を示している。また、横断歩行者は歩行の動作を繰り返しているため、異なる周期の類似度の指標の変動は合致する。図示するように、例えば、図11の周期t−xにおける類似度の指標の変動と、図11の周期tにおける類似度の指標の変動は合致する。このように異なる周期において継続的に類似度の指標の変動が合致している場合、処理部36は、画像における対象の物体は横断歩行者であると識別する。また、異なる周期において継続的に類似度の指標の変動が合致し、且つ所定の割合以上、1周期の中で類似度の指標が閾値を超える場合、処理部36は、画像における対象の物体は横断歩行者であると識別してもよい。一方、異なる周期において継続的に類似度の指標の変動が合致しない場合、処理部36は、横断歩行者が撮像された画像における物体は横断歩行者でないと識別する。   FIG. 11 is a diagram for explaining the relationship between the posture of the crossing pedestrian and the variation of the similarity index. The posture of the crossing pedestrian changes from (a) to (d) in the figure according to the walking motion. In this case, the index of similarity between the edge distribution extracted from the image in which the crossing pedestrian is imaged and the edge distribution of the pedestrian model information 64 varies for each pedestrian movement (time). The vertical axis of the graph in the figure indicates the similarity index, and the horizontal axis indicates time. In addition, since the crossing pedestrian repeats the walking motion, the variation of the similarity index in different periods matches. As shown in the figure, for example, the variation in the similarity index in the cycle t-x in FIG. 11 matches the variation in the similarity index in the cycle t in FIG. When the variation of the similarity index continuously matches in different periods as described above, the processing unit 36 identifies that the target object in the image is a crossing pedestrian. In addition, when the variation of the similarity index continuously matches in different cycles and the similarity index exceeds the threshold in one cycle, the processing unit 36 determines that the target object in the image is You may identify as a crossing pedestrian. On the other hand, when the change of the similarity index does not match continuously in different cycles, the processing unit 36 identifies that the object in the image in which the crossing pedestrian is captured is not a crossing pedestrian.

図12は、横断歩行者でないと識別される類似度の指標の変動について説明するための図である。図中のグラフの縦軸は、類似度の指標を示し、横軸は時間を示している。図示するように、例えば、図12の周期t−x#における類似度の指標の変動と、図12の周期t#における類似度の指標の変動が合致しない場合、処理部36は、撮像された画像における対象の物体は横断歩行者でないと識別する。   FIG. 12 is a diagram for explaining changes in the similarity index that is identified as not being a crossing pedestrian. The vertical axis of the graph in the figure indicates the similarity index, and the horizontal axis indicates time. As shown in the figure, for example, when the variation of the similarity index in the cycle t-x # in FIG. 12 and the variation in the similarity index in the cycle t # in FIG. The target object in the image is identified as not a crossing pedestrian.

なお、この場合、処理部36は、1周期に含まれる類似度の指標のうち、所定の割合以上、類似度の指標が閾値を超える場合は、画像における対象の物体は横断歩行者であると識別してもよい。また、上述した類似度の指標の変動に基づいて、歩行者を識別する処理は、進行方向軌跡内に存在する候補領域に対してのみ行われてもよい。   In this case, the processing unit 36 determines that the target object in the image is a crossing pedestrian when the similarity index exceeds a threshold value within a predetermined ratio among the similarity indices included in one cycle. You may identify. In addition, the process of identifying a pedestrian based on the above-described change in the similarity index may be performed only on the candidate area existing in the traveling direction locus.

上述した処理では、歩行者の姿勢ごとにエッジの分布の情報を用意しなくても、所定の時間内に撮像された複数の画像に基づいて、物体が横断歩行者であるか否かを識別することができるが、ある時刻において撮像された画像において歩行者を精度よく認識することについては考慮がされていない。本実施形態では、処理部36は、ある時刻において撮像された画像に対して、自車両Mと物体との位置関係に基づいて、歩行者を識別するのに用いる閾値を変更する。これにより、歩行者の姿勢ごとにエッジの分布の情報を用意しなくても、誤検出を抑制すると共に、精度よく歩行者を認識することができる。   In the above-described processing, it is possible to identify whether an object is a crossing pedestrian based on a plurality of images captured within a predetermined time without preparing edge distribution information for each pedestrian posture. However, no consideration is given to accurately recognizing a pedestrian in an image taken at a certain time. In the present embodiment, the processing unit 36 changes a threshold used to identify a pedestrian based on the positional relationship between the host vehicle M and an object with respect to an image captured at a certain time. Thereby, it is possible to suppress erroneous detection and accurately recognize a pedestrian without preparing edge distribution information for each posture of the pedestrian.

また、本実施形態の物体認識装置20は、更にレーダ装置10の検出結果等を加味して歩行者を識別するため、位置関係に基づいて歩行者を識別する処理の内容が変更された場合であっても、歩行者に対する識別性能は担保される。   In addition, since the object recognition device 20 of the present embodiment further identifies the pedestrian in consideration of the detection result of the radar device 10 or the like, the content of the processing for identifying the pedestrian based on the positional relationship is changed. Even if it exists, the identification performance with respect to a pedestrian is ensured.

以上説明した第1の実施形態では、画像認識部32は、車両と物体との位置関係を求めると共に、検出された物体の種別を識別する画像認識部であって、求めた位置関係に基づいて、物体の種別を識別する処理の内容を変更することにより、運転者が意図しないタイミングでの警報等を抑制すると共に、精度よく物体を認識することができる。また、車両制御装置70は、画像認識部32の識別結果に基づいて、車両の走行を支援することにより、周辺の状況に応じた車両の制御を実現することができる。   In the first embodiment described above, the image recognition unit 32 is an image recognition unit that obtains the positional relationship between the vehicle and the object and identifies the type of the detected object, and based on the obtained positional relationship. By changing the content of the process for identifying the type of object, it is possible to suppress an alarm or the like at a timing not intended by the driver and to recognize the object with high accuracy. Moreover, the vehicle control apparatus 70 can implement | achieve control of the vehicle according to the surrounding condition by assisting driving | running | working of a vehicle based on the identification result of the image recognition part 32. FIG.

<第2の実施形態>
以下、第2の実施形態について説明する。第1の実施形態では、物体認識装置20は、横断歩行者を認識されている場合に抽出された候補領域と、横断歩行者が認識されていない場合に抽出された候補領域とのうち、いずれかの候補領域に対して閾値を設定する処理を実行するものとした。これに対して、第2の実施形態の物体認識装置20は、横断歩行者を認識されている場合に抽出された候補領域と、横断歩行者が認識されていない場合に抽出された候補領域とに対して、並列で閾値を設定する処理を実行する。ここでは、第1の実施形態との相違点を中心に説明し、第1の実施形態と共通する機能等についての説明は省略する。
<Second Embodiment>
Hereinafter, the second embodiment will be described. In the first embodiment, the object recognizing device 20 selects either a candidate area extracted when a crossing pedestrian is recognized or a candidate area extracted when a crossing pedestrian is not recognized. A process for setting a threshold for the candidate area is executed. In contrast, the object recognition device 20 of the second embodiment includes a candidate area extracted when a crossing pedestrian is recognized, and a candidate area extracted when a crossing pedestrian is not recognized. In parallel, processing for setting a threshold value in parallel is executed. Here, the difference from the first embodiment will be mainly described, and description of functions and the like common to the first embodiment will be omitted.

図13は、第2の実施形態の物体認識装置20により実行される処理の流れを示すフローチャートである。本処理は、例えば、時刻tにおいて、カメラ12により撮像された画像に対して実行される処理である。   FIG. 13 is a flowchart illustrating a flow of processing executed by the object recognition device 20 according to the second embodiment. This process is, for example, a process executed on an image captured by the camera 12 at time t.

まず、画像取得部30が、カメラ12により撮像された画像を取得する(ステップS300)。次に、特徴量抽出部34が、ステップS300で取得された画像からエッジを抽出する(ステップS302)。次に、処理部36は、候補領域を抽出する(ステップS304)。処理部36は、抽出されたエッジの分布と、簡易モデル情報62のエッジの分布との類似度が所定以上のエッジの分布を含む領域を候補領域として抽出する。   First, the image acquisition unit 30 acquires an image captured by the camera 12 (step S300). Next, the feature quantity extraction unit 34 extracts an edge from the image acquired in step S300 (step S302). Next, the processing unit 36 extracts candidate areas (step S304). The processing unit 36 extracts, as candidate areas, areas including edge distributions whose similarity between the extracted edge distribution and the edge distribution of the simplified model information 62 is greater than or equal to a predetermined value.

次に、処理部36は、ステップS304で抽出した候補領域に歩行者が存在するか否かを識別するために、自車両と物体との位置関係に基づいて、歩行者を識別する処理に用いる閾値を設定する(ステップS306)。ステップS306で歩行者を識別する処理に用いる閾値は、例えば、図4のステップS200からステップS212で実行される処理に従って設定される。   Next, the processing unit 36 is used for the process of identifying a pedestrian based on the positional relationship between the vehicle and the object in order to identify whether or not a pedestrian exists in the candidate area extracted in step S304. A threshold is set (step S306). The threshold used for the process for identifying a pedestrian in step S306 is set according to the process executed in steps S200 to S212 in FIG. 4, for example.

次に、処理部36が、歩行者が時刻t−1において(すなわち前回の本フローチャートのルーチンにおいて)横断歩行者を認識したか否かを判定する(ステップS308)。時刻t−1において横断歩行者を認識していない場合、ステップS314の処理に進む。時刻t−1において横断歩行者を認識している場合、処理部36は、前回以前の画像に基づいて、今回のルーチンで取得した画像において歩行者が存在している可能性が高い候補領域を抽出する(ステップS310)。次に、処理部36が、ステップS310で抽出した候補領域に対して、歩行者を識別する処理に用いる閾値を設定する(ステップS312)。ステップS312で歩行者を識別する処理に用いる閾値は、例えば、図4のステップS200からステップS212で実行される処理、および上述した[閾値の設定の詳細(その2)]の処理を実行することで設定される。[閾値の設定の詳細(その2)]の処理は、例えば、ステップS310で抽出された候補領域が進行方向軌跡内に存在する場合、その候補領域において歩行者を識別する処理に用いる閾値を低く設定する処理である。   Next, the processing unit 36 determines whether or not the pedestrian has recognized a crossing pedestrian at time t-1 (that is, in the routine of the previous flowchart) (step S308). When the crossing pedestrian is not recognized at time t−1, the process proceeds to step S314. When the crossing pedestrian is recognized at the time t−1, the processing unit 36 selects a candidate area that is likely to have a pedestrian in the image acquired in the current routine based on the previous image. Extract (step S310). Next, the process part 36 sets the threshold value used for the process which identifies a pedestrian with respect to the candidate area | region extracted by step S310 (step S312). The threshold used for the process for identifying the pedestrian in step S312 is, for example, the process executed in steps S200 to S212 in FIG. 4 and the above-described [Details of threshold setting (part 2)]. Set by. For example, when the candidate area extracted in step S310 exists in the traveling direction trajectory, the threshold value used for the process for identifying a pedestrian in the candidate area is reduced. It is a process to set.

次に、識別部38が、ステップS302で抽出されたエッジの分布、歩行者モデル情報64のエッジの分布、および処理部36により設定された閾値に基づいて、ステップS304および/またはステップS310で抽出された候補領域における物体が歩行者であるか否かを識別する(ステップS314)。次に、画像認識部32は、検出された歩行者についてトラッキング処理を実行する(ステップS316)。これにより本フローチャートの処理は終了する。そして、物体認識装置20は、時刻t+1において、カメラ12により撮像された画像に対して、上述した処理を実行する。   Next, the identification unit 38 extracts in step S304 and / or step S310 based on the edge distribution extracted in step S302, the edge distribution of the pedestrian model information 64, and the threshold set by the processing unit 36. It is identified whether or not the object in the candidate area is a pedestrian (step S314). Next, the image recognition unit 32 executes tracking processing for the detected pedestrian (step S316). Thereby, the process of this flowchart is complete | finished. And the object recognition apparatus 20 performs the process mentioned above with respect to the image imaged with the camera 12 at the time t + 1.

なお、上述した処理において、ステップS310の歩行者が存在している可能性が高い候補領域が抽出される処理は省略されてもよい。この場合、ステップS312において、処理部36は、ステップS304で抽出されてステップS306の処理が実行された候補領域に対して、更に[閾値の設定の詳細(その2)]の処理を実行して閾値を設定する。   In the above-described process, the process of extracting candidate regions that are likely to have a pedestrian in step S310 may be omitted. In this case, in step S312, the processing unit 36 further executes a process of [Details of threshold setting (part 2)] on the candidate area extracted in step S304 and subjected to the process of step S306. Set the threshold.

以上説明した第2の実施形態によれば、物体認識装置20は、横断歩行者が認識されている場合に抽出された候補領域と、横断歩行者が認識されていない場合に抽出された候補領域とに対して、並列で閾値を設定する処理を実行することにより、第1の実施形態の効果と同様の効果を奏すると共に、より迅速に車両の周辺の状況を認識することができる。   According to the second embodiment described above, the object recognition device 20 includes a candidate area extracted when a crossing pedestrian is recognized and a candidate area extracted when a crossing pedestrian is not recognized. In contrast, by executing the process of setting the threshold value in parallel, the same effect as that of the first embodiment can be obtained, and the situation around the vehicle can be recognized more quickly.

<第3の実施形態>
以下、第3の実施形態について説明する。第1の実施形態では、車両制御装置70が、物体認識装置20の処理結果に基づいて、自動ブレーキ制御や警報出力、或いは車間距離制御などを実行するものとしたが、第3の実施形態では、自動運転制御装置100が、物体認識装置20の処理結果に基づいて、自動運転制御を行う。ここでは、第1の実施形態との相違点を中心に説明し、第1の実施形態と共通する機能等についての説明は省略する。
<Third Embodiment>
Hereinafter, a third embodiment will be described. In the first embodiment, the vehicle control device 70 executes automatic brake control, alarm output, or inter-vehicle distance control based on the processing result of the object recognition device 20, but in the third embodiment, The automatic driving control device 100 performs automatic driving control based on the processing result of the object recognition device 20. Here, the difference from the first embodiment will be mainly described, and description of functions and the like common to the first embodiment will be omitted.

図13は、第3の実施形態の車両制御システム1Aの機能構成の一例を示す図である。車両制御システム1Aは、第1の実施形態の物体認識装置20に代えて、自動運転制御装置100を備える。自動運転制御装置100は、記憶部102、目標車線決定部104、および自動運転制御部110を備える。記憶部102には、例えば、高精度地図情報、目標車線情報、行動計画情報などの情報が格納される。   FIG. 13 is a diagram illustrating an example of a functional configuration of a vehicle control system 1A according to the third embodiment. The vehicle control system 1A includes an automatic driving control device 100 instead of the object recognition device 20 of the first embodiment. The automatic driving control device 100 includes a storage unit 102, a target lane determining unit 104, and an automatic driving control unit 110. The storage unit 102 stores, for example, information such as high-precision map information, target lane information, and action plan information.

目標車線決定部104は、例えば、MPU(Micro-Processing Unit)などにより実現される。目標車線決定部104は、ナビゲーション装置から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、高精度地図情報を参照してブロックごとに目標車線を決定する。目標車線決定部104は、例えば、左から何番目の車線を走行するといった決定を行う。目標車線決定部104は、例えば、経路において分岐箇所や合流箇所などが存在する場合、自車両が、分岐先に進行するための合理的な走行経路を走行できるように、目標車線を決定する。目標車線決定部104により決定された目標車線は、目標車線情報として記憶部102に記憶される。   The target lane determining unit 104 is realized by, for example, an MPU (Micro-Processing Unit). The target lane determination unit 104 divides the route provided from the navigation device into a plurality of blocks (for example, every 100 [m] with respect to the vehicle traveling direction), and refers to the high-accuracy map information for each block. Determine the lane. The target lane determining unit 104 determines, for example, what number lane from the left to travel. For example, the target lane determination unit 104 determines the target lane so that the host vehicle can travel on a reasonable travel route for proceeding to the branch destination when there is a branch point or a merge point in the route. The target lane determined by the target lane determination unit 104 is stored in the storage unit 102 as target lane information.

自動運転制御部110は、例えば、行動計画生成部112と、軌道生成部114と、走行制御部116と、切替制御部118とを備える。   The automatic driving control unit 110 includes, for example, an action plan generation unit 112, a track generation unit 114, a travel control unit 116, and a switching control unit 118.

行動計画生成部112は、自動運転のスタート地点、および/または自動運転の目的地を設定する。行動計画生成部112は、そのスタート地点と自動運転の目的地との間の区間において、行動計画を生成する。行動計画は、例えば、順次実行される複数のイベントで構成される。イベントには、例えば、自車両を減速させる減速イベントや、自車両を加速させる加速イベント、走行車線を逸脱しないように自車両を走行させるレーンキープイベント、走行車線を変更させる車線変更イベント、前走車両を追従するイベント等が含まれる。行動計画生成部112によって生成された行動計画を示す情報は、行動計画情報として記憶部102に格納される。   The action plan generation unit 112 sets a starting point of automatic driving and / or a destination of automatic driving. The action plan generation unit 112 generates an action plan in a section between the start point and the destination for automatic driving. The action plan is composed of, for example, a plurality of events that are sequentially executed. Events include, for example, a deceleration event for decelerating the host vehicle, an acceleration event for accelerating the host vehicle, a lane keeping event for driving the host vehicle so as not to deviate from the driving lane, a lane change event for changing the driving lane, Events that follow the vehicle are included. Information indicating the action plan generated by the action plan generation unit 112 is stored in the storage unit 102 as action plan information.

軌道生成部114は、定速走行、追従走行、低速追従走行、減速走行、カーブ走行、障害物回避走行、車線変更走行、合流走行、分岐走行などのうちいずれかの走行態様を決定し、決定した走行態様に基づいて、軌道の候補を生成する。軌道生成部114は、例えば、将来の所定時間ごとに、自車両の基準位置(例えば重心や後輪軸中心)が到達すべき目標位置(軌道点)の集まりとして軌道を生成する。   The track generation unit 114 determines and determines one of the traveling modes such as constant speed traveling, following traveling, low speed following traveling, deceleration traveling, curve traveling, obstacle avoidance traveling, lane change traveling, merging traveling, branch traveling, and the like. A trajectory candidate is generated based on the travel mode. For example, the track generation unit 114 generates a track as a collection of target positions (track points) that the reference position (for example, the center of gravity and the center of the rear wheel axis) of the host vehicle should reach at predetermined future times.

走行制御部116は、軌道生成部114によって生成された軌道を、予定の時刻通りに自車両が通過するように、走行駆動装置72またはブレーキ装置74を制御する。切替制御部118は、自動運転切替スイッチ120から入力される信号に基づいて自動運転モードと手動運転モードとを相互に切り替える。   The travel control unit 116 controls the travel drive device 72 or the brake device 74 so that the host vehicle passes the track generated by the track generation unit 114 at a scheduled time. The switching control unit 118 switches between the automatic operation mode and the manual operation mode based on a signal input from the automatic operation switch 120.

以上説明した第3の実施形態によれば、第1の実施形態と同様の効果を奏すると共に、より精度よく自動運転を実施することができる。   According to the third embodiment described above, the same effect as that of the first embodiment can be obtained, and the automatic operation can be performed with higher accuracy.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   As mentioned above, although the form for implementing this invention was demonstrated using embodiment, this invention is not limited to such embodiment at all, In the range which does not deviate from the summary of this invention, various deformation | transformation and substitution Can be added.

1‥車両制御システム1、10…レーダ装置、12…カメラ、14…車両センサ、20…物体認識装置、30…画像取得部、32…画像認識部、34…特徴量抽出部、36…処理部、38…識別部50…周辺状況認識部、60…記憶部、72…走行駆動装置、74…ブレーキ装置 DESCRIPTION OF SYMBOLS 1 ... Vehicle control system 1, 10 ... Radar apparatus, 12 ... Camera, 14 ... Vehicle sensor, 20 ... Object recognition apparatus, 30 ... Image acquisition part, 32 ... Image recognition part, 34 ... Feature-value extraction part, 36 ... Processing part , 38 ... Identification unit 50 ... Surrounding situation recognition unit, 60 ... Storage unit, 72 ... Travel drive device, 74 ... Brake device

Claims (9)

車両の周辺の物体を検出する物体検出部と、
前記車両と前記物体検出部により検出された物体との位置関係を求めると共に、前記物体検出部により検出された物体の種別を識別する認識部であって、前記求めた位置関係に基づいて、前記物体の種別を識別する処理の内容を変更する認識部と、
前記認識部による識別結果に基づいて、前記車両の走行を支援する走行支援部と、
を備える車両制御システム。
An object detection unit for detecting objects around the vehicle;
A recognition unit that obtains a positional relationship between the vehicle and the object detected by the object detection unit, and that identifies a type of the object detected by the object detection unit, based on the obtained positional relationship, A recognition unit that changes the content of the process for identifying the type of the object;
Based on the identification result by the recognition unit, a driving support unit that supports driving of the vehicle;
A vehicle control system comprising:
前記認識部は、物体を検出する対象の領域において、前記車両の進行予定の軌跡である進行方向軌跡上にある前記物体の種別を識別するために用いる閾値を、前記進行方向軌跡上にない前記物体の種別を識別するために用いる閾値に比して高く設定する、
請求項1記載の車両制御システム。
The recognizing unit does not have a threshold value used for identifying the type of the object on the traveling direction trajectory that is the trajectory that the vehicle is scheduled to travel in the target region for detecting the object that is not on the traveling direction trajectory. Set higher than the threshold used to identify the type of object,
The vehicle control system according to claim 1.
前記認識部は、車両の進行予定の軌跡である進行方向軌跡を前記物体が横切ろうとしていると判定した場合、前記横切ろうとしている物体に対して、前記閾値を低く設定する、
請求項2記載の車両制御システム。
When the recognition unit determines that the object is about to cross a travel direction trajectory that is a trajectory that the vehicle is going to travel, the recognition unit sets the threshold to be low for the object about to cross.
The vehicle control system according to claim 2.
前記認識部は、前記車両の横方向の位置に関して前記車両から遠い領域ほど、物体の種別を識別するために用いる閾値を低く設定する、
請求項1から3のうちいずれか1項記載の車両制御システム。
The recognition unit sets a lower threshold to be used for identifying the type of the object in a region farther from the vehicle with respect to the lateral position of the vehicle.
The vehicle control system according to any one of claims 1 to 3.
前記認識部は、前記車両の進行方向に関して前記車両から第1の距離以上の第1領域については、前記車両から前記第1の距離に至る手前の第2領域に比して、物体の種別を識別するために用いる閾値を高く設定する、
請求項1から4のうちいずれか1項記載の車両制御システム。
The recognizing unit determines the type of the object in the first region that is equal to or greater than the first distance from the vehicle with respect to the traveling direction of the vehicle, as compared to the second region in front of the vehicle reaching the first distance. Set a high threshold for identification;
The vehicle control system according to any one of claims 1 to 4.
前記認識部は、前記車両の進行方向に関して前記車両から第2の距離未満の第3領域については、前記車両から第2の距離以上となる第4領域に比して、物体の種別を識別するために用いる閾値を高く設定する、
請求項1から5のうちいずれか1項記載の車両制御システム。
The recognizing unit identifies the type of the object in the third area that is less than the second distance from the vehicle with respect to the traveling direction of the vehicle, as compared to the fourth area that is greater than or equal to the second distance from the vehicle. Set a high threshold value for
The vehicle control system according to any one of claims 1 to 5.
前記物体検出部は、画像を撮像する撮像部であって、
物体のエッジの分布が記憶された物体モデル情報を格納する記憶部を、更に備え、
前記認識部は、前記撮像部により撮像された時系列の画像からエッジを抽出し、抽出したエッジの分布と、前記記憶部が格納する物体モデル情報に記憶されたエッジの分布との類似度の指標を、前記時系列の画像ごとに導出し、前記時系列の画像ごとに導出した類似度の指標の変動に基づいて、前記物体を認識する、
請求項2から6のうちいずれか1項記載の車両制御システム。
The object detection unit is an imaging unit that captures an image,
A storage unit for storing object model information in which the distribution of the edge of the object is stored;
The recognition unit extracts edges from a time-series image captured by the imaging unit, and the similarity between the extracted edge distribution and the edge distribution stored in the object model information stored in the storage unit An index is derived for each time-series image, and the object is recognized based on a variation of the similarity index derived for each time-series image.
The vehicle control system according to any one of claims 2 to 6.
コンピュータが、
車両の周辺の物体を検出し、
前記車両と前記検出された物体との位置関係を求めると共に、前記検出された物体の種別を識別する処理を実行し、前記求めた位置関係に基づいて、前記物体の種別を識別する処理の内容を変更し、
前記識別結果に基づいて、前記車両の走行を支援する、
車両制御方法。
Computer
Detect objects around the vehicle,
Contents of processing for obtaining a positional relationship between the vehicle and the detected object, executing processing for identifying the type of the detected object, and identifying the type of the object based on the obtained positional relationship Change
Based on the identification result, assisting the traveling of the vehicle,
Vehicle control method.
コンピュータに、
車両の周辺の物体を検出させ、
前記車両と前記検出された物体との位置関係を求めると共に、前記検出された物体の種別を識別する処理を実行させ、前記求めた位置関係に基づいて、前記物体の種別を識別する処理の内容を変更させ、
前記識別結果に基づいて、前記車両の走行を支援させる、
車両制御プログラム。
On the computer,
Detect objects around the vehicle,
Contents of processing for obtaining a positional relationship between the vehicle and the detected object, causing the type of the detected object to be identified, and identifying the type of the object based on the obtained positional relationship Change
Based on the identification result, driving of the vehicle is supported.
Vehicle control program.
JP2016178763A 2016-09-13 2016-09-13 Vehicle control device, vehicle control method, and vehicle control program Active JP6340738B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016178763A JP6340738B2 (en) 2016-09-13 2016-09-13 Vehicle control device, vehicle control method, and vehicle control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016178763A JP6340738B2 (en) 2016-09-13 2016-09-13 Vehicle control device, vehicle control method, and vehicle control program

Publications (2)

Publication Number Publication Date
JP2018045385A true JP2018045385A (en) 2018-03-22
JP6340738B2 JP6340738B2 (en) 2018-06-13

Family

ID=61694960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016178763A Active JP6340738B2 (en) 2016-09-13 2016-09-13 Vehicle control device, vehicle control method, and vehicle control program

Country Status (1)

Country Link
JP (1) JP6340738B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111597959A (en) * 2020-05-12 2020-08-28 三一重工股份有限公司 Behavior detection method and device and electronic equipment
WO2022161139A1 (en) * 2021-01-29 2022-08-04 上海商汤智能科技有限公司 Driving direction test method and apparatus, computer device, and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111028491A (en) * 2019-12-27 2020-04-17 苏州欧孚网络科技股份有限公司 System and method for monitoring safe food delivery of rider

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10100820A (en) * 1996-09-30 1998-04-21 Mazda Motor Corp Moving object identifying device for vehicle
JP2004110491A (en) * 2002-09-19 2004-04-08 Nissan Motor Co Ltd Device for determining obstruction for vehicle
JP2005157564A (en) * 2003-11-21 2005-06-16 Nissan Motor Co Ltd On-vehicle information providing device for supporting traveling
JP2007093347A (en) * 2005-09-28 2007-04-12 Nissan Motor Co Ltd Stopped vehicle determination apparatus, automobile, and stopped vehicle determination method
JP2008040646A (en) * 2006-08-03 2008-02-21 Honda Motor Co Ltd Vehicle control unit
JP2008045880A (en) * 2006-08-10 2008-02-28 Fujitsu Ten Ltd Radar system
JP2011129013A (en) * 2009-12-21 2011-06-30 Toyota Motor Corp Drive assistance device
WO2016002900A1 (en) * 2014-07-02 2016-01-07 株式会社デンソー Method and device for detecting objects, and computer program product

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10100820A (en) * 1996-09-30 1998-04-21 Mazda Motor Corp Moving object identifying device for vehicle
JP2004110491A (en) * 2002-09-19 2004-04-08 Nissan Motor Co Ltd Device for determining obstruction for vehicle
JP2005157564A (en) * 2003-11-21 2005-06-16 Nissan Motor Co Ltd On-vehicle information providing device for supporting traveling
JP2007093347A (en) * 2005-09-28 2007-04-12 Nissan Motor Co Ltd Stopped vehicle determination apparatus, automobile, and stopped vehicle determination method
JP2008040646A (en) * 2006-08-03 2008-02-21 Honda Motor Co Ltd Vehicle control unit
JP2008045880A (en) * 2006-08-10 2008-02-28 Fujitsu Ten Ltd Radar system
JP2011129013A (en) * 2009-12-21 2011-06-30 Toyota Motor Corp Drive assistance device
WO2016002900A1 (en) * 2014-07-02 2016-01-07 株式会社デンソー Method and device for detecting objects, and computer program product

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111597959A (en) * 2020-05-12 2020-08-28 三一重工股份有限公司 Behavior detection method and device and electronic equipment
CN111597959B (en) * 2020-05-12 2023-09-26 盛景智能科技(嘉兴)有限公司 Behavior detection method and device and electronic equipment
WO2022161139A1 (en) * 2021-01-29 2022-08-04 上海商汤智能科技有限公司 Driving direction test method and apparatus, computer device, and storage medium

Also Published As

Publication number Publication date
JP6340738B2 (en) 2018-06-13

Similar Documents

Publication Publication Date Title
US20190146519A1 (en) Vehicle control device, vehicle control method, and storage medium
JP5892129B2 (en) Road shape recognition method, road shape recognition device, program, and recording medium
US20190202450A1 (en) Apparatus and system for controlling travel of vehicle
JP5893601B2 (en) Vehicle control system
US20190071094A1 (en) Vehicle control system, vehicle control method, and storage medium
US11370420B2 (en) Vehicle control device, vehicle control method, and storage medium
US11235766B2 (en) Device for setting target vehicle, system for setting target vehicle, and method for setting target vehicle
US10747219B2 (en) Processing apparatus, vehicle, processing method, and storage medium
JP2023067966A (en) Vehicle travel control device
JP2016192166A (en) Vehicle control device and vehicle control method
JP7111454B2 (en) CONTROLLED VEHICLE SETTING DEVICE, CONTROLLED VEHICLE SETTING SYSTEM AND CONTROLLED VEHICLE SETTING METHOD
JP5363920B2 (en) Vehicle white line recognition device
US11338812B2 (en) Vehicle control device
US20190286160A1 (en) Vehicle control device, vehicle control method, and storage medium
JP2018124768A (en) Vehicle control device
US10854083B2 (en) Vehicle control device, vehicle control method, and storage medium
JP6340738B2 (en) Vehicle control device, vehicle control method, and vehicle control program
US11667277B2 (en) Driving assistance control apparatus and method for vehicle, and driving assistance system for vehicle
JP2020134981A (en) Driving assistance device
JP7379033B2 (en) Driving support method and driving support device
JP7130580B2 (en) Road surface detector
JP6617696B2 (en) Vehicle control apparatus and vehicle control method
JP2006004188A (en) Obstacle recognition method and obstacle recognition device
US20230114781A1 (en) Vehicle control device, vehicle control method, and storage medium
JP6733616B2 (en) Vehicle control device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180417

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180427

R150 Certificate of patent or registration of utility model

Ref document number: 6340738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150