JP2021064056A - Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program - Google Patents

Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program Download PDF

Info

Publication number
JP2021064056A
JP2021064056A JP2019187037A JP2019187037A JP2021064056A JP 2021064056 A JP2021064056 A JP 2021064056A JP 2019187037 A JP2019187037 A JP 2019187037A JP 2019187037 A JP2019187037 A JP 2019187037A JP 2021064056 A JP2021064056 A JP 2021064056A
Authority
JP
Japan
Prior art keywords
vehicle
zebra zone
detection lines
detection
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019187037A
Other languages
Japanese (ja)
Inventor
麻衣子 足立
Maiko ADACHI
麻衣子 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019187037A priority Critical patent/JP2021064056A/en
Publication of JP2021064056A publication Critical patent/JP2021064056A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a zebra zone recognition device, a vehicle control device, a zebra zone recognition method, and programs capable of appropriately recognizing zebra zones with a simple processing.SOLUTION: A zebra zone recognition device comprises a generating part, a setting part, and a specification part, where the generating part is mounted on a vehicle and generates a plane image showing the road color and the luminance distribution in the traveling direction of the vehicle based on the information acquired from the recognition device to recognize the surrounding situation of the vehicle, the setting part sets multiple first detecting lines parallel to each other on the generated plane image by the generating part and multiple second detecting lines orthogonal to each of the first detecting lines, and the specification part determines whether or not each of the plurality of the first detecting lines and of the plurality of the second detecting lines intersects with the outline of the road sign in the plane image and identifies the road sign as the zebra zone based on the determined result.SELECTED DRAWING: Figure 2

Description

本発明は、ゼブラゾーン認識装置、車両制御装置、ゼブラゾーン認識方法、およびプログラムに関する。 The present invention relates to a zebra zone recognition device, a vehicle control device, a zebra zone recognition method, and a program.

従来、車両流入口への接近度を認識するために、連続線、出入口破線、導流帯(縞模様)などのラインマークを識別し、識別結果に応じて警戒レベルを設定する認識装置の技術が知られている(例えば、特許文献1参照)。 Conventionally, in order to recognize the degree of approach to the vehicle inflow port, a recognition device technology that identifies line marks such as continuous lines, entrance / exit dashed lines, and headrace zones (striped patterns), and sets the alert level according to the identification result. Is known (see, for example, Patent Document 1).

特開平7−117594号公報JP-A-7-117594

しかしながら、従来の技術では、ゼブラゾーンを好適に認識することに関する検討は不十分であった。 However, in the conventional technique, the study on recognizing the zebra zone in a suitable manner has been insufficient.

本発明は、このような事情を考慮してなされたものであり、簡易な処理によってゼブラゾーンを好適に認識することができるゼブラゾーン認識装置、車両制御装置、ゼブラゾーン認識方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and provides a zebra zone recognition device, a vehicle control device, a zebra zone recognition method, and a program capable of preferably recognizing a zebra zone by a simple process. One of the purposes is to do.

この発明に係るゼブラゾーン認識装置、車両制御装置、ゼブラゾーン認識方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係るゼブラゾーン認識装置は、車両に搭載され、前記車両の周辺状況を認識するための認識デバイスから取得した情報に基づいて、前記車両の進行方向における道路の色彩または輝度の分布を表す平面画像を生成する生成部と、
前記生成部により生成された平面画像に、互いに平行な複数の第1検出ラインと、前記第1検出ラインのそれぞれと直交する複数の第2検出ラインとを設定する設定部と、
前記複数の第1検出ラインと前記複数の第2検出ラインのそれぞれが前記平面画像における道路標示の輪郭と交わるか否かを判定し、判定の結果に基づいて前記道路標示をゼブラゾーンと特定する特定部と、を備えるゼブラゾーン認識装置である。
The zebra zone recognition device, the vehicle control device, the zebra zone recognition method, and the program according to the present invention have adopted the following configurations.
(1): The zebra zone recognition device according to one aspect of the present invention is mounted on a vehicle and is a road surface in the traveling direction of the vehicle based on information acquired from a recognition device for recognizing the surrounding conditions of the vehicle. A generator that generates a planar image that represents the distribution of color or brightness,
A setting unit for setting a plurality of first detection lines parallel to each other and a plurality of second detection lines orthogonal to each of the first detection lines in the plane image generated by the generation unit.
It is determined whether or not each of the plurality of first detection lines and the plurality of second detection lines intersects the contour of the road marking in the plane image, and the road marking is specified as a zebra zone based on the result of the determination. It is a zebra zone recognition device including a specific part.

(2):上記(1)の態様において、前記特定部は、前記複数の第1検出ラインまたは前記複数の第2検出ラインを、前記車両の位置する車線の長手方向と平行になるように設定するものである。 (2): In the aspect of (1) above, the specific unit sets the plurality of first detection lines or the plurality of second detection lines to be parallel to the longitudinal direction of the lane in which the vehicle is located. Is what you do.

(3):上記(1)または(2)の態様において、前記設定部は、所定サイズの監視領域内に前記第1検出ラインと前記第2検出ラインを設定し、前記特定部は、前記監視領域内の前記第1検出ラインの全てが道路標示の輪郭と交わり、且つ前記監視領域内の前記第2検出ラインの全てが道路標示の輪郭と交わる場合、前記監視領域を前記ゼブラゾーンの一部と特定し、そうでない場合(前記監視領域内の前記第1検出ラインの少なくとも一部が道路標示の輪郭と交わらず、或いは前記監視領域内の前記第2検出ラインの少なくとも一部が道路標示の輪郭と交わらない場合)、前記検出された前記道路区画線を前記ゼブラゾーンと特定しないものである。 (3): In the embodiment (1) or (2), the setting unit sets the first detection line and the second detection line in a monitoring area of a predetermined size, and the specific unit monitors the monitoring. When all of the first detection lines in the area intersect the contour of the road marking and all of the second detection lines in the monitoring area intersect the contour of the road marking, the monitoring area is a part of the zebra zone. If not (at least part of the first detection line in the monitoring area does not intersect the contour of the road marking, or at least part of the second detection line in the monitoring area is road marking. If it does not intersect the contour), the detected road marking line is not specified as the zebra zone.

(4):上記(3)の態様において、前記監視領域は、着目する前記第1検出ラインまたは前記第2検出ラインを基準として隣接する所定数の前記第1検出ラインまたは前記第2検出ラインを含む領域である。 (4): In the aspect of (3) above, the monitoring area includes a predetermined number of the first detection lines or the second detection lines adjacent to the first detection line or the second detection line of interest. This is the area that contains it.

(5):本発明の他の態様に係るゼブラゾーン認識装置は、車両に搭載され、前記車両の周辺状況を撮像するカメラから取得した撮像画像において、任意の点から消失点に向かう消失線に沿う複数の第3検出ラインと、前記撮像画像の横方向に沿う複数の第4検出ラインとを設定する設定部と、前記複数の第3検出ラインと前記複数の第4検出ラインのそれぞれが前記撮像画像における道路標示の輪郭と交わっているか否かを判定し、判定の結果に基づいて前記道路標示をゼブラゾーンと特定する特定部と、を備えるものである。 (5): The zebra zone recognition device according to another aspect of the present invention is mounted on a vehicle and has a vanishing line from an arbitrary point toward the vanishing point in an captured image acquired from a camera that captures the surrounding situation of the vehicle. A setting unit for setting a plurality of third detection lines along the line and a plurality of fourth detection lines along the lateral direction of the captured image, and the plurality of third detection lines and the plurality of fourth detection lines are described above. It is provided with a specific portion that determines whether or not it intersects with the contour of the road marking in the captured image and identifies the road marking as a zebra zone based on the result of the determination.

(6):上記(5)の態様において、前記設定部は、監視領域内に前記第3検出ラインと前記第4検出ラインを設定し、前記特定部は、前記監視領域内の前記第3検出ラインの全てが前記撮像画像における道路標示の輪郭と交わっており、且つ前記監視領域内の前記第4検出ラインの全てが前記撮像画像における道路標示の輪郭と交わっている場合、前記監視領域は前記ゼブラゾーンの一部であると判定し、そうでない場合、前記監視領域は前記ゼブラゾーンの一部でないと判定するものである。 (6): In the aspect of (5) above, the setting unit sets the third detection line and the fourth detection line in the monitoring area, and the specific unit sets the third detection line in the monitoring area. When all of the lines intersect the contour of the road marking in the captured image and all of the fourth detection lines in the monitoring area intersect the contour of the road marking in the captured image, the monitoring area is said to be said. It is determined that the monitoring area is not a part of the zebra zone, and if not, it is determined that the monitoring area is not a part of the zebra zone.

(7):上記(5)または(6)の態様において、前記監視領域は、所定数の前記第3検出ラインまたは前記第4検出ラインを含む領域であるものである。 (7): In the embodiment (5) or (6), the monitoring area is an area including a predetermined number of the third detection line or the fourth detection line.

(8):上記(1)から(7)の態様において、前記特定部は、前記ゼブラゾーンを特定する処理を周期的に繰り返し行うものであって、少なくとも前記車両の方向指示装置の状態、ヨーレートセンサの検出結果、およびジャイロセンサの検出結果のうち一部または全部に基づいて、前記車両が旋回中であるか否かを判定し、前記車両が旋回中であると判定した場合、前記ゼブラゾーンの特定を行わず、前記車両が旋回中であると判定する前の特定結果を維持するものである。 (8): In the above aspects (1) to (7), the specific unit periodically repeats the process of specifying the zebra zone, and at least the state of the vehicle direction indicator and the yaw rate. Based on the detection result of the sensor and a part or all of the detection result of the gyro sensor, it is determined whether or not the vehicle is turning, and when it is determined that the vehicle is turning, the zebra zone is determined. Is not specified, and the specific result before determining that the vehicle is turning is maintained.

(9):この発明の一態様に係る車両制御装置は、上記(1)から(8)のいずれかの態様のゼブラゾーン認識装置と、前記ゼブラゾーン認識装置による処理結果に基づいて、前記車両の操舵および速度を制御する運転制御部と、を備えるものである。 (9): The vehicle control device according to one aspect of the present invention is the vehicle based on the zebra zone recognition device according to any one of (1) to (8) above and the processing result by the zebra zone recognition device. It is provided with an operation control unit for controlling the steering and speed of the vehicle.

(10):上記(9)の態様において、前記車両の周辺に存在する物体を認識し、前記物体によるリスクを推定する物体認識部を更に備え、前記物体認識部は、前記特定部が特定した前記ゼブラゾーンが前記車両の側方にある場合に、前記ゼブラゾーンを挟んだ先にあり、前記車両がいる第1車線とは異なる第2車線をさらに認識できるか否かを判定し、前記第2車線を認識できると判定し且つ前記第2車線の進行方向が前記第1車線の進行方向と交差する場合に、前記第2車線を前記第1車線の隣接車線として認識し、前記第2車線にある物体のリスクを推定するものである。 (10): In the aspect of (9) above, an object recognition unit that recognizes an object existing in the vicinity of the vehicle and estimates the risk due to the object is further provided, and the object recognition unit is specified by the specific unit. When the zebra zone is on the side of the vehicle, it is determined whether or not the second lane, which is located on the side of the zebra zone and is different from the first lane in which the vehicle is located, can be further recognized. When it is determined that two lanes can be recognized and the traveling direction of the second lane intersects the traveling direction of the first lane, the second lane is recognized as an adjacent lane of the first lane, and the second lane is recognized. It estimates the risk of an object in.

(11):この発明の他の態様に係るゼブラゾーン認識方法は、コンピュータが、車両に搭載され、前記車両の周辺状況を認識するための認識デバイスから取得した情報に基づいて、前記車両の進行方向における道路の色彩または輝度の分布を表す平面画像を生成し、前記生成された平面画像に、互いに平行な複数の第1検出ラインと、前記第1検出ラインのそれぞれと直交する複数の第2検出ラインとを設定し、前記複数の第1検出ラインと前記複数の第2検出ラインのそれぞれが前記平面画像における道路標示の輪郭と交わるか否かを判定し、判定の結果に基づいて前記道路標示をゼブラゾーンと特定するものである。 (11): In the zebra zone recognition method according to another aspect of the present invention, the progress of the vehicle is based on information acquired from a recognition device mounted on the vehicle and for recognizing the surrounding situation of the vehicle. A plane image representing the distribution of the color or brightness of the road in the direction is generated, and the generated plane image has a plurality of first detection lines parallel to each other and a plurality of second detection lines orthogonal to each of the first detection lines. A detection line is set, and it is determined whether or not each of the plurality of first detection lines and the plurality of second detection lines intersects the contour of the road marking in the plane image, and the road is determined based on the result of the determination. It identifies the marking as a zebra zone.

(12):この発明の他の態様に係るプログラムは、コンピュータに、車両に搭載され、前記車両の周辺状況を認識するための認識デバイスから取得した情報に基づいて、前記車両の進行方向における道路の色彩または輝度の分布を表す平面画像を生成させ、前記生成された平面画像に、互いに平行な複数の第1検出ラインと、前記第1検出ラインのそれぞれと直交する複数の第2検出ラインとを設定させ、前記複数の第1検出ラインと前記複数の第2検出ラインのそれぞれが前記平面画像における道路標示の輪郭と交わるか否かを判定させ、判定の結果に基づいて前記道路標示をゼブラゾーンと特定させるものである。 (12): The program according to another aspect of the present invention is mounted on a computer and is a road in the traveling direction of the vehicle based on information acquired from a recognition device for recognizing the surrounding situation of the vehicle. A plane image representing the distribution of color or brightness of the above is generated, and the generated plane image includes a plurality of first detection lines parallel to each other and a plurality of second detection lines orthogonal to each of the first detection lines. Is set, and it is determined whether or not each of the plurality of first detection lines and the plurality of second detection lines intersects the contour of the road marking in the plane image, and the road marking is zebra based on the determination result. It is intended to be identified as a zone.

(13):この発明の他の態様に係るゼブラゾーン認識方法は、コンピュータが、車両に搭載され、前記車両の周辺状況を撮像するカメラから取得した撮像画像において、任意の点から消失点に向かう消失線に沿う複数の第3検出ラインと、前記画像の横方向に沿う複数の第4検出ラインとを設定し、前記複数の第3検出ラインと前記複数の第4検出ラインのそれぞれが前記撮像画像における道路標示の輪郭と交わっているか否かを判定し、判定の結果に基づいて前記道路標示をゼブラゾーンと特定するものである。 (13): In the zebra zone recognition method according to another aspect of the present invention, a computer is mounted on a vehicle and the captured image acquired from a camera that captures the surrounding situation of the vehicle is directed from an arbitrary point to a vanishing point. A plurality of third detection lines along the vanishing line and a plurality of fourth detection lines along the lateral direction of the image are set, and each of the plurality of third detection lines and the plurality of fourth detection lines captures the image. It is determined whether or not it intersects with the contour of the road marking in the image, and the road marking is specified as the zebra zone based on the result of the determination.

(14):この発明の他の態様に係るプログラムは、コンピュータに、車両に搭載され、前記車両の周辺状況を撮像するカメラから取得した撮像画像において、任意の点から消失点に向かう消失線に沿う複数の第3検出ラインと、前記画像の横方向に沿う複数の第4検出ラインとを設定させ、前記複数の第3検出ラインと前記複数の第4検出ラインのそれぞれが前記画像における道路標示の輪郭と交わっているか否かを判定させ、判定の結果に基づいて前記道路標示をゼブラゾーンと特定させるものである。 (14): The program according to another aspect of the present invention is a vanishing line from an arbitrary point toward a vanishing point in an captured image acquired from a camera mounted on a vehicle and capturing the surrounding conditions of the vehicle on a computer. A plurality of third detection lines along the line and a plurality of fourth detection lines along the lateral direction of the image are set, and each of the plurality of third detection lines and the plurality of fourth detection lines is a road marking in the image. It is made to judge whether or not it intersects with the contour of, and the road marking is specified as a zebra zone based on the result of the judgment.

上記(1)〜(14)の態様によれば、簡易な処理によってゼブラゾーンを好適に認識することができる。 According to the above aspects (1) to (14), the zebra zone can be suitably recognized by a simple process.

また、上記(9)または(10)の態様によれば、ゼブラゾーンの特定結果に基づいて車両を好適に走行させることができる。 Further, according to the above aspect (9) or (10), the vehicle can be suitably driven based on the specific result of the zebra zone.

第1実施形態のゼブラゾーン認識装置を利用した車両システムの構成図である。It is a block diagram of the vehicle system using the zebra zone recognition device of 1st Embodiment. 第1実施形態の車両制御装置の機能構成図である。It is a functional block diagram of the vehicle control device of 1st Embodiment. カメラによって撮像された画像の一例を示す図である。It is a figure which shows an example of the image taken by the camera. 図3に示す画像に基づいて平面画像生成部により生成される平面画像の一例を示す図である。It is a figure which shows an example of the plane image generated by the plane image generation part based on the image shown in FIG. 検出ライン設定部により設定される監視領域について説明するための図である。It is a figure for demonstrating the monitoring area set by the detection line setting part. 検出ライン設定部により設定される第1検出ラインと第2検出ラインについて説明するための図である。It is a figure for demonstrating the 1st detection line and the 2nd detection line set by the detection line setting part. 横断歩道と検出ラインとの関係を例示した図である。It is a figure which illustrated the relationship between a pedestrian crossing and a detection line. 特定場面の一例を示す図である。It is a figure which shows an example of a specific scene. ゼブラゾーン認識部による処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow by a zebra zone recognition part. 第2実施形態に係る車両制御装置の機能構成図である。It is a functional block diagram of the vehicle control device which concerns on 2nd Embodiment. 第2実施形態の検出ライン設定部の処理について説明するための図である。It is a figure for demonstrating the process of the detection line setting part of 2nd Embodiment. 実施形態の車両制御装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the vehicle control device of an embodiment.

以下、図面を参照し、本発明のゼブラゾーン認識装置、車両制御装置、ゼブラゾーン認識方法、およびプログラムの実施形態について説明する。 Hereinafter, the zebra zone recognition device, the vehicle control device, the zebra zone recognition method, and the embodiment of the program of the present invention will be described with reference to the drawings.

<第1実施形態>
[全体構成]
図1は、第1実施形態のゼブラゾーン認識装置を利用した車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
<First Embodiment>
[overall structure]
FIG. 1 is a configuration diagram of a vehicle system 1 using the zebra zone recognition device of the first embodiment. The vehicle on which the vehicle system 1 is mounted is, for example, a vehicle such as a two-wheeled vehicle, a three-wheeled vehicle, or a four-wheeled vehicle, and the drive source thereof is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof. The electric motor operates by using the power generated by the generator connected to the internal combustion engine or the discharge power of the secondary battery or the fuel cell.

車両システム1は、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14と、物体認識装置16と、運転操作子80と、車両制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。 The vehicle system 1 includes, for example, a camera 10, a radar device 12, a LIDAR (Light Detection and Ranging) 14, an object recognition device 16, a driving controller 80, a vehicle control device 100, and a traveling driving force output device 200. And a braking device 210 and a steering device 220. These devices and devices are connected to each other by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like. The configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted or another configuration may be added.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。 The camera 10 is, for example, a digital camera using a solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 10 is attached to an arbitrary position of the vehicle on which the vehicle system 1 is mounted (hereinafter, the own vehicle M). When photographing the front, the camera 10 is attached to the upper part of the front windshield, the back surface of the rearview mirror, and the like. The camera 10 periodically and repeatedly images the periphery of the own vehicle M, for example. The camera 10 may be a stereo camera.

レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM−CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。 The radar device 12 radiates radio waves such as millimeter waves around the own vehicle M, and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and direction) of the object. The radar device 12 is attached to an arbitrary position of the own vehicle M. The radar device 12 may detect the position and velocity of the object by the FM-CW (Frequency Modulated Continuous Wave) method.

LIDAR14は、自車両Mの周辺に光(或いは光に近い波長の電磁波)を照射し、散乱光を測定する。LIDAR14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14は、自車両Mの任意の箇所に取り付けられる。 The LIDAR 14 irradiates the periphery of the own vehicle M with light (or an electromagnetic wave having a wavelength close to that of light) and measures the scattered light. The LIDAR 14 detects the distance to the target based on the time from light emission to light reception. The emitted light is, for example, a pulsed laser beam. The LIDAR 14 is attached to an arbitrary position on the own vehicle M.

物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を車両制御装置100に出力する。物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14の検出結果をそのまま車両制御装置100に出力してよい。車両システム1から物体認識装置16が省略されてもよい。 The object recognition device 16 performs sensor fusion processing on the detection results of a part or all of the camera 10, the radar device 12, and the LIDAR 14, and recognizes the position, type, speed, and the like of the object. The object recognition device 16 outputs the recognition result to the vehicle control device 100. The object recognition device 16 may output the detection results of the camera 10, the radar device 12, and the LIDAR 14 to the vehicle control device 100 as they are. The object recognition device 16 may be omitted from the vehicle system 1.

通信装置20は、例えば、セルラー網やWi−Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。 The communication device 20 communicates with another vehicle existing in the vicinity of the own vehicle M by using, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or wirelessly. Communicates with various server devices via the base station.

HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。 The HMI 30 presents various information to the occupants of the own vehicle M and accepts input operations by the occupants. The HMI 30 includes various display devices, speakers, buzzers, touch panels, switches, keys and the like.

車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出するジャイロセンサ、方向指示装置の作動状態を検出するウインカスイッチ等を含む。 The vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the own vehicle M, an acceleration sensor that detects acceleration, a yaw rate sensor that detects an angular velocity around the vertical axis, a gyro sensor that detects the direction of the own vehicle M, and an operation of a direction indicating device. Includes a blinker switch that detects the state.

ナビゲーション装置50は、例えば、GNSS受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDDやフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。 The navigation device 50 includes, for example, a GNSS receiver 51, a navigation HMI 52, and a route determination unit 53. The navigation device 50 holds the first map information 54 in a storage device such as an HDD or a flash memory. The GNSS receiver 51 identifies the position of the own vehicle M based on the signal received from the GNSS satellite. The position of the own vehicle M may be specified or complemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40. The navigation HMI 52 includes a display device, a speaker, a touch panel, keys, and the like. The navigation HMI 52 may be partially or wholly shared with the above-mentioned HMI 30. The route determination unit 53, for example, has a route from the position of the own vehicle M (or an arbitrary position input) specified by the GNSS receiver 51 to the destination input by the occupant using the navigation HMI 52 (hereinafter, hereafter). The route on the map) is determined with reference to the first map information 54. The first map information 54 is, for example, information in which a road shape is expressed by a link indicating a road and a node connected by the link. The first map information 54 may include road curvature, POI (Point Of Interest) information, and the like. The route on the map is output to MPU60. The navigation device 50 may provide route guidance using the navigation HMI 52 based on the route on the map. The navigation device 50 may be realized by, for example, the function of a terminal device such as a smartphone or a tablet terminal owned by an occupant. The navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20 and acquire a route equivalent to the route on the map from the navigation server.

MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。 The MPU 60 includes, for example, a recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory. The recommended lane determination unit 61 divides the route on the map provided by the navigation device 50 into a plurality of blocks (for example, divides the route into a plurality of blocks (for example, every 100 [m] with respect to the vehicle traveling direction), and refers to the second map information 62. Determine the recommended lane for each block. The recommended lane determination unit 61 determines which lane to drive from the left. When a branch point exists on the route on the map, the recommended lane determination unit 61 determines the recommended lane so that the own vehicle M can travel on a reasonable route to proceed to the branch destination.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。 The second map information 62 is more accurate map information than the first map information 54. The second map information 62 includes, for example, information on the center of the lane, information on the boundary of the lane, and the like. Further, the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like. The second map information 62 may be updated at any time by the communication device 20 communicating with another device.

運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、車両制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。 The driving controller 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, a deformed steering wheel, a joystick, and other controls. A sensor for detecting the amount of operation or the presence or absence of operation is attached to the driving operator 80, and the detection result is the vehicle control device 100 or the traveling driving force output device 200, the braking device 210, and the steering device 220. It is output to some or all of them.

車両制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め車両制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで車両制御装置100のHDDやフラッシュメモリにインストールされてもよい。 The vehicle control device 100 includes, for example, a first control unit 120 and a second control unit 160. The first control unit 120 and the second control unit 160 are realized by, for example, a hardware processor such as a CPU executing a program (software), respectively. Further, some or all of these components may be realized by hardware such as LSI, ASIC, FPGA, GPU (including circuit section; circuitry), or realized by collaboration between software and hardware. May be done. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD or a flash memory of the vehicle control device 100, or a removable storage such as a DVD or a CD-ROM. It is stored in a medium, and the storage medium (non-transient storage medium) may be installed in the HDD or flash memory of the vehicle control device 100 by being attached to the drive device.

図2は、車両制御装置100の機能構成図である。車両制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。認識部130は、「ゼブラゾーン認識装置」の一例である。行動計画生成部140と第2制御部160を合わせたものは、「運転制御部」の一例である。 FIG. 2 is a functional configuration diagram of the vehicle control device 100. The vehicle control device 100 includes, for example, a first control unit 120 and a second control unit 160. The first control unit 120 includes, for example, a recognition unit 130 and an action plan generation unit 140. The first control unit 120, for example, realizes a function by AI (Artificial Intelligence) and a function by a model given in advance in parallel. For example, the function of "recognizing an intersection" is executed in parallel with the recognition of an intersection by deep learning or the like and the recognition based on predetermined conditions (there are signals that can be pattern matched, road markings, etc.), and both are executed. It may be realized by scoring and comprehensively evaluating. This ensures the reliability of autonomous driving. The recognition unit 130 is an example of a “zebra zone recognition device”. The combination of the action plan generation unit 140 and the second control unit 160 is an example of the “operation control unit”.

認識部130は、自車両Mの周辺を認識する。認識部130は、例えば、自車位置認識部131と、物体認識部132と、ゼブラゾーン認識部133とを備える。ゼブラゾーン認識部133は、例えば、平面図生成部133Aと、検出ライン設定部133Bと、ゼブラゾーン特定部133Cとを備える。少なくともゼブラゾーン認識部133を備えるものが、ゼブラゾーン認識装置の一例である。 The recognition unit 130 recognizes the periphery of the own vehicle M. The recognition unit 130 includes, for example, a vehicle position recognition unit 131, an object recognition unit 132, and a zebra zone recognition unit 133. The zebra zone recognition unit 133 includes, for example, a plan view generation unit 133A, a detection line setting unit 133B, and a zebra zone identification unit 133C. An example of the zebra zone recognition device is one provided with at least the zebra zone recognition unit 133.

自車位置認識部131は、カメラ10、レーダ装置12、およびLIDAR14から物体認識装置16を介して入力された情報に基づいて、自車両Mが走行している車線(走行車線)を認識する。例えば、自車位置認識部131は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列や、線の太さ、線の間隔など)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、自車位置認識部131は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。 The own vehicle position recognition unit 131 recognizes the lane (traveling lane) in which the own vehicle M is traveling based on the information input from the camera 10, the radar device 12, and the LIDAR 14 via the object recognition device 16. For example, the own vehicle position recognition unit 131 is imaged by the pattern of the road marking line (for example, the arrangement of solid lines and broken lines, the thickness of lines, the spacing between lines, etc.) obtained from the second map information 62, and the camera 10. The traveling lane is recognized by comparing with the pattern of the road lane marking around the own vehicle M recognized from the image. The own vehicle position recognition unit 131 recognizes the traveling lane by recognizing not only the road lane marking but also the lane marking (road boundary) including the road lane marking, the shoulder, the curb, the median strip, the guardrail, and the like. You may. In this recognition, the position of the own vehicle M acquired from the navigation device 50 and the processing result by the INS may be added.

自車位置認識部131は、走行車線を認識する際に、走行車線に対する自車両Mの位置や姿勢を認識する。自車位置認識部131は、例えば、自車両Mの基準点の車線中央からの乖離、および自車両Mの進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両Mの相対位置および姿勢として認識してもよい。これに代えて、自車位置認識部131は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。 When recognizing the traveling lane, the own vehicle position recognition unit 131 recognizes the position and posture of the own vehicle M with respect to the traveling lane. The own vehicle position recognition unit 131 determines, for example, the deviation of the reference point of the own vehicle M from the center of the lane and the angle formed by the own vehicle M with respect to the line connecting the center of the lane in the traveling direction of the own vehicle M with respect to the traveling lane. It may be recognized as the relative position and orientation of. Instead of this, the own vehicle position recognition unit 131 sets the position of the reference point of the own vehicle M with respect to any side end portion (road lane marking or road boundary) of the traveling lane, etc., relative to the traveling lane. It may be recognized as a position.

物体認識部132は、カメラ10、レーダ装置12、およびLIDAR14から物体認識装置16を介して入力された情報に基づいて、自車両Mの周辺にある物体(前走車両や対向車両を含む)の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両Mの代表点(車両重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。 The object recognition unit 132 is an object (including a vehicle in front and an oncoming vehicle) around the own vehicle M based on the information input from the camera 10, the radar device 12, and the LIDAR 14 via the object recognition device 16. Recognize the position, speed, acceleration, and other states. The position of the object is recognized as, for example, a position on absolute coordinates with the representative point (center of gravity of the vehicle, the center of the drive shaft, etc.) of the own vehicle M as the origin, and is used for control. The position of the object may be represented by a representative point such as the center of gravity or a corner of the object, or may be represented by a represented area. The "state" of an object may include acceleration or jerk of the object, or "behavioral state" (eg, whether or not the vehicle is changing lanes or is about to change lanes).

また、物体認識部132は、自車両Mの周辺にある物体について、その存在に起因するリスク(リスク領域)を推定する。リスクとは、例えば、物体の中心点を最高値として周辺に広がるに連れて値が低下し、十分に離れるとゼロになる指標値である。本実施形態におけるリスクの適用例については後述する。 In addition, the object recognition unit 132 estimates the risk (risk area) due to the existence of the object in the vicinity of the own vehicle M. The risk is, for example, an index value in which the value decreases as the center point of the object is set as the maximum value and spreads to the periphery, and becomes zero when the object is sufficiently separated. An example of applying the risk in this embodiment will be described later.

ゼブラゾーン認識部133の処理については後述する。 The processing of the zebra zone recognition unit 133 will be described later.

行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両Mの周辺状況に対応した自動運転が実行されるように(例えば、可能な限り推奨車線内で、物体認識部132により推定されたリスクの低い経路を走行するように)、自車両Mが将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。 In principle, the action plan generation unit 140 travels in the recommended lane determined by the recommended lane determination unit 61, and further, it is possible to execute automatic driving corresponding to the surrounding conditions of the own vehicle M (for example, possible). As long as the vehicle M travels on a low-risk route estimated by the object recognition unit 132 within the recommended lane), the target track on which the own vehicle M will travel in the future is generated. The target trajectory includes, for example, a velocity element. For example, the target track is expressed as a sequence of points (track points) to be reached by the own vehicle M. The track point is a point to be reached by the own vehicle M for each predetermined mileage (for example, about several [m]) along the road, and separately, for a predetermined sampling time (for example, about 0 comma [sec]). ) Target velocity and target acceleration are generated as part of the target trajectory.

第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。 The second control unit 160 sets the traveling driving force output device 200, the brake device 210, and the steering device 220 so that the own vehicle M passes the target trajectory generated by the action plan generation unit 140 at the scheduled time. Control.

図1に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。 Returning to FIG. 1, the second control unit 160 includes, for example, an acquisition unit 162, a speed control unit 164, and a steering control unit 166. The acquisition unit 162 acquires the information of the target trajectory (orbit point) generated by the action plan generation unit 140 and stores it in a memory (not shown). The speed control unit 164 controls the traveling driving force output device 200 or the braking device 210 based on the speed element associated with the target trajectory stored in the memory. The steering control unit 166 controls the steering device 220 according to the degree of bending of the target trajectory stored in the memory. The processing of the speed control unit 164 and the steering control unit 166 is realized by, for example, a combination of feedforward control and feedback control. As an example, the steering control unit 166 executes a combination of feedforward control according to the curvature of the road in front of the own vehicle M and feedback control based on the deviation from the target trajectory.

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECUとを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。 The traveling driving force output device 200 outputs a traveling driving force (torque) for traveling the vehicle to the drive wheels. The traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and an ECU that controls them. The ECU controls the above configuration according to the information input from the second control unit 160 or the information input from the operation operator 80.

ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。 The brake device 210 includes, for example, a brake caliper, a cylinder that transmits flood pressure to the brake caliper, an electric motor that generates flood pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor according to the information input from the second control unit 160 or the information input from the operation operator 80 so that the brake torque corresponding to the braking operation is output to each wheel. The brake device 210 may include, as a backup, a mechanism for transmitting the oil pressure generated by the operation of the brake pedal included in the operation operator 80 to the cylinder via the master cylinder. The brake device 210 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls an actuator according to information input from the second control unit 160 to transmit the oil pressure of the master cylinder to the cylinder. May be good.

ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor, for example, applies a force to the rack and pinion mechanism to change the direction of the steering wheel. The steering ECU drives the electric motor according to the information input from the second control unit 160 or the information input from the driving operator 80 to change the direction of the steering wheel.

[ゼブラゾーン認識]
以下、ゼブラゾーン認識部133の処理について説明する。ゼブラゾーン認識部133は、自車両Mの周囲に存在するゼブラゾーンを認識する。ゼブラゾーン(導流帯)とは、道路に描画された道路標示の一つであり、例えば、道路に対して斜めの縞模様で、白色に描画されたものである。ゼブラゾーンは、その領域内の通過は法規上、許可されるが、停車が許可されていない領域である。
[Zebra zone recognition]
Hereinafter, the processing of the zebra zone recognition unit 133 will be described. The zebra zone recognition unit 133 recognizes the zebra zone existing around the own vehicle M. The zebra zone (guide zone) is one of the road markings drawn on the road, and is, for example, a striped pattern diagonal to the road and drawn in white. The zebra zone is an area where passage within the area is permitted by law, but stopping is not permitted.

ゼブラゾーン認識部133の平面画像生成部133Aは、カメラ10によって撮像された画像、またはLIDAR14によって検出された物標の反射強度の情報に基づいて、自車両Mの進行方向における道路の色彩または輝度の分布を表す平面画像を生成する。平面画像は、二値画像(白黒画像)でもよいし、カラー画像でもよい。平面画像は、仮想的に上空に視点を置いた場合の画像である。以下の説明では、平面画像生成部133Aは、カメラ10によって撮像された画像から平面画像を生成するものとする。 The plane image generation unit 133A of the zebra zone recognition unit 133 uses the color or brightness of the road in the traveling direction of the own vehicle M based on the image captured by the camera 10 or the information of the reflection intensity of the target detected by the LIDAR 14. Generates a planar image showing the distribution of. The plane image may be a binary image (black and white image) or a color image. The plane image is an image when the viewpoint is virtually placed in the sky. In the following description, it is assumed that the plane image generation unit 133A generates a plane image from the image captured by the camera 10.

図3は、カメラ10によって撮像された画像の一例を示す図であり、図4は、図3に示す画像に基づいて平面画像生成部133Aにより生成される平面画像IM1の一例を示す図である。平面画像生成部133Aは、カメラ10によって撮像された画像に対して、画像平面から実平面の画像に変換する変換テーブルあるいは変換関数を適用することで、平面画像を生成する。 FIG. 3 is a diagram showing an example of an image captured by the camera 10, and FIG. 4 is a diagram showing an example of a planar image IM1 generated by the planar image generation unit 133A based on the image shown in FIG. .. The plane image generation unit 133A generates a plane image by applying a conversion table or a conversion function for converting an image plane to a real plane image to the image captured by the camera 10.

平面画像生成部133Aは、平面画像を生成する処理を、例えば周期的に行う。また、平面画像生成部133Aは、例えば、自車両Mが交差点に接近していることを認識した場合や、自車両Mが合流路に接近していることを認識した場合などの、所定の条件を満たす場合にのみ平面画像を生成してもよい。なお、LIDAR14によって検出された物標の反射強度に基づいて平面画像を生成する場合、平面画像生成部133Aは、LIDARによって検出される反射点の情報(例えば、{上下方向の照射角度,左右方向の照射角度,距離,反射強度}で表現される)から高さに関する情報を除去することで、平面画像を生成する。 The plane image generation unit 133A periodically performs a process of generating a plane image, for example. Further, the plane image generation unit 133A recognizes that the own vehicle M is approaching the intersection, or recognizes that the own vehicle M is approaching the confluence, and the like. A plane image may be generated only when the condition is satisfied. When a plane image is generated based on the reflection intensity of the target detected by LIDAR 14, the plane image generation unit 133A uses the information of the reflection point detected by LIDAR (for example, {vertical irradiation angle, left-right direction). The plane image is generated by removing the information about the height from the irradiation angle, distance, and reflection intensity}.

検出ライン設定部133Bは、平面画像生成部133Aにより生成された平面画像IM1における監視領域内に、複数の(所定数の)第1検出ラインと複数の(所定数の)第2検出ラインとをそれぞれ設定する。監視領域は、例えば、道路区画線、横断歩道、ゼブラゾーンなどを構成する一本の線(以下、「ラインマーク」と称する)の幅よりも一辺の長さが若干大きい程度の矩形(例えば、数十[cm]×数十[cm]の矩形)に設定される。ラインマークとは、白や黄色で実線または破線の形状で道路に描画されたものである。 The detection line setting unit 133B sets a plurality of (predetermined number of) first detection lines and a plurality of (predetermined number of) second detection lines in the monitoring area in the plane image IM1 generated by the plane image generation unit 133A. Set each. The monitoring area is, for example, a rectangle (for example,) having a side length slightly larger than the width of one line (hereinafter referred to as “line mark”) constituting a road marking line, a pedestrian crossing, a zebra zone, or the like. It is set to a rectangle of several tens [cm] x several tens [cm]). A line mark is a white or yellow line drawn on a road in the form of a solid line or a broken line.

検出ライン設定部133Bは、例えば、平面画像IM1において、自車両Mの周辺におけるラインマークが存在しそうな領域を粗く探索し、エッジ点がある程度の密度で存在する領域を初期監視領域に設定する。そして、検出ライン設定部133Bは、初期監視領域内に、ラスタスキャンなどの手法で網羅的に監視領域を設定する。図5は、検出ライン設定部133Bにより設定される監視領域について説明するための図である。図中、iMAは初期監視領域であり、MAは監視領域である。また、CR1は横断歩道であり、ZZ1、ZZ2はゼブラゾーンである。 For example, in the plane image IM1, the detection line setting unit 133B roughly searches the region around the own vehicle M where the line mark is likely to exist, and sets the region where the edge points exist at a certain density as the initial monitoring region. Then, the detection line setting unit 133B comprehensively sets the monitoring area in the initial monitoring area by a method such as raster scan. FIG. 5 is a diagram for explaining a monitoring area set by the detection line setting unit 133B. In the figure, iMA is the initial monitoring area and MA is the monitoring area. Further, CR1 is a pedestrian crossing, and ZZ1 and ZZ2 are zebra zones.

そして、検出ライン設定部133Bは、それぞれの監視領域MA内に、複数の第1検出ラインと複数の第2検出ラインとをそれぞれ設定する。図6は、検出ライン設定部133Bにより設定される第1検出ラインと第2検出ラインについて説明するための図である。図中、LMはラインマークであり、DL1(1)、…DL1(n)はn本の第1検出ラインであり、DL2(1)、…DL2(m)はm本の第2検出ラインである。検出ライン設定部133Bは、例えば、自車両Mが走行中の車線の長手方向と平行な方向に、第1検出ラインDL1を設定する。車線の長手方向は、例えば、自車位置認識部131が認識する道路区画線の延在方向から求められる。検出ライン設定部133Bは、例えば、第1検出ラインDL1と直交する方向に第2検出ラインDL2を設定する。第1検出ラインDL1と第2検出ラインDL2のそれぞれの間隔は、例えば、監視領域MA内に所定の本数(例えば3〜5本程度)の第1検出ラインDL1または第2検出ラインDL2が収まるように設定される。この間隔は、横断歩道等におけるラインマークの間隔よりも若干狭い間隔であることが望ましい。 Then, the detection line setting unit 133B sets a plurality of first detection lines and a plurality of second detection lines in each monitoring area MA. FIG. 6 is a diagram for explaining a first detection line and a second detection line set by the detection line setting unit 133B. In the figure, LM is a line mark, DL1 (1), ... DL1 (n) are n first detection lines, and DL2 (1), ... DL2 (m) are m second detection lines. is there. The detection line setting unit 133B sets the first detection line DL1 in a direction parallel to the longitudinal direction of the lane in which the own vehicle M is traveling, for example. The longitudinal direction of the lane is obtained from, for example, the extending direction of the road lane marking recognized by the own vehicle position recognition unit 131. The detection line setting unit 133B sets the second detection line DL2 in a direction orthogonal to the first detection line DL1, for example. The interval between the first detection line DL1 and the second detection line DL2 is such that a predetermined number (for example, about 3 to 5) of the first detection line DL1 or the second detection line DL2 fits in the monitoring area MA, for example. Is set to. It is desirable that this interval is slightly narrower than the interval of line marks on pedestrian crossings and the like.

ゼブラゾーン特定部133Cは、複数の第1検出ラインDL1と複数の第2検出ラインDL2のそれぞれが平面画像IM1における道路標示の輪郭(以下、ラインマークの輪郭と称する)と交わっているか否かを判定し、判定の結果に基づいて道路標示をゼブラゾーンと特定する。ゼブラゾーン特定部133Cは、第1検出ラインDL1または第2検出ラインDL2上の各画素について、隣接する画素との間で輝度、色要素(RGB)などの特徴量が基準以上に変化した場合に、「ラインマークの輪郭と交わっている」と判定する。より具体的に、ゼブラゾーン特定部133Cは、監視領域MA内の第1検出ラインDL1の全てがラインマークの輪郭と交わっており、且つ監視領域MA内の第2検出ラインDL2の全てがラインマークの輪郭と交わっている場合、監視領域MAはゼブラゾーンの一部であると判定し、そうでない場合、監視領域MAはゼブラゾーンの一部でないと判定する。 The zebra zone identification unit 133C determines whether or not each of the plurality of first detection lines DL1 and the plurality of second detection lines DL2 intersects the contour of the road marking (hereinafter referred to as the contour of the line mark) in the plane image IM1. Judgment is made, and the road marking is identified as the zebra zone based on the result of the judgment. The zebra zone identification unit 133C is used when the feature quantities such as brightness and color element (RGB) of each pixel on the first detection line DL1 or the second detection line DL2 change more than the reference value between the pixels and the adjacent pixels. , It is determined that "it intersects with the outline of the line mark". More specifically, in the zebra zone identification unit 133C, all of the first detection line DL1 in the monitoring area MA intersects the contour of the line mark, and all of the second detection line DL2 in the monitoring area MA are line marks. If it intersects with the contour of, it is determined that the monitoring area MA is a part of the zebra zone, and if not, it is determined that the monitoring area MA is not a part of the zebra zone.

一般的にゼブラゾーンのラインマークは、車線の延在方向に対して斜めに描画されている。このため、車線の長手方向と平行な方向に設定された第1検出ラインDL1と、第1検出ラインDL1と直交する方向に設定された第2検出ラインDL2のそれぞれは、ゼブラゾーンのラインマークのいずれかの輪郭と交わることが想定される。図6においても、監視領域MA内の第1検出ラインDL1の全てがラインマークLMの輪郭と交わっており、且つ監視領域MA内の第2検出ラインDL2の全てがラインマークの輪郭LMと交わっている。なお、スクランブル交差点のように、道路に対してラインマークが斜めに描画された横断歩道も存在するが、ゼブラゾーン特定部133Cは、これについては地図情報を参照して予め除外するなどの処理を行ってよい。 Generally, the line mark of the zebra zone is drawn diagonally with respect to the extending direction of the lane. Therefore, each of the first detection line DL1 set in the direction parallel to the longitudinal direction of the lane and the second detection line DL2 set in the direction orthogonal to the first detection line DL1 is the line mark of the zebra zone. It is expected to intersect with either contour. Also in FIG. 6, all of the first detection line DL1 in the monitoring area MA intersects with the contour of the line mark LM, and all of the second detection line DL2 in the monitoring area MA intersects with the contour LM of the line mark. There is. In addition, there are pedestrian crossings where line marks are drawn diagonally with respect to the road, such as scrambled intersections, but the zebra zone identification section 133C performs processing such as excluding this in advance with reference to map information. You may go.

この逆に、横断歩道や停止線などのラインマークは、一般的に車線の延在方向に対して平行または直交するように描画されている。図7は、横断歩道と検出ラインとの関係を例示した図である。図7の例では、第1検出ラインDL1(3)がラインマークLMの間に収まっており、ラインマークLMの輪郭と交わっていない。このため、ゼブラゾーン特定部133Cは、監視領域MAはゼブラゾーンの一部でないと判定する。 On the contrary, line marks such as pedestrian crossings and stop lines are generally drawn so as to be parallel or orthogonal to the extending direction of the lane. FIG. 7 is a diagram illustrating the relationship between the pedestrian crossing and the detection line. In the example of FIG. 7, the first detection line DL1 (3) fits between the line mark LM and does not intersect the contour of the line mark LM. Therefore, the zebra zone identification unit 133C determines that the monitoring area MA is not a part of the zebra zone.

[旋回中のゼブラゾーン認識]
ゼブラゾーン認識部133は、上記した処理を繰り返し実行する。その間、ゼブラゾーン認識部133は、自車両Mが旋回中であるか否かを判定し、旋回中であると判定した場合に、ゼブラゾーンの認識をを行わず、車両が旋回中であると判定するに至ったタイミングよりも前の(例えば、直前の)認識結果を維持する。自車両Mが旋回している場合に、車線に対する自車両Mの車体の角度をリアルタイムに計測し、画像解析処理に要する時間との関係でタイミングを同期させるのは困難な場合がある。このため、自車両Mが旋回している場合には、「車線の長手方向と平行な方向に設定」した筈の第1検出ラインDL1が、実際には車線の長手方向と平行にならなくなる可能性があるからである。そこで、実施形態では、自車両Mが旋回中であると判定した場合にはゼブラゾーンの認識結果を更新せず、前回以前の認識結果を維持する。これによって、誤検知が生じる可能性を低減することができる。
[Zebra zone recognition during turning]
The zebra zone recognition unit 133 repeatedly executes the above-mentioned process. During that time, the zebra zone recognition unit 133 determines whether or not the own vehicle M is turning, and when it is determined that the vehicle M is turning, it does not recognize the zebra zone and determines that the vehicle is turning. The recognition result before (for example, immediately before) the timing at which the determination is reached is maintained. When the own vehicle M is turning, it may be difficult to measure the angle of the vehicle body of the own vehicle M with respect to the lane in real time and synchronize the timing in relation to the time required for the image analysis processing. Therefore, when the own vehicle M is turning, the first detection line DL1 that should have been "set in a direction parallel to the longitudinal direction of the lane" may not actually be parallel to the longitudinal direction of the lane. Because there is sex. Therefore, in the embodiment, when it is determined that the own vehicle M is turning, the recognition result of the zebra zone is not updated, and the recognition result before the previous time is maintained. This makes it possible to reduce the possibility of false positives.

ゼブラゾーン認識部133は、車両センサ40の検出結果を参照し、少なくとも自車両Mの方向指示装置の状態、ヨーレートセンサの検出結果、およびジャイロセンサの検出結果のうち一部または全部に基づいて、自車両Mが旋回中であるか否かを判定する。例えば、ゼブラゾーン認識部133は、方向指示装置がいずれかの方向に動作している、ヨーレートセンサの検出結果が閾値以上の値を示している、ジャイロセンサの検出結果と車線の延在方向とのなす角度が閾値以上の速度で変化していることのうち二つ以上が満たされた場合に、自車両Mが旋回中であると判定する。 The zebra zone recognition unit 133 refers to the detection result of the vehicle sensor 40, and based on at least a part or all of the state of the direction indicator of the own vehicle M, the detection result of the yaw rate sensor, and the detection result of the gyro sensor. It is determined whether or not the own vehicle M is turning. For example, the zebra zone recognition unit 133 indicates that the direction indicator is operating in either direction, the detection result of the yaw rate sensor indicates a value equal to or higher than the threshold value, the detection result of the gyro sensor and the extending direction of the lane. When two or more of the angles formed by the vehicle changing at a speed equal to or greater than the threshold value are satisfied, it is determined that the own vehicle M is turning.

行動計画生成部140は、ゼブラゾーン特定部133Cによりゼブラゾーンが特定された場合、そのゼブラゾーンに停止しないように目標軌道を生成し、自車両Mの操舵および速度を制御する。 When the zebra zone is specified by the zebra zone identification unit 133C, the action plan generation unit 140 generates a target trajectory so as not to stop in the zebra zone, and controls the steering and speed of the own vehicle M.

[適用例]
以下、特定場面における行動計画生成部140の処理について説明する。前述したように、物体認識部132は、自車両Mの周辺にある物体について、その存在に起因するリスク(リスク領域)を推定する。物体認識部132が物体のリスクを推定する対象は、主として、自車両Mが走行している車線(以下、自車線)、自車線に隣接する隣接車線、自車線に対向する対向車線、および自車線に交差する交差車線のそれぞれに存在する物体である。物体認識部132が、それ以外の領域に存在する物体については認識の優先度を下げる、或いは認識を行わないことにより、処理負荷の軽減と誤検知の抑制を実現することができる。
[Application example]
Hereinafter, the processing of the action plan generation unit 140 in the specific scene will be described. As described above, the object recognition unit 132 estimates the risk (risk area) due to the existence of the object around the own vehicle M. The objects for which the object recognition unit 132 estimates the risk of an object are mainly the lane in which the own vehicle M is traveling (hereinafter referred to as the own lane), the adjacent lane adjacent to the own lane, the oncoming lane facing the own lane, and the own lane. It is an object that exists in each of the crossing lanes that intersect the lane. By lowering the priority of recognition or not recognizing an object existing in the other region by the object recognition unit 132, it is possible to reduce the processing load and suppress erroneous detection.

ところで、認識規則の上では、隣接車線と認識される車線は、「一本の道路区画線を挟んで自車線と隣接する車線」であり、自車線との間にゼブラゾーンが存在する車線に関しては、隣接車線と認識されないものである。しかしながら、合流場面において、自車線との間にゼブラゾーンを挟んで合流車線が存在し、その合流車線がいずれ自車線に合流するような場面も想定される。物体認識部132は、ゼブラゾーン特定部133Cが特定したゼブラゾーンZZが自車両Mの側方にある場合において、ゼブラゾーンZZを挟んだ先にあり、自車両Mがいる自車線(第1車線)とは異なる第2車線を更に認識できるか否かを判定し、第2車線を認識できると判定し且つ第2車線の進行方向が自車線(第1車線)の進行方向と交差する場合に、第2車線を隣接車線として認識し、第2車線にある物体のリスクを推定する。 By the way, according to the recognition rules, the lane recognized as an adjacent lane is "a lane adjacent to the own lane across a road marking line", and regarding a lane having a zebra zone between the own lane. Is not recognized as an adjacent lane. However, in the merging scene, it is assumed that there is a merging lane with a zebra zone in between the lane and the merging lane, and the merging lane will eventually merge into the own lane. The object recognition unit 132 is located in front of the zebra zone ZZ when the zebra zone ZZ specified by the zebra zone identification unit 133C is on the side of the own vehicle M, and is in the own lane (first lane) in which the own vehicle M is located. When it is determined whether or not the second lane different from) can be further recognized, it is determined that the second lane can be recognized, and the traveling direction of the second lane intersects with the traveling direction of the own lane (first lane). , Recognize the second lane as an adjacent lane and estimate the risk of objects in the second lane.

図8は、特定場面の一例を示す図である。図中、L1は自車線(第1車線)であり、L2は合流車線(第2車線)である。DL1は、自車線の進行方向であり、DL2は、合流車線の進行方向である。「車線の進行方向」とは、その車線を通常の向きで走行する車両の進行方向という意味である。「側方」とは、自車両Mの前方を中心として左右に所定角度(例えば15度程度)ずつ開いた範囲を「前方」、自車両Mの後方を中心として所定角度ずつ開いた範囲を「後方」と定義した場合に、それら以外の領域である。また、厳密に言うと「側方」かつ「所定距離(例えば数十[m])以内」である。また、図中mは、合流車線(第2車線)に存在する物体の一例である他車両mであり、Rmは、他車両mについて物体認識部132が推定したリスクの分布を示している。図中、色が濃い部分は、リスク(指標値)が高いことを示している。物体認識部132は、例えば、他車両mの代表点を中心として、代表点に近いほど高く、代表点から離れるほど低くなるように、リスクを導出する。そして、行動計画生成部140は、リスクの高い位置を避けることを指針の一つとして目標軌道を生成する。これによって、自車線に合流して来る車両のリスクを適切に評価し、物体との不要な接近を抑制することができる。 FIG. 8 is a diagram showing an example of a specific scene. In the figure, L1 is the own lane (first lane), and L2 is the merging lane (second lane). DL1 is the traveling direction of the own lane, and DL2 is the traveling direction of the merging lane. The "direction of travel of a lane" means the direction of travel of a vehicle traveling in the normal direction in that lane. "Side" means "front" the range opened by a predetermined angle (for example, about 15 degrees) to the left and right centering on the front of the own vehicle M, and "front" the range opened by a predetermined angle centered on the rear of the own vehicle M. When defined as "backward", it is the area other than those. Strictly speaking, it is "sideways" and "within a predetermined distance (for example, several tens [m])". Further, m in the figure is another vehicle m which is an example of an object existing in the merging lane (second lane), and Rm shows a risk distribution estimated by the object recognition unit 132 for the other vehicle m. In the figure, the dark part indicates that the risk (index value) is high. For example, the object recognition unit 132 derives the risk centering on the representative point of the other vehicle m so that the closer to the representative point, the higher the risk, and the farther away from the representative point, the lower the risk. Then, the action plan generation unit 140 generates a target trajectory with one of the guidelines to avoid a high-risk position. As a result, the risk of the vehicle merging into the own lane can be appropriately evaluated, and unnecessary approach to the object can be suppressed.

[処理フロー]
図9は、ゼブラゾーン認識部133による処理の流れの一例を示すフローチャートである。まず、ゼブラゾーン認識部133は、自車両Mが旋回中であるか否かを判定する(ステップS100)。自車両Mが旋回中であると判定した場合、今回サイクルの処理は行わず、前回の認識結果を維持する(ステップS114)。すなわち、ゼブラゾーン認識部133の特定部133Cは、今回サイクルの特定を行わず、前回の結果を維持する。
[Processing flow]
FIG. 9 is a flowchart showing an example of the processing flow by the zebra zone recognition unit 133. First, the zebra zone recognition unit 133 determines whether or not the own vehicle M is turning (step S100). If it is determined that the own vehicle M is turning, the current cycle process is not performed and the previous recognition result is maintained (step S114). That is, the specific unit 133C of the zebra zone recognition unit 133 does not specify the cycle this time and maintains the previous result.

自車両Mが旋回中でないと判定した場合、平面画像生成部133Aがカメラ画像を取得し(ステップS102)、平面画像を生成する(ステップS104)。 When it is determined that the own vehicle M is not turning, the plane image generation unit 133A acquires a camera image (step S102) and generates a plane image (step S104).

次に、ステップS106〜S112の処理が監視領域ごとに実行される。検出ライン設定部133Bは、第1検出ラインおよび第2検出ラインを設定する(ステップS106)。ゼブラゾーン特定部133Cは、第1検出ラインと第2検出ラインの全てがラインマークの輪郭と交わるか否かを判定する(ステップS108)。ゼブラゾーン特定部133Cは、第1検出ラインと第2検出ラインの全てがラインマークの輪郭と交わる場合、当該監視領域をゼブラゾーンと特定する(ステップS110)。ゼブラゾーン特定部133Cは、第1検出ラインと第2検出ラインのうち一部でもラインマークの輪郭と交わらない場合、当該監視領域をゼブラゾーンと特定しない(ステップS112)。 Next, the processes of steps S106 to S112 are executed for each monitoring area. The detection line setting unit 133B sets the first detection line and the second detection line (step S106). The zebra zone identification unit 133C determines whether or not all of the first detection line and the second detection line intersect the contour of the line mark (step S108). When all of the first detection line and the second detection line intersect the contour of the line mark, the zebra zone identification unit 133C identifies the monitoring area as the zebra zone (step S110). If even a part of the first detection line and the second detection line does not intersect the contour of the line mark, the zebra zone identification unit 133C does not specify the monitoring area as the zebra zone (step S112).

以上説明したように、第1実施形態によれば、車両(自車両M)に搭載され、車両の周辺状況を認識するための認識デバイス(カメラ10)から取得した情報に基づいて、車両の進行方向における道路の色彩または輝度の分布を表す平面画像を生成する生成部(平面画像生成部133A)と、生成部により生成された平面画像に、互いに平行な複数の第1検出ラインと、第1検出ラインのそれぞれと直交する複数の第2検出ラインとを設定する設定部(検出ライン設定部133B)と、複数の第1検出ラインと複数の第2検出ラインのそれぞれが平面画像における道路標示の輪郭と交わっているか否かを判定し、判定の結果に基づいて前記道路標示をゼブラゾーンと特定する特定部(ゼブラゾーン特定部133C)と、を備えることにより、簡易な処理によってゼブラゾーンを好適に認識することができる。また、第1実施形態によれば、行動計画生成部140によりゼブラゾーンの特定結果が反映された目標軌道が生成されるため、ゼブラゾーンの特定結果に基づいて自車両Mを好適に走行させることができる。 As described above, according to the first embodiment, the vehicle progresses based on the information mounted on the vehicle (own vehicle M) and acquired from the recognition device (camera 10) for recognizing the surrounding conditions of the vehicle. A generation unit (plane image generation unit 133A) that generates a plane image representing the distribution of the color or brightness of the road in the direction, a plurality of first detection lines parallel to each other on the plane image generated by the generation unit, and a first A setting unit (detection line setting unit 133B) for setting a plurality of second detection lines orthogonal to each of the detection lines, and each of the plurality of first detection lines and the plurality of second detection lines are road markings in a plane image. By providing a specific unit (Zebra zone identification unit 133C) that determines whether or not it intersects the contour and identifies the road marking as a zebra zone based on the result of the determination, the zebra zone is suitable for simple processing. Can be recognized. Further, according to the first embodiment, since the action plan generation unit 140 generates a target trajectory reflecting the specific result of the zebra zone, the own vehicle M is suitably driven based on the specific result of the zebra zone. Can be done.

<第2実施形態>
以下、第2実施形態について説明する。図10は、第2実施形態に係る車両制御装置100#の機能構成図である。以下、第2実施形態に特有の構成については符号に「#」を付すものとする。
<Second Embodiment>
Hereinafter, the second embodiment will be described. FIG. 10 is a functional configuration diagram of the vehicle control device 100 # according to the second embodiment. Hereinafter, "#" will be added to the reference numerals for the configurations peculiar to the second embodiment.

第2実施形態に係るゼブラゾーン認識部133#は、例えば、検出ライン設定部133#Bと、ゼブラゾーン特定部133Cとを備える。 The zebra zone recognition unit 133 # according to the second embodiment includes, for example, a detection line setting unit 133 # B and a zebra zone identification unit 133C.

図11は、第2実施形態の検出ライン設定部133#Bの処理について説明するための図である。図示するように、検出ライン設定部133#Bは、カメラ10から取得した撮像画像(カメラ画像)における所定領域(自車両Mの前方の道路に対応する領域)に、画像において任意の点から消失点VPに向かう消失線に沿う複数の第3検出ライン線DL3と、画像の横方向に延在する複数の第4検出ラインDL4とを設定する。検出ライン設定部133#Bは、自車両Mから遠くなる程、第3検出ラインDL3の間隔を短くしてよい。図11はあくまで概念的に説明するための図であり、実際は矩形形状などに設定した監視領域内に、図11に示すよりも高密度に第3検出ラインDL3と第4検出ラインDL4が設定される。そして、ゼブラゾーン特定部133#Cは、第1実施形態と同様、監視領域内の第3検出ラインDL3の全てがラインマークの輪郭と交わっており、且つ監視領域内の第4検出ラインDL4の全てがラインマークの輪郭と交わっている場合、監視領域はゼブラゾーンの一部であると判定し、そうでない場合、監視領域はゼブラゾーンの一部でないと判定する。 FIG. 11 is a diagram for explaining the processing of the detection line setting unit 133 # B of the second embodiment. As shown in the figure, the detection line setting unit 133 # B disappears from an arbitrary point in the image in a predetermined area (area corresponding to the road in front of the own vehicle M) in the captured image (camera image) acquired from the camera 10. A plurality of third detection line DL3s along the vanishing point toward the point VP and a plurality of fourth detection lines DL4 extending in the lateral direction of the image are set. The detection line setting unit 133 # B may shorten the interval of the third detection line DL3 as the distance from the own vehicle M increases. FIG. 11 is a diagram for conceptual explanation only, and in reality, the third detection line DL3 and the fourth detection line DL4 are set at a higher density than that shown in FIG. 11 in the monitoring area set in a rectangular shape or the like. Rectangle. Then, in the zebra zone identification unit 133 # C, as in the first embodiment, all of the third detection line DL3 in the monitoring area intersects the contour of the line mark, and the fourth detection line DL4 in the monitoring area If everything intersects the contour of the line mark, it is determined that the monitoring area is part of the zebra zone, otherwise it is determined that the monitoring area is not part of the zebra zone.

カメラ画像における消失線は、理論的には道路区画線とほぼ平行になるため、消失線を第3検出ラインDL3として設定することは、平面画像に変換した後に車線の延在方向に沿って第1検出ラインDL1を設定することと原理的に同じである。また、画像の横方向に沿った線は、平面画像に変換すると車線の延在方向に直交する線となるため、画像の横方向に沿って第4検出ラインDL4を設定することは、平面画像において第1検出ラインDL1と直交する方向に第2検出ラインDL2を設定することと原理的に同じである。このため、第2実施形態によれば、第1実施形態と同様の効果を奏することができる。なお、路面の高さ変化などによって消失線が車線の延在方向と一致しない場合も想定されるため、第1実施形態の方が精度の面で優位であるが、平面画像に変換する処理が不要なため、第2実施形態の方が処理負荷を軽減できるメリットが存在する。 Since the vanishing line in the camera image is theoretically almost parallel to the road marking line, setting the vanishing line as the third detection line DL3 is the first along the extending direction of the lane after converting to a flat image. 1 It is the same as setting the detection line DL1 in principle. Further, since the line along the horizontal direction of the image becomes a line orthogonal to the extending direction of the lane when converted to a flat image, setting the fourth detection line DL4 along the horizontal direction of the image is a flat image. In principle, it is the same as setting the second detection line DL2 in the direction orthogonal to the first detection line DL1. Therefore, according to the second embodiment, the same effect as that of the first embodiment can be obtained. Since it is assumed that the vanishing line does not match the extending direction of the lane due to a change in the height of the road surface, the first embodiment is superior in terms of accuracy, but the process of converting to a flat image is performed. Since it is unnecessary, the second embodiment has a merit that the processing load can be reduced.

第2実施形態のゼブラゾーン認識部133#が実行する処理の流れについては、図9のフローチャートを援用可能である、但し、ステップS104は省略され、ステップS106の処理の内容は第1実施形態と異なる。 The flowchart of FIG. 9 can be used for the flow of processing executed by the zebra zone recognition unit 133 # of the second embodiment, except that step S104 is omitted and the processing content of step S106 is the same as that of the first embodiment. different.

以上説明した第2実施形態によれば、車両(自車両M)に搭載され、車両の周辺状況を撮像するカメラ(10)から取得した撮像画像(カメラ画像)において、任意の点から消失点(VP)に向かう消失線に沿う複数の第3検出ライン(DL3)と、平面画像の横方向に沿う複数の第4検出ライン(DL4)とを設定する設定部(検出ライン設定部133#B)と、複数の第3検出ラインと複数の第4検出ラインのそれぞれが平面画像における道路標示の輪郭と交わっているか否かを判定し、判定の結果に基づいて道路標示をゼブラゾーンと特定する特定部(ゼブラゾーン特定部133#C)と、を備えることにより、前述した効果を奏することができる。 According to the second embodiment described above, in the captured image (camera image) mounted on the vehicle (own vehicle M) and acquired from the camera (10) that captures the surrounding situation of the vehicle, a vanishing point (camera image) is obtained from an arbitrary point. Setting unit (detection line setting unit 133 # B) for setting a plurality of third detection lines (DL3) along the vanishing point toward VP) and a plurality of fourth detection lines (DL4) along the horizontal direction of the plane image. And, it is determined whether or not each of the plurality of third detection lines and the plurality of fourth detection lines intersects the contour of the road sign in the plane image, and the road sign is specified as the zebra zone based on the result of the determination. By providing the unit (zebra zone specific unit 133 # C), the above-mentioned effect can be obtained.

[ハードウェア構成]
図12は、実施形態の車両制御装置のハードウェア構成の一例を示す図である。図示するように、第1実施形態の車両制御装置100(または第2実施形態の車両制御装置100#)は、通信コントローラ100−1、CPU100−2、ワーキングメモリとして使用されるRAM100−3、ブートプログラムなどを格納するROM100−4、フラッシュメモリやHDDなどの記憶装置100−5、ドライブ装置100−6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100−1は、車両制御装置100以外の構成要素との通信を行う。記憶装置100−5には、CPU100−2が実行するプログラム100−5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100−3に展開されて、CPU100−2によって実行される。これによって、第1制御部120、第2制御部160のうち一部または全部が実現される。
[Hardware configuration]
FIG. 12 is a diagram showing an example of the hardware configuration of the vehicle control device of the embodiment. As shown in the figure, the vehicle control device 100 of the first embodiment (or the vehicle control device 100 # of the second embodiment) includes a communication controller 100-1, a CPU 100-2, a RAM 100-3 used as a working memory, and a boot. The ROM 100-4 for storing programs, the storage devices 100-5 such as flash memory and HDD, the drive device 100-6, and the like are connected to each other by an internal bus or a dedicated communication line. The communication controller 100-1 communicates with a component other than the vehicle control device 100. The storage device 100-5 stores a program 100-5a executed by the CPU 100-2. This program is expanded into RAM 100-3 by a DMA (Direct Memory Access) controller (not shown) or the like, and is executed by CPU 100-2. As a result, a part or all of the first control unit 120 and the second control unit 160 is realized.

上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記記憶装置に記憶されたプログラムを実行することにより、
車両に搭載され、前記車両の周辺状況を認識するための認識デバイスから取得した情報に基づいて、前記車両の進行方向における道路の色彩または輝度の分布を表す平面画像を生成し、
前記生成された平面画像に、互いに平行な複数の第1検出ラインと、前記第1検出ラインのそれぞれと直交する複数の第2検出ラインとを設定し、
前記複数の第1検出ラインと前記複数の第2検出ラインのそれぞれが前記平面画像における道路標示の輪郭と交わっているか否かを判定し、
判定の結果に基づいて前記道路標示をゼブラゾーンと特定する、
ように構成されている、ゼブラゾーン認識装置。
The embodiment described above can be expressed as follows.
A storage device that stores programs and
With a hardware processor,
The hardware processor executes a program stored in the storage device by executing the program.
Based on the information mounted on the vehicle and acquired from the recognition device for recognizing the surrounding situation of the vehicle, a plane image showing the distribution of the color or brightness of the road in the traveling direction of the vehicle is generated.
A plurality of first detection lines parallel to each other and a plurality of second detection lines orthogonal to each of the first detection lines are set in the generated plane image.
It is determined whether or not each of the plurality of first detection lines and the plurality of second detection lines intersects the contour of the road marking in the plane image.
Identify the road marking as a zebra zone based on the result of the judgment,
A zebra zone recognizer that is configured to.

上記説明した実施形態は、以下のように表現することもできる。
プログラムを記憶した記憶装置と、
ハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記記憶装置に記憶されたプログラムを実行することにより、
車両に搭載され、前記車両の周辺状況を撮像するカメラから取得した撮像画像において、任意の点から消失点に向かう消失線に沿う複数の第3検出ラインと、前記平面画像の横方向に沿う複数の第4検出ラインとを設定し、
前記複数の第3検出ラインと前記複数の第4検出ラインのそれぞれが前記平面画像における道路標示の輪郭と交わっているか否かを判定し、
判定の結果に基づいて前記道路標示をゼブラゾーンと特定する、
ように構成されている、ゼブラゾーン認識装置。
The embodiment described above can also be expressed as follows.
A storage device that stores programs and
With a hardware processor,
The hardware processor executes a program stored in the storage device by executing the program.
In the captured image acquired from the camera mounted on the vehicle and capturing the surrounding situation of the vehicle, a plurality of third detection lines along the vanishing point from an arbitrary point to the vanishing point and a plurality of the plurality of detection lines along the lateral direction of the plane image. Set with the 4th detection line of
It is determined whether or not each of the plurality of third detection lines and the plurality of fourth detection lines intersects the contour of the road marking in the plane image.
Identify the road marking as a zebra zone based on the result of the judgment,
A zebra zone recognizer that is configured to.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

1 車両システム
10 カメラ
12 レーダ装置
14 LIDAR
16 物体認識装置
20 通信装置
40 車両センサ
50 ナビゲーション装置
100 車両制御装置
120 第1制御部
130 認識部
131 自車位置認識部
132 物体認識部
133 ゼブラゾーン認識部
133A 平面画像認識部
133B 検出ライン設定部
133C ゼブラゾーン特定部
140 行動計画生成部
160 第2制御部
100# 車両制御装置
130# 認識部
133# ゼブラゾーン認識部
133#B 検出ライン設定部
133#C ゼブラゾーン特定部
1 Vehicle system 10 Camera 12 Radar device 14 LIDAR
16 Object recognition device 20 Communication device 40 Vehicle sensor 50 Navigation device 100 Vehicle control device 120 First control unit 130 Recognition unit 131 Own vehicle position recognition unit 132 Object recognition unit 133 Zebra zone recognition unit 133A Plane image recognition unit 133B Detection line setting unit 133C Zebra zone identification unit 140 Action plan generation unit 160 Second control unit 100 # Vehicle control device 130 # Recognition unit 133 # Zebra zone recognition unit 133 # B Detection line setting unit 133 # C Zebra zone identification unit

Claims (14)

車両に搭載され、前記車両の周辺状況を認識するための認識デバイスから取得した情報に基づいて、前記車両の進行方向における道路の色彩または輝度の分布を表す平面画像を生成する生成部と、
前記生成部により生成された平面画像に、互いに平行な複数の第1検出ラインと、前記第1検出ラインのそれぞれと直交する複数の第2検出ラインとを設定する設定部と、
前記複数の第1検出ラインと前記複数の第2検出ラインのそれぞれが前記平面画像における道路標示の輪郭と交わっているか否かを判定し、判定の結果に基づいて前記道路標示をゼブラゾーンと特定する特定部と、
を備えるゼブラゾーン認識装置。
A generator that is mounted on the vehicle and generates a plane image showing the distribution of the color or brightness of the road in the traveling direction of the vehicle based on the information acquired from the recognition device for recognizing the surrounding situation of the vehicle.
A setting unit for setting a plurality of first detection lines parallel to each other and a plurality of second detection lines orthogonal to each of the first detection lines in the plane image generated by the generation unit.
It is determined whether or not each of the plurality of first detection lines and the plurality of second detection lines intersects the contour of the road marking in the plane image, and the road marking is identified as the zebra zone based on the result of the determination. With a specific part to do
A zebra zone recognition device equipped with.
前記特定部は、前記複数の第1検出ラインまたは前記複数の第2検出ラインを、前記車両の位置する車線の長手方向と平行になるように設定する、
請求項1に記載のゼブラゾーン認識装置。
The specific unit sets the plurality of first detection lines or the plurality of second detection lines so as to be parallel to the longitudinal direction of the lane in which the vehicle is located.
The zebra zone recognition device according to claim 1.
前記設定部は、監視領域内に前記第1検出ラインと前記第2検出ラインを設定し、
前記特定部は、前記監視領域内の前記第1検出ラインの全てが前記平面画像における道路標示の輪郭と交わっており、且つ前記監視領域内の前記第2検出ラインの全てが前記平面画像における道路標示の輪郭と交わっている場合、前記監視領域は前記ゼブラゾーンの一部であると判定し、そうでない場合、前記監視領域は前記ゼブラゾーンの一部でないと判定する、
請求項1または2に記載のゼブラゾーン認識装置。
The setting unit sets the first detection line and the second detection line in the monitoring area, and sets the first detection line and the second detection line.
In the specific unit, all of the first detection lines in the monitoring area intersect with the contour of the road marking in the plane image, and all of the second detection lines in the monitoring area are roads in the plane image. If it intersects the contour of the marking, it is determined that the monitoring area is part of the zebra zone, otherwise it is determined that the monitoring area is not part of the zebra zone.
The zebra zone recognition device according to claim 1 or 2.
前記監視領域は、所定数の前記第1検出ラインまたは前記第2検出ラインを含む領域である、
請求項3に記載のゼブラゾーン認識装置。
The monitoring area is an area including a predetermined number of the first detection lines or the second detection line.
The zebra zone recognition device according to claim 3.
車両に搭載され、前記車両の周辺状況を撮像するカメラから取得した撮像画像において、任意の点から消失点に向かう消失線に沿う複数の第3検出ラインと、前記撮像画像の横方向に沿う複数の第4検出ラインとを設定する設定部と、
前記複数の第3検出ラインと前記複数の第4検出ラインのそれぞれが前記撮像画像における道路標示の輪郭と交わっているか否かを判定し、判定の結果に基づいて前記道路標示をゼブラゾーンと特定する特定部と、
を備えるゼブラゾーン認識装置。
In the captured image acquired from the camera mounted on the vehicle and capturing the surrounding situation of the vehicle, a plurality of third detection lines along the vanishing point from an arbitrary point to the vanishing point and a plurality of the captured images along the lateral direction of the captured image. The setting unit that sets the 4th detection line of
It is determined whether or not each of the plurality of third detection lines and the plurality of fourth detection lines intersects the contour of the road marking in the captured image, and the road marking is identified as the zebra zone based on the result of the determination. With a specific part to do
A zebra zone recognition device equipped with.
前記設定部は、監視領域内に前記第3検出ラインと前記第4検出ラインを設定し、
前記特定部は、前記監視領域内の前記第3検出ラインの全てが前記撮像画像における道路標示の輪郭と交わっており、且つ前記監視領域内の前記第4検出ラインの全てが前記撮像画像における道路標示の輪郭と交わっている場合、前記監視領域は前記ゼブラゾーンの一部であると判定し、そうでない場合、前記監視領域は前記ゼブラゾーンの一部でないと判定する、
請求項5に記載のゼブラゾーン認識装置。
The setting unit sets the third detection line and the fourth detection line in the monitoring area, and sets the third detection line and the fourth detection line.
In the specific unit, all of the third detection lines in the monitoring area intersect with the contour of the road marking in the captured image, and all of the fourth detection lines in the monitoring area are roads in the captured image. If it intersects the contour of the marking, it is determined that the monitoring area is part of the zebra zone, otherwise it is determined that the monitoring area is not part of the zebra zone.
The zebra zone recognition device according to claim 5.
前記監視領域は、所定数の前記第3検出ラインまたは前記第4検出ラインを含む領域である、
請求項5または6に記載のゼブラゾーン認識装置。
The monitoring area is an area including a predetermined number of the third detection line or the fourth detection line.
The zebra zone recognition device according to claim 5 or 6.
前記特定部は、前記ゼブラゾーンを特定する処理を周期的に繰り返し行い、
少なくとも前記車両の方向指示装置の状態、ヨーレートセンサの検出結果、およびジャイロセンサの検出結果のうち一部または全部に基づいて、前記車両が旋回中であるか否かを判定し、
前記車両が旋回中であると判定した場合、前記ゼブラゾーンの特定を行わず、前記車両が旋回中であると判定する前の特定結果を維持する、
請求項1から7のうちいずれか1項に記載のゼブラゾーン認識装置。
The specific unit periodically repeats the process of specifying the zebra zone.
Whether or not the vehicle is turning is determined based on at least a part or all of the state of the vehicle direction indicator, the detection result of the yaw rate sensor, and the detection result of the gyro sensor.
When it is determined that the vehicle is turning, the zebra zone is not specified, and the specific result before determining that the vehicle is turning is maintained.
The zebra zone recognition device according to any one of claims 1 to 7.
請求項1から8のうちいずれか1項に記載のゼブラゾーン認識装置と、
前記ゼブラゾーン認識装置による処理結果に基づいて、前記車両の操舵および速度を制御する運転制御部と、
を備える、車両制御装置。
The zebra zone recognition device according to any one of claims 1 to 8.
A driving control unit that controls the steering and speed of the vehicle based on the processing result of the zebra zone recognition device.
A vehicle control device.
前記車両の周辺に存在する物体を認識し、前記物体によるリスクを推定する物体認識部を更に備え、
前記物体認識部は、前記特定部が特定した前記ゼブラゾーンが前記車両の側方にある場合に、前記ゼブラゾーンを挟んだ先にあり、前記車両がいる第1車線とは異なる第2車線を更に認識できるか否かを判定し、前記第2車線を認識できると判定し且つ前記第2車線の進行方向が前記第1車線の進行方向と交差する場合に、前記第2車線を前記第1車線の隣接車線として認識し、前記第2車線にある物体のリスクを推定する、
請求項9に記載の車両制御装置。
Further provided with an object recognition unit that recognizes an object existing around the vehicle and estimates the risk due to the object.
When the zebra zone specified by the specific unit is on the side of the vehicle, the object recognition unit is located in front of the zebra zone and is in a second lane different from the first lane in which the vehicle is located. Further, it is determined whether or not the vehicle can be recognized, and when it is determined that the second lane can be recognized and the traveling direction of the second lane intersects the traveling direction of the first lane, the second lane is referred to as the first lane. Recognize as an adjacent lane to the lane and estimate the risk of an object in the second lane.
The vehicle control device according to claim 9.
コンピュータが、
車両に搭載され、前記車両の周辺状況を認識するための認識デバイスから取得した情報に基づいて、前記車両の進行方向における道路の色彩または輝度の分布を表す平面画像を生成し、
前記生成された平面画像に、互いに平行な複数の第1検出ラインと、前記第1検出ラインのそれぞれと直交する複数の第2検出ラインとを設定し、
前記複数の第1検出ラインと前記複数の第2検出ラインのそれぞれが前記平面画像における道路標示の輪郭と交わっているか否かを判定し、
判定の結果に基づいて前記道路標示をゼブラゾーンと特定する、
ゼブラゾーン認識方法。
The computer
Based on the information mounted on the vehicle and acquired from the recognition device for recognizing the surrounding situation of the vehicle, a plane image showing the distribution of the color or brightness of the road in the traveling direction of the vehicle is generated.
A plurality of first detection lines parallel to each other and a plurality of second detection lines orthogonal to each of the first detection lines are set in the generated plane image.
It is determined whether or not each of the plurality of first detection lines and the plurality of second detection lines intersects the contour of the road marking in the plane image.
Identify the road marking as a zebra zone based on the result of the judgment,
Zebra zone recognition method.
コンピュータに、
車両に搭載され、前記車両の周辺状況を認識するための認識デバイスから取得した情報に基づいて、前記車両の進行方向における道路の色彩または輝度の分布を表す平面画像を生成させ、
前記生成された平面画像に、互いに平行な複数の第1検出ラインと、前記第1検出ラインのそれぞれと直交する複数の第2検出ラインとを設定させ、
前記複数の第1検出ラインと前記複数の第2検出ラインのそれぞれが前記平面画像における道路標示の輪郭と交わっているか否かを判定させ、
判定の結果に基づいて前記道路標示をゼブラゾーンと特定させる、
プログラム。
On the computer
Based on the information mounted on the vehicle and acquired from the recognition device for recognizing the surrounding situation of the vehicle, a plane image showing the distribution of the color or brightness of the road in the traveling direction of the vehicle is generated.
A plurality of first detection lines parallel to each other and a plurality of second detection lines orthogonal to each of the first detection lines are set in the generated plane image.
It is determined whether or not each of the plurality of first detection lines and the plurality of second detection lines intersects the contour of the road marking in the plane image.
Based on the result of the judgment, the road marking is identified as a zebra zone.
program.
コンピュータが、
車両に搭載され、前記車両の周辺状況を撮像するカメラから取得した撮像画像において、任意の点から消失点に向かう消失線に沿う複数の第3検出ラインと、前記撮像画像の横方向に沿う複数の第4検出ラインとを設定し、
前記複数の第3検出ラインと前記複数の第4検出ラインのそれぞれが前記撮像画像における道路標示の輪郭と交わっているか否かを判定し、
判定の結果に基づいて前記道路標示をゼブラゾーンと特定する、
ゼブラゾーン認識方法。
The computer
In the captured image acquired from the camera mounted on the vehicle and capturing the surrounding situation of the vehicle, a plurality of third detection lines along the vanishing point from an arbitrary point to the vanishing point and a plurality of the captured images along the lateral direction of the captured image. Set with the 4th detection line of
It is determined whether or not each of the plurality of third detection lines and the plurality of fourth detection lines intersects the contour of the road marking in the captured image.
Identify the road marking as a zebra zone based on the result of the judgment,
Zebra zone recognition method.
コンピュータに、
車両に搭載され、前記車両の周辺状況を撮像するカメラから取得した撮像画像において、任意の点から消失点に向かう消失線に沿う複数の第3検出ラインと、前記撮像画像の横方向に沿う複数の第4検出ラインとを設定させ、
前記複数の第3検出ラインと前記複数の第4検出ラインのそれぞれが前記撮像画像における道路標示の輪郭と交わっているか否かを判定させ、
判定の結果に基づいて前記道路標示をゼブラゾーンと特定させる、
プログラム。
On the computer
In the captured image acquired from the camera mounted on the vehicle and capturing the surrounding situation of the vehicle, a plurality of third detection lines along the vanishing point from an arbitrary point to the vanishing point and a plurality of the captured images along the lateral direction of the captured image. Set the 4th detection line of
It is determined whether or not each of the plurality of third detection lines and the plurality of fourth detection lines intersects the contour of the road marking in the captured image.
Based on the result of the judgment, the road marking is identified as a zebra zone.
program.
JP2019187037A 2019-10-10 2019-10-10 Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program Pending JP2021064056A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019187037A JP2021064056A (en) 2019-10-10 2019-10-10 Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019187037A JP2021064056A (en) 2019-10-10 2019-10-10 Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program

Publications (1)

Publication Number Publication Date
JP2021064056A true JP2021064056A (en) 2021-04-22

Family

ID=75486259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019187037A Pending JP2021064056A (en) 2019-10-10 2019-10-10 Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program

Country Status (1)

Country Link
JP (1) JP2021064056A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114892556A (en) * 2021-08-16 2022-08-12 苏州工业园区科佳自动化有限公司 Novel wisdom zebra crossing system
WO2023162807A1 (en) * 2022-02-22 2023-08-31 株式会社アイシン Vehicle position estimation system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114892556A (en) * 2021-08-16 2022-08-12 苏州工业园区科佳自动化有限公司 Novel wisdom zebra crossing system
CN114892556B (en) * 2021-08-16 2024-04-26 苏州工业园区科佳自动化有限公司 Novel wisdom zebra stripes system
WO2023162807A1 (en) * 2022-02-22 2023-08-31 株式会社アイシン Vehicle position estimation system

Similar Documents

Publication Publication Date Title
JP6663406B2 (en) Vehicle control device, vehicle control method, and program
JP6782370B2 (en) Vehicle control device, vehicle control method, and program
CN111133489B (en) Vehicle control device, vehicle control method, and storage medium
CN111223315B (en) Traffic guidance object recognition device, traffic guidance object recognition method, and storage medium
JP6859239B2 (en) Vehicle control devices, vehicle control methods, and programs
JP2019151207A (en) Vehicle control device, vehicle control method, and program
JP7043279B2 (en) Vehicle control systems, vehicle control methods, and programs
JP6827026B2 (en) Vehicle control devices, vehicle control methods, and programs
JPWO2019064490A1 (en) Vehicle control device, vehicle control method, and program
JP2019067295A (en) Vehicle control device, vehicle control method, and program
JP6965152B2 (en) Vehicle control devices, vehicle control methods, and programs
JP2021064056A (en) Zebra zone recognition device, vehicle control device, zebra zone recognition method, and program
JP2020160496A (en) Vehicle control device, vehicle control method, and program
CN110194153B (en) Vehicle control device, vehicle control method, and storage medium
JP6839642B2 (en) Vehicle control devices, vehicle control methods, and programs
JP7080091B2 (en) Vehicle control devices, vehicle control methods, and programs
US20190095724A1 (en) Surroundings monitoring device, surroundings monitoring method, and storage medium
JP6858110B2 (en) Vehicle control devices, vehicle control methods, and programs
CN113492844B (en) Vehicle control device, vehicle control method, and storage medium
JP7028838B2 (en) Peripheral recognition device, peripheral recognition method, and program
JP7083768B2 (en) Recognition device, vehicle control device, recognition method, and program
JP6827391B2 (en) Vehicle control devices, vehicle control methods, and programs
JP2021003971A (en) Vehicle control device, vehicle control method and program
CN113511220B (en) Vehicle control device, vehicle control method, and storage medium
US12024171B2 (en) Moving object control device, moving object control method, and storage medium