JP7028838B2 - Peripheral recognition device, peripheral recognition method, and program - Google Patents

Peripheral recognition device, peripheral recognition method, and program Download PDF

Info

Publication number
JP7028838B2
JP7028838B2 JP2019169448A JP2019169448A JP7028838B2 JP 7028838 B2 JP7028838 B2 JP 7028838B2 JP 2019169448 A JP2019169448 A JP 2019169448A JP 2019169448 A JP2019169448 A JP 2019169448A JP 7028838 B2 JP7028838 B2 JP 7028838B2
Authority
JP
Japan
Prior art keywords
vehicle
extending direction
extension direction
recognized
target positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019169448A
Other languages
Japanese (ja)
Other versions
JP2021047609A (en
Inventor
ちひろ 小黒
奈緒 田沢
崇幸 増尾
祥 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019169448A priority Critical patent/JP7028838B2/en
Publication of JP2021047609A publication Critical patent/JP2021047609A/en
Application granted granted Critical
Publication of JP7028838B2 publication Critical patent/JP7028838B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、周辺認識装置、周辺認識方法、およびプログラムに関する。 The present invention relates to a peripheral recognition device, a peripheral recognition method, and a program.

従来、物体の位置情報を検出するレーダ手段と、物体の位置大きさ情報を検出する撮像手段と、レーダ手段および撮像手段による検出結果が所定のフュージョン条件を満たす場合にレーダ手段によって検出した物体と撮像手段によって検出した物体を同一物体としてフュージョンして位置情報および大きさ情報を有するフュージョン物標を生成するフュージョン処理手段と、を備え、生成されたフュージョン物標についてフュージョン条件の更新判定時にレーダ手段による検出結果に対して撮像手段による検出結果がフュージョン条件を満たさない場合には、大きさ情報が過去に取得したフュージョン物標の大きさ情報に基づく推定により補間された仮フュージョン物標を生成してフュージョン物標を更新する物体検出装置の発明が開示されている(特許文献1参照)。 Conventionally, a radar means for detecting the position information of an object, an image pickup means for detecting the position size information of the object, and an object detected by the radar means when the detection result by the radar means and the image pickup means satisfy a predetermined fusion condition. It is provided with a fusion processing means for generating a fusion target having position information and size information by fusing the objects detected by the imaging means as the same object, and the radar means at the time of determining the update of the fusion condition for the generated fusion target. If the detection result by the imaging means does not satisfy the fusion condition with respect to the detection result by, a temporary fusion object whose size information is interpolated by estimation based on the size information of the fusion object acquired in the past is generated. The invention of the object detection device for updating the fusion target is disclosed (see Patent Document 1).

特開2007-226680号公報Japanese Unexamined Patent Publication No. 2007-226680

上記従来の技術は、他車両などの立体物を検出する際にカメラとレーダのセンサフュージョンを行うものであり、カメラによる道路区画線の認識結果の採否を、他のセンサの検出結果によって適切に行うものではない。 The above-mentioned conventional technology performs sensor fusion between a camera and a radar when detecting a three-dimensional object such as another vehicle, and appropriately determines whether or not the recognition result of the road lane marking by the camera is adopted by the detection result of the other sensor. It's not something to do.

本発明は、このような事情を考慮してなされたものであり、カメラによる道路区画線の認識結果の採否を、他のセンサの検出結果によって適切に決定することが可能な周辺認識装置、周辺認識方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and is capable of appropriately determining whether or not to accept or reject the recognition result of the road lane marking by the camera based on the detection result of another sensor. One of the purposes is to provide a recognition method and a program.

この発明に係る周辺認識装置、周辺認識方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る周辺認識装置は、車両に搭載され、前記車両の周辺を撮像するカメラによって取得された画像に基づいて、前記車両に対する道路区画線の位置を認識する画像解析部と、前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定する特定部と、前記車両の走行制御の基準とする基準走路を決定する決定部であって、前記第1延在方向と、前記画像解析部によって認識された道路区画線の延在方向である第2延在方向とが合致する場合に、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定する決定部と、を備えるものである。
The peripheral recognition device, the peripheral recognition method, and the program according to the present invention have the following configurations.
(1): The peripheral recognition device according to one aspect of the present invention is an image that recognizes the position of a road lane marking with respect to the vehicle based on an image acquired by a camera mounted on the vehicle and capturing the periphery of the vehicle. A group of target positions lined up linearly extends from a plurality of target positions mounted on the vehicle and the detection range around the vehicle and acquired by an object detection device different from the camera. A specific unit that specifies the first extension direction, which is a direction, and a determination unit that determines a reference track that is used as a reference for traveling control of the vehicle, and is recognized by the first extension direction and the image analysis unit. It is provided with a determination unit for determining the reference track based on the road lane marking recognized by the image analysis unit when the second extension direction, which is the extension direction of the road lane marking, matches. be.

(2):上記(1)の態様において、前記車両の位置を地図情報に当てはめることで、前記車両に対する前記車両が存在する道路の延在方向である第3延在方向を認識する地図ベース認識部を更に備え、前記決定部は、前記第1延在方向と前記第2延在方向とが合致し、且つ、前記第2延在方向と前記第3延在方向とが合致しない場合、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定するものである。 (2): In the aspect of (1) above, by applying the position of the vehicle to the map information, the map-based recognition that recognizes the third extension direction, which is the extension direction of the road on which the vehicle exists with respect to the vehicle. The determination unit is further provided, and the determination unit is described when the first extension direction and the second extension direction match, and the second extension direction and the third extension direction do not match. The reference track is determined based on the road marking line recognized by the image analysis unit.

(3):上記(2)の態様において、前記決定部は、前記第1延在方向と前記第2延在方向とが合致せず、且つ、前記第2延在方向と前記第3延在方向とが合致しない場合、前記地図ベース認識部により認識された道路区画線に基づいて前記基準走路を決定するものである。 (3): In the aspect of (2) above, in the determination unit, the first extending direction and the second extending direction do not match, and the second extending direction and the third extending direction are present. When the direction does not match, the reference track is determined based on the road lane marking recognized by the map-based recognition unit.

(4):上記(1)から(3)のいずれかの態様において、前記特定部は、前記複数の物標位置から、所定の長さ以上に延在し、且つ静止していると推定される物標に対応する物標位置を、前記線状に並ぶ一群の物標位置として特定するものである。 (4): In any of the above aspects (1) to (3), it is presumed that the specific portion extends from the plurality of target positions to a predetermined length or more and is stationary. The target position corresponding to the target is specified as a group of target positions arranged in a line.

(5):上記(1)から(4)のいずれかの態様において、前記特定部は、前記複数の物標位置のうち線状に並ぶ物標位置に対して、所定の手法によって間引き処理を行って数を減らして、前記線状に並ぶ一群の物標位置を特定するものである。 (5): In any of the above aspects (1) to (4), the specific unit performs a thinning process on the target positions lined up in a line among the plurality of target positions by a predetermined method. By going and reducing the number, the position of the target group arranged in the line is specified.

(6):上記(1)から(5)のいずれかの態様において、前記特定部は、前記線状に並ぶ一群の物標位置に対して一次近似を行うことで、前記第1延在方向を特定するものである。 (6): In any of the above embodiments (1) to (5), the specific portion performs a first-order approximation to a group of target positions arranged in a line, thereby performing the first extension direction. Is to specify.

(7):上記(1)から(6)のいずれかの態様において、前記決定部は、前記車両の左右においてそれぞれ認識される、前記線状に並ぶ一群の物標位置のうち、前記車両の進行方向に近い側の前記線状に並ぶ一群の物標位置に基づいて特定された前記第1延在方向と、前記第2延在方向とが合致する場合に、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定するものである。 (7): In any of the above embodiments (1) to (6), the determination unit is of the vehicle among a group of target positions lined up in a line, which are recognized on the left and right sides of the vehicle. When the first extending direction specified based on the target position of the linearly arranged group on the side close to the traveling direction matches the second extending direction, the image analysis unit recognizes the first extending direction. The reference track is determined based on the road marking line.

(8):上記(1)から(7)のいずれかの態様において、前記決定部は、前記車両の左右においてそれぞれ認識される、前記線状に並ぶ一群の物標位置のうち、数が多い方の前記線状に並ぶ一群の物標位置に基づいて特定された前記第1延在方向と、前記第2延在方向とが合致する場合に、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定するものである。 (8): In any of the above aspects (1) to (7), the determination unit has a large number among the group of target positions lined up in a line, which are recognized on the left and right sides of the vehicle. The road marking line recognized by the image analysis unit when the first extending direction specified based on the target position of the group of targets arranged in the line and the second extending direction match. The reference track is determined based on the above.

(9):本発明の他の態様に係る周辺認識方法は、コンピュータが、車両に搭載され、前記車両の周辺を撮像するカメラによって取得された画像に基づいて、前記車両に対する道路区画線の位置を認識し、前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定し、前記第1延在方向と、前記画像解析部によって認識された道路区画線の延在方向である第2延在方向とが合致する場合に、前記画像に基づいて認識された道路区画線に基づいて前記車両の走行制御の基準とする基準走路を決定するものである。 (9): In the peripheral recognition method according to another aspect of the present invention, the position of the road lane marking with respect to the vehicle is based on an image acquired by a camera mounted on the vehicle and capturing the periphery of the vehicle. Is mounted on the vehicle, the area around the vehicle is set as the detection range, and a group of target positions arranged in a line are extended from a plurality of target positions acquired by an object detection device different from the camera. When the first extension direction, which is the direction, is specified and the first extension direction and the second extension direction, which is the extension direction of the road lane marking recognized by the image analysis unit, match, the said Based on the road lane marking recognized based on the image, the reference track as the reference for the traveling control of the vehicle is determined.

(10):本発明の他の態様に係るプログラムは、コンピュータに、車両に搭載され、前記車両の周辺を撮像するカメラによって取得された画像に基づいて、前記車両に対する道路区画線の位置を認識させ、前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定させ、前記第1延在方向と、前記画像解析部によって認識された道路区画線の延在方向である第2延在方向とが合致する場合に、前記画像に基づいて認識された道路区画線に基づいて前記車両の走行制御の基準とする基準走路を決定させるものである。 (10): The program according to another aspect of the present invention recognizes the position of the road lane marking with respect to the vehicle based on an image mounted on the vehicle and acquired by a camera that images the periphery of the vehicle on a computer. The detection range is the periphery of the vehicle, which is mounted on the vehicle, and is in the extending direction of a group of target positions arranged in a line from a plurality of target positions acquired by an object detection device different from the camera. When a certain first extension direction is specified and the first extension direction and the second extension direction, which is the extension direction of the road lane marking recognized by the image analysis unit, match, the image is displayed. Based on the road lane markings recognized based on the above, the reference track to be used as the reference for the traveling control of the vehicle is determined.

上記(1)~(10)の態様によれば、カメラによる道路区画線の認識結果の採否を、他のセンサの検出結果によって適切に決定することができる。 According to the above aspects (1) to (10), it is possible to appropriately determine whether or not to accept or reject the recognition result of the road lane marking by the camera based on the detection result of another sensor.

上記(2)または(3)の態様によれば、カメラ画像と物標位置情報との比較に加えて、地図情報とカメラ画像との比較に基づいて基準走路を決定するため、カメラによる道路区画線の認識結果の採否を、より適切に決定することができる。 According to the above aspect (2) or (3), in addition to the comparison between the camera image and the target position information, the road section by the camera is used to determine the reference track based on the comparison between the map information and the camera image. It is possible to more appropriately determine whether or not to accept the line recognition result.

上記(4)の態様によれば、道路に沿った静止物に限定したカメラ画像と比較することができる。 According to the aspect (4) above, it can be compared with a camera image limited to a stationary object along a road.

上記(5)の態様によれば、間引いた後の処理の負荷を軽減することができる。 According to the aspect (5) above, the load of processing after thinning can be reduced.

上記(6)の態様によれば、第1延在方向を大局的に低負荷で計算することができる。 According to the aspect (6) above, the first extension direction can be calculated with a low load in the whole.

上記(7)の態様によれば、車両の進行方向に沿った物標位置に基づいて特定された第1延在方向を第2延在方向と比較するため、カメラによる道路区画線の認識結果の採否を、より適切に決定することができる。 According to the aspect (7) above, in order to compare the first extension direction specified based on the target position along the traveling direction of the vehicle with the second extension direction, the recognition result of the road lane marking by the camera. Can be decided more appropriately.

上記(8)の態様によれば、車両の左右いずれかに偏在する物標位置のうち数が多い物標位置(すなわち、車両に近い側の物標位置)に基づいて特定された第1延在方向を第2延在方向と比較するため、カメラによる道路区画線の認識結果の採否を、より適切に決定することができる。 According to the aspect (8) above, the first extension specified based on the target position having a large number among the target positions unevenly distributed on either the left or right side of the vehicle (that is, the target position on the side closer to the vehicle). Since the current direction is compared with the second extension direction, it is possible to more appropriately determine whether or not to accept or reject the recognition result of the road lane marking by the camera.

実施形態に係る周辺認識装置を利用した車両システムの構成図である。It is a block diagram of the vehicle system using the peripheral recognition device which concerns on embodiment. 第1実施形態に係る自動運転制御装置の第1制御部および第2制御部の機能構成図である。It is a functional block diagram of the 1st control unit and the 2nd control unit of the automatic operation control device which concerns on 1st Embodiment. 画像解析部および物標延在方向特定部の機能について説明するための図である。It is a figure for demonstrating the function of the image analysis part and the object target extension direction identification part. あるレイヤで光を照射した場合に得られる物標位置と、それらに付与されるフラグの一例を示す図である。It is a figure which shows an example of the target position obtained by irradiating light with a certain layer, and the flag given to them. 基準走路決定部により実行される処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process executed by the reference track determination part. カメラ画像に基づいて基準走路を決定する場面について説明するための図である。It is a figure for demonstrating the scene which determines the reference track based on a camera image. カメラ画像に基づいて基準走路を決定する場面について説明するための図である。It is a figure for demonstrating the scene which determines the reference track based on a camera image. カメラ画像に基づいて基準走路を決定する場面について説明するための図である。It is a figure for demonstrating the scene which determines the reference track based on a camera image. 地図情報に基づいて基準走路を決定する場面について説明するための図である。It is a figure for demonstrating the scene which determines a reference track based on map information. 画像解析部、物標延在方向特定部、および基準走路決定部による処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the processing flow by an image analysis part, a target extension direction identification part, and a reference track determination part. 物標位置の絞り込み処理について説明するための図である。It is a figure for demonstrating the process of narrowing down a target position. ベクトルを生成する処理について説明するための図である。It is a figure for demonstrating the process of generating a vector. 実施形態の自動運転制御装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the automatic operation control device of an embodiment.

以下、図面を参照し、本発明の周辺認識装置、周辺認識方法、およびプログラムの実施形態について説明する。 Hereinafter, embodiments of the peripheral recognition device, the peripheral recognition method, and the program of the present invention will be described with reference to the drawings.

[全体構成]
図1は、実施形態に係る周辺認識装置を利用した車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。周辺認識装置は、車両の走行を制御する車両制御装置の一部であってもよいし、車両制御装置とは別体の装置であってもよい。以下の説明では、周辺認識装置が車両制御装置の一部であるものとする。
[overall structure]
FIG. 1 is a configuration diagram of a vehicle system 1 using a peripheral recognition device according to an embodiment. The vehicle on which the vehicle system 1 is mounted is, for example, a vehicle such as a two-wheeled vehicle, a three-wheeled vehicle, or a four-wheeled vehicle, and the drive source thereof is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof. The electric motor operates by using the electric power generated by the generator connected to the internal combustion engine or the electric power generated by the secondary battery or the fuel cell. The peripheral recognition device may be a part of a vehicle control device that controls the running of the vehicle, or may be a device separate from the vehicle control device. In the following description, it is assumed that the peripheral recognition device is a part of the vehicle control device.

車両システム1は、例えば、カメラ10と、レーダ装置12と、LIDAR14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置(Automated Driving Control Device)100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。 The vehicle system 1 includes, for example, a camera 10, a radar device 12, a LIDAR 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, a vehicle sensor 40, a navigation device 50, and an MPU. (Map Positioning Unit) 60, a driving controller 80, an automated driving control device (Automated Driving Control Device) 100, a traveling driving force output device 200, a braking device 210, and a steering device 220. These devices and devices are connected to each other by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network, or the like. The configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted or another configuration may be added.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。 The camera 10 is, for example, a digital camera using a solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 10 is attached to an arbitrary position of the vehicle on which the vehicle system 1 is mounted (hereinafter referred to as the own vehicle M). When photographing the front, the camera 10 is attached to the upper part of the front windshield, the back surface of the rear-view mirror, and the like. The camera 10 periodically and repeatedly images the periphery of the own vehicle M, for example. The camera 10 may be a stereo camera.

レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。 The radar device 12 radiates radio waves such as millimeter waves around the own vehicle M, and also detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and direction) of the object. The radar device 12 is attached to an arbitrary position on the own vehicle M. The radar device 12 may detect the position and velocity of the object by the FM-CW (Frequency Modulated Continuous Wave) method.

LIDAR(Light Detection and Ranging)14は、自車両Mの周辺に光を照射し、散乱光を測定する。LIDAR14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14は、自車両Mの任意の箇所に取り付けられる。 The LIDAR (Light Detection and Ranging) 14 irradiates the periphery of the own vehicle M with light and measures the scattered light. The LIDAR 14 detects the distance to the target based on the time from light emission to light reception. The emitted light is, for example, a pulsed laser beam. The LIDAR 14 is attached to an arbitrary position on the own vehicle M.

LIDAR14は、光の照射方向を、仰角または俯角(以下、上下方向の照射方向φ)と、方位角(水平方向の照射方向θ)との双方について変更可能である。LIDAR14は、例えば、照射方向φを固定して照射方向θを変えながらスキャンを行い、次いで上下方向の照射方向φを変更し、変更した角度で照射方向φを固定して照射方向θを変えながらスキャンを行う、という動作を繰り返し行う。以下、照射方向φのことを「レイヤ」と称する。LIDAR14は、例えば、レイヤを固定して照射方向θを変えながら行う一回のスキャン(サイクル)を、全てのレイヤについて行うことを1回のスキャンとして行う。レイヤは、例えばL1~Lnまで有限数で設定される(nは自然数)。レイヤの変更は、例えば、前回のサイクルで照射した光が今回のサイクルにおける検知に干渉しないように、L0→L4→L2→L5→L1…というように角度に関して不連続に行われる。なお、これに限らず、レイヤの変更が角度に関して連続的に行われても構わない。LIDAR14は、例えば、{φ,θ,d,p}を一つの単位とするデータセット(ライダーデータ)を物体認識装置16に出力する。dは距離であり、pは反射光の強度である。 The LIDAR 14 can change the irradiation direction of light for both the elevation angle or the depression angle (hereinafter, the irradiation direction φ in the vertical direction) and the azimuth angle (the irradiation direction θ in the horizontal direction). For example, the LIDAR 14 scans while fixing the irradiation direction φ and changing the irradiation direction θ, then changing the irradiation direction φ in the vertical direction, fixing the irradiation direction φ at the changed angle, and changing the irradiation direction θ. The operation of scanning is repeated. Hereinafter, the irradiation direction φ is referred to as a “layer”. In LIDAR 14, for example, one scan (cycle) performed while fixing the layers and changing the irradiation direction θ is performed for all layers as one scan. The layers are set, for example, from L1 to Ln with a finite number (n is a natural number). The layer change is performed discontinuously with respect to the angle, for example, L0 → L4 → L2 → L5 → L1 ... So that the light emitted in the previous cycle does not interfere with the detection in this cycle. Not limited to this, the layer may be changed continuously with respect to the angle. The LIDAR 14 outputs, for example, a data set (rider data) having {φ, θ, d, p} as one unit to the object recognition device 16. d is the distance and p is the intensity of the reflected light.

物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。また、物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14の検出結果をそのまま、或いは所定の加工処理を行って自動運転制御装置100に出力する。例えば、物体認識装置16は、LIDAR14の出力する物標位置のデータに対してフラグを付与する処理を行う。これについては後述する。 The object recognition device 16 performs sensor fusion processing on the detection results of a part or all of the camera 10, the radar device 12, and the LIDAR 14, and recognizes the position, type, speed, and the like of the object. The object recognition device 16 outputs the recognition result to the automatic operation control device 100. Further, the object recognition device 16 outputs the detection results of the camera 10, the radar device 12, and the LIDAR 14 to the automatic operation control device 100 as they are or by performing a predetermined processing process. For example, the object recognition device 16 performs a process of adding a flag to the target position data output by the LIDAR 14. This will be described later.

通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。 The communication device 20 communicates with another vehicle existing in the vicinity of the own vehicle M by using, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), or wirelessly. Communicates with various server devices via the base station.

HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。 The HMI 30 presents various information to the occupants of the own vehicle M and accepts input operations by the occupants. The HMI 30 includes various display devices, speakers, buzzers, touch panels, switches, keys and the like.

車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。 The vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the own vehicle M, an acceleration sensor that detects the acceleration, a yaw rate sensor that detects the angular velocity around the vertical axis, an orientation sensor that detects the direction of the own vehicle M, and the like.

ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。 The navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a routing unit 53. The navigation device 50 holds the first map information 54 in a storage device such as an HDD (Hard Disk Drive) or a flash memory. The GNSS receiver 51 identifies the position of the own vehicle M based on the signal received from the GNSS satellite. The position of the own vehicle M may be specified or complemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40. The navigation HMI 52 includes a display device, a speaker, a touch panel, keys, and the like. The navigation HMI 52 may be partially or wholly shared with the above-mentioned HMI 30. The route determination unit 53, for example, has a route from the position of the own vehicle M (or an arbitrary position input) specified by the GNSS receiver 51 to the destination input by the occupant using the navigation HMI 52 (hereinafter,). The route on the map) is determined with reference to the first map information 54. The first map information 54 is, for example, information in which a road shape is expressed by a link indicating a road and a node connected by the link. The route on the map is output to MPU60. The navigation device 50 may provide route guidance using the navigation HMI 52 based on the route on the map. The navigation device 50 may be realized by, for example, the function of a terminal device such as a smartphone or a tablet terminal owned by an occupant. The navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20 and acquire a route equivalent to the route on the map from the navigation server.

MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。 The MPU 60 includes, for example, a recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory. The recommended lane determination unit 61 divides the route on the map provided by the navigation device 50 into a plurality of blocks (for example, divides the route into 100 [m] units with respect to the vehicle traveling direction), and refers to the second map information 62. Determine the recommended lane for each block. The recommended lane determination unit 61 determines which lane to drive from the left. When a branch point exists on the route on the map, the recommended lane determination unit 61 determines the recommended lane so that the own vehicle M can travel on a reasonable route to proceed to the branch destination.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。 The second map information 62 is map information with higher accuracy than the first map information 54. The second map information 62 includes, for example, information on the center of the lane, information on the boundary of the lane, and the like. Further, the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like. The second map information 62 may be updated at any time by the communication device 20 communicating with another device.

運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。 The driving controller 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, a deformed steering wheel, a joystick, and other controls. A sensor for detecting the amount of operation or the presence or absence of operation is attached to the operation controller 80, and the detection result is the automatic operation control device 100, or the traveling driving force output device 200, the brake device 210, and the steering device. It is output to a part or all of 220.

自動運転制御装置100は、例えば、第1制御部120と、第2制御部190とを備える。第1制御部120と第2制御部190は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。 The automatic operation control device 100 includes, for example, a first control unit 120 and a second control unit 190. The first control unit 120 and the second control unit 190 are each realized by executing a program (software) by a hardware processor such as a CPU (Central Processing Unit). In addition, some or all of these components are hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). It may be realized by the part; including circuitry), or it may be realized by the cooperation of software and hardware. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD or a flash memory of the automatic operation control device 100, or may be detachable such as a DVD or a CD-ROM. It is stored in the storage medium, and the storage medium (non-transient storage medium) may be installed in the HDD or the flash memory of the automatic operation control device 100 by being attached to the device in the drive device.

図2は、第1実施形態に係る自動運転制御装置100の第1制御部120および第2制御部190の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部180とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。 FIG. 2 is a functional configuration diagram of the first control unit 120 and the second control unit 190 of the automatic operation control device 100 according to the first embodiment. The first control unit 120 includes, for example, a recognition unit 130 and an action plan generation unit 180. The first control unit 120, for example, realizes a function by AI (Artificial Intelligence) and a function by a model given in advance in parallel. For example, the function of "recognizing an intersection" is executed in parallel with the recognition of an intersection by deep learning and the like, and the recognition based on a predetermined condition (there is a signal that can be pattern matched, a road sign, etc.). It may be realized by scoring and comprehensively evaluating. This ensures the reliability of autonomous driving.

認識部130の各部と行動計画生成部180は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることで記憶装置にインストールされてもよい。 Each unit of the recognition unit 130 and the action plan generation unit 180 are realized by, for example, a hardware processor such as a CPU (Central Processing Unit) executing a program (software). Some or all of these components are hardware (circuit parts) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), GPU (Graphics Processing Unit). It may be realized by (including circuits), or it may be realized by the cooperation of software and hardware. The program may be stored in advance in a storage device (a storage device including a non-transient storage medium) such as an HDD (Hard Disk Drive) or a flash memory, or a removable storage such as a DVD or a CD-ROM. It is stored in a medium (non-transient storage medium), and may be installed in the storage device by mounting the storage medium in the drive device.

認識部130は、例えば、物体認識部140と、画像解析部150と、物標延在方向特定部152と、地図ベース認識部154と、基準走路決定部156と、自車位置認識部160とを備える。これらのうち、少なくとも画像解析部150と、物標延在方向特定部152と、地図ベース認識部154と、基準走路決定部156と、自車位置認識部160とを含むものが、「周辺認識装置」の一例である。 The recognition unit 130 includes, for example, an object recognition unit 140, an image analysis unit 150, a target extension direction specifying unit 152, a map-based recognition unit 154, a reference track determination unit 156, and a vehicle position recognition unit 160. To prepare for. Among these, those including at least the image analysis unit 150, the target extension direction specifying unit 152, the map-based recognition unit 154, the reference track determination unit 156, and the own vehicle position recognition unit 160 are "peripheral recognition". This is an example of "device".

物体認識部140は、カメラ10、レーダ装置12、およびLIDAR14から物体認識装置16を介して入力された情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体とは、他車両、歩行者、自転車、その他の障害物である。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とし、自車両Mの中心軸をX軸とする絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。 The object recognition unit 140 determines the position, speed, acceleration, and the like of the object around the own vehicle M based on the information input from the camera 10, the radar device 12, and the LIDAR 14 via the object recognition device 16. recognize. Objects are other vehicles, pedestrians, bicycles, and other obstacles. The position of the object is recognized as, for example, a position on absolute coordinates with the representative point of the own vehicle M (center of gravity, center of drive axis, etc.) as the origin and the central axis of the own vehicle M as the X axis, and is used for control. .. The position of the object may be represented by a representative point such as the center of gravity or a corner of the object, or may be represented by a represented area. The "state" of an object may include the object's acceleration, jerk, or "behavioral state" (eg, whether it is changing lanes or is about to change lanes).

[基準走路の認識]
画像解析部150、および物標延在方向特定部152の機能について、図3を用いて説明する。図3は、画像解析部150および物標延在方向特定部152の機能について説明するための図である。図中、Rは自車両Mの代表点であり、XY軸は前述した絶対座標の座標軸を表している。
[Recognition of reference track]
The functions of the image analysis unit 150 and the object target extension direction specifying unit 152 will be described with reference to FIG. FIG. 3 is a diagram for explaining the functions of the image analysis unit 150 and the target extension direction specifying unit 152. In the figure, RM is a representative point of the own vehicle M , and the XY axis represents the coordinate axis of the above-mentioned absolute coordinates.

画像解析部150は、カメラ10によって取得された画像に基づいて、自車両Mに対する道路区画線Rlの位置を認識する。道路区画線Rlとは、実線または破線の形状で道路に描画された白線や黄線であり、車線を区分するものである。画像解析部150は、例えば、画像平面を絶対座標系で表される実平面に変換し、絶対座標系上で、隣接画素(或いは隣接画素群)との輝度差(または色彩差)が大きい画素(或いは画素群)であるエッジ点Epを抽出し、一次近似などの手法で直線状に並ぶエッジ点Epに絞り込み、一般的な道路区画線の幅である所定幅Wdをもって所定長さ以上に亘って延在する一組のエッジ点Epの列LEpを、道路区画線の輪郭として認識する。そして、画像解析部150は、輪郭で区画される領域を道路区画線Rlとして認識する。これに代えて画像解析部150は、画像平面上で直接的に道路区画線Rlを認識してもよいし、エッジ点Epの列LEpを単独で道路区画線Rlの一方の輪郭とみなしてもよい(必ずしも所定幅Wdをもつ一組のエッジ点Epの列LEpに絞り込まなくてもよい)。画像解析部150は、認識した道路区画線Rlの延在方向DRl(第2延在方向)を道路区画線Rlごとに特定しておく。図は、道路区画線Rl(1)、Rl(2)、Rl(3)のそれぞれに対応する延在方向DRl(1)、DRl(2)、DRl(3)が認識されていることを示している。 The image analysis unit 150 recognizes the position of the road lane marking Rl with respect to the own vehicle M based on the image acquired by the camera 10. The road lane marking Rl is a white line or a yellow line drawn on the road in the shape of a solid line or a broken line, and divides the lane. For example, the image analysis unit 150 converts an image plane into a real plane represented by an absolute coordinate system, and a pixel having a large brightness difference (or color difference) with an adjacent pixel (or an adjacent pixel group) on the absolute coordinate system. The edge point Ep which is (or a pixel group) is extracted, narrowed down to the edge points Ep which are linearly arranged by a method such as linear approximation, and the predetermined width Wd which is the width of a general road lane marking extends over a predetermined length. A row of a set of edge points Ep extending along the line LEp is recognized as the outline of the road marking line. Then, the image analysis unit 150 recognizes the region partitioned by the contour as the road marking line Rl. Instead, the image analysis unit 150 may directly recognize the road lane marking Rl on the image plane, or considers the row LEp of the edge point Ep alone as one contour of the road lane marking Rl. It may be (not necessarily narrowed down to the row LEp of a set of edge points Ep having a predetermined width Wd). The image analysis unit 150 specifies the extension direction DRl (second extension direction) of the recognized road lane marking Rl for each road lane marking Rl. In the figure, the extension directions DRl (1), DRl (2), and DRl (3) corresponding to each of the road marking lines Rl (1), Rl (2), and Rl (3) are recognized. It is shown that.

物標延在方向特定部152は、カメラ10とは異なる物体検出装置の一例であるLIDAR14によって取得された複数の物標位置(例えば、照射角度および距離で表される)を、絶対座標系上の位置に変換した情報(例えばポイントクラウドデータと称される)に基づいて、以下の処理を行う。物標延在方向特定部152は、線状に並ぶ一群の物標位置GTgの延在方向DTg(第1延在方向)を、自車両Mの左右の構造物Stのそれぞれについて特定する。物標延在方向特定部152が特定しようとする一群の物標位置GTgとは、道路に平行に存在する、静止している構造物Stの各部の位置である。構造物Stは、例えば縁石やガードレール、側壁などである。図は、構造物St(L)、St(R)のそれぞれに対応する延在方向DTg(L)、DTg(R)が認識されていることを示している。 The target extension direction specifying unit 152 sets a plurality of target positions (for example, represented by irradiation angles and distances) acquired by LIDAR 14, which is an example of an object detection device different from the camera 10, on an absolute coordinate system. Based on the information converted to the position of (for example, called point cloud data), the following processing is performed. The target extension direction specifying unit 152 specifies the extension direction DTg (first extension direction) of a group of target positions GTg arranged in a line for each of the left and right structures St of the own vehicle M. .. The group of target position GTg to be specified by the target extension direction specifying unit 152 is the position of each part of the stationary structure St existing parallel to the road. The structure St is, for example, a curb, a guardrail, a side wall, or the like. The figure shows that the extending directions DTg (L) and DTg (R) corresponding to the structures St (L) and St (R) are recognized.

物標延在方向特定部152が取得する物標位置には、物標認識装置16によって、例えば、道路面を表すフラグ(FS)、移動体を表すフラグ(DY)、静止物を表すフラグ(SA)、不明であることを示すフラグ(UK)などが付与されている。物標認識装置16は、例えば、ポイントクラウドデータに対してRANSAC(Random Sample Consensus)などのロバスト推定手法による平面抽出処理を行い、物標位置が道路面(上に物体が存在しないもの)を表すか否かを判定し、道路面を表すと判定した場合に、物標位置に対してフラグ(FS)を付与する。また、物標認識装置16は、カルマンフィルタなどの手法を用いて時系列で物標位置を追跡し、同じ物体を表す物標位置を時系列で特定することで、物標位置に対してフラグ(DY)、フラグ(SA)、またはフラグ(UK)を付与する。図4は、あるレイヤで光を照射した場合に得られる物標位置と、それらに付与されるフラグの一例を示す図である。図示するように、構造物St(L)およびSt(R)の一部である物標位置に対してはフラグ(SA)が、道路面の一部である物標位置に対してはフラグ(FS)が、他車両m1、m2などの移動体の一部である物標位置に対してはフラグ(DY)が、それぞれ付与される。物標延在方向特定部152は、例えば、物標認識装置16から取得した物標位置を、フラグ(SA)またはフラグ(UK)が付与された物標位置に絞り込んでから、上記のように延在方向DTgを特定する処理を行う。なお、詳細な延在方向DTgの求め方については後述する。上記した物標延在方向特定部152の機能のうち一部または全部は、物体認識装置16に搭載されてもよいし、物体認識装置16の機能のうち一部または全部を物標延在方向特定部152が備えてもよい。 At the target position acquired by the target extension direction specifying unit 152, for example, a flag (FS) representing a road surface, a flag (DY) representing a moving object, and a flag representing a stationary object (a flag representing a stationary object) are used by the target recognition device 16. SA), a flag (UK) indicating that it is unknown, and the like are added. The target recognition device 16 performs plane extraction processing on point cloud data by a robust estimation method such as RANSAC (Random Sample Consensus), and the target position represents a road surface (no object exists on the road surface). When it is determined whether or not to represent the road surface, a flag (FS) is added to the target position. Further, the target recognition device 16 tracks the target position in time series using a technique such as a Kalman filter, and identifies the target position representing the same object in time series, thereby flagging the target position ( DY), flag (SA), or flag (UK) is given. FIG. 4 is a diagram showing an example of a target position obtained when light is irradiated on a certain layer and a flag assigned to them. As shown, a flag (SA) is used for the target position that is a part of the structures St (L) and St (R), and a flag (SA) is used for the target position that is a part of the road surface. A flag (DY) is given to the target position where the FS) is a part of a moving body such as another vehicle m1 or m2. For example, the target extension direction specifying unit 152 narrows down the target position acquired from the target recognition device 16 to the target position to which the flag (SA) or the flag (UK) is attached, and then, as described above. A process for specifying the extension direction DTg is performed. The detailed method of obtaining the extension direction DTg will be described later. A part or all of the functions of the object target extending direction specifying unit 152 described above may be mounted on the object recognition device 16, or a part or all of the functions of the object recognition device 16 may be mounted on the object recognition device 16 in the object extension direction. The specific unit 152 may be provided.

地図ベース認識部154は、自車両Mの位置を地図情報(例えば第2地図情報62)に当てはめることで、自車両Mに対する道路区画線の位置を認識する。地図ベース認識部154は、ナビゲーション装置50により特定される自車両Mの位置、カメラ10により撮像された画像、車両センサ40に含まれる方位センサの出力などを地図情報と照合し、自車両Mが地図におけるどの道路、どの車線を、どの方向に走行しているかを認識する。例えば、地図ベース認識部154は、自車両Mの地上座標系(緯度経度を軸とする座標系)における向きと、地図情報において自車両Mが存在することが認識された道路(車線)の延在方向との角度差に基づいて、地図情報における道路(車線)の延在方向DMp(第3延在方向)を認識する。 The map-based recognition unit 154 recognizes the position of the road lane marking with respect to the own vehicle M by applying the position of the own vehicle M to the map information (for example, the second map information 62). The map-based recognition unit 154 collates the position of the own vehicle M specified by the navigation device 50, the image captured by the camera 10, the output of the orientation sensor included in the vehicle sensor 40, and the like with the map information, and the own vehicle M collates with the map information. Recognize which road, which lane, and which direction you are driving on the map. For example, the map-based recognition unit 154 indicates the direction of the own vehicle M in the ground coordinate system (coordinate system centered on latitude and longitude) and the extension of the road (lane) in which the own vehicle M is recognized in the map information. Based on the angle difference from the current direction, the extension direction D Mp (third extension direction) of the road (lane) in the map information is recognized.

基準走路決定部156は、行動計画生成部180が自車両Mの走行制御の基準とする基準走路を決定する。図5は、基準走路決定部156により実行される処理の流れの一例を示すフローチャートである。なお、本フローチャートの処理と並行して、延在方向DTg(第1延在方向)、延在方向DRl(第2延在方向)、および延在方向DMp(第3延在方向)を求める処理が繰り返し実行されており、本フローチャートの処理では、それらのうち直近で求められた情報を用いて処理を行うものとする。 The reference track determination unit 156 determines a reference track to be used as a reference for the travel control of the own vehicle M by the action plan generation unit 180. FIG. 5 is a flowchart showing an example of the flow of processing executed by the reference track determination unit 156. In parallel with the processing of this flowchart, the extension direction DTg (first extension direction), the extension direction DRl (second extension direction), and the extension direction DMp (third extension direction). The process of obtaining the above is repeatedly executed, and in the process of this flowchart, it is assumed that the process is performed using the information obtained most recently.

まず、基準走路決定部156は、第1フラグと第2フラグの双方をFalseに設定する(ステップS100)。第1フラグとは、延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が合致しない場合にTrue、合致する場合にFalseが設定されるフラグである。第2フラグとは、延在方向DRl(第2延在方向)と延在方向DMp(第3延在方向)が合致しない場合にTrue、合致する場合にFalseが設定されるフラグである。これらは以降の処理でTrueまたはFalseに設定されるが、デフォルト値としてFalseが設定される。合致するとは、例えば角度差が閾値(例えば数度程度の値)以内であることを意味する。 First, the reference track determination unit 156 sets both the first flag and the second flag to False (step S100). The first flag is a flag in which True is set when the extension direction DTg (first extension direction) and DRl (second extension direction) do not match, and False is set when they match. .. The second flag is a flag in which True is set when the extension direction DRl (second extension direction) and D Mp (third extension direction) do not match, and False is set when they match. .. These are set to True or False in the subsequent processing, but False is set as the default value. Matching means, for example, that the angle difference is within a threshold value (for example, a value of about several degrees).

次に、基準走路決定部156は、延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が合致しないかどうかを判定する(ステップS102)。 Next, the reference track determination unit 156 determines whether or not the extension direction DTg (first extension direction) and the extension direction DRl (second extension direction) do not match (step S102).

延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が合致しないと判定した場合、基準走路決定部156は、第1フラグをTrueに変更する(ステップS104)。延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が合致する場合、或いは、延在方向DTg(第1延在方向)が確定していない場合、基準走路決定部156は、第1フラグをFalseのまま維持する。延在方向DTg(第1延在方向)が確定していない場合とは、例えば、条件を満たす一群の物標位置GTgが特定できなかった場合である。 When it is determined that the extension direction DTg (first extension direction) and the extension direction DRl (second extension direction) do not match, the reference track determination unit 156 changes the first flag to True (step). S104). When the extending direction DTg (first extending direction) and the extending direction DRl (second extending direction) match, or when the extending direction DTg (first extending direction) is not determined. , The reference track determination unit 156 keeps the first flag as False. The case where the extension direction DTg (first extension direction) is not determined is, for example, the case where a group of target positions GTg satisfying the conditions cannot be specified.

ステップS104の処理において、基準走路決定部156は、自車両Mの左右に存在することが想定される二つの延在方向DTg(第1延在方向)と、一以上の延在方向DRl(第2延在方向)とのそれぞれを比較し、部分的に合致している場合、延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が合致すると判定する。但し、自車両Mの左側にある延在方向DTg(第1延在方向)と、自車両Mの右側にある延在方向DRl(第2延在方向)のみが合致する場合、基準走路決定部156は、これらが合致しないと判定してもよい。図3の例では、以下のいずれか一つの条件が満たされた場合に、基準走路決定部156が延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が合致すると判定する。
(条件1)延在方向DTg(L)と延在方向DRl(1)が合致する。
(条件2)延在方向DTg(R)と延在方向DRl(2)またはDRl(3)が合致する。
In the process of step S104, the reference track determination unit 156 has two extension directions DTg (first extension direction) that are assumed to exist on the left and right of the own vehicle M, and one or more extension directions DRl . Comparing each with (second extending direction), if they partially match, the extending direction DTg (first extending direction) and the extending direction DRl (second extending direction) match. Then it is determined. However, if only the extension direction DTg (first extension direction) on the left side of the own vehicle M and the extension direction DRl (second extension direction) on the right side of the own vehicle M match, the reference runway The determination unit 156 may determine that these do not match. In the example of FIG. 3, when any one of the following conditions is satisfied, the reference track determination unit 156 has an extension direction DTg (first extension direction) and an extension direction DRl (second extension direction). ) Matches.
(Condition 1) The extending direction DTg (L) and the extending direction DRl (1) match.
(Condition 2) The extending direction DTg (R) matches the extending direction DRl (2) or DRl (3).

上記では、基準走路決定部156は、「部分的に(左右のいずれか一方について)合致している」場合、延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が「合致する」と判定するものとしたが、これに代えて、基準走路決定部156は、左右の双方について合致しなければ、延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が「合致しない」と判定してもよい。 In the above, when the reference track determination unit 156 "partially matches (either left or right)", the extension direction DTg (first extension direction) and the extension direction DRl (second). It was determined that the extension direction) was "matched", but instead of this, if the reference track determination unit 156 does not match both the left and right sides, the extension direction DTg (first extension direction) And the extension direction DRl (second extension direction) may be determined to be "mismatch".

次に、基準走路決定部156は、延在方向DRl(第2延在方向)と延在方向DMp(第3延在方向)が合致しないかどうかを判定する(ステップS106)。本ステップにおいて、互いに複数の延在方向DRl(第2延在方向)が存在する場合、一部の延在方向DRl(第2延在方向)が延在方向DMp(第3延在方向)と合致する場合に「合致する」と判定してもよいし、全ての延在方向DRl(第2延在方向)が延在方向DMp(第3延在方向)と合致する場合にのみ「合致する」と判定してもよい。延在方向DRl(第2延在方向)と延在方向DMp(第3延在方向)が合致しないと判定した場合、基準走路決定部156は、第2フラグをTrueに変更する(ステップS108)。延在方向DRl(第2延在方向)と延在方向DMp(第3延在方向)が合致する場合、或いは、延在方向DMp(第3延在方向)が得られていない場合、基準走路決定部156は、第2フラグをFalseのまま維持する。延在方向DMp(第3延在方向)が得られていない場合とは、例えば、自車両Mが存在する位置に対応する地図情報が無い場合である。 Next, the reference track determination unit 156 determines whether or not the extension direction DRl (second extension direction) and the extension direction D Mp (third extension direction) do not match (step S106). In this step, when there are a plurality of extending directions DRl (second extending direction), some extending directions DRl (second extending direction) are extending directions D Mp (third extending direction). If it matches the direction), it may be determined as "matching", or if all the extending directions DRl (second extending direction) match the extending direction D Mp (third extending direction). It may be determined that "matches" only with. When it is determined that the extension direction DRl (second extension direction) and the extension direction D Mp (third extension direction) do not match, the reference track determination unit 156 changes the second flag to True (step). S108). When the extension direction DRl (second extension direction) and the extension direction D Mp (third extension direction) match, or when the extension direction D Mp (third extension direction) is not obtained. , The reference track determination unit 156 keeps the second flag as False. The case where the extension direction D Mp (third extension direction) is not obtained is, for example, the case where there is no map information corresponding to the position where the own vehicle M exists.

次に、基準走路決定部156は、第1フラグ、第2フラグ共にFalseであるか否かを判定する(ステップS110)。第1フラグ、第2フラグ共にFalseである場合、すなわち、第1延在方向と第2延在方向が合致し、且つ第2延在方向と第3延在方向が合致する場合、基準走路決定部156は、地図情報に基づいて基準走路を決定する(ステップS112)。 Next, the reference track determination unit 156 determines whether or not both the first flag and the second flag are False (step S110). When both the first flag and the second flag are False, that is, when the first extending direction and the second extending direction match, and when the second extending direction and the third extending direction match, the reference track is determined. The unit 156 determines the reference track based on the map information (step S112).

ステップS110で否定的な判定結果を得た場合、基準走路決定部156は、第1フラグがFalseであり、且つ第2フラグがTrueであるか否かを判定する(ステップS114)。第1フラグがFalseであり、且つ第2フラグがTrueである場合、すなわち、第1延在方向と第2延在方向が合致し、且つ第2延在方向と第3延在方向が合致しない場合、基準走路決定部156は、カメラ10の画像(カメラ画像)に基づいて基準走路を決定する(ステップS116)。 When a negative determination result is obtained in step S110, the reference track determination unit 156 determines whether or not the first flag is False and the second flag is True (step S114). When the first flag is False and the second flag is True, that is, the first extending direction and the second extending direction match, and the second extending direction and the third extending direction do not match. In this case, the reference track determination unit 156 determines the reference track based on the image (camera image) of the camera 10 (step S116).

ステップS114で否定的な判定結果を得た場合、基準走路決定部156は、第1フラグがTrueであり、且つ第2フラグがFalseであるか否かを判定する(ステップS118)。第1フラグがTrueであり、且つ第2フラグがFalseである場合、すなわち、第1延在方向と第2延在方向が合致せず、且つ第2延在方向と第3延在方向が合致する場合、基準走路決定部156は、地図情報に基づいて基準走路を決定する(ステップS112)。 When a negative determination result is obtained in step S114, the reference track determination unit 156 determines whether or not the first flag is True and the second flag is False (step S118). When the first flag is True and the second flag is False, that is, the first extension direction and the second extension direction do not match, and the second extension direction and the third extension direction match. If so, the reference track determination unit 156 determines the reference track based on the map information (step S112).

ステップS118で否定的な判定結果を得た場合、基準走路決定部156は、第1フラグがTrueであり、且つ第2フラグがTrueであるか否かを判定する(ステップS120)。第1フラグがTrueであり、且つ第2フラグがTrueである場合、すなわち、第1延在方向と第2延在方向が合致せず、且つ第2延在方向と第3延在方向も合致しない場合、基準走路決定部156は、地図情報に基づいて基準走路を決定する(ステップS112)。なお、ステップS120で否定的な判定結果を得た場合、基準走路決定部156は、エラー情報を行動計画生成部180に出力する(ステップS122)。この場合、行動計画生成部180は、運転者に手動運転を要求する情報を出力したり、自車両Mを減速させて停止させる処理を行う。 When a negative determination result is obtained in step S118, the reference track determination unit 156 determines whether or not the first flag is True and the second flag is True (step S120). When the first flag is True and the second flag is True, that is, the first extension direction and the second extension direction do not match, and the second extension direction and the third extension direction also match. If not, the reference track determination unit 156 determines the reference track based on the map information (step S112). If a negative determination result is obtained in step S120, the reference track determination unit 156 outputs error information to the action plan generation unit 180 (step S122). In this case, the action plan generation unit 180 outputs information requesting the driver to drive manually, or performs a process of decelerating and stopping the own vehicle M.

図6~8は、カメラ画像に基づいて基準走路を決定する場面について説明するための図である。図6に示す例では、延在方向DTg(L)と延在方向DRl(1)が合致し、延在方向DTg(R)と延在方向DRl(2)およびDRl(3)が合致している。道路区画線Rl(2)の方が道路区画線Rl(3)よりも自車両Mに近いため、この場合、基準走路決定部156は、道路区画線Rl(1)およびRl(2)の位置に基づいて基準走路RRを決定する。例えば、基準走路決定部156は、道路区画線Rl(1)の右側端部と、道路区画線Rl(2)の左側端部とで区画される領域を基準走路RRとする。 6 to 8 are diagrams for explaining a scene in which a reference track is determined based on a camera image. In the example shown in FIG. 6, the extending direction DTg (L) and the extending direction DRl (1) match, and the extending direction DTg (R) and the extending direction DRl (2) and DRl (3). ) Matches. Since the road lane marking Rl (2) is closer to the own vehicle M than the road lane marking Rl (3), in this case, the reference track determination unit 156 is the position of the road lane marking Rl (1) and Rl (2). The reference track RR is determined based on. For example, the reference track determination unit 156 uses a region defined by the right end of the road marking line Rl (1) and the left end of the road marking line Rl (2) as the reference track RR.

図7に示す例では、延在方向DTg(L)と延在方向DRl(1)が合致しているが、道路区画線Rl(2)がかすれているため延在方向DRl(2)が特定できておらず、延在方向DTg(R)と延在方向DRl(3)のみが合致している。但し、道路区画線Rl(1)とRl(3)の間隔から二車線分の車線が存在することが認識されている。この場合、基準走路決定部156は、道路区画線Rl(1)およびRl(3)の位置に基づいて基準走路RRを決定する。例えば、基準走路決定部156は、道路区画線Rl(1)の右側端部と、道路区画線Rl(3)の左側端部とで区画される領域を道路幅方向に二分割して基準走路RRを設定する。 In the example shown in FIG. 7, the extending direction DTg (L) and the extending direction DRl (1) match, but the road marking line Rl (2) is faint, so the extending direction DRl (2). ) Has not been identified, and only the extending direction DTg (R) and the extending direction DRl (3) match. However, it is recognized that there are two lanes from the distance between the road marking lines Rl (1) and Rl (3). In this case, the reference track determination unit 156 determines the reference track RR based on the positions of the road marking lines Rl (1) and Rl (3). For example, the reference track determination unit 156 divides the area partitioned by the right end of the road marking line Rl (1) and the left end of the road marking line Rl (3) into two in the road width direction and divides the reference track. Set the RR.

図8に示す例では、延在方向DTg(L)と延在方向DRl(1)が合致しているが、道路に射している影の影響で、延在方向DRl(2)と延在方向DRl(3)が本来の道路区画線Rlの延在方向とは異なる方向に誤認識されている。この結果、延在方向DRl(2)と延在方向DRl(3)は共に延在方向DTg(R)と合致していない。この場合、基準走路決定部156は、道路区画線Rl(1)の位置に基づいて基準走路RRを決定する。例えば、基準走路決定部156は、道路区画線Rl(1)の右側端部を左端として、一般的な車線幅を有する領域を基準走路RRとする。 In the example shown in FIG. 8, the extending direction DTg (L) and the extending direction DRl (1) match, but due to the influence of the shadow cast on the road, the extending direction DRl (2). And the extension direction DRl (3) is erroneously recognized in a direction different from the extension direction of the original road lane marking Rl. As a result, both the extending direction DRl (2) and the extending direction DRl (3) do not match the extending direction DTg (R). In this case, the reference track determination unit 156 determines the reference track RR based on the position of the road lane marking Rl (1). For example, the reference track determination unit 156 uses the right end of the road lane marking Rl (1) as the left end and the region having a general lane width as the reference track RR.

図9は、地図情報に基づいて基準走路を決定する場面について説明するための図である。図9に示す例では、道路に射している影の影響で、延在方向DRl(1)、延在方向DRl(2)、および延在方向DRl(3)が本来の道路区画線Rlの延在方向とは異なる方向に誤認識されている。この結果、延在方向DRl(1)と延在方向DTg(R)は合致せず、且つ延在方向DRl(2)と延在方向DRl(3)は共に延在方向DTg(R)と合致していない。この場合、基準走路決定部156は、地図ベース認識部154を介して地図情報から、例えば「走行中の車線は直線、且つ自車両Mの進行方向と合致している」という情報を取得し、自車両Mの位置および進行方向を基準として基準走路RRを決定する。 FIG. 9 is a diagram for explaining a scene in which a reference track is determined based on map information. In the example shown in FIG. 9, the extension direction DRl (1), the extension direction DRl (2), and the extension direction DRl (3) are the original road sections due to the influence of the shadow cast on the road. It is erroneously recognized in a direction different from the extending direction of the line Rl. As a result, the extending direction DRl (1) and the extending direction DTg (R) do not match, and both the extending direction DRl (2) and the extending direction DRl (3) are the extending direction DTg . It does not match (R). In this case, the reference track determination unit 156 acquires information from the map information via the map-based recognition unit 154, for example, "the traveling lane is a straight line and matches the traveling direction of the own vehicle M". The reference lane RR is determined based on the position and the traveling direction of the own vehicle M.

自車位置認識部160は、基準走路RRに対する自車両Mの位置および姿勢を認識する。自車位置認識部160は、例えば、自車両Mの代表点の基準走路RRの中央部からの乖離、および自車両Mの進行方向が基準走路RRの中央線に対してなす角度を、基準走路RRに対する自車両Mの位置および姿勢として認識する。これに代えて、自車位置認識部160は、基準走路RRのいずれかの側端部に対する自車両Mの代表点の位置などを、走行車線に対する自車両Mの位置として認識してもよい。 The own vehicle position recognition unit 160 recognizes the position and attitude of the own vehicle M with respect to the reference track RR. The own vehicle position recognition unit 160 determines, for example, the deviation of the representative point of the own vehicle M from the center of the reference runway RR and the angle formed by the traveling direction of the own vehicle M with respect to the center line of the reference runway RR. It is recognized as the position and attitude of the own vehicle M with respect to the RR. Instead of this, the own vehicle position recognition unit 160 may recognize the position of the representative point of the own vehicle M with respect to any side end of the reference track RR as the position of the own vehicle M with respect to the traveling lane.

[行動計画生成]
行動計画生成部180は、原則的には自車両Mが基準走路決定部156により決定された基準走路RRを走行し、更に、自車両Mの周辺状況に対応できるように、自車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。行動計画生成部180は、自車両Mに基準走路RRを走行させる場合、基準走路RRの幅方向に関する中央線上に目標軌道を生成し、目標軌道の情報を第2制御部190に出力する。また、行動計画生成部180は、自車両Mの進行方向先に障害物が存在する場合、まず基準走路RR内で回避可能か否かを判定し、回避可能である場合は基準走路RR内に回避のための目標軌道を生成し、回避可能でない場合に車線変更制御に切り替える。これらが、「車両の走行制御の基準とする」ことの一例である。
[Action plan generation]
In principle, the action plan generation unit 180 travels on the reference track RR determined by the reference track determination unit 156, and the own vehicle M automatically responds to the surrounding conditions of the own vehicle M. Generates a target track to be driven in the future (regardless of the driver's operation). The target trajectory contains, for example, a velocity element. For example, the target track is expressed as an arrangement of points (track points) to be reached by the own vehicle M in order. The track point is a point to be reached by the own vehicle M for each predetermined mileage (for example, about several [m]) along the road, and separately, for a predetermined sampling time (for example, about 0 comma number [sec]). ) Target velocity and target acceleration are generated as part of the target trajectory. Further, the track point may be a position to be reached by the own vehicle M at the sampling time for each predetermined sampling time. In this case, the information of the target velocity and the target acceleration is expressed by the interval of the orbital points. When the own vehicle M is made to travel on the reference track RR, the action plan generation unit 180 generates a target track on the center line in the width direction of the reference track RR, and outputs information on the target track to the second control unit 190. Further, the action plan generation unit 180 first determines whether or not it can be avoided in the reference lane RR when an obstacle exists in the traveling direction of the own vehicle M, and if it can be avoided, it is in the reference lane RR. Generate a target track for avoidance and switch to lane change control when avoidance is not possible. These are examples of "using the vehicle as a standard for driving control".

行動計画生成部180は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部180は、起動させたイベントに応じた目標軌道を生成する。 The action plan generation unit 180 may set an event for automatic driving when generating a target trajectory. Autonomous driving events include constant speed driving events, low speed following driving events, lane change events, branching events, merging events, takeover events, and the like. The action plan generation unit 180 generates a target trajectory according to the activated event.

行動計画生成部180は、自動運転を実行している間、自動運転レベルを定義する。自動運転レベルとは、運転者に課せられる注意義務の程度を表すものであり、例えば、前方監視義務の有無、ステアリングホイールの把持義務の有無などによって段階的に定義される。前方監視義務が有る状態をアイズオン、無い状態をアイズオフと称する。また、ステアリングホイールの把持義務が有る状態をハンズオン、無い状態をハンズオフと称する。 The action plan generation unit 180 defines the automatic driving level while the automatic driving is being executed. The automatic driving level represents the degree of duty of care imposed on the driver, and is defined step by step depending on, for example, whether or not there is a duty of forward monitoring and whether or not there is a duty of gripping the steering wheel. The state where there is an obligation to monitor forward is called eyes-on, and the state where there is no obligation to monitor forward is called eyes-off. Further, a state in which the steering wheel is obliged to be gripped is referred to as hands-on, and a state in which the steering wheel is not obliged to be gripped is referred to as hands-off.

アイズオンにおいて、行動計画生成部180は、自車両Mの車室内を撮像するカメラ(不図示)が撮像し、運転席に着座した乗員(運転者)を含む画像を解析することで、運転者が自車両Mの前方を視認しているか否かを判定する。運転者が自車両Mの前方を視認していないと判定した場合、行動計画生成部180は、HMI30を用いて運転者に警告を発し、それでも運転者が自車両Mの前方を視認しない場合は自動運転を停止したり、自車両Mを減速させて停止させたりする。アイズオフの場合、行動計画生成部180は、このような処理を行わない。 In Eyes-on, the action plan generation unit 180 is captured by a camera (not shown) that captures the interior of the vehicle M, and the driver analyzes an image including an occupant (driver) seated in the driver's seat. It is determined whether or not the front of the own vehicle M is visually recognized. If it is determined that the driver is not visually recognizing the front of the own vehicle M, the action plan generation unit 180 issues a warning to the driver using the HMI 30, and if the driver is still not visually recognizing the front of the own vehicle M, the action plan generation unit 180 is used. The automatic operation is stopped, or the own vehicle M is decelerated and stopped. In the case of eyes-off, the action plan generation unit 180 does not perform such processing.

ハンズオンにおいて、行動計画生成部180は、ステアリングホイールに取り付けられた把持センサ(圧力センサ、静電容量センサなど)の検出結果を参照し、運転者がステアリングホイールを把持しているか否かを判定する。運転者がステアリングホイールを把持していないと判定した場合、行動計画生成部180は、HMI30を用いて運転者に警告を発し、それでも運転者がステアリングホイールを把持しない場合は自動運転を停止したり、自車両Mを減速させて停止させたりする。ハンズオフの場合、行動計画生成部180は、このような処理を行わない。 In the hands-on, the action plan generation unit 180 refers to the detection result of the grip sensor (pressure sensor, capacitance sensor, etc.) attached to the steering wheel and determines whether or not the driver is gripping the steering wheel. .. If it is determined that the driver is not gripping the steering wheel, the action plan generator 180 issues a warning to the driver using the HMI 30, and if the driver still does not grip the steering wheel, the automatic driving is stopped. , The own vehicle M is decelerated and stopped. In the case of hands-off, the action plan generation unit 180 does not perform such processing.

一般に、アイズオフの方がハンズオフよりも運転者に課せられる注意義務が小さい(自動運転レベルが高い)と考えられる。従って、自動運転レベルとして想定されるものは、例えば、自動運転レベルが高いものから順に、<アイズオフ・ハンズオフ>、<アイズオン・ハンズオフ>、<アイズオン・ハンズオン>の3つが考えられる。なお、この3つはあくまで一例であり、自動運転レベルは如何様にも定義することができる。例えば、運転者の睡眠を許容する、更に高い自動運転レベルが定義されてもよい。 In general, it is considered that the duty of care imposed on the driver is smaller (the level of automatic driving is higher) in the eyes-off than in the hands-off. Therefore, there are three possible automatic driving levels, for example, <eyes-off hands-off>, <eyes-on-hands-off>, and <eyes-on-hands-on>, in order from the one with the highest automatic driving level. It should be noted that these three are just examples, and the automatic operation level can be defined in any way. For example, higher levels of autonomous driving may be defined that allow the driver to sleep.

行動計画生成部180は、例えば、基準走路決定部156の処理過程を一つの要素として、自動運転レベルを決定する。具体的に、行動計画生成部180は、例えば自動車専用道路を直進しているなどのシーン条件を満たすことを前提として、前述した第1フラグと第2フラグが共にFalseである場合に<アイズオフ・ハンズオフ>、第1フラグと第2フラグの一方がFalse、他方がTrueである場合に<アイズオン・ハンズオフ>、第1フラグと第2フラグが共にTrueである場合に<アイズオン・ハンズオン>に自動運転レベルを設定する。また、前述したように、行動計画生成部180は、自車両Mの左右の延在方向が共に合致した場合(図6または図7の場面)、左右の一方のみが合致した場合(図8の場面)に比して、自動運転レベルを高くするようにしてもよい。これによって、自動運転制御装置100は、道路状況の認識度合いに基づいて適切に自動運転レベルを定めることができる。 The action plan generation unit 180 determines the automatic driving level, for example, with the processing process of the reference track determination unit 156 as one element. Specifically, the action plan generation unit 180 is premised on satisfying a scene condition such as traveling straight on a motorway, and when both the first flag and the second flag described above are False, <eyes off. Automatic operation to <eyes-on-hands-off> when one of the first flag and the second flag is False and the other is True, and <eyes-on-hands-on> when both the first flag and the second flag are True. Set the level. Further, as described above, when the left and right extending directions of the own vehicle M match both (the scene of FIG. 6 or 7), the action plan generation unit 180 matches only one of the left and right (FIG. 8). The automatic driving level may be higher than that of the scene). Thereby, the automatic driving control device 100 can appropriately determine the automatic driving level based on the recognition degree of the road condition.

第2制御部190は、行動計画生成部180によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。 The second control unit 190 sets the traveling driving force output device 200, the brake device 210, and the steering device 220 so that the own vehicle M passes the target trajectory generated by the action plan generation unit 180 at the scheduled time. Control.

第2制御部190は、例えば、取得部192と、速度制御部194と、操舵制御部196とを備える。取得部192は、行動計画生成部180により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部194は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部196は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部194および操舵制御部196の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部196は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。 The second control unit 190 includes, for example, an acquisition unit 192, a speed control unit 194, and a steering control unit 196. The acquisition unit 192 acquires information on the target trajectory (orbit point) generated by the action plan generation unit 180 and stores it in a memory (not shown). The speed control unit 194 controls the traveling driving force output device 200 or the brake device 210 based on the speed element associated with the target trajectory stored in the memory. The steering control unit 196 controls the steering device 220 according to the degree of bending of the target trajectory stored in the memory. The processing of the speed control unit 194 and the steering control unit 196 is realized by, for example, a combination of feedforward control and feedback control. As an example, the steering control unit 196 executes a combination of feedforward control according to the curvature of the road in front of the own vehicle M and feedback control based on the deviation from the target track.

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部190から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。 The traveling driving force output device 200 outputs a traveling driving force (torque) for the vehicle to travel to the drive wheels. The traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, a motor, a transmission, and the like, and an ECU (Electronic Control Unit) that controls them. The ECU controls the above configuration according to the information input from the second control unit 190 or the information input from the operation controller 80.

ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部190から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部190から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。 The brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor according to the information input from the second control unit 190 or the information input from the operation controller 80 so that the brake torque corresponding to the braking operation is output to each wheel. The brake device 210 may include a mechanism for transmitting the hydraulic pressure generated by the operation of the brake pedal included in the operation operator 80 to the cylinder via the master cylinder as a backup. The brake device 210 is not limited to the configuration described above, and is an electronically controlled hydraulic brake device that controls the actuator according to the information input from the second control unit 190 to transmit the hydraulic pressure of the master cylinder to the cylinder. May be good.

ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部190から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor, for example, exerts a force on the rack and pinion mechanism to change the direction of the steering wheel. The steering ECU drives the electric motor according to the information input from the second control unit 190 or the information input from the operation controller 80, and changes the direction of the steering wheel.

[より詳細な処理例]
以下、基準走路決定のための、より詳細な処理内容について説明する。図10は、画像解析部150、物標延在方向特定部152、および基準走路決定部156による処理の流れの一例を示すフローチャートである。
[More detailed processing example]
Hereinafter, more detailed processing contents for determining the reference track will be described. FIG. 10 is a flowchart showing an example of the processing flow by the image analysis unit 150, the target extension direction specifying unit 152, and the reference track determination unit 156.

まず、物標延在方向特定部152が、フラグ(SA)またはフラグ(UK)が付与された物標位置から二群の物標位置に絞り込む(ステップS200)。図11は、物標位置の絞り込み処理について説明するための図である。図示するように、物標延在方向特定部152が取得した物標位置の出現頻度をY軸方向にまとめると、自車両Mの左右方向(ここではいずれか一方を正、他方を負と定義する)のそれぞれにおいて、構造物Stの位置に対応するピークが出現する。物標延在方向特定部152は、それぞれのピークから例えばプラスマイナス1σの範囲内にある二群の物標位置に絞り込む。これによって、外れ値を適切に除外することができる。 First, the target extension direction specifying unit 152 narrows down the target positions to which the flag (SA) or the flag (UK) is attached to the two groups of target positions (step S200). FIG. 11 is a diagram for explaining the process of narrowing down the target position. As shown in the figure, when the frequency of appearance of the target position acquired by the target extension direction specifying unit 152 is summarized in the Y-axis direction, the left-right direction of the own vehicle M (here, one is defined as positive and the other is defined as negative). In each of the above), a peak corresponding to the position of the structure St appears. The target extension direction specifying unit 152 narrows down each peak to two groups of target positions within a range of, for example, plus or minus 1σ. This allows outliers to be appropriately excluded.

図10に戻り、物標延在方向特定部152は、二群の物標位置に絞り込んだそれぞれの群の物標位置について、X方向の間隔が規定値以上となるように物標位置を間引く(ステップS202)。次に、物標延在方向特定部152は、間引いた後のそれぞれの群の物標位置に対して、最小二乗法を適用して一次方程式に近似する(一次近似する;ステップS204)。次に、物標延在方向特定部152は、近似した一次方程式上で、自車両Mとの距離=ゼロの地点を起点として、等間隔に物標位置を再生成する(ステップS206)。こうすることで、例えば三次方程式に近似する処理を行う場合に比して、処理負荷を軽減することができる。道路区画線Rlと構造物Stの合致判定を行う処理において、数値的な厳密性はさほど要求されないため、一次近似を行うことで、処理負荷を軽減しつつ大局的な判断を行うことが可能となる。 Returning to FIG. 10, the target extension direction specifying unit 152 thins out the target positions so that the distance in the X direction is equal to or larger than the specified value for the target positions of each group narrowed down to the target positions of the two groups. (Step S202). Next, the target extension direction specifying unit 152 approximates a linear equation by applying a least squares method to the target positions of each group after thinning (first-order approximation; step S204). Next, the target extension direction specifying unit 152 regenerates the target positions at equal intervals starting from a point where the distance from the own vehicle M = zero on the approximated linear equation (step S206). By doing so, it is possible to reduce the processing load as compared with the case of performing processing similar to, for example, a cubic equation. Since numerical rigor is not required so much in the process of determining the match between the road lane marking Rl and the structure St, it is possible to make a global decision while reducing the processing load by performing a first-order approximation. Become.

次に、画像解析部150と物標延在方向特定部152のそれぞれは、ステップS206で再生成された物標位置と、カメラ画像から認識された道路区画線の輪郭であるエッジ点列のうち短い方を選択し(ステップS208)、短い方に合わせて第1延在方向と第2延在方向のそれぞれを表すベクトルを生成する(ステップS210)。図12は、ベクトルを生成する処理について説明するための図である。図中、→DTgは第1延在方向を示すベクトル(長さの概念を含む)であり、→DRlは第2延在方向を示すベクトル(長さの概念を含む)である。図示するように、再生成された物標位置Tg*とエッジ点Epのうち延在する長さが短い方である再生成された物標位置Tg*に合わせてそれぞれのベクトルが生成される。 Next, each of the image analysis unit 150 and the target extension direction specifying unit 152 has the target position regenerated in step S206 and the edge point sequence which is the outline of the road marking line recognized from the camera image. The shorter one is selected (step S208), and vectors representing the first extending direction and the second extending direction are generated according to the shorter one (step S210). FIG. 12 is a diagram for explaining a process of generating a vector. In the figure, → DTg is a vector indicating the first extending direction (including the concept of length), and → DRl is a vector indicating the second extending direction (including the concept of length). As shown in the figure, each vector is generated according to the regenerated target position Tg * and the regenerated target position Tg * having the shorter extending length of the edge point Ep.

そして、基準走路決定部156は、第1延在方向を示すベクトルと第2延在方向を示すベクトルとのコサイン類似度を算出し、第1延在方向と第2延在方向が合致するか否かを判定する(ステップS212)。このステップS212の処理は、図5のステップS102の処理に対応している。前述したように、延在方向同士が合致するとは、例えば角度差が閾値(例えば数度程度の値)以内であることであり、コサイン類似度を用いて判定を行う場合は、コサイン類似度が上記閾値に対応した基準値以上である場合に、延在方向同士が合致すると判定すればよい。ステップS210で二つのベクトルの長さを揃えたのは、コサイン類似度を求めるためである。 Then, the reference track determination unit 156 calculates the cosine similarity between the vector indicating the first extension direction and the vector indicating the second extension direction, and determines whether the first extension direction and the second extension direction match. It is determined whether or not (step S212). The process of step S212 corresponds to the process of step S102 of FIG. As described above, the fact that the extending directions match each other means that, for example, the angle difference is within a threshold value (for example, a value of several degrees), and when the judgment is made using the cosine similarity, the cosine similarity is determined. When it is equal to or more than the reference value corresponding to the above threshold value, it may be determined that the extending directions match each other. The reason why the lengths of the two vectors are aligned in step S210 is to obtain the cosine similarity.

上記実施形態では、第1延在方向として、延在方向DTg(L)、DTg(R)の双方を用いて基準走路を決定するものとしたが、それらのうち一方のみを用いて基準走路を決定してもよい。例えば、基準走路決定部156は、延在方向DTg(L)と延在方向DTg(R)が合致する(定義は前述の通りでよい)か否かを判定し、合致する場合は元になった物標位置が多い方を選択し、合致しない場合は自車両Mの進行方向により近い方を選択してもよい。この場合、基準走路決定部156は、第2延在方向である一以上の延在方向DRlのそれぞれについて、選択した延在方向DTgと合致するか否かを判定する。「進行方向により近い方」とは、例えば、自車両Mの代表点から進行方向に仮想線を設定した場合に、先に交差する方という意味である。 In the above embodiment, as the first extension direction, both the extension directions DTg (L) and DTg (R) are used to determine the reference track, but only one of them is used as the reference. You may decide the track. For example, the reference track determination unit 156 determines whether or not the extension direction DTg (L) and the extension direction DTg (R) match (the definition may be as described above), and if they match, the original. The one with the most target positions may be selected, and if they do not match, the one closer to the traveling direction of the own vehicle M may be selected. In this case, the reference track determination unit 156 determines whether or not each of the one or more extending directions DRl , which is the second extending direction, matches the selected extending direction DTg . The "closer to the traveling direction" means, for example, the one that intersects first when the virtual line is set in the traveling direction from the representative point of the own vehicle M.

[ハードウェア構成]
図13は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置100は、通信コントローラ100-1、CPU100-2、ワーキングメモリとして使用されるRAM(Random Access Memory)100-3、ブートプログラムなどを格納するROM(Read Only Memory)100-4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置100-5、ドライブ装置100-6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100-1は、自動運転制御装置100以外の構成要素との通信を行う。記憶装置100-5には、CPU100-2が実行するプログラム100-5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100-3に展開されて、CPU100-2によって実行される。これによって、認識部130、行動計画生成部180、第2制御部190のうち一部または全部が実現される。
[Hardware configuration]
FIG. 13 is a diagram showing an example of the hardware configuration of the automatic operation control device 100 of the embodiment. As shown in the figure, the automatic operation control device 100 includes a communication controller 100-1, a CPU 100-2, a RAM (Random Access Memory) 100-3 used as a working memory, a ROM (Read Only Memory) for storing a boot program, and the like. The configuration is such that 100-4, a storage device 100-5 such as a flash memory or an HDD (Hard Disk Drive), a drive device 100-6, and the like are connected to each other by an internal bus or a dedicated communication line. The communication controller 100-1 communicates with a component other than the automatic operation control device 100. The storage device 100-5 stores a program 100-5a executed by the CPU 100-2. This program is expanded to the RAM 100-3 by a DMA (Direct Memory Access) controller (not shown) or the like, and is executed by the CPU 100-2. As a result, a part or all of the recognition unit 130, the action plan generation unit 180, and the second control unit 190 are realized.

以上説明した実施形態によれば、車両(自車両M)に搭載され、車両の周辺を撮像するカメラ(10)によって取得された画像に基づいて、車両に対する道路区画線の位置を認識する画像解析部(150)と、車両に搭載され、車両の周辺を検出範囲とし、カメラとは異なる物体検出装置(例えばLIDAR14)によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定する特定部(物標延在方向特定部152)と、車両の走行制御の基準とする基準走路(RR)を決定する決定部(基準走路決定部156)であって、第1延在方向と、画像解析部によって認識された道路区画線の延在方向である第2延在方向とが合致する場合に、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定する決定部と、を備えることにより、カメラによる道路区画線の認識結果の採否を、他のセンサの検出結果によって適切に行うことができる。 According to the embodiment described above, image analysis for recognizing the position of the road lane marking with respect to the vehicle based on the image acquired by the camera (10) mounted on the vehicle (own vehicle M) and capturing the periphery of the vehicle. A group of target positions lined up linearly from a plurality of target positions acquired by an object detection device (for example, LIDAR14) different from the camera, with the detection range set around the vehicle and the unit (150) mounted on the vehicle. A specific unit that specifies the first extension direction, which is the extension direction of the vehicle (target extension direction specification unit 152), and a determination unit that determines the reference track (RR) that is the reference for vehicle travel control (reference track determination). In section 156), when the first extension direction and the second extension direction, which is the extension direction of the road lane marking recognized by the image analysis section, match, the image analysis section recognizes the first extension direction. By providing a determination unit for determining the reference track based on the road lane marking, it is possible to appropriately adopt or reject the recognition result of the road lane marking by the camera based on the detection result of another sensor.

上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウエアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記記憶装置に記憶されたプログラムを実行することで、
車両に搭載され、前記車両の周辺を撮像するカメラによって取得された画像に基づいて、前記車両に対する道路区画線の位置を認識し、
前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定し、
前記第1延在方向と、前記画像解析部によって認識された道路区画線の延在方向である第2延在方向とが合致する場合に、前記画像解析部によって認識された道路区画線に基づいて前記車両の走行制御の基準とする基準走路を決定する
ように構成されている、周辺認識装置。
The embodiment described above can be expressed as follows.
A storage device that stores the program and
Equipped with a hardware processor,
The hardware processor executes a program stored in the storage device to execute the program.
Based on the image mounted on the vehicle and acquired by the camera that images the surroundings of the vehicle, the position of the road lane marking with respect to the vehicle is recognized.
It is the extension direction of a group of target positions arranged in a line from a plurality of target positions mounted on the vehicle and having a detection range around the vehicle and acquired by an object detection device different from the camera. 1 Specify the extension direction,
Based on the road lane marking recognized by the image analysis unit when the first extension direction and the second extension direction which is the extension direction of the road lane marking recognized by the image analysis unit match. A peripheral recognition device configured to determine a reference track as a reference for driving control of the vehicle.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

10 カメラ
12 レーダ装置
14 LIDAR
16 物体認識装置
30 HMI
54 第1地図情報
62 第2地図情報
100 自動運転制御装置
120 第1制御部
130 認識部
140 物体認識部
150 画像解析部
152 物標延在方向特定部
154 地図ベース認識部
156 基準走路決定部
160 自車位置認識部
190 第2制御部
10 Camera 12 Radar device 14 LIDAR
16 Object recognition device 30 HMI
54 1st map information 62 2nd map information 100 Automatic operation control device 120 1st control unit 130 Recognition unit 140 Object recognition unit 150 Image analysis unit 152 Object extension direction identification unit 154 Map base recognition unit 156 Reference track determination unit 160 Vehicle position recognition unit 190 2nd control unit

Claims (9)

車両に搭載され、前記車両の周辺を撮像するカメラによって取得された画像に基づいて、前記車両に対する道路区画線の位置を認識する画像解析部と、
前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定する特定部と、
前記車両の位置を地図情報に当てはめることで、前記車両に対する前記車両が存在する道路の延在方向である第3延在方向を認識する地図ベース認識部と、
前記車両の走行制御の基準とする基準走路を決定する決定部であって、前記第1延在方向と前記画像解析部によって認識された道路区画線の延在方向である第2延在方向とが合致し、且つ、前記第2延在方向と前記第3延在方向とが合致しない場合、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定する決定部と、
を備える周辺認識装置。
An image analysis unit that recognizes the position of the road lane marking with respect to the vehicle based on an image mounted on the vehicle and acquired by a camera that images the surroundings of the vehicle.
It is the extension direction of a group of target positions arranged in a line from a plurality of target positions mounted on the vehicle and having a detection range around the vehicle and acquired by an object detection device different from the camera. 1 Specific part that specifies the extension direction and
By applying the position of the vehicle to the map information, a map-based recognition unit that recognizes a third extension direction, which is the extension direction of the road on which the vehicle exists with respect to the vehicle, and a map-based recognition unit.
A determination unit that determines a reference track to be used as a reference for vehicle travel control, and a first extension direction and a second extension direction that is an extension direction of a road lane marking recognized by the image analysis unit. When the second extension direction and the third extension direction do not match, the determination unit that determines the reference track based on the road marking line recognized by the image analysis unit, and the determination unit.
Peripheral recognition device equipped with.
前記決定部は、前記第1延在方向と前記第2延在方向とが合致せず、且つ、前記第2延在方向と前記第3延在方向とが合致しない場合、前記地図ベース認識部により認識された道路区画線に基づいて前記基準走路を決定する、
請求項記載の周辺認識装置。
When the first extending direction and the second extending direction do not match, and the second extending direction and the third extending direction do not match, the determination unit is the map-based recognition unit. Determine the reference track based on the road lane markings recognized by
The peripheral recognition device according to claim 1 .
前記特定部は、前記複数の物標位置から、所定の長さ以上に延在し、且つ静止していると推定される物標に対応する物標位置を、前記線状に並ぶ一群の物標位置として特定する、
請求項1又は2に記載の周辺認識装置。
The specific portion is a group of objects in which the target positions corresponding to the targets presumed to extend beyond a predetermined length and are stationary from the plurality of target positions are arranged in a line. Specify as a target position,
The peripheral recognition device according to claim 1 or 2 .
前記特定部は、前記複数の物標位置のうち線状に並ぶ物標位置に対して、所定の手法によって間引き処理を行って数を減らして、前記線状に並ぶ一群の物標位置を特定する、
請求項1からのうちいずれか1項記載の周辺認識装置。
The specific unit identifies a group of target positions arranged in a line by thinning out the target positions arranged in a line among the plurality of target positions by a predetermined method to reduce the number of the target positions. do,
The peripheral recognition device according to any one of claims 1 to 3 .
前記特定部は、前記線状に並ぶ一群の物標位置に対して一次近似を行うことで、前記第1延在方向を特定する、
請求項1からのうちいずれか1項記載の周辺認識装置。
The specific portion specifies the first extending direction by performing a linear approximation with respect to a group of target positions arranged in a line.
The peripheral recognition device according to any one of claims 1 to 4 .
前記決定部は、前記車両の左右においてそれぞれ認識される、前記線状に並ぶ一群の物標位置のうち、前記車両の進行方向に近い側の前記線状に並ぶ一群の物標位置に基づいて特定された前記第1延在方向と、前記第2延在方向とが合致する場合に、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定する、
請求項1からのうちいずれか1項記載の周辺認識装置。
The determination unit is based on the linearly arranged target position on the side closer to the traveling direction of the vehicle among the linearly arranged target positions recognized on the left and right sides of the vehicle. When the specified first extending direction and the second extending direction match, the reference track is determined based on the road marking line recognized by the image analysis unit.
The peripheral recognition device according to any one of claims 1 to 5 .
前記決定部は、前記車両の左右においてそれぞれ認識される、前記線状に並ぶ一群の物標位置のうち、数が多い方の前記線状に並ぶ一群の物標位置に基づいて特定された前記第1延在方向と、前記第2延在方向とが合致する場合に、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定する、
請求項1からのうちいずれか1項記載の周辺認識装置。
The determination unit is specified based on the group of target positions lined up in a line, whichever is larger in number, recognized on the left and right sides of the vehicle. When the first extending direction and the second extending direction match, the reference track is determined based on the road lane marking recognized by the image analysis unit.
The peripheral recognition device according to any one of claims 1 to 6 .
コンピュータが、
車両に搭載され、前記車両の周辺を撮像するカメラによって取得された画像に基づいて、前記車両に対する道路区画線の位置を認識し、
前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定し、
前記車両の位置を地図情報に当てはめることで、前記車両に対する前記車両が存在する道路の延在方向である第3延在方向を認識し、
前記第1延在方向と前記認識された道路区画線の延在方向である第2延在方向とが合致し、且つ、前記第2延在方向と前記第3延在方向とが合致しない場合、前記認識された道路区画線に基づいて前記車両の走行制御の基準とする基準走路を決定する、
周辺認識方法。
The computer
Based on the image mounted on the vehicle and acquired by the camera that images the surroundings of the vehicle, the position of the road lane marking with respect to the vehicle is recognized.
It is the extension direction of a group of target positions arranged in a line from a plurality of target positions mounted on the vehicle and having a detection range around the vehicle and acquired by an object detection device different from the camera. 1 Specify the extension direction,
By applying the position of the vehicle to the map information, the third extending direction, which is the extending direction of the road on which the vehicle is located, is recognized with respect to the vehicle.
When the first extending direction and the second extending direction which is the extending direction of the recognized road lane marking match, and the second extending direction and the third extending direction do not match. , A reference track to be used as a reference for driving control of the vehicle is determined based on the recognized road lane marking.
Peripheral recognition method.
コンピュータに、
車両に搭載され、前記車両の周辺を撮像するカメラによって取得された画像に基づいて、前記車両に対する道路区画線の位置を認識させ、
前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定させ、
前記車両の位置を地図情報に当てはめることで、前記車両に対する前記車両が存在する道路の延在方向である第3延在方向を認識し、
前記第1延在方向と前記認識された道路区画線の延在方向である第2延在方向とが合致し、且つ、前記第2延在方向と前記第3延在方向とが合致しない場合、前記認識された道路区画線に基づいて前記車両の走行制御の基準とする基準走路を決定させる、
プログラム。
On the computer
Based on the image mounted on the vehicle and acquired by the camera that images the surroundings of the vehicle, the position of the road lane marking with respect to the vehicle is recognized.
It is the extension direction of a group of target positions arranged in a line from a plurality of target positions mounted on the vehicle and having a detection range around the vehicle and acquired by an object detection device different from the camera. 1 Let the extension direction be specified,
By applying the position of the vehicle to the map information, the third extending direction, which is the extending direction of the road on which the vehicle is located, is recognized with respect to the vehicle.
When the first extending direction and the second extending direction which is the extending direction of the recognized road lane marking match, and the second extending direction and the third extending direction do not match. , The reference track to be used as the reference for the traveling control of the vehicle is determined based on the recognized road lane marking.
program.
JP2019169448A 2019-09-18 2019-09-18 Peripheral recognition device, peripheral recognition method, and program Active JP7028838B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019169448A JP7028838B2 (en) 2019-09-18 2019-09-18 Peripheral recognition device, peripheral recognition method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019169448A JP7028838B2 (en) 2019-09-18 2019-09-18 Peripheral recognition device, peripheral recognition method, and program

Publications (2)

Publication Number Publication Date
JP2021047609A JP2021047609A (en) 2021-03-25
JP7028838B2 true JP7028838B2 (en) 2022-03-02

Family

ID=74878492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019169448A Active JP7028838B2 (en) 2019-09-18 2019-09-18 Peripheral recognition device, peripheral recognition method, and program

Country Status (1)

Country Link
JP (1) JP7028838B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7203885B2 (en) * 2021-03-31 2023-01-13 本田技研工業株式会社 VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014228943A (en) 2013-05-20 2014-12-08 日本電産エレシス株式会社 Vehicular external environment sensing device, and axial shift correction program and method therefor
JP2017207814A (en) 2016-05-16 2017-11-24 株式会社デンソー Verification device and verification method
WO2019065564A1 (en) 2017-09-29 2019-04-04 日立オートモティブシステムズ株式会社 Automatic driving controller and method
JP2019084902A (en) 2017-11-06 2019-06-06 いすゞ自動車株式会社 Steering control device and steering control method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014228943A (en) 2013-05-20 2014-12-08 日本電産エレシス株式会社 Vehicular external environment sensing device, and axial shift correction program and method therefor
JP2017207814A (en) 2016-05-16 2017-11-24 株式会社デンソー Verification device and verification method
WO2019065564A1 (en) 2017-09-29 2019-04-04 日立オートモティブシステムズ株式会社 Automatic driving controller and method
JP2019084902A (en) 2017-11-06 2019-06-06 いすゞ自動車株式会社 Steering control device and steering control method

Also Published As

Publication number Publication date
JP2021047609A (en) 2021-03-25

Similar Documents

Publication Publication Date Title
JP6710710B2 (en) Vehicle control device, vehicle control method, and program
CN111201170B (en) Vehicle control device and vehicle control method
JPWO2018216194A1 (en) Vehicle control system and vehicle control method
US11370420B2 (en) Vehicle control device, vehicle control method, and storage medium
CN110341704B (en) Vehicle control device, vehicle control method, and storage medium
US20200290624A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7071250B2 (en) Vehicle control devices, vehicle control methods, and programs
JP6827026B2 (en) Vehicle control devices, vehicle control methods, and programs
JP2019131077A (en) Vehicle control device, vehicle control method, and program
CN110217231B (en) Vehicle control device, vehicle control method, and storage medium
CN112677966A (en) Vehicle control device, vehicle control method, and storage medium
CN112208532A (en) Vehicle control device, vehicle control method, and storage medium
JP6965152B2 (en) Vehicle control devices, vehicle control methods, and programs
CN111231961A (en) Vehicle control device, vehicle control method, and storage medium
JP2021160426A (en) Mobile body control device, mobile body control method, and program
JP7225185B2 (en) VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM
US11628862B2 (en) Vehicle control device, vehicle control method, and storage medium
CN113525378A (en) Vehicle control device, vehicle control method, and storage medium
CN110194153B (en) Vehicle control device, vehicle control method, and storage medium
JP7028838B2 (en) Peripheral recognition device, peripheral recognition method, and program
CN110341703B (en) Vehicle control device, vehicle control method, and storage medium
US11932283B2 (en) Vehicle control device, vehicle control method, and storage medium
JP6796047B2 (en) Vehicle control devices, vehicle control methods, and programs
CN113492844A (en) Vehicle control device, vehicle control method, and storage medium
CN112141097A (en) Vehicle control device, vehicle control method, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191122

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220217

R150 Certificate of patent or registration of utility model

Ref document number: 7028838

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150