JP7028838B2 - Peripheral recognition device, peripheral recognition method, and program - Google Patents
Peripheral recognition device, peripheral recognition method, and program Download PDFInfo
- Publication number
- JP7028838B2 JP7028838B2 JP2019169448A JP2019169448A JP7028838B2 JP 7028838 B2 JP7028838 B2 JP 7028838B2 JP 2019169448 A JP2019169448 A JP 2019169448A JP 2019169448 A JP2019169448 A JP 2019169448A JP 7028838 B2 JP7028838 B2 JP 7028838B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- extending direction
- extension direction
- recognized
- target positions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Navigation (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、周辺認識装置、周辺認識方法、およびプログラムに関する。 The present invention relates to a peripheral recognition device, a peripheral recognition method, and a program.
従来、物体の位置情報を検出するレーダ手段と、物体の位置大きさ情報を検出する撮像手段と、レーダ手段および撮像手段による検出結果が所定のフュージョン条件を満たす場合にレーダ手段によって検出した物体と撮像手段によって検出した物体を同一物体としてフュージョンして位置情報および大きさ情報を有するフュージョン物標を生成するフュージョン処理手段と、を備え、生成されたフュージョン物標についてフュージョン条件の更新判定時にレーダ手段による検出結果に対して撮像手段による検出結果がフュージョン条件を満たさない場合には、大きさ情報が過去に取得したフュージョン物標の大きさ情報に基づく推定により補間された仮フュージョン物標を生成してフュージョン物標を更新する物体検出装置の発明が開示されている(特許文献1参照)。 Conventionally, a radar means for detecting the position information of an object, an image pickup means for detecting the position size information of the object, and an object detected by the radar means when the detection result by the radar means and the image pickup means satisfy a predetermined fusion condition. It is provided with a fusion processing means for generating a fusion target having position information and size information by fusing the objects detected by the imaging means as the same object, and the radar means at the time of determining the update of the fusion condition for the generated fusion target. If the detection result by the imaging means does not satisfy the fusion condition with respect to the detection result by, a temporary fusion object whose size information is interpolated by estimation based on the size information of the fusion object acquired in the past is generated. The invention of the object detection device for updating the fusion target is disclosed (see Patent Document 1).
上記従来の技術は、他車両などの立体物を検出する際にカメラとレーダのセンサフュージョンを行うものであり、カメラによる道路区画線の認識結果の採否を、他のセンサの検出結果によって適切に行うものではない。 The above-mentioned conventional technology performs sensor fusion between a camera and a radar when detecting a three-dimensional object such as another vehicle, and appropriately determines whether or not the recognition result of the road lane marking by the camera is adopted by the detection result of the other sensor. It's not something to do.
本発明は、このような事情を考慮してなされたものであり、カメラによる道路区画線の認識結果の採否を、他のセンサの検出結果によって適切に決定することが可能な周辺認識装置、周辺認識方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and is capable of appropriately determining whether or not to accept or reject the recognition result of the road lane marking by the camera based on the detection result of another sensor. One of the purposes is to provide a recognition method and a program.
この発明に係る周辺認識装置、周辺認識方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る周辺認識装置は、車両に搭載され、前記車両の周辺を撮像するカメラによって取得された画像に基づいて、前記車両に対する道路区画線の位置を認識する画像解析部と、前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定する特定部と、前記車両の走行制御の基準とする基準走路を決定する決定部であって、前記第1延在方向と、前記画像解析部によって認識された道路区画線の延在方向である第2延在方向とが合致する場合に、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定する決定部と、を備えるものである。
The peripheral recognition device, the peripheral recognition method, and the program according to the present invention have the following configurations.
(1): The peripheral recognition device according to one aspect of the present invention is an image that recognizes the position of a road lane marking with respect to the vehicle based on an image acquired by a camera mounted on the vehicle and capturing the periphery of the vehicle. A group of target positions lined up linearly extends from a plurality of target positions mounted on the vehicle and the detection range around the vehicle and acquired by an object detection device different from the camera. A specific unit that specifies the first extension direction, which is a direction, and a determination unit that determines a reference track that is used as a reference for traveling control of the vehicle, and is recognized by the first extension direction and the image analysis unit. It is provided with a determination unit for determining the reference track based on the road lane marking recognized by the image analysis unit when the second extension direction, which is the extension direction of the road lane marking, matches. be.
(2):上記(1)の態様において、前記車両の位置を地図情報に当てはめることで、前記車両に対する前記車両が存在する道路の延在方向である第3延在方向を認識する地図ベース認識部を更に備え、前記決定部は、前記第1延在方向と前記第2延在方向とが合致し、且つ、前記第2延在方向と前記第3延在方向とが合致しない場合、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定するものである。 (2): In the aspect of (1) above, by applying the position of the vehicle to the map information, the map-based recognition that recognizes the third extension direction, which is the extension direction of the road on which the vehicle exists with respect to the vehicle. The determination unit is further provided, and the determination unit is described when the first extension direction and the second extension direction match, and the second extension direction and the third extension direction do not match. The reference track is determined based on the road marking line recognized by the image analysis unit.
(3):上記(2)の態様において、前記決定部は、前記第1延在方向と前記第2延在方向とが合致せず、且つ、前記第2延在方向と前記第3延在方向とが合致しない場合、前記地図ベース認識部により認識された道路区画線に基づいて前記基準走路を決定するものである。 (3): In the aspect of (2) above, in the determination unit, the first extending direction and the second extending direction do not match, and the second extending direction and the third extending direction are present. When the direction does not match, the reference track is determined based on the road lane marking recognized by the map-based recognition unit.
(4):上記(1)から(3)のいずれかの態様において、前記特定部は、前記複数の物標位置から、所定の長さ以上に延在し、且つ静止していると推定される物標に対応する物標位置を、前記線状に並ぶ一群の物標位置として特定するものである。 (4): In any of the above aspects (1) to (3), it is presumed that the specific portion extends from the plurality of target positions to a predetermined length or more and is stationary. The target position corresponding to the target is specified as a group of target positions arranged in a line.
(5):上記(1)から(4)のいずれかの態様において、前記特定部は、前記複数の物標位置のうち線状に並ぶ物標位置に対して、所定の手法によって間引き処理を行って数を減らして、前記線状に並ぶ一群の物標位置を特定するものである。 (5): In any of the above aspects (1) to (4), the specific unit performs a thinning process on the target positions lined up in a line among the plurality of target positions by a predetermined method. By going and reducing the number, the position of the target group arranged in the line is specified.
(6):上記(1)から(5)のいずれかの態様において、前記特定部は、前記線状に並ぶ一群の物標位置に対して一次近似を行うことで、前記第1延在方向を特定するものである。 (6): In any of the above embodiments (1) to (5), the specific portion performs a first-order approximation to a group of target positions arranged in a line, thereby performing the first extension direction. Is to specify.
(7):上記(1)から(6)のいずれかの態様において、前記決定部は、前記車両の左右においてそれぞれ認識される、前記線状に並ぶ一群の物標位置のうち、前記車両の進行方向に近い側の前記線状に並ぶ一群の物標位置に基づいて特定された前記第1延在方向と、前記第2延在方向とが合致する場合に、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定するものである。 (7): In any of the above embodiments (1) to (6), the determination unit is of the vehicle among a group of target positions lined up in a line, which are recognized on the left and right sides of the vehicle. When the first extending direction specified based on the target position of the linearly arranged group on the side close to the traveling direction matches the second extending direction, the image analysis unit recognizes the first extending direction. The reference track is determined based on the road marking line.
(8):上記(1)から(7)のいずれかの態様において、前記決定部は、前記車両の左右においてそれぞれ認識される、前記線状に並ぶ一群の物標位置のうち、数が多い方の前記線状に並ぶ一群の物標位置に基づいて特定された前記第1延在方向と、前記第2延在方向とが合致する場合に、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定するものである。 (8): In any of the above aspects (1) to (7), the determination unit has a large number among the group of target positions lined up in a line, which are recognized on the left and right sides of the vehicle. The road marking line recognized by the image analysis unit when the first extending direction specified based on the target position of the group of targets arranged in the line and the second extending direction match. The reference track is determined based on the above.
(9):本発明の他の態様に係る周辺認識方法は、コンピュータが、車両に搭載され、前記車両の周辺を撮像するカメラによって取得された画像に基づいて、前記車両に対する道路区画線の位置を認識し、前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定し、前記第1延在方向と、前記画像解析部によって認識された道路区画線の延在方向である第2延在方向とが合致する場合に、前記画像に基づいて認識された道路区画線に基づいて前記車両の走行制御の基準とする基準走路を決定するものである。 (9): In the peripheral recognition method according to another aspect of the present invention, the position of the road lane marking with respect to the vehicle is based on an image acquired by a camera mounted on the vehicle and capturing the periphery of the vehicle. Is mounted on the vehicle, the area around the vehicle is set as the detection range, and a group of target positions arranged in a line are extended from a plurality of target positions acquired by an object detection device different from the camera. When the first extension direction, which is the direction, is specified and the first extension direction and the second extension direction, which is the extension direction of the road lane marking recognized by the image analysis unit, match, the said Based on the road lane marking recognized based on the image, the reference track as the reference for the traveling control of the vehicle is determined.
(10):本発明の他の態様に係るプログラムは、コンピュータに、車両に搭載され、前記車両の周辺を撮像するカメラによって取得された画像に基づいて、前記車両に対する道路区画線の位置を認識させ、前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定させ、前記第1延在方向と、前記画像解析部によって認識された道路区画線の延在方向である第2延在方向とが合致する場合に、前記画像に基づいて認識された道路区画線に基づいて前記車両の走行制御の基準とする基準走路を決定させるものである。 (10): The program according to another aspect of the present invention recognizes the position of the road lane marking with respect to the vehicle based on an image mounted on the vehicle and acquired by a camera that images the periphery of the vehicle on a computer. The detection range is the periphery of the vehicle, which is mounted on the vehicle, and is in the extending direction of a group of target positions arranged in a line from a plurality of target positions acquired by an object detection device different from the camera. When a certain first extension direction is specified and the first extension direction and the second extension direction, which is the extension direction of the road lane marking recognized by the image analysis unit, match, the image is displayed. Based on the road lane markings recognized based on the above, the reference track to be used as the reference for the traveling control of the vehicle is determined.
上記(1)~(10)の態様によれば、カメラによる道路区画線の認識結果の採否を、他のセンサの検出結果によって適切に決定することができる。 According to the above aspects (1) to (10), it is possible to appropriately determine whether or not to accept or reject the recognition result of the road lane marking by the camera based on the detection result of another sensor.
上記(2)または(3)の態様によれば、カメラ画像と物標位置情報との比較に加えて、地図情報とカメラ画像との比較に基づいて基準走路を決定するため、カメラによる道路区画線の認識結果の採否を、より適切に決定することができる。 According to the above aspect (2) or (3), in addition to the comparison between the camera image and the target position information, the road section by the camera is used to determine the reference track based on the comparison between the map information and the camera image. It is possible to more appropriately determine whether or not to accept the line recognition result.
上記(4)の態様によれば、道路に沿った静止物に限定したカメラ画像と比較することができる。 According to the aspect (4) above, it can be compared with a camera image limited to a stationary object along a road.
上記(5)の態様によれば、間引いた後の処理の負荷を軽減することができる。 According to the aspect (5) above, the load of processing after thinning can be reduced.
上記(6)の態様によれば、第1延在方向を大局的に低負荷で計算することができる。 According to the aspect (6) above, the first extension direction can be calculated with a low load in the whole.
上記(7)の態様によれば、車両の進行方向に沿った物標位置に基づいて特定された第1延在方向を第2延在方向と比較するため、カメラによる道路区画線の認識結果の採否を、より適切に決定することができる。 According to the aspect (7) above, in order to compare the first extension direction specified based on the target position along the traveling direction of the vehicle with the second extension direction, the recognition result of the road lane marking by the camera. Can be decided more appropriately.
上記(8)の態様によれば、車両の左右いずれかに偏在する物標位置のうち数が多い物標位置(すなわち、車両に近い側の物標位置)に基づいて特定された第1延在方向を第2延在方向と比較するため、カメラによる道路区画線の認識結果の採否を、より適切に決定することができる。 According to the aspect (8) above, the first extension specified based on the target position having a large number among the target positions unevenly distributed on either the left or right side of the vehicle (that is, the target position on the side closer to the vehicle). Since the current direction is compared with the second extension direction, it is possible to more appropriately determine whether or not to accept or reject the recognition result of the road lane marking by the camera.
以下、図面を参照し、本発明の周辺認識装置、周辺認識方法、およびプログラムの実施形態について説明する。 Hereinafter, embodiments of the peripheral recognition device, the peripheral recognition method, and the program of the present invention will be described with reference to the drawings.
[全体構成]
図1は、実施形態に係る周辺認識装置を利用した車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。周辺認識装置は、車両の走行を制御する車両制御装置の一部であってもよいし、車両制御装置とは別体の装置であってもよい。以下の説明では、周辺認識装置が車両制御装置の一部であるものとする。
[overall structure]
FIG. 1 is a configuration diagram of a
車両システム1は、例えば、カメラ10と、レーダ装置12と、LIDAR14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置(Automated Driving Control Device)100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
The
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両M)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
The
レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
The
LIDAR(Light Detection and Ranging)14は、自車両Mの周辺に光を照射し、散乱光を測定する。LIDAR14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14は、自車両Mの任意の箇所に取り付けられる。
The LIDAR (Light Detection and Ranging) 14 irradiates the periphery of the own vehicle M with light and measures the scattered light. The
LIDAR14は、光の照射方向を、仰角または俯角(以下、上下方向の照射方向φ)と、方位角(水平方向の照射方向θ)との双方について変更可能である。LIDAR14は、例えば、照射方向φを固定して照射方向θを変えながらスキャンを行い、次いで上下方向の照射方向φを変更し、変更した角度で照射方向φを固定して照射方向θを変えながらスキャンを行う、という動作を繰り返し行う。以下、照射方向φのことを「レイヤ」と称する。LIDAR14は、例えば、レイヤを固定して照射方向θを変えながら行う一回のスキャン(サイクル)を、全てのレイヤについて行うことを1回のスキャンとして行う。レイヤは、例えばL1~Lnまで有限数で設定される(nは自然数)。レイヤの変更は、例えば、前回のサイクルで照射した光が今回のサイクルにおける検知に干渉しないように、L0→L4→L2→L5→L1…というように角度に関して不連続に行われる。なお、これに限らず、レイヤの変更が角度に関して連続的に行われても構わない。LIDAR14は、例えば、{φ,θ,d,p}を一つの単位とするデータセット(ライダーデータ)を物体認識装置16に出力する。dは距離であり、pは反射光の強度である。
The
物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。また、物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14の検出結果をそのまま、或いは所定の加工処理を行って自動運転制御装置100に出力する。例えば、物体認識装置16は、LIDAR14の出力する物標位置のデータに対してフラグを付与する処理を行う。これについては後述する。
The
通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
The
HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。
The
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
The
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
The
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
The
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。
The
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
The driving
自動運転制御装置100は、例えば、第1制御部120と、第2制御部190とを備える。第1制御部120と第2制御部190は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。
The automatic
図2は、第1実施形態に係る自動運転制御装置100の第1制御部120および第2制御部190の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部180とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。
FIG. 2 is a functional configuration diagram of the
認識部130の各部と行動計画生成部180は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体(非一過性の記憶媒体)に格納されており、記憶媒体がドライブ装置に装着されることで記憶装置にインストールされてもよい。
Each unit of the
認識部130は、例えば、物体認識部140と、画像解析部150と、物標延在方向特定部152と、地図ベース認識部154と、基準走路決定部156と、自車位置認識部160とを備える。これらのうち、少なくとも画像解析部150と、物標延在方向特定部152と、地図ベース認識部154と、基準走路決定部156と、自車位置認識部160とを含むものが、「周辺認識装置」の一例である。
The
物体認識部140は、カメラ10、レーダ装置12、およびLIDAR14から物体認識装置16を介して入力された情報に基づいて、自車両Mの周辺にある物体の位置、および速度、加速度等の状態を認識する。物体とは、他車両、歩行者、自転車、その他の障害物である。物体の位置は、例えば、自車両Mの代表点(重心や駆動軸中心など)を原点とし、自車両Mの中心軸をX軸とする絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
The
[基準走路の認識]
画像解析部150、および物標延在方向特定部152の機能について、図3を用いて説明する。図3は、画像解析部150および物標延在方向特定部152の機能について説明するための図である。図中、RMは自車両Mの代表点であり、XY軸は前述した絶対座標の座標軸を表している。
[Recognition of reference track]
The functions of the
画像解析部150は、カメラ10によって取得された画像に基づいて、自車両Mに対する道路区画線Rlの位置を認識する。道路区画線Rlとは、実線または破線の形状で道路に描画された白線や黄線であり、車線を区分するものである。画像解析部150は、例えば、画像平面を絶対座標系で表される実平面に変換し、絶対座標系上で、隣接画素(或いは隣接画素群)との輝度差(または色彩差)が大きい画素(或いは画素群)であるエッジ点Epを抽出し、一次近似などの手法で直線状に並ぶエッジ点Epに絞り込み、一般的な道路区画線の幅である所定幅Wdをもって所定長さ以上に亘って延在する一組のエッジ点Epの列LEpを、道路区画線の輪郭として認識する。そして、画像解析部150は、輪郭で区画される領域を道路区画線Rlとして認識する。これに代えて画像解析部150は、画像平面上で直接的に道路区画線Rlを認識してもよいし、エッジ点Epの列LEpを単独で道路区画線Rlの一方の輪郭とみなしてもよい(必ずしも所定幅Wdをもつ一組のエッジ点Epの列LEpに絞り込まなくてもよい)。画像解析部150は、認識した道路区画線Rlの延在方向DRl(第2延在方向)を道路区画線Rlごとに特定しておく。図は、道路区画線Rl(1)、Rl(2)、Rl(3)のそれぞれに対応する延在方向DRl(1)、DRl(2)、DRl(3)が認識されていることを示している。
The
物標延在方向特定部152は、カメラ10とは異なる物体検出装置の一例であるLIDAR14によって取得された複数の物標位置(例えば、照射角度および距離で表される)を、絶対座標系上の位置に変換した情報(例えばポイントクラウドデータと称される)に基づいて、以下の処理を行う。物標延在方向特定部152は、線状に並ぶ一群の物標位置GTgの延在方向DTg(第1延在方向)を、自車両Mの左右の構造物Stのそれぞれについて特定する。物標延在方向特定部152が特定しようとする一群の物標位置GTgとは、道路に平行に存在する、静止している構造物Stの各部の位置である。構造物Stは、例えば縁石やガードレール、側壁などである。図は、構造物St(L)、St(R)のそれぞれに対応する延在方向DTg(L)、DTg(R)が認識されていることを示している。
The target extension
物標延在方向特定部152が取得する物標位置には、物標認識装置16によって、例えば、道路面を表すフラグ(FS)、移動体を表すフラグ(DY)、静止物を表すフラグ(SA)、不明であることを示すフラグ(UK)などが付与されている。物標認識装置16は、例えば、ポイントクラウドデータに対してRANSAC(Random Sample Consensus)などのロバスト推定手法による平面抽出処理を行い、物標位置が道路面(上に物体が存在しないもの)を表すか否かを判定し、道路面を表すと判定した場合に、物標位置に対してフラグ(FS)を付与する。また、物標認識装置16は、カルマンフィルタなどの手法を用いて時系列で物標位置を追跡し、同じ物体を表す物標位置を時系列で特定することで、物標位置に対してフラグ(DY)、フラグ(SA)、またはフラグ(UK)を付与する。図4は、あるレイヤで光を照射した場合に得られる物標位置と、それらに付与されるフラグの一例を示す図である。図示するように、構造物St(L)およびSt(R)の一部である物標位置に対してはフラグ(SA)が、道路面の一部である物標位置に対してはフラグ(FS)が、他車両m1、m2などの移動体の一部である物標位置に対してはフラグ(DY)が、それぞれ付与される。物標延在方向特定部152は、例えば、物標認識装置16から取得した物標位置を、フラグ(SA)またはフラグ(UK)が付与された物標位置に絞り込んでから、上記のように延在方向DTgを特定する処理を行う。なお、詳細な延在方向DTgの求め方については後述する。上記した物標延在方向特定部152の機能のうち一部または全部は、物体認識装置16に搭載されてもよいし、物体認識装置16の機能のうち一部または全部を物標延在方向特定部152が備えてもよい。
At the target position acquired by the target extension
地図ベース認識部154は、自車両Mの位置を地図情報(例えば第2地図情報62)に当てはめることで、自車両Mに対する道路区画線の位置を認識する。地図ベース認識部154は、ナビゲーション装置50により特定される自車両Mの位置、カメラ10により撮像された画像、車両センサ40に含まれる方位センサの出力などを地図情報と照合し、自車両Mが地図におけるどの道路、どの車線を、どの方向に走行しているかを認識する。例えば、地図ベース認識部154は、自車両Mの地上座標系(緯度経度を軸とする座標系)における向きと、地図情報において自車両Mが存在することが認識された道路(車線)の延在方向との角度差に基づいて、地図情報における道路(車線)の延在方向DMp(第3延在方向)を認識する。
The map-based
基準走路決定部156は、行動計画生成部180が自車両Mの走行制御の基準とする基準走路を決定する。図5は、基準走路決定部156により実行される処理の流れの一例を示すフローチャートである。なお、本フローチャートの処理と並行して、延在方向DTg(第1延在方向)、延在方向DRl(第2延在方向)、および延在方向DMp(第3延在方向)を求める処理が繰り返し実行されており、本フローチャートの処理では、それらのうち直近で求められた情報を用いて処理を行うものとする。
The reference
まず、基準走路決定部156は、第1フラグと第2フラグの双方をFalseに設定する(ステップS100)。第1フラグとは、延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が合致しない場合にTrue、合致する場合にFalseが設定されるフラグである。第2フラグとは、延在方向DRl(第2延在方向)と延在方向DMp(第3延在方向)が合致しない場合にTrue、合致する場合にFalseが設定されるフラグである。これらは以降の処理でTrueまたはFalseに設定されるが、デフォルト値としてFalseが設定される。合致するとは、例えば角度差が閾値(例えば数度程度の値)以内であることを意味する。
First, the reference
次に、基準走路決定部156は、延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が合致しないかどうかを判定する(ステップS102)。
Next, the reference
延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が合致しないと判定した場合、基準走路決定部156は、第1フラグをTrueに変更する(ステップS104)。延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が合致する場合、或いは、延在方向DTg(第1延在方向)が確定していない場合、基準走路決定部156は、第1フラグをFalseのまま維持する。延在方向DTg(第1延在方向)が確定していない場合とは、例えば、条件を満たす一群の物標位置GTgが特定できなかった場合である。
When it is determined that the extension direction DTg (first extension direction) and the extension direction DRl (second extension direction) do not match, the reference
ステップS104の処理において、基準走路決定部156は、自車両Mの左右に存在することが想定される二つの延在方向DTg(第1延在方向)と、一以上の延在方向DRl(第2延在方向)とのそれぞれを比較し、部分的に合致している場合、延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が合致すると判定する。但し、自車両Mの左側にある延在方向DTg(第1延在方向)と、自車両Mの右側にある延在方向DRl(第2延在方向)のみが合致する場合、基準走路決定部156は、これらが合致しないと判定してもよい。図3の例では、以下のいずれか一つの条件が満たされた場合に、基準走路決定部156が延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が合致すると判定する。
(条件1)延在方向DTg(L)と延在方向DRl(1)が合致する。
(条件2)延在方向DTg(R)と延在方向DRl(2)またはDRl(3)が合致する。
In the process of step S104, the reference
(Condition 1) The extending direction DTg (L) and the extending direction DRl (1) match.
(Condition 2) The extending direction DTg (R) matches the extending direction DRl (2) or DRl (3).
上記では、基準走路決定部156は、「部分的に(左右のいずれか一方について)合致している」場合、延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が「合致する」と判定するものとしたが、これに代えて、基準走路決定部156は、左右の双方について合致しなければ、延在方向DTg(第1延在方向)と延在方向DRl(第2延在方向)が「合致しない」と判定してもよい。
In the above, when the reference
次に、基準走路決定部156は、延在方向DRl(第2延在方向)と延在方向DMp(第3延在方向)が合致しないかどうかを判定する(ステップS106)。本ステップにおいて、互いに複数の延在方向DRl(第2延在方向)が存在する場合、一部の延在方向DRl(第2延在方向)が延在方向DMp(第3延在方向)と合致する場合に「合致する」と判定してもよいし、全ての延在方向DRl(第2延在方向)が延在方向DMp(第3延在方向)と合致する場合にのみ「合致する」と判定してもよい。延在方向DRl(第2延在方向)と延在方向DMp(第3延在方向)が合致しないと判定した場合、基準走路決定部156は、第2フラグをTrueに変更する(ステップS108)。延在方向DRl(第2延在方向)と延在方向DMp(第3延在方向)が合致する場合、或いは、延在方向DMp(第3延在方向)が得られていない場合、基準走路決定部156は、第2フラグをFalseのまま維持する。延在方向DMp(第3延在方向)が得られていない場合とは、例えば、自車両Mが存在する位置に対応する地図情報が無い場合である。
Next, the reference
次に、基準走路決定部156は、第1フラグ、第2フラグ共にFalseであるか否かを判定する(ステップS110)。第1フラグ、第2フラグ共にFalseである場合、すなわち、第1延在方向と第2延在方向が合致し、且つ第2延在方向と第3延在方向が合致する場合、基準走路決定部156は、地図情報に基づいて基準走路を決定する(ステップS112)。
Next, the reference
ステップS110で否定的な判定結果を得た場合、基準走路決定部156は、第1フラグがFalseであり、且つ第2フラグがTrueであるか否かを判定する(ステップS114)。第1フラグがFalseであり、且つ第2フラグがTrueである場合、すなわち、第1延在方向と第2延在方向が合致し、且つ第2延在方向と第3延在方向が合致しない場合、基準走路決定部156は、カメラ10の画像(カメラ画像)に基づいて基準走路を決定する(ステップS116)。
When a negative determination result is obtained in step S110, the reference
ステップS114で否定的な判定結果を得た場合、基準走路決定部156は、第1フラグがTrueであり、且つ第2フラグがFalseであるか否かを判定する(ステップS118)。第1フラグがTrueであり、且つ第2フラグがFalseである場合、すなわち、第1延在方向と第2延在方向が合致せず、且つ第2延在方向と第3延在方向が合致する場合、基準走路決定部156は、地図情報に基づいて基準走路を決定する(ステップS112)。
When a negative determination result is obtained in step S114, the reference
ステップS118で否定的な判定結果を得た場合、基準走路決定部156は、第1フラグがTrueであり、且つ第2フラグがTrueであるか否かを判定する(ステップS120)。第1フラグがTrueであり、且つ第2フラグがTrueである場合、すなわち、第1延在方向と第2延在方向が合致せず、且つ第2延在方向と第3延在方向も合致しない場合、基準走路決定部156は、地図情報に基づいて基準走路を決定する(ステップS112)。なお、ステップS120で否定的な判定結果を得た場合、基準走路決定部156は、エラー情報を行動計画生成部180に出力する(ステップS122)。この場合、行動計画生成部180は、運転者に手動運転を要求する情報を出力したり、自車両Mを減速させて停止させる処理を行う。
When a negative determination result is obtained in step S118, the reference
図6~8は、カメラ画像に基づいて基準走路を決定する場面について説明するための図である。図6に示す例では、延在方向DTg(L)と延在方向DRl(1)が合致し、延在方向DTg(R)と延在方向DRl(2)およびDRl(3)が合致している。道路区画線Rl(2)の方が道路区画線Rl(3)よりも自車両Mに近いため、この場合、基準走路決定部156は、道路区画線Rl(1)およびRl(2)の位置に基づいて基準走路RRを決定する。例えば、基準走路決定部156は、道路区画線Rl(1)の右側端部と、道路区画線Rl(2)の左側端部とで区画される領域を基準走路RRとする。
6 to 8 are diagrams for explaining a scene in which a reference track is determined based on a camera image. In the example shown in FIG. 6, the extending direction DTg (L) and the extending direction DRl (1) match, and the extending direction DTg (R) and the extending direction DRl (2) and DRl (3). ) Matches. Since the road lane marking Rl (2) is closer to the own vehicle M than the road lane marking Rl (3), in this case, the reference
図7に示す例では、延在方向DTg(L)と延在方向DRl(1)が合致しているが、道路区画線Rl(2)がかすれているため延在方向DRl(2)が特定できておらず、延在方向DTg(R)と延在方向DRl(3)のみが合致している。但し、道路区画線Rl(1)とRl(3)の間隔から二車線分の車線が存在することが認識されている。この場合、基準走路決定部156は、道路区画線Rl(1)およびRl(3)の位置に基づいて基準走路RRを決定する。例えば、基準走路決定部156は、道路区画線Rl(1)の右側端部と、道路区画線Rl(3)の左側端部とで区画される領域を道路幅方向に二分割して基準走路RRを設定する。
In the example shown in FIG. 7, the extending direction DTg (L) and the extending direction DRl (1) match, but the road marking line Rl (2) is faint, so the extending direction DRl (2). ) Has not been identified, and only the extending direction DTg (R) and the extending direction DRl (3) match. However, it is recognized that there are two lanes from the distance between the road marking lines Rl (1) and Rl (3). In this case, the reference
図8に示す例では、延在方向DTg(L)と延在方向DRl(1)が合致しているが、道路に射している影の影響で、延在方向DRl(2)と延在方向DRl(3)が本来の道路区画線Rlの延在方向とは異なる方向に誤認識されている。この結果、延在方向DRl(2)と延在方向DRl(3)は共に延在方向DTg(R)と合致していない。この場合、基準走路決定部156は、道路区画線Rl(1)の位置に基づいて基準走路RRを決定する。例えば、基準走路決定部156は、道路区画線Rl(1)の右側端部を左端として、一般的な車線幅を有する領域を基準走路RRとする。
In the example shown in FIG. 8, the extending direction DTg (L) and the extending direction DRl (1) match, but due to the influence of the shadow cast on the road, the extending direction DRl (2). And the extension direction DRl (3) is erroneously recognized in a direction different from the extension direction of the original road lane marking Rl. As a result, both the extending direction DRl (2) and the extending direction DRl (3) do not match the extending direction DTg (R). In this case, the reference
図9は、地図情報に基づいて基準走路を決定する場面について説明するための図である。図9に示す例では、道路に射している影の影響で、延在方向DRl(1)、延在方向DRl(2)、および延在方向DRl(3)が本来の道路区画線Rlの延在方向とは異なる方向に誤認識されている。この結果、延在方向DRl(1)と延在方向DTg(R)は合致せず、且つ延在方向DRl(2)と延在方向DRl(3)は共に延在方向DTg(R)と合致していない。この場合、基準走路決定部156は、地図ベース認識部154を介して地図情報から、例えば「走行中の車線は直線、且つ自車両Mの進行方向と合致している」という情報を取得し、自車両Mの位置および進行方向を基準として基準走路RRを決定する。
FIG. 9 is a diagram for explaining a scene in which a reference track is determined based on map information. In the example shown in FIG. 9, the extension direction DRl (1), the extension direction DRl (2), and the extension direction DRl (3) are the original road sections due to the influence of the shadow cast on the road. It is erroneously recognized in a direction different from the extending direction of the line Rl. As a result, the extending direction DRl (1) and the extending direction DTg (R) do not match, and both the extending direction DRl (2) and the extending direction DRl (3) are the extending direction DTg . It does not match (R). In this case, the reference
自車位置認識部160は、基準走路RRに対する自車両Mの位置および姿勢を認識する。自車位置認識部160は、例えば、自車両Mの代表点の基準走路RRの中央部からの乖離、および自車両Mの進行方向が基準走路RRの中央線に対してなす角度を、基準走路RRに対する自車両Mの位置および姿勢として認識する。これに代えて、自車位置認識部160は、基準走路RRのいずれかの側端部に対する自車両Mの代表点の位置などを、走行車線に対する自車両Mの位置として認識してもよい。
The own vehicle
[行動計画生成]
行動計画生成部180は、原則的には自車両Mが基準走路決定部156により決定された基準走路RRを走行し、更に、自車両Mの周辺状況に対応できるように、自車両Mが自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。行動計画生成部180は、自車両Mに基準走路RRを走行させる場合、基準走路RRの幅方向に関する中央線上に目標軌道を生成し、目標軌道の情報を第2制御部190に出力する。また、行動計画生成部180は、自車両Mの進行方向先に障害物が存在する場合、まず基準走路RR内で回避可能か否かを判定し、回避可能である場合は基準走路RR内に回避のための目標軌道を生成し、回避可能でない場合に車線変更制御に切り替える。これらが、「車両の走行制御の基準とする」ことの一例である。
[Action plan generation]
In principle, the action
行動計画生成部180は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部180は、起動させたイベントに応じた目標軌道を生成する。
The action
行動計画生成部180は、自動運転を実行している間、自動運転レベルを定義する。自動運転レベルとは、運転者に課せられる注意義務の程度を表すものであり、例えば、前方監視義務の有無、ステアリングホイールの把持義務の有無などによって段階的に定義される。前方監視義務が有る状態をアイズオン、無い状態をアイズオフと称する。また、ステアリングホイールの把持義務が有る状態をハンズオン、無い状態をハンズオフと称する。
The action
アイズオンにおいて、行動計画生成部180は、自車両Mの車室内を撮像するカメラ(不図示)が撮像し、運転席に着座した乗員(運転者)を含む画像を解析することで、運転者が自車両Mの前方を視認しているか否かを判定する。運転者が自車両Mの前方を視認していないと判定した場合、行動計画生成部180は、HMI30を用いて運転者に警告を発し、それでも運転者が自車両Mの前方を視認しない場合は自動運転を停止したり、自車両Mを減速させて停止させたりする。アイズオフの場合、行動計画生成部180は、このような処理を行わない。
In Eyes-on, the action
ハンズオンにおいて、行動計画生成部180は、ステアリングホイールに取り付けられた把持センサ(圧力センサ、静電容量センサなど)の検出結果を参照し、運転者がステアリングホイールを把持しているか否かを判定する。運転者がステアリングホイールを把持していないと判定した場合、行動計画生成部180は、HMI30を用いて運転者に警告を発し、それでも運転者がステアリングホイールを把持しない場合は自動運転を停止したり、自車両Mを減速させて停止させたりする。ハンズオフの場合、行動計画生成部180は、このような処理を行わない。
In the hands-on, the action
一般に、アイズオフの方がハンズオフよりも運転者に課せられる注意義務が小さい(自動運転レベルが高い)と考えられる。従って、自動運転レベルとして想定されるものは、例えば、自動運転レベルが高いものから順に、<アイズオフ・ハンズオフ>、<アイズオン・ハンズオフ>、<アイズオン・ハンズオン>の3つが考えられる。なお、この3つはあくまで一例であり、自動運転レベルは如何様にも定義することができる。例えば、運転者の睡眠を許容する、更に高い自動運転レベルが定義されてもよい。 In general, it is considered that the duty of care imposed on the driver is smaller (the level of automatic driving is higher) in the eyes-off than in the hands-off. Therefore, there are three possible automatic driving levels, for example, <eyes-off hands-off>, <eyes-on-hands-off>, and <eyes-on-hands-on>, in order from the one with the highest automatic driving level. It should be noted that these three are just examples, and the automatic operation level can be defined in any way. For example, higher levels of autonomous driving may be defined that allow the driver to sleep.
行動計画生成部180は、例えば、基準走路決定部156の処理過程を一つの要素として、自動運転レベルを決定する。具体的に、行動計画生成部180は、例えば自動車専用道路を直進しているなどのシーン条件を満たすことを前提として、前述した第1フラグと第2フラグが共にFalseである場合に<アイズオフ・ハンズオフ>、第1フラグと第2フラグの一方がFalse、他方がTrueである場合に<アイズオン・ハンズオフ>、第1フラグと第2フラグが共にTrueである場合に<アイズオン・ハンズオン>に自動運転レベルを設定する。また、前述したように、行動計画生成部180は、自車両Mの左右の延在方向が共に合致した場合(図6または図7の場面)、左右の一方のみが合致した場合(図8の場面)に比して、自動運転レベルを高くするようにしてもよい。これによって、自動運転制御装置100は、道路状況の認識度合いに基づいて適切に自動運転レベルを定めることができる。
The action
第2制御部190は、行動計画生成部180によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
The
第2制御部190は、例えば、取得部192と、速度制御部194と、操舵制御部196とを備える。取得部192は、行動計画生成部180により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部194は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部196は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部194および操舵制御部196の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部196は、自車両Mの前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
The
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部190から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
The traveling driving
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部190から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部190から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
The
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部190から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
The
[より詳細な処理例]
以下、基準走路決定のための、より詳細な処理内容について説明する。図10は、画像解析部150、物標延在方向特定部152、および基準走路決定部156による処理の流れの一例を示すフローチャートである。
[More detailed processing example]
Hereinafter, more detailed processing contents for determining the reference track will be described. FIG. 10 is a flowchart showing an example of the processing flow by the
まず、物標延在方向特定部152が、フラグ(SA)またはフラグ(UK)が付与された物標位置から二群の物標位置に絞り込む(ステップS200)。図11は、物標位置の絞り込み処理について説明するための図である。図示するように、物標延在方向特定部152が取得した物標位置の出現頻度をY軸方向にまとめると、自車両Mの左右方向(ここではいずれか一方を正、他方を負と定義する)のそれぞれにおいて、構造物Stの位置に対応するピークが出現する。物標延在方向特定部152は、それぞれのピークから例えばプラスマイナス1σの範囲内にある二群の物標位置に絞り込む。これによって、外れ値を適切に除外することができる。
First, the target extension
図10に戻り、物標延在方向特定部152は、二群の物標位置に絞り込んだそれぞれの群の物標位置について、X方向の間隔が規定値以上となるように物標位置を間引く(ステップS202)。次に、物標延在方向特定部152は、間引いた後のそれぞれの群の物標位置に対して、最小二乗法を適用して一次方程式に近似する(一次近似する;ステップS204)。次に、物標延在方向特定部152は、近似した一次方程式上で、自車両Mとの距離=ゼロの地点を起点として、等間隔に物標位置を再生成する(ステップS206)。こうすることで、例えば三次方程式に近似する処理を行う場合に比して、処理負荷を軽減することができる。道路区画線Rlと構造物Stの合致判定を行う処理において、数値的な厳密性はさほど要求されないため、一次近似を行うことで、処理負荷を軽減しつつ大局的な判断を行うことが可能となる。
Returning to FIG. 10, the target extension
次に、画像解析部150と物標延在方向特定部152のそれぞれは、ステップS206で再生成された物標位置と、カメラ画像から認識された道路区画線の輪郭であるエッジ点列のうち短い方を選択し(ステップS208)、短い方に合わせて第1延在方向と第2延在方向のそれぞれを表すベクトルを生成する(ステップS210)。図12は、ベクトルを生成する処理について説明するための図である。図中、→DTgは第1延在方向を示すベクトル(長さの概念を含む)であり、→DRlは第2延在方向を示すベクトル(長さの概念を含む)である。図示するように、再生成された物標位置Tg*とエッジ点Epのうち延在する長さが短い方である再生成された物標位置Tg*に合わせてそれぞれのベクトルが生成される。
Next, each of the
そして、基準走路決定部156は、第1延在方向を示すベクトルと第2延在方向を示すベクトルとのコサイン類似度を算出し、第1延在方向と第2延在方向が合致するか否かを判定する(ステップS212)。このステップS212の処理は、図5のステップS102の処理に対応している。前述したように、延在方向同士が合致するとは、例えば角度差が閾値(例えば数度程度の値)以内であることであり、コサイン類似度を用いて判定を行う場合は、コサイン類似度が上記閾値に対応した基準値以上である場合に、延在方向同士が合致すると判定すればよい。ステップS210で二つのベクトルの長さを揃えたのは、コサイン類似度を求めるためである。
Then, the reference
上記実施形態では、第1延在方向として、延在方向DTg(L)、DTg(R)の双方を用いて基準走路を決定するものとしたが、それらのうち一方のみを用いて基準走路を決定してもよい。例えば、基準走路決定部156は、延在方向DTg(L)と延在方向DTg(R)が合致する(定義は前述の通りでよい)か否かを判定し、合致する場合は元になった物標位置が多い方を選択し、合致しない場合は自車両Mの進行方向により近い方を選択してもよい。この場合、基準走路決定部156は、第2延在方向である一以上の延在方向DRlのそれぞれについて、選択した延在方向DTgと合致するか否かを判定する。「進行方向により近い方」とは、例えば、自車両Mの代表点から進行方向に仮想線を設定した場合に、先に交差する方という意味である。
In the above embodiment, as the first extension direction, both the extension directions DTg (L) and DTg (R) are used to determine the reference track, but only one of them is used as the reference. You may decide the track. For example, the reference
[ハードウェア構成]
図13は、実施形態の自動運転制御装置100のハードウェア構成の一例を示す図である。図示するように、自動運転制御装置100は、通信コントローラ100-1、CPU100-2、ワーキングメモリとして使用されるRAM(Random Access Memory)100-3、ブートプログラムなどを格納するROM(Read Only Memory)100-4、フラッシュメモリやHDD(Hard Disk Drive)などの記憶装置100-5、ドライブ装置100-6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100-1は、自動運転制御装置100以外の構成要素との通信を行う。記憶装置100-5には、CPU100-2が実行するプログラム100-5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100-3に展開されて、CPU100-2によって実行される。これによって、認識部130、行動計画生成部180、第2制御部190のうち一部または全部が実現される。
[Hardware configuration]
FIG. 13 is a diagram showing an example of the hardware configuration of the automatic
以上説明した実施形態によれば、車両(自車両M)に搭載され、車両の周辺を撮像するカメラ(10)によって取得された画像に基づいて、車両に対する道路区画線の位置を認識する画像解析部(150)と、車両に搭載され、車両の周辺を検出範囲とし、カメラとは異なる物体検出装置(例えばLIDAR14)によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定する特定部(物標延在方向特定部152)と、車両の走行制御の基準とする基準走路(RR)を決定する決定部(基準走路決定部156)であって、第1延在方向と、画像解析部によって認識された道路区画線の延在方向である第2延在方向とが合致する場合に、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定する決定部と、を備えることにより、カメラによる道路区画線の認識結果の採否を、他のセンサの検出結果によって適切に行うことができる。 According to the embodiment described above, image analysis for recognizing the position of the road lane marking with respect to the vehicle based on the image acquired by the camera (10) mounted on the vehicle (own vehicle M) and capturing the periphery of the vehicle. A group of target positions lined up linearly from a plurality of target positions acquired by an object detection device (for example, LIDAR14) different from the camera, with the detection range set around the vehicle and the unit (150) mounted on the vehicle. A specific unit that specifies the first extension direction, which is the extension direction of the vehicle (target extension direction specification unit 152), and a determination unit that determines the reference track (RR) that is the reference for vehicle travel control (reference track determination). In section 156), when the first extension direction and the second extension direction, which is the extension direction of the road lane marking recognized by the image analysis section, match, the image analysis section recognizes the first extension direction. By providing a determination unit for determining the reference track based on the road lane marking, it is possible to appropriately adopt or reject the recognition result of the road lane marking by the camera based on the detection result of another sensor.
上記説明した実施形態は、以下のように表現することができる。
プログラムを記憶した記憶装置と、
ハードウエアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記記憶装置に記憶されたプログラムを実行することで、
車両に搭載され、前記車両の周辺を撮像するカメラによって取得された画像に基づいて、前記車両に対する道路区画線の位置を認識し、
前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定し、
前記第1延在方向と、前記画像解析部によって認識された道路区画線の延在方向である第2延在方向とが合致する場合に、前記画像解析部によって認識された道路区画線に基づいて前記車両の走行制御の基準とする基準走路を決定する
ように構成されている、周辺認識装置。
The embodiment described above can be expressed as follows.
A storage device that stores the program and
Equipped with a hardware processor,
The hardware processor executes a program stored in the storage device to execute the program.
Based on the image mounted on the vehicle and acquired by the camera that images the surroundings of the vehicle, the position of the road lane marking with respect to the vehicle is recognized.
It is the extension direction of a group of target positions arranged in a line from a plurality of target positions mounted on the vehicle and having a detection range around the vehicle and acquired by an object detection device different from the camera. 1 Specify the extension direction,
Based on the road lane marking recognized by the image analysis unit when the first extension direction and the second extension direction which is the extension direction of the road lane marking recognized by the image analysis unit match. A peripheral recognition device configured to determine a reference track as a reference for driving control of the vehicle.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
10 カメラ
12 レーダ装置
14 LIDAR
16 物体認識装置
30 HMI
54 第1地図情報
62 第2地図情報
100 自動運転制御装置
120 第1制御部
130 認識部
140 物体認識部
150 画像解析部
152 物標延在方向特定部
154 地図ベース認識部
156 基準走路決定部
160 自車位置認識部
190 第2制御部
10
16
54
Claims (9)
前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定する特定部と、
前記車両の位置を地図情報に当てはめることで、前記車両に対する前記車両が存在する道路の延在方向である第3延在方向を認識する地図ベース認識部と、
前記車両の走行制御の基準とする基準走路を決定する決定部であって、前記第1延在方向と前記画像解析部によって認識された道路区画線の延在方向である第2延在方向とが合致し、且つ、前記第2延在方向と前記第3延在方向とが合致しない場合、前記画像解析部によって認識された道路区画線に基づいて前記基準走路を決定する決定部と、
を備える周辺認識装置。 An image analysis unit that recognizes the position of the road lane marking with respect to the vehicle based on an image mounted on the vehicle and acquired by a camera that images the surroundings of the vehicle.
It is the extension direction of a group of target positions arranged in a line from a plurality of target positions mounted on the vehicle and having a detection range around the vehicle and acquired by an object detection device different from the camera. 1 Specific part that specifies the extension direction and
By applying the position of the vehicle to the map information, a map-based recognition unit that recognizes a third extension direction, which is the extension direction of the road on which the vehicle exists with respect to the vehicle, and a map-based recognition unit.
A determination unit that determines a reference track to be used as a reference for vehicle travel control, and a first extension direction and a second extension direction that is an extension direction of a road lane marking recognized by the image analysis unit. When the second extension direction and the third extension direction do not match, the determination unit that determines the reference track based on the road marking line recognized by the image analysis unit, and the determination unit.
Peripheral recognition device equipped with.
請求項1記載の周辺認識装置。 When the first extending direction and the second extending direction do not match, and the second extending direction and the third extending direction do not match, the determination unit is the map-based recognition unit. Determine the reference track based on the road lane markings recognized by
The peripheral recognition device according to claim 1 .
請求項1又は2に記載の周辺認識装置。 The specific portion is a group of objects in which the target positions corresponding to the targets presumed to extend beyond a predetermined length and are stationary from the plurality of target positions are arranged in a line. Specify as a target position,
The peripheral recognition device according to claim 1 or 2 .
請求項1から3のうちいずれか1項記載の周辺認識装置。 The specific unit identifies a group of target positions arranged in a line by thinning out the target positions arranged in a line among the plurality of target positions by a predetermined method to reduce the number of the target positions. do,
The peripheral recognition device according to any one of claims 1 to 3 .
請求項1から4のうちいずれか1項記載の周辺認識装置。 The specific portion specifies the first extending direction by performing a linear approximation with respect to a group of target positions arranged in a line.
The peripheral recognition device according to any one of claims 1 to 4 .
請求項1から5のうちいずれか1項記載の周辺認識装置。 The determination unit is based on the linearly arranged target position on the side closer to the traveling direction of the vehicle among the linearly arranged target positions recognized on the left and right sides of the vehicle. When the specified first extending direction and the second extending direction match, the reference track is determined based on the road marking line recognized by the image analysis unit.
The peripheral recognition device according to any one of claims 1 to 5 .
請求項1から6のうちいずれか1項記載の周辺認識装置。 The determination unit is specified based on the group of target positions lined up in a line, whichever is larger in number, recognized on the left and right sides of the vehicle. When the first extending direction and the second extending direction match, the reference track is determined based on the road lane marking recognized by the image analysis unit.
The peripheral recognition device according to any one of claims 1 to 6 .
車両に搭載され、前記車両の周辺を撮像するカメラによって取得された画像に基づいて、前記車両に対する道路区画線の位置を認識し、
前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定し、
前記車両の位置を地図情報に当てはめることで、前記車両に対する前記車両が存在する道路の延在方向である第3延在方向を認識し、
前記第1延在方向と前記認識された道路区画線の延在方向である第2延在方向とが合致し、且つ、前記第2延在方向と前記第3延在方向とが合致しない場合、前記認識された道路区画線に基づいて前記車両の走行制御の基準とする基準走路を決定する、
周辺認識方法。 The computer
Based on the image mounted on the vehicle and acquired by the camera that images the surroundings of the vehicle, the position of the road lane marking with respect to the vehicle is recognized.
It is the extension direction of a group of target positions arranged in a line from a plurality of target positions mounted on the vehicle and having a detection range around the vehicle and acquired by an object detection device different from the camera. 1 Specify the extension direction,
By applying the position of the vehicle to the map information, the third extending direction, which is the extending direction of the road on which the vehicle is located, is recognized with respect to the vehicle.
When the first extending direction and the second extending direction which is the extending direction of the recognized road lane marking match, and the second extending direction and the third extending direction do not match. , A reference track to be used as a reference for driving control of the vehicle is determined based on the recognized road lane marking.
Peripheral recognition method.
車両に搭載され、前記車両の周辺を撮像するカメラによって取得された画像に基づいて、前記車両に対する道路区画線の位置を認識させ、
前記車両に搭載され、前記車両の周辺を検出範囲とし、前記カメラとは異なる物体検出装置によって取得された複数の物標位置から、線状に並ぶ一群の物標位置の延在方向である第1延在方向を特定させ、
前記車両の位置を地図情報に当てはめることで、前記車両に対する前記車両が存在する道路の延在方向である第3延在方向を認識し、
前記第1延在方向と前記認識された道路区画線の延在方向である第2延在方向とが合致し、且つ、前記第2延在方向と前記第3延在方向とが合致しない場合、前記認識された道路区画線に基づいて前記車両の走行制御の基準とする基準走路を決定させる、
プログラム。 On the computer
Based on the image mounted on the vehicle and acquired by the camera that images the surroundings of the vehicle, the position of the road lane marking with respect to the vehicle is recognized.
It is the extension direction of a group of target positions arranged in a line from a plurality of target positions mounted on the vehicle and having a detection range around the vehicle and acquired by an object detection device different from the camera. 1 Let the extension direction be specified,
By applying the position of the vehicle to the map information, the third extending direction, which is the extending direction of the road on which the vehicle is located, is recognized with respect to the vehicle.
When the first extending direction and the second extending direction which is the extending direction of the recognized road lane marking match, and the second extending direction and the third extending direction do not match. , The reference track to be used as the reference for the traveling control of the vehicle is determined based on the recognized road lane marking.
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019169448A JP7028838B2 (en) | 2019-09-18 | 2019-09-18 | Peripheral recognition device, peripheral recognition method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019169448A JP7028838B2 (en) | 2019-09-18 | 2019-09-18 | Peripheral recognition device, peripheral recognition method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021047609A JP2021047609A (en) | 2021-03-25 |
JP7028838B2 true JP7028838B2 (en) | 2022-03-02 |
Family
ID=74878492
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019169448A Active JP7028838B2 (en) | 2019-09-18 | 2019-09-18 | Peripheral recognition device, peripheral recognition method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7028838B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7203885B2 (en) * | 2021-03-31 | 2023-01-13 | 本田技研工業株式会社 | VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014228943A (en) | 2013-05-20 | 2014-12-08 | 日本電産エレシス株式会社 | Vehicular external environment sensing device, and axial shift correction program and method therefor |
JP2017207814A (en) | 2016-05-16 | 2017-11-24 | 株式会社デンソー | Verification device and verification method |
WO2019065564A1 (en) | 2017-09-29 | 2019-04-04 | 日立オートモティブシステムズ株式会社 | Automatic driving controller and method |
JP2019084902A (en) | 2017-11-06 | 2019-06-06 | いすゞ自動車株式会社 | Steering control device and steering control method |
-
2019
- 2019-09-18 JP JP2019169448A patent/JP7028838B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014228943A (en) | 2013-05-20 | 2014-12-08 | 日本電産エレシス株式会社 | Vehicular external environment sensing device, and axial shift correction program and method therefor |
JP2017207814A (en) | 2016-05-16 | 2017-11-24 | 株式会社デンソー | Verification device and verification method |
WO2019065564A1 (en) | 2017-09-29 | 2019-04-04 | 日立オートモティブシステムズ株式会社 | Automatic driving controller and method |
JP2019084902A (en) | 2017-11-06 | 2019-06-06 | いすゞ自動車株式会社 | Steering control device and steering control method |
Also Published As
Publication number | Publication date |
---|---|
JP2021047609A (en) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6710710B2 (en) | Vehicle control device, vehicle control method, and program | |
CN111201170B (en) | Vehicle control device and vehicle control method | |
JPWO2018216194A1 (en) | Vehicle control system and vehicle control method | |
US11370420B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
CN110341704B (en) | Vehicle control device, vehicle control method, and storage medium | |
US20200290624A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7071250B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP6827026B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
JP2019131077A (en) | Vehicle control device, vehicle control method, and program | |
CN110217231B (en) | Vehicle control device, vehicle control method, and storage medium | |
CN112677966A (en) | Vehicle control device, vehicle control method, and storage medium | |
CN112208532A (en) | Vehicle control device, vehicle control method, and storage medium | |
JP6965152B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
CN111231961A (en) | Vehicle control device, vehicle control method, and storage medium | |
JP2021160426A (en) | Mobile body control device, mobile body control method, and program | |
JP7225185B2 (en) | VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM | |
US11628862B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
CN113525378A (en) | Vehicle control device, vehicle control method, and storage medium | |
CN110194153B (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7028838B2 (en) | Peripheral recognition device, peripheral recognition method, and program | |
CN110341703B (en) | Vehicle control device, vehicle control method, and storage medium | |
US11932283B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP6796047B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
CN113492844A (en) | Vehicle control device, vehicle control method, and storage medium | |
CN112141097A (en) | Vehicle control device, vehicle control method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20191122 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210831 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7028838 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |