JP2019185535A - Travel path recognition device of vehicle and travel controller - Google Patents

Travel path recognition device of vehicle and travel controller Download PDF

Info

Publication number
JP2019185535A
JP2019185535A JP2018077616A JP2018077616A JP2019185535A JP 2019185535 A JP2019185535 A JP 2019185535A JP 2018077616 A JP2018077616 A JP 2018077616A JP 2018077616 A JP2018077616 A JP 2018077616A JP 2019185535 A JP2019185535 A JP 2019185535A
Authority
JP
Japan
Prior art keywords
line
unit
vehicle
edge
travel path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018077616A
Other languages
Japanese (ja)
Other versions
JP7068017B2 (en
Inventor
俊也 熊野
Toshiya Kumano
俊也 熊野
俊輔 鈴木
Shunsuke Suzuki
俊輔 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2018077616A priority Critical patent/JP7068017B2/en
Publication of JP2019185535A publication Critical patent/JP2019185535A/en
Application granted granted Critical
Publication of JP7068017B2 publication Critical patent/JP7068017B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To extend a distance of compartment lines which can be calculated in a travel path recognition device which calculates right and left compartment lines of a travel path from a picked-up image around a vehicle to recognize a road shape.SOLUTION: A travel path recognition device 10 of a vehicle is provided with: an edge calculation part 12 constituted to calculate coordinates of an edge point at which a predetermined pixel parameter changes by a predetermined reference value or more on an image on the basis of the image picked up by an imaging part; and a compartment line recognition part 14 constituted to recognize right and left compartment lines of a travel path on the basis of a calculation result of the edge calculation part. The edge calculation part changes the reference value to be used for calculating the coordinates of the edge point so that a recognized distance becomes longer when the recognized distance of the compartment lines recognized by the compartment line recognition part is short.SELECTED DRAWING: Figure 2

Description

本開示は、車両に搭載され、車両周囲の撮像画像から車両の走行路の左右の区画線を算出して、走行路の道路形状を認識する、車両の走行路認識装置及び走行制御装置に関する。   The present disclosure relates to a vehicle travel path recognition apparatus and a travel control apparatus that are mounted on a vehicle, calculate left and right lane markings of the travel path of the vehicle from captured images around the vehicle, and recognize the road shape of the travel path.

この種の走行路認識装置としては、特許文献1に記載のように、車両周囲の撮像画像から、輝度の変化が閾値以上となるエッジ点を抽出し、線状に連続するエッジ点を接続することで、車両の走行路の左右の区画線を算出するように構成された装置が知られている。   As this type of travel path recognition device, as described in Patent Document 1, an edge point whose luminance change is equal to or greater than a threshold value is extracted from a captured image around the vehicle, and linearly continuous edge points are connected. Thus, there is known an apparatus configured to calculate left and right lane markings of a vehicle traveling path.

また、特許文献1においては、抽出したエッジ点に基づき算出された区画線の数が所定本数を超える場合に、エッジ点の抽出に用いる閾値を変更して、エッジ点の抽出が行われ難くすることが提案されている。つまり、エッジ点抽出用の閾値を変更することで、走行路の左右の区画線をより正確に算出できるようにするのである。   In Patent Document 1, when the number of lane markings calculated based on the extracted edge points exceeds a predetermined number, the threshold value used for edge point extraction is changed to make it difficult to perform edge point extraction. It has been proposed. That is, by changing the threshold value for edge point extraction, the left and right lane markings of the travel path can be calculated more accurately.

特開2007−257449号公報JP 2007-257449 A

しかしながら、撮像画像において、走行路の路面に描画された白線等の線ペイントは、車両から離れた遠方ほど識別し難く、線ペイントの両側で生じる輝度変化も、遠方ほど小さくなる。   However, in the captured image, line paint such as a white line drawn on the road surface of the traveling road is difficult to identify farther away from the vehicle, and the luminance change occurring on both sides of the line paint becomes smaller as far away.

また、エッジ点の抽出に用いられる輝度等の画素パラメータは、例えば、天候、走行路周囲の建造物の有無、トンネルの出入り口、線ペイントのかすれ、といった、走行路の環境によって変化する。   In addition, pixel parameters such as luminance used for edge point extraction vary depending on the environment of the traveling road, such as weather, the presence / absence of a building around the traveling road, the entrance / exit of a tunnel, and the blur of line paint.

このため、上記提案のように、エッジ点の抽出に用いる閾値を撮像画像全体で一律に変更したのでは、エッジ点から得られる不要な区画線を除去することはできても、最終的に得られる区画線の距離が短くなることがある。   For this reason, if the threshold value used for edge point extraction is uniformly changed in the entire captured image as in the above proposal, an unnecessary lane line obtained from the edge point can be removed, but finally obtained. The distance between the marked lines may be shortened.

また、このように、算出された区画線の距離が短くなると、区画線から認識される道路形状の距離も短くなることから、走行路認識装置にて認識された道路形状に従い車両を自動走行させる走行制御装置においては、車両制御を正常に実施できなくなる。   In addition, when the calculated lane marking distance is shortened, the road shape distance recognized from the lane marking is also shortened, so that the vehicle is automatically driven according to the road shape recognized by the travel path recognition device. In the travel control device, vehicle control cannot be performed normally.

つまり、車両の走行制御装置においては、走行路認識装置にて認識された道路形状の距離が短くなると、自動走行時の操舵に応答遅れが生じ、車両を安定して走行させることができなくなる、という問題が生じる。そして、この場合には、車両制御をレーンキープのための自動操舵から、運転者による手動操舵に切り替えなければならなくなり、走行制御装置の機能が損なわれる。   In other words, in the vehicle travel control device, when the road shape distance recognized by the travel path recognition device is shortened, a response delay occurs in steering during automatic travel, and the vehicle cannot travel stably. The problem arises. In this case, the vehicle control must be switched from automatic steering for lane keeping to manual steering by the driver, and the function of the travel control device is impaired.

本開示の一局面は、車両周囲の撮像画像から走行路の左右の区画線を算出して道路形状を認識する走行路認識装置において、算出可能な区画線の距離を延ばすことが望ましい。   According to one aspect of the present disclosure, it is desirable to extend the distance of a computable lane line in a lane recognition device that recognizes a road shape by calculating the lane markings on the left and right sides of the lane from captured images around the vehicle.

本開示の走行路認識装置は、車両周囲の画像を撮像する撮像部(4)、及び、車両の走行状態を検出するセンサ部(6)、を備えた車両に搭載され、撮像部及びセンサ部から得られた情報を用いて、車両の走行路の形状を認識する装置である。   The traveling path recognition device of the present disclosure is mounted on a vehicle including an imaging unit (4) that captures an image around the vehicle and a sensor unit (6) that detects a traveling state of the vehicle, and the imaging unit and the sensor unit. It is an apparatus which recognizes the shape of the travel path of a vehicle using the information obtained from (1).

本開示の一局面の走行路認識装置は、エッジ算出部(12)と、区画線認識部(14)とを備える。
そして、エッジ算出部は、撮像部にて撮像された画像に基づき、その撮像画像上で所定の画素パラメータが所定の基準値以上変化するエッジ点の座標を算出し、区画線認識部は、エッジ算出部の算出結果に基づき、走行路の左右の区画線を認識する。
The traveling path recognition device according to one aspect of the present disclosure includes an edge calculation unit (12) and a lane marking recognition unit (14).
Then, the edge calculation unit calculates the coordinates of the edge point where the predetermined pixel parameter changes by a predetermined reference value or more on the captured image based on the image captured by the imaging unit, and the lane marking recognition unit Based on the calculation result of the calculation unit, the left and right lane markings of the traveling road are recognized.

また、エッジ算出部は、区画線認識部にて認識された区画線の認識距離が短い場合に、認識距離が長くなるよう、エッジ点の座標を算出するのに用いる基準値を変化させる。
このため、本開示の一局面の走行路認識装置によれば、エッジ算出部が撮像画像上のエッジ点を検出するのに用いる、所定の画素パラメータの基準値を変化させることで、区画線認識部にて認識される区画線の認識距離が短くなるのを抑制できる。
Further, the edge calculation unit changes a reference value used for calculating the coordinates of the edge point so that the recognition distance becomes long when the recognition distance of the lane marking recognized by the lane marking recognition unit is short.
Therefore, according to the traveling path recognition device of one aspect of the present disclosure, the edge calculation unit changes the reference value of the predetermined pixel parameter used to detect the edge point on the captured image, thereby recognizing the lane marking. It can suppress that the recognition distance of the lane marking recognized in a part becomes short.

よって、本開示の一局面の走行路認識装置によれば、区画線認識部にて認識された走行路の左右の区画線から得られる道路形状の距離が短くなって、その道路形状に従い車両を自動走行させる走行制御装置において制御に異常が生じるのを抑制できる。   Therefore, according to the road recognition device of one aspect of the present disclosure, the distance of the road shape obtained from the left and right lane lines of the road recognized by the lane line recognition unit is shortened, and the vehicle is moved according to the road shape. It is possible to suppress the occurrence of abnormality in the control in the travel control device that automatically travels.

次に、本開示の他の局面の走行路認識装置は、上記一局面の走行路認識装置と同様、エッジ算出部(12)と、区画線認識部(14)を備える。
そして、エッジ算出部は、上記と同様、撮像部にて撮像された画像に基づき、その撮像画像上で所定の画素パラメータが閾値以上変化するエッジ点の座標を算出する。
Next, the traveling path recognition apparatus of the other aspect of this indication is provided with the edge calculation part (12) and the lane marking recognition part (14) similarly to the traveling path recognition apparatus of the said one situation.
Then, as described above, the edge calculation unit calculates the coordinates of the edge point at which a predetermined pixel parameter changes by a threshold value or more on the captured image based on the image captured by the imaging unit.

一方、区画線認識部は、ペイント抽出部(20)と、線候補算出部(22)と、トレースエッジ部(26)と、を備える。
ここで、ペイント抽出部は、エッジ算出部の算出結果に基づき、走行路の区画線として路面に描画された線ペイントを抽出するよう構成されている。
On the other hand, the lane marking recognition unit includes a paint extraction unit (20), a line candidate calculation unit (22), and a trace edge unit (26).
Here, the paint extraction unit is configured to extract line paint drawn on the road surface as a lane marking of the traveling road based on the calculation result of the edge calculation unit.

また、線候補算出部は、ペイント抽出部にて抽出された線ペイントとセンサ部にて検出された車両の走行状態とに基づき、区画線の候補となる線候補を算出するよう構成されている。   The line candidate calculation unit is configured to calculate a line candidate that is a candidate for a lane line based on the line paint extracted by the paint extraction unit and the running state of the vehicle detected by the sensor unit. .

また、トレースエッジ部は、エッジ算出部にて算出されたエッジ点の座標に基づき、線候補算出部にて算出された線候補の延伸方向に存在するエッジ点を探索するよう構成されている。   Further, the trace edge portion is configured to search for an edge point existing in the extending direction of the line candidate calculated by the line candidate calculation unit based on the coordinates of the edge point calculated by the edge calculation unit.

そして、線候補算出部は、トレースエッジ部によるエッジ点の探索結果に基づき、線候補の延伸方向に存在するエッジ点を線候補のエッジ点として登録する。
つまり、本開示の走行路認識装置においては、線候補算出部にて線ペイントと車両の走行状態とに基づき算出した線候補の延伸方向に、トレースエッジ部にて探索されたエッジ点が存在する場合に、そのエッジ点を線候補のエッジ点として登録するのである。
Then, the line candidate calculation unit registers an edge point existing in the extending direction of the line candidate as an edge point of the line candidate based on the search result of the edge point by the trace edge part.
That is, in the travel path recognition device of the present disclosure, there is an edge point searched for in the trace edge portion in the extending direction of the line candidate calculated based on the line paint and the running state of the vehicle by the line candidate calculation unit. In this case, the edge point is registered as the edge point of the line candidate.

この結果、本開示の走行路認識装置によれば、線候補算出部にて算出される線候補の距離を延ばし、区画線認識部にて認識される区画線の距離が短くなるのを抑制できる。
よって、本開示の走行路認識装置においても、上記一局面の走行路認識装置と同様、区画線認識部にて認識された区画線から得られる道路形状の距離が短くなって、その道路形状に従い車両を自動走行させる走行制御装置において制御に異常が生じるのを抑制できる。
As a result, according to the traveling path recognition device of the present disclosure, it is possible to increase the distance between the line candidates calculated by the line candidate calculation unit and to suppress the distance between the lane lines recognized by the lane line recognition unit from being shortened. .
Therefore, also in the travel path recognition device of the present disclosure, the distance of the road shape obtained from the lane line recognized by the lane line recognition unit is shortened according to the road shape, as in the travel path recognition device of the above aspect. It is possible to suppress the occurrence of abnormality in the control in the travel control device that automatically travels the vehicle.

次に、本開示の一局面の車両の走行制御装置は、車両周囲の画像を撮像するよう構成された撮像部(4)と、車両の走行状態を検出するよう構成されたセンサ部(6)と、走行路認識部(10)と、制御部(8)とを備える。   Next, the vehicle travel control device according to one aspect of the present disclosure includes an imaging unit (4) configured to capture an image around the vehicle, and a sensor unit (6) configured to detect a traveling state of the vehicle. And a travel path recognition unit (10) and a control unit (8).

そして、制御部は、走行路認識部から得られる走行路の形状等の情報に基づき、車両の走行状態を制御するように構成され、走行路認識部は、上述した本開示の一局面若しくは他の局面の走行路認識装置にて構成されている。   The control unit is configured to control the traveling state of the vehicle based on information such as the shape of the traveling path obtained from the traveling path recognition unit, and the traveling path recognition unit is one aspect or the other of the present disclosure described above. It is comprised with the travel path recognition apparatus of the situation of.

従って、本開示の一局面の車両の走行制御装置によれば、走行路認識部にて認識される走行路の距離が短くなるのを抑制し、走行路認識部にて認識された走行路の形状に従い、車両の走行状態を、応答遅れなく安定して制御することができるようになる。   Therefore, according to the vehicle travel control device of one aspect of the present disclosure, it is possible to suppress the distance of the travel path recognized by the travel path recognition unit from being shortened, and to detect the travel path recognized by the travel path recognition unit. According to the shape, the running state of the vehicle can be stably controlled without a response delay.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。   In addition, the code | symbol in the parenthesis described in this column and a claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is shown. It is not limited.

実施形態の車両の走行制御装置全体の構成を表すブロック図である。It is a block diagram showing the structure of the whole traveling control apparatus of the vehicle of embodiment. 図1に示す走行路認識部の構成を表すブロック図である。It is a block diagram showing the structure of the traveling path recognition part shown in FIG. エッジ算出部におけるエッジ検出動作を説明する説明図である。It is explanatory drawing explaining the edge detection operation | movement in an edge calculation part. 線候補算出部として実行される線候補算出処理を表すフローチャートである。It is a flowchart showing the line candidate calculation process performed as a line candidate calculation part. 図4のS150にて実行される除外判定処理を表すフローチャートである。It is a flowchart showing the exclusion determination process performed in S150 of FIG. 図4のS160にて実行される再接続判定処理を表すフローチャートである。It is a flowchart showing the reconnection determination process performed in S160 of FIG. 図4のS110及びS140における線候補の接続動作を説明する説明図である。It is explanatory drawing explaining the connection operation | movement of the line candidate in S110 and S140 of FIG. 図5に示す除外判定処理による線候補の除外動作を説明する説明図である。It is explanatory drawing explaining the exclusion operation | movement of the line candidate by the exclusion determination process shown in FIG. 実施形態の走行路認識部による区画線の認識結果を従来装置と比較して表す説明図である。It is explanatory drawing which represents the recognition result of the lane marking by the traveling path recognition part of embodiment compared with the conventional apparatus. エッジ算出部における基準値更新動作を説明する説明図である。It is explanatory drawing explaining the reference value update operation | movement in an edge calculation part. 図10に示す基準値更新動作を実現するために実行される基準値更新処理を表すフローチャートである。It is a flowchart showing the reference value update process performed in order to implement | achieve the reference value update operation | movement shown in FIG.

以下に本発明の実施形態を図面と共に説明する。
図1に示すように、本実施形態の車両の走行制御装置は、車載カメラ4と、センサ部6と、走行路認識部10と、制御部8と、を備える。
Embodiments of the present invention will be described below with reference to the drawings.
As shown in FIG. 1, the vehicle travel control apparatus of the present embodiment includes an in-vehicle camera 4, a sensor unit 6, a travel path recognition unit 10, and a control unit 8.

車載カメラ4は、本開示の撮像部に相当するものであり、車両2において、進行方向前方の画像を撮像するように設置されている。
センサ部6は、車両2の走行状態を検出するためのものであり、車両2の挙動を予測可能とするため、少なくとも、車速を検出する車速センサと、車両2のヨーレートを検出するヨーレートセンサと、を備える。
The in-vehicle camera 4 corresponds to the imaging unit of the present disclosure, and is installed in the vehicle 2 so as to capture an image ahead in the traveling direction.
The sensor unit 6 is for detecting the traveling state of the vehicle 2, and in order to be able to predict the behavior of the vehicle 2, at least a vehicle speed sensor for detecting the vehicle speed, a yaw rate sensor for detecting the yaw rate of the vehicle 2, and .

走行路認識部10は、本開示の走行路認識装置に相当するものであり、車載カメラ4による撮像画像とセンサ部6にて検出された車両の走行状態とに基づき、車両2が走行中の道路(詳しくは走行車線)の左右の区画線を認識する。   The traveling path recognition unit 10 corresponds to the traveling path recognition device of the present disclosure, and the vehicle 2 is traveling based on the image captured by the in-vehicle camera 4 and the traveling state of the vehicle detected by the sensor unit 6. Recognize the left and right lane markings on the road (specifically, the driving lane).

つまり、走行路認識部10は、車載カメラ4による撮像画像を処理可能なマイコン若しくはASIC等にて構成されており、撮像画像から走行路(車線)の左右の区画線を認識して、制御部8が車両2を自動走行させるのに必要な道路形状を認識する。   That is, the travel path recognition unit 10 is configured by a microcomputer or an ASIC that can process an image captured by the in-vehicle camera 4, recognizes the left and right lane markings of the travel path (lane) from the captured image, and controls the control unit. 8 recognizes the road shape necessary for automatically driving the vehicle 2.

そして、制御部8は、走行路認識部10にて認識された道路形状に基づき、例えば、車両を走行路に沿って自動走行させるのに要する操舵量を演算して、車両2に搭載されたステアリング装置の操舵量を制御する、所謂レーンキープ制御を実施する。   The control unit 8 is mounted on the vehicle 2 by calculating, for example, a steering amount required to cause the vehicle to automatically travel along the travel path based on the road shape recognized by the travel path recognition unit 10. So-called lane keep control is performed to control the steering amount of the steering device.

なお、制御部8は、マイコンにて構成された車両制御用の電子制御装置、所謂ECUである。また、制御部8は、走行路認識部10にて認識された道路形状に基づき、車両の操舵量と駆動力と制動力とを制御することで、車両2を自動走行させる、自動走行制御用のECUであってもよい。これらのレーンキープ制御や自動走行制御は周知であるため、ここでは、制御部8に関する詳細な説明は省略する。   The control unit 8 is a so-called ECU, which is an electronic control device for vehicle control configured by a microcomputer. Further, the control unit 8 controls the vehicle steering amount, the driving force, and the braking force based on the road shape recognized by the traveling path recognition unit 10, thereby automatically traveling the vehicle 2 for automatic traveling control. ECU may be used. Since these lane keeping control and automatic traveling control are well known, detailed description on the control unit 8 is omitted here.

次に、本開示の主要部となる走行路認識部10について説明する。
図2に示すように、走行路認識部10は、エッジ算出部12、区画線認識部14、及び、道路形状推定部16としての機能を有する。また、区画線認識部14は、ペイント抽出部20、線候補算出部22、線候補選択部24、及び、トレースエッジ部26としての機能を有する。
Next, the traveling path recognition unit 10 that is a main part of the present disclosure will be described.
As shown in FIG. 2, the travel path recognition unit 10 has functions as an edge calculation unit 12, a lane marking recognition unit 14, and a road shape estimation unit 16. Further, the lane marking recognition unit 14 has functions as a paint extraction unit 20, a line candidate calculation unit 22, a line candidate selection unit 24, and a trace edge unit 26.

なお、本実施形態では、走行路認識部10は、CPU、ROM、RAM等を含むマイコンにて構成されており、上記各部の機能は、CPUがROMに記憶された制御プログラムを実行することで、実現されるものとする。   In the present embodiment, the traveling path recognition unit 10 is configured by a microcomputer including a CPU, a ROM, a RAM, and the like, and the function of each of the above units is executed by the CPU executing a control program stored in the ROM. , Shall be realized.

ここで、エッジ算出部12は、車載カメラ4にて撮像された撮像画像に基づき、撮像画像上で、画素パラメータとしての輝度が予め設定された基準値以上変化する画素をエッジ点として検出し、その座標を算出する機能ブロックである。   Here, the edge calculation unit 12 detects, as an edge point, a pixel whose luminance as a pixel parameter changes more than a preset reference value on the captured image based on the captured image captured by the in-vehicle camera 4. It is a functional block for calculating the coordinates.

具体的には、エッジ算出部12は、図3Aに示すように、撮像画像を進行方向に向かって左右方向であるX方向に走査することで、輝度が基準値以上増加方向及び減少方向に変化した点をエッジ点として探索し、探索したエッジ点の座標を求める。   Specifically, as shown in FIG. 3A, the edge calculation unit 12 scans the captured image in the X direction, which is the left-right direction toward the traveling direction, so that the luminance changes in the increasing direction and the decreasing direction over the reference value. The searched point is searched as an edge point, and the coordinates of the searched edge point are obtained.

また、エッジ点探索のための走査は、X方向に直行するY方向に走査位置を変化させて順次行い、走査位置毎にエッジ点を探索する。この結果、例えば、走査位置Y1、Y2で、走行路の路面に左右の区画線として描画された白線等の線ペイントが存在する場合には、図3B,図3Cに示すように、各線ペイントの両側でエッジ点が検出されることになる。   Further, scanning for edge point search is sequentially performed by changing the scanning position in the Y direction orthogonal to the X direction, and the edge point is searched for each scanning position. As a result, for example, when there are line paints such as white lines drawn as left and right dividing lines on the road surface at the scanning positions Y1 and Y2, as shown in FIGS. 3B and 3C, Edge points will be detected on both sides.

一方、撮像画像上の線ペイントは、天候、走行路周囲の建造物の有無、トンネルの出入り口、線ペイントのかすれ、といった、走行路の環境によって変化することから、こうした環境変化によって不鮮明となることがある。特に、線ペイントは、車両2から離れる程、幅が細くなるため、不鮮明になり易い。   On the other hand, the line paint on the captured image changes depending on the environment of the road, such as weather, the presence or absence of buildings around the road, the entrance of the tunnel, and the blur of the line paint. There is. In particular, the line paint tends to become unclear because the width decreases as the distance from the vehicle 2 increases.

そして、このように、撮像画像上で線ペイントが不鮮明になった場合、線ペイントは、不連続な線のエッジ点として検出され、そのエッジ点は輝度の高い白のエッジ点若しくは輝度の低い黒のエッジ点として認識されるようになる。   In this way, when the line paint becomes unclear on the captured image, the line paint is detected as an edge point of a discontinuous line, and the edge point is a white edge point having a high luminance or a black point having a low luminance. Are recognized as edge points.

次に、区画線認識部14は、エッジ算出部12の算出結果に基づき、走行路となる車線の左右の区画線を認識する機能ブロックであり、道路形状推定部16は、区画線認識部14にて認識された左右の区画線と、予め設定されている道路形状モデルとに基づき、走行路の道路形状を推定する機能ブロックである。   Next, the lane marking recognition unit 14 is a functional block that recognizes the lane markings on the left and right of the lane that will be the travel road based on the calculation result of the edge calculation unit 12, and the road shape estimation unit 16 is the lane marking recognition unit 14. This is a functional block that estimates the road shape of the traveling road based on the left and right lane markings recognized in step S5 and a preset road shape model.

また、区画線認識部14において、ペイント抽出部20は、エッジ算出部12にて算出されたエッジ点の座標に基づき、走行路の区画線として路面に描画された線ペイントを抽出する機能ブロックである。   Further, in the lane marking recognition unit 14, the paint extraction unit 20 is a functional block that extracts line paint drawn on the road surface as the lane markings of the traveling road based on the coordinates of the edge points calculated by the edge calculation unit 12. is there.

つまり、ペイント抽出部20は、エッジ算出部12にて算出されたエッジ点の座標から、線状に連続するエッジ点を抽出する。そして、抽出したエッジ点を接続した線の中から、線の間隔が、白線等の線ペイント抽出用として予め設定された許容範囲内で一定若しくは連続的に変化する2本の線を、白線等の線ペイントの左右の境界線として特定し、特定した左右の境界線から線ペイントを抽出する。   That is, the paint extraction unit 20 extracts edge points that are linearly continuous from the coordinates of the edge points calculated by the edge calculation unit 12. Then, from the lines connecting the extracted edge points, two lines whose line intervals change constant or continuously within a tolerance set in advance for extracting a line paint such as a white line, etc. The left and right boundary lines of the line paint are specified, and the line paint is extracted from the specified left and right boundary lines.

なお、こうした線ペイントの抽出方法については、特許文献1にも記載されており、周知であるため、ここでは詳細な説明は省略する。
次に、線候補算出部22は、ペイント抽出部20にて抽出された線ペイントに基づき、左右の区画線の候補となる線候補を算出する機能ブロックである。
Note that this line paint extraction method is also described in Patent Document 1 and is well known, and therefore detailed description thereof is omitted here.
Next, the line candidate calculation unit 22 is a functional block that calculates line candidates that are candidates for left and right division lines based on the line paint extracted by the paint extraction unit 20.

この線候補算出部22としての機能は、走行路認識部10を構成するCPUが図4に示す線候補算出処理を実行することにより実現される。
すなわち、図4に示すように、線候補算出処理においては、S110にて、既に算出されている線候補から予測線を求め、ペイント抽出部20にて抽出された線ペイントの中から、予測線近傍に位置する線ペイントを選択し、線候補に接続する。
The function as the line candidate calculation unit 22 is realized by the CPU constituting the travel path recognition unit 10 executing the line candidate calculation process shown in FIG.
That is, as shown in FIG. 4, in the line candidate calculation process, in S110, a predicted line is obtained from the already calculated line candidates, and the predicted line is extracted from the line paint extracted by the paint extracting unit 20. Select a nearby line paint and connect it to the line candidate.

なお、予測線は、既に算出される線候補の先端から車両が走行すると予測される予測経路であり、既に算出される線候補の形状と、センサ部6にて検出された車両2の現在の走行状態とに基づき、図7Aに示すように推定される。尚、予測線の推定には、センサ部6にて検出された車速及びヨーレートが使用される。   Note that the predicted line is a predicted route where the vehicle is predicted to travel from the tip of the already calculated line candidate, and the shape of the already calculated line candidate and the current of the vehicle 2 detected by the sensor unit 6 are detected. Based on the running state, it is estimated as shown in FIG. 7A. Note that the vehicle speed and the yaw rate detected by the sensor unit 6 are used for estimating the prediction line.

また、S110においては、予測線から所定範囲LA(例えば0.4m)内、に位置する線ペイントが存在するか否かを判断し、予測線から所定範囲LA内に位置する線ペイントが存在すれば、その線ペイントを線候補に接続する。また、S110において、予測線から所定範囲LA内に位置する線ペイントが存在しない場合には、予測線に基づく線候補の接続は実施しない。   In S110, it is determined whether there is a line paint located within a predetermined range LA (for example, 0.4 m) from the predicted line, and there is a line paint located within the predetermined range LA from the predicted line. For example, the line paint is connected to the line candidate. In S110, if there is no line paint located within the predetermined range LA from the predicted line, connection of line candidates based on the predicted line is not performed.

また、S110にて、線ペイントを線候補に接続する際には、線ペイントの左右の境界線のうち、一方の境界線、例えば、走行路の内側の境界線、を線候補として、現在の線候補に接続する。   In S110, when connecting the line paint to the line candidate, one of the left and right boundary lines of the line paint, for example, the inner boundary line of the traveling road, is used as a line candidate. Connect to line candidates.

こうして、S110にて、予測線に基づく線ペイントの線候補への接続処理が実施されると、S120に移行し、線候補として接続されている最終の線ペイントから線状に伸びるエッジ点が存在するか否かを判断する。なお、以下の説明において、最終の線ペイントから線状に伸びるエッジ点を、トレースエッジという。   Thus, when the connection process to the line candidate of the line paint based on the predicted line is performed in S110, the process proceeds to S120, and there is an edge point extending linearly from the last line paint connected as the line candidate. Judge whether or not to do. In the following description, an edge point extending linearly from the final line paint is referred to as a trace edge.

このトレースエッジは、線候補算出部22で線候補として接続されている最終の線ペイントと、エッジ算出部12にて検出された撮像画像上のエッジ点とに基づき、トレースエッジ部26にて求められる。   The trace edge is obtained by the trace edge unit 26 based on the final line paint connected as a line candidate by the line candidate calculation unit 22 and the edge point on the captured image detected by the edge calculation unit 12. It is done.

つまり、トレースエッジ部26は、エッジ算出部12にて検出されたエッジ点の中から、線候補の最終の線ペイントから線状に連続するエッジ点を探索することで、図7Aに示すトレースエッジを生成する。   In other words, the trace edge unit 26 searches the edge points detected by the edge calculation unit 12 for edge points that are linearly continuous from the final line paint of the line candidates, whereby the trace edge shown in FIG. 7A is obtained. Is generated.

なお、トレースエッジ部26は、エッジ算出部12で輝度が増加方向に変化したと判定された高輝度(例えば白)のエッジ点同士、或いは、輝度が減少方向に変化したと判定された低輝度(例えば黒)のエッジ点同士を、それぞれ探索する。また、トレースエッジ部26は、輝度又は輝度変化が一定範囲内にあるエッジ点同士を探索する。   Note that the trace edge unit 26 has high luminance (for example, white) edge points determined to have changed in the increasing direction by the edge calculating unit 12 or low luminance in which the luminance has been determined to have decreased in the decreasing direction. Each edge point (for example, black) is searched for. The trace edge unit 26 searches for edge points whose luminance or luminance change is within a certain range.

このため、トレースエッジは、撮像画像上で、白線、黒線というように色が略一定に見える線、或いは、色が、グレーから黒、白からグレー、というように徐々に変化するように見える線、にて生成されることになる。また、トレースエッジは、撮像画像上で線が不連続であっても、エッジ点が線状に並んでいれば生成される。   For this reason, on the captured image, the trace edge looks like a white line, a black line, or the like, and the color appears to change gradually, such as from gray to black, or from white to gray. Will be generated by the line. The trace edge is generated if the edge points are arranged in a line even if the line is discontinuous on the captured image.

そして、S120では、トレースエッジ部26にて、トレースエッジが生成されると、トレースエッジが存在すると判断して、S130に移行し、トレースエッジが生成されていなければ、S150に移行する。   In S120, when the trace edge is generated in the trace edge unit 26, it is determined that the trace edge exists, and the process proceeds to S130. If the trace edge is not generated, the process proceeds to S150.

次に、S130では、ペイント抽出部20にて抽出された線ペイントの中で、トレースエッジの近傍に位置し、トレースエッジを介して接続可能な線ペイントが存在するか否かを判断する。なお、この判断は、トレースエッジから所定範囲LB(例えば0.2m)内に位置する線ペイントが存在するか否かを判断することで実施される。   Next, in S130, it is determined whether or not there is a line paint that is located near the trace edge and can be connected via the trace edge in the line paint extracted by the paint extraction unit 20. This determination is performed by determining whether or not there is a line paint located within a predetermined range LB (for example, 0.2 m) from the trace edge.

そして、S130にて、トレースエッジの近傍に線ペイントが存在すると判断されると、S140に移行し、図7Bに例示するように、トレースエッジを介して、トレースエッジ近傍の線ペイントまで線候補を延ばし、その線ペイントに線候補を接続する。   If it is determined in S130 that line paint exists in the vicinity of the trace edge, the process proceeds to S140, and as illustrated in FIG. 7B, line candidates are obtained from the trace edge to the line paint in the vicinity of the trace edge. Extend and connect line candidates to the line paint.

なお、S140では、トレースエッジ近傍に存在すると判断された線ペイントが、予測線から、上記LAよりも大きい所定範囲LC(例えば0.96m)内に存在しない場合には、予測線から大きく外れているので、線候補の接続を実施しない。   In S140, when the line paint determined to exist near the trace edge does not exist within the predetermined range LC (for example, 0.96 m) larger than the LA from the predicted line, the line paint greatly deviates from the predicted line. Therefore, connection of line candidates is not performed.

そして、S140の処理が実施されるか、或いは、S130にて、トレースエッジ近傍に線ペイントは存在しないと判断された場合には、S150に移行する。
次に、S150では、本開示の線候補除外部としての除外判定処理を実行する。
If the process of S140 is performed or if it is determined in S130 that no line paint exists near the trace edge, the process proceeds to S150.
Next, in S150, an exclusion determination process is performed as a line candidate exclusion unit of the present disclosure.

図5に示すように、除外判定処理においては、まずS210にて、線候補を構成する線ペイントの中から、車両から最も離れた最終の第1線ペイントP1よりも車両側で1つ手前の第2線ペイントP2を選択する。そして、その選択した第2線ペイントP2の形状に対応したフィッティング係数を算出する。   As shown in FIG. 5, in the exclusion determination process, first, in S210, one of the line paints constituting the line candidate is one before the final first line paint P1 farthest from the vehicle. The second line paint P2 is selected. Then, a fitting coefficient corresponding to the shape of the selected second line paint P2 is calculated.

次に、S220では、図8Aに示すように、S210にて算出したフィッティング係数に基づき、第2線ペイントP2から第2線ペイントP2の形状に沿って延伸させた延伸線を求め、この延伸線と第1線ペイントP1との位置ずれ量を算出する。   Next, in S220, as shown in FIG. 8A, based on the fitting coefficient calculated in S210, a stretched line stretched from the second line paint P2 along the shape of the second line paint P2 is obtained. And the first line paint P1 are calculated.

そして、続くS230では、S220で算出した位置ずれ量が、予め設定された閾値以上であるか否かを判断し、位置ずれ量が閾値以上である場合には、S240に移行して、図8Bに示すように、最終の第1線ペイントP1を線候補から除外する。この結果、線候補は、第2線ペイントP2までに制限されることになる。   In subsequent S230, it is determined whether or not the positional deviation amount calculated in S220 is equal to or larger than a preset threshold value. If the positional deviation amount is equal to or larger than the threshold value, the process proceeds to S240, and FIG. As shown in FIG. 5, the final first line paint P1 is excluded from the line candidates. As a result, the line candidates are limited to the second line paint P2.

また、S240にて最終の第1線ペイントP1を線候補から除外するか、或いは、S230にて、位置ずれ量は閾値未満であると判断された場合には、当該除外判定処理を終了し、S160に移行する。   Further, if the final first line paint P1 is excluded from the line candidates in S240, or if it is determined in S230 that the positional deviation amount is less than the threshold value, the exclusion determination process ends. The process proceeds to S160.

なお、線候補算出部22において、上記除外判定処理を実施するのは、本実施形態では、トレースエッジ部26にてトレースエッジを生成して、線候補を延長させるためである。
つまり、トレースエッジ部26にて生成されたトレースエッジに基づき線候補を延長させると、走行路ではない線ペイントが線候補として誤って接続されることが考えられるため、除外判定処理を実施することにより、線候補を誤って延長するのを抑制している。
In the present embodiment, the reason why the line candidate calculation unit 22 performs the exclusion determination process is to generate a trace edge in the trace edge unit 26 and extend the line candidate.
In other words, if the line candidate is extended based on the trace edge generated by the trace edge unit 26, it is considered that line paint that is not a traveling path is erroneously connected as a line candidate, so the exclusion determination process is performed. Therefore, it is possible to suppress the extension of the line candidate by mistake.

従って、除外判定部としての除外判定処理を実行することで、車両2の走行路である車線の左右の区画線の認識精度を向上することができる。
次に、S160では、本開示の再接続判定部としての再接続判定処理を実行する。
Therefore, by executing the exclusion determination process as the exclusion determination unit, it is possible to improve the recognition accuracy of the left and right lane markings of the lane that is the travel path of the vehicle 2.
Next, in S160, a reconnection determination process as a reconnection determination unit of the present disclosure is executed.

図6に示すように、再接続判定処理においては、まず、S310にて、線候補として接続されている線ペイントの位置及び形状に基づき、線候補に沿った走行路の道路形状を求め、線候補から更に伸びる走行路の道路形状を推定する。   As shown in FIG. 6, in the reconnection determination process, first, in S310, the road shape of the travel path along the line candidate is obtained based on the position and shape of the line paint connected as the line candidate, Estimate the road shape of the road that further extends from the candidates.

また、続くS320では、S310にて推定した道路形状と、ペイント抽出部20にて抽出された線ペイントのうち、線候補として接続されていない未接続線ペイントと、の位置ずれ量を算出する。   In subsequent S320, the positional deviation amount between the road shape estimated in S310 and the unconnected line paint that is not connected as a line candidate among the line paints extracted by the paint extracting unit 20 is calculated.

そして、S330にて、S320で算出した位置ずれ量は、予め設定された閾値未満であるか否かを判断することで、推定した道路形状からの位置ずれ量が閾値未満となる未接続線ペイントが存在するか否かを判断する。   In S330, it is determined whether the displacement amount calculated in S320 is less than a preset threshold value, so that the unconnected line paint in which the estimated displacement amount from the road shape is less than the threshold value. It is determined whether or not exists.

S330にて、推定した道路形状からの位置ずれ量が閾値未満となる未接続線ペイントが存在すると判断されると、S340に移行して、その未接続線ペイントを、線候補に接続することで、線候補を延長する。   If it is determined in S330 that there is an unconnected line paint whose positional deviation from the estimated road shape is less than the threshold, the process proceeds to S340, and the unconnected line paint is connected to the line candidate. , Extend line candidates.

そして、S340にて、未接続線ペイントを線候補に接続するか、或いは、S330にて、推定した道路形状からの位置ずれ量が閾値未満となる未接続線ペイントは存在しないと判断された場合には、当該再接続判定処理を終了する。   If it is determined in S340 that the unconnected line paint is connected to the line candidate, or it is determined in S330 that there is no unconnected line paint whose positional deviation from the estimated road shape is less than the threshold value. The reconnection determination process is terminated.

この結果、S310にて推定された走行路の道路形状に対し、位置ずれ量が閾値未満となる未接続線ペイントが存在する場合には、除外判定処理にて線候補から除外されたとしても、未接続線ペイントが線候補に接続されて、線候補が延長されることになる。   As a result, if there is unconnected line paint whose positional deviation amount is less than the threshold for the road shape estimated in S310, even if it is excluded from the line candidates in the exclusion determination process, The unconnected line paint is connected to the line candidate, and the line candidate is extended.

以上説明したように、線候補算出部22では、ペイント抽出部20にて抽出された線ペイントを、車両2の走行状態を考慮して設定した予測線に沿って、順に接続することで、走行路(車線)の左右の区画線の線候補を生成する。   As described above, the line candidate calculation unit 22 travels by connecting the line paint extracted by the paint extraction unit 20 in order along the predicted line set in consideration of the travel state of the vehicle 2. Line candidates for left and right lane markings on the road (lane) are generated.

そして、線候補に線ペイントを接続できなくなると、最終の線候補から線状に配置されるエッジ部を探索することで、トレースエッジを生成し、そのトレースエッジの近傍に線ペイントが存在する場合には、その線ペイントを線候補として接続する。従って、本実施形態によれば、トレースエッジを生成しない従来装置に比べ、線候補の距離を長くすることができる。   When line paint cannot be connected to a line candidate, a trace edge is generated by searching for an edge portion arranged linearly from the last line candidate, and line paint exists in the vicinity of the trace edge The line paint is connected as a line candidate. Therefore, according to the present embodiment, the distance between the line candidates can be increased as compared with the conventional apparatus that does not generate the trace edge.

また、トレースエッジは、画素パラメータである輝度若しくは輝度変化が所定範囲内となる同系統のエッジ部を探索することで、生成されることから、撮像画像上の白線であっても黒線であっても、トレースエッジとして生成されることになる。   In addition, since the trace edge is generated by searching for an edge portion of the same system in which the luminance or luminance change that is the pixel parameter is within a predetermined range, even a white line on the captured image is a black line. However, it is generated as a trace edge.

そして、トレースエッジ近傍に線ペイントが存在すれば、その線ペイントが線候補として接続されることから、車両2から離れた位置で線ペイントが不鮮明になっていても、不鮮明な線ペイントを線候補として接続して、線候補の距離を延ばすことができる。   If there is a line paint near the trace edge, the line paint is connected as a line candidate. Therefore, even if the line paint is unclear at a position away from the vehicle 2, the line paint is a blurred line paint. Can be connected to extend the distance of the line candidate.

次に、図2に示す線候補選択部24は、線候補算出部22で算出した線候補が、走行路の左側又は右側に複数存在する場合に、その複数の線候補の中から、走行路の左右の区画線となる線候補を選択する、機能ブロックである。   Next, when there are a plurality of line candidates calculated by the line candidate calculation unit 22 on the left side or the right side of the travel path, the line candidate selection unit 24 illustrated in FIG. This is a functional block for selecting line candidates to be left and right partition lines.

線候補選択部24は、複数の線候補が存在する場合、例えば、車載カメラ4から得られる撮像画像上で輝度が高く鮮明な線候補を選択したり、センサ部6から得られる車両2の進行方向に沿った線候補を選択したりすることで、区画線となる線候補を選択する。   When there are a plurality of line candidates, for example, the line candidate selection unit 24 selects a clear line candidate having high luminance on the captured image obtained from the in-vehicle camera 4 or the progress of the vehicle 2 obtained from the sensor unit 6. A line candidate that becomes a partition line is selected by selecting a line candidate along the direction.

そして、線候補算出部22にて区画線として算出され、線候補選択部24にて区画線として選択された線候補は、走行路の左右の区画線として、区画線認識部14から道路形状推定部16に出力される。   The line candidates calculated by the line candidate calculation unit 22 and selected as the lane markings by the line candidate selection unit 24 are estimated as road shapes from the lane marking recognition unit 14 as the lane markings on the left and right of the traveling road. Is output to the unit 16.

従って、図9に示すように、区画線認識部14から道路形状推定部16に出力される左右の区画線の最終端Pel,Perまでの距離は、従来装置に比べて長くなる。そして、道路形状推定部16においては、線候補選択部24から入力される左右の区画線に基づき、走行路の道路形状を推定する。このため、道路形状推定部16にて推定される道路形状の長さも、従来装置に比べて長くなる。   Therefore, as shown in FIG. 9, the distance from the lane marking recognition unit 14 to the final ends Pel and Per of the lane markings output to the road shape estimation unit 16 is longer than that of the conventional device. Then, the road shape estimation unit 16 estimates the road shape of the traveling road based on the left and right lane markings input from the line candidate selection unit 24. For this reason, the length of the road shape estimated by the road shape estimation unit 16 is also longer than that of the conventional device.

なお、図9において、図9Aは、従来装置において認識される区画線を表し、図9Bは、本実施形態の区画線認識部14にて認識される区画線を表す。
この図から明らかなように、道路に描画された左右の区画線のうち、連続する白線にて描画された右側の区画線は、1本の線ペイントとして認識されるため、従来装置と本実施形態とでは、認識距離は略同じである。
In FIG. 9, FIG. 9A represents a lane line recognized by the conventional apparatus, and FIG. 9B represents a lane line recognized by the lane line recognition unit 14 of the present embodiment.
As is clear from this figure, the right lane marking drawn with a continuous white line among the left and right lane markings drawn on the road is recognized as one line paint, so the conventional apparatus and this implementation In the form, the recognition distance is substantially the same.

これに対し、短い白線を所定間隔で描画した左側の区画線は、撮像画像上で、車両から離れる程線ペイントが不鮮明になるので、線候補として接続するのが難しく、従来装置では、認識距離が短くなる。   On the other hand, the left lane line drawn with a short white line at a predetermined interval is difficult to connect as a line candidate because the line paint becomes unclear as it moves away from the vehicle on the captured image. Becomes shorter.

しかし、本実施形態では、トレースエッジを使って、線ペイントを接続するので、右側の区画線と略同じ認識距離となる。
従って、制御部8が走行路認識部10から出力される道路形状に基づき、レーンキープ制御を実行する際に、走行路認識部10から出力される道路形状の距離が短くなって、例えば、高速走行時に操舵遅れが生じ、車両2の走行が不安定となるのを抑制できる。
However, in this embodiment, the line paint is connected using the trace edge, so that the recognition distance is substantially the same as the right partition line.
Therefore, when the control unit 8 executes the lane keeping control based on the road shape output from the travel path recognition unit 10, the distance of the road shape output from the travel path recognition unit 10 is shortened. It is possible to suppress the occurrence of a steering delay during traveling and the vehicle 2 from becoming unstable.

ところで、本実施形態では、線候補算出部22において、ペイント抽出部20にて撮像画像の中から抽出された白線等の線ペイントから、走行路の区画線の候補となる線候補を生成する際に、トレースエッジを利用することで、線候補の距離を延ばすようにしている。   By the way, in this embodiment, when the line candidate calculation part 22 produces | generates the line candidate used as the division | segmentation line candidate of a driving path from line paints, such as a white line extracted from the captured image in the paint extraction part 20. FIG. In addition, the distance of the line candidate is extended by using the trace edge.

しかし、線候補は、エッジ算出部12で抽出される撮像画像上のエッジ部に基づき生成され、トレースエッジも、そのエッジ部に基づき生成されることから、エッジ算出部12において、線候補の距離を延ばすには、エッジ部を正確に検出できるようにするとよい。   However, since the line candidate is generated based on the edge part on the captured image extracted by the edge calculating unit 12, and the trace edge is also generated based on the edge part, the edge calculating unit 12 determines the distance between the line candidates. In order to extend the length, it is preferable that the edge portion can be accurately detected.

つまり、撮像画像において、車両2から遠くに位置する遠方領域では、白線等の線ペイントは不鮮明となり易く、また、天候、走行路周囲の建造物の有無、トンネルの出入り口、線ペイントのかすれ、といった、走行路の環境によっても線ペイントは変化する。   That is, in the captured image, in a distant area located far from the vehicle 2, line paint such as a white line is likely to be unclear, and the weather, the presence or absence of a building around the traveling road, the entrance of the tunnel, the blur of the line paint, etc. The line paint also changes depending on the environment of the road.

例えば、図10Aに示すように、遠方の道路上に影を発生させる橋等の建造物が存在する場合には、建造物の影によって、撮像画像の一部が暗くなり、その暗領域では、画素パラメータである輝度が低下する。   For example, as shown in FIG. 10A, when there is a building such as a bridge that generates a shadow on a distant road, a part of the captured image becomes dark due to the shadow of the building, and in the dark region, The brightness, which is a pixel parameter, decreases.

そして、図10Aに示す暗領域のように、遠方領域で輝度変化が小さくなって、輝度変化から白線部分のエッジを検出できなくなると、区画線認識部14にて認識し得る線候補の距離が短くなってしまう。   Then, as in the dark area shown in FIG. 10A, when the luminance change becomes small in the far region and the edge of the white line portion cannot be detected from the luminance change, the distance between the line candidates that can be recognized by the lane marking recognition unit 14 is It will be shorter.

そこで、本実施形態では、エッジ算出部12の一機能として、図11に示す基準値更新処理を実行することで、区画線認識部14から出力される区画線の距離が短い場合に、撮像画像の輝度変化からエッジ部を検出するのに用いる基準値を補正するようにしている。   Therefore, in the present embodiment, as one function of the edge calculation unit 12, the reference value update process shown in FIG. 11 is executed, so that the captured image is obtained when the distance between the lane markings output from the lane marking recognition unit 14 is short. The reference value used for detecting the edge portion from the luminance change is corrected.

すなわち、基準値更新処理においては、まずS410にて、区画線認識部14から道路形状推定部16に出力される左右の区画線の情報を取得し、左右の区画線の認識距離を算出する。   That is, in the reference value update processing, first, in S410, information on the left and right lane lines output from the lane line recognition unit 14 to the road shape estimation unit 16 is acquired, and the recognition distance between the left and right lane lines is calculated.

次に、S420では、左右の区画線の認識距離の少なくとも一方は、予め設定された閾値以下であるか否かを判断し、認識距離が閾値以下であれば、S430に移行して、エッジ抽出用の基準値を、エッジ点を検出し易い値に変更する。   Next, in S420, it is determined whether at least one of the recognition distances of the left and right lane markings is equal to or less than a preset threshold value. If the recognition distance is equal to or less than the threshold value, the process proceeds to S430 and edge extraction is performed. The reference value is changed to a value at which the edge point can be easily detected.

そして、S430にて、基準値を変更するか、或いは、S420にて、左右の区画線の認識距離は共に基準値よりも大きいと判断された場合には、当該基準値更新処理を終了する。   Then, in S430, the reference value is changed, or when it is determined in S420 that the recognition distances of the left and right lane markings are both larger than the reference value, the reference value update process is ended.

なお、更新後の基準値は、走行制御装置の動作が停止されるまで保持されるが、例えば、車両2のイグニッションスイッチがオンされ、走行制御装置が起動されると、初期値に設定される。   The updated reference value is held until the operation of the travel control device is stopped. For example, when the ignition switch of the vehicle 2 is turned on and the travel control device is started, the reference value is set to the initial value. .

この結果、エッジ算出部12においては、図10Bに示すように、区画線の認識距離が短い場合に、撮像画像上で輝度変化が生じた画素をエッジ点として検出するのに用いられる閾値が、初期値である基準閾値から、基準閾値よりも小さい値に補正されることになる。   As a result, in the edge calculation unit 12, as shown in FIG. 10B, when the recognition distance of the lane marking is short, a threshold value used for detecting a pixel having a luminance change on the captured image as an edge point is The reference threshold value which is the initial value is corrected to a value smaller than the reference threshold value.

従って、本実施形態のエッジ算出部12においては、車両2の周囲環境によって、区画線の認識距離が短くなった場合に、撮像画像の輝度変化からエッジ点を検出する際の検出感度を調整して、区画線の認識距離を長くすることができる。   Therefore, the edge calculation unit 12 of the present embodiment adjusts the detection sensitivity when detecting the edge point from the luminance change of the captured image when the lane marking recognition distance is shortened due to the surrounding environment of the vehicle 2. Thus, the recognition distance of the lane marking can be increased.

よって、本実施形態によれば、エッジ算出部12における基準値の更新動作によっても、区画線の認識距離を長くし、制御部8がレーンキープ制御を実行する際に、走行路認識部10から出力される道路形状の距離が短くなって、操舵遅れが生じるのを抑制できる。   Therefore, according to the present embodiment, even when the reference value update operation in the edge calculation unit 12 is performed, the lane line recognition distance is increased, and the control unit 8 executes the lane keeping control. The distance of the road shape to be output is shortened, and the occurrence of a steering delay can be suppressed.

以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
例えば、上記実施形態では、図2に示すように、トレースエッジ部26は、線候補算出部22にて線候補として接続される最終の線ペイントから線状に伸びるエッジ点を、トレースエッジとして探索するものとして説明した。
As mentioned above, although the form for implementing this invention was demonstrated, this invention is not limited to the above-mentioned embodiment, It can implement in various deformation | transformation.
For example, in the above embodiment, as shown in FIG. 2, the trace edge unit 26 searches the line candidate calculation unit 22 for an edge point extending linearly from the last line paint connected as a line candidate as a trace edge. Explained as what to do.

しかし、線候補算出部22では、線候補選択部24にて区画線として選択されない線候補についても生成されることから、線候補算出部22にて複数の線候補が生成されると、トレースエッジ部26では、各線候補に対しトレースエッジを生成することになる。   However, since the line candidate calculation unit 22 also generates line candidates that are not selected as lane markings by the line candidate selection unit 24, when a plurality of line candidates are generated by the line candidate calculation unit 22, the trace edge The unit 26 generates a trace edge for each line candidate.

そこで、図2に点線矢印で示すように、トレースエッジ部26には、線候補選択部24にて区画線として選択された左右の線候補を入力し、各区画線から線状に延びるエッジ点だけをトレースエッジとして探索するようにしてもよい。   Therefore, as indicated by a dotted arrow in FIG. 2, the left and right line candidates selected as the division lines by the line candidate selection unit 24 are input to the trace edge unit 26, and the edge points extending linearly from each division line Only a trace edge may be searched for.

このようにすれば、走行路認識部10において、トレースエッジ部26としての機能を実現するためにCPUにて実行される処理負荷を軽減することができるようになる。
また、上記実施形態では、エッジ算出部12にて撮像画像からエッジ部を抽出する際には、画素パラメータとして輝度を利用し、輝度変化からエッジ部を検出するものとして説明した。しかし、エッジ部を抽出するのに用いる画素パラメータは、路面に描画された白線等、線ペイントによって変化する画素値であればよく、必ずしも輝度を利用する必要はない。
If it does in this way, in runway recognition part 10, it will become possible to reduce processing load performed by CPU in order to realize a function as trace edge part 26.
In the above-described embodiment, when the edge calculation unit 12 extracts an edge from a captured image, the luminance is used as a pixel parameter, and the edge is detected from the luminance change. However, the pixel parameter used for extracting the edge portion may be a pixel value that changes due to line paint, such as a white line drawn on the road surface, and it is not always necessary to use luminance.

また、上記実施形態では、走行路認識装置としての走行路認識部10は、マイコンにて構成されており、図2に示す機能は、CPUがROMに記憶された制御プログラムを実行することで、実現されるものとして説明した。   Moreover, in the said embodiment, the traveling path recognition part 10 as a traveling path recognition apparatus is comprised with the microcomputer, and the function shown in FIG. 2 is that CPU performs the control program memorize | stored in ROM, It was described as being realized.

しかし、例えば、トレースエッジ部26等、CPUの処理負荷が高くなる一部の機能については、ASIC等の専用回路にて構成してもよいし、全ての機能を、ASIC等の専用回路にて構成してもよい。   However, for example, some functions that increase the processing load on the CPU, such as the trace edge section 26, may be configured by a dedicated circuit such as an ASIC, or all functions may be configured by a dedicated circuit such as an ASIC It may be configured.

また、上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   In addition, a plurality of functions that one constituent element in the above-described embodiment has may be realized by a plurality of constituent elements, or a single function that one constituent element has may be realized by a plurality of constituent elements. Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

2…車両、4…車載カメラ、6…センサ部、8…制御部、10…走行路認識部、12…エッジ算出部、14…区画線認識部、16…道路形状推定部、20…ペイント抽出部、22…線候補算出部、24…線候補選択部、26…トレースエッジ部。   DESCRIPTION OF SYMBOLS 2 ... Vehicle, 4 ... Car-mounted camera, 6 ... Sensor part, 8 ... Control part, 10 ... Running road recognition part, 12 ... Edge calculation part, 14 ... Track line recognition part, 16 ... Road shape estimation part, 20 ... Paint extraction Part, 22 ... line candidate calculation part, 24 ... line candidate selection part, 26 ... trace edge part.

Claims (12)

車両周囲の画像を撮像する撮像部(4)、及び、車両の走行状態を検出するセンサ部(6)、を備えた車両(2)に搭載され、前記車両の走行時に、前記撮像部及び前記センサ部から得られた情報を用いて、車両の走行路の形状を認識する車両の走行路認識装置(10)であって、
前記撮像部にて撮像された画像に基づき、該画像上で所定の画素パラメータが所定の基準値以上変化するエッジ点の座標を算出するよう構成されたエッジ算出部(12)と、
前記エッジ算出部の算出結果に基づき、前記走行路の左右の区画線を認識するよう構成された区画線認識部(14)と、
を備え、前記エッジ算出部は、前記区画線認識部にて認識された前記区画線の認識距離が短い場合に、該認識距離が長くなるよう、前記エッジ点の座標を算出するのに用いる前記基準値を変化させるように構成されている、車両の走行路認識装置。
It is mounted on a vehicle (2) that includes an imaging unit (4) that captures an image around the vehicle and a sensor unit (6) that detects a traveling state of the vehicle. A vehicle travel path recognition device (10) for recognizing the shape of a travel path of a vehicle using information obtained from a sensor unit,
An edge calculation unit (12) configured to calculate coordinates of an edge point on the image where a predetermined pixel parameter changes by a predetermined reference value or more based on an image captured by the imaging unit;
A lane marking recognition unit (14) configured to recognize the lane markings on the left and right of the travel path based on the calculation result of the edge calculation unit;
The edge calculation unit is used to calculate the coordinates of the edge point so that the recognition distance becomes long when the recognition distance of the lane marking recognized by the lane marking recognition unit is short. A travel path recognition apparatus for a vehicle configured to change a reference value.
車両周囲の画像を撮像する撮像部(4)、及び、車両の走行状態を検出するセンサ部(6)、を備えた車両(2)に搭載され、前記車両の走行時に、前記撮像部及び前記センサ部から得られた情報を用いて、車両の走行路の形状を認識する車両の走行路認識装置(10)であって、
前記撮像部にて撮像された画像に基づき、該画像上で所定の画素パラメータが閾値以上変化するエッジ点の座標を算出するよう構成されたエッジ算出部(12)と、
前記エッジ算出部の算出結果に基づき、前記走行路の左右の区画線を認識するよう構成された区画線認識部(14)と、
を備え、
前記区画線認識部は、
前記エッジ算出部の算出結果に基づき、前記走行路の区画線として路面に描画された線ペイントを抽出するよう構成されたペイント抽出部(20)と、
前記ペイント抽出部にて抽出された前記線ペイントと前記センサ部にて検出された前記走行状態とに基づき、前記区画線の候補となる線候補を算出するよう構成された線候補算出部(22)と、
前記エッジ算出部にて算出された前記エッジ点の座標に基づき、前記線候補算出部にて算出された前記線候補の延伸方向に存在するエッジ点を探索するよう構成されたトレースエッジ部(26)と、
を備え、前記線候補算出部は、前記トレースエッジ部による前記エッジ点の探索結果に基づき、前記線候補の延伸方向に存在する前記エッジ点を前記線候補のエッジ点として登録するよう構成されている、車両の走行路認識装置。
It is mounted on a vehicle (2) that includes an imaging unit (4) that captures an image around the vehicle and a sensor unit (6) that detects a traveling state of the vehicle. A vehicle travel path recognition device (10) for recognizing the shape of a travel path of a vehicle using information obtained from a sensor unit,
An edge calculation unit (12) configured to calculate the coordinates of an edge point on the image where a predetermined pixel parameter changes by a threshold value or more based on the image captured by the imaging unit;
A lane marking recognition unit (14) configured to recognize the lane markings on the left and right of the travel path based on the calculation result of the edge calculation unit;
With
The lane marking recognition unit
A paint extraction unit (20) configured to extract line paint drawn on a road surface as a lane marking of the travel path based on a calculation result of the edge calculation unit;
Based on the line paint extracted by the paint extraction unit and the running state detected by the sensor unit, a line candidate calculation unit (22) configured to calculate line candidates that are candidates for the lane markings (22) )When,
Based on the coordinates of the edge point calculated by the edge calculation unit, a trace edge unit (26) configured to search for an edge point existing in the extending direction of the line candidate calculated by the line candidate calculation unit (26) )When,
And the line candidate calculation unit is configured to register the edge point existing in the extending direction of the line candidate as an edge point of the line candidate based on a search result of the edge point by the trace edge unit. A vehicle travel path recognition device.
前記エッジ算出部は、前記区画線認識部にて認識された前記区画線の認識距離が短い場合に、該認識距離が長くなるよう、前記エッジ点の座標を算出するのに用いる前記基準値を変化させるように構成されている、請求項2に記載の車両の走行路認識装置。   The edge calculation unit uses the reference value used to calculate the coordinates of the edge point so that the recognition distance becomes long when the recognition distance of the lane marking recognized by the lane marking recognition unit is short. The vehicle travel path recognition apparatus according to claim 2, wherein the travel path recognition apparatus is configured to be changed. 前記線候補算出部は、
前記トレースエッジ部による前記エッジ点の探索結果と前記ペイント抽出部にて抽出された線ペイントとに基づき、前記トレースエッジ部にて探索されたエッジ点にて接続可能な線ペイントが存在するか否かを判断し、接続可能な線ペイントが存在する場合に、前記トレースエッジ部にて探索された前記エッジ点を前記線候補のエッジ点として登録するよう構成されている、請求項2又は請求項3に記載の車両の走行路認識装置。
The line candidate calculation unit
Based on the search result of the edge point by the trace edge part and the line paint extracted by the paint extraction part, whether or not there is line paint connectable at the edge point searched by the trace edge part When the line paint which can be connected exists, it is comprised so that the said edge point searched in the said trace edge part may be registered as an edge point of the said line candidate. 4. A travel path recognition device for a vehicle according to 3.
前記トレースエッジ部は、
前記エッジ算出部にて前記画素パラメータが増加方向に変化したと判定された前記エッジ点及び前記画素パラメータが減少方向に変化したと判定された前記エッジ点をそれぞれ一つの線として探索するように構成されている、請求項2〜請求項4の何れか1項に記載の車両の走行路認識装置。
The trace edge portion is
The edge calculation unit is configured to search each of the edge point determined to have changed in the increasing direction and the edge point determined to have changed in the decreasing direction as one line. The travel path recognition device for a vehicle according to any one of claims 2 to 4, wherein
前記トレースエッジ部は、
前記エッジ算出部にて算出された前記エッジ点のうち、前記画素パラメータ若しくは前記画素パラメータの変化が一定範囲内にあるエッジ点を一つの線として探索するように構成されている、請求項2〜請求項5の何れか1項に記載の車両の走行路認識装置。
The trace edge portion is
The edge point calculated by the edge calculation unit is configured to search for an edge point in which the pixel parameter or a change in the pixel parameter is within a certain range as one line. The vehicle travel path recognition apparatus according to claim 5.
前記線候補算出部は、
前記線候補を算出するのに用いた前記線ペイントの内、前記車両から最も離れた第1線ペイントよりも1つ手前の第2線ペイントから、該第2線ペイントの形状に沿って延伸させた延伸線を求め、該延伸線に対する前記第1線ペイントの位置ずれ量が所定値以上である場合に、前記第1線ペイントを前記線候補から除外するように構成された線候補除外部(22,S150)、
を備えている請求項2〜請求項6の何れか1項に記載の車両の走行路認識装置。
The line candidate calculation unit
Among the line paints used to calculate the line candidates, the line paint is extended along the shape of the second line paint from the second line paint immediately before the first line paint farthest from the vehicle. A line candidate exclusion unit configured to exclude the first line paint from the line candidates when the amount of displacement of the first line paint with respect to the stretched line is equal to or greater than a predetermined value. 22, S150),
The travel path recognition device for a vehicle according to any one of claims 2 to 6, further comprising:
前記線候補算出部は、
前記線候補を構成する複数の線ペイントから車両進行方向の道路形状を推定し、該推定した道路形状と、前記ペイント抽出部にて抽出された前記線ペイントのうち前記線候補として接続されていない未接続線ペイントとの位置ずれ量を求め、該位置ずれ量が所定値未満の未接続線ペイントを、前記線候補として接続するように構成された再接続判定部(22,S160)、
を備えている請求項2〜請求項7の何れか1項に記載の車両の走行路認識装置。
The line candidate calculation unit
The road shape in the vehicle traveling direction is estimated from a plurality of line paints constituting the line candidate, and the estimated road shape and the line paint extracted by the paint extraction unit are not connected as the line candidates. A reconnection determination unit (22, S160) configured to obtain a positional deviation amount with respect to the unconnected line paint and connect an unconnected line paint having the positional deviation amount less than a predetermined value as the line candidate;
The travel path recognition device for a vehicle according to any one of claims 2 to 7, further comprising:
前記区画線認識部において、前記線候補算出部にて前記区画線の候補として複数の線候補が算出されている場合に、前記撮像部及び前記センサ部からの情報に基づき、前記複数の線候補の中から前記区画線となる線候補を選択するよう構成された線候補選択部(24)と、
前記線候補算出部にて算出され、前記線候補選択部にて選択された、前記区画線の線候補に基づき、前記走行路の道路形状を推定するよう構成された道路形状推定部(16)と、
を備えている、請求項2〜8の何れか1項に記載の車両の走行路認識装置。
In the lane marking recognition unit, when a plurality of line candidates are calculated as the lane marking candidates in the line candidate calculation unit, the plurality of line candidates based on information from the imaging unit and the sensor unit A line candidate selection unit (24) configured to select a line candidate to be the division line from
A road shape estimation unit (16) configured to estimate the road shape of the traveling road based on the line candidates of the lane markings calculated by the line candidate calculation unit and selected by the line candidate selection unit When,
The travel path recognition device for a vehicle according to any one of claims 2 to 8, comprising:
前記トレースエッジ部は、前記線候補選択部にて前記区画線として選択された前記線候補の延伸方向に存在するエッジ点を探索するよう構成されている、請求項9に記載の車両の走行路認識装置。   The travel path of a vehicle according to claim 9, wherein the trace edge portion is configured to search for an edge point existing in an extending direction of the line candidate selected as the lane marking by the line candidate selection unit. Recognition device. 車両周囲の画像を撮像するよう構成された撮像部(4)と、
車両の走行状態を検出するよう構成されたセンサ部(6)と、
前記撮像部及び前記センサ部から得られた情報を用いて、車両の走行路の形状を認識するよう構成された走行路認識部(10)と、
前記走行路認識部から得られる情報に基づき、前記車両の走行状態を制御するよう構成された制御部(8)と、
を備え、前記走行路認識部は、請求項1〜請求項10の何れか1項に記載の走行路認識装置にて構成されている、車両の走行制御装置。
An imaging unit (4) configured to capture an image around the vehicle;
A sensor unit (6) configured to detect a running state of the vehicle;
A travel path recognition unit (10) configured to recognize the shape of the travel path of the vehicle using information obtained from the imaging unit and the sensor unit;
A control unit (8) configured to control a traveling state of the vehicle based on information obtained from the traveling path recognition unit;
The travel path recognition unit is configured by the travel path recognition device according to any one of claims 1 to 10.
前記制御部は、前記走行路認識部にて認識された前記走行路の形状に基づき、車両の操舵量を制御するよう構成されている、請求項11に記載の車両の走行制御装置。   The vehicle travel control device according to claim 11, wherein the control unit is configured to control a steering amount of the vehicle based on a shape of the travel path recognized by the travel path recognition unit.
JP2018077616A 2018-04-13 2018-04-13 Vehicle travel path recognition device and travel control device Active JP7068017B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018077616A JP7068017B2 (en) 2018-04-13 2018-04-13 Vehicle travel path recognition device and travel control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018077616A JP7068017B2 (en) 2018-04-13 2018-04-13 Vehicle travel path recognition device and travel control device

Publications (2)

Publication Number Publication Date
JP2019185535A true JP2019185535A (en) 2019-10-24
JP7068017B2 JP7068017B2 (en) 2022-05-16

Family

ID=68341432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018077616A Active JP7068017B2 (en) 2018-04-13 2018-04-13 Vehicle travel path recognition device and travel control device

Country Status (1)

Country Link
JP (1) JP7068017B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111309023A (en) * 2020-03-03 2020-06-19 西安交通大学 Lane keeping control system and method based on all-round vision image and machine vision
CN114550415A (en) * 2022-01-28 2022-05-27 交通运输部公路科学研究所 Vehicle-road-cooperation-based large-scale vehicle lane-level accurate control method and system
CN115253356A (en) * 2021-04-30 2022-11-01 合肥福彻工业科技有限公司 Distillation tower control system and method based on edge calculation technology and distillation tower system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257449A (en) * 2006-03-24 2007-10-04 Toyota Motor Corp Road division line detector
JP2014123301A (en) * 2012-12-21 2014-07-03 Toyota Motor Corp White line detection device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007257449A (en) * 2006-03-24 2007-10-04 Toyota Motor Corp Road division line detector
JP2014123301A (en) * 2012-12-21 2014-07-03 Toyota Motor Corp White line detection device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111309023A (en) * 2020-03-03 2020-06-19 西安交通大学 Lane keeping control system and method based on all-round vision image and machine vision
CN115253356A (en) * 2021-04-30 2022-11-01 合肥福彻工业科技有限公司 Distillation tower control system and method based on edge calculation technology and distillation tower system
CN115253356B (en) * 2021-04-30 2023-12-22 合肥福彻工业科技有限公司 Distillation column control system and method based on edge calculation technology and distillation column system
CN114550415A (en) * 2022-01-28 2022-05-27 交通运输部公路科学研究所 Vehicle-road-cooperation-based large-scale vehicle lane-level accurate control method and system
CN114550415B (en) * 2022-01-28 2022-09-06 交通运输部公路科学研究所 Large vehicle lane-level accurate management and control method and system based on vehicle-road cooperation

Also Published As

Publication number Publication date
JP7068017B2 (en) 2022-05-16

Similar Documents

Publication Publication Date Title
JP5276637B2 (en) Lane estimation device
JP4697101B2 (en) Vehicle detection device and light control device
JP6220327B2 (en) Traveling lane marking recognition device, traveling lane marking recognition program
US9690996B2 (en) On-vehicle image processor
EP2422320B1 (en) Object detection device
US9690994B2 (en) Lane recognition device
US10870450B2 (en) Vehicle control apparatus
JP6538547B2 (en) Road curvature measurement device
JP6096723B2 (en) Traveling lane marking recognition device and traveling lane marking recognition program
CN109982909B (en) Vehicle control device
WO2007077682A1 (en) Vehicle and lane mark detection device
JP4744537B2 (en) Driving lane detector
JP7068017B2 (en) Vehicle travel path recognition device and travel control device
US11021149B2 (en) Driving support apparatus
JP2015166903A (en) Branch road recognition apparatus
JP6189816B2 (en) Traveling line recognition device
JP2016018521A (en) Travel zone line recognition device and program
JP5107154B2 (en) Motion estimation device
JP2010061375A (en) Apparatus and program for recognizing object
US10906540B2 (en) Vehicle control apparatus
JP2019087134A (en) Driving support system
JP2015217737A (en) Drive support apparatus
JP6200780B2 (en) Lane recognition determination device
JP6132807B2 (en) Lane mark recognition device
WO2018074330A1 (en) Vehicle control device and vehicle control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210119

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220405

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220428

R150 Certificate of patent or registration of utility model

Ref document number: 7068017

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150