JP2020135091A - Recognition device and recognition method - Google Patents

Recognition device and recognition method Download PDF

Info

Publication number
JP2020135091A
JP2020135091A JP2019024266A JP2019024266A JP2020135091A JP 2020135091 A JP2020135091 A JP 2020135091A JP 2019024266 A JP2019024266 A JP 2019024266A JP 2019024266 A JP2019024266 A JP 2019024266A JP 2020135091 A JP2020135091 A JP 2020135091A
Authority
JP
Japan
Prior art keywords
lane marking
pair
vehicle
lane
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019024266A
Other languages
Japanese (ja)
Other versions
JP7252001B2 (en
Inventor
泰樹 河野
Yasuki Kono
泰樹 河野
俊輔 鈴木
Shunsuke Suzuki
俊輔 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2019024266A priority Critical patent/JP7252001B2/en
Publication of JP2020135091A publication Critical patent/JP2020135091A/en
Application granted granted Critical
Publication of JP7252001B2 publication Critical patent/JP7252001B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To improve recognition accuracy of a traveling compartment line.SOLUTION: Recognition devices 105, 105a for recognizing a traveling compartment line pair that partition a traveling lane LN1 of vehicles 10, 10a includes: a candidate extraction unit 111 for extracting a plurality of compartment line candidates using an image; a selection execution unit 112 for calculating a reliability degree of the traveling compartment line pair candidate by using lane widths W1, W2 of the traveling compartment line pair candidate consisting of a pair of lane compartment candidates and a learned lane width Ws to select the traveling compartment line pair candidate satisfying first conditions including the reliability degree satisfying a criterion; a learning unit 114 for learning the lane width of the selected traveling compartment line pair; and a scene determination unit 113 for determining whether or not a scene appearing in an image is a first scene that is a connection end point A1 of the traveling lane and a branch lane LN2. The learning unit decreases a degree of reflection of the lane width of the traveling compartment line to learning results relative to a case where the scene is not the first scene when the scene is determined to be the first scene.SELECTED DRAWING: Figure 1

Description

本開示は、車両の走行区画線ペアを認識する認識装置及び認識方法に関する。 The present disclosure relates to a recognition device and a recognition method for recognizing a vehicle lane marking pair.

車載カメラによる撮像画像を用いて、自車両の走行車線の区画線を認識する技術が知られている。特許文献1には、撮像画像から抽出された区画線候補が自車両の走行区画線である確信度を算出し、確信度に基づいて区画線候補から走行区画線を選択する装置が記載されている。確信度は、選択された区画線候補の車線幅を学習して得られた学習値を用いて算出される。 There is known a technique for recognizing a lane marking of a own vehicle by using an image captured by an in-vehicle camera. Patent Document 1 describes a device that calculates the certainty that the lane marking candidate extracted from the captured image is the traveling lane marking of the own vehicle and selects the traveling lane marking from the lane marking candidates based on the certainty. There is. The certainty is calculated using the learning value obtained by learning the lane width of the selected lane marking candidate.

特開2016−162323号公報Japanese Unexamined Patent Publication No. 2016-162323

特許文献1の技術では、車線幅を学習して得られた車線幅を表す学習値を、車線の直線部から曲線部への移行が判定された場合に広げ、曲線部から直線部への移行が判定された場合に狭めることで、直線部が曲線部よりも車線幅が狭いことによる、走行区画線の誤認識を抑制している。しかしながら、特許文献1では、車両の進行方向において車線が分岐する場合における走行区画線の認識については考慮されていなかった。発明者らは、車両の走行車線と分岐車線との接続終了地点近辺において、路面にペイントされる区画線が不連続になる場合があること、及び、区画線の認識精度が低下するおそれがあることを見出した。 In the technique of Patent Document 1, the learning value representing the lane width obtained by learning the lane width is expanded when the transition from the straight portion to the curved portion of the lane is determined, and the transition from the curved portion to the straight portion is performed. By narrowing the lane when it is determined, the lane width of the straight portion is narrower than that of the curved portion, so that erroneous recognition of the traveling lane marking is suppressed. However, in Patent Document 1, the recognition of the traveling lane marking when the lane branches in the traveling direction of the vehicle is not considered. The inventors may discontinue the marking lines painted on the road surface near the connection end point between the traveling lane and the branch lane of the vehicle, and the recognition accuracy of the marking lines may decrease. I found that.

本開示は、以下の形態として実現することが可能である。 The present disclosure can be realized in the following forms.

本開示の第1の形態によれば、車両(10、10a)の走行車線(LN1)を区画する走行区画線ペアを認識する認識装置(105、105a)が提供される。この認識装置は、前記車両に搭載されたカメラ(130)により撮影された画像を用いて、区画線候補(LC1〜LC5、LC11〜LC16)を複数抽出する候補抽出部(111)と、前記車両の前方であって前記車両の車幅方向に並ぶ一対の前記区画線候補を前記走行区画線ペアの候補である走行区画線ペア候補として抽出し、前記走行区画線ペア候補の車線幅と、過去に認識された前記走行区画線ペアの車線幅により学習された学習車線幅(Ws)と、を用いて、前記走行区画線ペア候補が前記走行区画線ペアであることの信頼度を算出し、前記信頼度が予め定められた基準を満たすことを含む第1条件を満たす前記走行区画線ペア候補を、前記走行区画線ペアとして選択する選択実行部(112)と、前記選択実行部により選択された前記走行区画線ペアの車線幅を学習することにより前記学習車線幅を算出する学習部(114)と、前記カメラにより撮影された画像に表れるシーンが、前記車両の走行車線(LN1)と分岐車線(LN2)との接続終了地点(A1)である第1シーンであるか否かを判定するシーン判定部(113)と、を備え、前記学習部は、前記第1シーンである場合には、前記第1シーンでない場合に比べて前記走行区画線ペアの車線幅の学習結果への反映の程度を低下させる。 According to the first aspect of the present disclosure, there is provided a recognition device (105, 105a) that recognizes a traveling lane marking pair that partitions a traveling lane (LN1) of a vehicle (10, 10a). This recognition device includes a candidate extraction unit (111) that extracts a plurality of lane marking candidates (LC1 to LC5, LC11 to LC16) using an image taken by a camera (130) mounted on the vehicle, and the vehicle. A pair of the lane marking candidates that are in front of the vehicle and lined up in the vehicle width direction are extracted as lane marking pair candidates that are candidates for the traveling lane marking pair, and the lane width of the traveling lane marking pair candidate and the past Using the learning lane width (Ws) learned from the lane width of the lane marking pair recognized in the above, the reliability that the lane marking pair candidate is the lane marking pair is calculated. The selection execution unit (112) that selects the traveling lane line pair candidate that satisfies the first condition including the reliability satisfying a predetermined criterion as the traveling lane line pair is selected by the selection execution unit. The learning unit (114) that calculates the learning lane width by learning the lane width of the traveling lane pair and the scene that appears in the image taken by the camera are branched from the traveling lane (LN1) of the vehicle. The learning unit includes a scene determination unit (113) for determining whether or not the first scene is the connection end point (A1) with the lane (LN2), and the learning unit is the first scene. , The degree of reflection of the lane width of the traveling lane pair in the learning result is reduced as compared with the case where it is not the first scene.

この形態によれば、走行車線と分岐車線との接続終了地点において、区画線が車幅方向に広がったり、不連続になったりする場合があっても、車線幅が誤学習されることを抑制することができる。そのため、適切な学習車線幅を用いて走行区画線ペアが選択されるので、走行区画線ペアの認識精度を向上させることができる。 According to this form, even if the lane markings may widen or become discontinuous at the end point of the connection between the traveling lane and the branch lane, the lane width is prevented from being erroneously learned. can do. Therefore, since the traveling lane marking pair is selected using an appropriate learning lane width, the recognition accuracy of the traveling lane marking pair can be improved.

本開示の第2の形態によれば、車両(10、10a)の走行車線(LN1)を区画する走行区画線ペアを認識する認識装置(105、105a)が提供される。この認識装置は、前記車両に搭載されたカメラ(130)により撮影された画像を用いて、区画線候補(LC1〜LC5、LC11〜LC16)を複数抽出する候補抽出部(111)と、前記車両の前方であって前記車両の車幅方向に並ぶ一対の前記区画線候補を前記走行区画線ペアの候補である走行区画線ペア候補として抽出し、前記走行区画線ペア候補の車線幅と、過去に認識された前記走行区画線ペアの車線幅により学習された学習車線幅(Ws)と、を用いて、前記走行区画線ペア候補が前記走行区画線ペアであることの信頼度を算出し、前記信頼度が予め定められた基準を満たすことを含む第1条件を満たす前記走行区画線ペア候補を、前記走行区画線ペアとして選択する選択実行部(112)と、前記選択実行部により選択された前記走行区画線ペアの車線幅を学習することにより前記学習車線幅を算出する学習部(114)と、前記カメラにより撮影された画像に表れるシーンが、前記車両の走行車線と分岐車線(LN2)との接続終了地点(A1)である第1シーンであるか否かを判定するシーン判定部(113)と、を備え、前記シーン判定部は、前記車両の前方であって前記車幅方向における一方側に、予め定められた第3条件を満たす前記区画線候補が抽出されている場合に、前記画像に表れるシーンが前記第1シーンであると判定し、前記第3条件は、前記車両の前方に向けて互いに離れる2本の前記区画線候補である第1ペア(LC3、LC4)が抽出されており、前記第1ペアよりも前方であって前記車幅方向における他方側に、前記第1ペアと離間した前記区画線候補である離間区画線候補(LC5)が更に抽出されていることを含み、前記選択実行部は、前記画像に表れるシーンが前記第1シーンであり、かつ、前記離間区画線候補が更に抽出されている場合には、前記離間区画線候補と、前記車両の前記車幅方向における他方側に抽出された前記区画線候補(LC1)と、を含む前記走行区画線ペア候補(LC1、LC5)についての前記基準を、他の前記走行区画線ペア候補の前記基準よりも緩和する。 According to the second aspect of the present disclosure, there is provided a recognition device (105, 105a) that recognizes a traveling lane marking pair that partitions a traveling lane (LN1) of a vehicle (10, 10a). This recognition device includes a candidate extraction unit (111) that extracts a plurality of lane marking candidates (LC1 to LC5, LC11 to LC16) using an image taken by a camera (130) mounted on the vehicle, and the vehicle. A pair of the lane marking candidates that are in front of the vehicle and lined up in the vehicle width direction are extracted as the traveling lane marking pair candidates that are candidates for the traveling lane marking pair, and the lane width of the traveling lane marking pair candidate and the past Using the learning lane width (Ws) learned from the lane width of the lane marking pair recognized in the above, the reliability that the lane marking pair candidate is the lane marking pair is calculated. The selection execution unit (112) that selects the traveling lane line pair candidate that satisfies the first condition including the reliability satisfying a predetermined criterion as the traveling lane line pair is selected by the selection execution unit. The learning unit (114) that calculates the learning lane width by learning the lane width of the traveling lane pair, and the scene that appears in the image taken by the camera are the traveling lane and the branch lane (LN2) of the vehicle. A scene determination unit (113) for determining whether or not the first scene is the connection end point (A1) with the vehicle, and the scene determination unit is in front of the vehicle and in the vehicle width direction. When the lane marking candidate satisfying a predetermined third condition is extracted on one side of the vehicle, it is determined that the scene appearing in the image is the first scene, and the third condition is the vehicle. Two first pairs (LC3, LC4), which are candidates for the lane markings, which are separated from each other toward the front of the vehicle, are extracted, and the first pair (LC3, LC4) is located in front of the first pair and on the other side in the vehicle width direction. The selection execution unit includes that the separated lane candidate (LC5), which is the separated lane candidate separated from the first pair, is further extracted, and the selection execution unit indicates that the scene appearing in the image is the first scene. When the separation lane line candidate is further extracted, the traveling section including the separation lane line candidate and the lane marking candidate (LC1) extracted on the other side in the vehicle width direction of the vehicle. The criteria for line pair candidates (LC1, LC5) are relaxed more than the criteria for other lane marking pair candidates.

この形態によれば、走行車線と分岐車線の接続終了地点において車線幅が広がった走行区画線ペアが認識されていても、車線幅が適切な走行区画線ペア候補が走行区画線ペアとして選択される可能性を高めることができる。そのため、車線幅が適切な走行区画線ペアが早期に認識される可能性を高めることができるので、認識装置における走行区画線ペアの認識精度を向上させることができる。 According to this form, even if a lane marking pair with a wide lane width is recognized at the connection end point between the lane and the branch lane, a lane marking pair candidate having an appropriate lane width is selected as the driving lane marking pair. It is possible to increase the possibility of Therefore, it is possible to increase the possibility that the traveling lane marking pair having an appropriate lane width is recognized at an early stage, and thus it is possible to improve the recognition accuracy of the traveling lane marking pair in the recognition device.

本開示は、認識装置以外の種々の形態で実現することも可能である。例えば、走行区画線ペアを認識する方法、かかる方法を実現するためのコンピュータプログラム、かかるコンピュータプログラムを記憶した記憶媒体等の形態で実現することができる。 The present disclosure can also be realized in various forms other than the recognition device. For example, it can be realized in the form of a method of recognizing a traveling lane marking pair, a computer program for realizing such a method, a storage medium for storing such a computer program, or the like.

認識装置を備える車両の概略構成図。Schematic diagram of a vehicle equipped with a recognition device. 走行区画線ペアの認識処理を示す工程図。The process chart which shows the recognition process of a traveling lane marking pair. 抽出される区画線候補のイメージ図。Image diagram of the extracted lane marking candidates. 第1シーンを説明するための図。The figure for demonstrating the first scene. 第1実施形態における車線幅学習の工程図。The process diagram of the lane width learning in the 1st Embodiment. 第1形状が表れない場合における第1シーン判定を説明するための図。The figure for demonstrating the 1st scene determination in the case where the 1st shape does not appear. 接続終了地点に表れる第1ペアと離間区画線候補とを示すイメージ図。An image diagram showing a first pair appearing at a connection end point and a candidate for a separation lane marking. 第3実施形態における車線幅学習の工程図。The process diagram of the lane width learning in the third embodiment. 接続終了地点において選択される走行区画線ペアを説明するための図。The figure for demonstrating the road marking pair selected at the connection end point. 第5実施形態における走行区画線ペア選択処理を説明するための図。The figure for demonstrating the traveling lane marking pair selection process in 5th Embodiment. 第5実施形態における走行区画線ペア選択処理を示す工程図。The process chart which shows the traveling lane marking pair selection process in 5th Embodiment. 第6実施形態における認識装置を備える車両の概略構成図。The schematic block diagram of the vehicle provided with the recognition device in 6th Embodiment. 区画線が認識されていることを報知するイメージ図。Image diagram to inform that the lane marking is recognized. 区画線が認識されていないことを報知するイメージ図。Image diagram to notify that the lane marking is not recognized.

A.第1実施形態
図1に示すように、本開示の一実施形態としての車両10は、自動運転制御システム100を備える。本実施形態において、自動運転制御システム100は、認識装置105と、カメラ130と、検出装置132と、運転制御部210と、駆動力制御ECU220(Electronic Control Unit)駆動力制御ECU220と、制動力制御ECU230と、操舵制御ECU240と、を備える。認識装置105と、運転制御部210と、駆動力制御ECU220と、制動力制御ECU230と、操舵制御ECU240とは、車載ネットワーク260を介して接続される。車両10を「自車両」とも呼ぶ。本実施形態において、自動運転制御システム100は、車両10の自動運転を実行する。車両10は、運転手が手動で運転してもよい。
A. First Embodiment As shown in FIG. 1, the vehicle 10 as one embodiment of the present disclosure includes an automatic driving control system 100. In the present embodiment, the automatic operation control system 100 includes a recognition device 105, a camera 130, a detection device 132, an operation control unit 210, a driving force control ECU 220 (Electronic Control Unit) driving force control ECU 220, and braking force control. It includes an ECU 230 and a steering control ECU 240. The recognition device 105, the operation control unit 210, the driving force control ECU 220, the braking force control ECU 230, and the steering control ECU 240 are connected via the vehicle-mounted network 260. The vehicle 10 is also called "own vehicle". In the present embodiment, the automatic driving control system 100 executes the automatic driving of the vehicle 10. The vehicle 10 may be manually driven by the driver.

車両10に搭載されるカメラ130は、予め設定された時間間隔で、車両10の少なくとも進行方向周辺の画像を、繰り返し撮影する。本実施形態では、カメラ130は、車両10の前方、側方及び後方に向けて設置され、前方、側方及び後方の撮像画像を取得する。側方とは、車両10の車幅方向である。後方とは、車両10の後方正面に加え、右後方及び左後方を含む。カメラ130として、単眼カメラが用いられてもよい。また、2以上のカメラによって構成されるステレオカメラやマルチカメラが用いられてもよい。カメラ130により撮影される画像には、車両10の進行方向の路面が含まれる。 The camera 130 mounted on the vehicle 10 repeatedly captures images of at least the periphery of the vehicle 10 in the traveling direction at preset time intervals. In the present embodiment, the camera 130 is installed toward the front, side, and rear of the vehicle 10 to acquire captured images of the front, side, and rear. The side is the width direction of the vehicle 10. The rear includes not only the rear front of the vehicle 10 but also the right rear and the left rear. A monocular camera may be used as the camera 130. Further, a stereo camera or a multi-camera composed of two or more cameras may be used. The image taken by the camera 130 includes the road surface in the traveling direction of the vehicle 10.

検出装置132は、車両10の周辺を監視するセンサ群、車両10の走行状態を監視するセンサ群や、V2X(Vehicle to Everything)を用いた情報通信装置を含む。車両10の周辺を監視するセンサ群として、例えば、ミリ波レーダー、LiDAR(Light Detection And Ranging又はLaser Imaging Detection And Ranging)、超音波センサ等の反射波を利用した物体センサが挙げられる。車両10の走行状態を監視するセンサ群として、例えば、車速センサ、加速度センサ、GNSS(Global Navigation Satellite System)センサ、ヨーレートセンサが挙げられる。車速センサは、車両10の速度を検出する。加速度センサは、車両10の加速度を検出する。ヨーレートセンサは、車両10の回転角速度を検出する。GNSSセンサは、例えば、GPS(Global Positioning System)センサにより構成され、GPSを構成する航法衛星から受信する電波に基づき、車両10の現在位置を検出する。V2Xを用いた情報通信装置は、高度道路交通システム(Intelligent Transport System)との無線通信と、他の車両との車間通信と、道路設備に設置された路側無線機との路車間通信とを実行することで、車両10の状況や周囲の状況に関する情報を、他車両等と交換することができる。検出装置132の有する各センサには、各センサの検出結果を処理するECU(Electronic Control Unit)が備えられている。検出装置132は、上記の種々の情報を検出可能である。検出装置132の検出結果は、車両10の運転制御に用いられる。 The detection device 132 includes a sensor group that monitors the periphery of the vehicle 10, a sensor group that monitors the running state of the vehicle 10, and an information communication device that uses V2X (Vehicle to Everything). Examples of the sensor group for monitoring the periphery of the vehicle 10 include an object sensor using a reflected wave such as a millimeter wave radar, LiDAR (Light Detection And Langing or Laser Imaging Detection And Ranking), and an ultrasonic sensor. Examples of the sensor group for monitoring the traveling state of the vehicle 10 include a vehicle speed sensor, an acceleration sensor, a GNSS (Global Navigation Satellite System) sensor, and a yaw rate sensor. The vehicle speed sensor detects the speed of the vehicle 10. The acceleration sensor detects the acceleration of the vehicle 10. The yaw rate sensor detects the rotational angular velocity of the vehicle 10. The GNSS sensor is composed of, for example, a GPS (Global Positioning System) sensor, and detects the current position of the vehicle 10 based on radio waves received from navigation satellites constituting the GPS. The information communication device using V2X executes wireless communication with an intelligent transport system (Intelligent Transport System), inter-vehicle communication with other vehicles, and road-to-vehicle communication with a roadside radio installed in road equipment. By doing so, information on the situation of the vehicle 10 and the surrounding situation can be exchanged with other vehicles and the like. Each sensor included in the detection device 132 is provided with an ECU (Electronic Control Unit) that processes the detection result of each sensor. The detection device 132 can detect the above-mentioned various information. The detection result of the detection device 132 is used for driving control of the vehicle 10.

認識装置105は、車両10の走行車線を区画する一対の区画線である、走行区画線ペアを認識する。認識装置105は、認識結果に基づいて車両10が走行する道路の形状を推定し、運転制御部210等へ出力可能な装置である。認識装置105は、候補抽出部111と、選択実行部112と、シーン判定部113と、学習部114とを備える。認識装置105は、CPU110とメモリ120と図示しないインターフェースとを備える1つ以上のコンピュータとして構成されている。CPU110は、メモリ120に記憶されたプログラムP1を展開して実行することにより、上記の各部の機能を実現する。ただし、これら各部の機能の一部又は全部はハードウェア回路で実現されてもよい。 The recognition device 105 recognizes a traveling lane marking pair, which is a pair of lane markings that partition the traveling lane of the vehicle 10. The recognition device 105 is a device that can estimate the shape of the road on which the vehicle 10 travels based on the recognition result and output it to the driving control unit 210 or the like. The recognition device 105 includes a candidate extraction unit 111, a selection execution unit 112, a scene determination unit 113, and a learning unit 114. The recognition device 105 is configured as one or more computers including a CPU 110, a memory 120, and an interface (not shown). The CPU 110 realizes the functions of the above-mentioned parts by expanding and executing the program P1 stored in the memory 120. However, some or all of the functions of these parts may be realized by a hardware circuit.

候補抽出部111は、カメラ130により撮影された画像を用いて、複数の区画ペイントを抽出する。区画ペイントとは、路面上に、例えば白色や黄色でペイントされた、区画線を構成するための図形である。候補抽出部111は、区画ペイントを接続して線分とし、当該線分を区画線候補として抽出する。区画線候補は、後述する走行区画線ペア候補を構成する。 The candidate extraction unit 111 extracts a plurality of compartment paints using the image taken by the camera 130. The division paint is a figure painted on the road surface, for example, in white or yellow, for forming a division line. The candidate extraction unit 111 connects the division paints to form a line segment, and extracts the line segment as a division line candidate. The lane marking candidate constitutes a traveling lane marking pair candidate described later.

選択実行部112は、候補抽出部111により抽出された複数の区画線候補から、複数の走行区画線ペア候補を抽出する。走行区画線ペア候補とは、車両10の進行方向の前方において車幅方向に並ぶ、一対の区画線候補である。走行区画線ペア候補は、車両10の車幅方向における、一方側の区画線候補と他方側の区画線候補とからなる。以下、走行区画線ペア候補を、単に、「ペア候補」とも呼ぶ。 The selection execution unit 112 extracts a plurality of traveling lane marking pair candidates from the plurality of lane marking candidates extracted by the candidate extraction unit 111. The traveling lane marking pair candidate is a pair of lane marking candidates arranged in the vehicle width direction in front of the vehicle 10 in the traveling direction. The traveling lane marking pair candidate includes a lane marking candidate on one side and a lane marking candidate on the other side in the vehicle width direction of the vehicle 10. Hereinafter, the traveling lane marking pair candidate is also simply referred to as a “pair candidate”.

選択実行部112は、ペア候補間の距離を、ペア候補の車線幅として算出する。選択実行部112は、ペア候補の車線幅と学習車線幅とを用いて、ペア候補が走行区画線ペアであることの信頼度を算出する。学習車線幅は、認識装置105により過去に認識された走行区画線ペアの車線幅の学習値である。ペア候補の車線幅と信頼度との関係は、ペア候補の車線幅が学習車線幅に近いほど信頼度が高くなるように、予め定められている。信頼度は、ペア候補の車線幅に加えて、ペア候補のコントラスト、長さ等を用いて算出されてもよい。 The selection execution unit 112 calculates the distance between the pair candidates as the lane width of the pair candidates. The selection execution unit 112 calculates the reliability that the pair candidate is a traveling lane marking pair by using the lane width of the pair candidate and the learning lane width. The learning lane width is a learning value of the lane width of the traveling lane pair that has been recognized in the past by the recognition device 105. The relationship between the lane width of the pair candidate and the reliability is predetermined so that the closer the lane width of the pair candidate is to the learning lane width, the higher the reliability. The reliability may be calculated by using the contrast, length, etc. of the pair candidate in addition to the lane width of the pair candidate.

選択実行部112は、複数のペア候補のうち、信頼度が予め定められた基準を満たすことを含む第1条件を満たすペア候補を、走行区画線ペアとして選択する。本実施形態では、予め定められた基準が満たされた場合に、第1条件が満たされる。予め定められた基準は、複数のペア候補のうち信頼度が最も高いペア候補であることを含む。現在認識されている走行区画線ペア(現在認識線とも呼ぶ)は、学習車線幅を用いて選択、認識されているため、現在認識線に連続するペア候補の車線幅は、学習車線幅に最も近く、信頼度が最も高いと考えられる。したがって、区画線が連続している箇所では、選択実行部112により、現在認識線に連続するペア候補が、走行区画線ペアとして選択され得る。本実施形態において、上記予め定められた基準は、ペア候補の信頼度が最も高い状態が、予め定められた第1期間以上継続していることを含む。なお、上記予め定められた基準は、ペア候補の信頼度が最も高い状態が、予め定められた第1期間に対応する、第1距離以上継続していることを含んでもよい。例えば、路面の汚れ等により、学習車線幅により近いペア候補が、一時的に抽出されることも考えられる。しかし、信頼度が最も高い状態が予め定められた第1期間以上継続していない場合には、学習車線幅により近いペア候補であっても、走行区画線ペアとして選択されない。本実施形態では、上記予め定められた基準を用いて走行区画線ペアが選択されるので、現在認識線と接続されない走行区画線ペアが、認識装置105により認識されることが抑制され得る。また、認識装置105により認識される走行区画線ペアの車線幅が、比較的短い期間で変更されることが抑制され得る。 The selection execution unit 112 selects a pair candidate that satisfies the first condition including the reliability satisfying a predetermined criterion from the plurality of pair candidates as the traveling lane marking pair. In the present embodiment, the first condition is satisfied when a predetermined standard is satisfied. The predetermined criteria include the pair candidate having the highest reliability among the plurality of pair candidates. Since the currently recognized lane marking pair (also called the currently recognized lane) is selected and recognized using the learning lane width, the lane width of the pair candidate continuously connected to the currently recognized lane is the most as the learning lane width. It is close and is considered to have the highest reliability. Therefore, in the place where the lane markings are continuous, the pair candidate currently continuous with the recognition line can be selected as the traveling lane marking pair by the selection execution unit 112. In the present embodiment, the predetermined criteria include that the state in which the reliability of the pair candidate is the highest continues for a predetermined first period or more. It should be noted that the predetermined criteria may include that the state in which the reliability of the pair candidate is the highest continues for the first distance or more corresponding to the predetermined first period. For example, it is conceivable that pair candidates closer to the learning lane width may be temporarily extracted due to dirt on the road surface or the like. However, if the state with the highest reliability is not continued for a predetermined first period or more, even a pair candidate closer to the learning lane width is not selected as a traveling lane marking pair. In the present embodiment, since the traveling lane marking pair is selected using the predetermined criteria, it is possible to prevent the recognition device 105 from recognizing the traveling lane marking pair that is not currently connected to the recognition line. Further, it is possible to prevent the lane width of the traveling lane marking pair recognized by the recognition device 105 from being changed in a relatively short period of time.

選択実行部112により選択されたペア候補は、CPU110により走行区画線ペアとして認識される。CPU110は、選択されたペア候補に、メモリ120に記憶された道路形状モデルやカルマンフィルタ等の公知のフィルタ等とを適用することで、車両10の走行中の道路形状を推定し、運転制御部210等へ出力する。 The pair candidate selected by the selection execution unit 112 is recognized as a traveling lane marking pair by the CPU 110. The CPU 110 estimates the running road shape of the vehicle 10 by applying a road shape model stored in the memory 120, a known filter such as a Kalman filter, or the like to the selected pair candidate, and the driving control unit 210. Output to etc.

シーン判定部113は、カメラ130により撮影された画像に表れるシーンが、第1シーンであるか否かを判定する。第1シーンについては後述する。 The scene determination unit 113 determines whether or not the scene appearing in the image captured by the camera 130 is the first scene. The first scene will be described later.

学習部114は、選択実行部112により選択されたペア候補、すなわち、認識の対象である走行区画線ペアの車線幅を学習して、学習車線幅を算出し、更新する。学習の初期における学習車線幅は、予めメモリ120に記憶された、一般的な走行車線の車線幅であってもよい。学習部114は、カメラ130により撮影された画像に表れるシーンが第1シーンである場合には、第1シーンでない場合に比べて、走行区画線ペアの車線幅の学習結果への反映の程度を、低下させる。 The learning unit 114 learns the lane width of the pair candidate selected by the selection execution unit 112, that is, the traveling lane marking pair to be recognized, calculates and updates the learning lane width. The learning lane width at the initial stage of learning may be the lane width of a general traveling lane stored in the memory 120 in advance. When the scene appearing in the image taken by the camera 130 is the first scene, the learning unit 114 reflects the degree of reflection of the lane width of the traveling lane pair in the learning result as compared with the case where it is not the first scene. , Decrease.

図2を用いて、認識装置105により実行される走行区画線ペアの認識処理について説明する。認識処理は、例えば、車両10の始動スイッチがオンされた場合に開始され、繰り返し実行される処理である。認識処理が開始されると、認識装置105は、カメラ130により撮影された画像を繰り返し取得する。 The recognition process of the traveling lane marking pair executed by the recognition device 105 will be described with reference to FIG. The recognition process is, for example, a process that is started when the start switch of the vehicle 10 is turned on and is repeatedly executed. When the recognition process is started, the recognition device 105 repeatedly acquires the image taken by the camera 130.

ステップS10では、候補抽出部111は、カメラ130により撮影された画像に所定の画像処理を行うことにより、複数の区画ペイントを抽出する。本実施形態では、候補抽出部111は、画像に公知のエッジ処理を行うことにより、画像における、輝度値が閾値以上上昇するアップエッジ点と輝度値が閾値以上下降するダウンエッジ点とを抽出する。候補抽出部111は、抽出したダウンエッジ点とアップエッジ点とを用い、複数の区画ペイントを抽出する。 In step S10, the candidate extraction unit 111 extracts a plurality of compartment paints by performing predetermined image processing on the image captured by the camera 130. In the present embodiment, the candidate extraction unit 111 extracts an up-edge point in the image in which the brightness value rises by a threshold value or more and a down-edge point in the image in which the brightness value falls by a threshold value or more by performing known edge processing on the image. .. The candidate extraction unit 111 extracts a plurality of section paints using the extracted down edge points and up edge points.

ステップS20では、候補抽出部111は、抽出した区画ペイントを接続し、区画線候補を抽出する。図3に示すように、ステップS20では、例えば、路面上の区画ペイント40、41から特定される区画線候補LC11、LC12、LC14、LC15や、路側物30から特定される区画線候補LC16や、路面の汚れCtから特定される区画線候補LC13が抽出される。以降では、車幅方向における車両10の右側を「一方側」とし、車幅方向における車両10の左側を「他方側」として、認識処理について説明する。 In step S20, the candidate extraction unit 111 connects the extracted section paints and extracts the section line candidates. As shown in FIG. 3, in step S20, for example, the lane marking candidates LC11, LC12, LC14, LC15 specified from the road markings 40 and 41 on the road surface, the lane marking candidate LC16 specified from the roadside object 30, and the lane marking candidates LC16. The marking line candidate LC13 specified from the dirt Ct on the road surface is extracted. Hereinafter, the recognition process will be described with the right side of the vehicle 10 in the vehicle width direction as "one side" and the left side of the vehicle 10 in the vehicle width direction as "the other side".

ステップS30では、シーン判定部113は、カメラ130により撮影された画像に表れるシーンが、第1シーンであるか否かを判定する。図4は、第1シーンを説明するためのイメージ図である。図4に示す車線LN1は、車両10の他方側の区画ペイント40と、一方側の区画ペイント40、41、42とで区画される車線である。車線LN2は、車両10の一方側の区画ペイント40、43と、区画ペイント40、43よりも更に一方側の区画ペイント44とで区画される。車線LN2は、進行方向における車両10の後方側において、車線LN1から分岐した分岐車線である。なお、分岐の開始位置については、図示は省略されている。区画ペイント41の進行方向に沿った距離は、例えば、50m以上である。 In step S30, the scene determination unit 113 determines whether or not the scene appearing in the image captured by the camera 130 is the first scene. FIG. 4 is an image diagram for explaining the first scene. The lane LN1 shown in FIG. 4 is a lane partitioned by a compartment paint 40 on the other side of the vehicle 10 and compartment paints 40, 41, 42 on one side. The lane LN2 is partitioned by the compartment paints 40 and 43 on one side of the vehicle 10 and the compartment paint 44 on one side of the compartment paints 40 and 43. The lane LN2 is a branch lane branched from the lane LN1 on the rear side of the vehicle 10 in the traveling direction. The starting position of the branch is not shown. The distance along the traveling direction of the compartment paint 41 is, for example, 50 m or more.

シーン判定部113は、図4に示すように、車両10の走行する車線LN1と、分岐車線LN2との接続終了地点A1が画像に表れる場合に、第1シーンであると判定する。接続終了地点A1は、車両10の前方であって車両10の一方側に表れる地点である。図4に示すように、接続終了地点A1では、区画ペイント41が一方側に広がることで車線幅が広がったり、区画ペイント41、42が不連続になったりする場合がある。 As shown in FIG. 4, the scene determination unit 113 determines that the scene is the first scene when the connection end point A1 between the traveling lane LN1 of the vehicle 10 and the branch lane LN2 appears in the image. The connection end point A1 is a point that appears in front of the vehicle 10 and on one side of the vehicle 10. As shown in FIG. 4, at the connection end point A1, the lane width may be widened or the compartment paints 41 and 42 may be discontinuous due to the compartment paint 41 spreading to one side.

シーン判定部113は、車両10の前方であって車両10の一方側に、予め定められた第1形状を構成することを含む第2条件を満たす区画ペイントが抽出された場合に、画像に表れるシーンが第1シーンであると判定する。第2条件は、カメラ130により撮影された画像に、接続終了地点A1に含まれる地点A2が表れる場合、満たされ得る条件である。第1形状は、区画ペイントが車両10の前方に向けて互いに離れ、かつ、車両10に近い側で接続する形状である。第1形状は、いわゆるアルファベットの「V」字に相当する形状である。シーン判定部113は、予めメモリ120に記憶された、接続終了地点A1における地点A2の区画ペイントの形状や当該形状を表す関数と、抽出された区画ペイントとを用いて、抽出された区画ペイントが第1形状を構成するか否かを判定する。第2条件は、抽出された区画ペイントが、予め定められたコントラストを有することや、予め定められた長さを有することを含んでもよい。図4に示す区画ペイント41、43は、車両10の前方に向けて互いに離れ、かつ、車両10に近い側で接続している。区画ペイント41、43は、いわゆる「V」字形状を構成している。このような区画ペイント41、43が抽出された場合、シーン判定部113は、画像に表れるシーンが第1シーンであると判定する。 The scene determination unit 113 appears in an image when a section paint satisfying a second condition including forming a predetermined first shape is extracted on one side of the vehicle 10 in front of the vehicle 10. It is determined that the scene is the first scene. The second condition is a condition that can be satisfied when the point A2 included in the connection end point A1 appears in the image taken by the camera 130. The first shape is a shape in which the compartment paints are separated from each other toward the front of the vehicle 10 and connected to each other on the side closer to the vehicle 10. The first shape is a shape corresponding to the so-called "V" shape of the alphabet. The scene determination unit 113 uses the shape of the partition paint at the point A2 at the connection end point A1 stored in the memory 120 in advance, a function representing the shape, and the extracted partition paint to generate the extracted partition paint. It is determined whether or not the first shape is formed. The second condition may include that the extracted compartment paint has a predetermined contrast or a predetermined length. The compartment paints 41 and 43 shown in FIG. 4 are separated from each other toward the front of the vehicle 10 and are connected to each other on the side closer to the vehicle 10. The compartment paints 41 and 43 form a so-called "V" shape. When such section paints 41 and 43 are extracted, the scene determination unit 113 determines that the scene appearing in the image is the first scene.

なお、シーン判定部113は、区画ペイントが第2条件を満たすことを、区画ペイントを接続して得られる区画線候補を用いて判定してもよい。例えば、シーン判定部113は、車両10の前方であって車両10の一方側に、予め定められた第1形状を構成することを含む第2条件を満たす2本の区画線候補が抽出されているか否かを判定する。シーン判定部113は、第2条件を満たす2本の区画線候補が抽出されている場合に、画像に表れるシーンが第1シーンであると判定する。この場合における第1形状は、2本の区画線候補が、車両10の進行方向に向けて互いに離れ、かつ、車両10に近い側で接続する形状である。「2本の区画線候補が車両に近い側で接続する」とは、2本の区画線候補が完全に接続していることに加え、予め定められた距離以内に存在することを含む。第2条件は、更に、2本の区画線候補が、予め定められたコントラストを有することや、予め定められた長さを有することを含んでもよい。図4には、候補抽出部111により抽出された複数の区画線候補の一部である、区画線候補LC1、LC2、LC3、LC4が示されている。区画線候補LC3、LC4は、車両10の進行方向前方であって、車幅方向の一方側に存在し、車両10の進行方向に向けて互いに離れている。区画線候補LC3、LC4は、いわゆる「V」形状を構成している。このような場合には、シーン判定部113は画像に表れるシーンが第1シーンであると判定可能である。 The scene determination unit 113 may determine that the division paint satisfies the second condition by using the division line candidates obtained by connecting the division paints. For example, the scene determination unit 113 extracts two lane marking candidates satisfying a second condition including forming a predetermined first shape on one side of the vehicle 10 in front of the vehicle 10. Judge whether or not. The scene determination unit 113 determines that the scene appearing in the image is the first scene when two lane marking candidates satisfying the second condition are extracted. In this case, the first shape is a shape in which the two lane marking candidates are separated from each other in the traveling direction of the vehicle 10 and are connected to each other on the side closer to the vehicle 10. "The two lane marking candidates are connected on the side closer to the vehicle" includes that the two lane marking candidates are completely connected and that they exist within a predetermined distance. The second condition may further include that the two marking line candidates have a predetermined contrast and a predetermined length. FIG. 4 shows the lane marking candidates LC1, LC2, LC3, and LC4, which are a part of the plurality of lane marking candidates extracted by the candidate extraction unit 111. The lane marking candidates LC3 and LC4 are in front of the vehicle 10 in the traveling direction, exist on one side in the vehicle width direction, and are separated from each other in the traveling direction of the vehicle 10. The lane marking candidates LC3 and LC4 form a so-called "V" shape. In such a case, the scene determination unit 113 can determine that the scene appearing in the image is the first scene.

ステップS40では、選択実行部112は、信頼度を算出して走行区画線ペアを選択する、走行区画線ペア選択処理を実行する。まず、選択実行部112は、候補抽出部111により抽出された複数の区画線候補から、複数のペア候補を抽出する。選択実行部112は、ペア候補の車線幅と学習車線幅とを用いて、ペア候補ごとに信頼度を算出する。図4に示す車線幅W1は、車両10の一方側の区画線候補LC2に連続する区画線候補LC3と、車両10の他方側の区画線候補LC1と、からなるペア候補LC1、LC3の車線幅である。車線幅W2は、区画線候補LC3よりも一方側の区画線候補LC4と、車両10の他方側の区画線候補LC1と、からなるペア候補LC1、LC4の車線幅である。図4には更に、学習車線幅Wsが示されている。ペア候補LC1、LC3の車線幅W1は、ペア候補LC1、LC4の車線幅W2よりも学習車線幅Wsに近い。そのため、図4に示す例では、ペア候補LC1、LC3の信頼度が最も高くなる。 In step S40, the selection execution unit 112 executes a travel marking line pair selection process that calculates the reliability and selects the traveling marking line pair. First, the selection execution unit 112 extracts a plurality of pair candidates from the plurality of lane marking candidates extracted by the candidate extraction unit 111. The selection execution unit 112 calculates the reliability for each pair candidate by using the lane width of the pair candidate and the learning lane width. The lane width W1 shown in FIG. 4 is the lane width of the pair candidate LC1 and LC3 including the lane marking candidate LC3 continuous with the lane marking candidate LC2 on one side of the vehicle 10 and the lane marking candidate LC1 on the other side of the vehicle 10. Is. The lane width W2 is the lane width of the pair candidate LC1 and LC4 including the lane marking candidate LC4 on one side of the lane marking candidate LC3 and the lane marking candidate LC1 on the other side of the vehicle 10. FIG. 4 further shows the learning lane width Ws. The lane width W1 of the pair candidates LC1 and LC3 is closer to the learning lane width Ws than the lane width W2 of the pair candidates LC1 and LC4. Therefore, in the example shown in FIG. 4, the reliability of the pair candidates LC1 and LC3 is the highest.

次に、選択実行部112は、複数のペア候補のうち、信頼度が予め定められた基準を満たすことを含む第1条件を満たすペア候補を、走行区画線ペアとして選択する。図4に示す例では、信頼度が最も高いペア候補は、ペア候補LC1、LC3である。図4に示す例では、走行区画線ペアLC1、LC2に連続した線分であり、信頼度が最も高いペア候補LC1、LC3が、走行区画線ペアとして選択、決定される。 Next, the selection execution unit 112 selects a pair candidate that satisfies the first condition including the reliability satisfying a predetermined criterion from the plurality of pair candidates as the traveling lane marking pair. In the example shown in FIG. 4, the pair candidates having the highest reliability are the pair candidates LC1 and LC3. In the example shown in FIG. 4, the pair candidates LC1 and LC3, which are continuous line segments to the traveling lane marking pairs LC1 and LC2 and have the highest reliability, are selected and determined as the traveling lane marking pairs.

ステップS60では、学習部114は、選択実行部112により選択されたペア候補の車線幅を学習する。学習部114は、ステップS30において第1シーンであると判定された場合には、第1シーンでないと判定された場合に比べて、選択されたペア候補の車線幅の学習結果への反映の程度を低下させる。 In step S60, the learning unit 114 learns the lane width of the pair candidate selected by the selection execution unit 112. When the learning unit 114 is determined to be the first scene in step S30, the degree of reflection of the lane width of the selected pair candidate in the learning result is higher than that when it is determined not to be the first scene. To reduce.

図5に示すように、本実施形態の車線幅学習処理では、学習部114は、ステップS61において、シーン判定部113により第1シーンであると判定されているか否かを取得する。第1シーンであると判定されている場合には、学習部114は、ステップS62において、車線幅学習の重み付けを、第1シーンでない場合に比べて低下させる。第1シーンでない場合における車線幅学習の重み付けは、予め定められ、メモリ120に記憶されている。 As shown in FIG. 5, in the lane width learning process of the present embodiment, the learning unit 114 acquires whether or not the scene determination unit 113 has determined that the scene is the first scene in step S61. When it is determined that the scene is the first scene, the learning unit 114 reduces the weighting of the lane width learning in step S62 as compared with the case where it is not the first scene. The weighting of the lane width learning in the case where it is not the first scene is predetermined and stored in the memory 120.

ステップS63では、学習部114は、ステップS40(図2)で選択されたペア候補の車線幅を学習する。ステップS61が肯定判定された場合には、学習部114は、ステップS62で低下させた重み付けを用いて、車線幅を学習する。ステップS61が否定判定された場合には、学習部114は、予め定められた重み付けを用いて、車線幅を学習する。時定数を低下させたり、ローパスフィルタを用いた学習を行ってもよい。 In step S63, the learning unit 114 learns the lane width of the pair candidate selected in step S40 (FIG. 2). If the affirmative determination is made in step S61, the learning unit 114 learns the lane width by using the weighting reduced in step S62. When the negative determination in step S61 is determined, the learning unit 114 learns the lane width by using a predetermined weighting. The time constant may be lowered, or learning using a low-pass filter may be performed.

図2に戻り、ステップS70では、CPU110は、選択実行部112により選択されたペア候補を、走行区画線ペアとして認識する。CPU110は、認識結果と、メモリに記憶された道路形状モデルや公知のフィルタ等と、前回認識された走行区画線ペアと、に基づいて、車両10の走行中の道路形状を推定し、運転制御部210等へ出力する。以上のようにして、認識装置105による走行区画線ペアの認識処理が実行される。なお、認識処理の各ステップは、適宜入れ替え可能である。例えば、ステップS30とステップS40との順は入れ替えられてもよいし、ステップS60とステップS70との順は入れ替えられてもよい。 Returning to FIG. 2, in step S70, the CPU 110 recognizes the pair candidate selected by the selection execution unit 112 as a travel marking line pair. The CPU 110 estimates the road shape while the vehicle 10 is traveling based on the recognition result, the road shape model stored in the memory, a known filter, and the previously recognized driving lane marking pair, and controls the operation. Output to unit 210 or the like. As described above, the recognition process of the traveling lane marking pair by the recognition device 105 is executed. Note that each step of the recognition process can be replaced as appropriate. For example, the order of step S30 and step S40 may be exchanged, and the order of step S60 and step S70 may be exchanged.

この形態によれば、学習部114は、カメラ130により撮影された画像に表れるシーンが第1シーンである場合には、第1シーンでない場合に比べて、走行区画線ペアの車線幅の学習結果への反映の程度を低下させる。そのため、走行車線LN1と分岐車線LN2との接続終了地点A1において、区画線が車幅方向に広がったり、不連続になったりする場合があっても、車線幅が誤学習されることを抑制することができる。したがって、適切な学習車線幅を用いて、走行区画線ペアを認識することができるので、走行区画線ペアの認識精度を向上させることができる。 According to this embodiment, when the scene appearing in the image taken by the camera 130 is the first scene, the learning unit 114 learns the lane width of the traveling lane marking pair as compared with the case where it is not the first scene. Decrease the degree of reflection in. Therefore, at the connection end point A1 between the traveling lane LN1 and the branch lane LN2, even if the lane markings may widen or become discontinuous in the vehicle width direction, the lane width is prevented from being erroneously learned. be able to. Therefore, since the traveling lane marking pair can be recognized by using an appropriate learning lane width, the recognition accuracy of the traveling lane marking pair can be improved.

この形態によれば、カメラ130により撮影された画像に表れるシーンが第1シーンである場合、学習部114は、選択実行部112により選択された走行区画線ペアの車線幅の学習に対する重み付けを、第1シーンでない場合に比べて低下させることで、車線幅の誤学習を抑制することができる。 According to this embodiment, when the scene appearing in the image taken by the camera 130 is the first scene, the learning unit 114 weights the learning of the lane width of the traveling lane marking pair selected by the selection execution unit 112. By lowering the lane width as compared with the case where it is not the first scene, erroneous learning of the lane width can be suppressed.

この形態によれば、シーン判定部113は、接続終了地点A1に表れる特徴的な第1形状を用いて、第1シーンであるか否かを判定することができる。 According to this form, the scene determination unit 113 can determine whether or not it is the first scene by using the characteristic first shape appearing at the connection end point A1.

B.第2実施形態
以降の説明では、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。図6及び図7を用いて、本実施形態における第1シーン判定処理(図2、ステップS30参照)について説明する。図6に示すように、シーン判定部113は、障害物Ob等により、V字形状を示す区画ペイントが画像に表れない場合であっても、接続終了地点A1に含まれる地点A3が画像に表れる場合に、第1シーンであると判定する。地点A3は、車両10の進行方向に向けて互いに離れる2つの区画ペイント41、43が存在する地点である。地点A3は、更に、進行方向において分断され、車幅方向における位置が異なる区画ペイント41、42が存在する地点である。図7は、カメラ130により撮影された、地点A3が表れる画像Gの例である。
B. In the following description of the second embodiment, the same reference numerals as those of the first embodiment indicate the same configuration, and the preceding description will be referred to. The first scene determination process (see FIG. 2, step S30) in the present embodiment will be described with reference to FIGS. 6 and 7. As shown in FIG. 6, in the scene determination unit 113, the point A3 included in the connection end point A1 appears in the image even when the V-shaped section paint does not appear in the image due to an obstacle Ob or the like. In this case, it is determined that it is the first scene. Point A3 is a point where two compartment paints 41 and 43 that are separated from each other in the traveling direction of the vehicle 10 exist. The point A3 is a point where the compartment paints 41 and 42, which are further divided in the traveling direction and have different positions in the vehicle width direction, exist. FIG. 7 is an example of an image G in which the point A3 appears, which is taken by the camera 130.

本実施形態において、シーン判定部113は、V字形状を構成する区画ペイントが抽出されない場合であっても、車両10の前方であって車幅方向における一方側に、予め定められた第3条件を満たす区画線候補が抽出されている場合に、第1シーンであると判定する。第3条件は、カメラ130により撮影された画像に地点A3が表れる場合に、満たされ得る。第3条件は、車両10の進行方向に互いに離れる2本の区画線候補である第1ペアが抽出されており、かつ、車両10の車幅方向における一方側であって、かつ、第1ペアよりも他方側に、第1ペアと離間した区画線候補が、更に抽出されていることを含む。以降、第1ペアと離間した区画線候補を「離間区画線候補」とも呼ぶ。第1ペアと離間区画線候補との車幅方向に沿った最短距離は、予め定められた距離であり、例えば0.5mから10mの距離のいずれかの範囲の距離であってもよい。第3条件は、更に、第1ペアと離間区画線候補とが、予め定められたコントラストを有することや、予め定められた長さを有することを含んでもよい。 In the present embodiment, the scene determination unit 113 has a predetermined third condition in front of the vehicle 10 and on one side in the vehicle width direction even when the division paint constituting the V-shape is not extracted. When the lane marking candidates satisfying the above conditions are extracted, it is determined that the scene is the first scene. The third condition can be satisfied when the point A3 appears in the image taken by the camera 130. The third condition is that the first pair, which is two lane marking candidates separated from each other in the traveling direction of the vehicle 10, is extracted, and is one side in the vehicle width direction of the vehicle 10, and the first pair. On the other side of the above, the lane marking candidates separated from the first pair are further extracted. Hereinafter, the lane marking candidate separated from the first pair is also referred to as a "separated lane marking candidate". The shortest distance between the first pair and the distance marking line candidate along the vehicle width direction is a predetermined distance, and may be, for example, a distance in any range of 0.5 m to 10 m. The third condition may further include that the first pair and the separation marking line candidate have a predetermined contrast or a predetermined length.

図6に示す例では、区画線候補LC3、LC4は、車両10の進行方向前方であって、車両10の一方側に存在し、車両10の進行方向に向けて互いに離れている。区画線候補LC3、LC4は、第1ペアに相当する。また、車両10の車幅方向における一方側であって、第1ペアLC3、LC4よりも他方側に、離間区画線候補LC5が抽出されている。このような場合には、シーン判定部113は、画像に表れるシーンが第1シーンであると判定する。本実施形態における認識装置105及び認識処理のその他の構成は、第1実施形態と同様であるため説明を省略する。 In the example shown in FIG. 6, the lane marking candidates LC3 and LC4 are in front of the vehicle 10 in the traveling direction, exist on one side of the vehicle 10, and are separated from each other in the traveling direction of the vehicle 10. The lane marking candidates LC3 and LC4 correspond to the first pair. Further, the separation lane marking candidate LC5 is extracted on one side of the vehicle 10 in the vehicle width direction and on the other side of the first pair LC3 and LC4. In such a case, the scene determination unit 113 determines that the scene appearing in the image is the first scene. Since the recognition device 105 and other configurations of the recognition process in the present embodiment are the same as those in the first embodiment, the description thereof will be omitted.

この形態によれば、シーン判定部113は、障害物Ob等によりいわゆる「V」字形状が表れない場合であっても、第1シーンであると判定することができるので、車線幅の誤学習をより抑制することができる。 According to this form, the scene determination unit 113 can determine that it is the first scene even when the so-called "V" shape does not appear due to an obstacle Ob or the like, so that the lane width is erroneously learned. Can be further suppressed.

C.第3実施形態
第3実施形態における認識処理では、車線幅を学習する工程(図2、ステップS60)が第1実施形態と異なる。本実施形態では、図8に示すように、学習部114は、ステップS61が肯定された場合には、ステップS62aにおいて、選択された走行区画線ペアの車線幅を学習しない。学習部114は、ステップS61が否定された場合には、ステップS63aにおいて、選択された走行区画線ペアの車線幅を学習する。認識装置105の構成及び認識処理のその他の工程は、上述の実施形態と同様であるため説明を省略する。
C. Third Embodiment In the recognition process in the third embodiment, the step of learning the lane width (FIG. 2, step S60) is different from that of the first embodiment. In the present embodiment, as shown in FIG. 8, when step S61 is affirmed, the learning unit 114 does not learn the lane width of the selected traveling lane marking pair in step S62a. If step S61 is denied, the learning unit 114 learns the lane width of the selected traveling lane marking pair in step S63a. Since the configuration of the recognition device 105 and other steps of the recognition process are the same as those in the above-described embodiment, the description thereof will be omitted.

この形態によれば、学習部114は、第1シーンである場合には、選択実行部112により選択された走行区画線ペアの車線幅を学習しないので、車線幅の誤学習をより抑制することができる。そのため、走行区画線ペアの認識精度をより向上させることができる。 According to this embodiment, in the case of the first scene, the learning unit 114 does not learn the lane width of the traveling lane marking pair selected by the selection execution unit 112, so that erroneous learning of the lane width can be further suppressed. Can be done. Therefore, the recognition accuracy of the traveling lane marking pair can be further improved.

D.第4実施形態
上記実施形態では、選択実行部112は、走行区画線ペア選択処理(図2、ステップS40参照)において、複数のペア候補のうち、信頼度が予め定められた基準を満たすことを含む第1条件を満たすペア候補を、走行区画線ペアとして選択した。そして、上記実施形態では、予め定められた基準が満たされた場合に、第1条件が満たされていた。これに対し、第3実施形態では、第1条件は、区画線候補が、第1シーンを構成する区画線候補でないことを含む。すなわち、本実施形態では、選択実行部112は、第1シーンを構成する区画線候補を含むペア候補を、走行区画線ペアとして選択しない。本実施形態では、選択実行部112は、車両10の他方側における区画線候補を学習車線幅Wsに相当する距離だけ一方側にオフセットした線分と、車両10の他方側における区画線候補と、からなるペア候補を、走行区画線ペアとして選択する。
D. Fourth Embodiment In the above embodiment, the selection execution unit 112 determines that the reliability of the plurality of pair candidates satisfies a predetermined criterion in the traveling lane marking pair selection process (see FIG. 2, step S40). A pair candidate satisfying the first condition including the first condition was selected as a traveling lane marking pair. Then, in the above embodiment, the first condition is satisfied when the predetermined standard is satisfied. On the other hand, in the third embodiment, the first condition includes that the lane marking candidate is not the lane marking candidate constituting the first scene. That is, in the present embodiment, the selection execution unit 112 does not select the pair candidate including the lane marking candidate constituting the first scene as the traveling lane marking pair. In the present embodiment, the selection execution unit 112 includes a line segment in which the lane marking candidate on the other side of the vehicle 10 is offset to one side by a distance corresponding to the learning lane width Ws, and the lane marking candidate on the other side of the vehicle 10. A pair candidate consisting of is selected as a road marking pair.

図9に示す例では、区画線候補LC3は第1シーンを構成する区画線候補である。そのため、選択実行部112は、ペア候補LC1、LC3を、走行区画線ペアとして選択しない。選択実行部112は、シーン判定部113により第1シーンであると判定された場合には、車両10の他方側に抽出された区画線候補LC1と、区画線候補LC1から、学習車線幅Wsに相当する距離を車両10の一方側に移動させた線分LCxと、を走行区画線ペアとして選択する。CPU110は、区画線候補LC1と線分LCxとを走行区画線ペアとして認識する。認識装置105の構成と、及び認識処理のその他の工程は、第1実施形態と同様であるため説明を省略する。 In the example shown in FIG. 9, the lane marking candidate LC3 is a lane marking candidate constituting the first scene. Therefore, the selection execution unit 112 does not select the pair candidates LC1 and LC3 as the traveling lane marking pair. When the scene determination unit 113 determines that the scene is the first scene, the selection execution unit 112 converts the lane marking candidate LC1 extracted on the other side of the vehicle 10 and the lane marking candidate LC1 into the learning lane width Ws. The line segment LCx obtained by moving the corresponding distance to one side of the vehicle 10 and the line segment LCx are selected as the traveling lane marking pair. The CPU 110 recognizes the lane marking candidate LC1 and the line segment LCx as a traveling lane marking pair. Since the configuration of the recognition device 105 and other steps of the recognition process are the same as those in the first embodiment, the description thereof will be omitted.

この形態によれば、走行車線LN1と分岐車線LN2との接続終了地点A1において、認識装置105により認識される走行区画線ペアの車線幅が広がることを抑制することができる。 According to this embodiment, it is possible to prevent the lane width of the traveling lane pair recognized by the recognition device 105 from expanding at the connection end point A1 between the traveling lane LN1 and the branch lane LN2.

E.第5実施形態
図10及び図11を用いて、第5実施形態の認識処理について説明する。第5実施形態では、図10に示すように、離間区画線候補LC5が抽出されている場合には、選択実行部112は、離間区画線候補LC5と、車両10の他方側に抽出された区画線候補LC1と、を含むペア候補LC1、LC5を、早期に選択するように、選択のロジックを変更する。選択実行部112は、離間区画線候補LC5と、車両10の他方側に抽出された区画線候補LC1と、を含むペア候補LC1、LC5については、走行区画線ペアを選択するための予め定められた基準を、他のペア候補よりも緩和する。
E. Fifth Embodiment The recognition process of the fifth embodiment will be described with reference to FIGS. 10 and 11. In the fifth embodiment, as shown in FIG. 10, when the separation lane marking candidate LC5 is extracted, the selection execution unit 112 has the separation lane marking candidate LC5 and the section extracted on the other side of the vehicle 10. The selection logic is changed so that the line candidate LC1 and the pair candidates LC1 and LC5 including the line candidate LC1 are selected at an early stage. The selection execution unit 112 is predetermined for selecting the traveling lane marking pair for the pair candidate LC1 and LC5 including the separation lane marking candidate LC5 and the lane marking candidate LC1 extracted on the other side of the vehicle 10. The criteria are relaxed more than other pair candidates.

走行区画線ペア選択処理(図2、ステップS40参照)において、選択実行部112は、図11に示すように、ステップS41bにおいて、抽出された走行区画線ペア候補の信頼度を算出する。 In the traveling lane marking pair selection process (see FIG. 2, step S40), the selection execution unit 112 calculates the reliability of the extracted traveling lane marking pair candidates in step S41b as shown in FIG.

ステップS42bでは、選択実行部112は、シーン判定部113により画像に表れるシーンが第1シーンであると判定されており、かつ、候補抽出部111により離間区画線候補LC5が抽出されているか否かを判定する。ステップS42bが肯定判定される場合には、選択実行部112は、ステップ43bにおいて、離間区画線候補LC5を含む走行区画線ペア候補については、選択に用いられる基準を緩和する。本実施形態では、選択実行部112は、離間区画線候補LC5を含むペア候補LC1、LC5については、信頼度が最も高い状態が第2期間継続した場合に、走行区画線ペアとして選択する。第2期間は、他のペア候補が走行区画線ペアとして選択されるための予め定められた第1期間よりも、短い期間である。 In step S42b, the selection execution unit 112 determines whether the scene appearing in the image is the first scene by the scene determination unit 113, and whether or not the separation division line candidate LC5 is extracted by the candidate extraction unit 111. To judge. When the affirmative determination is made in step S42b, the selection execution unit 112 relaxes the criteria used for selection in step 43b for the traveling lane marking pair candidates including the separation lane marking candidate LC5. In the present embodiment, the selection execution unit 112 selects the pair candidates LC1 and LC5 including the separation lane marking candidate LC5 as the traveling lane marking pair when the state having the highest reliability continues for the second period. The second period is a shorter period than the predetermined first period for the other pair candidates to be selected as the road marking pair.

ステップS44bでは、選択実行部112は、信頼度が予め定められた基準を満たすペア候補を走行区画線ペアとして選択する。ステップS42bが肯定判定された場合、選択実行部112は、離間区画線候補LC5を含むペア候補LC1、LC5については、ペア候補LC1、LC5の信頼度が最も高い状態が予め定められた第2期間以上継続した場合に、走行区画線ペアとして選択する。ステップS42bが否定判定された場合には、選択実行部112は、第1実施形態と同様に、信頼度が最も高い状態が、予め定められた第1期間以上継続したペア候補を、走行区画線ペアとして選択する。本実施形態における認識装置105の構成及びその他の認識処理については、第1実施形態と同様であるため説明を省略する。 In step S44b, the selection execution unit 112 selects a pair candidate whose reliability satisfies a predetermined criterion as a travel marking line pair. When the affirmative determination is made in step S42b, the selection execution unit 112 determines in advance that the pair candidate LC1 and LC5 have the highest reliability for the pair candidate LC1 and LC5 including the separation marking line candidate LC5. If the above is continued, it is selected as a traveling lane marking pair. When the negative determination in step S42b is made, the selection execution unit 112 selects the pair candidate whose highest reliability state continues for a predetermined first period or longer, as in the first embodiment, on the travel marking line. Select as a pair. The configuration of the recognition device 105 and other recognition processes in the present embodiment are the same as those in the first embodiment, and thus the description thereof will be omitted.

この形態によれば、図10に示す接続終了地点A1において車線幅が広がった走行区画線ペアLC1、LC3が認識されていても、車線幅が適切な走行区画線ペア候補LC1、LC5が走行区画線ペアとして選択される可能性を高めることができる。そのため、車線幅が適切な走行区画線ペアLC1、LC5が早期に認識される可能性を高めることができるので、認識装置105における走行区画線ペアの認識精度を向上させることができる。 According to this embodiment, even if the traveling lane marking pairs LC1 and LC3 having wide lane widths are recognized at the connection end point A1 shown in FIG. 10, the traveling lane marking pair candidates LC1 and LC5 having appropriate lane widths are traveling compartments. It can increase the possibility of being selected as a line pair. Therefore, it is possible to increase the possibility that the traveling lane marking pairs LC1 and LC5 having an appropriate lane width are recognized at an early stage, so that the recognition accuracy of the traveling lane marking pair in the recognition device 105 can be improved.

この形態によれば、図10に示す接続終了地点A1において、走行区画線ペアLC1、LC3が認識されており、候補抽出部111により離間区画線候補LC5が抽出された場合には、ペア候補LC1、LC5については、信頼度が最も高い状態が予め定められた第1期間よりも短い第2期間継続した場合に、走行区画線ペアとして選択される。そのため、車線幅が適切な走行区画線ペアLC1、LC5を早期に認識することができる。したがって、認識装置における走行区画線ペアの認識精度を向上させることができる。 According to this embodiment, when the traveling lane marking pairs LC1 and LC3 are recognized at the connection end point A1 shown in FIG. 10 and the separation lane marking candidate LC5 is extracted by the candidate extraction unit 111, the pair candidate LC1 , LC5 is selected as a road marking pair when the state having the highest reliability continues for a second period shorter than a predetermined first period. Therefore, the traveling lane marking pairs LC1 and LC5 having an appropriate lane width can be recognized at an early stage. Therefore, it is possible to improve the recognition accuracy of the traveling lane marking pair in the recognition device.

第6実施形態において、選択実行部112は、離間区画線候補LC5を含むペア候補LC1、LC5については、他のペア候補よりも信頼度を高くすることで、選択に用いられる基準を緩和してもよい。例えば、選択実行部112は、離間区画線候補LC5を含む走行区画線ペア候補LC1、LC5の信頼度に、1より大きい係数を乗じてもよい。 In the sixth embodiment, the selection execution unit 112 relaxes the criteria used for selection by making the pair candidates LC1 and LC5 including the separation marking line candidate LC5 more reliable than the other pair candidates. May be good. For example, the selection execution unit 112 may multiply the reliability of the traveling lane marking pair candidates LC1 and LC5 including the separation lane marking candidate LC5 by a coefficient larger than 1.

第6実施形態において、学習部114は、画像に表れるシーンが第1シーンであっても、選択された走行区画線ペアの車線幅の学習結果への反映の程度を低下させなくともよい。この形態によれば、車線幅が適切な走行区画線ペア候補LC1、LC5が走行区画線ペアとして選択される可能性が高まるので、認識装置105における走行区画線ペアの認識精度を向上させることができる。 In the sixth embodiment, the learning unit 114 does not have to reduce the degree of reflection of the lane width of the selected traveling lane marking pair in the learning result even if the scene appearing in the image is the first scene. According to this embodiment, the possibility that the traveling lane marking pair candidates LC1 and LC5 having an appropriate lane width are selected as the traveling lane marking pair is increased, so that the recognition accuracy of the traveling lane marking pair in the recognition device 105 can be improved. it can.

F.第6実施形態
図12に示す第6実施形態における車両10aは、自動運転制御システム100aを備える。自動運転制御システム100aの備える認識装置105aは、CPU110aとメモリ120aと、を備える。CPU110aは、メモリ120aに記憶されたプログラムP1aを展開して実行することにより、候補抽出部111、選択実行部112、シーン判定部113、学習部114、報知制御部115として機能する。認識装置105aは、車載ネットワーク260を介して報知装置250と接続されている。
F. Sixth Embodiment The vehicle 10a in the sixth embodiment shown in FIG. 12 includes an automatic driving control system 100a. The recognition device 105a included in the automatic operation control system 100a includes a CPU 110a and a memory 120a. The CPU 110a functions as a candidate extraction unit 111, a selection execution unit 112, a scene determination unit 113, a learning unit 114, and a notification control unit 115 by expanding and executing the program P1a stored in the memory 120a. The recognition device 105a is connected to the notification device 250 via the vehicle-mounted network 260.

報知装置250は、車両10aのユーザに情報を報知するための装置である。本実施形態において、報知装置250は、ユーザと車両10との間で情報のやりとりを行う装置であり、液晶パネルや、レバー、ボタン等を備える。本実施形態において、報知装置250は、いわゆるHMI(Human Machine Interface)である。報知制御部115は、液晶パネルに情報の表示を行ったり、ボタン、レバーやタッチ操作を受け付ける液晶パネルを介してユーザの操作を受け付けたりする。 The notification device 250 is a device for notifying the user of the vehicle 10a of information. In the present embodiment, the notification device 250 is a device for exchanging information between the user and the vehicle 10, and includes a liquid crystal panel, a lever, a button, and the like. In the present embodiment, the notification device 250 is a so-called HMI (Human Machine Interface). The notification control unit 115 displays information on the liquid crystal panel, and accepts user operations via the liquid crystal panel that accepts buttons, levers, and touch operations.

報知制御部115は、シーン判定部113の判定の結果と、選択実行部112による選択の結果、つまり、認識装置105による認識結果と、を取得する。報知制御部115は、シーン判定部113により第1シーンであると判定されていない場合には、例えば、図13に示すように、報知装置250に、走行区画線ペアK1、K2が認識されていることを報知させる。当該表示により、車両10aのドライバは、車両10aの両側において区画線が正常に認識されていることを知ることができる。 The notification control unit 115 acquires the determination result of the scene determination unit 113 and the selection result of the selection execution unit 112, that is, the recognition result of the recognition device 105. When the notification control unit 115 does not determine that the scene is the first scene by the scene determination unit 113, for example, as shown in FIG. 13, the notification device 250 recognizes the traveling lane marking pairs K1 and K2. Notify that you are there. From this display, the driver of the vehicle 10a can know that the lane markings are normally recognized on both sides of the vehicle 10a.

報知制御部115は、第1シーンであると判定された場合には、車両10の一方側の区画線K2が認識されていないことを報知装置250に報知させる。本実施形態では、報知制御部115は、図14に示すように、報知装置250に、車両10の他方側の区画線K1のみを表示させる。また、図14に示すように、報知制御部115は、車両10の一方側の区画線K2が認識されていないメッセージm1を報知装置250に表示させてもよい。なお、報知装置250は、スピーカーであってもよく、報知制御部115は、車両10の一方側の区画線K2が認識されていないことを、音声により報知させてもよい。本実施形態における認識装置105aのその他の構成及び認識処理は、上述の実施形態と同様であるため説明を省略する。 When the notification control unit 115 determines that it is the first scene, the notification control unit 115 notifies the notification device 250 that the lane marking K2 on one side of the vehicle 10 is not recognized. In the present embodiment, as shown in FIG. 14, the notification control unit 115 causes the notification device 250 to display only the lane marking K1 on the other side of the vehicle 10. Further, as shown in FIG. 14, the notification control unit 115 may display the message m1 on which the lane marking K2 on one side of the vehicle 10 is not recognized on the notification device 250. The notification device 250 may be a speaker, and the notification control unit 115 may notify by voice that the lane marking K2 on one side of the vehicle 10 is not recognized. Since other configurations and recognition processing of the recognition device 105a in this embodiment are the same as those in the above-described embodiment, the description thereof will be omitted.

この形態によれば、車両10aのドライバに、車両10aの片側の区画線が認識されていないことを知らせることができる。そのため、認識された区画線を用いて車両10aの走行制御がされている場合等に、走行に対するドライバの注意を喚起することができる。 According to this form, the driver of the vehicle 10a can be notified that the lane marking on one side of the vehicle 10a is not recognized. Therefore, when the traveling control of the vehicle 10a is performed using the recognized lane markings, the driver's attention to the traveling can be called out.

G.他の実施形態
上記実施形態では、車両10の一方側を、車両10の進行方向に対する右側とし、車両10の他方側を、車両10の進行方向に対する左側とし、車両10の右側に接続終了地点A1が存在する例について説明した。これに対し、車両10の進行方向に対する右側が他方側であってもよく、車両10の進行方向に対する左側が他方側であってもよい。接続終了地点A1は、車両10の左側に存在してもよい。
G. Other Embodiments In the above embodiment, one side of the vehicle 10 is on the right side with respect to the traveling direction of the vehicle 10, the other side of the vehicle 10 is on the left side with respect to the traveling direction of the vehicle 10, and the connection end point A1 is on the right side of the vehicle 10. An example in which is present has been described. On the other hand, the right side of the vehicle 10 with respect to the traveling direction may be the other side, and the left side of the vehicle 10 with respect to the traveling direction may be the other side. The connection end point A1 may exist on the left side of the vehicle 10.

上記実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、認識装置105、105aのうちの少なくとも1つの機能部を、集積回路、ディスクリート回路、又はそれらの回路を組み合わせたモジュールにより実現してもよい。また、本開示の機能の一部又は全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータプログラム)は、コンピュータ読み取り可能な記録媒体に格納された形で提供することができる。「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピュータ内の内部記憶装置や、ハードディスク等のコンピュータに固定されている外部記憶装置も含んでいる。すなわち、「コンピュータ読み取り可能な記録媒体」とは、データパケットを一時的ではなく固定可能な任意の記録媒体を含む広い意味を有している。 In the above embodiment, a part of the configuration realized by the hardware may be replaced with software, or a part of the configuration realized by the software may be replaced with hardware. For example, at least one functional unit of the recognition devices 105 and 105a may be realized by an integrated circuit, a discrete circuit, or a module combining these circuits. In addition, when a part or all of the functions of the present disclosure are realized by software, the software (computer program) can be provided in a form stored in a computer-readable recording medium. "Computer readable recording medium" is not limited to portable recording media such as flexible disks and CD-ROMs, but is fixed to internal storage devices in computers such as various RAMs and ROMs, and computers such as hard disks. It also includes external storage devices that have been installed. That is, the term "computer-readable recording medium" has a broad meaning including any recording medium on which data packets can be fixed rather than temporarily.

本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した形態中の技術的特徴に対応する実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。 The present disclosure is not limited to the above-described embodiment, and can be realized by various configurations within a range not deviating from the gist thereof. For example, the technical features in the embodiments corresponding to the technical features in the embodiments described in the column of the outline of the invention may be used to solve some or all of the above-mentioned problems, or a part of the above-mentioned effects. Or, in order to achieve all of them, it is possible to replace or combine them as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be appropriately deleted.

10、10a 車両、105、105a 認識装置、111 候補抽出部、112 選択実行部、113 シーン判定部、114 学習部、130 カメラ、A1 接続終了地点、LC1〜LC16 区画線候補、LN1、LN2 車線、W1、W2 車線幅、Ws 学習車線幅 10, 10a vehicle, 105, 105a recognition device, 111 candidate extraction unit, 112 selection execution unit, 113 scene judgment unit, 114 learning unit, 130 camera, A1 connection end point, LC1 to LC16 lane marking candidate, LN1, LN2 lane, W1, W2 lane width, Ws learning lane width

Claims (12)

車両(10、10a)の走行車線(LN1)を区画する走行区画線ペアを認識する認識装置(105、105a)であって、
前記車両に搭載されたカメラ(130)により撮影された画像を用いて、区画線候補(LC1〜LC5、LC11〜LC16)を複数抽出する候補抽出部(111)と、
前記車両の前方であって前記車両の車幅方向に並ぶ一対の前記区画線候補を前記走行区画線ペアの候補である走行区画線ペア候補として抽出し、前記走行区画線ペア候補の車線幅(W1、W2)と、過去に認識された前記走行区画線ペアの車線幅により学習された学習車線幅(Ws)と、を用いて、前記走行区画線ペア候補が前記走行区画線ペアであることの信頼度を算出し、前記信頼度が予め定められた基準を満たすことを含む第1条件を満たす前記走行区画線ペア候補を、前記走行区画線ペアとして選択する選択実行部(112)と、
前記選択実行部により選択された前記走行区画線ペアの車線幅を学習することにより前記学習車線幅を算出する学習部(114)と、
前記カメラにより撮影された画像に表れるシーンが、前記車両の走行車線(LN1)と分岐車線(LN2)との接続終了地点(A1)である第1シーンであるか否かを判定するシーン判定部(113)と、を備え、
前記学習部は、前記第1シーンである場合には、前記第1シーンでない場合に比べて前記走行区画線ペアの車線幅の学習結果への反映の程度を低下させる、
認識装置。
A recognition device (105, 105a) that recognizes a traveling lane marking pair that divides a traveling lane (LN1) of a vehicle (10, 10a).
A candidate extraction unit (111) that extracts a plurality of lane marking candidates (LC1 to LC5, LC11 to LC16) using an image taken by a camera (130) mounted on the vehicle, and a candidate extraction unit (111).
A pair of the lane marking candidates that are in front of the vehicle and lined up in the vehicle width direction are extracted as the traveling lane marking pair candidates that are candidates for the traveling lane marking pair, and the lane width of the traveling lane marking pair candidate ( Using W1, W2) and the learning lane width (Ws) learned from the lane width of the traveling lane marking pair recognized in the past, the traveling lane marking pair candidate is the traveling lane marking pair. The selection execution unit (112), which calculates the reliability of the road markings and selects the traveling lane marking pair candidate satisfying the first condition including the reliability satisfying a predetermined criterion as the traveling lane marking pair,
A learning unit (114) that calculates the learning lane width by learning the lane width of the traveling lane pair selected by the selection execution unit.
A scene determination unit for determining whether or not the scene appearing in the image taken by the camera is the first scene which is the connection end point (A1) between the traveling lane (LN1) and the branch lane (LN2) of the vehicle. (113) and
In the case of the first scene, the learning unit reduces the degree of reflection of the lane width of the traveling lane pair in the learning result as compared with the case of not the first scene.
Recognition device.
請求項1に記載の認識装置であって、
前記学習部は、前記画像に表れるシーンが前記第1シーンである場合、前記選択実行部により選択された前記走行区画線ペアの車線幅の学習に対する重み付けを、前記第1シーンでない場合に比べて低下させる、認識装置。
The recognition device according to claim 1.
When the scene appearing in the image is the first scene, the learning unit weights the learning of the lane width of the traveling lane marking pair selected by the selection execution unit as compared with the case where the scene is not the first scene. A recognition device that lowers.
請求項1に記載の認識装置であって、
前記学習部は、
前記画像に表れるシーンが前記第1シーンでない場合、前記選択実行部により選択された前記走行区画線ペアの車線幅を学習し、
前記画像に表れるシーンが前記第1シーンである場合、前記選択実行部により選択された前記走行区画線ペアの車線幅を学習しない、認識装置。
The recognition device according to claim 1.
The learning unit
When the scene appearing in the image is not the first scene, the lane width of the traveling lane marking pair selected by the selection execution unit is learned.
When the scene appearing in the image is the first scene, the recognition device does not learn the lane width of the traveling lane marking pair selected by the selection execution unit.
請求項1から請求項3までのいずれか一項に記載の認識装置であって、
前記シーン判定部は、前記車両の前方であって前記車幅方向における一方側に、予め定められた第1形状を構成することを含む第2条件を満たす前記区画線候補が抽出された場合に、前記画像に表れるシーンが前記第1シーンであると判定し、
前記第1形状は、2つの前記区画線候補が前記車両の前方に向けて互いに離れ、かつ、前記車両に近い側で接続する形状である、認識装置。
The recognition device according to any one of claims 1 to 3.
When the lane marking candidate satisfying the second condition including forming a predetermined first shape is extracted from the scene determination unit in front of the vehicle and on one side in the vehicle width direction. , It is determined that the scene appearing in the image is the first scene,
The first shape is a recognition device in which the two lane marking candidates are separated from each other toward the front of the vehicle and are connected to each other on the side closer to the vehicle.
請求項1から請求項3までのいずれか一項に記載の認識装置であって、
前記シーン判定部は、前記車両の前方であって前記車幅方向における一方側に、予め定められた第3条件を満たす前記区画線候補が抽出されている場合に、前記画像に表れるシーンが前記第1シーンであると判定し、
前記第3条件は、前記車両の前方に向けて互いに離れる2本の前記区画線候補である第1ペア(LC3、LC4)が抽出されており、前記第1ペアよりも前方であって前記車幅方向における他方側に、前記第1ペアと離間した前記区画線候補である離間区画線候補(LC5)が更に抽出されていることを含む、認識装置。
The recognition device according to any one of claims 1 to 3.
In the scene determination unit, when the lane marking candidate satisfying a predetermined third condition is extracted on one side in the vehicle width direction in front of the vehicle, the scene appearing in the image is described. Judging that it is the first scene,
In the third condition, two first pairs (LC3, LC4), which are two lane marking candidates that are separated from each other toward the front of the vehicle, are extracted, and the vehicle is ahead of the first pair and is the vehicle. A recognition device comprising further extracting a separation lane marking candidate (LC5), which is a lane marking candidate separated from the first pair, on the other side in the width direction.
請求項1から請求項5までのいずれか一項に記載の認識装置であって、
前記第1条件は、前記走行区画線ペア候補に含まれる前記区画線候補が、前記第1シーンを構成する前記区画線候補でないことを含み、
前記選択実行部は、前記画像に表れるシーンが前記第1シーンである場合には、前記車両の前記車幅方向における他方側に抽出された前記区画線候補(LC1)と、前記車両の前記車幅方向における他方側に抽出された前記区画線候補を前記車両の前記車幅方向における一方側に前記学習車線幅に相当する距離移動させた線分(LCx)と、からなる前記走行区画線ペア候補(LC1、LCx)を、前記走行区画線ペアとして選択する、認識装置。
The recognition device according to any one of claims 1 to 5.
The first condition includes that the lane marking candidate included in the traveling lane marking pair candidate is not the lane marking candidate constituting the first scene.
When the scene appearing in the image is the first scene, the selection execution unit includes the lane marking candidate (LC1) extracted on the other side of the vehicle in the vehicle width direction and the vehicle of the vehicle. The traveling lane line pair consisting of a line segment (LCx) obtained by moving the lane marking candidate extracted on the other side in the width direction to one side in the vehicle width direction of the vehicle by a distance corresponding to the learning lane width. A recognition device that selects candidates (LC1, LCx) as the traveling lane marking pair.
請求項5に記載の認識装置であって、
前記選択実行部は、前記画像に表れるシーンが前記第1シーンであり、かつ、前記離間区画線候補が更に抽出されている場合には、前記離間区画線候補と、前記車両の前記車幅方向における他方側に抽出された前記区画線候補(LC1)と、を含む前記走行区画線ペア候補(LC1、LC5)についての前記基準を、他の前記走行区画線ペア候補(LC1、LC3)の前記基準よりも緩和する、認識装置。
The recognition device according to claim 5.
When the scene appearing in the image is the first scene and the separation lane marking candidates are further extracted, the selection execution unit has the separation lane marking candidates and the vehicle width direction of the vehicle. The reference for the traveling lane marking pair candidate (LC1, LC5) including the lane marking candidate (LC1) extracted on the other side of the above is used as the reference for the other traveling lane marking pair candidate (LC1, LC3). A recognition device that relaxes more than the standard.
請求項7に記載の認識装置であって、
前記基準は、前記走行区画線ペア候補の前記信頼度が、予め定められた第1期間、他の前記走行区画線ペア候補よりも高いことを含み、
前記選択実行部は、前記離間区画線候補と、前記車両の前記車幅方向における他方側に抽出された前記区画線候補と、を含む前記走行区画線ペア候補については、前記第1期間を短くすることで、前記基準を緩和する、認識装置。
The recognition device according to claim 7.
The criteria include that the reliability of the traveling lane marking pair candidate is higher than that of the other traveling lane marking pair candidates for a predetermined first period.
The selection execution unit shortens the first period for the traveling lane marking pair candidate including the separation lane marking candidate and the lane marking candidate extracted on the other side in the vehicle width direction of the vehicle. A recognition device that relaxes the above criteria.
請求項1から請求項8までのいずれか一項に記載の認識装置であって、
前記画像に表れるシーンが前記第1シーンである場合に、前記車両の前記車幅方向における一方側の区画線が認識されていないことを、前記車両の備える報知装置(250)に報知させる報知制御部(115)を更に備える、認識装置。
The recognition device according to any one of claims 1 to 8.
Notification control for causing the notification device (250) provided in the vehicle to notify that the lane marking on one side of the vehicle in the vehicle width direction is not recognized when the scene appearing in the image is the first scene. A recognition device further comprising a unit (115).
車両(10、10a)の走行車線(LN1)を区画する走行区画線ペアを認識する認識装置(105、105a)であって、
前記車両に搭載されたカメラ(130)により撮影された画像を用いて、区画線候補(LC1〜LC5、LC11〜LC16)を複数抽出する候補抽出部(111)と、
前記車両の前方であって前記車両の車幅方向に並ぶ一対の前記区画線候補を前記走行区画線ペアの候補である走行区画線ペア候補として抽出し、前記走行区画線ペア候補の車線幅(W1、W2)と、過去に認識された前記走行区画線ペアの車線幅により学習された学習車線幅(Ws)と、を用いて、前記走行区画線ペア候補が前記走行区画線ペアであることの信頼度を算出し、前記信頼度が予め定められた基準を満たすことを含む第1条件を満たす前記走行区画線ペア候補を、前記走行区画線ペアとして選択する選択実行部(112)と、
前記選択実行部により選択された前記走行区画線ペアの車線幅を学習することにより前記学習車線幅を算出する学習部(114)と、
前記カメラにより撮影された画像に表れるシーンが、前記車両の走行車線と分岐車線(LN2)との接続終了地点(A1)である第1シーンであるか否かを判定するシーン判定部(113)と、を備え、
前記シーン判定部は、
前記車両の前方であって前記車幅方向における一方側に、予め定められた第3条件を満たす前記区画線候補が抽出されている場合に、前記画像に表れるシーンが前記第1シーンであると判定し、
前記第3条件は、前記車両の前方に向けて互いに離れる2本の前記区画線候補である第1ペア(LC3、LC4)が抽出されており、前記第1ペアよりも前方であって前記車幅方向における他方側に、前記第1ペアと離間した前記区画線候補である離間区画線候補(LC5)が更に抽出されていることを含み、
前記選択実行部は、前記画像に表れるシーンが前記第1シーンであり、かつ、前記離間区画線候補が更に抽出されている場合には、前記離間区画線候補と、前記車両の前記車幅方向における他方側に抽出された前記区画線候補(LC1)と、を含む前記走行区画線ペア候補(LC1、LC5)についての前記基準を、他の前記走行区画線ペア候補の前記基準よりも緩和する、
認識装置。
A recognition device (105, 105a) that recognizes a traveling lane marking pair that divides a traveling lane (LN1) of a vehicle (10, 10a).
A candidate extraction unit (111) that extracts a plurality of lane marking candidates (LC1 to LC5, LC11 to LC16) using an image taken by a camera (130) mounted on the vehicle, and a candidate extraction unit (111).
A pair of the lane marking candidates that are in front of the vehicle and lined up in the vehicle width direction are extracted as the traveling lane marking pair candidates that are candidates for the traveling lane marking pair, and the lane width of the traveling lane marking pair candidate ( Using W1, W2) and the learning lane width (Ws) learned from the lane width of the traveling lane marking pair recognized in the past, the traveling lane marking pair candidate is the traveling lane marking pair. The selection execution unit (112), which calculates the reliability of the road markings and selects the traveling lane marking pair candidate satisfying the first condition including the reliability satisfying a predetermined criterion as the traveling lane marking pair,
A learning unit (114) that calculates the learning lane width by learning the lane width of the traveling lane pair selected by the selection execution unit.
A scene determination unit (113) for determining whether or not the scene appearing in the image taken by the camera is the first scene which is the connection end point (A1) between the traveling lane and the branch lane (LN2) of the vehicle. And with
The scene determination unit
When the lane marking candidate satisfying a predetermined third condition is extracted on one side in the vehicle width direction in front of the vehicle, the scene appearing in the image is the first scene. Judge,
In the third condition, two first pairs (LC3, LC4), which are two lane marking candidates that are separated from each other toward the front of the vehicle, are extracted, and the vehicle is ahead of the first pair and is the vehicle. On the other side in the width direction, the separation lane marking candidate (LC5), which is the lane marking candidate separated from the first pair, is further extracted.
When the scene appearing in the image is the first scene and the separation lane marking candidates are further extracted, the selection execution unit has the separation lane marking candidates and the vehicle width direction of the vehicle. The criteria for the traveling lane marking pair candidates (LC1, LC5) including the lane marking candidate (LC1) extracted on the other side of the above are relaxed more than the criteria for the other traveling lane marking pair candidates. ,
Recognition device.
車両(10、10a)の走行車線(LN1)を区画する走行区画線ペアを認識する方法であって、
前記車両に搭載されたカメラ(130)により撮影された画像を用いて、区画線候補(LC1〜LC5、LC11〜LC16)を複数抽出する工程と(S20)、
前記車両の前方であって前記車両の車幅方向に並ぶ一対の前記区画線候補を前記走行区画線ペアの候補である走行区画線ペア候補として抽出し、前記走行区画線ペア候補の車線幅(W1、W2)と、過去に認識された前記走行区画線ペアの車線幅により学習された学習車線幅(Ws)と、を用いて、前記走行区画線ペア候補が前記走行区画線ペアであることの信頼度を算出し、前記信頼度が予め定められた基準を満たすことを含む第1条件を満たす前記走行区画線ペア候補を、前記走行区画線ペアとして選択する工程と(S40)、
選択された前記走行区画線ペアの車線幅を学習することにより前記学習車線幅を算出する工程と(S60)、
前記カメラにより撮影された画像に表れるシーンが、前記車両の走行車線(LN1)と分岐車線(LN2)との接続終了地点(A1)である第1シーンであるか否かを判定する工程と(S30)、を備え、
前記学習車線幅を算出する工程では、前記第1シーンである場合には、前記第1シーンでない場合に比べて前記走行区画線の車線幅の学習結果への反映の程度を低下させる、方法。
It is a method of recognizing a traveling lane marking pair that divides a traveling lane (LN1) of a vehicle (10, 10a).
A step of extracting a plurality of lane marking candidates (LC1 to LC5, LC11 to LC16) using an image taken by a camera (130) mounted on the vehicle and (S20).
A pair of the lane marking candidates that are in front of the vehicle and lined up in the vehicle width direction are extracted as the traveling lane marking pair candidates that are candidates for the traveling lane marking pair, and the lane width of the traveling lane marking pair candidate ( Using W1, W2) and the learning lane width (Ws) learned from the lane width of the traveling lane marking pair recognized in the past, the traveling lane marking pair candidate is the traveling lane marking pair. The step of calculating the reliability of the road markings and selecting the traveling lane marking pair candidate satisfying the first condition including the reliability satisfying a predetermined criterion as the traveling lane marking pair (S40).
A step of calculating the learning lane width by learning the lane width of the selected traveling lane pair (S60).
A step of determining whether or not the scene appearing in the image taken by the camera is the first scene which is the connection end point (A1) between the traveling lane (LN1) and the branch lane (LN2) of the vehicle. S30), equipped with
In the step of calculating the learning lane width, in the case of the first scene, the degree of reflection of the lane width of the traveling lane in the learning result is reduced as compared with the case of not the first scene.
車両(10、10a)の走行車線(LN1)を区画する走行区画線ペアを認識する方法であって、
車両に搭載されたカメラ(130)により撮影された画像を用いて、区画線候補(LC1〜LC5、LC11〜LC16)を複数抽出する工程と(S20)、
前記車両の前方であって前記車両の車幅方向に並ぶ一対の前記区画線候補を前記走行区画線ペアの候補である走行区画線ペア候補として抽出し、前記走行区画線ペア候補の車線幅と、過去に認識された前記走行区画線ペアの車線幅により学習された学習車線幅(Ws)と、を用いて、前記走行区画線ペア候補が前記走行区画線ペアであることの信頼度を算出し、前記信頼度が予め定められた基準を満たすことを含む第1条件を満たす前記走行区画線ペアを、前記走行区画線ペアとして選択する工程と(S40)、
選択された前記走行区画線ペアの車線幅を学習することにより前記学習車線幅を算出する工程と(S60)、
前記カメラにより撮影された画像に表れるシーンが、前記車両の走行車線と分岐車線(LN2)との接続終了地点(A1)である第1シーンであるか否かを判定する工程と(S30)、を備え、
前記判定する工程では、
前記車両の前方であって前記車幅方向における一方側に、予め定められた第3条件を満たす前記区画線候補が抽出されている場合に、前記画像に表れるシーンが前記第1シーンであると判定し、
前記第3条件は、前記車両の前方に向けて互いに離れる2本の前記区画線候補である第1ペア(LC3、LC4)が抽出されており、前記第1ペアよりも前方であって前記車幅方向における他方側に、前記第1ペアと離間した前記区画線候補である離間区画線候補(LC5)が更に抽出されていることを含み、
前記選択する工程では、前記画像に表れるシーンが前記第1シーンであり、かつ、前記離間区画線候補が更に抽出されている場合には、前記離間区画線候補と、前記車両の前記車幅方向における他方側に抽出された前記区画線候補と、を含む前記走行区画線ペア候補(LC1、LC5)についての前記基準を、他の前記走行区画線ペア候補の前記基準よりも緩和する、方法。
It is a method of recognizing a traveling lane marking pair that divides a traveling lane (LN1) of a vehicle (10, 10a).
A step of extracting a plurality of lane marking candidates (LC1 to LC5, LC11 to LC16) using an image taken by a camera (130) mounted on a vehicle and (S20).
A pair of the lane marking candidates that are in front of the vehicle and lined up in the vehicle width direction are extracted as lane marking pair candidates that are candidates for the traveling lane marking pair, and are combined with the lane width of the traveling lane marking pair candidate. , The learning lane width (Ws) learned from the lane width of the traveling lane marking pair recognized in the past is used to calculate the reliability that the traveling lane marking pair candidate is the traveling lane marking pair. Then, in the step of selecting the traveling lane marking pair that satisfies the first condition including the reliability satisfying a predetermined criterion as the traveling lane marking pair (S40).
A step of calculating the learning lane width by learning the lane width of the selected traveling lane pair (S60).
A step of determining whether or not the scene appearing in the image taken by the camera is the first scene which is the connection end point (A1) between the traveling lane and the branch lane (LN2) of the vehicle (S30). With
In the determination step,
When the lane marking candidate satisfying a predetermined third condition is extracted on one side in the vehicle width direction in front of the vehicle, the scene appearing in the image is the first scene. Judge,
In the third condition, two first pairs (LC3, LC4), which are two lane marking candidates that are separated from each other toward the front of the vehicle, are extracted, and the vehicle is ahead of the first pair and is the vehicle. On the other side in the width direction, the separation lane marking candidate (LC5), which is the lane marking candidate separated from the first pair, is further extracted.
In the selection step, when the scene appearing in the image is the first scene and the separation lane marking candidate is further extracted, the separation lane marking candidate and the vehicle width direction of the vehicle A method in which the criteria for the traveling lane marking pair candidates (LC1, LC5) including the lane marking candidate extracted on the other side of the above are relaxed more than the criteria for the other traveling lane marking pair candidates.
JP2019024266A 2019-02-14 2019-02-14 Recognition device and recognition method Active JP7252001B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019024266A JP7252001B2 (en) 2019-02-14 2019-02-14 Recognition device and recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019024266A JP7252001B2 (en) 2019-02-14 2019-02-14 Recognition device and recognition method

Publications (2)

Publication Number Publication Date
JP2020135091A true JP2020135091A (en) 2020-08-31
JP7252001B2 JP7252001B2 (en) 2023-04-04

Family

ID=72263041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019024266A Active JP7252001B2 (en) 2019-02-14 2019-02-14 Recognition device and recognition method

Country Status (1)

Country Link
JP (1) JP7252001B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7447842B2 (en) 2021-02-15 2024-03-12 株式会社Soken Vehicle display control device, vehicle display control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069289A (en) * 2013-09-27 2015-04-13 日産自動車株式会社 Lane recognition device
JP2016162323A (en) * 2015-03-04 2016-09-05 株式会社日本自動車部品総合研究所 Travelling section line recognition device
JP2018005618A (en) * 2016-07-04 2018-01-11 株式会社Soken Road recognition device
JP2018181093A (en) * 2017-04-18 2018-11-15 株式会社Soken Mark line recognition device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015069289A (en) * 2013-09-27 2015-04-13 日産自動車株式会社 Lane recognition device
JP2016162323A (en) * 2015-03-04 2016-09-05 株式会社日本自動車部品総合研究所 Travelling section line recognition device
JP2018005618A (en) * 2016-07-04 2018-01-11 株式会社Soken Road recognition device
JP2018181093A (en) * 2017-04-18 2018-11-15 株式会社Soken Mark line recognition device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7447842B2 (en) 2021-02-15 2024-03-12 株式会社Soken Vehicle display control device, vehicle display control method

Also Published As

Publication number Publication date
JP7252001B2 (en) 2023-04-04

Similar Documents

Publication Publication Date Title
CN107433946B (en) Apparatus and method for controlling lane change considering priority
US11692848B2 (en) Map information system
JP6325670B2 (en) Lane selection device, vehicle control system, and lane selection method
JP6269552B2 (en) Vehicle travel control device
JP6507839B2 (en) Vehicle travel control device
JP6638701B2 (en) Driving awareness estimation device
US10562532B2 (en) Autonomous driving system
US20180157257A1 (en) Autonomous driving system
EP3825979B1 (en) Travel assistance method and travel assistance device
JP6930152B2 (en) Autonomous driving system
US20190073540A1 (en) Vehicle control device, vehicle control method, and storage medium
US11433897B2 (en) Method and apparatus for determination of optimal cruising lane in an assisted driving system
JP6954469B2 (en) Driving support method and driving support device
US11845471B2 (en) Travel assistance method and travel assistance device
JPWO2019043847A1 (en) Travel control device, vehicle, and travel control method
JP2019039831A (en) Automatic driving device
JP2011134103A (en) Guidance apparatus, guidance method and guidance program
JP2020157830A (en) Vehicle control device, vehicle control method, and program
JP2020087191A (en) Lane boundary setting apparatus and lane boundary setting method
EP4134288B1 (en) Vehicle behavior estimation method, vehicle control method, and vehicle behavior estimation device
US9939523B2 (en) Vehicle type radar system, and method for removing an uninterested target
JP7102935B2 (en) Vehicle control devices and methods
JP2009157499A (en) Driving support device and driving support system
JP7252001B2 (en) Recognition device and recognition method
KR20210004317A (en) Control apparatus for collision prevention of vehicle and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230323

R150 Certificate of patent or registration of utility model

Ref document number: 7252001

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150