JP2020201210A - Position estimating device and computer program - Google Patents

Position estimating device and computer program Download PDF

Info

Publication number
JP2020201210A
JP2020201210A JP2019110253A JP2019110253A JP2020201210A JP 2020201210 A JP2020201210 A JP 2020201210A JP 2019110253 A JP2019110253 A JP 2019110253A JP 2019110253 A JP2019110253 A JP 2019110253A JP 2020201210 A JP2020201210 A JP 2020201210A
Authority
JP
Japan
Prior art keywords
candidate
collation range
candidate points
collation
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019110253A
Other languages
Japanese (ja)
Other versions
JP7334489B2 (en
Inventor
宏次朗 立石
Kojiro Tateishi
宏次朗 立石
一志 田中
Kazushi Tanaka
一志 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019110253A priority Critical patent/JP7334489B2/en
Publication of JP2020201210A publication Critical patent/JP2020201210A/en
Application granted granted Critical
Publication of JP7334489B2 publication Critical patent/JP7334489B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide a position estimating device with which it is possible to estimate the correct position of a moving vehicle.SOLUTION: A position estimating device comprises: a storage unit 22 for storing a map in which ground features are shown; a detection unit 31 for detecting a plurality of candidate points representing ground features from the area data showing ground features in a surrounding area of a moving vehicle 10 having been acquired using a sensor 2 of the moving vehicle 10; a candidate point count unit 32 for counting the number of candidate points in a first verification range candidate within the area data from among the plurality of candidate points and counting the number of candidate points in a second verification range candidate within a data area that includes the first verification range candidate and is larger than the first verification range candidate; a verification range setting unit 33 for setting a verification range to be verified with the positions of corresponding ground features on the map on the basis of the number of candidate points in the first verification range candidate or the number of candidate points in the second verification range candidate; and a position estimation unit 34 for verifying the candidate points included in the verification range from among the plurality of candidate points with the corresponding ground features on the map and thereby estimating the position of the moving vehicle 10.SELECTED DRAWING: Figure 3

Description

本発明は、位置推定装置及びコンピュータプログラムに関する。 The present invention relates to a position estimation device and a computer program.

車両の運転支援又は自動運転制御に利用するために、車両の位置を推定することが研究されている。 Estimating the position of a vehicle has been studied for use in vehicle driving assistance or autonomous driving control.

例えば、車両に搭載されたカメラを用いて車両の前方を撮影した画像内の車線区画線を検出し、道路上の車線区画線と車両との相対的な位置関係に基づいて、道路上の車両の位置を推定することが提案されている。 For example, a camera mounted on a vehicle is used to detect a lane marking in an image of the front of the vehicle, and the vehicle on the road is based on the relative positional relationship between the lane marking on the road and the vehicle. It has been proposed to estimate the position of.

特許文献1に記載された車両用走行路検出装置は、車両の前方の道路を撮影した道路画像に白線を検出するためのサーチ範囲を設定して、サーチ範囲内に白線が検出されない状況が所定期間継続した場合、サーチ範囲の幅を広げて白線を検出する。 The vehicle travel path detection device described in Patent Document 1 sets a search range for detecting a white line in a road image of a road in front of a vehicle, and a situation in which a white line is not detected within the search range is predetermined. If the period continues, the search range is widened and white lines are detected.

特開平9−35198号公報Japanese Unexamined Patent Publication No. 9-35198

しかし、特許文献1に記載された車両用走行路検出装置は、単にサーチ範囲の幅を広げると、路肩等の白線以外の地物を白線として誤って検出するおそれがある。 However, the vehicle travel path detection device described in Patent Document 1 may erroneously detect a feature other than the white line such as a road shoulder as a white line if the width of the search range is simply widened.

このような誤った白線の検出結果に基づいて車両の位置を推定すると、車両用走行路検出装置は、走行経路を推定できないか、又は、正しい走行経路を検出できないおそれがある。 If the position of the vehicle is estimated based on the detection result of such an erroneous white line, the vehicle travel path detection device may not be able to estimate the travel route or detect the correct travel route.

そこで、本発明は、正しい走行経路を検出できるように、移動物体の正しい位置を推定できる位置推定装置を提供することを目的とする。 Therefore, an object of the present invention is to provide a position estimation device capable of estimating the correct position of a moving object so that a correct traveling path can be detected.

一の実施形態によれば、位置推定装置を提供される。この位置推定装置は、地物が表された地図を記憶する記憶部と、移動物体に取り付けられたセンサを用いて取得された当該移動物体の周囲の所定の領域内の地物を表す領域データから、地物を表す複数の候補点を検出する検出部と、複数の候補点の中から、領域データに対して設定される第1照合範囲候補内の候補点の数をカウントし、かつ、複数の候補点の中から、第1照合範囲候補を含みかつ第1照合範囲候補よりも大きい、データ領域に対して設定される第2照合範囲候補内の候補点の数をカウントする候補点カウント部と、第1照合範囲候補内の候補点の数又は第2照合範囲候補内の候補点の数のうちの少なくとも1つに基づいて、地図上の対応する地物の位置と照合する照合範囲をデータ領域に対して設定する照合範囲設定部と、複数の候補点の中から照合範囲内に含まれる候補点と、地図上の対応する地物とを照合することで、移動物体の位置を推定する位置推定部と、を有する。 According to one embodiment, a position estimation device is provided. This position estimation device is a storage unit that stores a map showing a feature, and area data representing a feature in a predetermined area around the moving object acquired by using a sensor attached to the moving object. From the detection unit that detects a plurality of candidate points representing a feature, and from among the plurality of candidate points, the number of candidate points in the first collation range candidate set for the area data is counted, and Candidate point count that counts the number of candidate points in the second collation range candidate set for the data area that includes the first collation range candidate and is larger than the first collation range candidate from among a plurality of candidate points. Collation range to match the position of the corresponding feature on the map based on the unit and at least one of the number of candidate points in the first collation range candidate or the number of candidate points in the second collation range candidate. By collating the collation range setting unit that sets the data area with the candidate points included in the collation range from a plurality of candidate points and the corresponding feature on the map, the position of the moving object can be determined. It has a position estimation unit for estimating.

この位置推定装置において、照合範囲設定部は、第1照合範囲候補内の候補点の数が、第1のしきい値よりも大きいか、又は、第1照合範囲候補内の候補点の数が第1のしきい値以下であり、かつ、第2照合範囲候補内の候補点の数に対する第1照合範囲候補内の候補点の数の比が第2のしきい値よりも大きい場合、第1照合範囲候補を照合範囲として決定し、第1照合範囲候補内の候補点の数が、第1のしきい値以下であり、かつ、第2照合範囲候補内の候補点の数に対する第1照合範囲候補内の候補点の数の比が第2のしきい値以下の場合、第2照合範囲候補を照合範囲として決定することが好ましい。 In this position estimation device, the collation range setting unit determines that the number of candidate points in the first collation range candidate is larger than the first threshold value, or the number of candidate points in the first collation range candidate is large. When it is equal to or less than the first threshold value and the ratio of the number of candidate points in the first collation range candidate to the number of candidate points in the second collation range candidate is larger than the second threshold value, the first One collation range candidate is determined as a collation range, the number of candidate points in the first collation range candidate is equal to or less than the first threshold value, and the first with respect to the number of candidate points in the second collation range candidate. When the ratio of the number of candidate points in the collation range candidate is equal to or less than the second threshold value, it is preferable to determine the second collation range candidate as the collation range.

また、この位置推定装置において、照合範囲設定部は、移動物体から離れる程、照合範囲の幅が広がるように当該照合範囲を設定することが好ましい。 Further, in this position estimation device, it is preferable that the collation range setting unit sets the collation range so that the width of the collation range increases as the distance from the moving object increases.

また、この位置推定装置において、地物は車線区画線であり、照合範囲設定部は、データ領域内に検出された複数の候補点により形成される曲線から、データ領域内の車線区画線の曲率を推定し、曲率が大きい程、照合範囲の幅が広がるように当該照合範囲を設定することが好ましい。 Further, in this position estimation device, the feature is a lane marking line, and the collation range setting unit is the curvature of the lane marking line in the data area from the curve formed by a plurality of candidate points detected in the data area. It is preferable to set the collation range so that the width of the collation range becomes wider as the curvature becomes larger.

または、この位置推定装置において、地物は車線区画線であり、地図は車線区画線の位置を表し、照合範囲設定部は、位置推定部により推定された移動物体の現在位置及び進行方向と、地図に表わされる車線区画線の位置とに基づいて、データ領域内の車線区画線の曲率を求め、曲率が大きい程、照合範囲の幅が広がるように当該照合範囲を設定することが好ましい。 Alternatively, in this position estimation device, the feature is a lane marking line, the map shows the position of the lane marking line, and the collation range setting unit is the current position and traveling direction of the moving object estimated by the position estimation unit. It is preferable to obtain the curvature of the lane marking line in the data area based on the position of the lane marking line shown on the map, and set the matching range so that the larger the curvature, the wider the width of the matching range.

特に、この位置推定装置において、照合範囲設定部は、第3のしきい値以上の曲率の車線区画線を含む領域データ内の領域を、照合範囲から除外することが好ましい。 In particular, in this position estimation device, it is preferable that the collation range setting unit excludes the region in the region data including the lane marking line having a curvature equal to or higher than the third threshold value from the collation range.

また、この位置推定装置において、領域データを、移動物体の進行方向に沿って複数の領域に分割する領域分割部を有し、検出部は、複数の候補点の中から、複数の領域ごとに候補点を検出し、候補点カウント部は、複数の領域ごとに設定される第1照合範囲候補内の候補点の数をカウントし、かつ、複数の領域ごとに設定される第2照合範囲候補内の数を候補点の数をカウントし、照合範囲設定部は、複数の領域ごとに、第1照合範囲候補内の候補点の数又は第2照合範囲候補内の候補点の数のうちの少なくとも1つに基づいて、照合範囲を設定することが好ましい。 Further, in this position estimation device, the area data is divided into a plurality of areas along the traveling direction of the moving object, and the detection unit is used for each of a plurality of areas from the plurality of candidate points. The candidate point counting unit detects the candidate points, counts the number of candidate points in the first collation range candidate set for each of a plurality of areas, and sets the second collation range candidate for each of the plurality of areas. The number of candidate points is counted, and the collation range setting unit counts the number of candidate points in the first collation range candidate or the number of candidate points in the second collation range candidate for each of a plurality of areas. It is preferable to set the collation range based on at least one.

また、他の実施形態によれば、コンピュータプログラムを提供される。このコンピュータプログラムは、移動物体に取り付けられたセンサを用いて取得された当該移動物体の周囲の所定の領域内の地物を表す領域データから、地物を表す複数の候補点を検出することと、複数の候補点の中から、領域データに対して設定される第1照合範囲候補内の候補点の数をカウントし、かつ、複数の候補点の中から、第1照合範囲候補を含みかつ第1照合範囲候補よりも大きい、データ領域に対して設定される第2照合範囲候補内の候補点の数をカウントすることと、第1照合範囲候補内の候補点の数又は第2照合範囲候補内の候補点の数のうちの少なくとも1つに基づいて、地物が表された地図上の対応する地物の位置と照合する照合範囲をデータ領域に対して設定することと、複数の候補点の中から照合範囲内に含まれる候補点と、地図上の対応する地物とを照合することで、移動物体の位置を推定すること、を、プロセッサに実行させる。 Also, according to other embodiments, a computer program is provided. This computer program detects a plurality of candidate points representing a feature from area data representing a feature in a predetermined area around the moving object acquired by using a sensor attached to the moving object. , Count the number of candidate points in the first collation range candidate set for the area data from a plurality of candidate points, and include the first collation range candidate from the plurality of candidate points. Counting the number of candidate points in the second collation range candidate set for the data area, which is larger than the first collation range candidate, and the number of candidate points in the first collation range candidate or the second collation range. Setting a collation range for the data area to match the position of the corresponding feature on the map on which the feature is represented, based on at least one of the number of candidate points in the candidate, and multiple The processor is made to estimate the position of the moving object by collating the candidate points included in the collation range from the candidate points with the corresponding features on the map.

本発明に係る位置推定装置は、移動物体の正しい位置を推定できるという効果を奏する。 The position estimation device according to the present invention has the effect of being able to estimate the correct position of a moving object.

位置推定装置が実装される車両制御システムの概略構成図である。It is a schematic block diagram of the vehicle control system in which a position estimation device is mounted. 位置推定装置の一つの実施形態である電子制御装置のハードウェア構成図である。It is a hardware block diagram of the electronic control device which is one Embodiment of a position estimation device. 位置推定装置を含む車両制御処理に関する、電子制御装置のプロセッサの機能ブロック図である。It is a functional block diagram of the processor of the electronic control device concerning the vehicle control processing including a position estimation device. (A)は、カメラにより撮影された画像を示す図であり、(B)は、画像上に検出された候補点を示す図である。(A) is a diagram showing an image taken by a camera, and (B) is a diagram showing candidate points detected on the image. 第1照合範囲候補及び第2照合範囲候補を示す図である。It is a figure which shows the 1st collation range candidate and the 2nd collation range candidate. 照合範囲設定部の動作を説明するフローチャートである。It is a flowchart explaining operation of a collation range setting part. (A)は、照合範囲内に十分な数の候補点を検出できた例を示す図であり、(B)は、照合範囲内に含まれる候補点が少ない例を示す図である。(A) is a diagram showing an example in which a sufficient number of candidate points can be detected in the collation range, and (B) is a diagram showing an example in which the number of candidate points included in the collation range is small. 車線区画線の曲率に応じて横方向の照合範囲を変化させることを説明する図である。It is a figure explaining that the collation range in a lateral direction is changed according to the curvature of a lane marking line. 検出された候補点の一部を照合範囲から除外することを説明する図である。It is a figure explaining that a part of the detected candidate points is excluded from a collation range. 車両周辺の領域を複数の領域に分割して、分割された領域ごとに照合範囲を設定することを説明する図である。It is a figure explaining that the area around a vehicle is divided into a plurality of areas, and the collation range is set for each divided area.

以下、図を参照しつつ、位置推定装置について説明する。この位置推定装置は、移動物体に搭載されたカメラなどのセンサを用いて取得された移動物体の周囲の所定の領域内の地物を表す領域データ(例えば、画像)から、地物を表す複数の候補点を検出する。位置推定装置は、複数の候補点の中から、領域データに対して設定される第1照合範囲候補内の候補点の数をカウントし、かつ、複数の候補点の中から、第1照合範囲候補を含みかつ第1照合範囲候補よりも大きい、データ領域に対して設定される第2照合範囲候補内の候補点の数をカウントする。位置推定装置は、第1照合範囲候補内の候補点の数又は第2照合範囲候補内の候補点の数のうちの少なくとも1つに基づいて、地図上の対応する地物と照合する照合範囲をデータ領域に対して設定し、複数の候補点の中から照合範囲内に含まれる候補点と、地図上の対応する地物とを照合することで、移動物体の位置を推定する。これにより、位置推定装置は、十分な数の候補点が照合範囲内に検出される時には、照合範囲を過剰に広げて誤った候補点が照合されないように照合範囲を設定できるので、適切な数の候補点を地図と照合して、移動物体の正しい位置を推定できる。また、位置推定装置は、十分な数の候補点が照合範囲内に検出されない時には、照合範囲を広げて設定することにより、適切な数の候補点を地図と照合する。このように、位置推定装置は、適切な数の候補点の数が地図と照合されるように、照合範囲を適宜設定する。 Hereinafter, the position estimation device will be described with reference to the drawings. This position estimation device uses a plurality of area data (for example, an image) representing a feature in a predetermined area around the moving object acquired by using a sensor such as a camera mounted on the moving object to represent the feature. Detect candidate points. The position estimation device counts the number of candidate points in the first collation range candidate set for the area data from a plurality of candidate points, and the first collation range from the plurality of candidate points. The number of candidate points in the second collation range candidate set for the data area, which includes the candidates and is larger than the first collation range candidate, is counted. The position estimation device collates with the corresponding feature on the map based on at least one of the number of candidate points in the first collation range candidate or the number of candidate points in the second collation range candidate. Is set for the data area, and the position of the moving object is estimated by collating the candidate points included in the collation range from the plurality of candidate points with the corresponding features on the map. As a result, when a sufficient number of candidate points are detected within the collation range, the position estimator can excessively widen the collation range and set the collation range so that the wrong candidate points are not collated. The correct position of a moving object can be estimated by collating the candidate points of. Further, when a sufficient number of candidate points are not detected within the collation range, the position estimation device collates an appropriate number of candidate points with the map by expanding the collation range and setting the collation range. In this way, the position estimation device appropriately sets the collation range so that an appropriate number of candidate points are collated with the map.

以下では、位置推定装置を、車両制御システムに適用した例について説明する。この例では、位置推定装置は、移動物体の一例である車両に搭載されたカメラにより取得された領域データの一例である画像(画像データ)に基づいて、位置推定処理を実行することで、地物の一例である車線区画線を表す候補点と地図とを照合する照合範囲を画像に対して設定する。そして、位置推定装置は、照合範囲内に含まれる候補点に基づいて、車両の位置を推定する。但し、本発明の技術範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶものである。 In the following, an example in which the position estimation device is applied to the vehicle control system will be described. In this example, the position estimation device executes a position estimation process based on an image (image data) which is an example of area data acquired by a camera mounted on a vehicle which is an example of a moving object. A collation range for collating a map with a candidate point representing a lane marking line, which is an example of an object, is set for an image. Then, the position estimation device estimates the position of the vehicle based on the candidate points included in the collation range. However, the technical scope of the present invention is not limited to those embodiments, but extends to the inventions described in the claims and their equivalents.

図1は、位置推定装置が実装される車両制御システムの概略構成図である。図2は、位置推定装置の一つの実施形態である電子制御装置のハードウェア構成図である。 FIG. 1 is a schematic configuration diagram of a vehicle control system in which a position estimation device is mounted. FIG. 2 is a hardware configuration diagram of an electronic control device, which is one embodiment of the position estimation device.

本実施形態では、車両10に搭載され、かつ、車両10を制御する車両制御システム1は、車両の前方の画像を取得するカメラ2と、測位情報受信機3とを有する。また、車両制御システム1は、所定の領域の広域地図情報を記憶しており、測位情報受信機3が出力する測位情報に基づいて、測位情報により表される現在位置を含む狭い領域の地図情報を出力する第1電子制御装置(ECU)4を有する。さらに、車両制御システム1は、位置推定装置の一例であり、第1ECU4が出力する地図情報を用いて車両10の位置を推定する第2電子制御装置(ECU)5を有する。 In the present embodiment, the vehicle control system 1 mounted on the vehicle 10 and controlling the vehicle 10 has a camera 2 for acquiring an image in front of the vehicle and a positioning information receiver 3. Further, the vehicle control system 1 stores wide area map information of a predetermined area, and based on the positioning information output by the positioning information receiver 3, map information of a narrow area including the current position represented by the positioning information. It has a first electronic control device (ECU) 4 that outputs. Further, the vehicle control system 1 is an example of a position estimation device, and includes a second electronic control device (ECU) 5 that estimates the position of the vehicle 10 using the map information output by the first ECU 4.

カメラ2は、領域データとして、車両10の前方の画像を撮影する。撮影された画像には、車両10の前方の所定の領域内に含まれる車線区画線などの地物が表わされる。カメラ2は、撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。そしてカメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2は、画像を生成する度に、画像及び画像を取得した情報取得時刻を、車内ネットワーク6を介して第2ECU5へ出力する。カメラ2により生成された画像は、カラー画像であってもよく、又は、グレー画像であってもよい。 The camera 2 captures an image in front of the vehicle 10 as area data. The captured image shows a feature such as a lane marking line included in a predetermined area in front of the vehicle 10. The camera 2 is an example of an imaging unit, and is a two-dimensional detector composed of an array of photoelectric conversion elements having sensitivity to visible light such as CCD or C-MOS, and an image capture target on the two-dimensional detector. It has an imaging optical system that forms an image of a region. Then, the camera 2 is attached to, for example, the interior of the vehicle 10 so as to face the front of the vehicle 10. Then, the camera 2 photographs the front region of the vehicle 10 at predetermined photographing cycles, and generates an image in which the front region is captured. Each time the camera 2 generates an image, the camera 2 outputs the image and the information acquisition time at which the image was acquired to the second ECU 5 via the in-vehicle network 6. The image generated by the camera 2 may be a color image or a gray image.

測位情報受信機3は、車両10の現在位置を表す測位情報を取得する。例えば、測位情報受信機3は、GPS受信機とすることができる。そして測位情報受信機3は、所定の受信周期で測位情報を取得する度に、測位情報及び測位情報を取得した時刻を、第1ECU4へ出力する。 The positioning information receiver 3 acquires positioning information representing the current position of the vehicle 10. For example, the positioning information receiver 3 can be a GPS receiver. Then, each time the positioning information receiver 3 acquires the positioning information in a predetermined reception cycle, the positioning information and the time when the positioning information is acquired are output to the first ECU 4.

第1ECU4は、磁気ディスクドライブ又は不揮発性の半導体メモリなどの記憶装置(図示せず)を有しており、この記憶装置は、車両10の現在位置を含む広い範囲(例えば数km四方の範囲)の広域地図情報を記憶する。この広域地図情報は、道路上の車線区画線などの地物、構造物の種類及び位置を表す情報を含む高精度地図情報であることが好ましい。なお、道路上の地物、構造物の位置は、例えば、実空間における所定の基準位置を原点とする世界座標系で表される。第1ECU4は、例えば、無線通信部(図示せず)を有しており、車両10の現在位置に応じて、無線通信部を用いて外部のサーバから広域地図情報を受信して記憶装置に記憶する。第1ECU4は、測位情報受信機3から入力した測位情報を入力する度に、記憶している広域地図情報を参照して、測位情報により表される現在位置を含む狭い領域(例えば、数十〜数百m四方の範囲)の地図情報及び測位情報取得した時刻を、車内ネットワーク6を介して第2ECU5へ出力する。第1ECU4は、地物が表された地図を記憶する記憶部の一例である。 The first ECU 4 has a storage device (not shown) such as a magnetic disk drive or a non-volatile semiconductor memory, and this storage device has a wide range including the current position of the vehicle 10 (for example, a range of several km square). Stores wide area map information of. This wide area map information is preferably high-precision map information including information indicating the types and positions of features and structures such as lane marking lines on the road. The positions of features and structures on the road are represented by, for example, a world coordinate system whose origin is a predetermined reference position in real space. The first ECU 4 has, for example, a wireless communication unit (not shown), receives wide area map information from an external server using the wireless communication unit according to the current position of the vehicle 10, and stores it in a storage device. To do. Each time the first ECU 4 inputs the positioning information input from the positioning information receiver 3, the first ECU 4 refers to the stored wide area map information and refers to a narrow area including the current position represented by the positioning information (for example, several tens to several tens). The map information (within a range of several hundred meters square) and the time when the positioning information was acquired are output to the second ECU 5 via the in-vehicle network 6. The first ECU 4 is an example of a storage unit that stores a map showing a feature.

第2ECU5は、車両10を制御する。本実施形態では、第2ECU5は、カメラ2が出力する画像に基づいて車両10の位置を推定して、車両10を自動運転するように車両10を制御する。そのために、第2ECU5は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。 The second ECU 5 controls the vehicle 10. In the present embodiment, the second ECU 5 estimates the position of the vehicle 10 based on the image output by the camera 2 and controls the vehicle 10 so as to automatically drive the vehicle 10. Therefore, the second ECU 5 has a communication interface 21, a memory 22, and a processor 23.

通信インターフェース21は、通信部の一例であり、第2ECU5を車内ネットワーク6に接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワーク6を介して、カメラ2などと接続される。そして通信インターフェース21は、例えば、カメラ2から画像及び情報取得時刻を受信する度に、受信した画像及び情報取得時刻をプロセッサ23へわたす。また通信インターフェース21は、第1ECU4から測位情報、測位情報を取得した時刻及び地図情報を受信する度に、受信した測位情報、測位情報取得した時刻及び地図情報をプロセッサ23へわたす。また通信インターフェース21は、図示しない車両速度センサ及びヨーレートセンサから受信した車両速度及びヨーレートを、プロセッサ23へわたす。 The communication interface 21 is an example of a communication unit, and has an interface circuit for connecting the second ECU 5 to the in-vehicle network 6. That is, the communication interface 21 is connected to the camera 2 and the like via the in-vehicle network 6. Then, for example, each time the communication interface 21 receives an image and information acquisition time from the camera 2, the received image and information acquisition time is passed to the processor 23. Further, each time the communication interface 21 receives the positioning information, the time when the positioning information is acquired, and the map information from the first ECU 4, the communication interface 21 passes the received positioning information, the time when the positioning information is acquired, and the map information to the processor 23. Further, the communication interface 21 passes the vehicle speed and the yaw rate received from the vehicle speed sensor and the yaw rate sensor (not shown) to the processor 23.

メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。そしてメモリ22は、第2ECU5のプロセッサ23により実行される位置決定処理において使用される各種のデータ、例えば、カメラ2の光軸方向及び取り付け位置などの設置位置情報、結像光学系の焦点距離及び画角といった内部パラメータなどを記憶する。また、メモリ22は、カメラ2などから受信した画像、第1ECU4から受信した測位情報、測位情報を取得した時刻及び地図情報などを記憶する。 The memory 22 is an example of a storage unit, and includes, for example, a volatile semiconductor memory and a non-volatile semiconductor memory. The memory 22 is used for various data used in the position-determining process executed by the processor 23 of the second ECU 5, for example, installation position information such as the optical axis direction and the mounting position of the camera 2, the focal length of the imaging optical system, and Stores internal parameters such as the angle of view. Further, the memory 22 stores an image received from the camera 2 or the like, positioning information received from the first ECU 4, the time when the positioning information is acquired, map information, and the like.

プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。プロセッサ23が複数個のCPUを有する場合、CPUごとにメモリを有していてもよい。そして、プロセッサ23は、カメラ2により画像が生成される度に、この画像に対して設定された照合範囲内に含まれる候補点に基づいて、情報取得時刻における車両10の位置を推定する位置推定処理を実行する。また、プロセッサ23は、所定の周期で設定される位置決定時刻において、前回の位置決定時刻における車両10の位置と、情報取得時刻における車両10の位置と、車両速度及びヨーレートに基づいて、今回の位置決定時刻における車両10の位置を推定する。さらに、プロセッサ23は、推定された車両10の位置と、車両10の周囲の他の物体との相対的な位置関係に基づいて、車両10を自動運転するよう、車両10を制御する。 The processor 23 is an example of a control unit, and includes one or a plurality of CPUs (Central Processing Units) and peripheral circuits thereof. The processor 23 may further include other arithmetic circuits such as a logical operation unit, a numerical operation unit, or a graphic processing unit. When the processor 23 has a plurality of CPUs, each CPU may have a memory. Then, each time the image is generated by the camera 2, the processor 23 estimates the position of the vehicle 10 at the information acquisition time based on the candidate points included in the collation range set for the image. Execute the process. Further, the processor 23 is based on the position of the vehicle 10 at the previous position determination time, the position of the vehicle 10 at the information acquisition time, the vehicle speed, and the yaw rate at the position determination time set in a predetermined cycle. The position of the vehicle 10 at the position-fixing time is estimated. Further, the processor 23 controls the vehicle 10 so as to automatically drive the vehicle 10 based on the relative positional relationship between the estimated position of the vehicle 10 and other objects around the vehicle 10.

図3は、位置推定処理を含む車両制御処理に関する、第2ECU5のプロセッサ23の機能ブロック図である。プロセッサ23は、候補点検出部31と、候補点カウント部32と、照合範囲設定部33と、位置推定部34と、物体検出部35と、運転計画部36と、車両制御部37とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、候補点検出部31と、候補点カウント部32と、照合範囲設定部33と、位置推定部34とが、位置推定処理を実行する。 FIG. 3 is a functional block diagram of the processor 23 of the second ECU 5 regarding vehicle control processing including position estimation processing. The processor 23 includes a candidate point detection unit 31, a candidate point counting unit 32, a collation range setting unit 33, a position estimation unit 34, an object detection unit 35, an operation planning unit 36, and a vehicle control unit 37. .. Each of these parts of the processor 23 is, for example, a functional module realized by a computer program running on the processor 23. Alternatively, each of these parts included in the processor 23 may be a dedicated arithmetic circuit provided in the processor 23. Further, among these units of the processor 23, the candidate point detection unit 31, the candidate point counting unit 32, the collation range setting unit 33, and the position estimation unit 34 execute the position estimation process.

次に、候補点検出部31と、候補点カウント部32と、照合範囲設定部33とが、協働して画像内の照合範囲を設定する処理を、図4〜図6を参照して、以下に説明する。この照合範囲を設定する処理は、カメラ2から画像が出力される度に行われることが好ましい。 Next, the process in which the candidate point detection unit 31, the candidate point counting unit 32, and the collation range setting unit 33 cooperate to set the collation range in the image is described with reference to FIGS. 4 to 6. This will be described below. It is preferable that the process of setting the collation range is performed every time an image is output from the camera 2.

候補点検出部31は、カメラ2により生成された画像から、地物の一例である車線区画線を表す複数の候補点を検出する。図4(A)は、カメラ2により生成された画像400を示す図である。まず、候補点検出部31は、例えば、カメラ2により生成された画像に対してSobelフィルタといったエッジ検出フィルタを適用してエッジとなる画素を検出し、かつ、検出された画素の中で所定のしきい値以上の輝度を有する画素を候補点として検出する。また、候補点検出部31は、例えば、画像を識別器に入力することで画像内の候補点を検出してもよい。識別器として、例えば、入力された画像から、その画像内の車線区画線などの地物を検出するように予め学習されたディープニューラルネットワーク(DNN)を用いることができる。候補点検出部31は、画像内で地物として識別された領域内の画素を候補点として検出する。図4(B)は、画像410上に検出された候補点411を示す図である。候補点検出部31は、検出された画像内の候補点の位置情報を、候補点カウント部32へ通知する。候補点の位置情報は、例えば、画像400の左上の隅の位置を原点として、右方に伸びるxi軸と、下方に伸びるyi軸とを有する画像座標系で表すことができる。また、候補点検出部31は、候補点を検出するのに用いた画像及び画像が取得された情報取得時刻を、候補点カウント部32へ通知する。 The candidate point detection unit 31 detects a plurality of candidate points representing a lane marking line, which is an example of a feature, from an image generated by the camera 2. FIG. 4A is a diagram showing an image 400 generated by the camera 2. First, the candidate point detection unit 31 applies an edge detection filter such as a Sobel filter to the image generated by the camera 2, detects pixels to be edges, and determines predetermined pixels among the detected pixels. Pixels having a brightness equal to or higher than the threshold value are detected as candidate points. Further, the candidate point detection unit 31 may detect a candidate point in the image by inputting the image into the classifier, for example. As the discriminator, for example, a deep neural network (DNN) trained in advance to detect a feature such as a lane marking line in the input image can be used. The candidate point detection unit 31 detects a pixel in the region identified as a feature in the image as a candidate point. FIG. 4B is a diagram showing candidate points 411 detected on the image 410. The candidate point detection unit 31 notifies the candidate point counting unit 32 of the position information of the candidate points in the detected image. The position information of the candidate point can be represented by, for example, an image coordinate system having an xi axis extending to the right and a yi axis extending downward with the position of the upper left corner of the image 400 as the origin. In addition, the candidate point detection unit 31 notifies the candidate point counting unit 32 of the image used for detecting the candidate point and the information acquisition time at which the image was acquired.

候補点カウント部32は、カメラ2により生成された画像に対して設定される第1照合範囲候補内の候補点の数をカウントする。また、候補点カウント部32は、第1照合範囲候補を含みかつ第1照合範囲候補よりも大きい、カメラ2により生成された画像に対して設定される第2照合範囲候補内の候補点の数をカウントする。 The candidate point counting unit 32 counts the number of candidate points in the first collation range candidate set for the image generated by the camera 2. Further, the candidate point counting unit 32 includes the number of candidate points in the second collation range candidate set for the image generated by the camera 2, which includes the first collation range candidate and is larger than the first collation range candidate. To count.

まず、候補点カウント部32は、画像座標系で表された候補点の座標を、カメラ2の位置を原点とするカメラ座標系で表す。カメラ座標系では、撮像面の中心を原点として、車両10の進行方向をzc軸とし、zc軸と直交し、かつ、地面に平行な方向をxc軸とし、鉛直方向をyc軸とする。原点は、地面からカメラ2が設置される高さにある。カメラ2により撮影された地面上の車線区画線は、yc座標が一定である地面上に位置すると仮定される。候補点検出部31は、画像座標系で表された候補点の座標に対して、カメラ2の設置位置情報及び内部パラメータなどの情報を用いて視点変換処理を実行することで、候補点の座標をカメラ座標系で表わす。 First, the candidate point counting unit 32 represents the coordinates of the candidate points represented by the image coordinate system in the camera coordinate system with the position of the camera 2 as the origin. In the camera coordinate system, the center of the imaging surface is the origin, the traveling direction of the vehicle 10 is the zc axis, the direction orthogonal to the zc axis and parallel to the ground is the xc axis, and the vertical direction is the yc axis. The origin is at a height above the ground where the camera 2 is installed. The lane markings on the ground taken by the camera 2 are assumed to be located on the ground where the yc coordinates are constant. The candidate point detection unit 31 executes a viewpoint conversion process on the coordinates of the candidate point represented by the image coordinate system by using information such as the installation position information of the camera 2 and internal parameters, so that the coordinates of the candidate point can be obtained. Is represented by the camera coordinate system.

そして、候補点カウント部32は、カメラ座標系で表された候補点の座標を、世界座標系で表す。候補点カウント部32は、位置推定部34から通知された前回の位置決定時刻における車両10の位置と、前回の位置決定時刻と情報取得時刻との間の車両10の移動量及び移動方向とに基づいて、情報取得時刻における車両10の位置及び進行方向を推定する。ここで、候補点カウント部32は、前回の位置決定時刻と情報取得時刻との間の車両10の移動量及び移動方向を、その間に通知された車両速度及びヨーレートに基づいて算出する。候補点カウント部32は、カメラ2の設置位置情報及び内部パラメータなどの情報と、推定された車両10の位置及び進行方向とを用いて、情報取得時刻におけるカメラ2の仮定位置及び仮定姿勢を推定する。候補点カウント部32は、情報取得時刻におけるカメラ2の仮定位置及び仮定姿勢に従って、カメラ座標系から、世界座標系への変換式を求める。そのような変換式は、座標系間の回転を表す回転行列と座標系間の平行移動を表す並進ベクトルの組み合わせで表される。そして候補点カウント部32は、その変換式に従って、カメラ座標系で表された候補点の座標を、世界座標系の座標に変換する。 Then, the candidate point counting unit 32 represents the coordinates of the candidate points represented by the camera coordinate system in the world coordinate system. The candidate point counting unit 32 determines the position of the vehicle 10 at the previous position determination time notified from the position estimation unit 34, and the movement amount and movement direction of the vehicle 10 between the previous position determination time and the information acquisition time. Based on this, the position and traveling direction of the vehicle 10 at the information acquisition time are estimated. Here, the candidate point counting unit 32 calculates the movement amount and the movement direction of the vehicle 10 between the previous position determination time and the information acquisition time based on the vehicle speed and the yaw rate notified during that time. The candidate point counting unit 32 estimates the assumed position and assumed posture of the camera 2 at the information acquisition time by using the information such as the installation position information and the internal parameters of the camera 2 and the estimated position and traveling direction of the vehicle 10. To do. The candidate point counting unit 32 obtains a conversion formula from the camera coordinate system to the world coordinate system according to the assumed position and assumed posture of the camera 2 at the information acquisition time. Such a transformation formula is represented by a combination of a rotation matrix representing rotation between coordinate systems and a translation vector representing translation between coordinate systems. Then, the candidate point counting unit 32 converts the coordinates of the candidate points represented by the camera coordinate system into the coordinates of the world coordinate system according to the conversion formula.

そして、候補点カウント部32は、候補点検出部31から通知された情報取得時刻に取得された画像に対する第1照合範囲候補を、カメラ2により生成された画像に対して設定する。第1照合範囲候補は、候補点をカウントするために使用される画像内の領域である。候補点カウント部32は、情報取得時刻におけるカメラ2の仮定位置及び仮定姿勢に従って、情報取得時刻にカメラ2により生成された画像に表されると仮定される領域を地図情報から切り出して、参照画像を生成する。候補点カウント部32は、カメラ2により生成された画像に対して、参照画像上の車線区画線と対応する領域を含むように第1照合範囲候補を設定する。ここでは、第1照合範囲候補を表す領域の座標は、世界座標系で表される。図5は、参照画像500を用いて、車両10の左右それぞれの車線区画線501a、501bについて第1照合範囲候補503a、503bを設定した図である。 Then, the candidate point counting unit 32 sets the first collation range candidate for the image acquired at the information acquisition time notified from the candidate point detecting unit 31 for the image generated by the camera 2. The first collation range candidate is an area in the image used to count the candidate points. The candidate point counting unit 32 cuts out a region assumed to be represented by the image generated by the camera 2 at the information acquisition time from the map information according to the assumed position and the assumed posture of the camera 2 at the information acquisition time, and cuts out a reference image. To generate. The candidate point counting unit 32 sets the first collation range candidate so as to include the area corresponding to the lane marking line on the reference image with respect to the image generated by the camera 2. Here, the coordinates of the region representing the first collation range candidate are represented by the world coordinate system. FIG. 5 is a diagram in which first collation range candidates 503a and 503b are set for the left and right lane marking lines 501a and 501b of the vehicle 10 by using the reference image 500.

また、候補点カウント部32は、第1照合範囲候補を含みかつ第1照合範囲候補よりも大きい第2照合範囲候補を、カメラ2により生成された画像に対して設定する。ここでは、第2照合範囲候補を表す領域の座標は、世界座標系で表される。候補点カウント部32は、例えば、第1照合範囲候補の輪郭から所定の画素数だけ拡大させて、第2照合範囲候補を設定してもよい。候補点カウント部32は、図5に示すように、第1照合範囲候補503a、503bのそれぞれについて、第1照合範囲候補503a、503bの輪郭を車線区画線501a、501bが伸びる方向と直交する横方向に拡大して、第2照合範囲候補504a、504bを設定してもよい。また、候補点カウント部32は、第2照合範囲候補504a、504bのそれぞれについて、車線区画線が伸びる方向に対して第1照合範囲候補の輪郭を左右対称に拡大して設定してもよいし、または、左右非対称に拡大して設定してもよい。車線区画線の片側が路肩と隣接している場合、車線区画線の車線側の輪郭は、路肩側の輪郭よりも摩耗して候補点として検出されにくくなっていることがある。そこで、候補点カウント部32は、第2照合範囲候補504a、504bのそれぞれについて、第1照合範囲候補の車線側の拡大量を路肩側よりも大きくなるように設定してもよい。これにより、車線区画線が候補点として検出されるやすくなる。また、候補点カウント部32は、第2照合範囲候補504a、504bのそれぞれについて、第1照合範囲候補の路肩側の拡大量がゼロとなるように設定してもよい。これにより、路肩を候補点として検出することが防止される。 Further, the candidate point counting unit 32 sets a second collation range candidate including the first collation range candidate and larger than the first collation range candidate for the image generated by the camera 2. Here, the coordinates of the region representing the second collation range candidate are represented in the world coordinate system. The candidate point counting unit 32 may set the second collation range candidate by, for example, expanding the contour of the first collation range candidate by a predetermined number of pixels. As shown in FIG. 5, the candidate point counting unit 32 laterally orthogonals the contours of the first collation range candidates 503a and 503b to the direction in which the lane marking lines 501a and 501b extend for each of the first collation range candidates 503a and 503b. The second collation range candidates 504a and 504b may be set by expanding in the direction. Further, the candidate point counting unit 32 may set the outline of the first collation range candidate symmetrically enlarged with respect to the direction in which the lane marking line extends for each of the second collation range candidates 504a and 504b. , Or it may be enlarged and set asymmetrically. When one side of the lane marking line is adjacent to the road shoulder, the lane-side contour of the lane marking line may be worn more than the road shoulder side contour to be difficult to detect as a candidate point. Therefore, the candidate point counting unit 32 may set each of the second collation range candidates 504a and 504b so that the expansion amount on the lane side of the first collation range candidate is larger than that on the road shoulder side. This makes it easier to detect the lane marking line as a candidate point. Further, the candidate point counting unit 32 may be set so that the expansion amount on the road shoulder side of the first collation range candidate becomes zero for each of the second collation range candidates 504a and 504b. This prevents the road shoulder from being detected as a candidate point.

なお、候補点カウント部32は、世界座標系で表された地図情報に基づいて、カメラ2により撮影された仮想画像を作成し、仮想画像上の車線区画線と対応する領域を含むように第1照合範囲候補をカメラ2により生成された画像に対して設定してもよい。例えば、候補点カウント部32は、画像が取得された情報取得時刻におけるカメラ2の位置を仮想撮影点とし、かつ、カメラ2の光軸方向を撮影方向として、仮想撮影点から設定された撮影方向に向けて地図情報に含まれる道路上の車線区画線を仮想的に撮影した仮想画像を生成する。仮想画像は、例えば、カメラ2により生成される画像と同サイズとすることが好ましい。候補点カウント部32は、カメラ2により生成された画像を仮想画像上に重畳して、第1照合範囲候補を、仮想画像上の車線区画線と対応する領域を含むようにカメラ2により生成される画像に対して設定することができる。 The candidate point counting unit 32 creates a virtual image taken by the camera 2 based on the map information represented by the world coordinate system, and includes an area corresponding to the lane marking line on the virtual image. 1 The collation range candidate may be set for the image generated by the camera 2. For example, the candidate point counting unit 32 sets the shooting direction set from the virtual shooting point with the position of the camera 2 at the information acquisition time when the image is acquired as the virtual shooting point and the optical axis direction of the camera 2 as the shooting direction. Generates a virtual image of the lane markings on the road included in the map information. The virtual image preferably has the same size as the image generated by the camera 2, for example. The candidate point counting unit 32 superimposes the image generated by the camera 2 on the virtual image, and the first collation range candidate is generated by the camera 2 so as to include an area corresponding to the lane marking line on the virtual image. It can be set for the image.

そして、候補点カウント部32は、カメラ2により生成された画像に対して設定された第1照合範囲候補内の候補点の数をカウントする。例えば、候補点カウント部32は、図5に示す参照画像500において、第1照合範囲候補503a、503bの内側に位置する候補点502の数Aをカウントする。候補点カウント部32は、候補点の数Aと、候補点の位置情報と、第1照合範囲候補を表す情報と、第1照合範囲候補が設定された画像及び情報取得時刻とを、照合範囲設定部33へ通知する。 Then, the candidate point counting unit 32 counts the number of candidate points in the first collation range candidate set for the image generated by the camera 2. For example, the candidate point counting unit 32 counts the number A of the candidate points 502 located inside the first collation range candidates 503a and 503b in the reference image 500 shown in FIG. The candidate point counting unit 32 collates the number A of the candidate points, the position information of the candidate points, the information representing the first collation range candidate, the image in which the first collation range candidate is set, and the information acquisition time. Notify the setting unit 33.

また、候補点カウント部32は、カメラ2により生成された画像に対して設定された第2照合範囲候補内の候補点の数Bをカウントする。候補点カウント部32は、図5に示す画像500において、第2照合範囲候補504a、504bの内側に位置する候補点502の数Bをカウントする。候補点カウント部32は、候補点の数Bと、候補点の位置情報と、第2照合範囲候補を表す情報と、第2照合範囲候補が設定された画像及び情報取得時刻とを、照合範囲設定部33へ通知する。 Further, the candidate point counting unit 32 counts the number B of candidate points in the second collation range candidate set for the image generated by the camera 2. The candidate point counting unit 32 counts the number B of the candidate points 502 located inside the second collation range candidates 504a and 504b in the image 500 shown in FIG. The candidate point counting unit 32 collates the number B of candidate points, the position information of the candidate points, the information representing the second collation range candidate, the image in which the second collation range candidate is set, and the information acquisition time. Notify the setting unit 33.

照合範囲設定部33は、第1照合範囲候補内の候補点の数又は第2照合範囲候補内の候補点の数のうちの少なくとも1つに基づいて、地図上の対応する車線区画線の位置と照合する照合範囲を画像に対して設定する。図6は、照合範囲設定部の動作を説明するフローチャートである。照合範囲設定部33は、まず、第1照合範囲候補内の候補点の数が、第1のしきい値Th1よりも大きいか否かを判定する(図6のステップS601)。第1のしきい値Th1は、例えば、第1照合範囲候補の領域に含まれる画素数に基づいて決定される。具体的には、照合範囲設定部33は、第1照合範囲候補の領域に含まれる画素数と、所定の係数(0<係数=<1)との積を、第1のしきい値Th1として求めてもよい。 The collation range setting unit 33 determines the position of the corresponding lane marking line on the map based on at least one of the number of candidate points in the first collation range candidate or the number of candidate points in the second collation range candidate. Set the collation range for collating with the image. FIG. 6 is a flowchart illustrating the operation of the collation range setting unit. The collation range setting unit 33 first determines whether or not the number of candidate points in the first collation range candidate is larger than the first threshold value Th1 (step S601 in FIG. 6). The first threshold value Th1 is determined based on, for example, the number of pixels included in the region of the first collation range candidate. Specifically, the collation range setting unit 33 sets the product of the number of pixels included in the region of the first collation range candidate and a predetermined coefficient (0 <coefficient = <1) as the first threshold value Th1. You may ask.

第1照合範囲候補内の候補点の数が、第1のしきい値Th1よりも大きい場合(ステップS601−Yes)、照合範囲設定部33は、第1照合範囲候補を照合範囲として決定する(ステップS603)。照合範囲設定部33は、決定された照合範囲を表す情報と、候補点の位置情報と、照合範囲が設定された画像及び情報取得時刻とを、位置推定部34へ通知する。これにより、照合範囲設定部33は、比較的狭い照合範囲内で十分な数の候補点が得られる場合には、過剰に照合範囲を広げることが抑制されるので、適切でない地物を候補点として照合に用いられないように照合範囲を設定できる。例えば、照合範囲設定部33は、明瞭な車線区画線を撮影できる場合には、照合範囲を比較的狭くすることができる。なお、候補点カウント部32は、第1照合範囲候補内の候補点の数をカウントした時点で、カウントした候補点の数を照合範囲設定部33へ通知し、照合範囲設定部33がステップS601の判定を行うようにしてもよい。この場合、第1照合範囲候補内の候補点の数が、第1のしきい値Th1よりも大きい場合には、候補点カウント部32が、第2照合範囲候補を設定すること及び第2照合範囲候補内の候補点の数をカウントする処理を省略するようにしてもよい。一方、候補点カウント部32は、第1照合範囲候補内の候補点の数が、第1のしきい値Th1以下の場合には、第2照合範囲候補を設定すること及び第2照合範囲候補内の候補点の数をカウントする処理を実行する。 When the number of candidate points in the first collation range candidate is larger than the first threshold value Th1 (step S601-Yes), the collation range setting unit 33 determines the first collation range candidate as the collation range (step S601-Yes). Step S603). The collation range setting unit 33 notifies the position estimation unit 34 of the information representing the determined collation range, the position information of the candidate points, the image in which the collation range is set, and the information acquisition time. As a result, when a sufficient number of candidate points can be obtained within a relatively narrow collation range, the collation range setting unit 33 is prevented from excessively expanding the collation range, so that an inappropriate feature is selected as a candidate point. The collation range can be set so that it is not used for collation. For example, the collation range setting unit 33 can relatively narrow the collation range when a clear lane marking line can be photographed. When the candidate point counting unit 32 counts the number of candidate points in the first collation range candidate, the candidate point counting unit 32 notifies the collation range setting unit 33 of the number of the counted candidate points, and the collation range setting unit 33 performs step S601. May be made to determine. In this case, when the number of candidate points in the first collation range candidate is larger than the first threshold value Th1, the candidate point counting unit 32 sets the second collation range candidate and the second collation. The process of counting the number of candidate points in the range candidates may be omitted. On the other hand, when the number of candidate points in the first collation range candidate is equal to or less than the first threshold value Th1, the candidate point counting unit 32 sets the second collation range candidate and sets the second collation range candidate. Execute the process of counting the number of candidate points in.

一方、第1照合範囲候補内の候補点の数が、第1のしきい値Th1以下の場合(ステップS601−No)、照合範囲設定部33は、第2照合範囲候補内の候補点の数Bに対する第1照合範囲候補内の候補点の数Aの比(A/B)が第2のしきい値よりも大きいか否かを判定する(ステップS605)。第2のしきい値は、例えば、第1照合範囲候補の領域に含まれる画素数と、第2照合範囲候補の領域に含まれる画素数とに基づいて決定される。具体的には、照合範囲設定部33は、第1照合範囲候補の領域に含まれる画素数に対する第2照合範囲候補の領域に含まれる画素数の比と、所定の係数(0<係数=<1)との積を、第2のしきい値として求めてもよい。 On the other hand, when the number of candidate points in the first collation range candidate is equal to or less than the first threshold value Th1 (step S601-No), the collation range setting unit 33 determines the number of candidate points in the second collation range candidate. It is determined whether or not the ratio (A / B) of the number A of the number of candidate points in the first collation range candidate to B is larger than the second threshold value (step S605). The second threshold value is determined based on, for example, the number of pixels included in the area of the first collation range candidate and the number of pixels included in the area of the second collation range candidate. Specifically, the collation range setting unit 33 has a ratio of the number of pixels included in the second collation range candidate area to the number of pixels included in the first collation range candidate area, and a predetermined coefficient (0 <coefficient = <. The product with 1) may be obtained as the second threshold value.

第2照合範囲候補内の候補点の数Bに対する第1照合範囲候補内の候補点の数Aの比(A/B)が第2のしきい値よりも大きい場合(ステップS605−Yes)、照合範囲設定部33は、第1照合範囲候補を照合範囲として決定する(ステップS607)。照合範囲設定部33は、決定された照合範囲を表す情報と、候補点の位置情報と、照合範囲が設定された画像及び情報取得時刻とを、位置推定部34へ通知する。例えば、車線区画線等の地物の状態によっては、そもそも適切な地物から得られる候補点の絶対数が少ないことがある。そのような場合でも、照合範囲設定部33は、第2照合範囲候補内の候補点の数Bに対する第1照合範囲候補内の候補点の数Aの比(A/B)が大きければ、照合範囲を比較的狭い範囲に設定することにより、過剰に照合範囲を広げることが抑制されるので、適切でない地物を候補点として照合に用いられないように照合範囲を設定できる。例えば、車線区画線が摩耗などにより劣化してかすれている場合でも、照合範囲設定部33は、照合範囲を過剰に広げない。 When the ratio (A / B) of the number of candidate points A in the first collation range candidate to the number B of candidate points in the second collation range candidate is larger than the second threshold value (step S605-Yes). The collation range setting unit 33 determines the first collation range candidate as the collation range (step S607). The collation range setting unit 33 notifies the position estimation unit 34 of the information representing the determined collation range, the position information of the candidate points, the image in which the collation range is set, and the information acquisition time. For example, depending on the condition of a feature such as a lane marking line, the absolute number of candidate points obtained from an appropriate feature may be small in the first place. Even in such a case, the collation range setting unit 33 collates if the ratio (A / B) of the number A of the number of candidate points in the first collation range candidate to the number B of the candidate points in the second collation range candidate is large. By setting the range to a relatively narrow range, it is possible to prevent the collation range from being excessively widened, so that the collation range can be set so that an inappropriate feature is not used as a candidate point for collation. For example, even if the lane marking line is deteriorated and faded due to wear or the like, the collation range setting unit 33 does not excessively widen the collation range.

一方、第2照合範囲候補内の候補点の数Bに対する第1照合範囲候補内の候補点の数Aの比(A/B)が第2のしきい値以下の場合(ステップS605−No)、照合範囲設定部33は、第2照合範囲候補を照合範囲として決定する(ステップS609)。照合範囲設定部33は、決定された照合範囲を表す情報と、候補点の位置情報と、照合範囲が設定された画像及び情報取得時刻とを、位置推定部34へ通知する。これにより、車両10の推定位置がずれて第1照合範囲内に検出される候補点の数が少ない場合には、照合範囲設定部33は、照合範囲を広げることにより、十分な数の候補点を検出することができる。 On the other hand, when the ratio (A / B) of the number of candidate points A in the first collation range candidate to the number B of candidate points in the second collation range candidate is equal to or less than the second threshold value (step S605-No). , The collation range setting unit 33 determines the second collation range candidate as the collation range (step S609). The collation range setting unit 33 notifies the position estimation unit 34 of the information representing the determined collation range, the position information of the candidate points, the image in which the collation range is set, and the information acquisition time. As a result, when the estimated position of the vehicle 10 shifts and the number of candidate points detected in the first collation range is small, the collation range setting unit 33 expands the collation range to obtain a sufficient number of candidate points. Can be detected.

以上が、照合範囲を設定する処理の説明である。 The above is the description of the process of setting the collation range.

位置推定部34は、複数の候補点の中から照合範囲内に検出された候補点と、地図上の対応する車線区画線とを照合することで、車両10の位置を推定する。位置推定部34は、照合範囲設定部33から画像及びこの画像に対する照合範囲が通知される度に、画像及び照合範囲を用いて、情報取得時刻における車両10の位置を推定する。位置推定部34は、情報取得時刻におけるカメラ2の仮定位置及び仮定姿勢に従って、照合範囲内に含まれる候補点の座標を、地図情報により表される地図上に投影して、地図情報に表された車両10の周囲の車線区画線と照合範囲内に含まれる候補点との一致度合を算出する。位置推定部34は、仮定位置及び仮定姿勢を所定量ずつ変化させながら、上記と同様のカメラ座標系から世界座標系への位置変換及び一致度合の算出の各処理を実行することで、複数の仮定位置及び仮定姿勢のそれぞれについて、地図情報に表された車両10の周囲の車線区画線と照合範囲内に含まれる候補点との一致度合を算出する。位置推定部34は、一致度合が最大となるときの仮定位置及び仮定姿勢を特定し、そのカメラ2の仮定位置及び仮定姿勢に基づいて、カメラ2が画像を撮影した情報取得時刻における車両10の位置及び進行方向を推定する。第1ECU4は、画像を取得した情報取得時刻と、地図情報を生成するのに使用される測位情報が取得された時刻との間に車両10が走行し得る領域を含むように地図情報を出力することが好ましい。これにより、位置推定部34は、最新の地図情報を用いて、車両10の位置及び進行方向を算出できる。 The position estimation unit 34 estimates the position of the vehicle 10 by collating the candidate points detected within the collation range from the plurality of candidate points with the corresponding lane marking lines on the map. The position estimation unit 34 estimates the position of the vehicle 10 at the information acquisition time by using the image and the collation range each time the collation range setting unit 33 notifies the image and the collation range for the image. The position estimation unit 34 projects the coordinates of the candidate points included in the collation range on the map represented by the map information according to the assumed position and the assumed posture of the camera 2 at the information acquisition time, and is represented in the map information. The degree of coincidence between the lane marking lines around the vehicle 10 and the candidate points included in the collation range is calculated. The position estimation unit 34 performs a plurality of processes of changing the position from the camera coordinate system to the world coordinate system and calculating the degree of coincidence in the same manner as described above while changing the assumed position and the assumed posture by a predetermined amount. For each of the assumed position and the assumed posture, the degree of coincidence between the lane markings around the vehicle 10 shown in the map information and the candidate points included in the collation range is calculated. The position estimation unit 34 specifies the assumed position and assumed posture when the degree of coincidence is maximized, and based on the assumed position and assumed posture of the camera 2, the position estimation unit 34 of the vehicle 10 at the information acquisition time when the camera 2 took an image. Estimate the position and direction of travel. The first ECU 4 outputs map information so as to include an area in which the vehicle 10 can travel between the information acquisition time when the image is acquired and the time when the positioning information used for generating the map information is acquired. Is preferable. As a result, the position estimation unit 34 can calculate the position and the traveling direction of the vehicle 10 using the latest map information.

位置推定部34は、所定の周期で設定される位置決定時刻において、位置決定時刻における車両10の位置を、情報取得時刻における車両10の位置と、位置決定時刻と情報取得時刻との間の車両10の移動量及び移動方向とに基づいて推定する。位置推定部34は、位置決定時刻と情報取得時刻との間の車両10の移動量及び移動方向を、その間に入力した車両速度及びヨーレートに基づいて算出する。 The position estimation unit 34 sets the position of the vehicle 10 at the position determination time at the position determination time set in a predetermined cycle, the position of the vehicle 10 at the information acquisition time, and the vehicle between the position determination time and the information acquisition time. Estimate based on the amount of movement and the direction of movement of 10. The position estimation unit 34 calculates the movement amount and movement direction of the vehicle 10 between the position determination time and the information acquisition time based on the vehicle speed and the yaw rate input during that time.

位置決定時刻の周期が、情報取得時刻の更新される間隔と一致しない場合(例えば、位置決定時刻の周期が情報取得時刻の更新される間隔よりも短い場合)、位置推定部34は、前回の位置決定時刻に推定された車両10の位置と、前回の位置決定時刻と今回の位置決定時刻との間の車両10の移動量及び移動方向とに基づいて、今回の位置決定時刻における車両10の位置を推定する。位置推定部34は、前回の位置決定時刻と今回の位置決定時刻との間の車両10の移動量及び移動方向を、その間に入力した車両速度及びヨーレートに基づいて算出する。 When the cycle of the position-fixing time does not match the update interval of the information acquisition time (for example, when the cycle of the position-fixing time is shorter than the update interval of the information acquisition time), the position estimation unit 34 uses the previous position estimation unit 34. Based on the position of the vehicle 10 estimated at the position-fixing time and the amount and direction of movement of the vehicle 10 between the previous position-fixing time and the current position-fixing time, the vehicle 10 at the current position-fixing time Estimate the position. The position estimation unit 34 calculates the movement amount and the movement direction of the vehicle 10 between the previous position determination time and the current position determination time based on the vehicle speed and the yaw rate input during that time.

物体検出部35は、カメラ2により生成された画像を取得し、この画像に基づいて、車両10の周囲の他の物体を検出する。物体検出部35は、例えば、画像を識別器に入力することで画像に表された物体を検出する。識別器として、例えば、入力された画像から、その画像に表された物体を検出するように予め学習されたディープニューラルネットワーク(DNN)を用いることができる。物体検出部35は、DNN以外の識別器を用いてもよい。例えば、物体検出部35は、識別器として、画像上に設定されるウィンドウから算出される特徴量(例えば、Histograms of Oriented Gradients, HOG)を入力として、そのウィンドウに検出対象となる物体が表される確信度を出力するように予め学習されたサポートベクトルマシン(SVM)を用いてもよい。あるいはまた、物体検出部35は、検出対象となる物体が表されたテンプレートと画像との間でテンプレートマッチングを行うことで、物体領域を検出してもよい。また、物体検出部35は、オプティカルフローに基づく追跡処理に従って、最新の画像から検出された物体を過去の画像から検出された物体と対応付けることで、最新の画像から検出された物体を追跡してもよい。そして物体検出部35は、時間経過に伴う画像上での追跡中の物体のサイズの変化に基づいて、車両10に対するその物体の相対速度を推定してもよい。そして、物体検出部35は、各画像に基づいて検出された物体について同一物を判定し、同一と判定された物体は1つの物体として判断する。物体検出部35は、検出された物体の位置を示す情報を、運転計画部36へ通知する。なお、物体検出部35は、ライダセンサ等の距離画像を取得するセンサが測定した測定結果に基づいて、車両10の周囲の他の物体を検出してもよい。 The object detection unit 35 acquires an image generated by the camera 2 and detects other objects around the vehicle 10 based on this image. The object detection unit 35 detects the object represented by the image by inputting the image into the classifier, for example. As the discriminator, for example, a deep neural network (DNN) trained in advance to detect an object represented by the image from the input image can be used. The object detection unit 35 may use a classifier other than the DNN. For example, the object detection unit 35 inputs a feature amount (for example, Histograms of Oriented Gradients, HOG) calculated from a window set on the image as a discriminator, and the object to be detected is displayed in the window. A support vector machine (SVM) trained in advance to output a certain degree of certainty may be used. Alternatively, the object detection unit 35 may detect the object region by performing template matching between the template representing the object to be detected and the image. In addition, the object detection unit 35 tracks the object detected from the latest image by associating the object detected from the latest image with the object detected from the past image according to the tracking process based on the optical flow. May be good. Then, the object detection unit 35 may estimate the relative velocity of the object with respect to the vehicle 10 based on the change in the size of the object being tracked on the image with the passage of time. Then, the object detection unit 35 determines the same object for the objects detected based on each image, and determines that the objects determined to be the same are one object. The object detection unit 35 notifies the operation planning unit 36 of information indicating the position of the detected object. The object detection unit 35 may detect other objects around the vehicle 10 based on the measurement results measured by a sensor that acquires a distance image such as a rider sensor.

運転計画部36は、位置決定時刻における車両10の位置と、検出された物体の位置を示す情報と、地図情報とを取得する。運転計画部36は、これらの情報に基づいて、車両10の走行予定経路を1以上生成する。走行予定経路は、例えば、現時刻から所定時間先までの各時刻における、車両10の目標位置の集合として表される。運転計画部36は、車両10の位置と、地図に表された道路上の構造物と、検出された他の物体との位置関係に応じて、車両10と他の物体との相対的な位置関係を推定する。例えば、運転計画部36は、地図に表された車線と、他の物体との位置関係に応じて、他の物体が走行している車線を特定することで、他の物体と車両10とが同じ車線を走行しているか否かを判定する。例えば、運転計画部36は、他の物体の水平方向の中心位置を挟むように位置する互いに隣接する二つの車線区画線で特定される車線を他の物体が走行していると判定する。同様に、運転計画部36は、車両10を挟むように位置する互いに隣接する二つの車線区画線で特定される車線を車両10が走行していると判定する。そして運転計画部36は、車両10が走行中の車線と他の物体が走行中の車線とが同一か否かを判定する。また、地図に表された隣接する二つの車線区画線間の間隔は既知であり、かつ、カメラの焦点距離といった内部パラメータが既知であるため、画像上での隣接する二つの車線区画線間の間隔により、車両10からの距離が推定できる。そこで、運転計画部36は、画像上での他の物体の位置における、地図に表された隣接する二つの車線区画線間の間隔に基づいて、車両10から他の物体までの距離を推定してもよい。このように、運転計画部36は、地図に表された道路上の構造物との位置関係で他の物体と車両10との相対的な位置関係を推定する。そのため、運転計画部36は、画像に写った車線区画線などの道路上の地物が不明瞭でも、他の物体と車両10との相対的な位置関係を正確に推定できる。 The driving planning unit 36 acquires the position of the vehicle 10 at the position determination time, the information indicating the position of the detected object, and the map information. The driving planning unit 36 generates one or more planned traveling routes of the vehicle 10 based on the information. The planned travel route is represented as, for example, a set of target positions of the vehicle 10 at each time from the current time to a predetermined time ahead. The driving planning unit 36 determines the relative position of the vehicle 10 and the other object according to the position of the vehicle 10 and the positional relationship between the structure on the road shown on the map and the detected other object. Estimate the relationship. For example, the driving planning unit 36 identifies the lane in which the other object is traveling according to the positional relationship between the lane displayed on the map and the other object, so that the other object and the vehicle 10 can be connected to each other. Determine if you are in the same lane. For example, the driving planning unit 36 determines that the other object is traveling in a lane specified by two adjacent lane marking lines located so as to sandwich the horizontal center position of the other object. Similarly, the driving planning unit 36 determines that the vehicle 10 is traveling in a lane specified by two adjacent lane marking lines located so as to sandwich the vehicle 10. Then, the driving planning unit 36 determines whether or not the lane in which the vehicle 10 is traveling and the lane in which another object is traveling are the same. Also, since the distance between two adjacent lane markings shown on the map is known and the internal parameters such as the focal length of the camera are known, the distance between the two adjacent lane markings on the image is known. The distance from the vehicle 10 can be estimated from the interval. Therefore, the driving planning unit 36 estimates the distance from the vehicle 10 to the other object based on the distance between the two adjacent lane marking lines shown on the map at the position of the other object on the image. You may. In this way, the driving planning unit 36 estimates the relative positional relationship between the other object and the vehicle 10 based on the positional relationship with the structure on the road shown on the map. Therefore, the driving planning unit 36 can accurately estimate the relative positional relationship between the other object and the vehicle 10 even if the features on the road such as the lane marking line shown in the image are unclear.

運転計画部36は、検出された他の物体が走行中の車線及び相対距離に基づいて、他の物体と車両10とが異なる車線を走行するか、あるいは、車両10から他の物体までの相対距離が所定距離以上となるように、車両10の走行予定経路を生成する。なお、運転計画部36は、複数の走行予定経路を生成してもよい。この場合、運転計画部36は、複数の走行予定経路のうち、車両10の加速度の絶対値の総和が最小となる経路を選択してもよい。運転計画部36は、生成した走行予定経路を車両制御部37へ通知する。 The driving planning unit 36 either travels in a different lane from the other object and the vehicle 10 based on the lane in which the other object is traveling and the relative distance, or the relative between the vehicle 10 and the other object. The planned travel route of the vehicle 10 is generated so that the distance is equal to or greater than a predetermined distance. The operation planning unit 36 may generate a plurality of planned travel routes. In this case, the driving planning unit 36 may select the route that minimizes the sum of the absolute values of the accelerations of the vehicle 10 from the plurality of planned traveling routes. The operation planning unit 36 notifies the vehicle control unit 37 of the generated planned travel route.

車両制御部37は、位置決定時刻における車両10の位置と、車両速度及びヨーレートと、通知された走行予定経路とに基づいて、車両10が通知された走行予定経路に沿って走行するように車両10の各部を制御する。例えば、車両制御部37は、通知された走行予定経路、及び、車両10の現在の車両速度及びヨーレートに従って、車両10の操舵角、加速度及び角加速度を求め、その操舵角、加速度及び角加速度となるように、操舵量、アクセル開度またはブレーキ量を設定する。そして車両制御部37は、設定された操舵量に応じた制御信号を、車両10の操舵輪を制御するアクチュエータ(図示せず)へ出力する。また、車両制御部37は、設定されたアクセル開度に従って燃料噴射量を求め、その燃料噴射量に応じた制御信号を車両10のエンジンの燃料噴射装置(図示せず)へ出力する。あるいは、車両制御部37は、設定されたブレーキ量に応じた制御信号を車両10のブレーキ(図示せず)へ出力する。 The vehicle control unit 37 makes the vehicle travel along the notified planned travel route based on the position of the vehicle 10 at the position determination time, the vehicle speed and the yaw rate, and the notified planned travel route. Each part of 10 is controlled. For example, the vehicle control unit 37 obtains the steering angle, acceleration, and angular acceleration of the vehicle 10 according to the notified planned travel route and the current vehicle speed and yaw rate of the vehicle 10, and the steering angle, acceleration, and angular acceleration thereof. The steering amount, accelerator opening degree or brake amount is set so as to be. Then, the vehicle control unit 37 outputs a control signal according to the set steering amount to an actuator (not shown) that controls the steering wheels of the vehicle 10. Further, the vehicle control unit 37 obtains a fuel injection amount according to the set accelerator opening degree, and outputs a control signal corresponding to the fuel injection amount to the fuel injection device (not shown) of the engine of the vehicle 10. Alternatively, the vehicle control unit 37 outputs a control signal according to the set brake amount to the brake (not shown) of the vehicle 10.

以上に説明してきたように、この位置推定装置は、移動物体の周囲の所定の領域内の地物を表す領域データから、地物を表す候補点を検出する。位置推定装置は、領域データにより表されるデータ領域内に設定される第1照合範囲候補内の候補点の数をカウントし、かつ、第1照合範囲候補を含みかつ第1照合範囲候補よりも大きい、データ領域内に設定される第2照合範囲候補内の前記候補点の数をカウントする。位置推定装置は、第1照合範囲候補内の候補点の数又は第2照合範囲候補内の候補点の数のうちの少なくとも1つに基づいて、地図上の対応する地物の位置と照合する照合範囲をデータ領域に対して設定する。そして、位置推定装置は、照合範囲内に含まれる候補点に基づいて、移動物体の位置を推定する。これにより、適切な地物を表す候補点を含むように照合範囲を設定できるので、検出された候補点に基づいて、移動物体の正しい位置を推定できる。 As described above, this position estimation device detects a candidate point representing a feature from the area data representing the feature in a predetermined area around the moving object. The position estimation device counts the number of candidate points in the first collation range candidate set in the data area represented by the area data, includes the first collation range candidate, and is more than the first collation range candidate. The number of the candidate points in the large second collation range candidate set in the data area is counted. The position estimation device collates with the position of the corresponding feature on the map based on at least one of the number of candidate points in the first collation range candidate or the number of candidate points in the second collation range candidate. Set the collation range for the data area. Then, the position estimation device estimates the position of the moving object based on the candidate points included in the collation range. As a result, the collation range can be set so as to include candidate points representing appropriate features, so that the correct position of the moving object can be estimated based on the detected candidate points.

次に、第1照合範囲候補を設定する他の例を、図7〜図10を参照しながら、以下に説明する。 Next, another example of setting the first collation range candidate will be described below with reference to FIGS. 7 to 10.

上述したように第1照合範囲候補は、カメラ2により画像が撮影された時の車両10の推定される位置及び姿勢に基づいて設定される。車両10の推定される位置が正しい場合には、第1照合範囲候補は、地図情報に含まれる車線区画線などの地物と対応するように設定されるので、第1照合範囲候補内には、十分な数の候補点を検出することができる。図7(A)は、前方のカーブしている道路を撮影した画像内に設定された照合範囲内に十分な数の候補点を検出できた例を示す図である。車両700の前方に位置する車線区画線701を含むように第1照合範囲候補702が設定されており、第1照合範囲候補702内には、多くの数の候補点703が検出されている。 As described above, the first collation range candidate is set based on the estimated position and posture of the vehicle 10 when the image is taken by the camera 2. If the estimated position of the vehicle 10 is correct, the first collation range candidate is set to correspond to a feature such as a lane marking line included in the map information, and therefore, the first collation range candidate is included in the first collation range candidate. , A sufficient number of candidate points can be detected. FIG. 7A is a diagram showing an example in which a sufficient number of candidate points can be detected within the collation range set in the image of the curved road in front. The first collation range candidate 702 is set so as to include the lane marking line 701 located in front of the vehicle 700, and a large number of candidate points 703 are detected in the first collation range candidate 702.

一方、車両10の推定される位置には誤差が生じる場合がある。例えば、車両10の進行方向の推定される位置が正しい位置に対してずれていると、前方のカーブしている道路の車線区画線を検出する場合、第1照合範囲候補が車線区画線からずれてしまうおそれがある。図7(B)は、前方のカーブしている道路を撮影した画像に設定された照合範囲内に含まれる候補点が少ない例を示す図である。車両700の進行方向の推定される位置が正しい位置に対してずれているので、第1照合範囲候補702内に検出される候補点703の数が減少する。 On the other hand, an error may occur in the estimated position of the vehicle 10. For example, if the estimated position in the traveling direction of the vehicle 10 is deviated from the correct position, the first collation range candidate deviates from the lane demarcation line when detecting the lane lane marking of the curved road ahead. There is a risk of FIG. 7B is a diagram showing an example in which there are few candidate points included in the collation range set in the image of the curved road in front. Since the estimated position in the traveling direction of the vehicle 700 is deviated from the correct position, the number of candidate points 703 detected in the first collation range candidate 702 is reduced.

そこで、候補点カウント部32は、カメラ2により生成された画像内に検出された複数の候補点により形成される曲線から、画像内の車線区画線の曲率を推定し、この曲率が大きい程、第1照合範囲候補の幅が広がるように第1照合範囲候補を設定してもよい。 Therefore, the candidate point counting unit 32 estimates the curvature of the lane marking line in the image from the curve formed by the plurality of candidate points detected in the image generated by the camera 2, and the larger the curvature, the more. The first collation range candidate may be set so that the width of the first collation range candidate is widened.

候補点カウント部32は、世界座標系で表された複数の候補点の座標(xw、zw)をクロソイドの近似式:xw=P1+P2×zw+(P3/2)×zw2+(P4/6)×zw3に入力する。ここで、P1は、zw=0における車線区画線のxw座標、P2は、zw=0における車線区画線の方位角、P3は、zw=0における車線区画線の曲率、P4は、曲率変化率(クロソイド曲線では一定)である。なお、地面に対して鉛直方向の候補点の座標ywは、一定であると仮定している。 The candidate point counting unit 32 uses the coordinates (xw, zw) of a plurality of candidate points represented by the world coordinate system as a clothoid approximation formula: xw = P1 + P2 × zw + (P3 / 2) × zw 2 + (P4 / 6). Enter in × zw 3 . Here, P1 is the xw coordinate of the lane marking line at zw = 0, P2 is the azimuth angle of the lane marking line at zw = 0, P3 is the curvature of the lane marking line at zw = 0, and P4 is the curvature change rate. (Constant on clothoid curve). It is assumed that the coordinates yw of the candidate points in the vertical direction with respect to the ground are constant.

候補点カウント部32は、クロソイドの近似式に対して、最小二乗法等の多変量解析を適用して、P1、P2、P3、P4を求める。これにより、照合範囲設定部33は、車線区画線の曲率P4を得る。 The candidate point counting unit 32 obtains P1, P2, P3, and P4 by applying multivariate analysis such as the least squares method to the clothoid approximation formula. As a result, the collation range setting unit 33 obtains the curvature P4 of the lane marking line.

候補点カウント部32は、カメラ2により生成された画像に対して、車線区画線の曲率が大きい程、第1照合範囲候補における車両10の進行方向と直交する方向である横方向の幅が広がるように第1照合範囲候補を設定する。候補点カウント部32は、第1照合範囲候補を含みかつ第1照合範囲候補よりも大きくなるように、第2照合範囲候補を設定する。照合範囲設定部33は、このように設定された第1照合範囲候補または第2照合範囲候補のうちの少なくとも1つに基づいて、照合範囲を設定する。図8は、車線区画線の曲率に応じて、車両の進行方向と直交する横方向の照合範囲を変化させることを説明する図である。図8に示すように、車両10の前方の道路がカーブしており、車線区画線801も同様にカーブしている場合、照合範囲802の横方向の幅は、車両10からの距離が離れる程大きく設定される。このように、候補点カウント部32は、車線区画線の曲率が大きい程、照合範囲を拡大することで、十分な数の候補点を検出することができる。ここで、候補点カウント部32は、車線区画線の曲率が所定のしきい値以下の場合、車線区画線は直線であると判定して、第1照合範囲候補の横方向の幅を一定としてもよい。 The width of the candidate point counting unit 32 in the lateral direction, which is a direction orthogonal to the traveling direction of the vehicle 10 in the first collation range candidate, increases as the curvature of the lane marking line increases with respect to the image generated by the camera 2. The first collation range candidate is set as described above. The candidate point counting unit 32 sets the second collation range candidate so as to include the first collation range candidate and be larger than the first collation range candidate. The collation range setting unit 33 sets the collation range based on at least one of the first collation range candidate and the second collation range candidate set in this way. FIG. 8 is a diagram for explaining that the collation range in the lateral direction orthogonal to the traveling direction of the vehicle is changed according to the curvature of the lane marking line. As shown in FIG. 8, when the road in front of the vehicle 10 is curved and the lane marking line 801 is also curved, the lateral width of the collation range 802 increases as the distance from the vehicle 10 increases. It is set large. As described above, the candidate point counting unit 32 can detect a sufficient number of candidate points by expanding the collation range as the curvature of the lane marking line increases. Here, when the curvature of the lane marking line is equal to or less than a predetermined threshold value, the candidate point counting unit 32 determines that the lane marking line is a straight line, and sets the width of the first collation range candidate in the lateral direction to be constant. May be good.

また、候補点カウント部32は、カメラ2により画像が撮影された情報取得時刻における車両10の位置及び進行方向と、地図情報が含む車線区画線の位置情報とに基づいて、走行している車線の曲率として車線区画線の曲率を求め、この曲率が大きい程、第1照合範囲候補の横方向の幅が広がるように第1照合範囲候補を設定してもよい。情報取得時刻における車両10の進行方向を、位置決定時刻における位置の経時変化、又は、情報取得時刻におけるヨーレートに基づいて決定してもよい。 Further, the candidate point counting unit 32 is traveling in a lane based on the position and traveling direction of the vehicle 10 at the information acquisition time when the image was taken by the camera 2 and the position information of the lane marking line included in the map information. The curvature of the lane marking line may be obtained as the curvature of, and the first collation range candidate may be set so that the larger the curvature, the wider the width of the first collation range candidate in the lateral direction. The traveling direction of the vehicle 10 at the information acquisition time may be determined based on the time course of the position at the position determination time or the yaw rate at the information acquisition time.

更に、候補点カウント部32は、第3のしきい値以上の曲率の車線区画線を含む画像内の領域を、照合範囲から除外してもよい。候補点カウント部32は、この第3のしきい値を、例えば、以下のようにして求めることができる。まず、測位情報に基づいて決定される車両10の進行方向のずれΔzは既知であるとする。また、候補点カウント部32は、地図情報に含まれる車線区画線と車線区画線と隣接する路肩の位置情報に基づいて、車線区画線と隣接する路肩との距離Δxを求める。候補点カウント部32は、地図情報が含む車線区画線の位置を、進行方向にΔzずらして、車線区画線が隣接する路肩と重なる位置における車線区画線の曲率を求めて、この車線区画線の曲率を第3のしきい値とする。 Further, the candidate point counting unit 32 may exclude a region in the image including the lane marking line having a curvature equal to or higher than the third threshold value from the collation range. The candidate point counting unit 32 can obtain this third threshold value as follows, for example. First, it is assumed that the deviation Δz in the traveling direction of the vehicle 10 determined based on the positioning information is known. Further, the candidate point counting unit 32 obtains the distance Δx between the lane marking line and the adjacent road shoulder based on the position information of the lane marking line and the road shoulder adjacent to the lane marking line included in the map information. The candidate point counting unit 32 shifts the position of the lane lane marking included in the map information by Δz in the traveling direction, obtains the curvature of the lane lane marking at the position where the lane lane marking overlaps with the adjacent shoulder, and obtains the curvature of the lane marking line. Let the curvature be the third threshold.

図9は、カメラ2により生成された画像900内に検出された候補点の一部を照合範囲から除外することを説明する図である。画像900は、車線区画線901と、照合範囲902とを含む。候補点カウント部32は、第3のしきい値以上の曲率の車線区画線を含む画像内の領域1003を、画像内の照合範囲から除外する。これにより、候補点カウント部32は、路肩等の地物を照合範囲から除外して、候補点として照合されることを防ぐ。 FIG. 9 is a diagram for explaining that a part of the candidate points detected in the image 900 generated by the camera 2 is excluded from the collation range. Image 900 includes a lane marking line 901 and a collation range 902. The candidate point counting unit 32 excludes the region 1003 in the image including the lane marking line having a curvature equal to or higher than the third threshold value from the collation range in the image. As a result, the candidate point counting unit 32 excludes features such as shoulders from the collation range to prevent collation as candidate points.

また、プロセッサ23は、カメラ2により生成された画像を、車両10の進行方向又は横方向に沿って複数の領域に分割する領域分割部38を有していてもよい(図3参照)。領域分割部38は、画像を、複数の領域に分割して、複数の領域を表す情報を、候補点検出部31へ通知する。図10は、カメラ2により生成された画像1000を車両10の進行方向において3つの領域1000a、1000b、1000cに分割して、分割された領域ごとに照合範囲を設定することを説明する図である。候補点カウント部32は、複数の領域1000a、1000b、1000cごとに設定される第1照合範囲候補内の候補点の数をカウントし、かつ、複数の領域1000a、1000b、1000cごとに設定される第2照合範囲候補内の数を前記候補点の数をカウントする。照合範囲設定部33は、複数の領域1000a、1000b、1000cごとに、第1照合範囲候補内の候補点の数又は第2照合範囲候補内の候補点の数のうちの少なくとも1つに基づいて、照合範囲1001,1002,1003を設定する。 Further, the processor 23 may have a region dividing unit 38 that divides the image generated by the camera 2 into a plurality of regions along the traveling direction or the lateral direction of the vehicle 10 (see FIG. 3). The area division unit 38 divides the image into a plurality of areas and notifies the candidate point detection unit 31 of information representing the plurality of areas. FIG. 10 is a diagram illustrating that the image 1000 generated by the camera 2 is divided into three regions 1000a, 1000b, and 1000c in the traveling direction of the vehicle 10 and a collation range is set for each of the divided regions. .. The candidate point counting unit 32 counts the number of candidate points in the first collation range candidate set for each of the plurality of regions 1000a, 1000b, 1000c, and is set for each of the plurality of regions 1000a, 1000b, 1000c. The number of the candidate points in the second collation range candidate is counted. The collation range setting unit 33 is based on at least one of the number of candidate points in the first collation range candidate or the number of candidate points in the second collation range candidate for each of the plurality of regions 1000a, 1000b, and 1000c. , The collation range 1001, 1002, 1003 is set.

本発明では、上述した実施形態の位置推定装置、本発明の趣旨を逸脱しない限り適宜変更が可能である。 In the present invention, the position estimation device of the above-described embodiment can be appropriately modified as long as the gist of the present invention is not deviated.

例えば、上述した実施形態では、領域データは、カメラが撮影した画像であり、2次元の情報を有していた。この領域データは、レーザ又はミリ波等の電磁波を照射して地物から反射された反射波に基づいて求められた地物を表す距離画像であってもよい。この場合、領域データは、三次元の情報を有する。 For example, in the above-described embodiment, the area data is an image taken by a camera and has two-dimensional information. This region data may be a distance image representing a feature obtained based on a reflected wave reflected from the feature by irradiating an electromagnetic wave such as a laser or millimeter wave. In this case, the area data has three-dimensional information.

また、上述した実施形態では、画像内に検出される候補点は、車線区画線であったが、画像内に検出される候補点は、路肩、壁又はガードレールであってもよい。例えば、候補点として、路肩が検出される場合、照合範囲は、路肩と隣接するガードレールが候補点として照合されないように設定されることが好ましい。 Further, in the above-described embodiment, the candidate point detected in the image is the lane marking line, but the candidate point detected in the image may be a road shoulder, a wall, or a guardrail. For example, when a road shoulder is detected as a candidate point, the collation range is preferably set so that the guardrail adjacent to the road shoulder is not collated as a candidate point.

また、上述した実施形態において、第2照合範囲候補を含みかつ第2照合範囲候補よりも大きい、領域データ内に設定される第3照合範囲候補内の候補点の数をカウントして、第1照合範囲候補内の候補点の数又は第2照合範囲候補内の候補点の数又は第3照合範囲候補内の候補点の数のうちの少なくとも1つに基づいて、地図上の対応する地物の位置と照合する照合範囲を領域データに対して設定してもよい。 Further, in the above-described embodiment, the number of candidate points in the third collation range candidate set in the area data, which includes the second collation range candidate and is larger than the second collation range candidate, is counted and the first collation range candidate is counted. Corresponding features on the map based on at least one of the number of candidate points in the collation range candidate, the number of candidate points in the second collation range candidate, or the number of candidate points in the third collation range candidate. A collation range for collating with the position of may be set for the area data.

また、上述した実施形態において、領域データ(画像)内に左側の車線区画線を含むように照合範囲を設定し、かつ、領域データ内に右側の車線区画線を含むように照合範囲を設定してもよい。これにより、領域データ内の左右それぞれの照合範囲内の候補点を独立して検出することができる。 Further, in the above-described embodiment, the collation range is set so as to include the left lane division line in the area data (image), and the collation range is set so as to include the right lane division line in the area data. You may. As a result, the candidate points in the left and right collation ranges in the area data can be independently detected.

1 車両制御システム
2 カメラ
3 測位情報受信機
4 第1電子制御装置
5 第2電子制御装置
6 車内ネットワーク
10 車両
21 通信インターフェース
22 メモリ
23 プロセッサ
31 候補点検出部
32 候補点カウント部
33 照合範囲設定部
34 位置推定部
35 物体検出部
36 運転計画部
37 車両制御部
1 Vehicle control system 2 Camera 3 Positioning information receiver 4 1st electronic control device 5 2nd electronic control device 6 In-vehicle network 10 Vehicle 21 Communication interface 22 Memory 23 Processor 31 Candidate point detection unit 32 Candidate point counting unit 33 Collation range setting unit 34 Position estimation unit 35 Object detection unit 36 Operation planning unit 37 Vehicle control unit

Claims (8)

地物が表された地図を記憶する記憶部と、
移動物体に取り付けられたセンサを用いて取得された当該移動物体の周囲の所定の領域内の地物を表す領域データから、前記地物を表す複数の候補点を検出する検出部と、
前記複数の候補点の中から、前記領域データに対して設定される第1照合範囲候補内の前記候補点の数をカウントし、かつ、前記複数の候補点の中から、前記第1照合範囲候補を含みかつ前記第1照合範囲候補よりも大きい、前記データ領域に対して設定される第2照合範囲候補内の前記候補点の数をカウントする候補点カウント部と、
前記第1照合範囲候補内の前記候補点の数又は前記第2照合範囲候補内の前記候補点の数のうちの少なくとも1つに基づいて、前記地図上の対応する前記地物の位置と照合する照合範囲を前記データ領域に対して設定する照合範囲設定部と、
前記複数の候補点の中から前記照合範囲内に含まれる前記候補点と、前記地図上の対応する前記地物とを照合することで、前記移動物体の位置を推定する位置推定部と、
を有する位置推定装置。
A memory unit that stores a map showing features and
A detection unit that detects a plurality of candidate points representing the feature from the area data representing the feature in a predetermined area around the moving object acquired by using a sensor attached to the moving object.
From the plurality of candidate points, the number of the candidate points in the first collation range candidate set for the area data is counted, and from the plurality of candidate points, the first collation range. A candidate point counting unit that includes candidates and is larger than the first collation range candidate and counts the number of the candidate points in the second collation range candidate set for the data area.
Collation with the position of the corresponding feature on the map based on at least one of the number of candidate points in the first collation range candidate or the number of candidate points in the second collation range candidate. A collation range setting unit that sets the collation range to be performed for the data area,
A position estimation unit that estimates the position of the moving object by collating the candidate point included in the collation range from the plurality of candidate points with the corresponding feature on the map.
A position estimator having.
前記照合範囲設定部は、
前記第1照合範囲候補内の前記候補点の数が、第1のしきい値よりも大きいか、又は、前記第1照合範囲候補内の前記候補点の数が前記第1のしきい値以下であり、かつ、前記第2照合範囲候補内の前記候補点の数に対する前記第1照合範囲候補内の前記候補点の数の比が第2のしきい値よりも大きい場合、前記第1照合範囲候補を前記照合範囲として決定し、
前記第1照合範囲候補内の前記候補点の数が、前記第1のしきい値以下であり、かつ、前記第2照合範囲候補内の前記候補点の数に対する前記第1照合範囲候補内の前記候補点の数の比が前記第2のしきい値以下の場合、前記第2照合範囲候補を前記照合範囲として決定する請求項1に記載の位置推定装置。
The collation range setting unit is
The number of the candidate points in the first collation range candidate is larger than the first threshold value, or the number of the candidate points in the first collation range candidate is equal to or less than the first threshold value. When the ratio of the number of the candidate points in the first collation range candidate to the number of the candidate points in the second collation range candidate is larger than the second threshold value, the first collation The range candidate is determined as the collation range, and
The number of the candidate points in the first collation range candidate is equal to or less than the first threshold value, and the number of the candidate points in the second collation range candidate is in the first collation range candidate. The position estimation device according to claim 1, wherein when the ratio of the number of candidate points is equal to or less than the second threshold value, the second collation range candidate is determined as the collation range.
前記照合範囲設定部は、前記移動物体から離れる程、前記照合範囲の幅が広がるように当該照合範囲を設定する前記請求項1又は2に記載の位置推定装置。 The position estimation device according to claim 1 or 2, wherein the collation range setting unit sets the collation range so that the width of the collation range increases as the distance from the moving object increases. 前記地物は車線区画線であり、
前記照合範囲設定部は、
前記データ領域内に検出された複数の前記候補点により形成される曲線から、前記データ領域内の車線区画線の曲率を推定し、
前記曲率が大きい程、前記照合範囲の幅が広がるように当該照合範囲を設定する請求項1〜3の何れか一項に記載の位置推定装置。
The feature is a lane marking line
The collation range setting unit is
The curvature of the lane marking line in the data area is estimated from the curve formed by the plurality of candidate points detected in the data area.
The position estimation device according to any one of claims 1 to 3, wherein the collation range is set so that the width of the collation range becomes wider as the curvature is larger.
前記地物は車線区画線であり、
前記地図は車線区画線の位置を表し、
前記照合範囲設定部は、
前記位置推定部により推定された前記移動物体の現在位置及び進行方向と、前記地図に表わされる車線区画線の位置とに基づいて、前記データ領域内の車線区画線の曲率を求め、
前記曲率が大きい程、前記照合範囲の幅が広がるように当該照合範囲を設定する請求項1〜3の何れか一項に記載の位置推定装置。
The feature is a lane marking line
The map shows the location of the lane markings
The collation range setting unit is
Based on the current position and traveling direction of the moving object estimated by the position estimation unit and the position of the lane marking line represented on the map, the curvature of the lane marking line in the data area is obtained.
The position estimation device according to any one of claims 1 to 3, wherein the collation range is set so that the width of the collation range becomes wider as the curvature is larger.
前記照合範囲設定部は、第3のしきい値以上の前記曲率の車線区画線を含む前記領域データ内の領域を、前記照合範囲から除外する請求項4又は5に記載の位置推定装置。 The position estimation device according to claim 4 or 5, wherein the collation range setting unit excludes a region in the region data including a lane marking line having the curvature equal to or higher than a third threshold value from the collation range. 前記領域データを、前記移動物体の進行方向に沿って複数の領域に分割する領域分割部を有し、
前記検出部は、前記複数の候補点の中から、前記複数の領域ごとに前記候補点を検出し、
前記候補点カウント部は、前記複数の領域ごとに設定される前記第1照合範囲候補内の前記候補点の数をカウントし、かつ、前記複数の領域ごとに設定される前記第2照合範囲候補内の数を前記候補点の数をカウントし、
前記照合範囲設定部は、前記複数の領域ごとに、前記第1照合範囲候補内の前記候補点の数又は前記第2照合範囲候補内の前記候補点の数のうちの少なくとも1つに基づいて、前記照合範囲を設定する請求項1又は2に記載の位置推定装置。
It has a region dividing portion that divides the region data into a plurality of regions along the traveling direction of the moving object.
The detection unit detects the candidate points for each of the plurality of candidate points from the plurality of candidate points.
The candidate point counting unit counts the number of the candidate points in the first collation range candidate set for each of the plurality of regions, and the second collation range candidate set for each of the plurality of regions. Count the number of the candidate points,
The collation range setting unit is based on at least one of the number of the candidate points in the first collation range candidate or the number of candidate points in the second collation range candidate for each of the plurality of regions. The position estimation device according to claim 1 or 2, wherein the collation range is set.
移動物体に取り付けられたセンサを用いて取得された当該移動物体の周囲の所定の領域内の地物を表す領域データから、前記地物を表す複数の候補点を検出することと、
前記複数の候補点の中から、前記領域データに対して設定される第1照合範囲候補内の前記候補点の数をカウントし、かつ、前記複数の候補点の中から、前記第1照合範囲候補を含みかつ前記第1照合範囲候補よりも大きい、前記データ領域に対して設定される第2照合範囲候補内の前記候補点の数をカウントすることと、
前記第1照合範囲候補内の前記候補点の数又は前記第2照合範囲候補内の前記候補点の数のうちの少なくとも1つに基づいて、前記地物が表された地図上の対応する前記地物の位置と照合する照合範囲を前記データ領域に対して設定することと、
前記複数の候補点の中から前記照合範囲内に含まれる前記候補点と、前記地図上の対応する前記地物とを照合することで、前記移動物体の位置を推定すること、
を、プロセッサに実行させるコンピュータプログラム。
From the area data representing a feature in a predetermined area around the moving object acquired by using a sensor attached to the moving object, a plurality of candidate points representing the feature can be detected.
From the plurality of candidate points, the number of the candidate points in the first collation range candidate set for the area data is counted, and from the plurality of candidate points, the first collation range. Counting the number of the candidate points in the second collation range candidate set for the data area, which includes the candidates and is larger than the first collation range candidate.
Corresponding said features on a map representing the feature based on at least one of the number of candidate points in the first collation range candidate or the number of candidate points in the second collation range candidate. Setting a collation range to match the position of the feature with respect to the data area
To estimate the position of the moving object by collating the candidate point included in the collation range with the corresponding feature on the map from the plurality of candidate points.
A computer program that causes the processor to execute.
JP2019110253A 2019-06-13 2019-06-13 Position estimation device and computer program Active JP7334489B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019110253A JP7334489B2 (en) 2019-06-13 2019-06-13 Position estimation device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019110253A JP7334489B2 (en) 2019-06-13 2019-06-13 Position estimation device and computer program

Publications (2)

Publication Number Publication Date
JP2020201210A true JP2020201210A (en) 2020-12-17
JP7334489B2 JP7334489B2 (en) 2023-08-29

Family

ID=73743334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019110253A Active JP7334489B2 (en) 2019-06-13 2019-06-13 Position estimation device and computer program

Country Status (1)

Country Link
JP (1) JP7334489B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935198A (en) * 1995-07-14 1997-02-07 Mitsubishi Electric Corp Traveling road detector for vehicle
JP2009288867A (en) * 2008-05-27 2009-12-10 Toyota Motor Corp Lane marking detection device and lane marking detection method
WO2017056249A1 (en) * 2015-09-30 2017-04-06 日産自動車株式会社 Travel control method and travel control device
WO2018212280A1 (en) * 2017-05-19 2018-11-22 パイオニア株式会社 Measurement device, measurement method and program
WO2018212283A1 (en) * 2017-05-19 2018-11-22 パイオニア株式会社 Measurement device, measurement method and program
JP2018200501A (en) * 2017-05-25 2018-12-20 日産自動車株式会社 Lane information output method and lane information output device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935198A (en) * 1995-07-14 1997-02-07 Mitsubishi Electric Corp Traveling road detector for vehicle
JP2009288867A (en) * 2008-05-27 2009-12-10 Toyota Motor Corp Lane marking detection device and lane marking detection method
WO2017056249A1 (en) * 2015-09-30 2017-04-06 日産自動車株式会社 Travel control method and travel control device
WO2018212280A1 (en) * 2017-05-19 2018-11-22 パイオニア株式会社 Measurement device, measurement method and program
WO2018212283A1 (en) * 2017-05-19 2018-11-22 パイオニア株式会社 Measurement device, measurement method and program
JP2018200501A (en) * 2017-05-25 2018-12-20 日産自動車株式会社 Lane information output method and lane information output device

Also Published As

Publication number Publication date
JP7334489B2 (en) 2023-08-29

Similar Documents

Publication Publication Date Title
US11530924B2 (en) Apparatus and method for updating high definition map for autonomous driving
KR102483649B1 (en) Vehicle localization method and vehicle localization apparatus
Spangenberg et al. Pole-based localization for autonomous vehicles in urban scenarios
JP4297501B2 (en) Moving object periphery monitoring device
US20090041337A1 (en) Image processing apparatus and method
US20090169052A1 (en) Object Detector
JP4702569B2 (en) Image processing apparatus for vehicle
JP2018092483A (en) Object recognition device
JP6758160B2 (en) Vehicle position detection device, vehicle position detection method and computer program for vehicle position detection
US11143511B2 (en) On-vehicle processing device
US11663808B2 (en) Distance estimating device and storage medium storing computer program for distance estimation
JP6911312B2 (en) Object identification device
CN112805766B (en) Apparatus and method for updating detailed map
US10554951B2 (en) Method and apparatus for the autocalibration of a vehicle camera system
JP2020067698A (en) Partition line detector and partition line detection method
KR20110060315A (en) A method of recognizing self-localization for a road-driving robot
US10614321B2 (en) Travel lane detection method and travel lane detection device
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP6988873B2 (en) Position estimation device and computer program for position estimation
JP7234840B2 (en) position estimator
JP2006053754A (en) Plane detection apparatus and detection method
JP4270386B2 (en) Moving body moving amount calculation device
US20230079899A1 (en) Determination of an absolute initial position of a vehicle
US20220307842A1 (en) Vehicle controller, and method and computer program for controlling vehicle
JP7334489B2 (en) Position estimation device and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230718

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R151 Written notification of patent or utility model registration

Ref document number: 7334489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151