JP6278790B2 - Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system - Google Patents

Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system Download PDF

Info

Publication number
JP6278790B2
JP6278790B2 JP2014071929A JP2014071929A JP6278790B2 JP 6278790 B2 JP6278790 B2 JP 6278790B2 JP 2014071929 A JP2014071929 A JP 2014071929A JP 2014071929 A JP2014071929 A JP 2014071929A JP 6278790 B2 JP6278790 B2 JP 6278790B2
Authority
JP
Japan
Prior art keywords
line segment
image
map
vehicle
distribution information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014071929A
Other languages
Japanese (ja)
Other versions
JP2015194373A (en
Inventor
孝介 原
孝介 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Priority to JP2014071929A priority Critical patent/JP6278790B2/en
Publication of JP2015194373A publication Critical patent/JP2015194373A/en
Application granted granted Critical
Publication of JP6278790B2 publication Critical patent/JP6278790B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)

Description

本発明は、車両に搭載されたカメラにより撮影された画像と地図を利用してその車両の位置を検出する車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システムに関する。   The present invention relates to a vehicle position detection device, a vehicle position detection method, a vehicle position detection computer program, and a vehicle position detection system that detect the position of the vehicle using an image and a map captured by a camera mounted on the vehicle. .

従来より、ナビゲーションまたは運転支援のために、Global Positioning System(GPS)信号を利用して、走行中の自車両の位置を検出することが行われている。しかし、車両の近くに、高層建築物など、GPSの測位衛星からの測位信号を遮る構造物が存在する場合、車両において測位信号を受信することが困難となり、自車両の位置を正確に検出できないことがあった。そこで、車載カメラにより撮影された、車両周囲の画像と、事前に準備された地図などの情報とを対応付けることで、自車両の位置の検出精度を向上させる方法が提案されている(例えば、特許文献1〜3及び非特許文献1を参照)。   2. Description of the Related Art Conventionally, for navigation or driving assistance, a position of the host vehicle while traveling is detected using a Global Positioning System (GPS) signal. However, when there is a structure that blocks the positioning signal from the GPS positioning satellite, such as a high-rise building, near the vehicle, it becomes difficult to receive the positioning signal in the vehicle, and the position of the host vehicle cannot be detected accurately. There was a thing. Therefore, a method for improving the accuracy of detecting the position of the host vehicle by associating an image of the surroundings of the vehicle, which is captured by the in-vehicle camera, with information such as a map prepared in advance has been proposed (for example, a patent). References 1-3 and Non-Patent Document 1).

例えば、特許文献1に記載の位置測位装置は、車両の前方を撮影する撮影手段により撮影した画像の中にある道路標示に基づいて現在位置を特定する。   For example, the position positioning device described in Patent Document 1 specifies the current position based on a road marking in an image captured by an imaging unit that captures the front of the vehicle.

また、特許文献2に記載された移動体位置測定装置は、地図上の参照地点付近で移動体に搭載された撮像部が撮影して得た画像から抽出した特徴情報と、地図の参照地点付近の画像から抽出した特徴情報とをマッチングして推定した参照地点付近の複数の特徴の位置に応じて移動体の現在位置を推定する。   In addition, the moving body position measuring device described in Patent Document 2 includes feature information extracted from an image captured by an imaging unit mounted on a moving body in the vicinity of a reference point on the map, and the vicinity of the reference point on the map. The current position of the moving object is estimated in accordance with the positions of a plurality of features near the reference point estimated by matching with the feature information extracted from the image.

また、特許文献3に記載された方法は、車両の進行方向の画像データに対してテンプレートマッチングを適用することで、画像内で識別された光学指標に関して車両の位置を決定する。   Moreover, the method described in Patent Document 3 determines the position of the vehicle with respect to the optical index identified in the image by applying template matching to the image data in the traveling direction of the vehicle.

さらに、非特許文献1に記載された方法は、縁石及び道路標示を表す線分含む地図とステレオカメラにより得られた画像から抽出された特徴点とのマッチングにより、自車両の位置を検出する。   Furthermore, the method described in Non-Patent Document 1 detects the position of the host vehicle by matching a map including line segments representing curbs and road markings and feature points extracted from an image obtained by a stereo camera.

特開2007−108043号公報JP 2007-108043 A 特開2012−127896号公報JP 2012-127896 A 特開2005−136946号公報JP 2005-136946 A

Schreiber他、「LaneLoc: Lane Marking based Localization using Highly Accurate Maps」、Intelligent Vehicles Symposium (IV)、2013 IEEE、IEEE、2013Schreiber et al., "LaneLoc: Lane Marking based Localization using Highly Accurate Maps", Intelligent Vehicles Symposium (IV), 2013 IEEE, IEEE, 2013

しかし、特許文献1に記載の装置は、撮影時の環境の影響などにより、道路標示の特徴点の検出が困難な場合、自車両の位置を正確に特定できないおそれがある。特に、特許文献1に記載の装置は、道路標示の端点などを特徴点として抽出し、その特徴点を用いて車両の現在位置を求めるので、道路標示の経年劣化などにより、道路標示の端点がわずかに掠れるだけでも抽出された特徴点の位置がずれてしまい、自車両の位置の検出精度の低下を招いてしまう。   However, the device described in Patent Document 1 may not be able to accurately identify the position of the host vehicle when it is difficult to detect feature points of road markings due to environmental influences during shooting. In particular, the device described in Patent Document 1 extracts a road marking end point or the like as a feature point, and uses the feature point to determine the current position of the vehicle. Even if it is slightly drowned, the position of the extracted feature point is shifted, and the detection accuracy of the position of the host vehicle is lowered.

また、特許文献2に記載の装置は、地図の参照地点付近で撮影された画像を自車両の位置の特定に利用するが、参照地点の付近の建物の建て替え、あるいは、撮影時の環境(例えば、天候、撮影時間帯など)によって、同じ場所について撮影された画像であっても、事前登録時に撮影された画像に写っている景色と、自車両位置の検出時に撮影された画像に写っている景色は大きく異なることがある。このような場合、画像間のマッチングに失敗する可能性が高くなり、そのため、自車両の位置を正確に特定できないおそれがある。   The device described in Patent Document 2 uses an image photographed in the vicinity of a reference point on a map for specifying the position of the host vehicle, but rebuilding a building near the reference point or an environment at the time of photographing (for example, , Weather, shooting time, etc.), even if the image was taken at the same location, it appears in the scene taken in the image taken at the time of pre-registration and in the image taken when the vehicle position was detected The scenery can vary greatly. In such a case, there is a high possibility that matching between images will fail, and therefore the position of the host vehicle may not be accurately identified.

さらに、特許文献3に記載の方法は、テンプレートマッチングを利用している。テンプレートマッチングでは、比較対象となる画像とテンプレート間の位置を変えつつ、繰り返しマッチング演算する必要が有るため、自車両の位置の検出に要する演算量が多い。また、非特許文献1に記載の方法では、縁石の検出と道路標示の検出に異なるアルゴリズムが利用されており、それらの検出にステレオ画像を利用するので、演算量が多い。そのためこれらの方法では、自車両の位置の検出に必要なハードウェアリソースが増えてしまうか、あるいは、自車両の位置の検出に時間を要するので、自車両の位置の更新間隔が長くなってしまう。   Furthermore, the method described in Patent Document 3 uses template matching. In template matching, since it is necessary to repeatedly perform matching calculation while changing the position between the image to be compared and the template, a large amount of calculation is required for detecting the position of the host vehicle. Further, in the method described in Non-Patent Document 1, different algorithms are used for curb detection and road marking detection, and a stereo image is used for these detections. Therefore, in these methods, hardware resources necessary for detecting the position of the own vehicle increase, or time is required for detecting the position of the own vehicle, so that the update interval of the position of the own vehicle becomes long. .

そこで、本発明は、低い処理負荷で、自車両の位置を正確に検出できる車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システムを提供することを目的とする。   Therefore, an object of the present invention is to provide a vehicle position detection device, a vehicle position detection method, a vehicle position detection computer program, and a vehicle position detection system that can accurately detect the position of the host vehicle with a low processing load.

請求項1の記載によれば、本発明の一つの形態として、車両位置検出装置が提供される。この車両位置検出装置は、道路上にある物体の輪郭を表す複数の地図線分のそれぞれの位置を含む地図と、局所ごと、かつ、地図線分の向きごとの地図線分の分布を表す地図線分分布情報を記憶する記憶部(41)と、車両(10)に搭載された撮像部(2)が車両(10)の周囲を撮影して得られた画像から、その画像に写っている道路上の物体の輪郭を表す複数の線分を抽出する線特徴抽出部(432、532)と、画像上で、局所ごと、かつ、線分の向きごとの線分の分布を表す画像線分分布情報を求める線分布情報算出部(433、534)と、地図上に設定される複数の仮想撮影点のそれぞれについて、仮想撮影点における地図線分分布情報と画像線分分布情報間の一致度合を表す評価値を算出し、評価値が最大となる仮想撮影点を車両の位置とする比較部とを有する。
本発明による車両位置検出装置は、上記の構成を有することにより、低い処理負荷で、自車両の位置を正確に検出できる。
According to the first aspect of the present invention, a vehicle position detecting device is provided as one aspect of the present invention. The vehicle position detection device includes a map including positions of a plurality of map line segments representing the outline of an object on a road, and a map representing a distribution of map line segments for each locality and for each direction of the map line segment. A storage unit (41) for storing line segment distribution information and an imaging unit (2) mounted on the vehicle (10) are shown in the image obtained by photographing the surroundings of the vehicle (10). A line feature extraction unit (432, 532) that extracts a plurality of line segments representing the contour of an object on the road, and an image line segment that represents the distribution of line segments for each local area and for each line segment direction on the image The degree of coincidence between the map line segment distribution information and the image line segment distribution information at the virtual shooting point for each of a plurality of virtual shooting points set on the map and the line distribution information calculation unit (433, 534) for obtaining distribution information A virtual shooting point where the evaluation value is calculated and the evaluation value is maximized And a comparing section that the position of the vehicle.
Since the vehicle position detection device according to the present invention has the above-described configuration, the position of the host vehicle can be accurately detected with a low processing load.

また請求項2の記載によれば、記憶部(41)は、複数の仮想撮影点のそれぞれについて、仮想撮影点から、撮像部(2)で地図を仮想的に撮影して得られる仮想画像を分割した複数の格子のそれぞれについて、格子に含まれる、仮想画像上に表された地図線分の向きごとの分布を地図線分分布情報として記憶することが好ましい。この場合において、線分布情報算出部(433)は、画像を複数の格子に分割し、複数の格子のそれぞれについて、格子に含まれる、画像上に表された線分の向きごとの分布を画像線分分布情報とすることが好ましい。
このような構成を有することで、車両位置検出装置は、仮想撮影点ごとに、撮像部により実際に車両の周囲を撮影して得られる画像と同じように見える仮想画像から得られる地図線分分布情報を画像線分分布情報との比較に利用するので、地図線分分布情報と画像線分分布情報とを適切に比較できる。そのため、車両位置検出装置は、仮想撮影点のうち、車両の位置に最も近い仮想撮影点を正確に特定できる。
According to the second aspect of the present invention, the storage unit (41) generates a virtual image obtained by virtually shooting a map with the imaging unit (2) from the virtual shooting point for each of the plurality of virtual shooting points. For each of the plurality of divided grids, it is preferable to store, as map line segment distribution information, the distribution for each direction of the map line segment represented on the virtual image included in the grid. In this case, the line distribution information calculation unit (433) divides the image into a plurality of lattices, and for each of the plurality of lattices, the distribution for each direction of the line segment represented on the image included in the lattice is imaged. It is preferable to use line segment distribution information.
By having such a configuration, the vehicle position detection device can obtain, for each virtual shooting point, a distribution of map line segments obtained from a virtual image that looks the same as an image obtained by actually shooting the periphery of the vehicle by the imaging unit. Since the information is used for comparison with the image line segment distribution information, the map line segment distribution information and the image line segment distribution information can be appropriately compared. Therefore, the vehicle position detection device can accurately specify the virtual shooting point closest to the vehicle position among the virtual shooting points.

また請求項3の記載によれば、車両位置検出装置は、複数の線分のそれぞれを鳥瞰変換して、車両(10)を基準とする車両座標系での複数の線分のそれぞれの位置を表す鳥瞰画像を求める鳥瞰変換部(533)をさらに有することが好ましい。この場合において、記憶部(41)は、地図を分割した複数の第1の格子のそれぞれについて、第1の格子に含まれる、地図上に表された地図線分の向きごとの分布を記憶し、線分布情報算出部(534)は、鳥瞰画像を複数の第2の格子に分割し、複数の第2の格子のそれぞれについて、第2の格子に含まれる、鳥瞰画像上に表された線分の向きごとの分布を画像線分分布情報とし、比較部(536)は、複数の仮想撮影点のそれぞれについて、仮想撮影点に応じて車両座標系での複数の第2の格子のそれぞれに対応する第1の格子を特定し、複数の第2の格子のそれぞれに対応する第1の格子のそれぞれの地図線分の向きごとの分布を、仮想撮影点についての地図線分分布情報とすることが好ましい。
このような構成を有することで、車両位置検出装置は、撮像部により実際に車両の周囲を撮影して得られる画像を地図と同じように見える鳥瞰画像から得られる画像線分分布情報を地図線分分布情報との比較に利用する。また、車両位置検出装置は、仮想撮影点に応じて、第2の格子のそれぞれに対応する第1の格子を特定するので、仮想撮影点ごとに、画像線分分布情報と比較すべき地図線分分布情報を適切に設定できる。そのため、車両位置検出装置は、仮想撮影点のうち、車両の位置に最も近い仮想撮影点を正確に特定できる。
According to a third aspect of the present invention, the vehicle position detection device performs bird's-eye conversion on each of the plurality of line segments, and determines the position of each of the plurality of line segments in the vehicle coordinate system based on the vehicle (10). It is preferable to further include a bird's-eye conversion unit (533) for obtaining a bird's-eye image to be represented. In this case, the storage unit (41) stores, for each of the plurality of first grids obtained by dividing the map, the distribution for each direction of the map line segment represented on the map included in the first grid. The line distribution information calculation unit (534) divides the bird's-eye image into a plurality of second grids, and the lines represented on the bird's-eye image included in the second grid for each of the plurality of second grids. The distribution for each minute direction is used as the image line segment distribution information, and the comparison unit (536) assigns each of the plurality of virtual shooting points to each of the plurality of second grids in the vehicle coordinate system according to the virtual shooting points. The corresponding first grid is specified, and the distribution for each map line direction of the first grid corresponding to each of the plurality of second grids is used as the map line segment distribution information for the virtual shooting point. It is preferable.
By having such a configuration, the vehicle position detection device can display image line segment distribution information obtained from a bird's-eye view image that looks like a map of an image obtained by actually photographing the periphery of the vehicle with an imaging unit. Used for comparison with minute distribution information. In addition, since the vehicle position detection device identifies the first grid corresponding to each of the second grids according to the virtual shooting point, the map line to be compared with the image line segment distribution information for each virtual shooting point. Minute distribution information can be set appropriately. Therefore, the vehicle position detection device can accurately specify the virtual shooting point closest to the vehicle position among the virtual shooting points.

さらに、請求項4の記載によれば、複数の地図線分のそれぞれについて、地図線分を横切る方向の輝度勾配の向きに応じて地図線分の向きが設定され、線特徴抽出部(432、532)は、検出した線分のそれぞれについて、その線分を横切る方向の輝度勾配の向きを求め、輝度勾配の向きに応じてその線分の向きを設定することが好ましい。
このような構成を有することで、車両位置検出装置は、画像線分分布情報と地図線分分布情報の比較において、道路上の物体に対する輪郭の位置の違いも評価することができる。そのため、この車両位置検出システムは、車両の位置をより正確に検出できる。
Furthermore, according to the description of claim 4, for each of the plurality of map line segments, the direction of the map line segment is set according to the direction of the luminance gradient in the direction crossing the map line segment, and the line feature extraction unit (432, 532), for each detected line segment, it is preferable to obtain the direction of the luminance gradient in the direction crossing the line segment and set the direction of the line segment according to the direction of the luminance gradient.
With such a configuration, the vehicle position detection device can also evaluate the difference in the position of the contour with respect to the object on the road in the comparison between the image line segment distribution information and the map line segment distribution information. Therefore, this vehicle position detection system can detect the position of the vehicle more accurately.

また、請求項5の記載によれば、本発明の他の形態として、車両位置検出方法が提供される。この車両位置検出方法は、車両(10)に搭載された撮像部(2)が車両(10)の周囲を撮影して得られた画像から、その画像に写っている道路上の物体の輪郭を表す複数の線分を抽出するステップと、画像上で、局所ごと、かつ、線分の向きごとの線分の分布を表す画像線分分布情報を求めるステップと、道路上にある物体の輪郭を表す複数の地図線分のそれぞれの位置を含む地図上に設定される複数の仮想撮影点のそれぞれについて、仮想撮影点における、局所ごと、かつ、地図線分の向きごとの地図線分の分布を表す地図線分分布情報と画像線分分布情報間の一致度合を表す評価値を算出し、評価値が最大となる仮想撮影点を前記車両(10)の位置とするステップとを含む。
本発明による車両位置検出方法は、上記のステップを有することにより、低い処理負荷で、自車両の位置を正確に検出できる。
Moreover, according to the description of Claim 5, the vehicle position detection method is provided as another form of this invention. In this vehicle position detection method, the contour of the object on the road shown in the image is obtained from the image obtained by photographing the periphery of the vehicle (10) by the imaging unit (2) mounted on the vehicle (10). A step of extracting a plurality of line segments to be represented; a step of obtaining image line segment distribution information representing a distribution of line segments for each local and direction of the line segment on the image; and an outline of an object on the road For each of the plurality of virtual shooting points set on the map including the positions of the plurality of map line segments to be represented, the distribution of the map line segments for each local area and for each direction of the map line segment at the virtual shooting point is calculated. Calculating an evaluation value representing the degree of coincidence between the map line segment distribution information to be represented and the image line segment distribution information, and setting the virtual shooting point having the maximum evaluation value as the position of the vehicle (10).
Since the vehicle position detection method according to the present invention includes the above steps, the position of the host vehicle can be accurately detected with a low processing load.

また、請求項6の記載によれば、本発明のさらに他の形態として、車両位置検出用コンピュータプログラムが提供される。このコンピュータプログラムは、車両(10)に搭載された撮像部(2)が車両(10)の周囲を撮影して得られた画像から、その画像に写っている道路上の物体の輪郭を表す複数の線分を抽出するステップと、画像上で、局所ごと、かつ、線分の向きごとの線分の分布を表す画像線分分布情報を求めるステップと、道路上にある物体の輪郭を表す複数の地図線分のそれぞれの位置を含む地図上に設定される複数の仮想撮影点のそれぞれについて、仮想撮影点における、局所ごと、かつ、地図線分の向きごとの地図線分の分布を表す地図線分分布情報と画像線分分布情報間の一致度合を表す評価値を算出し、評価値が最大となる仮想撮影点を前記車両(10)の位置とするステップと、を車両(10)に搭載されたプロセッサ(43)に実行させる命令を含む。
本発明による車両位置検出用コンピュータプログラムは、上記の命令を有することにより、低い処理負荷で、自車両の位置を正確に検出できる。
According to the sixth aspect of the present invention, a computer program for detecting a vehicle position is provided as still another aspect of the present invention. This computer program is a plurality of images representing the contour of an object on a road shown in an image obtained by photographing the periphery of the vehicle (10) by the imaging unit (2) mounted on the vehicle (10). A step of extracting a line segment of the image, a step of obtaining image line segment distribution information representing the distribution of the line segment for each local and direction of the line segment on the image, and a plurality of contours representing the contour of the object on the road For each of a plurality of virtual shooting points set on the map including the respective positions of the map line segments, a map representing the distribution of the map line segments for each local area and for each direction of the map line segments at the virtual shooting points Calculating an evaluation value representing the degree of coincidence between the line segment distribution information and the image line segment distribution information, and setting the virtual photographing point having the maximum evaluation value as the position of the vehicle (10). Execute on the installed processor (43) To include an instruction.
The computer program for detecting the vehicle position according to the present invention can accurately detect the position of the host vehicle with a low processing load by having the above-described command.

また、請求項7の記載によれば、本発明のさらに他の形態として、車両位置検出システムが提供される。この車両位置検出システムは、車両(10)に搭載され、車両(10)の周囲を撮影して画像を生成する撮像部(2)と、道路上にある物体の輪郭を表す複数の地図線分のそれぞれの位置を含む地図と、局所ごと、かつ、地図線分の向きごとの地図線分の分布を表す地図線分分布情報を記憶する記憶部(41)と、撮像部(2)から画像を取得する通信部(42)と、制御部(43)とを有する。制御部(43)は、画像に写っている道路上の物体の輪郭を表す複数の線分を抽出し、画像上で、局所ごと、かつ、線分の向きごとの線分の分布を表す画像線分分布情報を求め、地図上に設定される複数の仮想撮影点のそれぞれについて、仮想撮影点における地図線分分布情報と画像線分分布情報間の一致度合を表す評価値を算出し、評価値が最大となる仮想撮影点を車両(10)の位置とする制御部(43)とを有する。
本発明による車両位置検出システムは、上記の構成を有することにより、低い処理負荷で、自車両の位置を正確に検出できる。
According to a seventh aspect of the present invention, a vehicle position detection system is provided as still another aspect of the present invention. This vehicle position detection system is mounted on a vehicle (10), captures an image of the periphery of the vehicle (10) and generates an image, and a plurality of map line segments representing the outline of an object on the road A storage unit (41) for storing a map including each of the positions, map line segment distribution information representing the distribution of map line segments for each local area and for each direction of the map line segment, and an image from the imaging unit (2). The communication unit (42) for acquiring the control unit and the control unit (43). The control unit (43) extracts a plurality of line segments representing the contour of the object on the road shown in the image, and represents the distribution of line segments for each local area and for each line segment direction on the image. The line segment distribution information is obtained, and for each of a plurality of virtual shooting points set on the map, an evaluation value indicating the degree of coincidence between the map line segment distribution information and the image line segment distribution information at the virtual shooting point is calculated and evaluated. A control unit (43) that sets the position of the vehicle (10) at the virtual shooting point having the maximum value.
The vehicle position detection system according to the present invention can accurately detect the position of the host vehicle with a low processing load by having the above-described configuration.

上記各部に付した括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示す一例である。   The reference numerals in parentheses attached to the above-described parts are examples that show the correspondence with specific means described in the embodiments described later.

本発明の一つの実施形態に係る車両位置検出システムの概略構成図である。1 is a schematic configuration diagram of a vehicle position detection system according to one embodiment of the present invention. 世界座標系と、車両座標系と、カメラ座標系の関係を示す図である。It is a figure which shows the relationship between a world coordinate system, a vehicle coordinate system, and a camera coordinate system. 地図情報の一例を示す図である。It is a figure which shows an example of map information. (a)は、輪郭を表す線分を横切る方向の輝度勾配とその線分に設定される向きの関係の一例を示す図であり、(b)は、白線について設定される各線分の向きの一例を示す図である。(A) is a figure which shows an example of the relationship between the brightness | luminance gradient of the direction crossing the line segment showing an outline, and the direction set to the line segment, (b) is the direction of each line segment set about a white line It is a figure which shows an example. 仮想撮影点の設定例を示す図である。It is a figure which shows the example of a setting of a virtual imaging | photography point. 仮想撮影点から地図に示された線分を仮想的に撮影して得られる仮想画像の例を示す図である。It is a figure which shows the example of the virtual image obtained by image | photographing the line segment shown on the map from the virtual imaging | photography point. 仮想画像に設定される格子の一例を示す図である。It is a figure which shows an example of the grating | lattice set to a virtual image. 格子ごとに算出される線分の向きごとの線分の長さのヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram of the length of the line segment for every direction of the line segment calculated for every lattice. 本発明の第1の実施形態に係る車両位置検出システムの制御部の機能ブロック図である。It is a functional block diagram of the control part of the vehicle position detection system which concerns on the 1st Embodiment of this invention. 抽出された線分の一例を示す図である。It is a figure which shows an example of the extracted line segment. 画像に設定される格子の一例を示す図である。It is a figure which shows an example of the grating | lattice set to an image. 第1の実施形態による車両位置検出処理の動作フローチャートである。It is an operation | movement flowchart of the vehicle position detection process by 1st Embodiment. 地図に設定される格子の一例を示す図である。It is a figure which shows an example of the grid | lattice set to a map. 第2の実施形態に係る車両位置検出システムの制御部の機能ブロック図である。It is a functional block diagram of the control part of the vehicle position detection system which concerns on 2nd Embodiment. 抽出された線分を鳥瞰変換することで得られた鳥瞰画像の一例である。It is an example of the bird's-eye view image obtained by carrying out bird's-eye view conversion of the extracted line segment. 鳥瞰画像に設定される格子の一例を示す図である。It is a figure which shows an example of the grating | lattice set to a bird's-eye view image. 第2の実施形態による車両位置検出処理の動作フローチャートである。It is an operation | movement flowchart of the vehicle position detection process by 2nd Embodiment.

以下、図を参照しつつ、複数の実施形態による、車両位置検出システムについて説明する。
この車両位置検出システムは、車両の周囲を撮影するカメラから取得された画像から、区画線または道路標示などの輪郭に相当する線分を検出する。この車両位置検出システムは、その画像上での局所ごと、かつ、線分の向きごとの線分の分布と、区画線または道路標示などの輪郭に相当する線分を含む地図情報においてその分布と最も一致する位置を見つけることで、車両の位置を検出する。
Hereinafter, a vehicle position detection system according to a plurality of embodiments will be described with reference to the drawings.
This vehicle position detection system detects line segments corresponding to contours such as lane markings or road markings from an image acquired from a camera that captures the periphery of the vehicle. This vehicle position detection system has a distribution of line segments for each local area on the image and for each direction of line segments, and map information including line segments corresponding to contours such as lane markings or road markings. The position of the vehicle is detected by finding the most matching position.

特に、第1の実施形態では、車両位置検出システムは、車両の周囲を撮影するカメラから得た画像を格子単位で分割し、格子ごとに、線分の向きごとの線分の長さのヒストグラムを作成する。また、この車両位置検出システムは、地図上に仮想撮影点を設定し、仮想撮影点からその地図を仮想的に撮影して得られる仮想画像についても、同様に、格子単位に分割し、格子ごとに、線分の向きごとの線分の長さのヒストグラムを予め記憶しておく。そしてこの車両位置検出システムは、画像から得られた格子ごとのヒストグラムと仮想画像から得られた格子ごとのヒストグラムとを比較することで、画像に最も近い仮想画像を特定することで、自車両の位置を検出する。   In particular, in the first embodiment, the vehicle position detection system divides an image obtained from a camera that captures the periphery of the vehicle in units of grids, and for each grid, a histogram of the length of line segments for each line segment direction. Create In addition, this vehicle position detection system also sets a virtual shooting point on a map, and similarly divides the virtual image obtained by virtually shooting the map from the virtual shooting point into units of grids. In addition, a histogram of the length of the line segment for each line segment direction is stored in advance. The vehicle position detection system compares the histogram for each grid obtained from the image with the histogram for each grid obtained from the virtual image, thereby identifying the virtual image closest to the image, thereby Detect position.

図1は、第1の実施形態による車両位置検出システムの概略構成図である。図1に示すように、車両位置検出システム1は、車両10に搭載され、車載カメラ2と、コントローラ4とを有する。車載カメラ2と、コントローラ4とは、コントロールエリアネットワーク(以下、CANという)3によって互いに接続されている。なお、図1では、説明の都合のため、車両位置検出システム1の各構成要素及び車両10の形状、サイズ及び配置は、実際のものとは異なっている。   FIG. 1 is a schematic configuration diagram of a vehicle position detection system according to a first embodiment. As shown in FIG. 1, the vehicle position detection system 1 is mounted on a vehicle 10 and includes an in-vehicle camera 2 and a controller 4. The in-vehicle camera 2 and the controller 4 are connected to each other by a control area network (hereinafter referred to as CAN) 3. In FIG. 1, for convenience of explanation, each component of the vehicle position detection system 1 and the shape, size, and arrangement of the vehicle 10 are different from actual ones.

車載カメラ2は、撮像部の一例であり、車両の前方領域を撮影し、その前方領域の画像を生成する。そのために、車載カメラ2は、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に車両10の前方に存在する地面または構造物などの像を結像する結像光学系を有する。そして車載カメラ2は、例えば、結像光学系の光軸が地面に対して略平行となり、かつ車両10の前方を向くように、車両10の車室内に配置される。そして車載カメラ2は、一定の時間間隔(例えば1/30秒)ごとに撮影し、車両10の前方領域を撮影したカラー画像を生成する。なお、車載カメラ2は、近赤外光に感度を有する2次元検出器を有し、その撮像範囲内の近赤外光の照度に応じたグレー画像を生成してもよい。   The in-vehicle camera 2 is an example of an imaging unit, and captures a front area of the vehicle and generates an image of the front area. For this purpose, the in-vehicle camera 2 is present in front of the vehicle 10 on the two-dimensional detector composed of an array of photoelectric conversion elements having sensitivity to visible light, such as CCD or C-MOS. An imaging optical system that forms an image of the ground or a structure is included. The in-vehicle camera 2 is disposed in the vehicle interior of the vehicle 10 so that, for example, the optical axis of the imaging optical system is substantially parallel to the ground and faces the front of the vehicle 10. The in-vehicle camera 2 captures images at regular time intervals (for example, 1/30 seconds), and generates a color image capturing the front area of the vehicle 10. The in-vehicle camera 2 may include a two-dimensional detector having sensitivity to near infrared light, and may generate a gray image corresponding to the illuminance of the near infrared light within the imaging range.

図2は、世界座標系と、車両座標系と、カメラ座標系の関係を示す図である。本実施形態では、便宜上、実空間の任意の位置を原点とする世界座標系(Xw, Yw, Zw)と、車両10を原点とする車両座標系(Xv, Yv, Zv)と、車載カメラ2を原点とするカメラ座標系(Xc, Yc, Zc)を利用する。本実施形態では、車両座標系(Xv, Yv, Zv)は、車両10の左右の後輪間の中点かつ地面上の点を原点とする。そして車両の進行方向をZv軸とし、Zv軸と直交し、かつ、地面に平行な方向をXv軸とし、鉛直方向をYv軸とする。また世界座標系(Xw, Yw, Zw)においても、地面に平行な面内にXw軸及びZw軸が設定され、鉛直方向にYw軸が設定される。また、カメラ座標系(Xc, Yc, Zc)では、説明の簡単化のために、車両座標系の原点から鉛直方向に沿って上方かつ車載カメラ2が設置される高さの位置に撮像面の中心があると仮定して、その撮像面の中心を原点とする。そして車両座標系と同様に、車両の進行方向をZc軸とし、Zc軸と直交し、かつ、地面に平行な方向をXc軸とし、鉛直方向をYc軸とする。
なお、実際に車載カメラ2が取り付けられる位置は、車両10の左右の後輪間の中点の上方からずれていることもあるが、このずれは、単純な平行移動によって補正すればよい。
FIG. 2 is a diagram illustrating a relationship among the world coordinate system, the vehicle coordinate system, and the camera coordinate system. In this embodiment, for convenience, a world coordinate system (Xw, Yw, Zw) having an arbitrary position in the real space as an origin, a vehicle coordinate system (Xv, Yv, Zv) having the vehicle 10 as an origin, and the in-vehicle camera 2 Use the camera coordinate system (Xc, Yc, Zc) with the origin at. In this embodiment, the vehicle coordinate system (Xv, Yv, Zv) has a midpoint between the left and right rear wheels of the vehicle 10 and a point on the ground as the origin. The traveling direction of the vehicle is the Zv axis, the direction orthogonal to the Zv axis and parallel to the ground is the Xv axis, and the vertical direction is the Yv axis. In the world coordinate system (Xw, Yw, Zw), the Xw axis and the Zw axis are set in a plane parallel to the ground, and the Yw axis is set in the vertical direction. In addition, in the camera coordinate system (Xc, Yc, Zc), for the sake of simplicity of explanation, the imaging surface is positioned at a height above the origin of the vehicle coordinate system along the vertical direction and at a height at which the in-vehicle camera 2 is installed. Assuming that there is a center, the center of the imaging surface is the origin. Similarly to the vehicle coordinate system, the traveling direction of the vehicle is the Zc axis, the direction orthogonal to the Zc axis and parallel to the ground is the Xc axis, and the vertical direction is the Yc axis.
In addition, although the position where the vehicle-mounted camera 2 is actually attached may be shifted from above the midpoint between the left and right rear wheels of the vehicle 10, this shift may be corrected by a simple parallel movement.

なお、車両位置検出システム1は、撮像部として、車両10の前方領域を撮影するカメラの代わりに、あるいはそのカメラとともに、車両の後方領域を撮影するリアカメラを有していてもよい。   The vehicle position detection system 1 may include a rear camera that captures the rear region of the vehicle as an image capturing unit instead of or together with the camera that captures the front region of the vehicle 10.

車載カメラ2は、生成した画像を逐次コントローラ4へ送信する。なお、車両の前方領域を撮影する車載カメラと車両の後方領域を撮影する車載カメラが取り付けられている場合、コントローラ4は、車両が進行している方向を撮影する車載カメラからの画像のみを選択的に取得してもよい。そのために、コントローラ4は、CAN3を介して車両10の電子制御ユニット(ECU)11から、シフトレバーのポジションを表すシフトポジション信号を取得する。そしてコントローラ4は、シフトポジション信号が、車両10が前進することを示すドライブポジジョンなどとなっている場合、車両の前方領域を撮影する車載カメラから画像を取得する。一方、コントローラ4は、シフトポジション信号が、車両10が後進することを示すリバースポジションとなっている場合、車両の後方領域を撮影する車載カメラから画像を取得する。   The in-vehicle camera 2 sequentially transmits the generated image to the controller 4. In addition, when the vehicle-mounted camera which image | photographs the front area of a vehicle and the vehicle-mounted camera which image | photographs the back area | region of a vehicle are attached, the controller 4 selects only the image from the vehicle-mounted camera which image | photographs the direction which the vehicle is advancing. May be acquired automatically. For this purpose, the controller 4 acquires a shift position signal representing the position of the shift lever from the electronic control unit (ECU) 11 of the vehicle 10 via the CAN 3. And the controller 4 acquires an image from the vehicle-mounted camera which image | photographs the front area | region of a vehicle, when the shift position signal becomes the drive position etc. which show that the vehicle 10 moves forward. On the other hand, when the shift position signal is a reverse position indicating that the vehicle 10 moves backward, the controller 4 acquires an image from an in-vehicle camera that captures a rear region of the vehicle.

コントローラ4は、車両位置検出装置の一例であり、記憶部41と、通信部42と、制御部43とを有する。記憶部41は、例えば、電気的に書き換え可能な不揮発性メモリ及び揮発性メモリなどの半導体メモリを有する。そして記憶部41は、車両位置検出システム1を制御するための各種プログラム、地図情報、車載カメラ2の地面からの高さ及び光軸方向といった車載カメラの位置情報、結像光学系の焦点距離及び画角といったカメラパラメータなどの各種パラメータ、及び制御部43による一時的な演算結果などを記憶する。また記憶部41は、車載カメラ2の結像光学系による歪曲収差を補正するためのパラメータ、例えば、画素ごとの歪曲収差の補正量(すなわち、歪曲収差を打ち消すための画像上での画素の移動量及び移動方向)を記憶してもよい。
また、通信部42は、車載カメラ2、ECU11及び車輪速センサ(図示せず)などの各種センサとCAN3を通じて通信する通信インターフェース及びその制御回路を有する。
The controller 4 is an example of a vehicle position detection device, and includes a storage unit 41, a communication unit 42, and a control unit 43. The storage unit 41 includes, for example, a semiconductor memory such as an electrically rewritable nonvolatile memory and a volatile memory. The storage unit 41 includes various programs for controlling the vehicle position detection system 1, map information, position information of the vehicle-mounted camera such as the height of the vehicle-mounted camera 2 from the ground and the optical axis direction, the focal length of the imaging optical system, and the like. Various parameters such as camera parameters such as an angle of view, temporary calculation results by the control unit 43, and the like are stored. In addition, the storage unit 41 is a parameter for correcting distortion due to the imaging optical system of the in-vehicle camera 2, for example, a correction amount of distortion aberration for each pixel (that is, pixel movement on the image for canceling distortion aberration). Quantity and direction of movement) may be stored.
The communication unit 42 includes a communication interface that communicates with various sensors such as the in-vehicle camera 2, the ECU 11, and a wheel speed sensor (not shown) through the CAN 3 and a control circuit thereof.

以下、車両位置検出に利用される、地図関連の情報について説明する。
図3は、地図情報の一例を示す図である。地図情報300は、その地図情報で表された領域の位置を表す緯度経度情報と関連付けられている。そして地図情報300は、縁石などによる段差、白線、黄線といった区画線、及び、横断歩道、停止線などの道路標示に関する情報を含む。具体的には、線分301で示されるように、段差、各区画線及び道路表示のそれぞれの輪郭が線分で近似され、各線分の始点の座標or sと終点の座標or e(世界座標系で表される)が地図情報300に含まれる。さらに、各線分には、その線分が表している物体の種別(例えば、段差、白線、黄線、横断歩道など)を表すラベルが関連付けられる。なお、以下では、地図情報に含まれる線分を地図線分と呼ぶ。
Hereinafter, map-related information used for vehicle position detection will be described.
FIG. 3 is a diagram illustrating an example of map information. The map information 300 is associated with latitude / longitude information indicating the position of the area represented by the map information. The map information 300 includes information related to road markings such as steps due to curbs, lane lines such as white lines and yellow lines, and pedestrian crossings and stop lines. Specifically, as indicated by line 301, step, each of the contours of the lane line and the road displayed is approximated by a line segment, the coordinates of each line segment of the starting point o r s and the end point coordinate o r e ( (Expressed in the world coordinate system) is included in the map information 300. Further, each line segment is associated with a label indicating the type of object represented by the line segment (for example, step, white line, yellow line, pedestrian crossing, etc.). In the following, a line segment included in the map information is referred to as a map line segment.

区画線などの輪郭を表す各線分には、その線分を横切る方向の輝度勾配に応じた向きが設定される。
図4(a)は、輪郭を表す線分を横切る方向の輝度勾配とその線分に設定される向きの関係の一例を示す図である。図4(a)に示される矢印401〜408は、それぞれ、線分の向きを表し、45°間隔で設定される。矢印401〜408の根元が始点sに対応し、矢印401〜408の先端が終点eに対応する。そして矢印401〜408には、線分の始点sから終点eを見たときの、線分の左右それぞれの相対的な輝度が示されている。この例では、始点sから終点eを見たときに、線分の左から右へ向けて輝度が低下するように、線分の向き、すなわち、線分の始点及び終点が設定される。例えば、矢印401に示されるように、垂直方向(すなわち、Zw軸方向)の線分であり、かつ、右側の輝度よりも左側の輝度の方が高い場合には、始点sよりも終点eの方がZw軸の座標値が大きくなるように、始点s及び終点eが設定される。逆に、矢印405に示されるように、垂直方向(すなわち、Zw軸方向)の線分であり、かつ、左側の輝度よりも右側の輝度の方が高い場合には、始点sよりも終点eの方がZw軸の座標値が小さくなるように、始点s及び終点eが設定される。
For each line segment representing an outline such as a division line, a direction corresponding to a luminance gradient in a direction crossing the line segment is set.
FIG. 4A is a diagram illustrating an example of the relationship between the luminance gradient in the direction crossing the line segment representing the contour and the direction set for the line segment. Arrows 401 to 408 shown in FIG. 4A indicate the direction of the line segment, and are set at 45 ° intervals. The roots of the arrows 401 to 408 correspond to the start point s, and the tips of the arrows 401 to 408 correspond to the end point e. The arrows 401 to 408 indicate the relative luminances of the left and right of the line segment when the end point e is viewed from the start point s of the line segment. In this example, when viewing the end point e from the start point s, the direction of the line segment, that is, the start point and end point of the line segment is set so that the luminance decreases from the left to the right of the line segment. For example, as indicated by an arrow 401, when the line segment is in the vertical direction (that is, the Zw axis direction) and the left side luminance is higher than the right side luminance, the end point e is higher than the start point s. The start point s and the end point e are set so that the coordinate value of the Zw axis becomes larger. Conversely, as indicated by an arrow 405, when the line segment is in the vertical direction (that is, the Zw axis direction) and the right side luminance is higher than the left side luminance, the end point e is higher than the start point s. The starting point s and the ending point e are set so that the coordinate value of the Zw axis becomes smaller in this case.

図4(b)は、白線について設定される各線分の向きの一例を示す図である。白線410の輪郭は、4個の線分411〜414で表される。各線分の向きは矢印で表される。白線410の輝度は、その周囲の輝度よりも高い。そのため、白線410の右側の輪郭を表す線分411は、図4(a)の矢印408に対応するので、Zw軸の下端に近い方の端点が始点sとなり、Zw軸の上端に近い方の端点が終点eとなっている。逆に、白線410の左側の輪郭を表す線分413は、図4(a)の矢印404に対応するので、Zw軸の下端に近い方の端点が終点eとなり、Zw軸の上端に近い方の端点が始点sとなっている。同様に、矢印412は、図4(a)の矢印406に対応するので、右側の端点が始点sとなり、左側の端点が終点eとなる。また、矢印414は、図4(a)の矢印402に対応するので、左側の端点が始点sとなり、右側の端点が終点eとなる。
このように、線分の向きを参照することで、その線分が区画線などのどちら側の輪郭を表しているかが分かる。
FIG. 4B is a diagram illustrating an example of the direction of each line segment set for the white line. The outline of the white line 410 is represented by four line segments 411 to 414. The direction of each line segment is represented by an arrow. The luminance of the white line 410 is higher than the surrounding luminance. For this reason, the line segment 411 representing the right contour of the white line 410 corresponds to the arrow 408 in FIG. 4A, so that the end point closer to the lower end of the Zw axis is the start point s and the end closer to the upper end of the Zw axis The end point is the end point e. Conversely, the line segment 413 representing the left outline of the white line 410 corresponds to the arrow 404 in FIG. 4A, so that the end point closer to the lower end of the Zw axis is the end point e, and the end closer to the upper end of the Zw axis The end point of is the starting point s. Similarly, since the arrow 412 corresponds to the arrow 406 in FIG. 4A, the right end point is the start point s and the left end point is the end point e. Also, since the arrow 414 corresponds to the arrow 402 in FIG. 4A, the left end point is the start point s, and the right end point is the end point e.
In this way, by referring to the direction of the line segment, it can be understood which side of the line line represents the contour, such as a division line.

なお、段差またはマンホールの輪郭のように、線分と直交する方向の輝度勾配の大きさが所定値よりも小さい線分については、向きは設定されなくてもよい。この場合には、例えば、線分に向きが設定されていないことを表すフラグが対応付けられる。そしてその線分の両端点の何れが始点であってもよい。   Note that the direction may not be set for a line segment whose magnitude of the luminance gradient in the direction orthogonal to the line segment is smaller than a predetermined value, such as a step or an outline of a manhole. In this case, for example, a flag indicating that the direction is not set for the line segment is associated. Any of both end points of the line segment may be the starting point.

次に、地図情報から作成される、局所ごと、かつ、線分の向きごとの線分の分布を表す地図線分分布情報の一例である記述子について説明する。上述したように、本実施形態では、地図上に設定される仮想撮影点ごとに、その仮想撮影点に対応する仮想画像から、局所ごと、かつ、線分の向きごとの線分の分布を表す記述子が作成される。   Next, a description will be given of a descriptor that is an example of map line segment distribution information that represents the distribution of line segments for each local area and for each direction of line segments, created from map information. As described above, in the present embodiment, for each virtual shooting point set on the map, the distribution of the line segment for each local area and for each line segment direction is represented from the virtual image corresponding to the virtual shooting point. A descriptor is created.

図5は、仮想撮影点の設定例を示す図である。地図500には、世界座標系で複数の仮想撮影点501が設定されている。隣接する仮想撮影点間の間隔は、例えば、要求される車両の位置の検出精度に応じた間隔(例えば、1m〜5m)に設定される。また、各仮想撮影点501には、矢印502に示されるように、複数の撮影方向が設定されてもよい。この撮影方向は、仮想的な車両10の方位に対応する。なお、撮影方向は、想定される車両10の進行方向についてのみ設定されてもよい。例えば、2車線の道路では、左側の車線上に設定される仮想撮影点については、Zw軸の値が正となる方向についてのみ、撮影方向が設定され、一方、右側の車線上に設定される仮想撮影点については、Zw軸の値が負となる方向についてのみ、撮影方向が設定されてもよい。   FIG. 5 is a diagram illustrating an example of setting virtual shooting points. In the map 500, a plurality of virtual shooting points 501 are set in the world coordinate system. The interval between adjacent virtual shooting points is set to an interval (for example, 1 m to 5 m) according to the required detection accuracy of the position of the vehicle, for example. In addition, a plurality of shooting directions may be set for each virtual shooting point 501 as indicated by an arrow 502. This shooting direction corresponds to the azimuth of the virtual vehicle 10. Note that the shooting direction may be set only for the assumed traveling direction of the vehicle 10. For example, on a two-lane road, for a virtual shooting point set on the left lane, the shooting direction is set only for the direction in which the value of the Zw axis is positive, while it is set on the right lane. For the virtual shooting point, the shooting direction may be set only for the direction in which the value of the Zw axis is negative.

仮想撮影点及び撮影方向が設定されると、その仮想撮影点から設定された撮影方向に向けて地図上に記載された道路上の物体を表す地図線分を仮想的に撮影した仮想画像が生成される。仮想画像は、例えば、車載カメラ2により生成される画像と同サイズとすることが好ましい。   When a virtual shooting point and shooting direction are set, a virtual image is generated by virtually shooting a map line segment representing an object on the road described on the map toward the shooting direction set from the virtual shooting point. Is done. For example, the virtual image is preferably the same size as the image generated by the in-vehicle camera 2.

地図上でのr番目(r=1,2,...,R)の地図線分の始点をor s=(or sx,or sz)t、終点をor e=(or ex,or ez)tとすると、仮想画像上でのその地図線分の始点lr s=(lr su,lr sv) t及び終点lre=(lr eu,lr ev)tは、次式で算出される。

Figure 0006278790
ここで、回転行列Rvg kは、k番目の仮想撮影点(ただし、個々の仮想撮影点は、世界座標系で表される位置だけでなく、撮影方向も含めて設定される)に対応する回転行列であり、θkは、その撮影方向である。また並進行列tvgは、世界座標系でのk番目の仮想撮影点の位置を表す。また、(cu,cv)、(fu,fv)は内部パラメータであり、具体的に、(cu,cv)は、車載カメラ2の光軸に対応する画像上の点、すなわち、画像中心の座標である。また(fu,fv)は、水平方向と垂直方向の1画素あたりのサイズの違いを考慮した、車載カメラ2の焦点距離に対応する値である。またycは、路面から車載カメラ2までの高さを表す。そして(βr skxr skz)、(βr ekxr ekz)は、それぞれ、車両10がk番目の仮想撮影点の位置にいて撮影方向がθkである場合の地図線分(or s, or e)を車両座標系で表したときの始点及び終点の座標である。なお、この例では、仮想撮影を行うカメラの光軸が地図上の路面と平行であると仮定して、(1)式の各パラメータが設定されている。 The starting point of the rth (r = 1,2, ..., R) map line segment on the map is o r s = (o r sx , o r sz ) t and the end point is o r e = (o r ex , o r ez ) t , the starting point l r s = (l r su , l r sv ) t and end point l re = (l r eu , l r ev ) t on the virtual image Is calculated by the following equation.
Figure 0006278790
Here, the rotation matrix R vg k corresponds to the k-th virtual shooting point (however, each virtual shooting point is set including not only the position expressed in the world coordinate system but also the shooting direction). It is a rotation matrix, and θ k is its photographing direction. The parallel progression row t vg represents the position of the kth virtual shooting point in the world coordinate system. Further, (c u , c v ) and (f u , f v ) are internal parameters. Specifically, (c u , c v ) is a point on the image corresponding to the optical axis of the in-vehicle camera 2, That is, the coordinates of the center of the image. Further, (f u , f v ) is a value corresponding to the focal length of the in-vehicle camera 2 in consideration of the difference in size per pixel in the horizontal direction and the vertical direction. Y c represents the height from the road surface to the in-vehicle camera 2. (Β r skx , β r skz ) and (β r ekx , β r ekz ) are the map line segments when the vehicle 10 is at the position of the k-th virtual shooting point and the shooting direction is θ k ( o r s , o r e ) are the coordinates of the start point and end point when expressed in the vehicle coordinate system. In this example, the parameters of equation (1) are set on the assumption that the optical axis of the camera that performs virtual shooting is parallel to the road surface on the map.

なお、両端点の何れもが仮想撮影点から所定距離以上離れている地図線分については、仮想画像上での対応する線分を求めなくてもよい。このような地図線分は、仮想画像上で小さくしか写らず、車両位置の検出に利用すると、誤差が大きくなり、位置検出の精度が低下してしまうおそれがあるからである。なお所定距離は、例えば、30mに設定される。   Note that, for map line segments in which both end points are separated from the virtual shooting point by a predetermined distance or more, the corresponding line segments on the virtual image need not be obtained. This is because such a map line segment appears only small on the virtual image, and if used for vehicle position detection, the error increases and the accuracy of position detection may decrease. The predetermined distance is set to 30 m, for example.

図6は、仮想撮影点から地図線分を仮想的に撮影して得られる仮想画像の例を示す図である。仮想画像602は、地図600上の仮想撮影点601から仮想的に撮影して得られる画像である。   FIG. 6 is a diagram illustrating an example of a virtual image obtained by virtually photographing a map line segment from a virtual photographing point. A virtual image 602 is an image obtained by virtually photographing from a virtual photographing point 601 on the map 600.

局所ごと、かつ、線分の向きごとの線分の分布を調べるために、各仮想画像は、格子状に分割される。
図7は、図6に示された仮想画像に設定される格子の一例を示す図である。図7に示されるように、仮想画像700は、個々の格子701に複数の地図線分が含まれることが可能なように分割される。一つの格子のサイズは、例えば、30画素×30画素に設定される。また便宜上、個々の格子には、ラスタスキャン順に番号j=1,2,...,Jが設定される。
In order to examine the distribution of line segments for each local area and for each line segment direction, each virtual image is divided into a grid pattern.
FIG. 7 is a diagram illustrating an example of a lattice set in the virtual image illustrated in FIG. As shown in FIG. 7, the virtual image 700 is divided so that each grid 701 can include a plurality of map line segments. The size of one grid is set to 30 pixels × 30 pixels, for example. For convenience, numbers j = 1, 2,..., J are set for each grid in the raster scan order.

格子ごと、かつ、線分の向きごとの地図線分の分布を表すヒストグラムが生成される。このヒストグラムでは、個々のビンが等角度間隔、例えば、π/8(=45°)間隔で設定される。さらに、格子内に地図線分が含まれていない場合に対応するために、線分無しに相当するビンが追加される。   A histogram representing the distribution of map line segments for each grid and for each line segment direction is generated. In this histogram, individual bins are set at equiangular intervals, for example, π / 8 (= 45 °) intervals. Furthermore, in order to cope with the case where no map line segment is included in the grid, a bin corresponding to no line segment is added.

またこの例では、ビンごとの線分の度数は、そのビンに対応する向きを持ち、格子に含まれる線分の長さの合計で表される。例えば、基準となる方向(例えば、水平方向)を0°とし、地図線分の始点を回転中心として、基準となる方向とその地図線分のなす、反時計回りの角度に相当するビンが、その地図線分の長さを加算すべきビンとなる。このように角度を規定することで、区画線または道路標示といった、周囲よりも明るい物体の輪郭を表す地図線分に関して、その物体に対して隣接している方向を区別して、地図線分の分布が求められる。
なお、段差を表す線分のように、向きが設定されていない地図線分については、その地図線分と基準となる方向とがなす角度に相当するビンと、その角度に180°加算または減算した角度に相当するビンとに、それぞれ、その地図線分の半分の長さを加算すればよい。
Further, in this example, the frequency of the line segment for each bin is represented by the total length of the line segments having the direction corresponding to the bin and included in the lattice. For example, a bin corresponding to a counterclockwise angle between the reference direction and the map line segment, with the reference direction (for example, the horizontal direction) set to 0 ° and the starting point of the map line segment as the rotation center, This is the bin to which the length of the map line should be added. By defining the angle in this way, for map line segments that represent the contours of objects that are brighter than the surroundings, such as lane markings or road markings, the direction adjacent to the object is distinguished, and the distribution of map line segments Is required.
For map line segments with no orientation, such as line segments representing steps, a bin corresponding to the angle formed by the map line segment and the reference direction is added to or subtracted from that angle by 180 °. It is only necessary to add half the length of the map line to the bin corresponding to the angle.

格子内の全ての地図線分の長さが加算されると、各ビンの線分の長さの合計が1となるように、ヒストグラムは正規化される。   When the lengths of all the map line segments in the grid are added, the histogram is normalized so that the total length of the line segments in each bin is 1.

図8は、格子ごとに算出される線分の向きごとの線分の長さの正規化ヒストグラムの一例を示す図である。
図8において、正規化ヒストグラム811は、仮想画像800上の格子801について求められたヒストグラムであり、正規化ヒストグラム812は、仮想画像800上の格子802について求められたヒストグラムである。格子801には、向きの異なる2本の地図線分が含まれているので、正規化ヒストグラム811では、それらの線分の向きに相当する二つのビン821、822の値の合計が1となり、その他のビンの値は0となる。また、格子802には、地図線分が含まれていないので、正規化ヒストグラム812では、'無'に相当するビンの値が1となり、他のビンの値は0となる。
FIG. 8 is a diagram illustrating an example of a normalized histogram of line segment lengths for each line segment direction calculated for each lattice.
In FIG. 8, a normalized histogram 811 is a histogram obtained for the grid 801 on the virtual image 800, and a normalized histogram 812 is a histogram obtained for the grid 802 on the virtual image 800. Since the grid 801 includes two map line segments having different directions, the sum of the values of the two bins 821 and 822 corresponding to the direction of these line segments is 1 in the normalized histogram 811. Other bin values are 0. Further, since the grid 802 does not include a map line segment, the bin value corresponding to “none” is 1 in the normalized histogram 812, and the values of other bins are 0.

ここで、仮想撮影点yk=(xk,zkk)tに対応する仮想画像上のj番目の格子についての正規化ヒストグラムをηk,jとする。このとき、仮想画像全体にわたって格子の番号順に正規化ヒストグラムを並べた行列ak=(ηk,1k,2,...,ηk,J)tが、仮想撮影点ykに対応する、局所ごと、かつ、線分の向きごとの地図線分の分布を表す。以下、便宜上、akを記述子と呼ぶ。 Here, a normalized histogram for the j-th lattice on the virtual image corresponding to the virtual shooting point y k = (x k , z k , θ k ) t is η k, j . At this time, the matrix a k = (η k, 1 , η k, 2 , ..., η k, J ) t in which the normalized histograms are arranged in the order of the grid numbers over the entire virtual image becomes the virtual shooting point y k . The corresponding map line segment distribution for each local area and for each line segment direction is represented. Hereinafter, for convenience, a k is referred to as a descriptor.

記憶部41は、仮想撮影点yk(k=1,2,...,K)ごとの記述子ak(k=1,2,...,K)を、その仮想撮影点の世界座標系における座標(xk,zk)及び撮影方向θkとともに記憶する。 The storage unit 41 stores the descriptor a k (k = 1, 2,..., K) for each virtual shooting point y k (k = 1, 2,..., K) and the world of the virtual shooting point. The coordinates (x k , z k ) in the coordinate system and the shooting direction θ k are stored.

制御部43は、1個もしくは複数個の図示していないプロセッサ及びその周辺回路を有する。そして制御部43は、車両位置検出システム1全体を制御する。
図9に、第1の実施形態による、制御部43の機能ブロック図を示す。図9に示すように、制御部43は、初期値設定部431と、線特徴抽出部432と、線分布情報算出部433と、検索範囲設定部434と、比較部435とを有する。制御部43が有するこれらの各部は、例えば、制御部43が有するプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールとして実装される。
The control unit 43 includes one or a plurality of processors (not shown) and their peripheral circuits. And the control part 43 controls the vehicle position detection system 1 whole.
FIG. 9 shows a functional block diagram of the control unit 43 according to the first embodiment. As illustrated in FIG. 9, the control unit 43 includes an initial value setting unit 431, a line feature extraction unit 432, a line distribution information calculation unit 433, a search range setting unit 434, and a comparison unit 435. Each of these units included in the control unit 43 is implemented as a functional module realized by a computer program executed on a processor included in the control unit 43, for example.

初期値設定部431は、本実施形態による、車両10の位置の検出、すなわち、自車両の位置の検出を開始する際の自車両の位置の初期値を設定する。例えば、初期値設定部431は、GPSの測位信号が最後に受信できたときのその測位信号から求められる位置と、自車両の位置の検出を開始する直前において異なる時刻に受信したGPSの測位信号から求めた自車両の位置の変化から算出された自車両の方位を、例えば、ナビゲーションシステムから受信する。そして得られた位置(xt,zt)及び方位θtを、自車両の位置の初期値μt=(xt,ztt)tに設定する。
なお、初期値設定部431により設定される初期値は、本実施形態による自車両の位置の検出精度よりも低い検出精度で得られる値であってもよい。
The initial value setting unit 431 sets the initial value of the position of the host vehicle when the detection of the position of the vehicle 10, that is, the detection of the position of the host vehicle is started according to the present embodiment. For example, the initial value setting unit 431 receives the GPS positioning signal received at a different time immediately before starting the detection of the position of the host vehicle from the position obtained from the positioning signal when the GPS positioning signal was last received. The azimuth of the host vehicle calculated from the change in the position of the host vehicle obtained from the above is received from, for example, a navigation system. Then, the obtained position (x t , z t ) and direction θ t are set to the initial value μ t = (x t , z t , θ t ) t of the host vehicle.
Note that the initial value set by the initial value setting unit 431 may be a value obtained with detection accuracy lower than the detection accuracy of the position of the host vehicle according to the present embodiment.

初期値設定部431により設定された自車両の位置の初期値は、記憶部41に記憶される。   The initial value of the position of the host vehicle set by the initial value setting unit 431 is stored in the storage unit 41.

線特徴抽出部432は、車載カメラ2が生成した画像のうち、現時刻tに最も近い時刻に生成された画像から線分を抽出する。その際、線特徴抽出部432は、Line Segment Detector(LSD)と呼ばれる検出器を画像に適用することで線分を抽出する。なお、LSDについては、例えば、Rafael Grompone von Gioi他、「LSD: A Fast Line Segment Detector with a False Detection Control」、Pattern Analysis and Machine Intelligence、IEEE Transactions、vo. 32、no. 4、pp.722-732、2010年4月を参照されたい。
なお、線特徴抽出部432は、画像から線分を検出するための他の様々な手法のうちの何れかを車載カメラ2から取得された画像に適用して、線分を抽出してもよいい。
また、線特徴抽出部432は、車載カメラ2から取得された画像から線分を抽出する前に、その画像に対して歪曲収差などによる画像の歪みを補正してもよい。
The line feature extraction unit 432 extracts a line segment from an image generated at a time closest to the current time t among images generated by the in-vehicle camera 2. At that time, the line feature extraction unit 432 extracts a line segment by applying a detector called a line segment detector (LSD) to the image. Regarding LSD, for example, Rafael Grompone von Gioi et al., `` LSD: A Fast Line Segment Detector with a False Detection Control '', Pattern Analysis and Machine Intelligence, IEEE Transactions, vo. 32, no. 4, pp. 722- See 732, April 2010.
Note that the line feature extraction unit 432 may extract any line segment by applying any of various other methods for detecting a line segment from the image to the image acquired from the in-vehicle camera 2. Good.
Further, the line feature extraction unit 432 may correct image distortion due to distortion or the like on the image before extracting the line segment from the image acquired from the in-vehicle camera 2.

図10は、画像から抽出された線分の一例を示す図である。画像1000において、線分1001が線特徴抽出部432により抽出された線分である。図10に示されるように、線分1001は、区間線の輪郭、道路標示の輪郭あるいは段差などに沿って抽出される。   FIG. 10 is a diagram illustrating an example of a line segment extracted from an image. In the image 1000, a line segment 1001 is a line segment extracted by the line feature extraction unit 432. As shown in FIG. 10, the line segment 1001 is extracted along the contour of a section line, the contour of a road marking, a step, or the like.

本実施形態では、車両位置検出システム1は、変更されることが比較的少ない、道路標示といった道路上の情報を利用し、道路脇の建物の建て替えなどにより影響される、路面よりも上方にある情報は利用しない。そこで、線特徴抽出部432は、抽出された線分のうち、線分の両端点の垂直方向の座標値が所定の閾値Th未満となる線分を消去する。ただし、画像上では、左上端画素を原点とし、下方に行くほど垂直方向の座標値は大きくなるものとする。すなわち、線分の両端点の垂直方向の座標値が所定の閾値Thよりも上側に位置する線分が消去される。また本実施形態では、車載カメラ2の光軸が路面と平行となるように車載カメラ2は設置されているので、画像中心を含む水平方向の線が地平線に相当する。そこで所定の閾値Thは、画像中心の高さから所定のオフセット(例えば、5〜10)を減じた値とすることができる。   In the present embodiment, the vehicle position detection system 1 uses information on the road such as road markings, which is relatively rarely changed, and is affected by the rebuilding of a building beside the road. Information is not used. Therefore, the line feature extraction unit 432 deletes a line segment in which the vertical coordinate values of both end points of the line segment are less than a predetermined threshold Th among the extracted line segments. However, on the image, it is assumed that the upper left pixel is the origin, and the vertical coordinate value increases as it goes downward. That is, the line segment in which the vertical coordinate values of the both end points of the line segment are located above the predetermined threshold Th is deleted. In this embodiment, since the in-vehicle camera 2 is installed so that the optical axis of the in-vehicle camera 2 is parallel to the road surface, the horizontal line including the image center corresponds to the horizon. Therefore, the predetermined threshold Th can be a value obtained by subtracting a predetermined offset (for example, 5 to 10) from the height of the image center.

上記のように、区画線または道路標示の輪郭線などが、線分として抽出される。そのため、抽出された線分を横切る方向に沿って輝度が変化することがある。そこで線特徴抽出部432は、抽出された線分が、輝度の明るい物(白線、黄線、道路標示)のどちら側に隣接する輪郭線であるかが分かるように、例えば、図4(a)に示される矢印401〜408に従って、抽出された線分の向きを設定する。すなわち、線特徴抽出部432は、抽出された線分の両端点の一方を始点とし、他方を終点とする。その際、線特徴抽出部432は、例えば、画像から輝度勾配画像を生成し、線分上の各画素の輝度勾配の方向のメディアン値を算出する。そして線特徴抽出部432は、そのメディアン値により、線分の左側及び右側のうちの輝度の高い方を特定すればよい。なお、線分上の各画素についての輝度勾配の大きさの平均値が所定の閾値よりも小さい場合には、線特徴抽出部432は、その線分の両端のうちの何れを始点としてもよい。そして線特徴抽出部432は、その線分に、向きが設定されていないことを表すフラグを関連付ける。   As described above, lane markings, contour lines of road markings, and the like are extracted as line segments. Therefore, the luminance may change along the direction crossing the extracted line segment. Therefore, for example, the line feature extraction unit 432 can identify which side of the bright line (white line, yellow line, road marking) is adjacent to the extracted line segment. The direction of the extracted line segment is set according to arrows 401 to 408 indicated by (). That is, the line feature extraction unit 432 sets one of the end points of the extracted line segment as the start point and the other as the end point. At that time, for example, the line feature extraction unit 432 generates a luminance gradient image from the image, and calculates a median value in the direction of the luminance gradient of each pixel on the line segment. Then, the line feature extraction unit 432 may specify the higher one of the left side and the right side of the line segment based on the median value. In addition, when the average value of the magnitude of the luminance gradient for each pixel on the line segment is smaller than a predetermined threshold, the line feature extraction unit 432 may use any one of both ends of the line segment as a starting point. . The line feature extraction unit 432 associates a flag indicating that the direction is not set with the line segment.

線特徴抽出部432は、抽出された線分の始点と終点の座標を記憶部41に記憶する。   The line feature extraction unit 432 stores the coordinates of the start point and end point of the extracted line segment in the storage unit 41.

線分布情報算出部433は、仮想画像について算出される記述子と同様に、画像を格子単位に分割し、格子ごとに、線分の向きごとの線分の長さの正規化ヒストグラムを算出する。この場合も、正規化ヒストグラムには、個々のビンが等角度間隔(例えば、π/8間隔)で設定されるとともに、線分が含まれない格子に対応するように、線分無のビンが設けられる。また、線分布情報算出部433は、仮想画像について記述子を算出する際と同様に、各格子について、各ビンごとの線分の長さの合計を求め、ビンごとの長さの合計が1となるようにヒストグラムを正規化する。
ここで、画像上のj番目の格子についての正規化ヒストグラムをκjとする。線分布情報算出部433は、画像全体にわたって格子の番号順に正規化ヒストグラムを並べた記述子λ=(κ12,...,κJ)tを作成する。この記述子λは、局所ごと、かつ、線分の向きごとの画像に写った、路面にある物体の輪郭などの線分の分布を表す画像線分分布情報の一例である。
Similar to the descriptor calculated for the virtual image, the line distribution information calculation unit 433 divides the image into grid units, and calculates a normalized histogram of the length of the line segment for each line segment direction for each grid. . Also in this case, the normalized histogram includes individual bins set at equiangular intervals (for example, π / 8 intervals), and bins without line segments so as to correspond to grids that do not include line segments. Provided. Also, the line distribution information calculation unit 433 calculates the total length of the line segments for each bin for each lattice in the same manner as when calculating the descriptor for the virtual image, and the total length for each bin is 1 Normalize the histogram so that
Here, a normalized histogram for the j-th lattice on the image is denoted by κ j . The line distribution information calculation unit 433 creates a descriptor λ = (κ 1 , κ 2 ,..., Κ J ) t in which normalized histograms are arranged in the order of lattice numbers over the entire image. This descriptor λ is an example of image line segment distribution information representing the distribution of line segments such as the contour of an object on the road surface, which is reflected in the image for each local area and for each direction of the line segment.

図11は、画像に設定される格子の一例を示す図である。画像1100には、仮想画像の水平方向及び垂直方向のそれぞれについて設定される格子の数と同じ数の格子1101が、水平方向及び垂直方向のそれぞれに設定される。また、仮想画像に対して設定される格子と同様の順序、例えば、ラスタスキャン順に、各格子に番号が付与される。すなわち、画像1100に設定されたj番目の格子と、仮想画像について設定された同じj番目の格子とは、それぞれ、画像上の同じ位置に相当する。したがって、車両位置検出システム1は、同一番号の格子についての正規化ヒストグラム同士を比較することで、画像と仮想画像との間で、局所ごと、かつ、線分の向きごとの線分の分布を比較することができる。   FIG. 11 is a diagram illustrating an example of a grid set in an image. In the image 1100, the same number of lattices 1101 as the number of lattices set for each of the horizontal direction and the vertical direction of the virtual image is set in each of the horizontal direction and the vertical direction. In addition, a number is assigned to each grid in the same order as the grid set for the virtual image, for example, in the raster scan order. In other words, the j-th grid set for the image 1100 and the same j-th grid set for the virtual image correspond to the same position on the image, respectively. Therefore, the vehicle position detection system 1 compares the normalized histograms for the lattices with the same number to obtain the distribution of the line segment for each local area and for each line segment direction between the image and the virtual image. Can be compared.

線分布情報算出部433は、記述子λを記憶部41に記憶する。   The line distribution information calculation unit 433 stores the descriptor λ in the storage unit 41.

検索範囲設定部434は、仮の自車両の位置に基づいて、現時刻tにおいて自車両が位置する可能性がある範囲を地図上の検索範囲として設定する。仮の自車両の位置は、例えば、車両位置検出処理の初回の実施時であれば、初期値設定部431により設定された自車両の位置の初期値とすることができる。また、前時刻(t-1)において、車両位置検出処理が行われている場合には、仮の自車両の位置を、前時刻(t-1)において検出された自車両の位置とすることができる。また、検索範囲設定部434は、前時刻(t-1)において検出された自車両の位置を、車両10に取り付けられた車速センサまたは操舵角センサなどから受信した車速あるいは操舵角に基づいて予測した、現時刻tにおける自車両の予測位置を、仮の自車両の位置としてもよい。   The search range setting unit 434 sets, as a search range on the map, a range where the host vehicle may be located at the current time t based on the position of the temporary host vehicle. For example, when the vehicle position detection process is performed for the first time, the temporary position of the host vehicle can be the initial value of the position of the host vehicle set by the initial value setting unit 431. In addition, when the vehicle position detection process is performed at the previous time (t-1), the position of the provisional own vehicle is set as the position of the own vehicle detected at the previous time (t-1). Can do. In addition, the search range setting unit 434 predicts the position of the host vehicle detected at the previous time (t-1) based on the vehicle speed or the steering angle received from the vehicle speed sensor or the steering angle sensor attached to the vehicle 10. The predicted position of the host vehicle at the current time t may be the temporary host vehicle position.

検索範囲設定部434は、仮の自車両の位置を中心とする所定範囲を検索範囲とする。例えば、GPSまたはGPSを利用するナビゲーションシステムでは、車両位置の検出精度として20m程度の精度が期待できる。そこで検索範囲設定部434は、例えば、仮の自車両の位置を中心とする半径20mの範囲を検索範囲に設定する。あるいは、検索範囲設定部434は、仮の自車両の位置での自車両の進行方向の方位θkに対して±90°内では検索範囲を相対的に広く、例えば、仮の自車両の位置から20m以内を検索範囲とし、一方、方位θkに対して±90°から外れる方向には、検索範囲を相対的に狭く、例えば、仮の自車両の位置から10m以内を検索範囲としてもよい。これにより、検索範囲が狭くなるので、検索範囲内に含まれる仮想撮影点の数が減り、その結果として、後述する比較部435による演算量が削減される。 The search range setting unit 434 sets a predetermined range centered on the position of the temporary host vehicle as the search range. For example, in a navigation system using GPS or GPS, an accuracy of about 20 m can be expected as a vehicle position detection accuracy. Accordingly, the search range setting unit 434 sets, for example, a range having a radius of 20 m centered on the position of the temporary host vehicle as the search range. Alternatively, the search range setting unit 434 has a relatively wide search range within ± 90 ° with respect to the direction θ k of the traveling direction of the host vehicle at the position of the temporary host vehicle. For example, the position of the temporary host vehicle Within 20 m from the search range, while the search range is relatively narrow in a direction deviating from ± 90 ° with respect to the azimuth θ k . For example, the search range may be within 10 m from the position of the provisional host vehicle. . Thereby, since the search range becomes narrow, the number of virtual photographing points included in the search range is reduced, and as a result, the amount of calculation by the comparison unit 435 described later is reduced.

比較部435は、検索範囲内の仮想撮影点のうち、画像との間で、局所ごと、かつ、線分の向きごとの線分の分布が最も一致する仮想撮影点を特定する。そして比較部435は、特定された仮想撮影点を、現時刻tにおける自車両の位置とする。
そのために、比較部435は、検索範囲に含まれる仮想撮影点についての記述子akを記憶部41から読み込む。そして比較部435は、読み込んだ記述子akのそれぞれについて、画像から得られた記述子λの内積γk=ak tλを、評価値として算出する。この評価値は、その仮想撮影点における、地図線分分布情報と画像線分分布情報の一致度合を表す。比較部435は、評価値γkが最大となる仮想撮影点を、現時刻tにおける自車両の位置とする。
The comparison unit 435 identifies a virtual shooting point that has the best line segment distribution for each region and for each direction of the line segment among the virtual shooting points in the search range. Then, the comparison unit 435 sets the specified virtual shooting point as the position of the host vehicle at the current time t.
For this purpose, the comparison unit 435 reads the descriptor a k for the virtual shooting point included in the search range from the storage unit 41. Then, for each of the read descriptors a k , the comparison unit 435 calculates the inner product γ k = a k t λ of the descriptors λ obtained from the image as an evaluation value. This evaluation value represents the degree of coincidence between the map line segment distribution information and the image line segment distribution information at the virtual shooting point. The comparison unit 435 sets the virtual shooting point where the evaluation value γ k is the maximum as the position of the host vehicle at the current time t.

図12は、車両位置検出処理の動作フローチャートである。車両位置検出システム1は、例えば、ナビゲーションシステムから、GPSに基づいて自車両の位置が検出可能になったことを通知されるまで、所定の周期ごとに、例えば、車載カメラ2の撮影周期ごとに、以下に示す動作フローチャートに従って自車両の位置を検出する。   FIG. 12 is an operation flowchart of the vehicle position detection process. The vehicle position detection system 1, for example, every predetermined period, for example, every imaging period of the in-vehicle camera 2 until it is notified from the navigation system that the position of the host vehicle can be detected based on GPS. Then, the position of the host vehicle is detected according to the following operation flowchart.

線特徴抽出部432は、車載カメラ2が生成した画像のうち、現時刻tに最も近い時刻に生成された画像から、道路上の線分を抽出する(ステップS101)。そして線特徴抽出部432は、抽出された各線分について、その線分を横切る方向の輝度勾配に応じて線分の向き、すなわち、始点及び終点を設定する(ステップS102)。   The line feature extraction unit 432 extracts a line segment on the road from the image generated at the time closest to the current time t among the images generated by the in-vehicle camera 2 (step S101). Then, the line feature extraction unit 432 sets the direction of the line segment, that is, the start point and the end point of each extracted line segment according to the luminance gradient in the direction crossing the line segment (step S102).

線分布情報算出部433は、画像を格子ごとに分割し、各格子について、線分の向きごとの線分の長さの合計を表す正規化ヒストグラムを算出することで、記述子λを求める(ステップS103)。   The line distribution information calculation unit 433 determines the descriptor λ by dividing the image into grids and calculating a normalized histogram representing the total length of the line segments for each line segment direction for each grid ( Step S103).

また、検索範囲設定部434は、仮の自車両の位置に基づいて、地図上の検索範囲を設定する(ステップS104)。比較部435は、検索範囲内の仮想撮影点のそれぞれについて、その仮想撮影点の地図線分分布情報である記述子akと画像線分分布情報である記述子λの内積を計算することで、その仮想撮影点における、記述子akと記述子λ間の、局所ごと、かつ、向きごとの線分の分布の一致度合を表す評価値を算出する(ステップS105)。そして比較部435は、評価値が最大となる仮想撮影点を、現時刻tにおける自車両の位置として検出する(ステップS106)。そして制御部43は、車両位置検出処理を終了する。なお、制御部43は、ステップS101〜103の処理と、ステップS104の処理の順序を入れ替えてもよく、あるいは、並列に実行してもよい。 Further, the search range setting unit 434 sets a search range on the map based on the position of the temporary host vehicle (step S104). The comparison unit 435 calculates, for each virtual shooting point in the search range, the inner product of the descriptor a k that is the map line segment distribution information of the virtual shooting point and the descriptor λ that is the image line segment distribution information. Then, an evaluation value representing the degree of coincidence of the distribution of the line segment for each local area and for each direction between the descriptor a k and the descriptor λ at the virtual photographing point is calculated (step S105). Then, the comparison unit 435 detects the virtual shooting point with the maximum evaluation value as the position of the host vehicle at the current time t (step S106). And the control part 43 complete | finishes a vehicle position detection process. In addition, the control part 43 may replace the order of the process of step S101-103 and the process of step S104, or may perform it in parallel.

以上説明してきたように、本発明の第1の実施形態である車両位置検出システムは、テンプレートマッチングのように、繰り返し試行する処理を伴わずに自車両の位置を検出できる。そのため、この車両位置検出システムは、処理負荷を抑制できる。またこの車両位置検出システムは、画像上での道路上の物体を表す線分の局所ごと、かつ、向きごとの分布と、地図から仮想的に得られる仮想画像上での道路上の物体を表す線分の局所ごと、かつ、向きごとの分布とを比較して、その分布が最も一致する仮想撮影点を自車両の位置とするので、自車両の位置を正確に検出できる。また、道路上の物体を表す線分の向きは、道路上の物体の端点などの特徴点よりも、その物体の一部の損耗により影響され難い。そのため、この車両位置検出システムは、路面の環境変化などに対して高いロバスト性を持って自車両の位置を検出できる。さらに、この車両位置検出システムは、線分を横切る方向の輝度勾配を表す情報も線分の向きとして表現するので、線分の分布の比較において、道路上の物体に対する輪郭の位置の違いも評価することができる。そのため、この車両位置検出システムは、自車両の位置を正確に検出できる。   As described above, the vehicle position detection system according to the first embodiment of the present invention can detect the position of the host vehicle without the process of repeated trials as in template matching. Therefore, this vehicle position detection system can suppress processing load. In addition, this vehicle position detection system represents an object on a road on a virtual image virtually obtained from a map and a distribution for each local and orientation of a line segment representing the object on the road on the image. By comparing the local distribution and the distribution for each direction of the line segment, and the virtual shooting point with the most consistent distribution is set as the position of the own vehicle, the position of the own vehicle can be accurately detected. Also, the direction of the line segment representing the object on the road is less affected by the wear of a part of the object than the feature point such as the end point of the object on the road. Therefore, this vehicle position detection system can detect the position of the host vehicle with high robustness against changes in the environment of the road surface. Furthermore, since this vehicle position detection system also expresses information indicating the luminance gradient in the direction across the line segment as the direction of the line segment, the difference in the position of the contour relative to the object on the road is also evaluated in the comparison of the line segment distribution. can do. Therefore, this vehicle position detection system can accurately detect the position of the host vehicle.

次に、第2の実施形態による、車両位置検出システムについて説明する。この車両位置検出システムでは、地図そのものに格子が設定され、格子ごとに、線分の向きごとの線分の長さの正規化ヒストグラムが予め作成される。一方、この車両位置検出装置は、車載カメラにより得られた画像から抽出した各線分を鳥瞰変換して得られた鳥瞰変換画像に格子を設定し、格子ごとに、線分の向きごとの線分の長さの正規化ヒストグラムを作成する。そしてこの車両位置検出装置は、地図から算出された格子ごとの正規化ヒストグラムと、鳥瞰変換画像から算出された格子ごとの正規化ヒストグラムを比較して、鳥瞰変換画像と最も一致する地図上の位置を検出することで、自車両の位置を検出する。   Next, a vehicle position detection system according to the second embodiment will be described. In this vehicle position detection system, a grid is set on the map itself, and a normalized histogram of the length of the line segment for each line segment direction is created in advance for each grid. On the other hand, this vehicle position detection apparatus sets a grid in the bird's-eye conversion image obtained by performing bird's-eye conversion on each line segment extracted from the image obtained by the in-vehicle camera, and for each grid, the line segment for each line segment direction. Create a normalized histogram of length of. The vehicle position detection device compares the normalized histogram for each grid calculated from the map with the normalized histogram for each grid calculated from the bird's-eye conversion image, and matches the position on the map that best matches the bird's-eye conversion image. By detecting this, the position of the host vehicle is detected.

第2の実施形態による車両位置検出システムは、第1の実施形態による車両位置検出システムと比較して、記憶部41に予め記憶される、地図に関連する情報と、制御部43により行われる処理の一部が異なる。そこで以下では、記憶部41に予め記憶される、地図に関連する情報と、制御部43について説明する。車両位置検出システムのその他の構成要素については、第1の実施形態による車両位置検出システムの対応する構成要素の説明を参照されたい。   Compared with the vehicle position detection system according to the first embodiment, the vehicle position detection system according to the second embodiment stores information related to the map stored in advance in the storage unit 41 and processing performed by the control unit 43. Some of them are different. Therefore, hereinafter, information related to the map and the control unit 43 stored in advance in the storage unit 41 will be described. For other components of the vehicle position detection system, refer to the description of the corresponding components of the vehicle position detection system according to the first embodiment.

本実施形態では、記憶部41は、地図に関連する情報として、地図に対して直接設定した各格子についての線分の向きごとの線分の長さの分布を表す正規化ヒストグラムと、各格子の範囲を記憶する。   In the present embodiment, the storage unit 41 includes, as information related to the map, a normalized histogram that represents a distribution of lengths of line segments for each line segment direction for each grid set directly on the map, and each grid Remember the range.

図13は、地図に設定される格子の一例を示す図である。図13に示されるように、地図1300に、複数の格子1301が設定される。各格子は、一方の辺がXw軸に沿い、その辺と直交する方向の辺がZw軸に沿うように設定される。また各格子のサイズは、例えば、道路標示が複数の格子に跨り、かつ、一つの区画線の左右の輪郭の一部が一つの格子に含まれる程度のサイズ、例えば、1m×1mに設定される。また各格子には、例えば、ラスタスキャン順に、左上端から順に番号が割り当てられる。   FIG. 13 is a diagram illustrating an example of a grid set in a map. As shown in FIG. 13, a plurality of grids 1301 are set on the map 1300. Each lattice is set so that one side is along the Xw axis and the side perpendicular to the side is along the Zw axis. The size of each grid is set to a size, for example, 1 m × 1 m, for example, so that the road marking extends over a plurality of grids and a part of the left and right contours of one lane marking is included in one grid. The Each grid is assigned a number in order of raster scanning, for example, starting from the upper left corner.

地図に設定された各格子について、格子に含まれる線分の向きごとの線分の長さの正規化ヒストグラムが生成される。この正規化ヒストグラムの生成方法は、第1の実施形態における、仮想画像または画像について設定された格子についての線分の向きごとの線分の長さの正規化ヒストグラムの生成方法と同様である。以下では、便宜上、j番目の格子の正規化ヒストグラムをηj(j=1,2,...,J)と表記する。 For each grid set in the map, a normalized histogram of the length of the line segment for each direction of the line segment included in the grid is generated. The method for generating the normalized histogram is the same as the method for generating the normalized histogram of the length of the line segment for each line segment direction for the virtual image or the grid set for the image in the first embodiment. Hereinafter, for convenience, the normalized histogram of the j-th lattice is denoted as η j (j = 1, 2,..., J).

図14に、第2の実施形態による、制御部43の機能ブロック図を示す。図14に示すように、制御部43は、初期値設定部531と、線特徴抽出部532と、鳥瞰変換部533と、線分布情報算出部534と、検索範囲設定部535と、比較部536とを有する。制御部43が有するこれらの各部は、例えば、制御部43が有するプロセッサ上で実行されるコンピュータプログラムによって実現される機能モジュールとして実装される。   FIG. 14 shows a functional block diagram of the control unit 43 according to the second embodiment. As illustrated in FIG. 14, the control unit 43 includes an initial value setting unit 531, a line feature extraction unit 532, a bird's eye conversion unit 533, a line distribution information calculation unit 534, a search range setting unit 535, and a comparison unit 536. And have. Each of these units included in the control unit 43 is implemented as a functional module realized by a computer program executed on a processor included in the control unit 43, for example.

第1の実施形態による制御部43と比較して、第2の実施形態による制御部43は、鳥瞰変換部533を有する点と、線分布情報算出部534、検索範囲設定部535及び比較部536により行われる処理が異なる。そこで以下では、鳥瞰変換部533、線分布情報算出部534、検索範囲設定部535及び比較部536について説明する。   Compared with the control unit 43 according to the first embodiment, the control unit 43 according to the second embodiment includes a point having a bird's-eye conversion unit 533, a line distribution information calculation unit 534, a search range setting unit 535, and a comparison unit 536. The processing performed depends on. Therefore, hereinafter, the bird's-eye conversion unit 533, the line distribution information calculation unit 534, the search range setting unit 535, and the comparison unit 536 will be described.

鳥瞰変換部533は、線特徴抽出部532により画像から抽出された各線分を、記憶部41に記憶されている地図情報に表された各線分と比較できるように、車両10の周囲の路面が平面であると仮定して、車両座標系にて鳥瞰変換する。例えば、鳥瞰変換部533は、次式に従って各線分の始点と終点を鳥瞰変換する。なお、便宜上、以下では、鳥瞰変換された線分を画像線分と呼ぶ。

Figure 0006278790
ここで(ui mt,vi mt)は、現時刻tに最も近い時刻に撮影された画像から抽出された線分のうちのi番目の線分の始点(m=s)または終点(m=e)についての画像上の水平方向の座標値及び垂直方向の座標値を表す。またbi mt=(bi m,x,t,bi m,z,t)tは、抽出された線分のうちのi番目の線分の始点(m=s)または終点(m=e)が鳥瞰変換された位置の車両座標系での位置を表す。そして(cu,cv)、(fu,fv)は内部パラメータであり、具体的に、(cu,cv)は、車載カメラ2の光軸に対応する画像上の点、すなわち、画像中心の座標である。また(fu,fv)は、水平方向と垂直方向の1画素あたりのサイズの違いを考慮した、車載カメラ2の焦点距離に対応する値である。またycは、路面から車載カメラ2までの高さを表す。 The bird's-eye conversion unit 533 compares the line segments extracted from the image by the line feature extraction unit 532 with the line segments represented in the map information stored in the storage unit 41 so that the road surface around the vehicle 10 is Assuming that the plane is a plane, bird's-eye view transformation is performed in the vehicle coordinate system. For example, the bird's-eye conversion unit 533 performs bird's-eye conversion of the start point and the end point of each line segment according to the following equation. For the sake of convenience, a line segment that has been bird's-eye converted will be referred to as an image line segment.
Figure 0006278790
Here, (u i mt , v i mt ) is the start point (m = s) or end point (m of the i-th line segment extracted from the image taken at the time closest to the current time t. = e) represents the horizontal coordinate value and the vertical coordinate value on the image. B i mt = (b i m, x, t , b i m, z, t ) t is the start point (m = s) or end point (m = s) of the i-th line segment of the extracted line segments. e) represents the position in the vehicle coordinate system of the position subjected to bird's-eye conversion. (C u , c v ) and (f u , f v ) are internal parameters. Specifically, (c u , c v ) is a point on the image corresponding to the optical axis of the in-vehicle camera 2, that is, , The coordinates of the image center. Further, (f u , f v ) is a value corresponding to the focal length of the in-vehicle camera 2 in consideration of the difference in size per pixel in the horizontal direction and the vertical direction. Yc represents the height from the road surface to the in-vehicle camera 2.

図15は、抽出された線分を鳥瞰変換することで得られた鳥瞰画像の一例である。図15に示されるように、鳥瞰画像1500において、各画像線分1501により、区画線、道路標示などが真上から見た形状で表されていることが分かる。   FIG. 15 is an example of a bird's-eye view image obtained by performing bird's-eye conversion on the extracted line segment. As shown in FIG. 15, it can be seen that in the bird's-eye view image 1500, each image line segment 1501 represents a lane marking, a road marking, and the like as viewed from directly above.

鳥瞰変換部533は、各画像線分の始点と終点の座標を記憶部41に記憶する。   The bird's eye conversion unit 533 stores the coordinates of the start point and end point of each image line segment in the storage unit 41.

線分布情報算出部534は、鳥瞰画像に基づいて、画像線分分布情報を求める。本実施形態では、線分布情報算出部534は、鳥瞰画像を複数の格子に分割する。   The line distribution information calculation unit 534 obtains image line segment distribution information based on the bird's-eye view image. In the present embodiment, the line distribution information calculation unit 534 divides the bird's-eye view image into a plurality of grids.

図16は、鳥瞰画像に設定される格子の一例を示す図である。鳥瞰画像1600は、地図に設定される格子と同サイズの格子1601で分割される。また格子には、例えば、ラスタスキャン順に番号が付与される。そして線分布情報算出部534は、鳥瞰画像に設定された各格子について、格子に含まれる線分の向きごとの画像線分の長さの正規化ヒストグラムを算出する。この正規化ヒストグラムの算出方法は、第1の実施形態における、仮想画像または画像について設定された格子についての線分の向きごとの線分の長さの正規化ヒストグラムの算出方法と同様である。そして線分布情報算出部433は、第1の実施形態と同様に、鳥瞰画像全体にわたって格子の番号順に正規化ヒストグラムを並べた記述子λ=(κ12,...,κJ)tを、画像線分分布情報として作成する。ただし、κjは、鳥瞰画像上のj番目の格子についての正規化ヒストグラムを表す。また線分布情報算出部534は、各格子の中心点の座標をχm=(χmxmz)t (m=1,2,...,M)とする。 FIG. 16 is a diagram illustrating an example of a grid set in the bird's-eye view image. The bird's-eye view image 1600 is divided by a grid 1601 having the same size as the grid set on the map. For example, the grids are numbered in the order of raster scanning. Then, the line distribution information calculation unit 534 calculates, for each grid set in the bird's-eye image, a normalized histogram of the length of the image line segment for each direction of the line segment included in the grid. The method for calculating the normalized histogram is the same as the method for calculating the normalized histogram of the length of the line segment for each line segment direction for the virtual image or the grid set for the image in the first embodiment. Similarly to the first embodiment, the line distribution information calculation unit 433 has descriptors λ = (κ 1 , κ 2 ,..., Κ J ) in which normalized histograms are arranged in the order of the grid numbers over the entire bird's-eye view image. t is created as image line segment distribution information. Here, κ j represents a normalized histogram for the j-th lattice on the bird's-eye view image. The line distribution information calculation unit 534 sets the coordinates of the center point of each lattice as χ m = (χ mx , χ mz ) t (m = 1, 2,..., M).

検索範囲設定部535は、第1の実施形態による検索範囲設定部434と同様に、仮の自車両の位置を中心とする所定範囲を地図上の検索範囲とする。なお、仮の自車両の位置及び所定範囲も、検索範囲設定部434と同様に設定すればよい。   Similar to the search range setting unit 434 according to the first embodiment, the search range setting unit 535 sets a predetermined range centered on the position of the temporary host vehicle as the search range on the map. The position of the temporary host vehicle and the predetermined range may be set similarly to the search range setting unit 434.

さらに、本実施形態では、検索範囲設定部535は、検索範囲内に1個以上の仮想撮影点を設定する。例えば、検索範囲設定部535は、隣接する仮想撮影点間の間隔が、要求される車両の検出位置の精度(例えば、1m〜5m)と同程度となるように、検索範囲内に等間隔に複数の仮想撮影点を設定する。また第1の実施形態と同様に、検索範囲設定部535は、一つの仮想撮影点に、複数の撮影方向を設定してもよい。以下では、仮想撮影点を、撮影方向を含めてyk=(xk,zkk)t(k=1,2,...,K)と表記する。 Further, in the present embodiment, the search range setting unit 535 sets one or more virtual shooting points within the search range. For example, the search range setting unit 535 is arranged at regular intervals within the search range so that the interval between adjacent virtual shooting points is approximately the same as the accuracy of the required detection position of the vehicle (for example, 1 m to 5 m). Set multiple virtual shooting points. Similarly to the first embodiment, the search range setting unit 535 may set a plurality of shooting directions for one virtual shooting point. Hereinafter, the virtual shooting point including the shooting direction is expressed as y k = (x k , z k , θ k ) t (k = 1, 2,..., K).

比較部536は、鳥瞰画像について求められた画像線分分布情報と、地図線分分布情報とを比較することで、鳥瞰画像と最も一致する地図上の位置を特定し、その位置を現時刻tにおける自車両の位置として検出する。   The comparison unit 536 identifies the position on the map that most closely matches the bird's-eye view image by comparing the image line segment distribution information obtained for the bird's-eye view image and the map line segment distribution information, and determines the position at the current time t. It detects as the position of the own vehicle.

そのために、比較部536は、仮想撮影点ごとに、鳥瞰画像について設定された各格子の中心点の位置を、仮想撮影点から決定される回転並進行列Rvg k、tvg kを用いて、次式に従って世界座標系の座標に変換する。

Figure 0006278790
ここで、回転行列Rvg kは、k番目の仮想撮影点に対応する回転行列であり、θkは、その仮想撮影点についての撮影方向である。また並進行列tvgは、世界座標系でのk番目の仮想撮影点の位置を表す。またφkmは、k番目の仮想撮影点に対応する回転並進行列にて座標変換することにより世界座標系で表された、m番目(m=1,2,...,M)の格子の中点の座標である。 For this purpose, the comparison unit 536 uses, for each virtual imaging point, the position of the center point of each grid set for the bird's-eye view image using the rotation parallel progression sequence R vg k and t vg k determined from the virtual imaging point, Convert to world coordinate system according to the following formula.
Figure 0006278790
Here, the rotation matrix R vg k is a rotation matrix corresponding to the k-th virtual shooting point, and θ k is the shooting direction for the virtual shooting point. The parallel progression row t vg represents the position of the kth virtual shooting point in the world coordinate system. Φ km is the m-th (m = 1,2, ..., M) lattice represented in the world coordinate system by transforming the coordinates with the rotation parallel progression corresponding to the k-th virtual imaging point. The coordinates of the midpoint.

比較部536は、各仮想撮影点について、中点φkmが含まれる地図上に設定された格子を特定する。そして比較部536は、中点φkm(m=1,2,...,M)の番号順に、その中点が含まれる格子の正規化ヒストグラムを並べたものを、地図線分分布情報の一例である記述子ak=(ηk,1k,2,...,ηk,J)tとする。
さらに、比較部536は、各格子の正規化ヒストグラムηk,jにおいて、仮想撮影点における撮影方向θkによる線分の向きのずれを打ち消すように、線分無しに相当するビンを除く、各ビンの値を、そのθkに相当するビンの数だけシフトさせる。
The comparison unit 536 identifies a grid set on the map including the midpoint φ km for each virtual shooting point. The comparison unit 536 then arranges the normalized histograms of the grids including the midpoints in the order of the numbers of the midpoints φ km (m = 1, 2,..., M). As an example, assume that descriptor a k = (η k, 1 , η k, 2 ,..., Η k, J ) t .
Further, the comparison unit 536 excludes bins corresponding to no line segments so as to cancel the deviation of the direction of the line segment due to the imaging direction θ k at the virtual imaging point in the normalized histogram η k, j of each grid. The bin value is shifted by the number of bins corresponding to that θ k .

比較部536は、各仮想撮影点に対応する記述子akのそれぞれについて、鳥瞰画像から得られた記述子λとの内積γk=ak tλを、画像線分分布情報と地図線分分布情報の一致度合を表す評価値として算出する。比較部536は、評価値γkが最大となる仮想撮影点を、現時刻tにおける自車両の位置とする。 The comparison unit 536 calculates the inner product γ k = a k t λ of the descriptor a k corresponding to each virtual shooting point with the descriptor λ obtained from the bird's-eye view image, the image line segment distribution information and the map line segment. It is calculated as an evaluation value representing the degree of coincidence of distribution information. The comparison unit 536 sets the virtual shooting point at which the evaluation value γ k is the maximum as the position of the host vehicle at the current time t.

図17は、第2の実施形態による車両位置検出処理の動作フローチャートである。   FIG. 17 is an operation flowchart of a vehicle position detection process according to the second embodiment.

線特徴抽出部532は、車載カメラ2が生成した画像のうち、現時刻tに最も近い時刻に生成された画像から、道路上の線分を抽出する(ステップS201)。そして線特徴抽出部532は、抽出された各線分について、その線分を横切る方向の輝度勾配に応じて線分の向き、すなわち、始点及び終点を設定する(ステップS202)。   The line feature extraction unit 532 extracts a line segment on the road from the image generated at the time closest to the current time t among the images generated by the in-vehicle camera 2 (step S201). Then, the line feature extraction unit 532 sets the direction of the line segment, that is, the start point and the end point of each extracted line segment according to the luminance gradient in the direction crossing the line segment (step S202).

鳥瞰変換部533は、各線分の始点及び終点を鳥瞰変換して、各線分について、車両座標系で表される、鳥瞰画像上の位置を特定する(ステップS203)。   The bird's-eye conversion unit 533 performs bird's-eye conversion on the start point and end point of each line segment, and identifies the position on the bird's-eye image represented in the vehicle coordinate system for each line segment (step S203).

線分布情報算出部534は、鳥瞰画像を格子ごとに分割し、各格子について、線分の向きごとの線分の長さの合計を表す正規化ヒストグラムを算出することで、記述子λを求める(ステップS204)。   The line distribution information calculation unit 534 obtains the descriptor λ by dividing the bird's-eye view image for each grid and calculating a normalized histogram representing the total length of the line segments for each direction of each line. (Step S204).

また、検索範囲設定部535は、仮の自車両の位置に基づいて、地図上の検索範囲を設定する(ステップS205)。そして検索範囲設定部535は、検索範囲内に複数の仮想撮影点を設定する(ステップS206)。   Further, the search range setting unit 535 sets a search range on the map based on the position of the temporary host vehicle (step S205). Then, the search range setting unit 535 sets a plurality of virtual shooting points within the search range (step S206).

比較部536は、検索範囲内の仮想撮影点のそれぞれについて、その仮想撮影点に対応する回転並進行列を用いて、鳥瞰画像に設定された各格子の中点の位置を世界座標系の位置に変換する(ステップS207)。そして比較部536は、仮想撮影点ごとに、各格子の中点を含む、地図上の格子を特定し、特定された格子の正規化ヒストグラムを、記述子λに記述された格子の順序と同じ順序で並べることで、仮想撮影点ごとの記述子akを求める(ステップS208)。さらに、比較部536は、仮想撮影点における撮影方向θkに応じて、各格子の正規化ヒストグラムにおける線分の向きのずれを補正する(ステップS209)。そして比較部536は、仮想撮影点ごとに、鳥瞰画像から得られた画像線分分布情報である記述子λとその仮想撮影点における地図線分分布情報である記述子akの内積を計算することで、鳥瞰画像と仮想撮影点に対応する位置の地図における、記述子akと記述子λ間の、局所ごと、かつ、向きごとの線分の分布の一致度合を表す評価値を算出する(ステップS210)。そして比較部536は、評価値が最大となる仮想撮影点を、現時刻tにおける自車両の位置として検出する(ステップS211)。そして制御部43は、車両位置検出処理を終了する。なお、制御部43は、ステップS201〜204の処理と、ステップS205〜S206の処理の順序を入れ替えてもよく、あるいは、並列に実行してもよい。 For each virtual imaging point in the search range, the comparison unit 536 uses the rotation parallel progression sequence corresponding to the virtual imaging point to set the position of the midpoint of each grid set in the bird's-eye image to the position of the world coordinate system. Conversion is performed (step S207). Then, the comparison unit 536 specifies a grid on the map including the midpoint of each grid for each virtual shooting point, and the normalized histogram of the specified grid is the same as the grid order described in the descriptor λ. By arranging them in order, a descriptor a k for each virtual shooting point is obtained (step S208). Further, the comparison unit 536 corrects the deviation of the direction of the line segment in the normalized histogram of each grid according to the shooting direction θ k at the virtual shooting point (step S209). Then, for each virtual shooting point, the comparison unit 536 calculates the inner product of the descriptor λ that is the image line segment distribution information obtained from the bird's-eye image and the descriptor a k that is the map line segment distribution information at the virtual shooting point. Thus, in the map of the position corresponding to the bird's-eye view image and the virtual shooting point, the evaluation value representing the degree of coincidence of the distribution of the line segment for each region and for each direction between the descriptor a k and the descriptor λ is calculated. (Step S210). Then, the comparison unit 536 detects the virtual shooting point having the maximum evaluation value as the position of the host vehicle at the current time t (step S211). And the control part 43 complete | finishes a vehicle position detection process. In addition, the control part 43 may replace the order of the process of step S201-204 and the process of step S205-S206, or may perform it in parallel.

以上説明してきたように、本発明の第2の実施形態である車両位置検出システムも、第1の実施形態である車両位置検出システムと同様の効果を奏する。さらに、第2の実施形態による車両位置検出システムでは、仮想撮影点は、検索範囲の中だけに設定されるので、事前に準備され、記憶部に記憶される情報量が、第1の実施形態よりも少なくてよい。そのため、第2の実施形態による車両位置検出システムは、第1の実施形態よりも、記憶部の記憶容量を削減できる。   As described above, the vehicle position detection system according to the second embodiment of the present invention has the same effects as the vehicle position detection system according to the first embodiment. Furthermore, in the vehicle position detection system according to the second embodiment, since the virtual shooting point is set only in the search range, the amount of information prepared in advance and stored in the storage unit is the first embodiment. Less than. Therefore, the vehicle position detection system according to the second embodiment can reduce the storage capacity of the storage unit as compared with the first embodiment.

以上、本発明の好適な実施形態について説明してきたが、本発明はこれらの実施形態に限定されるものではない。変形例によれば、地図線分及び線特徴抽出部が画像から抽出した線分を横切る方向の輝度勾配の向きに関する情報を、その線分の向きで表す代わりに、他の形式で表してもよい。例えば、線分を横切る方向の輝度勾配の向きは、その線分と関連付けられたフラグによって表されてもよい。例えば、その線分を左から右へ、あるいは上から下へ横切る方向に沿って輝度が低下する場合には、そのフラグの値を'0'とし、その線分を右から左へ、あるいは下から上へ横切る方向に沿って輝度が低下する場合には、そのフラグの値を'1'としてもよい。   The preferred embodiments of the present invention have been described above, but the present invention is not limited to these embodiments. According to the modification, the information about the direction of the luminance gradient in the direction across the line segment extracted from the image by the map line segment and the line feature extraction unit may be expressed in another format instead of the direction of the line segment. Good. For example, the direction of the luminance gradient in the direction across the line segment may be represented by a flag associated with the line segment. For example, if the luminance decreases along the direction crossing the line from left to right or from top to bottom, the flag value is set to '0' and the line is moved from right to left or down. If the luminance decreases along the direction crossing upward from, the flag value may be set to “1”.

上記の実施形態または変形例による車両位置検出システムから出力された自車両の位置は、例えば、CAN3を介して運転支援システムの制御回路(図示せず)へ送信される。運転支援システムの制御回路は、例えば、自車両の位置とその周囲の情報とを比較して、自車両から所定距離範囲内に特定の構造物(例えば、高速道路の料金所、ナビゲーション中の経路において左折または右折が必要な交差点など)が有れば、車内に設置されたディスプレイまたはスピーカを介して、その構造物が近いことをドライバに通知する。あるいは、運転支援システムの制御回路は、ECU11に、速度を落とす命令を出力してもよい。   The position of the host vehicle output from the vehicle position detection system according to the above embodiment or modification is transmitted to a control circuit (not shown) of the driving support system via, for example, CAN3. The control circuit of the driving support system compares, for example, the position of the host vehicle and the surrounding information, and within a predetermined distance range from the host vehicle, for example, a specific structure (for example, a highway toll booth, a route being navigated) If there is an intersection that requires a left turn or a right turn, the driver is notified that the structure is near through a display or a speaker installed in the vehicle. Alternatively, the control circuit of the driving support system may output a command to reduce the speed to the ECU 11.

以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。   As described above, those skilled in the art can make various modifications in accordance with the embodiment to be implemented within the scope of the present invention.

1 車両位置検出システム
2 車載カメラ
3 コントロールエリアネットワーク(CAN)
4 コントローラ(車両位置検出装置)
10 車両
11 ECU
41 記憶部
42 通信部
43 制御部
431 初期値設定部
432 線特徴抽出部
433 線分布情報算出部
434 検索範囲設定部
435 比較部
531 初期値設定部
532 線特徴抽出部
533 鳥瞰変換部
534 線分布情報算出部
535 検索範囲設定部
536 比較部
DESCRIPTION OF SYMBOLS 1 Vehicle position detection system 2 Car-mounted camera 3 Control area network (CAN)
4 Controller (vehicle position detection device)
10 Vehicle 11 ECU
41 Storage Unit 42 Communication Unit 43 Control Unit 431 Initial Value Setting Unit 432 Line Feature Extraction Unit 433 Line Distribution Information Calculation Unit 434 Search Range Setting Unit 435 Comparison Unit 531 Initial Value Setting Unit 532 Line Feature Extraction Unit 533 Bird's-eye View Conversion Unit 534 Line Distribution Information calculation unit 535 Search range setting unit 536 Comparison unit

Claims (7)

道路上にある物体の輪郭を表す複数の地図線分のそれぞれの位置を含む地図と、局所ごと、かつ、前記地図線分の向きごとの前記地図線分の分布を表す地図線分分布情報を記憶する記憶部(41)と、
車両(10)に搭載された撮像部(2)が当該車両(10)の周囲を撮影して得られた画像から、当該画像に写っている道路上の物体の輪郭を表す複数の線分を抽出する線特徴抽出部(432、532)と、
前記画像上で、局所ごと、かつ、前記線分の向きごとの前記線分の分布を表す画像線分分布情報を求める線分布情報算出部(433、534)と、
前記地図上に設定される複数の仮想撮影点のそれぞれについて、当該仮想撮影点における前記地図線分分布情報と前記画像線分分布情報間の一致度合を表す評価値を算出し、該評価値が最大となる仮想撮影点を前記車両(10)の位置とする比較部(435、536)と、
を有することを特徴とする車両位置検出装置。
A map including each position of a plurality of map line segments representing the outline of an object on the road, and map line segment distribution information representing the distribution of the map line segments for each locality and for each direction of the map line segment. A storage unit (41) for storing;
A plurality of line segments representing the contour of an object on the road shown in the image are obtained from an image obtained by photographing the periphery of the vehicle (10) by the imaging unit (2) mounted on the vehicle (10). Line feature extraction units (432, 532) to be extracted;
A line distribution information calculation unit (433, 534) for obtaining image line segment distribution information representing the distribution of the line segment for each local area and for each direction of the line segment on the image;
For each of a plurality of virtual shooting points set on the map, an evaluation value representing the degree of coincidence between the map line segment distribution information and the image line segment distribution information at the virtual shooting point is calculated, and the evaluation value is A comparison unit (435, 536) that sets the maximum virtual shooting point as the position of the vehicle (10);
A vehicle position detection device comprising:
前記記憶部(41)は、前記複数の仮想撮影点のそれぞれについて、当該仮想撮影点から、前記撮像部(2)で前記地図を仮想的に撮影して得られる仮想画像を分割した複数の格子のそれぞれについて、当該格子に含まれる、前記仮想画像上に表された前記地図線分の向きごとの分布を前記地図線分分布情報として記憶し、
前記線分布情報算出部(433)は、前記画像を複数の格子に分割し、前記複数の格子のそれぞれについて、当該格子に含まれる、前記画像上に表された前記線分の向きごとの分布を前記画像線分分布情報とする、請求項1に記載の車両位置検出装置。
For each of the plurality of virtual shooting points, the storage unit (41) includes a plurality of grids obtained by dividing a virtual image obtained by virtually shooting the map with the imaging unit (2) from the virtual shooting points. For each of the above, the distribution for each direction of the map line segment represented on the virtual image included in the grid is stored as the map line segment distribution information,
The line distribution information calculation unit (433) divides the image into a plurality of grids, and for each of the plurality of grids, a distribution for each direction of the line segments represented on the image included in the grids. The vehicle position detection device according to claim 1, wherein the image line segment distribution information is set as the image line segment distribution information.
前記複数の線分のそれぞれを鳥瞰変換して、前記車両(10)を基準とする車両座標系での前記複数の線分のそれぞれの位置を表す鳥瞰画像を求める鳥瞰変換部(533)をさらに有し、
前記記憶部(41)は、前記地図を分割した複数の第1の格子のそれぞれについて、当該第1の格子に含まれる、前記地図上に表された前記地図線分の向きごとの分布を記憶し、
前記線分布情報算出部(534)は、前記鳥瞰画像を複数の第2の格子に分割し、前記複数の第2の格子のそれぞれについて、当該第2の格子に含まれる、前記鳥瞰画像上に表された前記線分の向きごとの分布を前記画像線分分布情報とし、
前記比較部(536)は、前記複数の仮想撮影点のそれぞれについて、当該仮想撮影点に応じて前記車両座標系での前記複数の第2の格子のそれぞれに対応する前記第1の格子を特定し、前記複数の第2の格子のそれぞれに対応する前記第1の格子のそれぞれの前記地図線分の向きごとの分布を、当該仮想撮影点についての前記地図線分分布情報とする、請求項1に記載の車両位置検出装置。
A bird's-eye conversion unit (533) that performs bird's-eye conversion on each of the plurality of line segments and obtains a bird's-eye image representing the position of each of the plurality of line segments in the vehicle coordinate system with reference to the vehicle (10). Have
The storage unit (41) stores, for each of a plurality of first grids obtained by dividing the map, a distribution for each direction of the map line segment represented on the map included in the first grid. And
The line distribution information calculation unit (534) divides the bird's-eye view image into a plurality of second lattices, and each of the plurality of second lattices is included on the bird's-eye image included in the second lattice. The distribution for each direction of the represented line segment is the image line segment distribution information,
The comparison unit (536) specifies, for each of the plurality of virtual shooting points, the first grid corresponding to each of the plurality of second grids in the vehicle coordinate system according to the virtual shooting point. The distribution for each direction of the map line segment of the first grid corresponding to each of the plurality of second grids is used as the map line segment distribution information for the virtual imaging point. The vehicle position detection device according to 1.
前記複数の地図線分のそれぞれについて、当該地図線分を横切る方向の輝度勾配の向きに応じて当該地図線分の向きが設定され、
前記線特徴抽出部(432、532)は、検出した前記線分のそれぞれについて、当該線分を横切る方向の輝度勾配の向きを求め、当該輝度勾配の向きに応じて当該線分の向きを設定する、請求項1〜3の何れか一項に記載の車両位置検出装置。
For each of the plurality of map line segments, the direction of the map line segment is set according to the direction of the luminance gradient in the direction across the map line segment,
For each of the detected line segments, the line feature extraction unit (432, 532) obtains the direction of the luminance gradient in the direction across the line segment, and sets the direction of the line segment according to the direction of the luminance gradient. The vehicle position detection device according to any one of claims 1 to 3.
車両(10)に搭載された撮像部(2)が当該車両(10)の周囲を撮影して得られた画像から、当該画像に写っている道路上の物体の輪郭を表す複数の線分を抽出するステップと、
前記画像上で、局所ごと、かつ、前記線分の向きごとの前記線分の分布を表す画像線分分布情報を求めるステップと、
道路上にある物体の輪郭を表す複数の地図線分のそれぞれの位置を含む地図上に設定される複数の仮想撮影点のそれぞれについて、当該仮想撮影点における、局所ごと、かつ、前記地図線分の向きごとの前記地図線分の分布を表す地図線分分布情報と前記画像線分分布情報間の一致度合を表す評価値を算出し、該評価値が最大となる仮想撮影点を前記車両(10)の位置とするステップと、
を含むことを特徴とする車両位置検出方法。
A plurality of line segments representing the contour of an object on the road shown in the image are obtained from an image obtained by photographing the periphery of the vehicle (10) by the imaging unit (2) mounted on the vehicle (10). Extracting, and
On the image, obtaining image line segment distribution information representing the distribution of the line segment for each local area and for each direction of the line segment;
For each of a plurality of virtual shooting points set on a map including the positions of a plurality of map line segments representing the outline of an object on the road, for each local area at the virtual shooting point and the map line segment An evaluation value representing the degree of coincidence between the map line segment distribution information representing the map line segment distribution for each direction and the image line segment distribution information is calculated, and the virtual shooting point having the maximum evaluation value is determined as the vehicle ( 10) the position of the step;
The vehicle position detection method characterized by including.
車両(10)に搭載された撮像部(2)が当該車両(10)の周囲を撮影して得られた画像から、当該画像に写っている道路上の物体の輪郭を表す複数の線分を抽出するステップと、
前記画像上で、局所ごと、かつ、前記線分の向きごとの前記線分の分布を表す画像線分分布情報を求めるステップと、
道路上にある物体の輪郭を表す複数の地図線分のそれぞれの位置を含む地図上に設定される複数の仮想撮影点のそれぞれについて、当該仮想撮影点における、局所ごと、かつ、前記地図線分の向きごとの前記地図線分の分布を表す地図線分分布情報と前記画像線分分布情報間の一致度合を表す評価値を算出し、該評価値が最大となる仮想撮影点を前記車両(10)の位置とするステップと、
を前記車両(10)に搭載されたプロセッサ(43)に実行させる命令を含むことを特徴とする車両位置検出用コンピュータプログラム。
A plurality of line segments representing the contour of an object on the road shown in the image are obtained from an image obtained by photographing the periphery of the vehicle (10) by the imaging unit (2) mounted on the vehicle (10). Extracting, and
On the image, obtaining image line segment distribution information representing the distribution of the line segment for each local area and for each direction of the line segment;
For each of a plurality of virtual shooting points set on a map including the positions of a plurality of map line segments representing the outline of an object on the road, for each local area at the virtual shooting point and the map line segment An evaluation value representing the degree of coincidence between the map line segment distribution information representing the map line segment distribution for each direction and the image line segment distribution information is calculated, and the virtual shooting point having the maximum evaluation value is determined as the vehicle ( 10) the position of the step;
The computer program for vehicle position detection characterized by including the command which makes the processor (43) mounted in the said vehicle (10) execute.
車両(10)に搭載され、当該車両(10)の周囲を撮影して画像を生成する撮像部(2)と、
道路上にある物体の輪郭を表す複数の地図線分のそれぞれの位置を含む地図と、局所ごと、かつ、前記地図線分の向きごとの前記地図線分の分布を表す地図線分分布情報を記憶する記憶部(41)と、
前記撮像部(2)から前記画像を取得する通信部(42)と、
制御部であって、
前記画像に写っている道路上の物体の輪郭を表す複数の線分を抽出し、
前記画像上で、局所ごと、かつ、前記線分の向きごとの前記線分の分布を表す画像線分分布情報を求め、
前記地図上に設定される複数の仮想撮影点のそれぞれについて、当該仮想撮影点における前記地図線分分布情報と前記画像線分分布情報間の一致度合を表す評価値を算出し、該評価値が最大となる仮想撮影点を前記車両(10)の位置とする制御部(43)と、
を有することを特徴とする車両位置検出システム。
An imaging unit (2) mounted on the vehicle (10), which captures an image of the surroundings of the vehicle (10) and generates an image;
A map including each position of a plurality of map line segments representing the outline of an object on the road, and map line segment distribution information representing the distribution of the map line segments for each locality and for each direction of the map line segment. A storage unit (41) for storing;
A communication unit (42) for acquiring the image from the imaging unit (2);
A control unit,
Extracting a plurality of line segments representing the contour of an object on the road in the image;
Finding image line segment distribution information representing the distribution of the line segment for each local area and for each direction of the line segment on the image,
For each of a plurality of virtual shooting points set on the map, an evaluation value representing the degree of coincidence between the map line segment distribution information and the image line segment distribution information at the virtual shooting point is calculated, and the evaluation value is A control unit (43) which sets the maximum virtual shooting point as the position of the vehicle (10);
A vehicle position detection system comprising:
JP2014071929A 2014-03-31 2014-03-31 Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system Expired - Fee Related JP6278790B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014071929A JP6278790B2 (en) 2014-03-31 2014-03-31 Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014071929A JP6278790B2 (en) 2014-03-31 2014-03-31 Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system

Publications (2)

Publication Number Publication Date
JP2015194373A JP2015194373A (en) 2015-11-05
JP6278790B2 true JP6278790B2 (en) 2018-02-14

Family

ID=54433542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014071929A Expired - Fee Related JP6278790B2 (en) 2014-03-31 2014-03-31 Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system

Country Status (1)

Country Link
JP (1) JP6278790B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6758160B2 (en) * 2016-11-10 2020-09-23 株式会社デンソーアイティーラボラトリ Vehicle position detection device, vehicle position detection method and computer program for vehicle position detection
JP6903477B2 (en) * 2017-04-21 2021-07-14 株式会社東芝 Orbit identification device and program
CN109146976B (en) * 2018-08-23 2020-06-02 百度在线网络技术(北京)有限公司 Method and device for locating unmanned vehicles
WO2020045210A1 (en) * 2018-08-28 2020-03-05 パイオニア株式会社 Map data structure
CN111210460B (en) * 2018-11-21 2023-05-02 杭州海康威视系统技术有限公司 Method and device for matching camera to road section, electronic equipment and storage medium
KR20220119664A (en) 2019-12-20 2022-08-30 나이앤틱, 인크. Position determination and mapping through 3D line junctions

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010151658A (en) * 2008-12-25 2010-07-08 Zhencheng Hu Apparatus and method for measuring position of mobile object
US9639949B2 (en) * 2010-03-15 2017-05-02 Analog Devices, Inc. Edge orientation for second derivative edge detection methods

Also Published As

Publication number Publication date
JP2015194373A (en) 2015-11-05

Similar Documents

Publication Publication Date Title
JP7485749B2 (en) Video-based localization and mapping method and system - Patents.com
US11474247B2 (en) Methods and systems for color point cloud generation
JP6278790B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP6278791B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
JP4871909B2 (en) Object recognition apparatus and object recognition method
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
JP5714940B2 (en) Moving body position measuring device
JP2020525809A (en) System and method for updating high resolution maps based on binocular images
JP6201148B2 (en) CALIBRATION APPARATUS, CALIBRATION METHOD, MOBILE BODY CAMERA HAVING CALIBRATION FUNCTION, AND PROGRAM
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
WO2021017211A1 (en) Vehicle positioning method and device employing visual sensing, and vehicle-mounted terminal
CN109635737A (en) Automobile navigation localization method is assisted based on pavement marker line visual identity
JP2018077162A (en) Vehicle position detection device, vehicle position detection method and computer program for vehicle position detection
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
CN112749584B (en) Vehicle positioning method based on image detection and vehicle-mounted terminal
CN107145828B (en) Vehicle panoramic image processing method and device
JP2007011994A (en) Road recognition device
JP2014106739A (en) In-vehicle image processing device
WO2020113425A1 (en) Systems and methods for constructing high-definition map
JP6370234B2 (en) MAP DATA GENERATION DEVICE, MAP DATA GENERATION METHOD, MAP DATA GENERATION COMPUTER PROGRAM, AND VEHICLE POSITION DETECTION DEVICE
JP5276032B2 (en) Device for calculating the position of an object
AU2018102199A4 (en) Methods and systems for color point cloud generation
JP2017182564A (en) Positioning device, positioning method, and positioning computer program
KR102540636B1 (en) Method for create map included direction information and computer program recorded on record-medium for executing method therefor
KR102540629B1 (en) Method for generate training data for transportation facility and computer program recorded on record-medium for executing method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180116

R150 Certificate of patent or registration of utility model

Ref document number: 6278790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees