JP7025276B2 - Positioning in urban environment using road markings - Google Patents

Positioning in urban environment using road markings Download PDF

Info

Publication number
JP7025276B2
JP7025276B2 JP2018080381A JP2018080381A JP7025276B2 JP 7025276 B2 JP7025276 B2 JP 7025276B2 JP 2018080381 A JP2018080381 A JP 2018080381A JP 2018080381 A JP2018080381 A JP 2018080381A JP 7025276 B2 JP7025276 B2 JP 7025276B2
Authority
JP
Japan
Prior art keywords
camera
image
posture
determined
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018080381A
Other languages
Japanese (ja)
Other versions
JP2018197744A (en
Inventor
ルー ヤン
ホアン ジャウェイ
チェン イー-チン
ハイゼル ベルンド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2018197744A publication Critical patent/JP2018197744A/en
Application granted granted Critical
Publication of JP7025276B2 publication Critical patent/JP7025276B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、路面標示を用いた都市環境における位置特定に関する。 The present invention relates to position identification in an urban environment using road markings.

認知技術、動作計画技術、制御技術及び/又は新たなセンシング技術により、自動運転車の発展は著しい。自律ナビゲーションを実現するためには、正確な位置特定(localization)が利用される。グローバル・ポジショニング・システム(GPS)を使用する場合、都市環境における多経路効果によって不都合が生じることがある。GPSが不都合となる環境における位置特定に対して、別の技術が使用され得る。 With cognitive technology, motion planning technology, control technology and / or new sensing technology, the development of self-driving cars is remarkable. Accurate localization is used to realize autonomous navigation. When using the Global Positioning System (GPS), the multi-path effect in an urban environment can cause inconvenience. Other techniques may be used for positioning in environments where GPS is inconvenient.

位置特定においては、センサ観測結果と予め既知の地図とを照合させる。地図は、異なるセンサを用いて、人間による測量又はロボットによるマッピングによって作製される。カメラ及び光検出・測距(LiDAR)装置は、一般的な2つの認知センサである。LiDARは、一般に正確な測距を行えるので、地図作製に使用される。よく使われる手法としては、地図作製プロセス及び位置特定の両方にLiDARを用いることが挙げられる。 In the position identification, the sensor observation result is collated with a known map in advance. Maps are created by human surveying or robotic mapping using different sensors. Cameras and photodetection and range-finding (LiDAR) devices are two common cognitive sensors. LiDAR is generally used for mapping because it can perform accurate distance measurement. A commonly used technique is to use LiDAR for both the mapping process and location.

しかしながら、LiDARのコストは、幅広く使用するには極めて高い。一方、カメラは低コスト且つ軽量であるが、直接に測距を行えないこともあって、ビジュアルマッピング(visual mapping)は困難である。課題は、異なるセンシング方式によって構築された地図に対して測定値を照合することである。 However, the cost of LiDAR is extremely high for widespread use. On the other hand, although the camera is low cost and lightweight, visual mapping is difficult because it cannot directly measure the distance. The challenge is to collate the measurements against maps constructed by different sensing methods.

上記を考慮すると、自律走行型車両に対する位置特定をより正確に行える方法の必要性が存在する。以下の開示によって、さらなる効果及び新規の特徴が明らかとなるであろう。 Considering the above, there is a need for a method that can more accurately identify the position of the autonomous traveling vehicle. The following disclosures will reveal further effects and new features.

この節は、以下の詳細な説明でさらに説明する一群の概念を簡略化した形で紹介するために提供される。この節は、特許請求された主題の重要な特徴を特定することを意図するものではなく、また、請求される主題の範囲を決定する際の助けとして使用されることも意図していない。 This section is provided to provide a simplified introduction to the set of concepts further described in the detailed description below. This section is not intended to identify important features of the claimed subject matter, nor is it intended to be used as an aid in determining the scope of the claimed subject matter.

本発明の一態様において、位置特定方法が提供される。該方法において、ある姿勢におけるカメラから画像が生成され、予め作製された地図が受け取られ、エッジ検出に基づいて、生成された前記画像から特徴が決定され、少なくとも前記予め作製された地図に基づいて、前記カメラの姿勢が予測され、前記予測されたカメラの姿勢から特徴が決定される。該方法ではさらに、前記画像及び前記予測されたカメラの姿勢から決定された特徴に基づいて、チャンファー距離が決定され、オドメトリ情報及びエピポーラ幾何に基づいて、前記決定された前記チャンファー距離が最適化される。最適化が行われると、その最適化に基づいて、カメラ姿勢推定値が生成される。 In one aspect of the invention, a positioning method is provided. In the method, an image is generated from the camera in a certain posture, a pre-made map is received, features are determined from the generated image based on edge detection, and at least based on the pre-made map. , The posture of the camera is predicted, and the feature is determined from the predicted posture of the camera. The method further determines the chamfer distance based on features determined from the image and the predicted camera orientation, and the determined chamfer distance is optimal based on odometry information and epipolar geometry. Is made. When the optimization is performed, a camera attitude estimate is generated based on the optimization.

本発明の他の態様において、位置特定システムが提供される。該システムは、ある姿勢において画像を生成するカメラと、メモリと、前記メモリに接続されたプロセッサと、と有する。該システムは、予め作製された地図を受け取り、エッジ検出に基づいて、生成された前記画像から特徴を決定し、少なくとも前記予め作製された地図に基づいて前記カメラの姿勢を予測する。該システムはさらに、前記予測されたカメラの姿勢から特徴を決定し、前記画像及び前記予測されたカメラの姿勢から決定された前記特徴に基づいて、チャンファー距離を決定する。該システムはさらに、オドメトリ情報とエピポーラ幾何に基づいて、前記決定された前記チャンファー距離を最適化し、前記最適化されたデータに基づいて、カメラ姿勢推定値を生成する。 In another aspect of the invention, a positioning system is provided. The system includes a camera that produces an image in a certain posture, a memory, and a processor connected to the memory. The system receives a pre-made map, determines features from the generated image based on edge detection, and predicts the attitude of the camera based on at least the pre-made map. The system further determines features from the predicted camera pose and determines the chamfer distance based on the image and the features determined from the predicted camera pose. The system further optimizes the determined chamfer distance based on odometry information and epipolar geometry, and generates camera attitude estimates based on the optimized data.

本発明の他の態様において、非一過性コンピュータ可読記録媒体が提供される。該非一過性コンピュータ可読記録媒体はプログラムを記憶している。前記プログラムが、システムの回路によって実行される場合、前記システムは、ある姿勢におけるカメラから画像を生成する。該システムは、予め作製された地図を受け取り、エッジ検出に基づいて、生成された前記画像から特徴を決定し、少なくとも前記予め作製された地図に基づいて前記カメラの姿勢を予測する。該システムはさらに、前記予測されたカメラの姿勢から特徴を決定し、前記画像及び前記予測されたカメラの姿勢から決定された前記特徴に基づいて、チャンファー距離を決定する。該システムはさらに、オドメトリ情報とエピポーラ幾何に基づいて、前記決定された前記チャンファー距離を最適化し、前記最適化されたデータに基づいて、カメラ姿勢推定値を生成する。 In another aspect of the invention, a non-transient computer readable recording medium is provided. The non-transient computer-readable recording medium stores a program. When the program is executed by a circuit of the system, the system produces an image from the camera in a certain posture. The system receives a pre-made map, determines features from the generated image based on edge detection, and predicts the attitude of the camera based on at least the pre-made map. The system further determines features from the predicted camera pose and determines the chamfer distance based on the image and the features determined from the predicted camera pose. The system further optimizes the determined chamfer distance based on odometry information and epipolar geometry, and generates camera attitude estimates based on the optimized data.

本開示のこれらの態様及び他の態様は、以下の詳細な説明を検討することにより、より十分に理解されるであろう。 These and other aspects of the present disclosure will be better understood by reviewing the detailed description below.

本開示の特徴であると考えられる新規な特徴は、添付の特許請求の範囲に記載されている。以下の説明では、同様の部品は、明細書及び図面全体にわたって同じ番号でそれぞれ示される。図面は必ずしも一定の縮尺で描かれておらず、ある図は明瞭さと簡潔さのために誇張された形態又は一般化された形態で示されている。しかしながら、開示自体、及び好ましい使用モード、さらなる目的及び効果は、添付の図面と併せて読むと、開示の例示的な態様の以下の詳細な説明を参照することによって最もよく理解されるであろう。 New features that are believed to be features of the present disclosure are described in the appended claims. In the following description, similar parts are designated by the same number throughout the specification and drawings, respectively. Drawings are not always drawn to a constant scale, and some are shown in exaggerated or generalized form for clarity and brevity. However, the disclosure itself, and preferred modes of use, additional objectives and effects, when read in conjunction with the accompanying drawings, will be best understood by reference to the following detailed description of exemplary embodiments of the disclosure. ..

図1は、本発明の実施形態に係る最適化に基づく位置特定システムの例示的な動作環境の概略図である。FIG. 1 is a schematic diagram of an exemplary operating environment of a positioning system based on optimization according to an embodiment of the present invention. 図2は、本発明の実施形態に係る位置特定に用いられる地図要素の例を示す図である。FIG. 2 is a diagram showing an example of a map element used for position identification according to an embodiment of the present invention. 図3は、本発明の実施形態に係るテキストフォーマットで保存された地図要素の例を示す図である。FIG. 3 is a diagram showing an example of a map element stored in a text format according to an embodiment of the present invention. 図4は、本発明の実施形態に係る最適化に基づく位置特定システムの全体的なアーキテクチャを示す概念図である。FIG. 4 is a conceptual diagram showing the overall architecture of the positioning system based on the optimization according to the embodiment of the present invention. 図5は、本発明の実施形態に係るオブジェクト検出方法及び最適化に基づく位置特定の方法の例を示すフローチャートである。FIG. 5 is a flowchart showing an example of an object detection method and a position specifying method based on optimization according to the embodiment of the present invention. 図5Aは、本発明の実施形態に係る最適化によって得られたカメラ姿勢を実行するカメラビューに射影されたマップの一例を示す図である。FIG. 5A is a diagram showing an example of a map projected on a camera view that executes a camera posture obtained by the optimization according to the embodiment of the present invention. 図6は、本発明の実施形態に係る、使用するための様々なハードウェア構成要素及び他の特徴を例示的に示すシステム図である。FIG. 6 is a system diagram illustrating various hardware components and other features for use according to an embodiment of the present invention. 図7は、本発明の実施形態に係る、使用される様々な例示的なシステム構成要素のブロック図である。FIG. 7 is a block diagram of various exemplary system components used according to embodiments of the present invention.

以下において、本明細書で使用される選択された用語の定義が示される。それら定義には、用語の範囲内にあり且つ実施するために使用され得る様々な例及び/又は構成要素の形態が含まれる。これらの例に、限定されるものではない。 Below are definitions of the selected terms used herein. Their definitions include various examples and / or forms of components that are within the scope of the term and can be used to implement them. These examples are not limited to.

本明細書で使用される「プロセッサ」は、信号を処理し、一般的な計算及び算術機能を実行する。プロセッサによって処理される信号は、受信、送信、及び/又は検出される、デジタル信号、データ信号、コンピュータ命令、プロセッサ命令、メッセージ、ビット、ビットストリーム、又は他の演算結果を含むことができる。 As used herein, a "processor" processes a signal and performs common computational and arithmetic functions. Signals processed by the processor can include digital signals, data signals, computer instructions, processor instructions, messages, bits, bitstreams, or other arithmetic results that are received, transmitted, and / or detected.

本明細書で使用される「バス」は、単数又は複数のシステム内のコンピュータ構成要素間でデータを転送するように動作可能に接続された、相互接続アーキテクチャを指す。バスは、特に、メモリバス、メモリコントローラ、周辺バス、外部バス、クロスバースイッチ、及び/又はローカルバスとすることができる。バスは、特に、コントローラエリアネットワーク(CAN)、ローカル相互接続ネットワーク(LIN)等のプロトコルを使用して車両内の要素を相互接続する車両バスであってもよい。 As used herein, "bus" refers to an interconnect architecture that is operably connected to transfer data between computer components within a single or multiple system. The bus can be, in particular, a memory bus, a memory controller, a peripheral bus, an external bus, a crossbar switch, and / or a local bus. The bus may be, in particular, a vehicle bus that interconnects elements within the vehicle using protocols such as Controller Area Network (CAN), Local Interconnect Network (LIN).

本明細書で使用される「メモリ」は、揮発性メモリ及び/又は不揮発性メモリを含むことができる。不揮発性メモリは、例えば、ROM(読み出し専用メモリ)、PROM(プログラム可能な読み出し専用メモリ)、EPROM(消去可能なPROM)及びEEPROM(電気的に消去可能なPROM)を含み得る。揮発性メモリは、例えば、RAM(ランダムアクセスメモリ)、シンクロナスRAM(SRAM)、ダイナミックRAM(DRAM)、シンクロナスDRAM(SDRAM)、ダブルデータレートSDRAM(DDR SDRAM)及び/又はダイレクトラムバスRAM(DRRAM)を含み得る。 As used herein, "memory" can include volatile memory and / or non-volatile memory. The non-volatile memory may include, for example, ROM (read-only memory), PROM (programmable read-only memory), EPROM (erasable PROM) and EEPROM (electrically erasable PROM). Volatile memories include, for example, RAM (random access memory), synchronous RAM (SRAM), dynamic RAM (RAM), synchronous DRAM (SDRAM), double data rate SDRAM (DDR SDRAM) and / or direct rambus RAM (DRRAM). ) Can be included.

本明細書で使用される「動作可能な接続」は、実体的なものが「動作可能に接続される」接続であり、該接続においては、信号、物理的通信、及び/又は論理的通信を送信及び/又は受信することができる。動作可能な接続は、物理インターフェース、データインターフェース及び/又は電気インターフェースを含むことができる。 As used herein, an "operable connection" is a connection in which the substance is "operably connected", in which a signal, a physical communication, and / or a logical communication is used. Can be sent and / or received. Operable connections can include physical interfaces, data interfaces and / or electrical interfaces.

本明細書で使用される「車両」は、任意の形態のエネルギーによって動力が与えられる任意の移動車両を指す。車両は、人間の乗員又は貨物を運ぶことができる。用語「車両」には、以下に限定されないが、例えば、車、トラック、バン、ミニバン、SUV、オートバイ、スクーター、ボート、水上バイク、航空機が含まれる。場合によっては、自動車は、1つ又は複数のエンジンを含む。 As used herein, "vehicle" refers to any mobile vehicle powered by any form of energy. Vehicles can carry human occupants or cargo. The term "vehicle" includes, but is not limited to, vehicles, trucks, vans, minivans, SUVs, motorcycles, scooters, boats, surface bikes, aircraft, for example. In some cases, a vehicle may include one or more engines.

位置特定は、自動運転車の自律航法において行われる。位置特定プロセスの本質は、センサ測定値を所定の地図と照合することにある。地図は、人間による測量又は異なるセンサを用いたロボットによるマッピングによって生成することができる。言い換えれば、位置特定技術は、測定方式と地図表現とによって分類されてもよい。 Positioning is performed in autonomous navigation of self-driving cars. The essence of the locating process is to collate the sensor measurements with a given map. Maps can be generated by human surveying or robotic mapping with different sensors. In other words, the positioning technique may be classified according to the measurement method and the map representation.

位置特定技術の第1のタイプは、位置特定と地図作製の両方に同じタイプのセンサを利用することである。両方のプロセスに同じタイプのセンサを使用することによって、マッチングの問題を大幅に簡単化することができる。例えば、3D-LiDAR(例えば、ベロダイン(Velodyne))は、両方のプロセスに使用することができる。3D-LiDARは、高精度の距離測定を行うからである。3D-LiDARは、最初に路面の地図を作製するために実行され、そして、地面反射率を相関させることによって車両の位置特定を行うことができる。別の例では、3D-LiDARを使用して、ガウス混合によって表される3Dマップを生成することができ、位置特定は、3Dポイントクラウド(point clouds)を地図に登録することによって行われる。 The first type of locating technique is to utilize the same type of sensor for both locating and mapping. By using the same type of sensor for both processes, the matching problem can be greatly simplified. For example, 3D-LiDAR (eg Velodyne) can be used for both processes. This is because 3D-LiDAR performs high-precision distance measurement. 3D-LiDAR is first performed to map the road surface and then can locate the vehicle by correlating ground reflectance. In another example, 3D-LiDAR can be used to generate a 3D map represented by Gaussian mixing, and location identification is done by registering 3D point clouds in the map.

第2のタイプの位置特定技術は、低コストで軽量のカメラを利用することで、視認可能なランドマークを用いて視覚的に位置特定を行う。例えば、視認可能なランドマークのデータベースは、スケール不変特徴変換(「SIFT」)点から作成することができる。そして、カメラは、SIFTマッチングによって位置特定されてもよい。別の例は、bag-of-words技術を使用して、現在の画像を画像データベースと照合することによってカメラを位置特定するものである。 The second type of positioning technology uses a low-cost, lightweight camera to visually locate using visible landmarks. For example, a database of visible landmarks can be created from scale-invariant feature transformations (“SIFT”) points. Then, the camera may be positioned by SIFT matching. Another example is to use bag-of-words technology to locate the camera by collating the current image with an image database.

位置特定と地図作製の両方にカメラを使用することには短所がある。第1に、カメラが距離情報を見る能力を持たないので、ビジュアルマッピング、同時に位置特定及び地図作製を行う技術(SLAM)において高い精度を得ることは困難である。第2に、位置特定における視覚的一致の質は、時間、視点及び照明の変化によって容易に影響され得る。 There are disadvantages to using a camera for both location and mapping. First, since the camera does not have the ability to see distance information, it is difficult to obtain high accuracy in visual mapping and at the same time positioning and mapping techniques (SLAM). Second, the quality of visual coincidence in location can be easily influenced by changes in time, viewpoint and lighting.

位置特定及び地図作製において、異なる検知方式を使用することによって、上述の制限を克服することができる。例えば、位置特定には低コストのセンサ(例えば、カメラ)を採用し、地図作製には高コストのセンサ(例えば、LiDAR)を採用することによって、カメラ姿勢の推定を改善することができる。 The above limitations can be overcome by using different detection methods in locating and mapping. For example, by adopting a low-cost sensor (for example, a camera) for position identification and using a high-cost sensor (for example, LiDAR) for map production, it is possible to improve the estimation of the camera posture.

位置特定と地図作製で異なる検知方式を使用する根拠は、地図は非常に正確である必要があるが、位置特定ほど頻繁に生成/更新する必要はないということに基づく。従って、単眼カメラを使用して、高精度なLiDARによって生成された地図内にカメラ自身を位置特定させることができる。 The rationale for using different detection methods for locating and mapping is that the map needs to be very accurate, but not as often as locating / updating. Therefore, a monocular camera can be used to locate the camera itself within the map generated by the highly accurate LiDAR.

図1は、本開示の一実施形態に係る、路面標示を使用して、都市環境における位置特定を行うための位置特定システム110の例示的な動作環境100の概略図である。位置特定システム110は、車両102内に常駐させることができる。位置特定システム110の構成要素、並びに本明細書で記載される他のシステム、ハードウェアアーキテクチャ、及びソフトウェアアーキテクチャの構成要素は、組み合わせたり、省略したり、又は様々な形態で構成することができる。 FIG. 1 is a schematic diagram of an exemplary operating environment 100 of a position identification system 110 for performing position identification in an urban environment using road markings according to an embodiment of the present disclosure. The position identification system 110 can be resident in the vehicle 102. The components of the relocation system 110, as well as the components of the other systems, hardware architectures, and software architectures described herein, can be combined, omitted, or configured in various forms.

車両102は一般に、複数の車両システムを動作制御する電子制御ユニット(ECU)112を有する。車両システムは、制限するものではないが、例えば、単眼位置特定システム140を含む位置特定システム110、又特に車両HVACシステム、車両オーディオシステム、車両ビデオシステム、車両インフォテインメントシステム、車両電話システム等を含む。単眼位置特定システム140は、単眼カメラ120、又は以下で詳細に記載される車両102を取り囲む環境の画像を提供するためにECU112に接続することができる他の撮像装置(例えば、スキャナ)を含むことができる。 The vehicle 102 generally has an electronic control unit (ECU) 112 that controls the operation of a plurality of vehicle systems. The vehicle system is not limited, but includes, for example, a position identification system 110 including a monocular position identification system 140, and particularly a vehicle HVAC system, a vehicle audio system, a vehicle video system, a vehicle infotainment system, a vehicle telephone system, and the like. include. The monocular positioning system 140 includes a monocular camera 120, or other imaging device (eg, a scanner) that can be connected to the ECU 112 to provide an image of the environment surrounding the vehicle 102 described in detail below. Can be done.

単眼位置特定システム140はまた、地図作製会社によってキャプチャーされ、路面標示、縁石、交通標識等の様々な要素から構成されたLiDARセンサデータユニット122を含むことができる。さらに、以下でより詳細に説明するように、エピポーラ幾何ユニット(epipolar geometry unit)146、オドメトリデータユニット(odometry data unit)144、及びチャンファー距離ユニット(Chamfer distance unit)142を最適化のために利用することもできる。 The monocular positioning system 140 can also include a LiDAR sensor data unit 122 captured by a mapping company and composed of various elements such as road markings, curbs, traffic signs and the like. Further, as described in more detail below, the epipolar geometry unit 146, the odometry data unit 144, and the chamfer distance unit 142 are utilized for optimization. You can also do it.

単眼位置特定システム140はまた、エピポーラ幾何ユニット146、オドメトリデータユニット144及びチャンファー距離ユニット142の入力に基づいてカメラ姿勢を推定・評価するための、以下で詳細に説明するが、最適化ユニット148を含むことができる。 The monocular positioning system 140 is also described in detail below for estimating and evaluating the camera orientation based on the inputs of the epipolar geometry unit 146, the odometry data unit 144 and the chamfer distance unit 142, but the optimization unit 148. Can be included.

位置特定システム110はまた、カメラ120、LiDARセンサデータユニット122、通信装置130、及び自動運転システム132と通信するプロセッサ114及びメモリ116を含むことができる。 The positioning system 110 can also include a camera 120, a LiDAR sensor data unit 122, a communication device 130, and a processor 114 and a memory 116 that communicate with the autonomous driving system 132.

ECU112は、内部処理メモリ、インターフェース回路、及びデータを転送し、コマンドを送信し、車両システムと通信するためのバスラインを含む。ECU112は、内部プロセッサ及びメモリ(図示せず)を含むことができる。車両102はまた、位置特定システム110の様々な構成要素の間において内部でデータを送信するためのバスを含むこともできる。 The ECU 112 includes an internal processing memory, an interface circuit, and a bus line for transferring data, transmitting commands, and communicating with the vehicle system. The ECU 112 can include an internal processor and memory (not shown). The vehicle 102 may also include a bus for internally transmitting data between various components of the locating system 110.

車両102は、車両102内の特徴及びシステム並びに外部装置に対して内部的に電子信号を送信/受信するために様々なプロトコルを利用して、有線又は無線コンピュータ通信を提供するための通信装置130(例えば、無線モデム)をさらに含む。これらのプロトコルは、無線周波数(RF)通信(例えば、IEEE802.11(Wi-Fi)、IEEE802.15.1(ブルートゥース(登録商標)))、近距離通信システム(NFC)(例えば、ISO13157)、ローカルエリアネットワーク(LAN)、ワイヤレスワイドエリアネットワーク(WWAN)(例えば、セルラー)及び/又はポイントツーポイントシステムを含むことができる。さらに、車両102の通信装置130は、電子制御ユニット112と車両の特徴及びシステムとの間のデータ入力及び出力を容易にするために、バス(例えば、CAN又はLINプロトコルバス)を介して内部コンピュータ通信のために動作可能に接続されてもよい。一実施形態では、通信装置130は、車車間(V2V)通信用に構成されてもよい。例えば、V2V通信は、予約された周波数スペクトルにわたる無線通信を含むことができる。別の例として、V2V通信は、Wi-Fi又はブルートゥース(登録商標)を使用して設定された車両間のアドホックネットワークを含むことができる。 The vehicle 102 is a communication device 130 for providing wired or wireless computer communication using various protocols for internally transmitting / receiving electronic signals to features and systems within the vehicle 102 as well as external devices. Further includes (eg, wireless modem). These protocols include radio frequency (RF) communications (eg, IEEE802.11 (Wi-Fi), IEEE802.5.1 (Bluetooth®)), Near Field Communication (NFC) (eg, ISO13157), and more. Local area networks (LANs), wireless wide area networks (WWAN) (eg, cellular) and / or point-to-point systems can be included. Further, the communication device 130 of the vehicle 102 is an internal computer via a bus (eg, CAN or LIN protocol bus) to facilitate data input and output between the electronic control unit 112 and the vehicle features and systems. It may be operably connected for communication. In one embodiment, the communication device 130 may be configured for vehicle-to-vehicle (V2V) communication. For example, V2V communication can include radio communication over a reserved frequency spectrum. As another example, V2V communication can include vehicle-to-vehicle ad hoc networks configured using Wi-Fi or Bluetooth®.

車両102は、少なくとも1つのカメラ120を有する。カメラ120は、1つ又は複数の画像又は画像ストリームを取り込むことができるデジタルカメラであってもよく、又はスキャナ等の他の画像取り込み装置であってもよい。カメラ120は、車両102の真正面の空間の画像を提供することができる。他のカメラは、車両102を取り囲む別の空間の画像を提供することができる。例えば、後方カメラは、車両のバンパーの上に配置され得る。カメラ120は、単眼カメラであってもよく、2Dで画像を提供してもよい。 The vehicle 102 has at least one camera 120. The camera 120 may be a digital camera capable of capturing one or more images or image streams, or may be another image capture device such as a scanner. The camera 120 can provide an image of the space directly in front of the vehicle 102. Other cameras can provide an image of another space surrounding the vehicle 102. For example, the rear camera may be placed on the bumper of the vehicle. The camera 120 may be a monocular camera or may provide an image in 2D.

車両102は、車両102を制御するための自動運転システム132を含む。自動運転システム132は、特に、車線維持支援システム、衝突警告システム、又は完全自律走行システムを含むことができる。自動運転システム132は、位置特定システム140から対象物位置及び方向情報を受信することができる。一実施形態では、位置特定システム140は、自動運転システム132の構成要素であってもよい。 The vehicle 102 includes an automatic driving system 132 for controlling the vehicle 102. The autonomous driving system 132 may include, in particular, a lane keeping support system, a collision warning system, or a fully autonomous driving system. The automatic driving system 132 can receive object position and direction information from the position specifying system 140. In one embodiment, the positioning system 140 may be a component of the automated driving system 132.

図2は、位置特定のために使用される地図から生成された地図要素の例を示す。地図は、地図作製会社(例えば、Google)によって提供されてもよく、路面標示、縁石、交通標識等を含む様々な地図要素から構成される。例えば、簡略化のために、2つのタイプの地図要素が決定され、路面標示として使用される(実線及び破線(「路面標示」))。さらに別のタイプの地図要素を路面標示として使用することもできる。本開示は2種類の地図要素のみに限定されない。 FIG. 2 shows an example of map elements generated from a map used for locating. The map may be provided by a map making company (eg, Google) and is composed of various map elements including road markings, curbs, traffic signs and the like. For example, for simplification, two types of map elements have been determined and used as road markings (solid and dashed lines (“road markings”)). Yet another type of map element can be used as a pavement marking. The present disclosure is not limited to only two types of map elements.

図2に示すように、路面標示を決定する場合、実線は、レーン又は横断歩道の境界線等の地図要素から生じ、破線は、通常、レーン間に存在する。例えば、路面標示としてこの地図要素のサブセット(例えば、実線及び破線)を選択することは、様々な理由でシステムにとって有益な場合がある。第1に、この地図要素のサブセットは、他のマップ要素(例えば、速度制限標識や方向矢印等)よりも頻繁に観察される。第2に、この地図要素のサブセットは、(縁石とは対照的に)特徴的な外観と(交通標識と比較して)大きなサイズにより画像から検出するのが比較的容易である。 As shown in FIG. 2, when determining road markings, solid lines arise from map elements such as lane or pedestrian crossing boundaries, and dashed lines usually exist between lanes. For example, selecting this subset of map elements (eg, solid and dashed lines) as road markings can be beneficial to the system for a variety of reasons. First, this subset of map elements is observed more often than other map elements (eg, speed limit signs, directional arrows, etc.). Second, this subset of map elements is relatively easy to detect from the image due to its characteristic appearance (as opposed to curbs) and its large size (compared to traffic signs).

図2に示すように、地図は、車両102に位置するカメラによって生成されるのではなく、他の検知装置(例えば、3D-LiDAR)によって生成される。車両102によって得られたLiDARセンサデータは、図1に示すように、LiDARセンサデータユニット122に記憶されてもよい。地図は、3D-LiDARポイントクラウドを記録することによって作成された3D環境内においてランドマークを手動でラベリングすることによって構築することができる。図2に示すように、地図は、路面標示を表す、疎らな3D点からなる。 As shown in FIG. 2, the map is not generated by a camera located in the vehicle 102, but by another detection device (eg, 3D-LiDAR). The LiDAR sensor data obtained by the vehicle 102 may be stored in the LiDAR sensor data unit 122 as shown in FIG. Maps can be constructed by manually labeling landmarks within a 3D environment created by recording a 3D-LiDAR point cloud. As shown in FIG. 2, the map consists of sparse 3D points representing road markings.

図3は、テキストとして記憶された路面標示の例を示す。図2に示すように、疎らな点としての路面標示は、テキストファイルに簡潔に保存され、地理的位置によってグループ化される。図3に示すように、路面標示は、センターラインに沿ってサンプリングされた1セットの3Dの疎らな点によって、幅や色等の他の情報と共に表される。これらテキストファイルは、図1に示すように、LiDARセンサデータユニット122に保存される。 FIG. 3 shows an example of road markings stored as text. As shown in FIG. 2, road markings as sparse points are briefly stored in a text file and grouped by geographic location. As shown in FIG. 3, the pavement marking is represented by a set of 3D sparse points sampled along the center line, along with other information such as width and color. These text files are stored in the LiDAR sensor data unit 122, as shown in FIG.

図4は、位置特定システム110の全体のアーキテクチャを示す概念図である。以下で詳細に説明されるように、図4は、カメラ120によって検出されたカメラビューと、検出装置によって取得され、LiDARセンサデータユニット122に記憶された3Dマップとを示す。単眼位置特定システム140は、カメラビューからエッジ及び特徴(feature)を検出し、カメラ姿勢予測は、3Dマップから決定される。 FIG. 4 is a conceptual diagram showing the overall architecture of the location identification system 110. As described in detail below, FIG. 4 shows a camera view detected by the camera 120 and a 3D map acquired by the detector and stored in the LiDAR sensor data unit 122. The monocular position specifying system 140 detects edges and features from the camera view, and the camera attitude prediction is determined from the 3D map.

上述したように、路面標示が疎らな点のセットとして表される軽量3Dマップに対して、カメラビューから検出されたエッジ及び地図要素を登録するためにチャンファーマッチング(chamfer matching)が実行される。さらに、車両オドメトリ及びエピポーラ幾何の制約が考慮されてもよい。さらに、6自由度(「DoF」)カメラの姿勢を推定・評価するために、非線形最適化問題が定式化されてもよい。 As mentioned above, chamfer matching is performed to register the edges and map elements detected from the camera view on a lightweight 3D map where the road markings are represented as a set of sparse points. .. In addition, vehicle odometry and epipolar geometry constraints may be considered. Further, a nonlinear optimization problem may be formulated in order to estimate and evaluate the attitude of a 6 degree of freedom (“DoF”) camera.

さらに、位置特定システム110は、以下で詳細に説明するように、マッチング失敗を検出し、マッチングが失敗した後にシステムをリセットすることもできる。 Further, the positioning system 110 can also detect a matching failure and reset the system after the matching fails, as described in detail below.

図5は、本開示の実施形態による位置特定の方法の例を示すフローチャートである。ステップ502において、システム初期化が以下に詳細に説明されるように、位置特定システム110は初期化される。ステップ504において(時間k)、マップ要素のエッジは、カメラ120から得られた画像Ikにおいて検出される。同時に(時間k)、ステップ505において、カメラ姿勢P´kは、最後のフレームPk-1の情報及びオドメトリデータDkを使用して、推測/予測される。 FIG. 5 is a flowchart showing an example of a position specifying method according to the embodiment of the present disclosure. In step 502, the relocation system 110 is initialized, as system initialization is described in detail below. At step 504 (time k), the edges of the map element are detected in the image I k obtained from the camera 120. At the same time (time k), in step 505, the camera orientation P'k is estimated / predicted using the information in the last frame P k -1 and the odometry data D k .

ステップ506において、カメラビューから得られた輪郭を抽出することによって、エッジが検出される。しかしながら、一般的なエッジ検出器は、無関係なエッジ(すなわち、誤検出)が多すぎるため、カメラビューに基づいて、ランダムフォレストベースのエッジ検出器に学習させる。 In step 506, edges are detected by extracting contours obtained from the camera view. However, a typical edge detector has too many irrelevant edges (ie, false positives) and trains a random forest-based edge detector based on the camera view.

ランダムフォレストは、独立した決定木の1群である。各ツリーには、同じ入力サンプルが与えられ、該入力サンプルは、ルートノードからリーフノードまでツリーを伝播することによって分類される。初期の未学習の決定木に対して多数の入力及び出力マッピングを与えることにより、その内部分割関数のパラメータは徐々に進化し、類似の入力-出力マッピングが生成される。この学習プロセスは、情報獲得基準(information gain criterion)を定義することによって可能になる。最大の情報獲得をもたらすパラメータに報酬が与えられる。このように、図4に示すように、ランダムフォレストに基づく特徴検出を介して、カメラビューから路面標示が検出される。 Random forests are a group of independent decision trees. Each tree is given the same input sample, which is classified by propagating the tree from the root node to the leaf node. By giving a large number of input and output mappings to the initial unlearned decision tree, the parameters of its internal partitioning function gradually evolve to generate similar input-output mappings. This learning process is made possible by defining information gain criteria. The parameters that lead to maximum information acquisition are rewarded. In this way, as shown in FIG. 4, the road marking is detected from the camera view through the feature detection based on the random forest.

ステップ509において、3Dマップに基づいてマッチングが実行される。上述のように、路面標示は、3D点の小集合で表される。時間kにおいて、オドメトリ情報から、カメラ姿勢P´kが予測される。図4に示すように、路面標示の3D点の小集合が、画像空間上に射影される。 In step 509, matching is performed based on the 3D map. As mentioned above, road markings are represented by a small set of 3D points. At time k , the camera attitude P'k is predicted from the odometry information. As shown in FIG. 4, a small set of 3D points of road markings is projected onto the image space.

ステップ510で、ステップ509において決定された射影点が、ステップ506で検出された特徴と、どれほど良好にマッチングしているかを評価するためにチャンファーマッチングが行われ、カメラ姿勢が評価される。 In step 510, chamfer matching is performed to evaluate how well the projection points determined in step 509 match the features detected in step 506, and the camera posture is evaluated.

チャンファーマッチングは基本的に、各射影点を最も近いエッジピクセルに関連付ける。以下に説明するように、チャンファー距離(Chamfer distance)は以下のチャンファー距離変換(1)から効率的に計算できる。方位を考慮に入れるために、エッジピクセルは、それらの勾配方向によって異なるグループに分割され、それに応じて距離変換が計算される。 Chamfer matching basically associates each projection point with the nearest edge pixel. As described below, the chamfer distance can be efficiently calculated from the following chamfer distance conversion (1). To take the orientation into account, the edge pixels are divided into different groups according to their gradient direction and the distance transformation is calculated accordingly.

Figure 0007025276000001
Figure 0007025276000001

kは、画像のエッジから計算された距離変換である。Ik上の任意の点xに対して、チャンファー距離Ck(x)は、Ckから補完によって、クエリが行われる(queried)。π(P,X)は、3D点Xをフレームから姿勢Pの画像へ射影する射影関数である。Mkは、予想されるカメラ姿勢P´kによるカメラビューにおける路面標示点の集合である。 C k is a distance conversion calculated from the edges of the image. For any point x on I k , the chamfer distance C k (x) is queried by completion from C k . π (P, X) is a projection function that projects the 3D point X from the frame to the image of the attitude P. M k is a set of road marking points in the camera view with the expected camera attitude P'k .

また、例えば、ビュー内に直線実線がある場合、路面標示は、カメラ姿勢の評価に対して、十分な制約を必ずしも課すとは限らない。従って、最適化は必要な場合がある。 Further, for example, when there is a straight solid line in the view, the road marking does not always impose sufficient restrictions on the evaluation of the camera posture. Therefore, optimization may be necessary.

ステップ512において、エピポーラ制約は、以下に記載の式(2)によって、決定される。xi,k-1←→xi,kは、Ik-1からIkへの画像点のペアである。それらは、同じ3D点に対応する。エピポーラ制約は以下である。

Figure 0007025276000002
ただし、Fは、基礎行列であり、チルダ(~)付きxは、xの同次座標である。キャリブレーションされたカメラ120に対して、Fは、以下のように、2つのビュー間の相対姿勢によって決定される。
Figure 0007025276000003
In step 512, the epipolar constraint is determined by the equation (2) described below. x i, k-1 ← → x i, k is a pair of image points from I k-1 to I k . They correspond to the same 3D point. Epipolar constraints are as follows.
Figure 0007025276000002
However, F is a basic matrix, and x with a tilde (~) is a homogeneous coordinate of x. For the calibrated camera 120, F is determined by the relative orientation between the two views as follows.
Figure 0007025276000003

照合(verification)は、{k-1kk-1k}がPk-1とPkとの間の相対剛体変換となるように、行われる。基礎行列は以下のように計算される。

Figure 0007025276000004
ただし、[k-1k]× は、k-1kとの外積の行列表示である。 Verification is performed so that { k -1 R k , k-1 tk} is a relative rigid transformation between P k-1 and P k . The basic matrix is calculated as follows.
Figure 0007025276000004
However, [ k-1 tk] × is a matrix display of the outer product with k -1 tk.

k-1とIkとの間の点相関の集合{xi,k-1⇔xi,k,i=1,・・・}が与えられると、エピポーラ制約は以下のように定義される。

Figure 0007025276000005
Given the set of point correlations between I k-1 and I k {x i, k-1 ⇔ x i , k , i = 1, ...}, the epipolar constraint is defined as follows: To.
Figure 0007025276000005

高速化された頑強な特徴(SURF)点は、エピポーラ制約において使用される。上述のように、物理的尺度は単眼カメラでは観察不可であるので、式(5)は、カメラ姿勢の5次元に制約を課すだけである。従って、オドメトリは、追加の制約のために使用される。 Accelerated robust feature (SURF) points are used in epipolar constraints. As mentioned above, since the physical scale cannot be observed with a monocular camera, the equation (5) only imposes a constraint on the five dimensions of the camera posture. Therefore, odometry is used for additional constraints.

ステップ514において、オドメトリ制約が決定される。Dkは、オドメータによって測定されたIk-1とIkとの間の剛体変換である。エピポーラ制約は既に5次元をカバーしているので、上述のように、Dkの並進移動の大きさを制約として使用するだけでよい。dkは、Dkの並進移動成分の大きさを示す。オドメトリ制約は以下のように定義される。

Figure 0007025276000006
At step 514, the odometry constraint is determined. D k is the rigid transformation between I k-1 and I k measured by an odometer. Since the epipolar constraint already covers the 5th dimension, it is only necessary to use the magnitude of the translational movement of D k as the constraint, as described above. d k indicates the magnitude of the translational movement component of D k . The odometry constraint is defined as follows.
Figure 0007025276000006

ステップ516において、最適条件の定式化が行われる。与えられたPk-1,Pkは、以下のコスト関数を最小化することによって評価される。

Figure 0007025276000007
In step 516, the optimum conditions are formulated. Given P k-1 , P k are evaluated by minimizing the following cost function.
Figure 0007025276000007

コスト関数(7)は、最適条件を決定し、レーベンバーグ・マーカートアルゴリズムを用いて、解かれる。 The cost function (7) determines the optimum conditions and is solved using the Lebenberg-Marcat algorithm.

ステップ518において、最適化されたデータを利用して、カメラ姿勢の評価を決定する。カメラ姿勢の評価は、地図に対して行われる。 In step 518, the optimized data is used to determine the evaluation of the camera posture. The evaluation of the camera posture is performed on the map.

図5Aは、本発明の実施形態に係る、最適化によって得られたカメラ姿勢の推定を実行する、カメラビューに射影されたマップの一例を示す。 FIG. 5A shows an example of a map projected onto a camera view that performs estimation of camera orientation obtained by optimization according to an embodiment of the present invention.

単眼位置特定システム140を初期化するために、カメラ姿勢の初期推定値が決定される。推定されたカメラ姿勢は、GPS又は別のタイプのソースから取得される。初期のカメラ姿勢推定値は、適切に実行されるべき最適化における真の位置から遠い場合がある。従って、徹底的な探索を利用して、より正確な推定値が決定される。そうするために、単眼位置特定システム140は、パラメータ空間内の初期推定値周辺の候補姿勢の大集合を無作為にサンプリングする。単眼位置特定システム140は、C(Pk)を最小化する更新カメラ姿勢推定値を見つける。 In order to initialize the monocular position specifying system 140, an initial estimated value of the camera posture is determined. The estimated camera orientation is obtained from GPS or another type of source. Initial camera pose estimates may be far from their true position in the optimization that should be performed properly. Therefore, a thorough search is used to determine more accurate estimates. To do so, the monocular positioning system 140 randomly samples a large set of candidate poses around the initial estimates in the parameter space. The monocular positioning system 140 finds updated camera attitude estimates that minimize C (P k ).

最適候補を初期解として、単眼位置特定システム140が初期化されると、システムは、上述のように、さらにC(Pk)を最小にする。 When the monocular positioning system 140 is initialized with the optimum candidate as the initial solution, the system further minimizes C (P k ) as described above.

また、単眼位置特定システム140は、チャンファー距離をチェックすることによって位置特定性能をモニターしてもよい。大きなチャンファー距離は、位置特定の評価を表す。連続的に大きなチャンファー距離が生成されると、単眼位置特定システム140は失敗したと判定される(例えば、カメラ姿勢の不適切な決定)。決定された単眼位置特定システムが失敗の場合、システムは初期化のために上述したものと同じ戦略を用いてリセットを実行する。 Further, the monocular position specifying system 140 may monitor the position specifying performance by checking the chamfer distance. A large chamfer distance represents a position-specific assessment. If a large chamfer distance is continuously generated, the monocular positioning system 140 is determined to have failed (eg, improper determination of camera orientation). If the determined monocular positioning system fails, the system performs a reset for initialization using the same strategy as described above.

上述したように、リセットと初期化との違いは、単眼位置特定システム140が、未知の状態から開始するのではなく、現在の姿勢推定値周辺の候補をサンプリングすることにある。 As mentioned above, the difference between reset and initialization is that the monocular positioning system 140 does not start from an unknown state, but samples candidates around the current pose estimate.

本開示の実施形態は、ハードウェア、ソフトウェア、又はそれらの組み合わせを使用して実行することができ、1つ又は複数のコンピュータシステム又は他の処理システムで実行することができる。一実施形態では、本開示は、本明細書に記載の機能を実行することができる1つ又は複数のコンピュータシステムで行われる。図6は、本開示の実施形態に従って使用するための様々なハードウェア構成要素及び他の特徴の例示的なシステム図を示す。本開示の実施形態は、ハードウェア、ソフトウェア、又はそれらの組み合わせを使用して実行することができ、1つ又は複数のコンピュータシステム又は他の処理システムで実行することができる。一変形例では、本開示の実施形態は、本明細書に記載の機能を実行することができる1つ又は複数のコンピュータシステム向けになっている。そのようなコンピュータシステム600の一例を図6に示す。 The embodiments of the present disclosure can be performed using hardware, software, or a combination thereof, and can be performed on one or more computer systems or other processing systems. In one embodiment, the disclosure is performed on one or more computer systems capable of performing the functions described herein. FIG. 6 shows an exemplary system diagram of various hardware components and other features for use in accordance with embodiments of the present disclosure. The embodiments of the present disclosure can be performed using hardware, software, or a combination thereof, and can be performed on one or more computer systems or other processing systems. In one variant, embodiments of the present disclosure are directed to one or more computer systems capable of performing the functions described herein. An example of such a computer system 600 is shown in FIG.

コンピュータシステム600は、1つ又は複数のプロセッサ(例えば、プロセッサ604)を含む。プロセッサ604は、通信インフラストラクチャ606(例えば、通信バス、クロスオーバーバー、又はネットワーク)に接続される。この例示的なコンピュータシステムの観点から、様々なソフトウェアの態様が説明される。この説明を読めば、他のコンピュータシステム及び/又はアーキテクチャを使用して本開示の実施形態を実行する方法は、当業者には明らかになるであろう。 The computer system 600 includes one or more processors (eg, processor 604). Processor 604 is connected to the communication infrastructure 606 (eg, communication bus, crossover bar, or network). Various aspects of the software are described in terms of this exemplary computer system. Reading this description will reveal to those skilled in the art how to implement the embodiments of the present disclosure using other computer systems and / or architectures.

コンピュータシステム600は、ディスプレイユニット630上に表示するために、通信インフラストラクチャ606(又は、図示されていないフレームバッファ)からグラフィックス、テキスト、及び他のデータを転送するディスプレイインターフェース602を含む。コンピュータシステム600はまた、メインメモリ608、好ましくはランダムアクセスメモリ(RAM)を含み、また、2次メモリ610を含んでもよい。2次メモリ610は、例えば、ハードディスクドライブ612及び/又はリムーバブルストレージドライブ614(フロッピーディスクドライブ、磁気テープドライブ、光ディスクドライブ等)を含む。リムーバブルストレージドライブ614は、周知の方法で、リムーバブルストレージユニット618から読み取り、及び/又はリムーバブルストレージユニット618に書き込む。リムーバブルストレージユニット618は、フロッピーディスク、磁気テープ、光ディスク等であり、リムーバブルストレージドライブ614によって読み出され、またリムーバブルストレージドライブ614に書き込まれる。理解されるように、リムーバブルストレージユニット618は、コンピュータソフトウェア及び/又はデータを記憶したコンピュータ使用可能記憶(記録)媒体を含む。 The computer system 600 includes a display interface 602 that transfers graphics, text, and other data from the communication infrastructure 606 (or a frame buffer (not shown)) for display on the display unit 630. The computer system 600 also includes a main memory 608, preferably a random access memory (RAM), and may also include a secondary memory 610. The secondary memory 610 includes, for example, a hard disk drive 612 and / or a removable storage drive 614 (floppy disk drive, magnetic tape drive, optical disk drive, etc.). The removable storage drive 614 reads from the removable storage unit 618 and / or writes to the removable storage unit 618 by a well-known method. The removable storage unit 618 is a floppy disk, a magnetic tape, an optical disk, or the like, and is read by the removable storage drive 614 and written to the removable storage drive 614. As will be appreciated, the removable storage unit 618 includes computer software and / or a computer-usable storage (recording) medium that stores the data.

別の態様では、2次メモリ610は、コンピュータプログラム又は他の命令がコンピュータシステム600にロードされることを可能にするための他の同様のデバイスを含むことができる。そのようなデバイスは、例えば、リムーバブルストレージユニット622及びインターフェース620を含むことができる。そのような例には、プログラムカートリッジ及びカートリッジインターフェース(ビデオゲーム装置に見られるもの等)、リムーバブルメモリチップ(消去可能なプログラム可能読み取り専用メモリ(EPROM)、又はプログラム可能読み取り専用メモリ(PROM)等)、対応するソケット、及び他のリムーバブルストレージユニット622及び、リムーバブルストレージユニット622からコンピュータシステム600にソフトウェア及びデータを転送することを可能にするインターフェース620を含む。 In another aspect, the secondary memory 610 may include a computer program or other similar device to allow other instructions to be loaded into the computer system 600. Such devices can include, for example, a removable storage unit 622 and an interface 620. Such examples include program cartridges and cartridge interfaces (such as those found in video game devices), removable memory chips (erasable programmable read-only memory (EPROM), or programmable read-only memory (PROM), etc.). , Corresponding sockets, and other removable storage units 622, and an interface 620 that allows software and data to be transferred from the removable storage unit 622 to the computer system 600.

コンピュータシステム600はまた、通信インターフェース624を含んでもよい。通信インターフェース624は、ソフトウェア及びデータがコンピュータシステム600と外部装置との間で転送されることを可能にする。通信インターフェース624の例には、モデム、ネットワークインターフェース(イーサネットカード等)、通信ポート、パーソナルコンピュータメモリカード国際協会(PCMCIA)スロット及びカード等が含まれる。通信インターフェース624を介して転送されるソフトウェア及びデータは、通信インターフェース624によって受信可能な電子信号、電磁信号、光学信号又は他の信号等の信号628の形態をとる。これらの信号628は、通信経路(例えば、チャネル)626を介して通信インターフェース624に供給される。この経路626は、信号628を搬送し、ワイヤ又はケーブル、光ファイバ、電話回線、セルラーリンク、無線周波数(RF)リンク及び/又は他の通信チャネルを使用して実行される。この明細書では、「コンピュータプログラム媒体」及び「コンピュータ使用可能記録媒体」という用語は、リムーバブルストレージドライブ680やハードディスクドライブ670にインストールされたハードディスクや信号628等のメディアを総称するために使用される。これらのコンピュータプログラム製品は、コンピュータシステム600にソフトウェアを提供する。本発明の実施形態は、そのようなコンピュータプログラム製品を対象にしている。 The computer system 600 may also include a communication interface 624. The communication interface 624 allows software and data to be transferred between the computer system 600 and an external device. Examples of the communication interface 624 include a modem, a network interface (Ethernet card, etc.), a communication port, a personal computer memory card International Association (PCMCIA) slot, a card, and the like. The software and data transferred via the communication interface 624 take the form of a signal 628 such as an electronic signal, an electromagnetic signal, an optical signal or another signal that can be received by the communication interface 624. These signals 628 are supplied to the communication interface 624 via a communication path (eg, channel) 626. This path 626 carries the signal 628 and is carried out using wires or cables, fiber optics, telephone lines, cellular links, radio frequency (RF) links and / or other communication channels. In this specification, the terms "computer program medium" and "computer-usable recording medium" are used to collectively refer to media such as hard disks and signals 628 installed in removable storage drives 680 and hard disk drives 670. These computer program products provide software to the computer system 600. Embodiments of the present invention are directed to such computer program products.

コンピュータプログラムは(コンピュータ制御論理とも呼ばれる)は、メインメモリ608及び/又は2次メモリ610に格納される。コンピュータプログラムは、通信インターフェース624を介して受信することもできる。このようなコンピュータプログラムが実行されると、コンピュータシステム600は、本明細書で説明されるように、本発明の実施形態に係る様々な特徴を実行する。特に、コンピュータプログラムは、実行されると、プロセッサ604にそのような特徴を実行させる。従って、そのようなコンピュータプログラムは、コンピュータシステム600のコントローラに対応する。 Computer programs (also called computer control logic) are stored in main memory 608 and / or secondary memory 610. The computer program can also be received via the communication interface 624. When such a computer program is executed, the computer system 600 implements various features according to embodiments of the invention, as described herein. In particular, the computer program causes the processor 604 to perform such features when executed. Therefore, such a computer program corresponds to the controller of the computer system 600.

本発明の実施形態がソフトウェアを使用して実施される変形形態では、ソフトウェアは、コンピュータプログラム製品に格納され、リムーバブルストレージドライブ614、ハードドライブ612、又は通信インターフェース620を使用して、コンピュータシステム600にロードされる。制御ロジック(ソフトウェア)は、プロセッサ604によって実行されると、プロセッサ604に、本明細書に記載される本発明の実施形態に係る機能を実行させる。別の変形形態では、例えば、特定用途向け集積回路(ASIC)等のハードウェア構成要素を使用して、主にハードウェアで実施される。本明細書で説明された機能を実行するためのハードウェア状態機械の実施は、当業者には明らかであろう。 In a variant in which the embodiments of the present invention are implemented using software, the software is stored in a computer program product and uses a removable storage drive 614, a hard drive 612, or a communication interface 620 into a computer system 600. Loaded. When executed by the processor 604, the control logic (software) causes the processor 604 to perform the functions according to the embodiments of the present invention described herein. Another variant is implemented primarily in hardware, using hardware components such as, for example, application specific integrated circuits (ASICs). Implementation of a hardware state machine to perform the functions described herein will be apparent to those of skill in the art.

さらに別の変形例では、ハードウェアとソフトウェアの両方の組み合わせを使用して実施される。 Yet another variant is implemented using a combination of both hardware and software.

図7は、本発明の実施形態に従って使用され得る様々な例示的なシステム構成要素のブロック図である。例えば、様々な構成要素が車両102内に存在してもよく、又は構成要素のうちのいくつかのみが車両102内にある一方、他の構成要素は車両102から離れていてもよい。システム700は、1つ又は複数のアクセスする人760、762(本明細書では1つ又は複数の「ユーザ」とも呼ぶ)と、1つ又は複数の端末742、766(このような端末は、例えば、オブジェクト検出システム110の様々な特徴であってもよいし或いは含んでもよい)とを含む。一実施形態では、本発明の実施形態に従って使用するためのデータは、ネットワーク744(例えば、インターネット又はイントラネット等)及び結合装置745、746、764を介して、プロセッサ及びデータ保存場所及び/又はデータ保存場所への接続を有するサーバ743(例えば、PC、ミニコンピュータ、メインフレームコンピュータ、マイクロコンピュータ、又は他のデバイス等)に結合された端末742、766(例えば、パーソナルコンピュータ(PC)、ミニコンピュータ、メインフレームコンピュータ、マイクロコンピュータ、電話装置、パーソナルデジタルアシスタント(「PDA」)やハンドヘルド無線デバイス等の無線デバイス等)を介して、アクセスする人760、762によって、例えば、入力及び/又はアクセスされる。結合装置745、746、764としては、例えば、有線、無線、又は光ファイバのリンク等が挙げられる。他の変形例では、本発明の実施形態による方法及びシステムは、単一の端末のようなスタンドアロン環境で動作する。 FIG. 7 is a block diagram of various exemplary system components that may be used according to embodiments of the present invention. For example, various components may be present in the vehicle 102, or only some of the components may be in the vehicle 102 while the other components may be distant from the vehicle 102. The system 700 includes one or more accessors 760,762 (also referred to herein as one or more "users") and one or more terminals 742,766 (such terminals are eg, eg. , Which may or may be various features of the object detection system 110). In one embodiment, the data for use in accordance with embodiments of the invention is via a network 744 (eg, the Internet or intranet, etc.) and coupling devices 745, 746, 764, a processor and a data storage location and / or data storage. Terminals 742,766 (eg, personal computer (PC), minicomputer, main) coupled to a server 743 (eg, PC, minicomputer, mainframe computer, microcomputer, or other device, etc.) that has a connection to a location. It is input and / or accessed, for example, by a person 760, 762 who accesses it via a frame computer, a microcomputer, a telephone device, a wireless device such as a personal digital assistant (“PDA”) or a handheld wireless device). Examples of the coupling device 745, 746, 764 include a wired, wireless, optical fiber link, and the like. In another variant, the methods and systems according to embodiments of the invention operate in a stand-alone environment such as a single terminal.

本明細書で説明される態様は、コンピュータ実行可能命令を格納するコンピュータ可読記憶(記録)媒体との関連において、説明され実施されてもよい。コンピュータ可読記憶媒体は、コンピュータ記憶媒体及び通信媒体を含む。例えば、フラッシュメモリドライブ、デジタル多用途ディスク(DVD)、コンパクトディスク(CD)、フロッピーディスク、テープカセット等である。コンピュータ可読記憶媒体としては、コンピュータ可読命令、データ構造、モジュール又は他のデータのような情報を記憶するための任意の方法又は技術で実施される揮発性及び不揮発性、取り外し可能な媒体及び取り外し不可能な媒体が挙げられる。 The embodiments described herein may be described and practiced in the context of a computer-readable storage (recording) medium for storing computer executable instructions. Computer-readable storage media include computer storage media and communication media. For example, a flash memory drive, a digital versatile disc (DVD), a compact disc (CD), a floppy disk, a tape cassette, or the like. Computer-readable storage media include volatile and non-volatile, removable media and non-removable media implemented by any method or technique for storing information such as computer-readable instructions, data structures, modules or other data. Possible media are listed.

上記に開示された特徴及び機能、及び他の特徴及び機能、又はその代替形態又は変形形態の様々な実施形態を望ましいように組み合わせて、多くの他の異なるシステム又はアプリケーションとして構成してもよいことは理解されよう。 また、以下の請求項に包含されることが意図されるが、現在は予測されていない、又は予想されていない種々の代替、変形、変更、又は改良は、当業者であれば、引き続き行うことができる。 Various other embodiments of the features and functions disclosed above, and other features and functions thereof, or alternatives or variants thereof, may be optionally combined to form many other different systems or applications. Will be understood. Also, various substitutions, modifications, changes, or improvements that are intended to be included in the following claims, but are not currently predicted or expected, shall continue to be made by those skilled in the art. Can be done.

Claims (21)

ある姿勢におけるカメラから画像を生成するステップと、
予め作製された地図を受けるステップと、
エッジ検出に基づいて、生成された前記画像から特徴を決定するステップと、
少なくとも前記予め作製された地図に基づいて前記カメラの姿勢を予測し、前記予測されたカメラの姿勢から特徴を決定するステップと、
前記画像及び前記予測されたカメラの姿勢から決定された前記特徴に基づいて、チャンファー距離(Chamfer distance)を決定するステップと、
オドメトリ情報とエピポーラ幾何に基づいて、前記決定された前記チャンファー距離を最適化するステップと、
前記最適化に基づいて、カメラ姿勢推定値を生成するステップと、
を有する位置特定方法。
The steps to generate an image from the camera in a certain posture,
Steps to receive a pre-made map and
A step of determining features from the generated image based on edge detection,
A step of predicting the posture of the camera based on at least the pre-made map and determining a feature from the predicted posture of the camera.
A step of determining a chamfer distance based on the feature determined from the image and the predicted camera posture.
A step of optimizing the determined chamfer distance based on odometry information and epipolar geometry.
A step to generate a camera attitude estimate based on the optimization,
Positioning method with.
請求項1記載の方法において、前記画像は、単眼カメラから生成されることを特徴とする方法。 The method according to claim 1, wherein the image is generated from a monocular camera. 請求項1記載の方法において、前記予め作製された地図は、LiDAR検知に基づいて作製されることを特徴とする方法。 The method according to claim 1, wherein the pre-made map is made based on LiDAR detection. 請求項1記載の方法において、前記最適化は、以下で定義されるコスト関数を最小化することによって行われることを特徴とする方法。
Figure 0007025276000008
ただし、Pkは、推定された前記カメラの姿勢であり、Codmは、前記オドメトリ情報であり、Cepiは、前記エピポーラ幾何であり、Pk-1は、前の時間のカメラの姿勢であり、kは時間である。
The method according to claim 1, wherein the optimization is performed by minimizing the cost function defined below.
Figure 0007025276000008
However, P k is the estimated posture of the camera, Codm is the odometry information, C epi is the epipolar geometry, and P k-1 is the posture of the camera at the previous time. Yes, k is time.
請求項4記載の方法において、前記オドメトリ情報は、以下の式で定義されることを特徴とする方法。
Figure 0007025276000009
ただし、dkは、Dkの並進移動成分の大きさであり、Dkは、前の時間の画像と前記画像との間の剛体変換であり、tkは、並進移動ベクトルである。
The method according to claim 4, wherein the odometry information is defined by the following formula.
Figure 0007025276000009
Where d k is the magnitude of the translational movement component of D k , D k is the rigid transformation between the image of the previous time and the image, and t k is the translational movement vector.
請求項4記載の方法において、前記エピポーラ幾何は、以下の式で定義されることを特徴とする方法。
Figure 0007025276000010
ただし、チルダ(~)付きxは、前記画像上の点の同次座標であり、Fは基礎行列である。
The method according to claim 4, wherein the epipolar geometry is defined by the following equation.
Figure 0007025276000010
However, x with a tilde (-) is the homogeneous coordinate of the point on the image, and F is a basic matrix.
請求項1記載の方法において、前記エッジ検出は、ランダムフォレストに基づくエッジ検出器によって行われることを特徴とする方法。 The method according to claim 1, wherein the edge detection is performed by an edge detector based on a random forest. ある姿勢において画像を生成するカメラと、
メモリと、
前記メモリに接続されたプロセッサと、
を有する位置特定システムであって、
前記プロセッサは、
予め作製された地図を受け、
エッジ検出に基づいて、生成された前記画像から特徴を決定し、
少なくとも前記予め作製された地図に基づいて前記カメラの姿勢を予測し、前記予測されたカメラの姿勢から特徴を決定し、
前記画像及び前記予測されたカメラの姿勢から決定された前記特徴に基づいて、チャンファー距離(Chamfer distance)を決定し、
オドメトリ情報とエピポーラ幾何に基づいて、前記決定された前記チャンファー距離を最適化し、
前記最適化されたデータに基づいて、カメラ姿勢推定値を生成する
ことを特徴とする位置特定システム。
A camera that produces an image in a certain posture,
With memory
With the processor connected to the memory
It is a positioning system that has
The processor
Receive a pre-made map
Based on edge detection, features are determined from the generated image and
At least the posture of the camera is predicted based on the map prepared in advance, and the feature is determined from the predicted posture of the camera.
A chamfer distance is determined based on the features determined from the image and the predicted camera orientation.
Optimize the determined chamfer distance based on odometry information and epipolar geometry.
A positioning system characterized by generating camera attitude estimates based on the optimized data.
請求項8記載の位置特定システムにおいて、前記カメラは、単眼カメラであることを特徴とする位置特定システム。 The position identification system according to claim 8, wherein the camera is a monocular camera. 請求項8記載の位置特定システムにおいて、前記予め作製された地図は、LiDAR検知に基づいて作製されることを特徴とする位置特定システム。 The position identification system according to claim 8, wherein the map prepared in advance is created based on LiDAR detection. 請求項8記載の位置特定システムにおいて、前記最適化は、以下で定義されるコスト関数を最小化することによって行われることを特徴とする位置特定システム。
Figure 0007025276000011
ただし、Pkは、推定された前記カメラの姿勢であり、Codmは、前記オドメトリ情報であり、Cepiは、前記エピポーラ幾何であり、Pk-1は、前の時間のカメラの姿勢であり、kは時間である。
The location identification system according to claim 8, wherein the optimization is performed by minimizing the cost function defined below.
Figure 0007025276000011
However, P k is the estimated posture of the camera, Codm is the odometry information, C epi is the epipolar geometry, and P k-1 is the posture of the camera at the previous time. Yes, k is time.
請求項11記載の位置特定システムにおいて、前記オドメトリ情報は、以下の式で定義されることを特徴とする位置特定システム。
Figure 0007025276000012
ただし、dkは、Dkの並進移動成分の大きさであり、Dkは、前の時間の画像と前記画像との間の剛体変換であり、tkは、並進移動ベクトルである。
The position identification system according to claim 11, wherein the odometry information is defined by the following equation.
Figure 0007025276000012
Where d k is the magnitude of the translational movement component of D k , D k is the rigid transformation between the image of the previous time and the image, and t k is the translational movement vector.
請求項11記載の位置特定システムにおいて、前記エピポーラ幾何は、以下の式で定義されることを特徴とする位置特定システム。
Figure 0007025276000013
ただし、チルダ(~)付きxは、前記画像上の点の同次座標であり、Fは、基礎行列である。
The position identification system according to claim 11, wherein the epipolar geometry is defined by the following equation.
Figure 0007025276000013
However, x with a tilde (-) is the homogeneous coordinate of the point on the image, and F is the basic matrix.
請求項8記載の位置特定システムにおいて、前記エッジ検出は、ランダムフォレストに基づくエッジ検出器によって行われることを特徴とする位置特定システム。 The position identification system according to claim 8, wherein the edge detection is performed by an edge detector based on a random forest. 非一過性コンピュータ可読記録媒体であって、該非一過性コンピュータ可読記録媒体はプログラムを記憶し、前記プログラムが、システムの回路によって実行される場合、前記システムは、
ある姿勢におけるカメラから画像を生成し、
予め作製された地図を受け取り、
エッジ検出に基づいて、生成された前記画像から特徴を決定し、
少なくとも前記予め作製された地図に基づいて前記カメラの姿勢を予測し、前記予測されたカメラの姿勢から特徴を決定し、
前記画像及び前記予測されたカメラの姿勢から決定された前記特徴に基づいて、チャンファー距離(Chamfer distance)を決定し、
オドメトリ情報とエピポーラ幾何に基づいて、前記決定された前記チャンファー距離を最適化し、
前記最適化されたデータに基づいて、カメラ姿勢推定値を生成する
ことを特徴とする非一過性コンピュータ可読記録媒体。
If the non-transient computer readable recording medium is a non-transient computer readable recording medium that stores a program and the program is executed by a circuit of the system, the system will:
Generate an image from the camera in a certain posture and
Receive the pre-made map and receive
Based on edge detection, features are determined from the generated image and
At least the posture of the camera is predicted based on the map prepared in advance, and the feature is determined from the predicted posture of the camera.
A chamfer distance is determined based on the features determined from the image and the predicted camera orientation.
Optimize the determined chamfer distance based on odometry information and epipolar geometry.
A non-transient computer-readable recording medium characterized by generating camera attitude estimates based on the optimized data.
請求項15記載の非一過性コンピュータ可読記録媒体において、前記画像は、単眼カメラから生成されることを特徴とする非一過性コンピュータ可読記録媒体。 The non-transient computer-readable recording medium according to claim 15, wherein the image is generated from a monocular camera. 請求項15記載の非一過性コンピュータ可読記録媒体において、前記予め作製された地図は、LiDAR検知に基づいて作製されることを特徴とする非一過性コンピュータ可読記録媒体。 The non-transient computer readable recording medium according to claim 15, wherein the preliminarily prepared map is produced based on LiDAR detection. 請求項15記載の非一過性コンピュータ可読記録媒体において、前記最適化は、以下で定義されるコスト関数を最小化することによって行われることを特徴とする非一過性コンピュータ可読記録媒体。
Figure 0007025276000014
ただし、Pkは、推定された前記カメラの姿勢であり、Codmは、前記オドメトリ情報であり、Cepiは、前記エピポーラ幾何であり、Pk-1は、前の時間のカメラの姿勢であり、kは時間である。
The non-transient computer readable recording medium according to claim 15, wherein the optimization is performed by minimizing the cost function defined below.
Figure 0007025276000014
However, P k is the estimated posture of the camera, Codm is the odometry information, C epi is the epipolar geometry, and P k-1 is the posture of the camera at the previous time. Yes, k is time.
請求項18記載の非一過性コンピュータ可読記録媒体において、前記オドメトリ情報は、以下の式で定義されることを特徴とする非一過性コンピュータ可読記録媒体。
Figure 0007025276000015
ただし、dkは、Dkの並進移動成分の大きさであり、Dkは、前の時間の画像と前記画像との間の剛体変換であり、tkは、並進移動ベクトルである。
The non-transient computer-readable recording medium according to claim 18, wherein the odometry information is defined by the following equation.
Figure 0007025276000015
Where d k is the magnitude of the translational movement component of D k , D k is the rigid transformation between the image of the previous time and the image, and t k is the translational movement vector.
請求項18記載の非一過性コンピュータ可読記録媒体において、前記エピポーラ幾何は、以下の式で定義されることを特徴とする非一過性コンピュータ可読記録媒体。
Figure 0007025276000016
ただし、チルダ(~)付きxは、前記画像上の点の同次座標であり、Fは基礎行列である。
The non-transient computer-readable recording medium according to claim 18, wherein the epipolar geometry is defined by the following equation.
Figure 0007025276000016
However, x with a tilde (-) is the homogeneous coordinate of the point on the image, and F is a basic matrix.
請求項15記載の非一過性コンピュータ可読記録媒体において、前記エッジ検出は、ランダムフォレストに基づくエッジ検出器によって行われることを特徴とする非一過性コンピュータ可読記録媒体。 The non-transient computer-readable recording medium according to claim 15, wherein the edge detection is performed by an edge detector based on a random forest.
JP2018080381A 2017-05-22 2018-04-19 Positioning in urban environment using road markings Active JP7025276B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/601,638 2017-05-22
US15/601,638 US10282860B2 (en) 2017-05-22 2017-05-22 Monocular localization in urban environments using road markings

Publications (2)

Publication Number Publication Date
JP2018197744A JP2018197744A (en) 2018-12-13
JP7025276B2 true JP7025276B2 (en) 2022-02-24

Family

ID=64271985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018080381A Active JP7025276B2 (en) 2017-05-22 2018-04-19 Positioning in urban environment using road markings

Country Status (4)

Country Link
US (1) US10282860B2 (en)
JP (1) JP7025276B2 (en)
CN (1) CN108931252A (en)
DE (1) DE102018205915A1 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2566523B (en) * 2017-09-18 2020-02-26 Jaguar Land Rover Ltd System and method for vehicle convoys
JP7314486B2 (en) * 2018-09-06 2023-07-26 株式会社アイシン camera calibration device
KR20200046437A (en) * 2018-10-24 2020-05-07 삼성전자주식회사 Localization method based on images and map data and apparatus thereof
CN111337010B (en) * 2018-12-18 2022-05-03 北京地平线机器人技术研发有限公司 Positioning method and positioning device of movable equipment and electronic equipment
US11227168B2 (en) 2019-01-08 2022-01-18 Qualcomm Incorporated Robust lane association by projecting 2-D image into 3-D world using map information
JP7256758B2 (en) * 2019-01-30 2023-04-12 バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド LIDAR positioning with time smoothing using RNN and LSTM in autonomous vehicles
CN111771141B (en) * 2019-01-30 2024-04-09 百度时代网络技术(北京)有限公司 LIDAR positioning for solution inference using 3D CNN network in autonomous vehicles
US11112252B2 (en) * 2019-02-14 2021-09-07 Hitachi Ltd. Sensor fusion for accurate localization
US11347231B2 (en) * 2019-08-07 2022-05-31 Waymo Llc Object localization for autonomous driving by visual tracking and image reprojection
US10726579B1 (en) * 2019-11-13 2020-07-28 Honda Motor Co., Ltd. LiDAR-camera calibration
CN113129361B (en) * 2020-01-14 2024-03-15 北京地平线机器人技术研发有限公司 Pose determining method and device for movable equipment
CN113433566B (en) * 2020-03-04 2023-07-25 宏碁股份有限公司 Map construction system and map construction method
CN111681283B (en) * 2020-05-11 2023-04-07 哈尔滨工业大学 Monocular stereoscopic vision-based relative pose calculation method applied to wireless charging alignment
CN111649724B (en) * 2020-06-04 2022-09-06 百度在线网络技术(北京)有限公司 Visual positioning method and device based on mobile edge calculation
CN111949816B (en) * 2020-06-22 2023-09-26 北京百度网讯科技有限公司 Positioning processing method, device, electronic equipment and storage medium
US20210404834A1 (en) * 2020-06-30 2021-12-30 Lyft, Inc. Localization Based on Multi-Collect Fusion
CN112648924B (en) * 2020-12-15 2023-04-07 广州小鹏自动驾驶科技有限公司 Suspended object space position determination method based on vehicle-mounted monocular camera equipment
CN112712018A (en) * 2020-12-29 2021-04-27 东软睿驰汽车技术(沈阳)有限公司 Identification map establishing method, visual positioning method and device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007178223A (en) 2005-12-27 2007-07-12 Aisin Aw Co Ltd Feature recognition device
JP2007271515A (en) 2006-03-31 2007-10-18 Mitsubishi Electric Corp Vehicle navigation apparatus
JP2008089314A (en) 2006-09-29 2008-04-17 Topcon Corp Position measuring apparatus and its method
US20120050489A1 (en) 2010-08-30 2012-03-01 Honda Motor Co., Ltd. Road departure warning system
JP2013540985A (en) 2010-07-26 2013-11-07 コモンウェルス サイエンティフィック アンドインダストリアル リサーチ オーガナイゼーション Three-dimensional scanning beam system and method
JP2016529959A (en) 2013-07-12 2016-09-29 ケアストリーム ヘルス インク Automatic video-based acquisition for tooth surface imaging device

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07136959A (en) * 1993-11-11 1995-05-30 Nippon Telegr & Teleph Corp <Ntt> Robot positioning method
GB2411532B (en) 2004-02-11 2010-04-28 British Broadcasting Corp Position determination
EP1876411A4 (en) 2005-04-25 2011-06-29 Geo Technical Lab Co Ltd Imaging position analyzing method
US20080243378A1 (en) 2007-02-21 2008-10-02 Tele Atlas North America, Inc. System and method for vehicle navigation and piloting including absolute and relative coordinates
WO2009098154A1 (en) 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects
US8970690B2 (en) * 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
US20140139635A1 (en) 2012-09-17 2014-05-22 Nec Laboratories America, Inc. Real-time monocular structure from motion
JP6394850B2 (en) 2013-09-20 2018-09-26 大学共同利用機関法人自然科学研究機構 Compensating optical system and optical apparatus
CN103528571B (en) * 2013-10-12 2016-04-06 上海新跃仪表厂 Single eye stereo vision relative pose measuring method
EP2874118B1 (en) * 2013-11-18 2017-08-02 Dassault Systèmes Computing camera parameters
US9367922B2 (en) * 2014-03-06 2016-06-14 Nec Corporation High accuracy monocular moving object localization
US9613298B2 (en) * 2014-06-02 2017-04-04 Microsoft Technology Licensing, Llc Tracking using sensor data
EP3032495B1 (en) * 2014-12-10 2019-11-13 Dassault Systèmes Texturing a 3d modeled object
WO2016118499A1 (en) * 2015-01-19 2016-07-28 The Regents Of The University Of Michigan Visual localization within lidar maps
US9727793B2 (en) * 2015-12-15 2017-08-08 Honda Motor Co., Ltd. System and method for image based vehicle localization

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007178223A (en) 2005-12-27 2007-07-12 Aisin Aw Co Ltd Feature recognition device
JP2007271515A (en) 2006-03-31 2007-10-18 Mitsubishi Electric Corp Vehicle navigation apparatus
JP2008089314A (en) 2006-09-29 2008-04-17 Topcon Corp Position measuring apparatus and its method
JP2013540985A (en) 2010-07-26 2013-11-07 コモンウェルス サイエンティフィック アンドインダストリアル リサーチ オーガナイゼーション Three-dimensional scanning beam system and method
US20120050489A1 (en) 2010-08-30 2012-03-01 Honda Motor Co., Ltd. Road departure warning system
JP2016529959A (en) 2013-07-12 2016-09-29 ケアストリーム ヘルス インク Automatic video-based acquisition for tooth surface imaging device

Also Published As

Publication number Publication date
DE102018205915A1 (en) 2018-11-22
US10282860B2 (en) 2019-05-07
JP2018197744A (en) 2018-12-13
CN108931252A (en) 2018-12-04
US20180336697A1 (en) 2018-11-22

Similar Documents

Publication Publication Date Title
JP7025276B2 (en) Positioning in urban environment using road markings
US11204253B2 (en) Method and apparatus for displaying virtual route
CN108450034B (en) Vehicle positioning system and method based on images
CN107024215B (en) Tracking objects within a dynamic environment to improve localization
US10671083B2 (en) Neural network architecture system for deep odometry assisted by static scene optical flow
US10552979B2 (en) Output of a neural network method for deep odometry assisted by static scene optical flow
US20190079536A1 (en) Training and testing of a neural network system for deep odometry assisted by static scene optical flow
JP2019529209A (en) System, method and non-transitory computer readable storage medium for parking a vehicle
CN110390240B (en) Lane post-processing in an autonomous vehicle
US11035933B2 (en) Transition map between lidar and high-definition map
US20190079533A1 (en) Neural network architecture method for deep odometry assisted by static scene optical flow
US10996337B2 (en) Systems and methods for constructing a high-definition map based on landmarks
US20190079535A1 (en) Training and testing of a neural network method for deep odometry assisted by static scene optical flow
US20190080167A1 (en) Data acquistion and input of neural network system for deep odometry assisted by static scene optical flow
US20190080166A1 (en) Data acquistion and input of neural network method for deep odometry assisted by static scene optical flow
US20210011163A1 (en) Point cloud format optimized for lidar data storage based on device property
JP6903598B2 (en) Information processing equipment, information processing methods, information processing programs, and mobiles
CN112883058A (en) Calibration method, device, equipment, vehicle and medium for vehicle positioning
CN114694111A (en) Vehicle positioning
CN112689234A (en) Indoor vehicle positioning method and device, computer equipment and storage medium
CN107545760B (en) Method for providing positioning information for positioning a vehicle at a positioning location and method for providing information for positioning a vehicle by means of another vehicle
CN113409583A (en) Lane line information determination method and device
CN112424568A (en) System and method for constructing high-definition map
US20200370919A1 (en) Method and system for creating a localization map for a vehicle
US11312380B2 (en) Corner negotiation method for autonomous driving vehicles without map and localization

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220210

R150 Certificate of patent or registration of utility model

Ref document number: 7025276

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150