JP7275280B2 - 教師あり機械学習のための画像の自動ラベリングのためのシステムおよび方法 - Google Patents

教師あり機械学習のための画像の自動ラベリングのためのシステムおよび方法 Download PDF

Info

Publication number
JP7275280B2
JP7275280B2 JP2021535866A JP2021535866A JP7275280B2 JP 7275280 B2 JP7275280 B2 JP 7275280B2 JP 2021535866 A JP2021535866 A JP 2021535866A JP 2021535866 A JP2021535866 A JP 2021535866A JP 7275280 B2 JP7275280 B2 JP 7275280B2
Authority
JP
Japan
Prior art keywords
image
vehicle
orientation
roadside
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021535866A
Other languages
English (en)
Other versions
JP2022514891A (ja
Inventor
ドナルド バークマイアー マシュー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive Systems Inc
Original Assignee
Continental Automotive Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive Systems Inc filed Critical Continental Automotive Systems Inc
Publication of JP2022514891A publication Critical patent/JP2022514891A/ja
Application granted granted Critical
Publication of JP7275280B2 publication Critical patent/JP7275280B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3673Labelling using text of road map data items, e.g. road names, POI names
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/40Correcting position, velocity or attitude
    • G01S19/41Differential correction, e.g. DGPS [differential GPS]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/43Determining position using carrier phase measurements, e.g. kinematic positioning; using long or short baseline interferometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/485Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an optical system or imaging system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/53Determining attitude
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs

Description

本発明は、教師あり機械学習(supervised machine learning)のためのトレーニングデータおよび検証データを生成するためのシステムおよびプロセスに関する。
背景技術
車両製造業者は、車両周辺の情報を解釈し、定義されたアクションを生成するアルゴリズムを使用するドライバー支援機能をますます含めている。その上さらに、車両内の自律型機能は、車両によって感知された情報を、車両のナビゲートおよび運転のために利用している。教師あり機械学習には、トレーニングデータ、検証データ、およびテストデータを含む大量のデータが必要である。特定の問題に依存して、数千、数十万、さらには数百万の例が機械学習アルゴリズムのトレーニングのために必要になる場合がある。
本明細書で提供される背景技術は、本開示の文脈を一般的に提示することを目的としている。この背景技術欄で説明されている範囲で、本願発明者の研究は、それ以外では出願時の先行技術として適格でない可能性のある説明の態様と同様に、明示的にも黙示的にも本開示に対する先行技術としての余地はない。
教師あり機械学習のための画像の自動ラベリングの方法は、本開示の例によれば、車両に取り付けられたカメラを用いて路傍物体(roadside objects)の画像を取得するステップと、画像を取得するステップの間に、定義された座標系内で車両の位置および向きを記録するステップと、車両の位置および向きを記録するステップの間に使用されたものと同じ定義された座標系を用いて各路傍物体に関する位置情報を記録するステップと、路傍物体の取得された各画像の位置を、車両の記録された位置および向きを考慮して各路傍物体の位置情報と相関付けするステップと、を含む。これらの画像は、路傍物体の取得された各画像の相関位置を考慮して、路傍物体を識別するためにラベリングされている。
前述のさらなる例では、路傍物体は、標識を含み、高精細マップは各標識に関する位置情報を含む。
前述のいずれかのさらなる例では、本方法は、車両の相対位置を、標識の位置に相関付けするステップを含む。
前述のいずれかのさらなる例では、本方法は、ビデオ記録デバイスの光学的特性について、標識と車両との間の記録された向きを補正するステップを含む。
前述のいずれかのさらなる例では、本方法は、ラベリングされた画像を用いて複数の入出力対を生成するステップを含む。
前述のいずれかのさらなる例では、ラベリングするステップは、各路傍物体にマーキングまたは輪郭を提供するステップを含む。
前述のいずれかのさらなる例では、定義された座標系は、デカルト座標系である。
前述のいずれかのさらなる例では、車両の位置および向きを記録するステップは、DGPS/IMUシステムを使用して実行される。
前述のいずれかのさらなる例では、車両の位置および向きを記録するステップ、ならびに各路傍物体に関する位置情報を記録するステップは、車両のメモリデバイスを使用して実行される。
前述のいずれかのさらなる例では、本方法は、画像に関連付けられた第1のタイムスタンプデータセットを取得するステップと、位置および向きの情報に関連付けられた第2のタイムスタンプデータセットを取得するステップと、を含む。相関付けするステップは、第1のタイムスタンプデータセットと第2のタイムスタンプデータセットとを同期化するステップを含む。
前述のいずれかのさらなる例では、路傍物体は、標識を含み、高精細マップは各標識に関する位置情報を含む。
前述のいずれかのさらなる例では、本方法は、ラベリングされた画像を用いて複数の入出力対を生成するステップを含む。
前述のいずれかのさらなる例では、本方法は、ラベリングするステップを含み、該ラベリングするステップは、各標識にマーキングまたは輪郭を提供するステップを含む。
前述のいずれかのさらなる例では、本方法は、デカルト座標を用いて各標識の少なくとも1つの角を識別するステップを含む。
教師あり機械学習のための画像の自動ラベリングのためのシステムは、本開示の例によれば、車両に取り付けられかつ該車両に対する外部の物体の画像を捕捉するように構成されたカメラと、物体の画像の捕捉中に車両の位置および向きの情報を決定するためのDGPS/IMUシステムと、画像および関連付けられた位置および向きの情報を記録するためのメモリデバイスと、物体に関するHDマップ位置情報を含むHDマップと、を含んでいる。少なくとも1つのコンピューティングデバイスは、画像、位置および向きの情報、ならびにHDマップの位置情報を同期化し、画像内の物体をラベリングし、物体がラベリングされている第2の画像セットを提供するようにプログラミングされている。
前述のさらなる例では、少なくとも1つのクロックが、画像に関連付けられた第1のタイムスタンプデータセットと、位置および向きの情報に関連付けられた第2のタイムスタンプデータセットとを提供する。
前述のいずれかのさらなる例では、少なくとも1つのコンピューティングデバイスは、カメラ、DGPS/IMUシステム、およびHDマップと通信する車両コントローラを含む。
前述のいずれかのさらなる例では、車両コントローラは、メモリデバイスを含む。
本明細書に開示されるこれらおよび他の特徴は、以下の明細書および図面から最良に理解することができ、以下は図面の簡単な説明である。
道路標識を含む機械学習のための入力例の概略図である。 ラベリングされた道路標識を含む機械学習のための出力例の概略図である。 例示的な実施形態による情報を記録する車両の概略図である。 例示的な実施形態による、車両ならびに記録された情報の例の概略図である。 例示的な実施形態のステップを示すフローチャートである。 例示的な実施形態のステップを示すフローチャートである。
本開示は、教師あり機械学習のためのトレーニングデータおよび検証データを生成するためのシステムおよびプロセスに関する。教師あり機械学習では、入手可能な入出力対が多いほど、結果のアルゴリズムが向上する場合がある。いくつかの例では、所期の出力データの十分なインスタンスを生成することが困難になる可能性がある。いくつかの例では、データポイントは、手動で生成される場合があり、これはエラーを起こしやすく、大きな労働力を要する可能性がある。
教師あり機械学習は、ペアの入出力対からなるデータポイントを利用する。入出力対ごとに、出力は、入力に対する所期のアルゴリズム応答である。学習アルゴリズムは、定義された出力からの実際の出力を比較し、その差分を考慮してアルゴリズムを変更することにより、データ対を使用する。
図1Aおよび図1Bを参照すると、教師あり機械学習のための例示的な入出力対が概略的に示されている。この例示的な入出力対は、画像内の交通標識の検出とローカライズとを教示するために利用される例である。開示された例では、入力は、図1A中に示される生のカメラ画像である。このカメラ画像は、車道16を横切るように吊り下げられた標識10、12、および14を含む。図1Bは、標識10、12、および14の各々について輪郭18の形態のラベルを伴う画像の出力を表している。アルゴリズムに画像を標識としてどのようにラベリングするかを学習させるために、図1Aおよび図1Bに示されるような数十万の入出力対が利用されてよい。そのように要求される入出力対の手動ラベリングは効率的ではない。
本開示による例示的なプロセスは、自動運転システムのための高精細(HD)マップの一部として入手可能な情報を使用することによって、画像のラベリングを自動化する。自動運転システムでの使用に適したHDマップには、交通標識の場所が、経度、緯度、高度の値として含まれている。HDマップの値は、典型的には、非常に正確な場所情報を含んでいる。その上さらに、HDマップには、幅、高さ、および向きの情報とともに3次元の位置が含まれる場合がある。例示的な方法では、そのようなHDマップを、教師あり機械学習で使用するための画像データのラベリングを自動化するために利用している。
図2を参照すると、画像のセットに交通標識をラベリングするための例示的なプロセスは、標識30,32を含む車道のHDマップ22を含んでいる車両20を利用する。いくつかの例では、図示のように、車両20は、いくつかの例として符号24において概略的に示されているテレマティックユニットなどのコントローラ、カメラ26、およびHDマップ22を含んでいる。コントローラ24からの情報は、車両20の位置ならびにDGPS/IMUシステムを用いた進行方向を高精度で記録する(例えば、RTK整数モード)。付加的に、ロール軸、ピッチ軸、およびヨー軸における車両20の向きが、メモリデバイス28内に保管されてもよく、いくつかの例では、DGPS/IMUシステムによって決定されてもよい。いくつかの例では、メモリデバイス28は、コントローラ24の一部であってもよいし、コントローラ24から分離されてもよい。いくつかの例では、車両位置、進行方向、速度、角速度、およびビデオのうちの1つ以上がメモリデバイス28上に保管されている。カメラ26からのビデオ画像とともにDGPS/IMUシステムからの測定値は、後からの同期化のためにタイムスタンプ情報とともに保管されてよい。コントローラ24は、ビデオ映像と車両20の位置および向きのデータとの間の正確な同期を提供する。
HDマップ22内の交通標識についての情報は、デカルト座標系に変換され、これは、いくつかの例では、情報を記録する前に行われてよい。同様に、コントローラ24およびカメラ26によって収集されたデータも、共通のデカルト座標系に提供される。したがって、共通の座標系を考慮して、交通標識の場所と寸法、ならびに車両の経路および向きが記録される。次いで、座標系は、いくつかの例では、コントローラ24または別個のコンピューティングデバイスで位置合わせされてよく、車両20は、車道を進み、車両の位置および向きの情報とともに、路傍標識30,32のビデオ画像を捕捉する。
記録された情報を使用して、各時点での車両20に対する各標識30,32の位置は、標識30,32に対する車両20の速度および向きを考慮に入れる方法を使用して計算される。その上さらに、カメラ26の光学系が識別され、各標識30,32の精度および位置をさらに定義するために利用されてもよい。
図2を引き続き参照しながら図3を参照すると、カメラ26によって撮影された画像は、各標識34のHDマップ22からの幅36および高さ38,40の情報と同期化され、記録からの画像をラベリングするために利用される。ラベリングは、教師あり機械学習に適した入出力データ対を提供するためのビデオ画像内の標識34の識別である。別の例示的な標識42は、HDマップ22内に含まれる幅46および高さの情報48,50とともに利用できる角44を含む。各標識34,42の縁部および角は、HDマップ22内に存在し、車両20が車道16に沿って移動する際のカメラ26によって捕捉された画像内での識別を可能にさせる。いくつかの例では、角および/または縁部のデカルト座標は、HDマップ22データとの同期化のためにカメラ26によって撮影された画像内で識別される。すなわち、いくつかの例では、これらの縁部および角は、同期化のために、HDマップ22とカメラ26の画像の一方または両方で識別される。
捕捉されたビデオ画像の各フレームは、HDマップ22内に含まれる寸法および場所情報に位置合わせされる。共通座標系は、ビデオ画像内で標識の識別を可能にするために、これらの異なるデータのセットを、いくつかの例では、コントローラ24または別個のコンピューティングデバイス上で同期化する。いくつかの例では、この同期化は、車両の状態(位置、向き、速度、角速度など)およびカメラ26からのビデオフレームに関連付けられた、中央クロックまたは複数の分散クロックなどからのタイムスタンプ情報を利用して行われてもよい。車両20が車道16を下って移動すると、各標識の数百の異なる画像が取得され、対応する数の正確な入出力対の生成を可能にするためにHDマップ22情報と同期される。次いで、ビデオフレームに対する各標識の位置を計算してよい。
その上さらに、いくつかの例では、焦点距離を含むカメラ26の光学系に基づく遠近変換を使用して、各画像を有する各標識の各角44の位置を計算することができる。いくつかの例では、カメラ26は、魚眼カメラのように歪みを有する場合があり、関連する較正手順が画像上で実行されてもよい。
したがって、各標識の場所および位置が識別され、ビデオ画像にリンクされる。次いで、同期化された情報が、各画像内の各交通標識のためのラベルを含む画像もしくは他の表現を生成するために利用され、これは、いくつかの例では、コントローラ24または別個のコンピューティングデバイス上で実行されてよい。したがって、ラベリングなしの元の画像と組み合わされるラベリング画像は、教師あり機械学習プロセスのための入力として必要とされる多くの入出力対を提供する。
理解されるように、収集された情報におけるわずかなエラーの蓄積のために、ラベルは、各画像上で標識ごとに完全に位置合わせされない場合がある。不正確さは、DGPS/IMU情報、カメラ26較正、車両20の向きのエラー、ならびにHDマップ22内に存在し得る。したがって、いくつかの例では、ラベルと標識との間の一致を改善するために光学補正を行うことができる。この補正は、手動でもしくは画像処理アルゴリズムを用いて行うことができる。いくつかの例では、ラベルを補正するための自動アプローチが、標識の縁部を探索し、より良好に位置合わせされたラベルを提供するために、この縁部に基づいたラベリングの変更を行うことができる。ラベルの精度の何らかの増加は、結果として機械学習プロセスのための入出力対の向上につながる。
図2および3を引き続き参照しながら図4を参照すると、例示的な方法の概略図が符号60で示されている。この方法60は、交通標識の場所、車両位置、および軌道情報を共通のデカルトフレームに変換する初期化ステップ62を含む。すべての交通標識のグローバル位置は、車両の位置および軌道に共通の局所的デカルト(x,y,z)フレームに変換される。この変換は、データ収集後に達成することができ、他の座標系も利用することができ、本開示の想定内であることを理解されたい。
次いで、車両20は、ステップ64に示されるように、ビデオ画像を捕捉しながら車道に沿って運転される。ビデオは、運転中に記録されてよく、同時に、車の位置および向きが、統合されたDGPS/IMUシステムを含むコントローラ24を用いて高精度で記録されてもよい。車両の向き(例えばロール、ピッチ、ヨーなど)が同時に記録されてもよい。取得された画像および位置および向きのデータに関連付けられたタイムスタンプ情報が記録されてもよく、次いで、画像および位置および向きデータからのタイムスタンプが、画像および位置および向きデータの同期化のために同期化されてもよい。これらの後者の測定値は、一般に、統合されたDGPS/IMUシステムを用いて入手可能である。
ビデオ画像が捕捉された後、ステップ66に示されるように、車と車道沿いの物体との間の相対位置が決定される。記録された情報を使用して、各時点での車(車のフレーム)に対する各標識の位置が、標準的な方法を使用して計算される。この計算は、標識の向きと標識の幅および高さとともに、各標識の各角の3D位置のHDマップ22からの情報を含むことができる。この計算も、各画像内の各標識の各角の位置を定義するために、カメラの焦点距離および/またはカメラの他の光学的パラメータに基づくなどの遠近変換を利用する。
一度、各画像内で各標識の場所が計算されると、標識は、ステップ68に示されるようにラベリングされてよい。ラベリングは、入出力対を定義するために使用可能なマーキングまたは輪郭を提供することを含む。一度、ラベリングされると、画像は、ステップ70に示されるように、入出力対を提供するためのラベルを含めて生成される。
図2~図4を引き続き参照しながら図5を参照すると、例示的な方法の概略図が符号80で示されている。
ステップ82では、本方法80は、車両に取り付けられたカメラを用いて路傍物体の画像を取得するステップを含む。
ステップ84では、本方法80は、画像を取得するステップの間に、定義された座標系内で車両の位置および向きを記録するステップを含む。
ステップ86では、本方法80は、車両の位置および向きを記録するステップの間に使用されたものと同じ定義された座標系を用いて、各路傍物体に関する位置情報を記録するステップを含む。
ステップ88では、本方法80は、路側物体の取得された各画像の位置を、車両の記録された位置および向きを考慮して各路側物体の位置情報と相関付けするステップを含む。
ステップ90では、方法80は、路傍物体の取得された各画像の相関位置を考慮して、路傍物体を識別するために画像をラベリングするステップを含む。
いくつかの例では、本方法80は、車両の相対位置を標識の位置に相関付けするステップを含む。いくつかの例では、本方法80は、ビデオ記録デバイスの光学的特性について、標識と車両との間の記録された向きを補正するステップを含む。いくつかの例では、本方法80は、ラベリングされた画像を用いて複数の入出力対を生成するステップを含む。
例示的な方法60,80は、例として特定の順序で示されているが、本方法60,80のステップの他の順序が利用されてもよい。
路傍標識のラベリングは、例として開示されているが、他の物体を、機械学習に適した入出力対の生成のためにラベリングすることもでき、すべて本開示の想定内および範囲内であることを理解されたい。
したがって、例示的な方法は、教師あり機械学習プロセスに利用される入出力対の自動生成のためのシステムを提供する。
例示的な実施形態が開示されてきたが、当業者は、特定の補正が本開示の範囲内に入るであろうことを認識するであろう。そのため、本開示の範囲および内容を決定するためには、以下の特許請求の範囲を検討すべきである。

Claims (14)

  1. 教師あり機械学習のための入出力トレーニング対を生成する方法であって、
    前記方法は、
    車両に取り付けられたカメラを用いて路傍物体の画像を取得するステップと、
    前記画像を取得するステップの間に、定義された座標系内で前記車両の位置および向きを記録するステップと、
    高精細マップから、各路傍物体に関する位置および向きの情報を取得するステップと、
    路傍物体に関する前記位置情報ならびに前記車両の記録された前記位置および向きを、同じ定義された座標系を有するように変換するステップと、
    前記カメラのパラメータに基づく遠近変換を使用して、前記路傍物体の取得された各画像における位置を、前記車両の記録された前記位置および向きを考慮して各路傍物体の変換された前記位置情報を用いて決定するステップと、
    前記路傍物体の、対応する決定された前記位置を考慮して、取得された前記各画像における前記路傍物体を識別するために前記画像をラベリングして、ラベリングされた画像を作成するステップであって、取得された各画像および対応するラベリングされた画像は、機械学習アルゴリズムをトレーニングして、画像内の路傍物体を検出するために、入出力トレーニング対を構成している、ステップと、
    少なくとも1つのラベリングされた画像および当該ラベリングされた画像に対する対応するラベルにおいて見られる路傍物体の間の位置合わせの不整合を補正するステップとを含み、
    補正する前記ステップは、少なくとも1つのラベリングされた前記画像における各路傍物体に対して、少なくとも1つのラベリングされた前記画像における物体に対応する少なくとも1つの路傍物体の縁部を探索し、少なくとも1つの路傍物体の縁部が見出されたことに基づいて、少なくとも1つのラベリングされた前記画像において、少なくとも1つの路傍物体に対する、対応するラベルの位置合わせを補正することを含む、
    方法。
  2. 前記路傍物体は、標識を含む、請求項1記載の方法。
  3. 前記方法は、前記標識の位置に対する前記車両の相対位置を決定するステップを含む、請求項2記載の方法。
  4. 前記方法は、前記カメラの光学的特性について、前記標識と前記車両との間の記録された向きを補正するステップを含む、請求項3記載の方法。
  5. 前記ラベリングするステップは、各ラベリングされた画像において、前記各路傍物体にマーキングまたは輪郭を提供するステップを含む、請求項1から4までのいずれか1項記載の方法。
  6. 前記定義された座標系は、デカルト座標系である、請求項1から5までのいずれか1項記載の方法。
  7. 車両の位置および向きを記録する前記ステップは、DGPS/IMUシステムを使用して実行される、請求項1から6までのいずれか1項記載の方法。
  8. 車両の位置および向きを記録する前記ステップ、ならびに各路傍物体に関する位置情報を記録する前記ステップは、前記車両のメモリデバイスを使用して実行される、請求項1から7までのいずれか1項記載の方法。
  9. 前記方法は、
    複数の前記画像に関連付けられた第1のタイムスタンプデータセットを取得するステップと、
    前記位置および向きの情報に関連付けられた第2のタイムスタンプデータセットを取得するステップと、
    を含み、
    前記路傍物体の、取得された各画像における位置を決定する前記ステップは、前記第1のタイムスタンプデータセットと前記第2のタイムスタンプデータセットとを同期化するステップを含む、
    請求項1から8までのいずれか1項記載の方法。
  10. 前記方法は、デカルト座標を用いて各標識の少なくとも1つの角を識別するステップを含む、請求項2から9までのいずれか1項記載の方法。
  11. 教師あり機械学習のための入出力トレーニング対を生成するシステムであって、
    前記システムは、
    車両に取り付けられかつ該車両の外部の物体の画像を捕捉するように構成されたカメラと、
    前記物体の前記画像の捕捉中に前記車両の位置および向きの情報を決定するためのDGPS/IMUシステムと、
    前記画像ならびに決定された記位置および向きの情報を記録するためのメモリデバイスと、
    前記物体に関する高精細マップ位置情報を含む高精細マップと、
    前記画像の捕捉を前記車両の前記位置および向きの情報と同期化し、前記物体の前記高精細マップ位置情報ならびに前記車両の前記位置および向きの情報に基づいて、前記画像内の前記物体をラベリングし、前記物体がラベリングされている第2のラベリングされた画像セットを提供するようにプログラミングされた少なくとも1つのコンピューティングデバイスであって、各捕捉された画像および対応するラベリングされた画像が、機械学習アルゴリズムをトレーニングするための入出力トレーニング対を形成する、コンピューティングデバイスと、
    を含み、
    少なくとも1つの前記コンピューティングデバイスは、さらに、少なくとも1つのラベリングされた画像および当該ラベリングされた画像に対する対応するラベルにおいて見られる路傍物体の間の位置合わせの不整合を補正するようにプログラミングされており、当該補正することは、少なくとも1つのラベリングされた画像における各物体に対して、少なくとも1つのラベリングされた前記画像における前記物体に対応する少なくとも1つの物体の縁部を探索し、少なくとも1つの前記物体の縁部が見出されたことに基づいて、少なくとも1つのラベリングされた前記画像において、少なくとも1つの物体に対する、対応するラベルの位置合わせを補正することを含む、
    システム。
  12. 前記システムは、捕捉された前記画像に関連付けられた第1のタイムスタンプデータセットと、前記位置および向きの情報に関連付けられた第2のタイムスタンプデータセットとを提供するための少なくとも1つのクロックを含み、少なくとも1つの前記コンピューティングデバイスは、前記第1のタイムスタンプデータセットと、前記車両の前記位置および向きの情報に対応する前記第2のタイムスタンプデータセットとにそれぞれ基づいて、捕捉された前記画像を同期化する、請求項11記載のシステム。
  13. なくとも1つの前記コンピューティングデバイスは、前記カメラ、前記DGPS/IMUシステム、および前記高精細マップと通信する車両コントローラを含む、請求項11または12記載のシステム。
  14. 前記車両コントローラは、前記メモリデバイスを含む、請求項13記載のシステム。
JP2021535866A 2018-12-21 2019-12-10 教師あり機械学習のための画像の自動ラベリングのためのシステムおよび方法 Active JP7275280B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862783886P 2018-12-21 2018-12-21
US62/783,886 2018-12-21
US16/685,612 2019-11-15
US16/685,612 US11544938B2 (en) 2018-12-21 2019-11-15 Systems and methods for automatic labeling of images for supervised machine learning
PCT/US2019/065561 WO2020131498A1 (en) 2018-12-21 2019-12-10 Systems and methods for automatic labeling of images for supervised machine learning

Publications (2)

Publication Number Publication Date
JP2022514891A JP2022514891A (ja) 2022-02-16
JP7275280B2 true JP7275280B2 (ja) 2023-05-17

Family

ID=71098589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021535866A Active JP7275280B2 (ja) 2018-12-21 2019-12-10 教師あり機械学習のための画像の自動ラベリングのためのシステムおよび方法

Country Status (5)

Country Link
US (1) US11544938B2 (ja)
EP (1) EP3899782A1 (ja)
JP (1) JP7275280B2 (ja)
CN (1) CN113228039A (ja)
WO (1) WO2020131498A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11544938B2 (en) * 2018-12-21 2023-01-03 Continental Autonomous Mobility US, LLC Systems and methods for automatic labeling of images for supervised machine learning
CN112667837A (zh) * 2019-10-16 2021-04-16 上海商汤临港智能科技有限公司 图像数据自动标注方法及装置
WO2022014220A1 (ja) * 2020-07-13 2022-01-20 古野電気株式会社 学習用データ収集システム、学習用データ収集方法、データ収集装置、プログラム、学習済みモデルの生成方法、学習装置、及び推定装置
CN111999752B (zh) * 2020-08-25 2024-03-26 阿波罗智能技术(北京)有限公司 确定道路信息数据的方法、装置和计算机存储介质
CN112990142B (zh) * 2021-04-30 2021-08-10 平安科技(深圳)有限公司 一种基于ocr的视频导图生成方法、装置、设备及存储介质
CN113610993B (zh) * 2021-08-05 2022-05-17 南京师范大学 一种基于候选标签评估的3d地图建筑物标注方法
KR20240015792A (ko) * 2022-07-27 2024-02-06 재단법인 지능형자동차부품진흥원 자율 주행 차량의 센서 데이터 계측을 이용한 시나리오 라벨링 시스템 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018063680A (ja) 2016-10-14 2018-04-19 国立大学法人金沢大学 交通信号認識方法および交通信号認識装置
JP2018151843A (ja) 2017-03-13 2018-09-27 ファナック株式会社 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法
US20180348777A1 (en) 2017-06-02 2018-12-06 Honda Motor Co., Ltd. Vehicle control system and method, and travel assist server

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3125196B1 (en) * 2015-07-29 2018-02-21 Continental Automotive GmbH Drive-by calibration from static targets
US11544938B2 (en) * 2018-12-21 2023-01-03 Continental Autonomous Mobility US, LLC Systems and methods for automatic labeling of images for supervised machine learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018063680A (ja) 2016-10-14 2018-04-19 国立大学法人金沢大学 交通信号認識方法および交通信号認識装置
JP2018151843A (ja) 2017-03-13 2018-09-27 ファナック株式会社 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法
US20180348777A1 (en) 2017-06-02 2018-12-06 Honda Motor Co., Ltd. Vehicle control system and method, and travel assist server

Also Published As

Publication number Publication date
WO2020131498A1 (en) 2020-06-25
US11544938B2 (en) 2023-01-03
EP3899782A1 (en) 2021-10-27
CN113228039A (zh) 2021-08-06
JP2022514891A (ja) 2022-02-16
US20200202147A1 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
JP7275280B2 (ja) 教師あり機械学習のための画像の自動ラベリングのためのシステムおよび方法
KR102583989B1 (ko) 지도들에 기반한 차량용의 자동화된 이미지 라벨링
CN110160542B (zh) 车道线的定位方法和装置、存储介质、电子装置
CN109324337B (zh) 无人飞行器的航线生成及定位方法、装置及无人飞行器
CN111830953B (zh) 车辆自定位方法、装置及系统
WO2020253842A1 (zh) 一种车辆位姿确定方法、装置及电子设备
KR101445739B1 (ko) 도로표지판의 위치검출 방법
CN111065043B (zh) 一种基于车路通信的隧道内车辆融合定位系统及方法
US10970924B2 (en) Reconstruction of a scene from a moving camera
DE112018000605T5 (de) Informationsverarbeitungsvorrichtung, Datenverwaltungsvorrichtung, Datenverwaltungssystem, Verfahren und Programm
CN112734841A (zh) 一种用轮式里程计-imu和单目相机实现定位的方法
AU2019203567B2 (en) Geo-registering an aerial image by an object detection model using machine learning
ES2576457T3 (es) Procedimiento para el apoyo de la navegación inercial de un aparato volador
WO2023240805A1 (zh) 一种基于滤波校正的网联车超速预警方法及系统
CN116824457A (zh) 基于全景视频中移动目标自动挂牌方法及相关装置
CN113139031B (zh) 用于自动驾驶的交通标识的生成方法及相关装置
CN114910085A (zh) 一种基于路政设施识别的车辆融合定位方法及装置
CN114812571B (zh) 车辆定位方法、装置、车辆、存储介质及芯片
CN111964685A (zh) 用于创建用于车辆的定位地图的方法和系统
TWI770511B (zh) 一種影像辨識導航裝置
JP6593995B2 (ja) 空港監視装置
CN114358038B (zh) 一种基于车辆高精度定位的二维码坐标标定方法及装置
CN117746426A (zh) 基于高精度地图的图像标签自动生成方法及系统
CN117387609A (zh) 一种多源融合冗余定位方法、设备及计算机可读存储介质
CN117315611A (zh) 一种用于对图像语义标签进行自动标注的方法和系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230502

R150 Certificate of patent or registration of utility model

Ref document number: 7275280

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150