JP2020057387A - 車両位置決め方法、車両位置決め装置、電子機器及びコンピュータ読み取り可能な記憶媒体 - Google Patents

車両位置決め方法、車両位置決め装置、電子機器及びコンピュータ読み取り可能な記憶媒体 Download PDF

Info

Publication number
JP2020057387A
JP2020057387A JP2019177450A JP2019177450A JP2020057387A JP 2020057387 A JP2020057387 A JP 2020057387A JP 2019177450 A JP2019177450 A JP 2019177450A JP 2019177450 A JP2019177450 A JP 2019177450A JP 2020057387 A JP2020057387 A JP 2020057387A
Authority
JP
Japan
Prior art keywords
vehicle
edge
edge information
sensing device
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019177450A
Other languages
English (en)
Other versions
JP6857697B2 (ja
Inventor
シャオフェイ ルイ,
Xiaofei Rui
シャオフェイ ルイ,
シーユー ソン,
Shiyu Song
シーユー ソン,
ウェンドン ディン,
Wendong Ding
ウェンドン ディン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2020057387A publication Critical patent/JP2020057387A/ja
Application granted granted Critical
Publication of JP6857697B2 publication Critical patent/JP6857697B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

【課題】車両の位置決めの精度を向上させることができる車両位置決め方法、車両位置決め装置、電子機器及びコンピュータ読み取り可能な記憶媒体を提供する。【解決手段】車両位置決め方法は、センシング装置によって取得された車両に関する画像から車両の第1のエッジ情報を決定するステップと、車両に対応する輪郭モデルを決定するステップと、輪郭モデルに関連付けられたエッジ情報集合から第1のエッジ情報にマッチングする第2のエッジ情報を決定するステップと、第2のエッジ情報に対応する位置に基づいて、センシング装置に対する車両の位置を決定するステップとを含む。エッジ情報集合における各エッジ情報は、センシング装置に対する輪郭モデルの異なる位置に対応する。【選択図】図2

Description

本発明は、主にインテリジェント運転分野に関し、さらに詳しくは、車両位置決め方法、車両位置決め装置、電子機器及びコンピュータ読み取り可能な記憶媒体に関する。
近年、自動運転と運転支援の関連技術が急速に発展してきている。自動運転と運転支援の分野では、車両を高精度に位置決めすることが重要である。実際の応用において、全地球航法衛星システム(GNSS)の測位によってもたらされる誤差が10メートル、またはさらに大きくなる可能性がある。一部の自動運転車両及び運転支援車両は、高精度な慣性航法(INS)と全地球航法衛星システム(GNSS)とを組み合わせることによって高精度な位置決めを達成することができ、又は高精度の地図とレーザレーダとを組み合わせることによって高精度な位置決めを達成することができるが、このような方式はコストが高く、外部環境の影響を受ける可能性がある。したがって、車両の高精度な位置決めをどのように実現するかが注目される焦点となっている。
本発明によれば、車両の自動運転を制御するための技術解決策が提供される。
本発明の第1態様において、センシング装置によって取得された車両に関する画像から車両の第1のエッジ情報を決定するステップと、車両に対応する輪郭モデルを決定するステップと、輪郭モデルに関連付けられたエッジ情報集合から第1のエッジ情報にマッチングする第2のエッジ情報を決定するステップと、第2のエッジ情報に対応する位置に基づいて、センシング装置に対する車両の位置を決定するステップとを含み、エッジ情報集合における各エッジ情報は、センシング装置に対する輪郭モデルの異なる位置に対応する車両位置決め方法が提供される。
本発明の第2態様において、センシング装置によって取得された車両に関する画像から車両の第1のエッジ情報を決定する第1のエッジ情報決定モジュールと、車両に対応する輪郭モデルを決定する輪郭モデル決定モジュールと、輪郭モデルに関連付けられたエッジ情報集合から第1のエッジ情報にマッチングする第2のエッジ情報を決定する第2のエッジ情報決定モジュールと、第2のエッジ情報に対応する位置に基づいて、センシング装置に対する車両の位置を決定する位置決定モジュールとを備え、エッジ情報集合における各エッジ情報は、センシング装置に対する輪郭モデルの異なる位置に対応する車両位置決め装置が提供される。
本発明の第3態様において、少なくとも一つのプロセッサと、少なくとも一つのプログラムを記憶する記憶装置とを備える電子機器であって、少なくとも一つの前記プログラムが少なくとも一つの前記プロセッサによって実行される場合に、少なくとも一つの前記プロセッサが上記の車両位置決め方法を実現する電子機器が提供される。
本発明の第4態様において、コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、前記コンピュータプログラムが前記プロセッサによって実行される場合に、上記の車両位置決め方法が実現されるコンピュータ読み取り可能な記憶媒体が提供される。
なお、発明の概要に記載された内容は、本発明の実施例の肝心又は重要な特徴を限定することを意図せず、本発明の範囲を限定することも意図しない。本発明の他の特徴は、以下の説明により容易に理解することができる。
図面と合わせて、以下の詳細な説明を参照することにより、本発明の上記の及び他の特徴、利点および態様が、より明確になる。図面では、同一又は類似の符号は、同一又は類似の要素を示す。
本発明の複数の実施例を実現することができる一例の環境の概略図を示す。 本発明の一実施例に係る車両位置決め方法のフローチャートを示す。 本発明の一実施例に係る位置決め対象車両の一例の画像を示す。 本発明の一実施例に係る車両の第1のエッジ情報の概略図を示す。 本発明の一実施例に係る車両輪郭モデルの概略図を示す。 本発明の一実施例に係る第2のエッジ情報を決定する概略図を示す。 本発明の一実施例に係る車両位置決め装置のブロック図を示す。 本発明の複数の実施例を実施することができるコンピューティング機器のブロック図を示す。
以下に、図面を参照しながら本発明の実施例をさらに詳しく説明する。
図面には、本発明の一実施例を示したが、本発明は、種々な形式により実現することができ、ここで説明した実施例に限定されると理解されてはならない。逆に、これらの実施例を提供する意図は、本発明を徹底的且つ完全に理解することである。なお、本発明の図面及び実施例は、例示的なものであり、本発明の保護範囲を限定するものと理解されてはならない。
本発明の実施例の説明において、「含む」の用語及びその類似の用語は、開放的に含まれることを意味し、即ち、「含むがこれらに限定されない」と理解されるべきである。「基づく」は、「少なくとも部分的に基づく」と理解されるべきである。「一実施例」又は「本実施例」は、「少なくとも一つの実施例」と理解されるべきである。「第1」、「第2」等は、異なる又は同一の対象を指す。以下、その他の明確及び暗黙的な定義を含むこともある。
上記のように、車両の高精度な位置決めは、自動運転を実現する基礎である。従来の位置決め技術では、全地球航法衛星システム(GNSS)の位置決めは、自動運転の精度要件を満たすことができない一方、高精度地図に基づく位置決め方式は、車両に高コストのレーザレーダを取り付ける必要があり、地図のサプライヤーが高精度地図をメンテナンスして高精度地図の正確性を確保する必要がある。
近年、通信技術の発達に伴い、V2X技術が急速な発展を遂げており、車両は、自体の位置を決定する時に路側装置によって決定された位置決め情報又は他の車両によって決定された位置決め情報を使用することにより、位置決め精度を向上させることができる。例えば、路側カメラによって撮像された車両の画像に基づいて道路上の車両を位置決めすることができる。従来では、路側カメラは、エッジ抽出などの画像処理アルゴリズムによってビデオ画像から車両の輪郭情報を抽出し、輪郭情報の画像における位置及び路側カメラの標定情報に基づいて車両の地理的位置を推定することができる。このような位置決め方式は、誤差が大きく、自動運転車両の精度要件を満たすことができない。
本発明の実施例によれば、センシング装置によって車両を位置決めする車両位置決め方法が提供される。車両位置決め方法においては、センシング装置は、車両に関する画像を取得し、画像から車両のエッジ情報を決定することができる。センシング装置は、さらに、目標車両に対応する輪郭モデルを取得し、輪郭モデルに関連付けられたエッジ情報集合から第1のエッジ情報にマッチングするエッジ情報を決定することができる。マッチングするエッジ情報は、センシング装置に対する輪郭モデルの位置に対応する。センシング装置は、輪郭モデルの位置に基づいて、車両の地理的位置を決定する。予め保存されたセンシング装置に対する車両輪郭モデルの座標と角度とを調整してビデオ画像における車両エッジ情報とマッチングさせるによって、センシング装置は、車両の位置及び角度をより正確に決定することができる。
以下に、図面を参照して本発明の実施例を具体的に説明する。
図1は、本発明の複数の実施例を実現することができる一例の環境100の概略図を示す。例示的な環境100では、道路102と、少なくとも一つのセンシング装置105−1,105−2,105−3,105−4と、少なくとも一つの車両110−1,110−2とを備える一部の典型的な物体が概略的に示されている。説明の便宜上、複数のセンシング装置105−1,105−2,105−3,105−4をまとめてセンシング装置105と呼び、複数の車両110−1,110−2をまとめて車両110と呼ぶ。示されたこれらの装置及び物体は単なる一例であり、実際の状況に応じて、異なる交通環境に存在する可能性のある物体は、変化することを理解されたい。本発明の範囲は、この点では限定されない。
図1の一例では、少なくとも一つの車両110−1,110−2が道路102を走行している。車両110は、人及び/又は物体を載せることができ、エンジンなどの動力システムによって移動することができる任意のタイプの車両であり、セダン、トラック、バス、電気自動車、オートバイ、モーターホーム及び列車などを含むが、これらに限定されない。環境100における少なくとも一つの車両110は、一定の自動運転能力を持っている車両であってもよく、このような車両は、無人運転車両とも呼ばれる。もちろん、環境100における他の一つ又は一部の車両110は、自動運転能力を持っていない車両であってもよい。
本実施例においては、環境100におけるセンシング装置105(例えば、センシング装置105−1,105−2)は、車両110から独立した路側装置であってもよく、環境100の状況を監視して環境100に関する感知情報を取得するために用いられる。本実施例においては、センシング装置105(例えば、センシング装置105−1)は、道路102の上方に配置することができる。本実施例においては、センシング装置105(例えば、センシング装置105−2)は、道路102の両側にも配置することができる。本実施例においては、センシング装置105(例えば、センシング装置105−3,105−4)は、車両110に取り付けられたセンシング装置であってもよい。本実施例では、センシング装置105は、環境100中の道路102及び車両110の画像情報を取得するイメージセンサを備える。本実施例においては、センシング装置は、レーザレーダ、ミリ波レーダなどの少なくとも一つの他のタイプのセンサをさらに備えていてもよい。
以下に、図2から図5を参照して本発明の実施例に係る車両位置決め方法を説明する。
説明の便宜上、本発明は、路側装置を一例として、センシング装置105を使用して車両110を位置決めする車両位置決め方法を説明する。本発明の車両位置決め方法に基づいて、車両に設けられたセンシング装置(例えば、センシング装置105−3,105−4)によって他の車両を位置決めすることも実現することができる。図2は、本発明の実施例に係る車両位置決め方法200のフローチャートを示す。車両位置決め方法200は、図1に示されるセンシング装置105によって実行することができる。
ブロック202において、センシング装置105は、センシング装置よって取得された車両に関する画像から車両のエッジ情報を決定する(説明の便宜上、以下、第1のエッジ情報と呼ぶ)。本実施例においては、車両110がセンシング装置105の近くの領域を通過する時、センシング装置105は、車両110に関する画像を取得することができる。例えば、図3Aは、本発明の実施例に係る位置決め対象車両110の一例の画像300を示す。
本実施例においては、センシング装置105は、周知のエッジ抽出アルゴリズム(例えば、Cannyエッジ検出アルゴリズム、機械学習目標分割アルゴリズムなど)で画像300から車両110のエッジを示す第1のエッジ情報を決定することができる。上記のエッジ抽出アルゴリズムは、単に例示するものであり、他の適切なエッジ抽出アルゴリズムを採用して車両110のエッジ情報を決定することも可能であることを理解されたい。
図3Bは、本発明の実施例に係る位置決め対象車両110のエッジ情報300を示す。本実施例においては、センシング装置105は、機械学習などの方法によって画像300から車両110の少なくとも一つの部材を決定することができ、これらの部材の一例は、車窓、サンルーフ、車灯及び吸気グリッドなどを含むが、これらに限定されない。センシング装置105は、上記のエッジ抽出アルゴリズムで少なくとも一つの部材の画像300におけるエッジを抽出することができる。図3Bに示されるように、図3Bには、車両110の画像300における抽出された車体エッジ302と、サンルーフエッジ304と、フロントウィンドウエッジ306と、車灯エッジ308と、吸気グリッドエッジ310とが示されている。これらの部材は、単に例示するものであり、センシング装置105は、車両110の他の部材の画像300におけるエッジ情報も抽出することができることを理解されたい。
ブロック204において、センシング装置105は、車両に対応する輪郭モデルを決定する。本実施例においては、センシング装置105は、画像300から車両110の識別情報を決定することができる。本実施例においては、識別情報は、車両110のナンバープレート情報を含むことができる。例えば、センシング装置105は、画像識別アルゴリズムによって画像300から車両110のナンバープレート情報を決定することができる。任意の適切な画像識別アルゴリズムを採用して車両110のナンバープレート情報を決定することができることを理解されたい。ここでは詳細に説明しない。
本実施例においては、識別情報は、車両110における他のタイプの識別情報であってもよく、バーコード情報及びRFID情報などを含むが、これらに限定されない。例えば、バーコード情報は、車両110のハウジングに印刷又は貼り付けられてもよく、又は、車両110は、RFIDタグを取り付けることができる。バーコードを識別するか、又はRFID情報を読み取ることによって、センシング装置105は、車両110のナンバープレート又は車両110の車両型番などの車両110の識別情報を決定することができる。
本実施例においては、センシング装置105は、識別情報に基づいて予め定義された輪郭モデル集合から車両110に対応する輪郭モデルを決定することができる。本実施例においては、センシング装置105に所定の輪郭モデル集合が記憶され、輪郭モデル集合は、異なるナンバープレート情報に対応する輪郭モデルを含むことができる。センシング装置は、車両110のナンバープレート情報に基づいて車両110に対応する輪郭モデルを決定することができる。
本実施例においては、輪郭モデル集合は、異なる車両型番に対応する輪郭モデルをさらに含むことができる。センシング装置105は、車両110のナンバープレート情報又はバーコード/RFIDなどの情報に基づいて車両110の車両型番を決定し、車両110の車両型番に基づいて輪郭モデルから車両110に対応する輪郭モデルを決定することができる。
本実施例においては、輪郭モデル集合は、センシング装置105から分離されたコンピューティング機器に記憶することができ、センシング装置105は、コンピューティング機器に車両110の識別情報又は識別情報に基づいて決定された車両110の車両型番を送信することにより、サーバに車両110に対応する輪郭モデルを要求することができる。コンピューティング機器は、要求を受信した後、車両110の識別情報又は車両型番に基づいて輪郭モデル集合から車両110に対応する輪郭モデルを決定し、輪郭モデルをセンシング装置105に送信することができる。
図4は、本発明の一実施例に係る車両輪郭モデル400の概略図を示す。図4に示される一例では、センシング装置105は、輪郭モデル集合から車両110に対応する輪郭モデル400を決定する。本実施例においては、輪郭モデル400は、例えば、車両110に対応する輪郭情報及び物理的サイズ情報を含むことができる。本実施例においては、輪郭モデル400は、車両110の異なる部材に関連付けられた輪郭情報を含むことができる。例えば、図4に示されるように、輪郭モデル400は、リアウィンドウ輪郭402と、サンルーフ輪郭404と、フロントウィンドウ輪郭406と、車灯輪郭408と、吸気グリッド輪郭410とを備えている。本実施例においては、輪郭モデル400は、輪郭モデルの中心を原点とする座標系(説明の便宜上、以下、第1の座標系と呼ぶ)における複数の線に変換することができ、これらの線は、第1の座標系における方程式で表すことができる。
引き続き図2を参照すると、ブロック206において、センシング装置105は、輪郭モデルに関連付けられたエッジ情報集合から第1のエッジ情報にマッチングするエッジ情報を決定し(説明の便宜上、以下、第2のエッジ情報と呼ぶ)、エッジ情報集合における各エッジ情報は、センシング装置105に対する輪郭モデルの異なる位置に対応する。
本実施例においては、センシング装置105は、センシング装置105に対する輪郭モデル400の初期位置をX=(x,y,z,α,β,γ)とすることができ、ここで、(x,y,z)は、輪郭モデル400の中心のセンシング装置105を原点とする座標系(説明の便宜上、以下、第2の座標系と呼ぶ)における座標を示し、(α,β,γ)は、第2の座標系に対する第1の座標のオイラー角を示し、これは、センシング装置105に対する輪郭モデル400のピッチ、ロール、及びヨー情報を表す。本実施例においては、車両110の画像300における中心に基づいてセンシング装置105に対する輪郭モデル300の初期位置を決定することができる。例えば、本実施例においては、センシング装置105は、自体の標定情報に基づいて車両110の画像300における中心の2次元座標を第2の座標系における位置に変換し、当該位置を輪郭モデル400の初期位置とすることができる。周知の座標変換方式を採用して車両110の画像300における中心の2次元座標を第2の座標系における位置に変換することができることを理解されたい。ここでは詳細に説明しない。
本実施例においては、センシング装置105は、決定されたセンシング装置105に対する輪郭モデル400の位置及び自体の標定情報に基づいて画像300の2次元座標系(説明の便宜上、以下、第3の座標系と呼ぶ)における、輪郭モデル400に対応するエッジ情報を決定することができる。例えば、図5は、本発明の一実施例に係る第2のエッジ情報を決定する概略図500を示す。図5に示されるように、フロントウィンドウ輪郭406を一例として、センシング装置105は、輪郭モデル400の位置に基づいて、フロントウィンドウ輪郭406の第3の座標系における対応する輪郭線502を決定することができる。具体的には、センシング装置105は、輪郭線502を構成する少なくとも一つの線分の第3の座標系における方程式も取得することができる。
本実施例においては、センシング装置105は、第1のエッジ情報によって示されるエッジ(説明の便宜上、以下、第1のエッジと呼ぶ)と第3の座標系に投影された輪郭モデル400のエッジ情報によって示されるエッジとの間の距離を決定することができる。図5に示されるように、引き続きフロントウィンドウ輪郭406を例とし、センシング装置105は、フロントウィンドウエッジ306とエッジ線502との画像300の座標における距離を決定することができる。本実施例においては、センシング装置105は、第1のエッジにおける複数の点を決定する。例えば、センシング装置105は、フロントウィンドウエッジ306から複数の点504,506をサンプリングし、複数の点504,506から輪郭線502までの距離をそれぞれ計算することができる。
本実施例においては、センシング装置105は、点504及び点506からの距離が最も近い線分を決定し、点504から線分までの最短距離を計算することができる。図5の点504を一例とし、点504の第3の座標系における座標は、(u0,v0)とすることができ、点504からの距離が最も近い線分は、線分508であり、その第3の座標系における方程式は、例えば、au+bv+1=0という方程式で表すことができ、ここで、u及びvは、第3の座標系の座標軸であり、a及びbは、線分508の第3の座標系における直線方程式係数である。点504から線分508までの距離Dは、以下の式(1)で表すことができる。
Figure 2020057387

車両110の輪郭モデル400の第1の座標系における位置は、既知であるので、直線方程式の係数a,bは、センシング装置105に対する輪郭モデル400の位置X=(x,y,z,α,β,γ)の関数で表すことができ、すなわち、係数a,bは、以下のように表すことができる。
a=f(x,y,z,α,β,γ) (2)
b=f(x,y,z,α,β,γ) (3)
この時、係数a,bの関数(2)及び関数(3)を式(1)に代入すると、D=F(x,y,z,α,β,γ)を得ることができる。同様の方式により、点506から輪郭線502までの距離が、点506から最も近い線分510までの距離であると決定することができ、同様に、位置X=(x,y,z,α,β,γ)の関数で表すことができる。
本実施例においては、センシング装置105は、エッジ情報によって示されたエッジにおける複数の点から輪郭線までの距離の合計を決定することができる。具体的には、図5の例では、フロントウィンドウエッジ306のみを考慮した場合には、フロントウィンドウエッジ306と輪郭線502との画像300の座標における距離は、複数の点504及び506から輪郭線502までの距離の合計Eとすることができる。よって、Eは、輪郭モデル400の第2の座標系における位置の関数、すなわち、以下の式(4)で表すことができる。
Figure 2020057387
ここで、iは、複数の点の番号を表す。距離の合計Eは、他の部材に対応するエッジ(例えば、車体エッジ302、サンルーフエッジ304、車灯エッジ308及び吸気グリッドエッジ310)における複数の点から対応する輪郭線までの距離の合計を含むことができることを理解されたい。
距離の合計Eが小さいほど、輪郭モデル400が、車両110の本当の位置に近いことを理解されたい。したがって、センシング装置105は、輪郭モデルに対応する第2のエッジ情報によって示される第2のエッジを、画像300における第1のエッジ情報300’によって示される第1のエッジとできる限り一致させる必要がある。
本実施例においては、センシング装置105は、輪郭モデル400の中心の第2の座標系における初期位置X=(x,y,z,α,β,γ)に基づいて反復的調整を開始することができる。具体的には、センシング装置105は、輪郭モデル400の第2の座標系における異なる位置に位置する場合に求められた距離の合計Eと所定の距離の閾値とを比較することができ、距離の合計Eが当該距離閾値より小さい場合、センシング装置105は、この場合の輪郭モデル400に対応する第2のエッジ情報を第1のエッジ情報とマッチングさせることができる。センシング装置105は、輪郭モデル400の第2の座標系における位置X1=(x1,y1,z1,α1,β1,γ1)を記録し、反復を停止することができる。
本実施例においては、センシング装置105は、さらに、ニュートン法に基づいて輪郭モデル400の第2の座標系における位置を調整することにより、第1のエッジ情報300’とマッチングする第2のエッジ情報を決定することができる。具体的には、センシング装置105は、反復のたびに以下の式(5)により、より良い位置を求める。
Figure 2020057387
ここで、
Figure 2020057387
は、次の反復で選択された位置を表し、
Figure 2020057387

は、調整前の現在の位置を表す。
センシング装置105は、以下の収束条件(すなわち、隣接して調整された位置間の距離は、所定の閾値よりも小さい)の式(6)を満たす時に反復を終了することができる。
Figure 2020057387
ニュートン法に基づいて、センシング装置105は、収束条件が満たされる時の輪郭モデル400の第2の座標系における位置を決定することができる。例えば、位置は、X1=(x1,y1,z1,α1,β1,γ1)で表すことができる。
上記の方法によって、センシング装置105は、エッジ情報集合によって示される複数のエッジから、複数の点との距離の合計が所定の閾値よりも小さい第2のエッジを決定し、エッジ情報集合から第2のエッジを示す第2のエッジ情報を選択することができる。上記の方法が単に例示するものであり、任意の他の適切な方法を採用して、距離の合計が最小である位置を求めてもよいことを理解されたい。
引き続き図2を参照すると、ブロック208において、センシング装置105は、第2のエッジ情報に対応する位置に基づいて、センシング装置に対する車両110の位置を決定する。上述したように、センシング装置105は、輪郭モデル400の第2の座標系における位置を、センシング装置105に対する車両110の位置として出力することができる。
本実施例においては、第1のエッジ情報300’とマッチングする第2のエッジ情報が決定された後、センシング装置105は、第2のエッジ情報に対応する輪郭モデル400の第2の座標系における位置を決定することができる。例えば、X1=(x1,y1,z1,α1,β1,γ1)である。本実施例においては、センシング装置105は、自体の標定情報に基づいて第2の座標系から世界座標系への変換行列を取得することができる。センシング装置105は、変換行列に基づいて、センシング装置105に対する車両110の位置、すなわち、輪郭モデル400の第2の座標系における位置X1=(x1,y1,z1,α1,β1,γ1)に対して座標系の変換を行って、世界座標系における地理的位置X2=(x2,y2,z2,α2,β2,γ2)を取得することができ、地理的位置は、車両110の世界座標系における3次元座標及びオイラー角を含むことができる。
このような位置決め方式に基づいて、センシング装置は、2次元画像における車両の大まかな領域を簡単に考慮するのではなく、車両の正確な輪郭モデルを利用して、輪郭モデルを2次元画像に投影して、投影された線が2次元画像における車両のエッジとできる限りマッチングするようにすることにより、車両の地理的位置がより正確に決定される。
本実施例においては、センシング装置105は、さらに、車両110の地理的位置を前記車両110に送信することができる。本実施例においては、例えば、車両110は、地理的位置情報を受信し、車両110の自己位置決め情報と融合することにより、より正確な位置決めを取得することができる。本実施例においては、車両110は、直接に、取得した地理的位置情報に基づいて車両110の走行を制御することもできる。
本実施例においては、センシング装置105は、センシング装置105に対する車両110の位置を車両110に送信することもできる。車両110は、相対的位置情報及びセンシング装置105の位置に基づいて車両110の世界座標系における地理的位置を決定することができる。
図6は、本発明の実施例に係る車両位置決め装置500のブロック図を示す。装置600は、図1のセンシング装置105に備えられていてもよく、又はセンシング装置105として実現されてもよい。図6に示されるように、装置600は、センシング装置によって取得された車両に関する画像から車両の第1のエッジ情報を決定する第1のエッジ情報決定モジュール602を備える。装置600は、車両に対応する輪郭モデルを決定する輪郭モデル決定モジュール604をさらに備える。装置600は、輪郭モデルに関連付けられたエッジ情報集合から第1のエッジ情報にマッチングする第2のエッジ情報を決定する第2のエッジ情報決定モジュール606を備え、エッジ情報集合における各エッジ情報は、センシング装置に対する輪郭モデルの異なる位置に対応する。装置600は、第2のエッジ情報に対応する位置に基づいて、センシング装置に対する車両の位置を決定する地理的位置決定モジュール608をさらに備える。
本実施例においては、第1のエッジ情報決定モジュール602は、画像から車両の少なくとも一つの部材を決定する部材配置モジュールと、少なくとも一つの部材のエッジを抽出するエッジ抽出モジュールとをさらに備えることができる。
本実施例においては、輪郭モデル決定モジュール604は、画像から車両の識別情報を決定するように構成される識別情報決定モジュールと、識別情報に基づいて、予め定義された輪郭モデル集合から車両に対応する輪郭モデルを決定する第1の輪郭モデル決定モジュールとをさらに備えることができる。
本実施例においては、識別情報は、車両のナンバープレート情報を含む。
本実施例においては、第2のエッジ情報決定モジュール606は、第1のエッジ情報によって示される第1のエッジにおける複数の点を決定する点決定モジュールと、エッジ情報集合によって示される複数のエッジから第2のエッジを決定する第2のエッジ決定モジュールを備え、第2のエッジと複数の点との距離の合計は、所定の閾値よりも小さい。また、第2のエッジ情報決定モジュール606は、エッジ情報集合から第2のエッジを示す第2のエッジ情報を選択する第2のエッジ情報選択モジュールをさらに備えている。
本実施例においては、位置決定モジュール608は、センシング装置を原点とする路側座標系における車両の座標及びオイラー角を取得する座標及びオイラー角取得モジュールを備えることができる。
本実施例においては、装置600は、センシング装置を原点とする路側座標系から世界座標系への変換行列を取得する変換行列取得モジュールと、変換行列に基づいてセンシング装置に対する車両の位置を車両の地理的位置に変換する地理的位置変換モジュールと、をさらに備えることができる。
本実施例においては、装置600は、車両に地理的位置を送信する送信モジュールをさらに備えることができる。
図7は、本発明の実施例を実現することができる一例の機器700の概略ブロック図を示す。機器700は、図1のセンシング装置105を実現するためのものであってもよい。図に示されるように、機器700は、読み出し専用メモリ(ROM)702に記憶されているコンピュータプログラム命令、又は記憶ユニット708からランダムアクセスメモリ(RAM)703にロードされたコンピュータプログラム命令に基づいて、各種の適切な動作と処理を実行することができる計算ユニット701を備える。RAM703には、機器700の操作に必要な各種のプログラム及びデータがさらに記憶されてもよい。計算ユニット701と、ROM702と、RAM703とは、バス704を介して互いに接続されている。入力/出力(I/O)インタフェース705もバス704に接続されている。
キーボード、マウスなどの入力ユニット706と、各種のディスプレイ、スピーカなどの出力ユニット707と、磁気ディスク、光学ディスクなどの記憶ユニット708と、ネットワークカード、モデム、無線通信トランシーバなどの通信ユニット709とを備える機器700内の複数の構成要素は、I/Oインタフェース705に接続されている。通信ユニット709は、機器700がインターネットなどのコンピュータネットワークおよび/または様々な電気通信ネットワークを介して他の機器と情報/データを交換することを許可する。
計算ユニット701は、処理および計算能力を有する様々な汎用および/または特殊用途の処理構成要素とすることができる。計算ユニット701のいくつかの一例は、中央処理装置(CPU)、グラフィック処理装置(GPU)、様々な専用人工知能(AI)計算チップ、機械学習モデルアルゴリズムを実行する様々な計算装置、デジタル信号処理(DSP)、および任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット701は、車両位置決め方法200など、上述した様々な方法および処理を実行する。例えば、いくつかの実施例では、車両位置決め方法200は、記憶装置708などの機械読み取り可能な媒体に有形に含まれているコンピュータソフトウェアプログラムとして実現することができる。いくつかの実施例において、コンピュータプログラムの一部または全部は、ROM702および/または通信ユニット709を介して機器700にロードおよび/またはインストールすることができる。コンピュータプログラムがRAM703にロードされ、計算ユニット701によって実行されるとき、上述した車両位置決め方法200の少なくとも一つのステップを実行することができる。代替的に、他の実施例では、計算ユニット701は、他の任意の適切な形態によって(例えば、ファームウェアによって)車両位置決め方法200を実行するように構成することができる。
本明細書で上述した機能は、少なくとも部分的に、少なくとも一つのハードウェア論理構成要素によって実行することができる。例えば、使用することができる例示的なタイプのハードウェアロジックコンポーネントは、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップシステム(SOC)、ロードプログラマブルロジックデバイス(CPLD)などを含むがこれらに限定されない。
本発明の車両位置決め方法を実施するためのプログラムコードは、少なくとも一つのプログラミング言語の任意の組み合わせで作成することができる。プログラムコードは、汎用コンピュータ、専用コンピュータ、または他のプログラマブルデータ処理装置のプロセッサまたはコントローラに提供されてもよく、その結果、プログラムコードがプロセッサまたはコントローラによって実行されるとき、フローチャートおよび/またはブロック図において特定される機能および/または操作が実施される。プログラムコードは、全てマシン上で、部分的にマシン上で、スタンドアロンソフトウェアパッケージの一部として、そして部分的にリモートマシン上、または全部でリモートマシンまたはサーバ上で実行することができる。
本発明では、機械読み取り可能な媒体は、命令実行システム、装置、または機器によって使用されるまたは命令実行システム、装置、またはデバイスと合わせて使用されるプログラムを含むまたは格納することができる有形の媒体であってもよい。機械読み取り可能な媒体は、機械読み取り可能な信号媒体または機械読み取り可能な記憶媒体であってもよい。機械読み取り可能な媒体は、電子、磁気、光学、電磁気、赤外線、半導体のシステム、装置またはデバイス、またはこれらの任意の適切な組み合わせを含んでもよいが、それらに限定されない。機械読み取り可能な記憶媒体のより具体的な一例は、少なくとも一つのラインに基づく電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み出し専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み出し専用メモリ(CD−ROM)、光学記憶装置、磁気記憶装置、またはこれらの任意の適切な組み合わせを含んでもよい。
また、動作を特定の順序で説明したが、これは、そのような動作が示された特定の順序または順番で実行されること、または所望の結果を達成するために示されたすべての動作が実行されることを要求することを理解されたい。一定の環境においてマルチタスキングおよび並列処理は有利な場合がある。同様に、いくつかの具体的な実装の詳細が上記の説明に含まれているが、これらは本発明の範囲を限定するものとして解釈されるべきではない。別々の実施例で説明されているいくつかの特徴は、単一の実施例において組み合わせて実現することもできる。逆に、単一の実施例で説明されている様々な特徴は、個別にまたは任意の適切なサブ組み合わせで複数の実施例で実現することができる。
本テーマは構造的特徴および/または方法論的動作に特有の言語で説明したが、添付の特許請求の範囲に定義されたテーマは説明された上記の特定の特徴または動作に限定されないことを理解されたい。逆に、上記の特定の特徴および動作は単に特許請求の範囲を実現する例示的な形態である。

Claims (18)

  1. センシング装置によって取得された車両に関する画像から前記車両の第1のエッジ情報を決定するステップと、
    前記車両に対応する輪郭モデルを決定するステップと、
    前記輪郭モデルに関連付けられたエッジ情報集合から前記第1のエッジ情報にマッチングする第2のエッジ情報を決定するステップと、
    前記第2のエッジ情報に対応する位置に基づいて、前記センシング装置に対する前記車両の位置を決定するステップとを含み、
    前記エッジ情報集合における各前記エッジ情報は、前記センシング装置に対する前記輪郭モデルの異なる位置に対応する車両位置決め方法。
  2. 前記第1のエッジ情報を決定するステップは、
    前記画像から前記車両の少なくとも一つの部材を決定するステップと、
    少なくとも一つの前記部材のエッジを抽出するステップとを含む請求項1に記載の車両位置決め方法。
  3. 前記輪郭モデルを決定するステップは、
    前記画像から前記車両の識別情報を決定するステップと、
    前記識別情報に基づいて、予め定義された輪郭モデル集合から前記車両に対応する前記輪郭モデルを決定するステップとを含む請求項1に記載の車両位置決め方法。
  4. 前記識別情報は、前記車両のナンバープレート情報を含む請求項3に記載の車両位置決め方法。
  5. 前記エッジ情報集合から前記第1のエッジ情報にマッチングする前記第2のエッジ情報を決定するステップは、
    前記第1のエッジ情報によって示される第1のエッジにおける複数の点を決定するステップと、
    前記エッジ情報集合によって示される複数のエッジから第2のエッジを決定するステップと、
    前記エッジ情報集合から前記第2のエッジを示す第2のエッジ情報を選択するステップとを含み、
    前記第2のエッジと前記複数の点との距離の合計が所定の閾値よりも小さい請求項1に記載の車両位置決め方法。
  6. 前記センシング装置に対する前記車両の前記位置を決定するステップは、
    前記センシング装置を原点とする路側座標系における前記車両の座標及びオイラー角を決定するステップをさらに含む請求項1に記載の車両位置決め方法。
  7. 前記センシング装置を原点とする路側座標系から世界座標系への変換行列を取得するステップと、
    前記変換行列に基づいて、前記センシング装置に対する前記車両の前記位置を前記車両の地理的位置に変換するステップとをさらに含む請求項1に記載の車両位置決め方法。
  8. 前記車両に前記地理的位置を送信するステップをさらに含む請求項7に記載の車両位置決め方法。
  9. センシング装置によって取得された車両に関する画像から前記車両の第1のエッジ情報を決定する第1のエッジ情報決定モジュールと、
    前記車両に対応する輪郭モデルを決定する輪郭モデル決定モジュールと、
    前記輪郭モデルに関連付けられたエッジ情報集合から前記第1のエッジ情報にマッチングする第2のエッジ情報を決定する第2のエッジ情報決定モジュールと、
    前記第2のエッジ情報に対応する位置に基づいて、前記センシング装置に対する前記車両の位置を決定する位置決定モジュールとを備え、
    前記エッジ情報集合における各エッジ情報は、前記センシング装置に対する前記輪郭モデルの異なる位置に対応する車両位置決め装置。
  10. 前記第1のエッジ情報決定モジュールは、
    前記画像から前記車両の少なくとも一つの部材を決定する部材配置モジュールと、
    少なくとも一つの前記部材のエッジを抽出するエッジ抽出モジュールとを備える請求項9に記載の車両位置決め装置。
  11. 前記輪郭モデル決定モジュールは、
    前記画像から前記車両の識別情報を決定する識別情報決定モジュールと、
    前記識別情報に基づいて、予め定義された輪郭モデル集合から前記車両に対応する前記輪郭モデルを決定する第1の輪郭モデル決定モジュールとを備える請求項9に記載の車両位置決め装置。
  12. 前記識別情報は、前記車両のナンバープレート情報を含む請求項11に記載の車両位置決め装置。
  13. 前記第2のエッジ情報決定モジュールは、
    前記第1のエッジ情報によって示される第1のエッジにおける複数の点を決定する点決定モジュールと、
    前記エッジ情報集合によって示される複数のエッジから第2のエッジを決定する第2のエッジ決定モジュールと、
    前記エッジ情報集合から前記第2のエッジを示す第2のエッジ情報を選択する第2のエッジ情報選択モジュールとを備え、
    前記第2のエッジと前記複数の点との距離の合計が所定の閾値よりも小さい請求項9に記載の車両位置決め装置。
  14. 前記位置決定モジュールは、
    前記センシング装置を原点とする路側座標系における前記車両の座標及びオイラー角を決定する座標及びオイラー角取得モジュールを備える請求項9に記載の車両位置決め装置。
  15. 前記センシング装置を原点とする路側座標系から世界座標系への変換行列を取得する変換行列取得モジュールと、
    前記変換行列に基づいて前記センシング装置に対する前記車両の位置を前記車両の地理的位置に変換する地理的位置変換モジュールとをさらに備える請求項9に記載の車両位置決め装置。
  16. 前記車両に前記地理的位置を送信する送信モジュールをさらに備える請求項15に記載の車両位置決め装置。
  17. 少なくとも一つのプロセッサと、
    少なくとも一つのプログラムを記憶するメモリとを備える電子機器であって、
    少なくとも一つの前記プログラムが少なくとも一つの前記プロセッサによって実行される場合に、請求項1から請求項8のいずれかに記載の車両位置決め方法を実現する電子機器。
  18. コンピュータプログラムが記憶されているコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行される場合に、請求項1から請求項8のいずれかに記載の車両位置決め方法が実現されるコンピュータ読み取り可能な記憶媒体。
JP2019177450A 2018-09-29 2019-09-27 車両位置決め方法、車両位置決め装置、電子機器及びコンピュータ読み取り可能な記憶媒体 Active JP6857697B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811151044.9 2018-09-29
CN201811151044.9A CN110969055B (zh) 2018-09-29 2018-09-29 用于车辆定位的方法、装置、设备和计算机可读存储介质

Publications (2)

Publication Number Publication Date
JP2020057387A true JP2020057387A (ja) 2020-04-09
JP6857697B2 JP6857697B2 (ja) 2021-04-14

Family

ID=67777142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019177450A Active JP6857697B2 (ja) 2018-09-29 2019-09-27 車両位置決め方法、車両位置決め装置、電子機器及びコンピュータ読み取り可能な記憶媒体

Country Status (4)

Country Link
US (1) US11144770B2 (ja)
EP (1) EP3637308A1 (ja)
JP (1) JP6857697B2 (ja)
CN (1) CN110969055B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220156924A1 (en) * 2019-03-29 2022-05-19 Howmedica Osteonics Corp. Pre-morbid characterization of anatomical object using statistical shape modeling (ssm)
CN111833717B (zh) * 2020-07-20 2022-04-15 阿波罗智联(北京)科技有限公司 用于定位交通工具的方法、装置、设备和存储介质
CN112697066A (zh) * 2020-12-02 2021-04-23 王刚 车辆部件定位方法、装置及计算机存储介质
CN112598756B (zh) * 2021-03-03 2021-05-25 中智行科技有限公司 路边传感器标定方法、装置和电子设备
CN114119760B (zh) * 2022-01-28 2022-06-14 杭州宏景智驾科技有限公司 机动车定位方法和装置、电子设备和存储介质
CN114943769B (zh) * 2022-07-26 2023-01-13 广州镭晨智能装备科技有限公司 一种定位方法、装置、电子设备及介质
CN115965688B (zh) * 2022-12-14 2024-02-02 重庆赛迪奇智人工智能科技有限公司 一种定位方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070127779A1 (en) * 2005-12-07 2007-06-07 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP2008046947A (ja) * 2006-08-18 2008-02-28 Alpine Electronics Inc 周辺監視システム
JP2008052517A (ja) * 2006-08-24 2008-03-06 Koito Ind Ltd 交通量計測方法および交通量計測装置
WO2013088626A1 (ja) * 2011-12-13 2013-06-20 日本電気株式会社 座標変換テーブル作成システム及び、座標変換テーブル作成方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9140792B2 (en) * 2011-06-01 2015-09-22 GM Global Technology Operations LLC System and method for sensor based environmental model construction
US9025825B2 (en) * 2013-05-10 2015-05-05 Palo Alto Research Center Incorporated System and method for visual motion based object segmentation and tracking
JP6190758B2 (ja) * 2014-05-21 2017-08-30 本田技研工業株式会社 物体認識装置及び車両
JP6606858B2 (ja) * 2015-05-12 2019-11-20 沖電気工業株式会社 物体検出装置および物体検出方法
US10007849B2 (en) * 2015-05-29 2018-06-26 Accenture Global Solutions Limited Predicting external events from digital video content
CN105301621B (zh) * 2015-10-19 2018-07-03 北京星网宇达科技股份有限公司 一种车辆定位装置及一种智能驾考系统
CN105783936B (zh) * 2016-03-08 2019-09-24 武汉中海庭数据技术有限公司 用于自动驾驶中的道路标识制图及车辆定位方法及系统
US20190147255A1 (en) * 2017-11-15 2019-05-16 Uber Technologies, Inc. Systems and Methods for Generating Sparse Geographic Data for Autonomous Vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070127779A1 (en) * 2005-12-07 2007-06-07 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP2008046947A (ja) * 2006-08-18 2008-02-28 Alpine Electronics Inc 周辺監視システム
JP2008052517A (ja) * 2006-08-24 2008-03-06 Koito Ind Ltd 交通量計測方法および交通量計測装置
WO2013088626A1 (ja) * 2011-12-13 2013-06-20 日本電気株式会社 座標変換テーブル作成システム及び、座標変換テーブル作成方法

Also Published As

Publication number Publication date
US11144770B2 (en) 2021-10-12
US20200104614A1 (en) 2020-04-02
EP3637308A1 (en) 2020-04-15
CN110969055B (zh) 2023-12-19
CN110969055A (zh) 2020-04-07
JP6857697B2 (ja) 2021-04-14

Similar Documents

Publication Publication Date Title
JP6857697B2 (ja) 車両位置決め方法、車両位置決め装置、電子機器及びコンピュータ読み取り可能な記憶媒体
CN110163930B (zh) 车道线生成方法、装置、设备、系统及可读存储介质
US20210058608A1 (en) Method and apparatus for generating three-dimensional (3d) road model
CN109658504B (zh) 地图数据标注方法、装置、设备及存储介质
EP3627180A1 (en) Sensor calibration method and device, computer device, medium, and vehicle
JP6595182B2 (ja) マッピング、位置特定、及び姿勢補正のためのシステム及び方法
EP3627181A1 (en) Multi-sensor calibration method, multi-sensor calibration device, computer device, medium and vehicle
JP2019179021A (ja) 地図生成及び移動主体の位置決めの方法及び装置
CN110386142A (zh) 用于自动驾驶车辆的俯仰角校准方法
JP2021120844A (ja) 車両の位置特定に用いられる方法、装置、電子デバイス及び記憶媒体
CN111461981B (zh) 点云拼接算法的误差估计方法和装置
US11227395B2 (en) Method and apparatus for determining motion vector field, device, storage medium and vehicle
CN111353453B (zh) 用于车辆的障碍物检测方法和装置
CN112883058A (zh) 用于车辆定位的标定方法、装置、设备、车辆和介质
CN112781893B (zh) 一种车载传感器性能测试数据的空间同步方法、装置及存储介质
CN114255274A (zh) 基于二维码识别的车辆定位方法、系统、设备及存储介质
WO2024051344A1 (zh) 一种地图创建方法及装置
CN116486377B (zh) 可行驶区域的生成方法及装置
CN112097742B (zh) 一种位姿确定方法及装置
CN114830185A (zh) 借助于神经网络的位置确定
CN111337010B (zh) 可移动设备的定位方法、定位装置及电子设备
EP3631362A1 (en) Method and apparatus for constructing an environment model
US20220277480A1 (en) Position estimation device, vehicle, position estimation method and position estimation program
CN107545760B (zh) 提供在定位地点处定位车辆的定位信息的方法和通过另一车辆提供定位车辆的信息的方法
WO2022041971A1 (zh) 定位可靠性检测方法及相关设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210322

R150 Certificate of patent or registration of utility model

Ref document number: 6857697

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250