JP7289470B2 - 三次元空間に対応するマップを生成する車両、及びその方法 - Google Patents

三次元空間に対応するマップを生成する車両、及びその方法 Download PDF

Info

Publication number
JP7289470B2
JP7289470B2 JP2022510833A JP2022510833A JP7289470B2 JP 7289470 B2 JP7289470 B2 JP 7289470B2 JP 2022510833 A JP2022510833 A JP 2022510833A JP 2022510833 A JP2022510833 A JP 2022510833A JP 7289470 B2 JP7289470 B2 JP 7289470B2
Authority
JP
Japan
Prior art keywords
frame
map database
current frame
map
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022510833A
Other languages
English (en)
Other versions
JP2022545213A (ja
Inventor
ジェ イル パク,
ハン ビン イ,
ドン ハ チョン,
ホン ミン チュオン,
Original Assignee
ソウル ロボティクス カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソウル ロボティクス カンパニー リミテッド filed Critical ソウル ロボティクス カンパニー リミテッド
Publication of JP2022545213A publication Critical patent/JP2022545213A/ja
Application granted granted Critical
Publication of JP7289470B2 publication Critical patent/JP7289470B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/207Analysis of motion for motion estimation over a hierarchy of resolutions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Description

本発明は、三次元空間に対応するマップを生成する車両、及びその方法に関する。
自律走行車、ドローン、ロボットなどが安全であって正確に制御されるためには、それらの動作を制御するのに十分なデータの収集が重要である。例えば、三次元空間を感知する代表的なセンサであるライダー(LiDAR)センサを利用し、点群形態のデータ、すなわち、ポイントクラウドの情報量を十分に獲得することができなければ、自律走行車、ドローン、ロボットなどの動作制御に困難を伴ってしまう。それを解決するために、高解像度マップを事前に設け、自律走行車、ドローン、及びロボットなどに搭載する方案を考慮することができるが、膨大な量のデータを保存するリソース問題、及びリアルタイムで変化する状況を反映させるために、高解像度マップの持続的なアップデートを行わなければならないという問題がある。
本発明が解決しようとする課題は、所定個数のフレームに維持されながら、最新フレームの空間情報がアップデートされるマップデータベースに基づき、三次元空間に対応するマップを生成する車両、及びその方法、並びにコンピュータ可読記録媒体に保存されたコンピュータプログラムを提供することである。
第1側面による車両は、少なくとも1つのセンサを利用し、三次元空間を感知し、複数フレームの空間情報を出力するセンサ部と、コンピュータ実行可能命令語(computer executable instruction)を保存するメモリと、前記コンピュータ実行可能命令語を実行することにより、複数のフレームに基づく客体動きモデルを利用し、現在フレームに対応する客体の位置を予測し、前記予測された客体の位置に基づき、前記現在フレームに含まれた客体を除去し、前記客体が除去された現在フレームで、所定個数の以前フレームで構成されるマップデータベースをアップデートし、前記アップデートされたマップデータベースに基づき、前記三次元空間に対応するマップを生成するプロセッサと、を含むものであってもよい。
第2側面による複数フレームの空間情報を利用してマップを生成する方法は、複数のフレームに基づく客体動きモデルを利用し、現在フレームに対応する客体の位置を予測する段階と、前記予測された客体の位置に基づき、前記現在フレームに含まれた客体を除去する段階と、前記客体が除去された現在フレームで、所定個数の以前フレームで構成されるマップデータベースをアップデートする段階と、前記アップデートされたマップデータベースに基づき、三次元空間に対応するマップを生成する段階と、を含むものであってもよい。
第3側面によるコンピュータ可読記録媒体に保存されたコンピュータプログラムは、電子動力装置において、複数のフレームに基づく客体動きモデルを利用し、現在フレームに対応する客体の位置を予測する段階と、前記予測された客体の位置に基づき、前記現在フレームに含まれた客体を除去する段階と、前記客体が除去された現在フレームで、所定個数の以前フレームで構成されるマップデータベースをアップデートする段階と、前記アップデートされたマップデータベースに基づき、三次元空間に対応するマップを生成する段階と、を含む複数フレームの空間情報を利用してマップを生成する方法を遂行することができる。
一実施形態による車両の構成を示したブロック図である。 複数フレームの空間情報を利用してマップを生成するためのマップデータベースをアップデートする過程について説明するための図である。 所定個数のフレームで構成されるマップデータベースをアップデートするとき、マップデータベースで最も先に保存されたフレームを除去する例について説明するための図面である。 所定個数のフレームで構成されるマップデータベースをアップデートするとき、マップデータベースで最も後に保存されたフレームを除去する例について説明するための図面である。 三次元空間に対応するマップを生成する方法について説明するためのフローチャートである。 マップデータベースをアップデートする過程について説明するための詳細フローチャートである。 マップデータベースから、1つのフレームを除去した後、現在フレームを追加する過程について説明するための詳細フローチャートである。 1つのフレームの空間情報を利用してマップを生成した場合を示した図面である。 所定個数のフレームで構成されるマップデータベースを利用してマップを生成した場合を示した図面である。
第1側面による車両は、少なくとも1つのセンサを利用し、三次元空間を感知し、複数フレームの空間情報を出力するセンサ部と、コンピュータ実行可能命令語(computer executable instruction)を保存するメモリと、前記コンピュータ実行可能命令語を実行することにより、複数のフレームに基づく客体動きモデルを利用し、現在フレームに対応する客体の位置を予測し、前記予測された客体の位置に基づき、前記現在フレームに含まれた客体を除去し、前記客体が除去された現在フレームで、所定個数の以前フレームで構成されるマップデータベースをアップデートし、前記アップデートされたマップデータベースに基づき、前記三次元空間に対応するマップを生成するプロセッサと、を含むものであってもよい。
以下においては、図面を参照し、多様な実施形態について詳細に説明する。以下において説明される実施形態は、さまざまに異なる形態に変形されても実施される。本実施形態の特徴についてさらに明確に説明するために、以下の実施形態が属する技術分野において当業者に周知されている事項については、詳細な説明は、省略する。
本実施形態は、三次元空間に対応するマップを生成する車両、及びその方法、並びにコンピュータ可読記録媒体に保存されたコンピュータプログラムに係わるものであり、以下の実施形態が属する技術分野において当業者に周知されている事項については、詳細な説明を省略する。
図1は、一実施形態による車両100の構成を示したブロック図である。
車両100は、道路上や線路上を走る車、列車のような走行手段になってもよい。ただし、道路上や線路上ではない空中を運行するときは、ドローン、飛行機のような飛行手段、あるいはまたは海上を運航するときは、ボート、船のような船舶手段を代表する名称であり、その意味が拡張され、広義の意味では、ロボットのような電子動力装置であり、その名称を異にすることにもなる。以下では、説明の便宜上、車両100という名称で記載され、自律走行車の場合を例として挙げて説明する。
車両100は、走行のために、センサを利用し、周辺の三次元空間に係わる空間情報を直接獲得することができる。車両100は、走行方向に対応するさらに広い空間に係わる空間情報を事前に獲得するために、直接獲得することができていない空間情報を、外部から受信することができる。例えば、車両100は、周辺の他車から、それぞれが獲得した空間情報を伝達されうる。以下、車両100の走行を制御するために、車両100で獲得された空間情報を利用し、三次元空間に対応するマップを生成する方式につき、詳細に説明する。
図1を参照すれば、一実施形態による車両100は、メモリ110、プロセッサ120、通信インターフェース装置130、センサ部140、ユーザインターフェース装置150を含むものであってもよい。本実施形態と係わる技術分野で当業者であるならば、図1に図示された構成要素以外に、他の汎用的な構成要素がさらに含まれてもよいということを理解することができるであろう。
メモリ110は、ソフトウェア及び/またはプログラムを保存することができる。例えば、メモリ110は、アプリケーション、アプリケーションプログラミングインターフェース(API)のようなプログラム、及び多様な種類のデータを保存することができる。メモリ110は、プロセッサ120によって実行可能な命令語を保存することができる。
プロセッサ120は、メモリ110に保存されたデータにアクセスしてそれを利用するか、あるいは新たなデータをメモリ110に保存することができる。プロセッサ120は、メモリ110に保存された命令語を実行することができる。プロセッサ120は、車両100にインストールされたコンピュータプログラムを実行することができる。また、プロセッサ120は、外部から受信したコンピュータプログラムまたはアプリケーションを、メモリ110にインストールすることもできる。プロセッサ120は、少なくとも1つのプロセッシングモジュールを含むものであってもよい。該プロセッシングモジュールは、所定のプログラムを実行するための専用プロセッシングモジュールであってもよい。例えば、プロセッサ120は、ADAS(advanced driver-assistance system)のように、自律走行のための車両制御プログラムを実行する多様な種類のプロセッシングモジュールや、三次元空間追跡プログラムを実行するプロセッシングモジュールを、それぞれ別途の専用チップ形態で含んでもよい。プロセッサ120は、命令語またはコンピュータプログラムなどの実行結果に対応する動作を遂行するように、車両100に含まれた他の構成を制御することができる。
通信インターフェース装置130は、他の装置、またはネットワークと無線通信を行うことができる。そのために、通信インターフェース装置130は、多様な無線通信方法のうち少なくとも一つを支援する通信モジュールを含んでもよい。例えば、Wi-Fi(wireless fidelity)のような近距離通信、3G(generation)・4G・5Gのような多様な種類の移動通信、または超広帯域通信を行う通信モジュールが含まれうる。通信インターフェース装置130は、車両100の外部に位置した装置と連結され、信号またはデータを送受信することができる。車両100は、通信インターフェース装置130を介し、他車両と通信を行ったり、車両100が位置する区域を管理するサーバと連結されたりしてもよい。
センサ部140は、三次元空間を感知するための少なくとも1つのセンサを含むものであってもよい。センサ部140は、感知範囲内に位置した客体を感知することができ、感知された客体の三次元空間上の座標を生成することができるデータを獲得することができる。センサ部140は、感知範囲内に位置した客体に係わる形状データまたは距離データを獲得することができる。センサ部140は、ライダー(LiDAR)センサ、レーダセンサ、カメラセンサ、赤外線映像センサ、超音波センサのような多様な種類のセンサのうち少なくとも一つを含んでもよい。
三次元空間に係わる空間情報を獲得するために、各種類のセンサが有している感知範囲や、獲得することができるデータの種類などを考慮し、同種のセンサを複数個利用したり、異種のセンサを組み合わせて利用したりすることができる。例えば、センサ部140は、少なくとも1つの三次元ライダーセンサを含み、360°範囲の空間に係わるデータを獲得し、レーダセンサ及び超音波センサのうち少なくとも一つをさらに含み、三次元ライダーセンサが感知することができない死角領域、または車両100から所定距離内の近接空間に係わるデータを獲得することができる。
ユーザインターフェース装置150は、ユーザから、ユーザ入力などを受信することができる。ユーザインターフェース装置150は、車両100におけるコンピュータプログラムの実行結果、ユーザ入力に対応する処理結果、車両100の状態などの情報をディスプレイすることができる。ユーザインターフェース装置150は、入力を受信したり、出力を提供したりするためのハードウェアユニットを含み、それらを駆動するための専用ソフトウェアモジュールを含むものであってもよい。例えば、ユーザインターフェース装置150は、タッチスクリーンになってもよいが、それに限定されるものではない。
図1に図示されていないが、車両100は、GPS(global positioning system)、IMU(inertial measurement unit)のような自律走行に要求される構成をさらに含んでもよい。該GPSは、GPS衛星から送られる信号を受信し、車両100の現在位置を計算する衛星航法システムである。該IMUは、車両100の速度、方向、重力、加速度を測定する装置である。プロセッサ120は、該GPSと該IMUとを利用し、車両100の移動及び姿勢に係わる情報を獲得することができる。プロセッサ120は、車両100に具備された他のセンサやメモリから、車両100制御に係わるそれ以外の情報を獲得することもできる。
前述の車両100の構成要素の名称は、異なってもよく、車両100は、前述の構成要素のうち少なくとも一つを含んで構成されてもよく、一部構成要素は、省略されるか、あるいはさらなる他の構成要素をさらに含んでもよい。
車両100は、最新の情報が反映されたマップを、車両100の走行に利用される部分ほど、リアルタイムで確保すれば、走行を行うことができる。以下、車両100が、所定個数のフレームに維持されながら、最新フレームの空間情報がアップデートされるマップデータベースに基づき、三次元空間に対応するマップを生成する方式について詳細に説明する。
プロセッサ120は、コンピュータ実行可能命令語を実行することにより、複数のフレームに基づく客体動きモデルを利用し、現在フレームに対応する客体の位置を予測することができる。現在フレームは、プロセッサ120がリアルタイムで獲得するフレームであり、プロセッサ120に連続して入力される複数フレームのうち、最も最新の空間情報を含んでいるフレームでもある。プロセッサ120は、コンピュータ実行可能命令語を実行することにより、現在フレームの直前フレームまで反映された客体動きモデルに、現在フレームと直前フレームとの時間差を適用し、客体の動きを推定することにより、現在フレームに対応する客体の位置を予測することができる。
プロセッサ120は、コンピュータ実行可能命令語を実行することにより、予測された現在フレームに対応する客体の位置に基づき、現在フレームに含まれた客体を除去することができる。
プロセッサ120は、コンピュータ実行可能命令語を実行することにより、客体が除去された現在フレームで、所定個数の以前フレームで構成されるマップデータベースをアップデートすることができる。プロセッサ120は、コンピュータ実行可能命令語を実行することにより、客体が除去された現在フレームと、以前のフレームで構成されたマップデータベースとを整合させ、整合結果に基づき、客体が除去された現在フレームの新たな点群の位置を推定することができる。プロセッサ120は、コンピュータ実行可能命令語を実行することにより、推定された新たな点群の位置と、マップデータベースに設定された基準店の位置とに基づき、マップデータベースから所定フレームを除去した後、該所定フレームが除去されたマップデータベースに、客体が除去された現在フレームを追加することができる。
詳細に説明すれば、プロセッサ120は、コンピュータ実行可能命令語を実行することにより、推定された新たな点群の位置と、基準点位置との差値を所定値と比較し、該比較結果により、マップデータベースで最も先に保存されたフレームと最も後に保存されたフレームとのうち、いずれか一つを除去することができる。プロセッサ120は、コンピュータ実行可能命令語を実行することにより、該比較結果、差値が所定値以上であるならば、マップデータベースで最も先に保存されたフレームを除去し、差値が所定値未満であるならば、マップデータベースで最も後に保存されたフレームを除去することができる。該基準点の位置は、マップデータベースで最も先に保存されたフレームに設定されているために、マップデータベースで最も先に保存されたフレームが除去される場合、除去されたフレームの次のフレームに基準点位置が設定されうる。プロセッサ120は、コンピュータ実行可能命令語を実行することにより、いずれか1つのフレームが除去されたマップデータベースに、客体が除去された現在フレームを追加することができる。
一方、プロセッサ120は、コンピュータ実行可能命令語を実行することにより、現在フレームに含まれた客体を除去するプロセス、及びマップデータベースをアップデートするプロセスに対する並列処理として、現在フレームに含まれた客体を検出して追跡することにより、現在フレームまで反映された客体動きモデルを利用し、現在フレームの次のフレームに対応する客体の位置を予測するプロセスを遂行することができる。予測された、現在フレームの次のフレームに対応する客体の位置は、次のフレームに含まれた客体を除去するのに即座に利用されうる。
プロセッサ120は、コンピュータ実行可能命令語を実行することにより、アップデートされたマップデータベースに基づき、三次元空間に対応するマップを生成することができる。アップデートされたマップデータベースは、空間情報が含まれたフレームを所定個数に維持し、データを保存するリソースを最適化させ、最新フレームの空間情報は、常時アップデートされるようにし、情報の最新性を確保することができる。マップデータベースは、空間情報の最新性を保証しながらも、適正個数のフレームを維持するために、以前フレームの除去、及び現在フレームの追加を持続的に遂行するが、続けてアップデートが行われるマップデータベースに基づいて生成される三次元空間に対応するマップは、「揮発性マップ」と呼ぶことができる。
図2は、複数フレームの空間情報を利用してマップを生成するためのマップデータベースをアップデートする過程について説明するための図面である。
複数フレームの空間情報を利用してマップを生成するためには、各フレームにおいて、動く客体を検出し、検出された動く客体をいずれも除去し、動く客体が除去されたフレームを活用しなければならない。そのとき、1つのフレームに含まれた客体を直接検出するプロセスは、演算量が多く、長い処理時間が必要となってしまうので、フレームが連続して入力されるたびに、各フレームに含まれた客体を直接検出するプロセスを遂行すれば、複数のフレームに対する全体プロセスの処理時間を延長させる要因になる。
従って、図2に図示されているように、相対的に演算量が少ない客体追跡、及び客体の動き推定による位置予測のようなプロセスを並列的処理(parallel processing)で遂行し、以前フレームで検出された客体を追跡して動きを推定し、その次のフレームに含まれた客体の位置を間接的に検出することにより、全体プロセスの効率性を高めることができる。そのとき、プロセッサの並列的処理は、2以上のプロセスのいずれか一部が同時に遂行される場合を意味し、2つのプロセスの開始から終了まで同時に起こる場合に限定されるものではない。言い換えれば、並列的に処理される第1プロセスと第2プロセスは、同時に始まらなくてもよく、同時に終わらなくてもよく、いずれのプロセスの開始が、他のプロセスの進行中に生じれば十分である。
図2に関して、三次元空間に係わる時間別空間情報、すなわち、連続して入力される複数のフレームに基づいて感知された三次元空間の客体を検出して追跡し、追跡された客体の動きを推定し、客体の位置を予測する第1ワークフロー(work flow)プロセスを例に挙げて説明すれば、次の通りである。
車両100は、いずれか1つのフレームの空間情報から、地面領域と客体領域とを区分することができる。車両100は、いずれか1つのフレームの全体ポイントクラウドデータから、地面領域と推定されるポイントクラウドデータを分離することにより、地面領域に対応するポイントクラウドデータと、客体領域に対応するポイントクラウドデータとを区分することができる。車両100は、客体領域に対応するポイントクラウドデータを、距離情報、形状情報、分布情報のうち少なくとも一つに基づいてクラスタリングすることにより、各客体別にポイントクラウドデータを区分し、個別客体領域を区分することができる。
車両100は、神経網基盤の客体分類モデルを利用し、少なくとも1つの客体を識別し、識別された客体の客体情報を獲得することができる。神経網基盤の客体分類モデルは、各客体についてデータベース化された学習用映像を利用して学習されたものであってもよい。該神経網基盤の客体分類モデルは、感知された対象に対応するポイントクラウドデータから、距離情報、形状情報、分布情報のうち少なくとも一つに基づいて識別される各客体の客体情報を推定することができる。車両100は、神経網基盤の客体分類モデルを介し、自動車、軽自動車、二輪自動車、歩行者のような動く客体を検出することができる。
車両100は、複数のフレームにおいて、ポイントクラウドデータをクラスタリングすることによって区分した個別客体領域に係わる情報と、神経網基盤の客体分類モデルを利用して識別された客体の客体情報とに基づき、三次元空間の客体を追跡することができる。車両100は、クラスタリングを介して区分された個別客体領域から獲得した客体に係わる情報と、神経網基盤の客体分類モデルが推定した客体の情報とを統合し、三次元空間上の全ての客体を逃さずに追跡することができる。
車両100は、感知された三次元空間に係わる複数フレームの空間情報から、時間の流れにより、感知された三次元空間上の全ての客体に係わる連続的な情報を獲得し、感知された三次元空間上の全ての客体を追跡することができる。例えば、車両100は、カルマンフィルタを利用した客体追跡方式などを利用し、時間フローによる各客体の位置変化量に基づき、速度と移動方向とを追跡することができる。
車両100は、追跡した結果に基づき、追跡された客体に係わる情報を予測することができる。車両100は、複数のフレームに基づく客体動きモデルを利用し、次のフレームに対応する客体の位置を予測することができる。車両100は、客体を追跡した情報を累積し、累積された追跡情報から、客体の動きに係わる数学的モデルを導き出し、客体の動きを推定することができる。
図2に関して、連続して入力される複数のフレームに基づき、各フレームに含まれた客体を除去し、客体が除去された各フレームをマップデータベースにアップデートする第2ワークフロープロセスを例に挙げて説明すれば、次の通りである。
図2に図示されているように、車両100は、現在フレーム(Frame n)から客体を除去するために、現在フレーム(Frame n)において直接客体を検出する代わりに、直前フレーム(Frame n-1)における客体動きモデルを利用し、現在フレーム(Frame n)に対応する客体の位置を予測した結果に基づき、現在フレーム(Frame n)に含まれた客体を除去することができる。車両100は、現在フレーム(Frame n)以前のフレームに基づく客体動きモデルに、現在フレーム(Frame n)と直前フレーム(Frame n-1)との時間差を適用し、現在フレーム(Frame n)に対応する客体の位置を予測し、予測された客体の位置に基づき、現在フレーム(Frame n)に含まれた動く客体を除去することができる。
車両100は、客体が除去された現在フレーム(Frame n)で、所定個数の以前フレームで構成されるマップデータベースをアップデートするために、客体が除去された現在フレーム(Frame n)とマップデータベースとを整合させるプロセスを遂行することができる。それにより、現在フレーム(Frame n)の空間情報と、マップデータベースの空間情報が比較され、現在フレーム(Frame n)における新たな点群の位置が推定されうる。新たな点群の位置は、以前フレームで構成されたマップデータベースに基づくマップに対する相対的位置変化を示すために、車両100の動き情報としても活用し、客体を追跡するところに利用することもできる。
車両100は、客体が除去された現在フレーム(Frame n)とマップデータベースとを整合させた結果に基づき、客体が除去された現在フレーム(Frame n)の新たな点群の位置を推定し、推定された新たな点群の位置変化に基づき、客体が除去された現在フレーム(Frame n)をマップデータベースにアップデートする方式が異なりうる。客体が除去された現在フレーム(Frame n)をマップデータベースに追加する前、マップデータベースを構成するフレームの個数を維持し、点群の均一な分布が維持されるように、マップデータベースのどのフレームを除去するかということが、新たな点群の位置変化によって異なってもよい。それについては、図3及び図4を参照して説明する。
図3は、所定個数のフレームで構成されるマップデータベースをアップデートするとき、マップデータベースで最も先に保存されたフレームを除去する例について説明するための図面である。
車両100は、客体が除去された現在フレーム(Frame n)における新たな点群の位置が、マップデータベースに設定された基準点の位置と比較し、十分な距離を置いてあれば、最も古い点群の空間情報である、マップデータベースで最も先に保存されたフレーム(Frame j)を除去することができる。マップデータベースに設定された基準点の位置は、新たな点群の位置変化を判断する基準になる地点であり、マップデータベースで最も先に保存されたフレーム(Frame j)に設定されているので、マップデータベースで最も先に保存されたフレーム(Frame j)が除去される場合、除去されたフレームの次フレーム(Frame k)に基準点位置を設定することができる。
図3に図示されているように、マップデータベースに、時間の順序上、最も先に保存されたフレーム(Frame j)をマップデータベースから除去し、客体が除去された現在フレーム(Frame n)をマップデータベースにアップデートすることができる。
図4は、所定個数のフレームで構成されるマップデータベースをアップデートするとき、マップデータベースで最も後に保存されたフレームを除去する例について説明するための図面である。
車両100は、客体が除去された現在フレーム(Frame n)における新たな点群の位置がマップデータベースに設定された基準点の位置と比較し、十分な距離を置いていなければ、最も最近アップデートされた点群の空間情報である、マップデータベースで最も後に保存されたフレーム(Frame n-1)を除去することができる。
図4に図示されているように、マップデータベースに時間の順序上、最も後に保存されたフレーム(Frame n-1)をマップデータベースから除去し、客体が除去された現在フレーム(Frame n)をマップデータベースにアップデートすることができる。客体が除去された現在フレーム(Frame n)の直前フレーム(Frame n-1)を除去することにより、マップデータベースの最新性を保証することができる。すなわち、新たな点群の位置が、基準点の位置に比べ、十分な距離を置いて移動されたものではないとしても、マップの最新性を保証するように、マップデータベースで最も後に保存された、すなわち、客体が除去された現在フレーム(Frame n)の直前フレーム(Frame n-1)をマップデータベースから除去することができる。そのとき、基準点の位置は、変わらない。
再び図2を参照すれば、同一フレームにつき、第1ワークフロープロセスと第2ワークフロープロセスとが並列的に処理されるということが分かる。また、各フレームにおいて、第1ワークフロープロセスの結果は、次のフレームの第2ワークフロープロセスに入力となり、第2ワークフロープロセスの効率的な処理を可能にするということが分かる。
図5は、三次元空間に対応するマップを生成する方法について説明するためのフローチャートである。
510段階において、車両100は、複数のフレームに基づく客体動きモデルを利用し、現在フレームに対応する客体の位置を予測することができる。車両100は、現在フレームにおいて、客体を直接検出する代わりに、現在フレームの直前フレームまで反映された客体動きモデルに、現在フレームと直前フレームとの時間差を適用し、客体の動きを推定することにより、現在フレームに対応する客体の位置を予測することができる。
520段階において、車両100は、予測された客体の位置に基づいて現在フレームに含まれた客体を除去することができる。車両100は、現在フレームの直前フレームにおける客体動きモデルを利用し、現在フレームに対応する客体の位置と方向とを予測し、予測された客体のバウンディングボックス(bounding box)を生成し、現在フレームから、バウンディングボックス内の点群形態の空間情報を除去することができる。
530段階において、車両100は、客体が除去された現在フレームで所定個数の以前フレームによって構成されるマップデータベースをアップデートすることができる。
一方、車両100は、現在フレームに含まれた客体を除去する520段階、及びマップデータベースをアップデートする530段階の並列的処理として、現在フレームに含まれた客体を検出して追跡することにより、現在フレームまで反映された客体動きモデルを利用し、現在フレームの次のフレームに対応する客体の位置予測を行うことができる。
540段階において、車両100は、アップデートされたマップデータベースに基づいて三次元空間に対応するマップを生成することができる。
図6は、マップデータベースをアップデートする過程について説明するための詳細フローチャートである。
610段階において、車両100は、客体が除去された現在フレームとマップデータベースとを整合させることができる。
620段階において、車両100は、該整合結果に基づき、客体が除去された現在フレームの新たな点群の位置を推定することができる。
630段階において、車両100は、推定された新たな点群の位置と、マップデータベースに設定された基準点の位置とに基づき、マップデータベースから所定フレームを除去した後、所定フレームが除去されたマップデータベースに、客体が除去された現在フレームを追加することができる。
図7は、マップデータベースから、1つのフレームを除去した後、現在フレームを追加する過程について説明するための詳細フローチャートである。
710段階において、車両100は、推定された新たな点群の位置と、マップデータベースに設定された基準点の位置との差値を、所定値と比較することができる。基準点の位置は、マップデータベースで最も先に保存されたフレームに設定されてもよい。
720段階において、車両100は、710段階の比較結果、差値が所定値以上であるか否かということを判断することができる。車両100は、比較結果により、以下の730段階または750段階において、マップデータベースにおいて最も先に保存されたフレームと、最も後に保存されたフレームのうち、いずれか一つを除去することができる。
730段階において、車両100は、該比較結果、差値が所定値以上であるならば、マップデータベースにおいて最も先に保存されたフレームを除去することができる。
740段階において、車両100は、マップデータベースにおいて最も先に保存されたフレームが除去される場合、除去されたフレームに設定されていた基準点の位置を、除去されたフレームの次のフレームに設定することができる。
750段階において、車両100は、該比較結果、差値が所定値未満であるならば、マップデータベースにおいて最も後に保存されたフレームを除去することができる。
760段階において、車両100は、マップデータベースにおいて最も先に保存されたフレームと、最も後に保存されたフレームとのうち、いずれか1つのフレームが除去されたマップデータベースに、客体が除去された現在フレームを追加することができる。
図8A及び図8Bは、1つのフレームの空間情報を利用してマップを生成した場合と、所定個数のフレームで構成されるマップデータベースを利用してマップを生成した場合とを示した図面である。
図8A及び図8Bは、ライダーセンサを介して感知した三次元空間に係わる空間情報を利用してレーン(lane)を検出するためにマップを生成した例である。図8Aのように、単一フレームの空間情報を利用してマップを生成する場合、点群の量が十分ではなく、レーン検出に困難がある。一方、図8Bのように、所定個数のフレームに維持されながら、最新フレームの空間情報がアップデートされるマップデータベースに基づき、三次元空間に対応するマップを生成する場合、点群の量が十分であり、図8Aよりさらに広い領域でさらに正確なレーンを検出することができる。
前述の実施形態それぞれは、車、ドローン、ロボットのような電子動力装置において、三次元空間に対応するマップを生成する方法を遂行させるコンピュータ可読記録媒体に保存されたコンピュータプログラム形態またはアプリケーション形態に提供されてもよい。言い替えれば、前述の実施形態それぞれは、電子動力装置において、複数フレームの空間情報を利用してマップを生成する所定段階を含む方法を遂行させるためのコンピュータ可読記録媒体に保存されたコンピュータプログラム形態またはアプリケーション形態に提供されてもよい。
前述の実施形態は、コンピュータまたはプロセッサによって実行可能な命令語及びデータを保存するコンピュータ可読記録媒体の形態に具現されてもよい。前記命令語及び前記データのうち少なくとも一つは、プログラムコードの形態に保存されてもよく、プロセッサによって実行されたとき、所定プログラムモジュールを生成し、所定の動作を遂行することができる。そのようなコンピュータ可読記録媒体は、ROM(read only memory)、RAM(random access memory)、フラッシュメモリ、CD-ROMs、CD-Rs、CD+Rs、CD-RWs、CD+RWs、DVD-ROMs、DVD-Rs、DVD+Rs、DVD-RWs、DVD+RWs、DVD-RAMs、BD-ROMs、BD-Rs、BD-RLTHs、BD-REs、マグネチックテープ、フロッピーディスク、光磁気データ保存装置、光学データ保存装置、ハードディスク、ソリッドステートディスク(SSD)、そして命令語、またはソフトウェア・関連データ・データファイル及びデータ構造を保存することができ、プロセッサやコンピュータが命令語を実行するように、プロセッサやコンピュータに、命令語、またはソフトウェア・関連データ・データファイル及びデータ構造を提供することができるいかなる装置であってもよい。
以上、実施形態を中心に説明した。開示された実施形態が属する技術分野で当業者であるならば、開示された実施形態が、本質的な特性からはずれない範囲で変形された形態にも具現されるということを理解することができるであろう。従って、開示された実施形態は、限定的な観点ではなく、説明的な観点から考慮されなければならない。発明の範囲は、前述の実施形態の説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にある全ての差異は、発明の範囲に含まれたものであると解釈されなければならないのである。

Claims (11)

  1. 少なくとも1つのセンサを利用し、三次元空間を感知し、複数フレームの空間情報を出力するセンサ部と、
    コンピュータ実行可能命令語を保存するメモリと、
    前記コンピュータ実行可能命令語を実行することにより、複数のフレームに基づく客体動きモデルを利用し、現在フレームに対応する客体の位置を予測し、前記予測された客体の位置に基づき、前記現在フレームに含まれた客体を除去し、前記客体が除去された現在フレームで、所定個数の以前フレームで構成されるマップデータベースをアップデートし、前記アップデートされたマップデータベースに基づき、前記三次元空間に対応するマップを生成するプロセッサと、を含み、
    前記プロセッサは、
    前記コンピュータ実行可能命令語を実行することにより、前記客体が除去された現在フレームと、前記マップデータベースとを整合させ、前記整合結果に基づき、前記客体が除去された現在フレームの新たな点群の位置を推定し、前記推定された新たな点群の位置と、前記マップデータベースに設定された基準点の位置との差値を所定の値と比較し、前記比較結果により、前記マップデータベースで真っ先に保存されたフレームと、最も後に保存されたフレームとのうち、いずれか1つを除去し、前記何れか1つのフレームが除去されたマップデータベースに、前記客体が除去された現在フレームを追加する、車両。
  2. 前記プロセッサは、
    前記コンピュータ実行可能命令語を実行することにより、前記現在フレームの直前フレームまで反映された前記客体動きモデルに、前記現在フレームと前記直前フレームとの時間差を適用し、前記客体の動きを推定することにより、前記現在フレームに対応する前記客体の位置を予測する、請求項1に記載の車両。
  3. 前記プロセッサは、
    前記コンピュータ実行可能命令語を実行することにより、前記現在フレームに含まれた客体を除去するプロセス、及び前記マップデータベースをアップデートするプロセスに対する並列処理として、前記現在フレームに含まれた客体を検出して追跡することにより、前記現在フレームまで反映された前記客体動きモデルを利用し、前記現在フレームの次のフレームに対応する前記客体の位置を予測するプロセスを遂行する、請求項1に記載の車両。
  4. 前記プロセッサは、
    前記コンピュータ実行可能命令語を実行することにより、前記比較結果、前記差値が所定値以上であるならば、前記マップデータベースで前記最も先に保存されたフレームを除去し、前記差値が所定値未満であるならば、前記マップデータベースで前記最も後に保存されたフレームを除去する、請求項に記載の車両。
  5. 前記基準点の位置は、前記マップデータベースで最も先に保存されたフレームに設定されており、
    前記プロセッサは、
    前記コンピュータ実行可能命令語を実行することにより、前記比較結果により、前記マップデータベースで前記最も先に保存されたフレームが除去される場合、前記除去されたフレームの次のフレームに、前記基準点位置を設定する、請求項に記載の車両。
  6. 複数フレームの空間情報を利用してマップを生成する方法において、
    複数のフレームに基づく客体動きモデルを利用し、現在フレームに対応する客体の位置を予測する段階と、
    前記予測された客体の位置に基づき、前記現在フレームに含まれた客体を除去する段階と、
    前記客体が除去された現在フレームで、所定個数の以前フレームで構成されるマップデータベースをアップデートする段階と、
    前記アップデートされたマップデータベースに基づき、三次元空間に対応するマップを生成する段階と、を含み、
    前記アップデートする段階は、
    前記客体が除去された現在フレームと、前記マップデータベースとを整合させる段階と、
    前記整合結果に基づき、前記客体が除去された現在フレームの新たな点群の位置を推定する段階と、
    前記推定された新たな点群の位置と、前記マップデータベースに設定された基準点の位置とに基づき、前記マップデータベースから所定フレームを除去した後、前記所定フレームが除去されたマップデータベースに、前記客体が除去された現在フレームを追加する段階と、を含み、
    前記追加する段階は、
    前記推定された新たな点群の位置と、前記基準点の位置との差値を、所定値と比較する段階と、
    前記比較結果により、前記マップデータベースで最も先に保存されたフレームと、最も後に保存されたフレームとのうち、いずれか一つを除去する段階と、
    前記いずれか1つのフレームが除去されたマップデータベースに、前記客体が除去された現在フレームを追加する段階と、を含む、方法。
  7. 前記予測する段階は、
    前記現在フレームの直前フレームまで反映された前記客体動きモデルに、前記現在フレームと前記直前フレームとの時間差を適用し、前記客体の動きを推定することにより、前記現在フレームに対応する前記客体の位置を予測する、請求項に記載の方法。
  8. 前記現在フレームに含まれた客体を検出して追跡することにより、前記現在フレームまで反映された前記客体動きモデルを利用し、前記現在フレームの次のフレームに対応する前記客体の位置を予測する段階をさらに含み、
    前記次のフレームに対応する前記客体の位置を予測する段階は、
    前記現在フレームに含まれた客体を除去する段階、及び前記マップデータベースをアップデートする段階と並列処理される、請求項に記載の方法。
  9. 前記除去する段階は、
    前記比較結果、前記差値が所定値以上であるならば、前記マップデータベースで前記最も先に保存されたフレームを除去し、前記差値が所定値未満であるならば、前記マップデータベースで前記最も後に保存されたフレームを除去する、請求項に記載の方法。
  10. 前記基準点の位置は、前記マップデータベースで最も先に保存されたフレームに設定されており、
    前記除去する段階は、
    前記比較結果により、前記マップデータベースで前記最も先に保存されたフレームが除去される場合、除去されたフレームの次のフレームに、前記基準点位置を設定する段階をさらに含む、請求項に記載の方法。
  11. 電子動力装置において、
    複数のフレームに基づく客体動きモデルを利用し、現在フレームに対応する客体の位置を予測する段階と、
    前記予測された客体の位置に基づき、前記現在フレームに含まれた客体を除去する段階と、
    前記客体が除去された現在フレームで、所定個数の以前フレームで構成されるマップデータベースをアップデートする段階と、
    前記アップデートされたマップデータベースに基づき、三次元空間に対応するマップを生成する段階と、を含み、
    前記アップデートする段階は、
    前記客体が除去された現在フレームと、前記マップデータベースとを整合させる段階と、
    前記整合結果に基づき、前記客体が除去された現在フレームの新たな点群の位置を推定する段階と、
    前記推定された新たな点群の位置と、前記マップデータベースに設定された基準点の位置とに基づき、前記マップデータベースから所定フレームを除去した後、前記所定フレームが除去されたマップデータベースに、前記客体が除去された現在フレームを追加する段階と、を含み、
    前記追加する段階は、
    前記推定された新たな点群の位置と、前記基準点の位置との差値を、所定値と比較する段階と、
    前記比較結果により、前記マップデータベースで最も先に保存されたフレームと、最も後に保存されたフレームとのうち、いずれか一つを除去する段階と、
    前記いずれか1つのフレームが除去されたマップデータベースに、前記客体が除去された現在フレームを追加する段階と、を含み、
    複数フレームの空間情報を利用してマップを生成する方法を遂行させる、コンピュータ可読記録媒体に保存されたコンピュータプログラム。
JP2022510833A 2019-09-27 2020-09-18 三次元空間に対応するマップを生成する車両、及びその方法 Active JP7289470B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020190120132A KR102238522B1 (ko) 2019-09-27 2019-09-27 3차원 공간에 대응되는 맵을 생성하는 차량 및 방법
KR10-2019-0120132 2019-09-27
PCT/KR2020/012654 WO2021060778A1 (ko) 2019-09-27 2020-09-18 3차원 공간에 대응되는 맵을 생성하는 차량 및 방법

Publications (2)

Publication Number Publication Date
JP2022545213A JP2022545213A (ja) 2022-10-26
JP7289470B2 true JP7289470B2 (ja) 2023-06-12

Family

ID=75165093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022510833A Active JP7289470B2 (ja) 2019-09-27 2020-09-18 三次元空間に対応するマップを生成する車両、及びその方法

Country Status (6)

Country Link
US (1) US20220291012A1 (ja)
EP (1) EP4036857A4 (ja)
JP (1) JP7289470B2 (ja)
KR (1) KR102238522B1 (ja)
AU (1) AU2020356082B2 (ja)
WO (1) WO2021060778A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102310609B1 (ko) * 2021-05-14 2021-10-13 주식회사 인피닉 3d 데이터를 이용한 2d 이미지의 전처리 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102310612B1 (ko) * 2021-06-17 2021-10-13 주식회사 인피닉 라이다 점군에서 특정된 객체 정보를 이용한 2d 이미지 객체 예측 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR20230031038A (ko) * 2021-08-26 2023-03-07 (주)서울로보틱스 3차원 공간의 관심 영역을 모니터링하는 방법 및 센싱 장치
KR102656646B1 (ko) * 2021-08-26 2024-04-12 (주)서울로보틱스 센싱 장치의 설치 이상을 감지하는 방법 및 이를 수행하는 센싱 장치
KR102652486B1 (ko) * 2021-09-24 2024-03-29 (주)오토노머스에이투지 라이다를 이용한 신호등 정보 예측 방법 및 이를 이용한 서버
KR102431122B1 (ko) 2021-12-30 2022-08-10 주식회사 버넥트 맵 타겟 추적 방법 및 그 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005337863A (ja) 2004-05-26 2005-12-08 Fuji Photo Film Co Ltd 地図更新システム
JP2012118666A (ja) 2010-11-30 2012-06-21 Iwane Laboratories Ltd 三次元地図自動生成装置
JP2015179514A (ja) 2014-03-19 2015-10-08 株式会社リコー ターゲットオブジェクトの動きパラメーターを予測する方法及び装置
JP2017151536A (ja) 2016-02-22 2017-08-31 株式会社メガチップス 画像処理装置、制御プログラム及び領域特定方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008203992A (ja) * 2007-02-16 2008-09-04 Omron Corp 検出装置および方法、並びに、プログラム
JP5471626B2 (ja) 2010-03-09 2014-04-16 ソニー株式会社 情報処理装置、マップ更新方法、プログラム及び情報処理システム
US8989944B1 (en) * 2013-11-26 2015-03-24 Google Inc. Methods and devices for determining movements of an object in an environment
JP6557973B2 (ja) 2015-01-07 2019-08-14 株式会社リコー 地図生成装置、地図生成方法およびプログラム
US10816654B2 (en) * 2016-04-22 2020-10-27 Huawei Technologies Co., Ltd. Systems and methods for radar-based localization
EP3608629B1 (en) 2017-04-03 2021-06-09 Mitsubishi Electric Corporation Map data generation device and method
KR20190062635A (ko) * 2017-11-15 2019-06-07 전자부품연구원 객체 추적 장치 및 객체 추적 방법
CN109285220B (zh) * 2018-08-30 2022-11-15 阿波罗智能技术(北京)有限公司 一种三维场景地图的生成方法、装置、设备及存储介质
US11151391B2 (en) * 2018-12-10 2021-10-19 Here Global B.V. Method and apparatus for creating a visual map without dynamic content
US11679760B2 (en) * 2018-12-10 2023-06-20 Mobileye Vision Technologies Ltd. Navigation in vehicle crossing scenarios
US11556126B2 (en) * 2019-02-20 2023-01-17 Toyota Research Institute, Inc. Online agent predictions using semantic maps
US11250576B2 (en) * 2019-08-19 2022-02-15 Toyota Research Institute, Inc. Systems and methods for estimating dynamics of objects using temporal changes encoded in a difference map
US11442463B1 (en) * 2019-09-23 2022-09-13 Amazon Technologies, Inc. System to determine stationary features by autonomous mobile device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005337863A (ja) 2004-05-26 2005-12-08 Fuji Photo Film Co Ltd 地図更新システム
JP2012118666A (ja) 2010-11-30 2012-06-21 Iwane Laboratories Ltd 三次元地図自動生成装置
JP2015179514A (ja) 2014-03-19 2015-10-08 株式会社リコー ターゲットオブジェクトの動きパラメーターを予測する方法及び装置
JP2017151536A (ja) 2016-02-22 2017-08-31 株式会社メガチップス 画像処理装置、制御プログラム及び領域特定方法

Also Published As

Publication number Publication date
EP4036857A4 (en) 2023-11-15
AU2020356082A1 (en) 2022-03-17
AU2020356082B2 (en) 2023-11-09
KR20210037469A (ko) 2021-04-06
WO2021060778A1 (ko) 2021-04-01
US20220291012A1 (en) 2022-09-15
EP4036857A1 (en) 2022-08-03
KR102238522B1 (ko) 2021-04-09
JP2022545213A (ja) 2022-10-26

Similar Documents

Publication Publication Date Title
JP7289470B2 (ja) 三次元空間に対応するマップを生成する車両、及びその方法
JP7405451B2 (ja) センサを利用して獲得した空間情報を活用する車両、センサを利用して獲得した空間情報を活用するセンシング装置、及びサーバ
US11227398B2 (en) RGB point clouds based map generation system for autonomous vehicles
US11468690B2 (en) Map partition system for autonomous vehicles
EP3707469B1 (en) A point clouds registration system for autonomous vehicles
US11465642B2 (en) Real-time map generation system for autonomous vehicles
US11315317B2 (en) Point clouds ghosting effects detection system for autonomous driving vehicles
CN108983781B (zh) 一种无人车目标搜索系统中的环境探测方法
EP3745158B1 (en) Methods and systems for computer-based determining of presence of dynamic objects
JP6595182B2 (ja) マッピング、位置特定、及び姿勢補正のためのシステム及び方法
US10553117B1 (en) System and method for determining lane occupancy of surrounding vehicles
CN111788571A (zh) 车辆跟踪
US20210389133A1 (en) Systems and methods for deriving path-prior data using collected trajectories
US11507101B2 (en) Vehicle using spatial information acquired using sensor, sensing device using spatial information acquired using sensor, and server
JP2016218737A (ja) 先行車両推定装置及びプログラム
US20230322236A1 (en) Vehicle pose assessment
CN116724248A (zh) 用于产生非模态长方体的系统和方法
JP6916438B2 (ja) 動線特定システム、サーバ装置、端末装置、動線特定方法、及び動線特定プログラム
CN118056724A (zh) Ads驾驶场景生成
JP2019109331A (ja) 地図データ構造

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230519

R150 Certificate of patent or registration of utility model

Ref document number: 7289470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150