JP2021076962A - Method and system for generating dynamic map information capable of providing environmental information - Google Patents

Method and system for generating dynamic map information capable of providing environmental information Download PDF

Info

Publication number
JP2021076962A
JP2021076962A JP2019201445A JP2019201445A JP2021076962A JP 2021076962 A JP2021076962 A JP 2021076962A JP 2019201445 A JP2019201445 A JP 2019201445A JP 2019201445 A JP2019201445 A JP 2019201445A JP 2021076962 A JP2021076962 A JP 2021076962A
Authority
JP
Japan
Prior art keywords
data
vehicle
group
point
point group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019201445A
Other languages
Japanese (ja)
Other versions
JP6999625B2 (en
Inventor
林軒達
Xuan-Da Lin
王正楷
zheng-kai Wang
施淳耀
Chun-Yao Shi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Automotive Research and Testing Center
Original Assignee
Automotive Research and Testing Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Automotive Research and Testing Center filed Critical Automotive Research and Testing Center
Priority to JP2019201445A priority Critical patent/JP6999625B2/en
Publication of JP2021076962A publication Critical patent/JP2021076962A/en
Application granted granted Critical
Publication of JP6999625B2 publication Critical patent/JP6999625B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a method and system for generating dynamic map information by environmental information.SOLUTION: A system includes: a cloud server 30; a plurality of repeating hosts 20 distributed in a peripheral environment; and a plurality of vehicle devices 10 arranged in accordance with respectively different vehicles. The vehicle device includes a LiDAR sensor 11 and a camera 12 for sensing an environment in order to respectively generate point group data and image data. When point group data from different vehicles are transmitted to the adjacent repeating host, the repeating host merges point group data of data of the plurality of vehicles, and obtains 3D coordinate information of an object in an environment in response to the merged data. The cloud server generates dynamic map information with respect to the vehicles based on 3D coordinate information of an object, and transmits the information. Sensing areas of the respective vehicles are extended so as to reduce a dark zone or a dead zone by sharing sensing data of the different vehicles.SELECTED DRAWING: Figure 2

Description

本発明は、環境情報を自動的に識別するための方法に関し、より詳細には、LiDAR情報および画像情報を使用することによって障害物を識別するための方法に関する。 The present invention relates to a method for automatically identifying environmental information, and more particularly to a method for identifying an obstacle by using LiDAR information and image information.

絶え間なく変化し、かつ急速に発展している人工知能(AI)および機械学習技術によって、多くの国際企業は、自動運転の研究および開発においてこの新規な機械学習に順応している。車載自動運転システムは、センサーフュージョンによって車両周辺の環境の状況を検出可能であり、かつ、感知結果に基づいて、車両を制御するための適正な判断を下す。 With ever-changing and rapidly evolving artificial intelligence (AI) and machine learning technology, many international companies are adapting to this new machine learning in the research and development of autonomous driving. The in-vehicle autonomous driving system can detect the state of the environment around the vehicle by sensor fusion, and makes an appropriate judgment for controlling the vehicle based on the detection result.

感知結果が全て、環境を感知するために1つの車両に設けられたセンサによって得られる場合、車両の視野角および移動方向によって、複数の障害物が互いに隣接している時に車両に対して暗帯および不感地帯が生じる。
例えば図10を参照する。第1の障害物O1および第2の障害物O2が車両Aの正面にある場合、車両Aは第1の障害物O1のみを認識可能である。第1の障害物O1の後の第2の障害物O2は、車両Aに対して暗帯Zにあり、検出不可能である。
When all the sensing results are obtained by sensors installed in one vehicle to sense the environment, depending on the viewing angle and direction of movement of the vehicle, there is a dark zone for the vehicle when multiple obstacles are adjacent to each other. And dead zones occur.
See, for example, FIG. When the first obstacle O1 and the second obstacle O2 are in front of the vehicle A, the vehicle A can recognize only the first obstacle O1. The second obstacle O2 after the first obstacle O1 is in the dark zone Z with respect to the vehicle A and is undetectable.

光検出測距(LiDAR)デバイスは自動運転システムにおいて広く使用されている。このデバイスは、周囲環境を迅速に感知し、かつ周囲環境を表す点群データを生成可能である。点群データに従って、周囲環境の3次元(3D)幾何情報が得られる。 Photodetection distance measurement (LiDAR) devices are widely used in autonomous driving systems. This device can quickly sense the surrounding environment and generate point cloud data representing the surrounding environment. According to the point cloud data, three-dimensional (3D) geometric information of the surrounding environment can be obtained.

しかしながら、LiDARには依然、上述される問題があり、互いに隣接する複数のオブジェクトがある時、このオブジェクトの幾何情報を完全に得ることは不可能である。このように、オブジェクトが障害物であるかどうかを後に判断することは好ましくない。 However, LiDAR still has the above-mentioned problems, and when there are a plurality of objects adjacent to each other, it is impossible to completely obtain the geometric information of the objects. Thus, it is not desirable to later determine if an object is an obstacle.

本発明の目的は、環境情報を提供可能なダイナミックマップ情報を生成するためのシステムを提供することである。システムは、複数の車両デバイス、複数の中継ホスト、およびクラウドサーバを備える。 An object of the present invention is to provide a system for generating dynamic map information capable of providing environmental information. The system includes multiple vehicle devices, multiple relay hosts, and cloud servers.

複数の車両デバイスはそれぞれ、異なる車両に対応して設置される。車両デバイスのそれぞれは、点群データを生成するために車両周辺の環境を感知する光検出測距(LiDAR)センサと、画像データを生成するために車両周辺の環境を捉えるカメラと、LiDARセンサ、カメラ、およびデータ送信ユニットに接続されて、データ送信ユニットを通して送信される点群データおよび画像データを制御する車両コントローラと、車両コントローラに接続される人間−機械インターフェースとを備える。 Each of the plurality of vehicle devices is installed corresponding to a different vehicle. Each of the vehicle devices has a light detection distance measurement (LiDAR) sensor that senses the environment around the vehicle to generate point cloud data, a camera that captures the environment around the vehicle to generate image data, and a LiDAR sensor. It comprises a vehicle controller connected to a camera and a data transmission unit to control point cloud data and image data transmitted through the data transmission unit, and a human-machine interface connected to the vehicle controller.

それぞれの中継ホストは、中継ホスト自体周辺の車両からの点群データおよび画像データを受信し、かつ複数車両データ統合モードを実行することで車両から受信された点群データをマージして環境におけるオブジェクトの3D座標情報を含有する処理結果を生成する。 Each relay host receives point cloud data and image data from vehicles around the relay host itself, and merges the point cloud data received from the vehicle by executing the multiple vehicle data integration mode to create an object in the environment. A processing result including the 3D coordinate information of is generated.

クラウドサーバは、複数の中継ホストおよび複数の車両デバイスと通信し、複数車両データ統合モードの処理結果を受信し、ダイナミックマップ情報を生成するためにオブジェクトの3D座標情報をベースマップと統合する。クラウドサーバは、ダイナミックマップ情報をそれぞれの車両デバイスの人間−機械インターフェースに送信する。 The cloud server communicates with multiple relay hosts and multiple vehicle devices, receives the processing results of the multiple vehicle data integration mode, and integrates the 3D coordinate information of the object with the basemap to generate dynamic map information. The cloud server sends dynamic map information to the human-machine interface of each vehicle device.

本発明の別の目的は、環境情報を提供可能なダイナミックマップ情報を生成するための方法を提供することである。 Another object of the present invention is to provide a method for generating dynamic map information that can provide environmental information.

方法は、(a)車両に設置された車両デバイスからクラウドサーバに確認要求を送るステップと、(b)複数の中継ホストの中のある中継ホストを指定し、かつ車両近くの中継ホストを指定するために車両の場所に言及するクラウドサーバによって指定される中継ホストを、車両デバイスに通知するステップと、(c)車両から、車両デバイスによって指定される中継ホストに点群データおよび画像データを送信するステップであって、点群データは車両周辺の環境を感知するLiDARセンサによって提供され、画像データは車両周辺の環境を捉えるカメラによって提供される、送信するステップと、(d)中継ホストが複数の車両から点群データおよび画像データを受信する時、中継ホストは、複数車両データ統合モードを実行することで、複数の車両から受信された点群データをマージして環境におけるオブジェクトの3D座標情報を含有する処理結果を生成するステップと、(e)クラウドサーバによって、中継ホストから複数車両データ統合モードの処理結果を受信し、かつダイナミックマップ情報を生成するためにオブジェクトの3D座標情報をベースマップと統合するステップと、(f)クラウドサーバによって、ダイナミックマップ情報をそれぞれの車両デバイスの人間−機械インターフェースに送信するステップであって、ダイナミックマップ情報は環境におけるオブジェクトの3D座標情報を含有する、送信するステップと、を含む。 The methods are (a) a step of sending a confirmation request from a vehicle device installed in the vehicle to a cloud server, and (b) a relay host among a plurality of relay hosts, and a relay host near the vehicle. The step of notifying the vehicle device of the relay host specified by the cloud server that refers to the location of the vehicle, and (c) transmitting point cloud data and image data from the vehicle to the relay host specified by the vehicle device. The point cloud data is provided by the LiDAR sensor that senses the environment around the vehicle, and the image data is provided by the camera that captures the environment around the vehicle. When receiving point cloud data and image data from a vehicle, the relay host executes the multi-vehicle data integration mode to merge the point cloud data received from multiple vehicles and obtain the 3D coordinate information of the object in the environment. The step of generating the processing result to be included, and (e) the cloud server receives the processing result of the multiple vehicle data integration mode from the relay host, and the 3D coordinate information of the object is used as the base map in order to generate the dynamic map information. The integration step and (f) the cloud server transmitting dynamic map information to the human-machine interface of each vehicle device, where the dynamic map information contains and transmits 3D coordinate information of the object in the environment. Including steps.

異なる車両のLiDARセンサによって感知される点群データを統合することによって、それぞれの車両の感知領域は車両周辺のより多くのオブジェクトを識別するために拡張可能である。オブジェクトの3D座標情報は、ダイナミックマップ情報を作成するためにベースマップと組み合わせ可能である。ダイナミックマップ情報は、環境情報共有の目的を実現するためにそれぞれの車両に送信される。 By integrating the point cloud data sensed by the LiDAR sensors of different vehicles, the sensing area of each vehicle can be extended to identify more objects around the vehicle. The 3D coordinate information of the object can be combined with the basemap to create dynamic map information. Dynamic map information is transmitted to each vehicle in order to realize the purpose of sharing environmental information.

本発明が自動運転車両に適用される時、好ましいダイナミックマップ情報は高精細マップ(HD MAP)である。HD MAPは、安全走行経路を自動的にプログラミングし、かつ識別された障害物との衝突を回避するための自動運転車両における制御システムによって使用可能である。 When the present invention is applied to self-driving vehicles, the preferred dynamic map information is a high definition map (HD MAP). The HD MAP can be used by a control system in an autonomous vehicle to automatically program a safe driving path and avoid collisions with identified obstacles.

本発明によるシステムの概略図である。It is the schematic of the system by this invention. 本発明によるシステムのブロック図である。It is a block diagram of the system by this invention. 本発明による、車両デバイス、中継ホスト、およびクラウドサーバの間の連係のフローチャートである。It is a flowchart of the linkage between a vehicle device, a relay host, and a cloud server according to the present invention. それぞれ、2つのLiDARによって得られる点群データPA、PBの2つのグループを示す図である。It is a figure which shows two groups of the point cloud data PA and PB obtained by two LiDAR respectively. 本発明において使用されるiterative closet point(ICP)アルゴリズムのフローチャートである。It is a flowchart of the iteration close point (ICP) algorithm used in this invention. ICPアルゴリズムの計算によって互いにアラインされる図4における点群データPA、PBの2つのクラスタを示す図である。It is a figure which shows the two clusters of the point cloud data PA and PB in FIG. 4 which are aligned with each other by the calculation of the ICP algorithm. 本発明によるLiDARによって得られる環境の点群データを示す図である。It is a figure which shows the point cloud data of the environment obtained by LiDAR by this invention. 本発明によるカメラによって得られる環境の画像データを示す図である。It is a figure which shows the image data of the environment obtained by the camera by this invention. 1つの車両によって行われるデータ処理のフローチャートである。It is a flowchart of data processing performed by one vehicle. 本発明による、複数の車両によって識別される障害物を示す概略図である。It is a schematic diagram which shows the obstacle identified by a plurality of vehicles according to this invention. 車両に対する暗帯または不感地帯を示す概略図である。It is a schematic diagram which shows the dark zone or the dead zone with respect to a vehicle.

図1および図2を参照する。本発明のダイナミックマップ情報を生成するためのシステムは、それぞれが車両に対応して設置される車両デバイス10と、環境に設けられる、好ましくは道路の近くにある複数の中継ホスト20と、クラウドサーバ30とを備える。 See FIGS. 1 and 2. The system for generating dynamic map information of the present invention includes a vehicle device 10 each of which is installed corresponding to a vehicle, a plurality of relay hosts 20 provided in an environment, preferably near a road, and a cloud server. 30 and.

それぞれの車両デバイス10は、光検出測距(LiDAR)センサ11、カメラ12、車両コントローラ13、データ送信ユニット14、および人間−機械インターフェース(HCI)15を備える。
LiDARセンサ11は、車両コントローラ13に接続され、かつ点群データを生成するために車両周辺の環境を感知する。カメラ12は、車両コントローラ13に接続され、かつ画像データを生成するために車両周辺の画像を捉える。車両コントローラ13は、データ送信ユニット14を通して点群データおよび画像データを送信し、車両に対する固有の車両識別コードは、複数の車両の中で車両を識別するために車両コントローラ13において事前に記憶される。データ送信ユニット14は、車両デバイス10、中継ホスト20、およびクラウドサーバ30の間のデータ送信のための無線通信ユニットである。
Each vehicle device 10 comprises a photodetection range (LiDAR) sensor 11, a camera 12, a vehicle controller 13, a data transmission unit 14, and a human-machine interface (HCI) 15.
The LiDAR sensor 11 is connected to the vehicle controller 13 and senses the environment around the vehicle to generate point cloud data. The camera 12 is connected to the vehicle controller 13 and captures an image of the surroundings of the vehicle in order to generate image data. The vehicle controller 13 transmits point cloud data and image data through the data transmission unit 14, and a vehicle identification code unique to the vehicle is pre-stored in the vehicle controller 13 to identify the vehicle among the plurality of vehicles. .. The data transmission unit 14 is a wireless communication unit for data transmission between the vehicle device 10, the relay host 20, and the cloud server 30.

中継ホスト20は、車両デバイス10とのvehicle−to−infrastructure(V2I)通信を確立するために周辺環境に構築されかつ分散される。中継ホスト20のそれぞれは固有のホスト識別コードを有する。中継ホスト20はまた、クラウドサーバ30と通信する。 The relay host 20 is constructed and distributed in the surrounding environment to establish vehicle-to-infrastructure (V2I) communication with the vehicle device 10. Each of the relay hosts 20 has a unique host identification code. The relay host 20 also communicates with the cloud server 30.

クラウドサーバ30は、ベースマップとして使用される基本環境情報が記憶されるマップデータベース31にアクセス可能である。クラウドサーバ30は中継ホスト20によって処理されるデータをマップデータベース31におけるベースマップと統合してダイナミックマップ情報を生成し、次いで、ダイナミックマップ情報をそれぞれの車両デバイス10の人間−機械インターフェース15に送信する。 The cloud server 30 can access the map database 31 in which the basic environment information used as the base map is stored. The cloud server 30 integrates the data processed by the relay host 20 with the base map in the map database 31 to generate dynamic map information, and then transmits the dynamic map information to the human-machine interface 15 of each vehicle device 10. ..

図3を参照する。車両デバイス10、中継ホスト20、およびクラウドサーバ30の間の連係は以下のようなステップを含む。 See FIG. The linkage between the vehicle device 10, the relay host 20, and the cloud server 30 includes the following steps.

S31:車両の車両デバイス10は、車両自体周辺に中継ホスト20があるかどうかを問い合わせるためにクラウドサーバ30に確認要求を送る。クラウドサーバ30について、クラウドサーバ30は異なる車両デバイス10から複数の確認要求を同時に受信してよい。 S31: The vehicle device 10 of the vehicle sends a confirmation request to the cloud server 30 in order to inquire whether or not there is a relay host 20 around the vehicle itself. Regarding the cloud server 30, the cloud server 30 may simultaneously receive a plurality of confirmation requests from different vehicle devices 10.

S32:クラウドサーバ30は、確認要求を送る車両の場所に従って車両に利用可能な中継ホスト20を指定し、かつ指定された中継ホスト20のホスト識別コードを、確認要求を送る車両に提供し、クラウドサーバ30は、そのGPS情報に従って確認要求を送る車両の場所を得ることが可能である。 S32: The cloud server 30 designates a relay host 20 that can be used by the vehicle according to the location of the vehicle that sends the confirmation request, and provides the host identification code of the designated relay host 20 to the vehicle that sends the confirmation request to the cloud. The server 30 can obtain the location of the vehicle to which the confirmation request is sent according to the GPS information.

S33:確認要求を送る車両デバイス10がクラウドサーバ30から返信情報を受信した後、車両デバイス10は、点群データおよび画像データを含むその感知データ、および車両の車両識別コードを、クラウドサーバ30によって指定された中継ホスト20にアップロードする。中継ホスト20の近くで確認要求を送っている車両が1つのみである場合、中継ホスト20はその車両からの感知データのみを受信する。中継ホスト20の近くでそういった確認要求を送っているのが複数の車両である場合、中継ホスト20は複数の車両から感知データを受信する。 S33: After the vehicle device 10 that sends the confirmation request receives the reply information from the cloud server 30, the vehicle device 10 transmits the detection data including the point group data and the image data, and the vehicle identification code of the vehicle by the cloud server 30. Upload to the designated relay host 20. If only one vehicle is sending a confirmation request near the relay host 20, the relay host 20 receives only the sensed data from that vehicle. When a plurality of vehicles are sending such confirmation requests near the relay host 20, the relay host 20 receives detection data from the plurality of vehicles.

S34:車両デバイス10のそれぞれから受信される感知データに基づいて、指定された中継ホスト20は、「単一車両データ処理モード」または「複数車両データ統合モード」が実行されかつ処理されるべきであるかどうかを判断し、かつ単一車両データ処理モードまたは複数車両データ統合モードのどちらかの処理結果、およびホスト識別コードをクラウドサーバ30に送信する。
中継ホスト20の周りにあるのが1つの車両のみである場合、中継ホスト20は、単一の車両デバイス10のみから感知データを受信し、かつ「単一車両データ処理モード」を実行する。一方、中継ホスト20の周りにあるのが2つ以上の異なる車両である時、中継ホスト20は異なる車両から複数の感知データを受信し、かつ「複数車両データ統合モード」を実行する。単一車両データ処理モードおよび複数車両データ統合モードについては詳細に後述する。
S34: Based on the sensed data received from each of the vehicle devices 10, the designated relay host 20 should execute and process a "single vehicle data processing mode" or a "multiple vehicle data integration mode". It determines whether or not there is, and transmits the processing result of either the single vehicle data processing mode or the multiple vehicle data integration mode, and the host identification code to the cloud server 30.
If there is only one vehicle around the relay host 20, the relay host 20 receives the sensed data from only a single vehicle device 10 and executes a "single vehicle data processing mode". On the other hand, when there are two or more different vehicles around the relay host 20, the relay host 20 receives a plurality of sensed data from the different vehicles and executes the "multiple vehicle data integration mode". The single vehicle data processing mode and the multiple vehicle data integration mode will be described in detail later.

S35:クラウドサーバ30は、中継ホスト20から処理結果を受信し、かつ処理データをベースマップと組み合わせてダイナミックマップ情報を生成する。処理結果が車両付近の障害物の3次元(3D)座標情報を含むため、ダイナミックマップ情報はそれに応じて、車両付近のオブジェクトの座標情報を含むことになる。 S35: The cloud server 30 receives the processing result from the relay host 20 and combines the processing data with the base map to generate dynamic map information. Since the processing result includes the three-dimensional (3D) coordinate information of the obstacle near the vehicle, the dynamic map information will include the coordinate information of the object near the vehicle accordingly.

S36:クラウドサーバ30は車両の人間−機械インターフェース15に再びダイナミックマップ情報を送信する。ダイナミックマップ情報を送信する時、クラウドサーバ30は車両識別コードに従ってダイナミックマップ情報が送信されるべき受信側車両を判断する。 S36: The cloud server 30 transmits the dynamic map information to the human-machine interface 15 of the vehicle again. When transmitting the dynamic map information, the cloud server 30 determines the receiving vehicle to which the dynamic map information should be transmitted according to the vehicle identification code.

ステップS34における複数車両データ統合モードに関して、中継ホスト20は2つ以上の異なる車両からデータを受信する時、車両が異なる場所にあるため、車両上のLiDARセンサ11によって感知される同じオブジェクトに対する点群データは互いに異なっている場合がある。
図4には、同じ対象に対する点群データの第1のグループPAおよび点群データの第2のグループPBが、概略的に示されている。点群データの第1のグループPAおよび点群データの第2のグループPB異なる位置に位置する2つのLiDARセンサ11よって生成され、点群データのそれぞれのグループPA、PBは複数のデータポイントで構成される。本発明は、iterative nearest point(ICP)アルゴリズムを利用して、点群データの2つのグループPA、PBにおける各データポイントの間の距離を低減する。換言すれば、点群データの2つのグループPA、PBにおける各データポイントは、互いにできるだけ近くに位置合わせ可能である。
Regarding the multi-vehicle data integration mode in step S34, when the relay host 20 receives data from two or more different vehicles, the points cloud for the same object sensed by the LiDAR sensor 11 on the vehicle because the vehicles are in different locations. The data may be different from each other.
FIG. 4 schematically shows a first group PA of point cloud data and a second group PB of point cloud data for the same object. The first group PA of the point cloud data and the second group PB of the point cloud data are generated by two LiDAR sensors 11 located at different positions, and each group PA and PB of the point cloud data is composed of a plurality of data points. Will be done. The present invention utilizes an iterative nearest point (ICP) algorithm to reduce the distance between each data point in two groups PA, PB of point cloud data. In other words, the data points in the two groups PA and PB of the point cloud data can be aligned as close to each other as possible.

図5を参照する。iterative nearest point(ICP)アルゴリズムは本発明の主要な特徴ではない。ICPアルゴリズムのプロセスは主に、以下を含む。
S51:点群データの第1のグループPAおよび点群データの第2のグループPBを得るステップ
S52:点群データの第1のグループPAと点群データの第2のグループPBとの間の相関性を得るために点群データの2つのグループPA、PBにおいて互いにマッチするデータポイントを判断するステップ
S53:点群データの2つのグループPA、PBの間の相関性に従って変換行列を算出するステップ
S54:変換行列によって点群データの第1のグループPAにおけるそれぞれのデータポイントの座標を変換するために変換を実行するステップ
S55:現在の変換における現在の二乗平均平方根値、および以前の変換の以前の二乗平均平方根値を算出して2つの二乗平均平方根値の間の誤差を得るステップ
S56:算出した誤差がデフォルトの閾値より小さいかどうかを判断して、小さい場合、点群データの第1のグループPAは点群データの第2のグループPBと位置合わせされて算出を終了し、小さくない場合、ステップS52を繰り返すステップ
See FIG. The iterative nearest point (ICP) algorithm is not a major feature of the present invention. The process of the ICP algorithm mainly includes:
S51: Step of obtaining the first group PA of the point group data and the second group PB of the point group data S52: Correlation between the first group PA of the point group data and the second group PB of the point group data Step S53: Determining data points that match each other in two groups PA and PB of point group data in order to obtain sex S53: Step S54 of calculating a conversion matrix according to the correlation between two groups PA and PB of point group data. : Performing a transformation to transform the coordinates of each data point in the first group PA of the point group data by the transformation matrix S55: The current squared mean square root value in the current transformation, and the previous transformation Step of calculating the squared mean square root value to obtain the error between the two squared mean square root values S56: Determine if the calculated error is less than the default threshold, and if it is smaller, the first group of point group data The PA is aligned with the second group PB of the point group data to finish the calculation, and if it is not small, the step of repeating step S52.

図6を参照する。点群データの2つのグループPA、PBは、ICP計算を行った後互いに位置合わせされる。換言すれば、2つの車両上のLiDARセンサ11によって測定される感知データが共通の感知領域を有する場合、感知データは互いにマージ可能であり、感知データの間の座標誤差は低減できる。異なる車両の感知領域は互いに異なっているため、車両の感知領域が組み合わせられる時、より広い感知領域を得ることが可能であり、それぞれの車両に対する不感地帯または暗帯は軽減できる。
中継ホスト20が複数車両データ統合を終了する時、統合された点群データは、マップ情報の計算のためにクラウドサーバ30に送信されることになる。点群データにおけるそれぞれのデータポイントが3D情報を表すため、統合された点群データはオブジェクトの3D座標情報を表してよい。
See FIG. The two groups PA and PB of the point cloud data are aligned with each other after performing the ICP calculation. In other words, when the sensed data measured by the LiDAR sensors 11 on the two vehicles have a common sensed area, the sensed data can be merged with each other and the coordinate error between the sensed data can be reduced. Since the sensing areas of different vehicles are different from each other, it is possible to obtain a wider sensing area when the vehicle sensing areas are combined, and the dead zone or dark zone for each vehicle can be reduced.
When the relay host 20 finishes the integration of the plurality of vehicle data, the integrated point cloud data will be transmitted to the cloud server 30 for the calculation of the map information. Since each data point in the point cloud data represents 3D information, the integrated point cloud data may represent the 3D coordinate information of the object.

ステップS34における単一車両データ処理モードに関して、中継ホスト20が1つの車両から感知データのみを受信する時、中継ホスト20は車両によって提供される点群データおよび画像データを処理する。
図7Aおよび図7Bに示されるように、LiDARセンサ11およびカメラ12はそれぞれ、同じ環境を検出する時点群データおよび画像データを提供できる。画像データによると、車の後に歩行者がいることが分かる。しかしながら、歩行者は車によって部分的に隠れているため、点群データに従って歩行者が存在するか否かを判断することは困難である。隠れているオブジェクトを正確に認識するために、図8のように、中継ホスト20は以下のステップを有する単一車両データ処理モードを実行する。
Regarding the single vehicle data processing mode in step S34, when the relay host 20 receives only the sensed data from one vehicle, the relay host 20 processes the point cloud data and the image data provided by the vehicle.
As shown in FIGS. 7A and 7B, the LiDAR sensor 11 and the camera 12 can provide time point group data and image data to detect the same environment, respectively. According to the image data, it can be seen that there is a pedestrian behind the car. However, since the pedestrian is partially hidden by the car, it is difficult to determine whether or not the pedestrian exists according to the point cloud data. In order to accurately recognize the hidden object, as shown in FIG. 8, the relay host 20 executes a single vehicle data processing mode having the following steps.

S81:例えば、画像データにおけるオブジェクトに対する第1の結合ボックスを識別する。オブジェクトは、車両オブジェクト、歩行者オブジェクト、オートバイライダーまたは自転車ライダーなどの擬似歩行者オブジェクトであってよく、結合ボックスは既知の画像認識技術によって認識可能である。 S81: For example, the first join box for the object in the image data is identified. The object may be a vehicle object, a pedestrian object, a pseudo-pedestrian object such as a motorcycle rider or a bicycle rider, and the coupling box can be recognized by known image recognition techniques.

S82:点群データにおけるオブジェクトを識別してそれらの第2の結合ボックスを得、かつ画像データを点群データと比較するために第2の結合ボックスを画像データにマッピングする。 S82: Objects in the point cloud data are identified to obtain their second combined box, and the second combined box is mapped to the image data in order to compare the image data with the point cloud data.

S83:点群データにおける第2の結合ボックスによって識別されるオブジェクトが画像データに存在するかどうかを判断し、同じオブジェクトが存在する場合、オブジェクトは明領域オブジェクトに属し、点群データにおけるそれぞれのデータポイントは3D情報を表すため、明領域オブジェクトの3D座標情報は点群データに基づいて得られ得る。例えば、車両は画像データおよび点群データにおいて識別可能であるため、車両は1種類の明領域オブジェクトである。画像データにおける識別された車両が点群データにおける同じものである場合、車両の3D座標情報は点群データに基づいて得られ得る。 S83: Determines whether the object identified by the second join box in the point cloud data exists in the image data, and if the same object exists, the object belongs to the bright region object and each data in the point cloud data. Since the points represent 3D information, the 3D coordinate information of the bright region object can be obtained based on the point cloud data. For example, a vehicle is a type of bright region object because it can be identified in image data and point cloud data. If the identified vehicle in the image data is the same in the point cloud data, the 3D coordinate information of the vehicle can be obtained based on the point cloud data.

S84:画像データが点群データにおいて識別されないオブジェクトであるかどうかを判断する。点群データにおいて識別されないが画像データに存在するオブジェクトがある場合、そのオブジェクトは暗領域オブジェクトに属する。例えば、点群データにおける車両の後ろの歩行者は、暗領域オブジェクトに属してよい。歩行者が画像データにおいて識別される場合、歩行者は暗領域オブジェクトとして確認される。 S84: It is determined whether or not the image data is an object that is not identified in the point cloud data. If there is an object that is not identified in the point cloud data but exists in the image data, that object belongs to the dark area object. For example, the pedestrian behind the vehicle in the point cloud data may belong to the dark area object. When a pedestrian is identified in the image data, the pedestrian is identified as a dark area object.

S85:暗領域オブジェクトの第1の結合ボックスを点群データにマッピングして暗領域オブジェクトの3D座標情報を得る。歩行者およびその第1の結合ボックスは前述のステップS84において確認可能であるため、画像データにおいて識別される第1の結合ボックスの座標は、点群データにおける暗領域オブジェクトの位置に位置するように点群データにおける対応する座標にマッピングされることになる。 S85: The first combination box of the dark area object is mapped to the point cloud data to obtain the 3D coordinate information of the dark area object. Since the pedestrian and its first combined box can be confirmed in step S84 described above, the coordinates of the first combined box identified in the image data are such that they are located at the positions of the dark area objects in the point cloud data. It will be mapped to the corresponding coordinates in the point cloud data.

中継ホスト20が単一車両データ処理モードを終了した後、明領域オブジェクトおよび暗領域オブジェクトの3D座標情報を点群データから得ることが可能である。オブジェクトの3D座標情報はダイナミックマップ情報の計算のためにクラウドサーバ30に送信されることになる。 After the relay host 20 exits the single vehicle data processing mode, it is possible to obtain 3D coordinate information of the bright area object and the dark area object from the point cloud data. The 3D coordinate information of the object will be transmitted to the cloud server 30 for the calculation of the dynamic map information.

クラウドサーバ30が中継ホスト20によって算出されたオブジェクトの3D座標情報を受信する時、クラウドサーバ30は、3D座標情報をベースマップと組み合わせてダイナミックマップ情報を生成し、次いで、ダイナミックマップ情報をそれぞれの車両の人間−機械インターフェース15に送信する。
別の実施形態では、ダイナミックマップ情報は自動運転車両の自動制御のための高精細マップ(HD MAP)である。さらに別の実施形態では、ダイナミックマップ情報は車両ドライバーに可視のマップである。
When the cloud server 30 receives the 3D coordinate information of the object calculated by the relay host 20, the cloud server 30 combines the 3D coordinate information with the base map to generate dynamic map information, and then generates the dynamic map information, respectively. It transmits to the human-machine interface 15 of the vehicle.
In another embodiment, the dynamic map information is a high definition map (HD MAP) for automatic control of an autonomous vehicle. In yet another embodiment, the dynamic map information is a map visible to the vehicle driver.

要するに、異なる車両または1つの車両から感知データを統合することによって、本発明は以下のような効果を実現可能である。 In short, by integrating the sensed data from different vehicles or one vehicle, the present invention can achieve the following effects.

1.暗帯または不感地帯に対する最適化を感知する。
図9Aを参照する。車両A自体は、第1のオブジェクトO1のみを検出できるが、暗帯Zにおける第2のオブジェクトO2を認識できない。しかしながら、例えば、第2のオブジェクトO2を検出できる車両Bの感知データを統合するように、本発明に従って異なる車両から点群データを統合することによって、車両Aに対する感知領域は効果的に拡張できる。統合された点群データを車両のそれぞれに提供後、車両Aは暗帯における第2のオブジェクトO2をうまく認識できる。自動運転車両について、その感知能力は運転経路のプログラミングを高めるように改善できる。
1. 1. Sense optimizations for dark or dead zones.
See FIG. 9A. The vehicle A itself can detect only the first object O1, but cannot recognize the second object O2 in the dark zone Z. However, the sensing area for the vehicle A can be effectively expanded by integrating the point cloud data from different vehicles according to the present invention, for example, to integrate the sensing data of the vehicle B capable of detecting the second object O2. After providing the integrated point cloud data to each of the vehicles, the vehicle A can successfully recognize the second object O2 in the dark zone. For self-driving vehicles, their sensing capabilities can be improved to enhance the programming of the driving path.

2.高精細マップのダイナミック情報を増大させる。
vehicle−to−infrastructure(V2I)通信を通して、それぞれの中継ホスト20は、種々の車から、暗帯、障害物の識別、および走行可能間隔などのさまざまな種類のダイナミック情報を受信できる。統合されたダイナミックマップ情報は、好ましい運転経路を判断するために自動運転車両に対する基準としてのリアルタイム情報を含有する。
2. Increase the dynamic information of high-definition maps.
Through vehicle-to-infrastructure (V2I) communication, each relay host 20 can receive various types of dynamic information from various vehicles, such as dark zones, obstacle identification, and travelable intervals. The integrated dynamic map information includes real-time information as a reference for autonomous vehicles to determine preferred driving routes.

3.分散データ計算アーキテクチャ。
中継ホスト20のそれぞれは、クラウドサーバ30の計算負荷を軽減するためにフロントエンドデータ処理を行うことで、それぞれの車両は環境情報をリアルタイムかつ迅速に得ることが可能である。
3. 3. Distributed data computing architecture.
Each of the relay hosts 20 performs front-end data processing in order to reduce the computational load of the cloud server 30, so that each vehicle can obtain environmental information in real time and quickly.

複数の車両デバイスはそれぞれ、異なる車両に対応して設置される。車両デバイスのそれぞれは、点群データを生成するために車両周辺の環境を感知する光検出測距(LiDAR)センサと、画像データを生成するために車両周辺の環境を捉えるカメラと、LiDARセンサ、カメラ、およびデータ送信ユニットに接続されて、データ送信ユニットを通して送信される点群データおよび画像データを制御する車両コントローラと、人間−機械インターフェースとを備える。

Each of the plurality of vehicle devices is installed corresponding to a different vehicle. Each of the vehicle devices has a light detection distance measurement (LiDAR) sensor that senses the environment around the vehicle to generate point cloud data, a camera that captures the environment around the vehicle to generate image data, and a LiDAR sensor. and a mechanical interface - camera, and is connected to the data transmission unit, and the vehicle controller for controlling the point cloud data and the image data is transmitted through the data transmission unit, between human.

Claims (14)

環境情報を提供可能なダイナミックマップ情報を生成するためのシステムであって、
それぞれ、異なる車両に対応して設置される複数の車両デバイスであって、前記車両デバイスのそれぞれは、点群データを生成するために前記車両周辺の環境を感知する光検出測距(LiDAR)センサ、画像データを生成するために前記車両周辺の前記環境を捉えるカメラ、前記LiDARセンサ、前記カメラ、およびデータ送信ユニットに接続されて、前記データ送信ユニットを通して送信される前記点群データおよび前記画像データを制御する車両コントローラ、および、前記車両コントローラに接続される人間−機械インターフェースを備える、複数の車両デバイスと、
複数の中継ホストであって、それぞれの中継ホストは、前記中継ホスト自体周辺の前記車両からの前記点群データおよび前記画像データを受信し、かつ複数車両データ統合モードを実行することで前記車両から受信された前記点群データをマージして前記環境におけるオブジェクトの3D座標情報を含有する処理結果を生成する、複数の中継ホストと、
前記複数の中継ホストおよび前記複数の車両デバイスと通信し、前記複数車両データ統合モードの前記処理結果を受信し、ダイナミックマップ情報を生成するために前記オブジェクトの3D座標情報をベースマップと統合するクラウドサーバであって、前記ダイナミックマップ情報をそれぞれの車両デバイスの前記人間−機械インターフェースに送信する、クラウドサーバと、を備える、
システム。
A system for generating dynamic map information that can provide environmental information.
A plurality of vehicle devices, each of which is installed corresponding to a different vehicle, each of which is a light detection distance measuring (LiDAR) sensor that senses the environment around the vehicle in order to generate point cloud data. , The point cloud data and the image data connected to the camera, the LiDAR sensor, the camera, and the data transmission unit that capture the environment around the vehicle to generate image data, and transmitted through the data transmission unit. A vehicle controller that controls the vehicle and a plurality of vehicle devices having a human-machine interface connected to the vehicle controller.
A plurality of relay hosts, each of which receives the point cloud data and the image data from the vehicle around the relay host itself, and executes the multiple vehicle data integration mode from the vehicle. A plurality of relay hosts that merge the received point cloud data to generate a processing result containing 3D coordinate information of the object in the environment.
A cloud that communicates with the plurality of relay hosts and the plurality of vehicle devices, receives the processing results of the plurality of vehicle data integration modes, and integrates the 3D coordinate information of the object with the base map in order to generate dynamic map information. A server comprising a cloud server that transmits the dynamic map information to the human-machine interface of each vehicle device.
system.
前記中継ホストが単一の車両のみから前記点群データおよび前記画像データを受信する時、前記中継ホストは、単一車両データ処理モードを実行して前記環境における前記オブジェクトの前記3D座標情報を生成し、かつ前記3D座標情報を前記クラウドサーバに提供することを特徴とする、請求項1に記載のシステム。 When the relay host receives the point cloud data and the image data from only a single vehicle, the relay host executes a single vehicle data processing mode to generate the 3D coordinate information of the object in the environment. The system according to claim 1, wherein the 3D coordinate information is provided to the cloud server. 前記クラウドサーバによって生成される前記ダイナミックマップ情報は高精細(HD)マップ情報であることを特徴とする、請求項1または2に記載のシステム。 The system according to claim 1 or 2, wherein the dynamic map information generated by the cloud server is high-definition (HD) map information. 前記中継ホストは、前記複数車両データ統合モードにおいてiterative Closest Point(ICP)アルゴリズムを使用して、前記点群データをマージすることを特徴とする、請求項1または2に記載のシステム。 The system according to claim 1 or 2, wherein the relay host merges the point cloud data using the iterative Closet Point (ICP) algorithm in the multi-vehicle data integration mode. 前記中継ホストによって受信される前記点群データは、第1の車両によって感知される複数のデータポイントを含む点群データの第1のグループ、および、第2の車両によって感知される複数のデータポイントを含む点群データの第2のグループを含み、前記複数車両データ統合モードに対する前記ICPアルゴリズムは、(a)前記点群データの第1のグループおよび前記点群データの第2のグループを得るステップと、(b)前記点群データの第1のグループと前記点群データの第2のグループとの間の相関性を得るために前記点群データの第1のグループおよび前記点群データの第2のグループにおいて互いにマッチする前記データポイントを判断するステップと、(c)前記点群データの第1のグループと前記点群データの第2のグループとの間の前記相関性に従って変換行列を算出するステップと、(d)前記変換行列によって前記点群データの第1のグループにおけるそれぞれのデータポイントの座標を変換するために変換を実行するステップと、(e)現在の前記変換における現在の二乗平均平方根値、および以前の前記変換の以前の二乗平均平方根値を算出して前記現在の二乗平均平方根値と前記以前の二乗平均平方根値との間の誤差を得るステップと、(f)算出した前記誤差がデフォルトの閾値より小さいかどうかを判断して、小さい場合、前記点群データの第1のグループは前記点群データの第2のグループと位置合わせされて前記複数車両データ統合モードを終了し、小さくない場合、前記ステップ(b)を繰り返すステップと、を含むことを特徴とする、請求項4に記載のシステム。 The point group data received by the relay host includes a first group of point group data including a plurality of data points sensed by the first vehicle, and a plurality of data points sensed by the second vehicle. The ICP algorithm for the multi-vehicle data integration mode comprises a second group of point group data comprising (a) a step of obtaining a first group of the point group data and a second group of the point group data. And (b) the first group of the point group data and the first group of the point group data in order to obtain the correlation between the first group of the point group data and the second group of the point group data. The conversion matrix is calculated according to the step of determining the data points that match each other in the two groups and (c) the correlation between the first group of the point group data and the second group of the point group data. Steps to: (d) perform transformations to transform the coordinates of each data point in the first group of point group data by the transformation matrix, and (e) the current square of the current transformation. The step of calculating the mean square root value and the previous squared mean square root value of the previous transformation to obtain the error between the current squared mean square root value and the previous squared mean square root value, and (f) calculation. It is determined whether the error is smaller than the default threshold, and if it is smaller, the first group of the point group data is aligned with the second group of the point group data and the multiple vehicle data integration mode is terminated. However, the system according to claim 4, further comprising a step of repeating the step (b) if not small. 前記クラウドサーバは、前記ベースマップが記憶されるマップデータベースにアクセスすることを特徴とする、請求項1または2に記載のシステム。 The system according to claim 1 or 2, wherein the cloud server accesses a map database in which the basemap is stored. 環境情報を提供できるダイナミックマップ情報を生成するための方法であって、
(a)車両に設置された車両デバイスからクラウドサーバに確認要求を送るステップと、
(b)複数の中継ホストの中のある中継ホストを指定し、かつ前記確認要求を送る前記車両近くの前記中継ホストを指定するために前記車両の場所に言及する前記クラウドサーバによって指定される前記中継ホストを、前記確認要求を送る前記車両デバイスに通知するステップと、
(c)前記車両から、前記車両デバイスによって指定される前記中継ホストに点群データおよび画像データを送信するステップであって、前記点群データは前記車両周辺の環境を感知するLiDARセンサによって提供され、前記画像データは前記車両周辺の前記環境を捉えるカメラによって提供される、送信するステップと、
(d)前記中継ホストが複数の車両から前記点群データおよび前記画像データを受信する時、前記中継ホストは、複数車両データ統合モードを実行することで、前記複数の車両から受信された前記点群データをマージして前記環境におけるオブジェクトの3D座標情報を含有する処理結果を生成するステップと、
(e)前記クラウドサーバによって、前記中継ホストから複数車両データ統合モードの前記処理結果を受信し、かつダイナミックマップ情報を生成するために前記オブジェクトの3D座標情報をベースマップと統合するステップと、
(f)前記クラウドサーバによって、前記ダイナミックマップ情報を前記車両デバイスの人間−機械インターフェースに送信するステップであって、前記ダイナミックマップ情報は前記環境における前記オブジェクトの3D座標情報を含有する、送信するステップと、を含む、
方法。
A method for generating dynamic map information that can provide environmental information.
(A) The step of sending a confirmation request from the vehicle device installed in the vehicle to the cloud server,
(B) The said cloud server designated by the cloud server that refers to the location of the vehicle to specify a relay host among a plurality of relay hosts and to specify the relay host near the vehicle to which the confirmation request is sent. The step of notifying the relay host to the vehicle device sending the confirmation request, and
(C) A step of transmitting point cloud data and image data from the vehicle to the relay host designated by the vehicle device, wherein the point cloud data is provided by a LiDAR sensor that senses the environment around the vehicle. The image data is provided by a camera that captures the environment around the vehicle, with steps to transmit.
(D) When the relay host receives the point cloud data and the image data from a plurality of vehicles, the relay host executes the multiple vehicle data integration mode to receive the points received from the plurality of vehicles. A step of merging the point cloud data to generate a processing result containing the 3D coordinate information of the object in the environment, and
(E) A step of receiving the processing result of the plurality of vehicle data integration mode from the relay host by the cloud server and integrating the 3D coordinate information of the object with the base map in order to generate dynamic map information.
(F) A step of transmitting the dynamic map information to the human-machine interface of the vehicle device by the cloud server, wherein the dynamic map information includes 3D coordinate information of the object in the environment. And, including
Method.
前記中継ホストが単一の車両のみから前記点群データおよび前記画像データを受信する時、前記中継ホストは、単一車両データ処理モードを実行して前記環境における前記オブジェクトの前記3D座標情報を生成し、かつ前記3D座標情報を前記クラウドサーバに提供することを特徴とする、請求項7に記載の方法。 When the relay host receives the point cloud data and the image data from only a single vehicle, the relay host executes a single vehicle data processing mode to generate the 3D coordinate information of the object in the environment. The method according to claim 7, wherein the 3D coordinate information is provided to the cloud server. 前記クラウドサーバが指定される前記中継ホストを前記車両デバイスに通知する時、前記クラウドサーバは、指定される前記中継ホストのホスト識別コードを前記車両デバイスに送信し、前記車両デバイスは、前記ホスト識別コードに従って、その点群データおよび前記画像データを前記指定される中継ホストに送信し、前記車両デバイスの車両識別コードを前記指定される中継ホストにさらに送信することを特徴とする、請求項7または8に記載の方法。 When the cloud server notifies the vehicle device of the designated relay host, the cloud server transmits the host identification code of the designated relay host to the vehicle device, and the vehicle device identifies the host. 7. The point group data and the image data are transmitted to the designated relay host according to the code, and the vehicle identification code of the vehicle device is further transmitted to the designated relay host. 8. The method according to 8. 前記中継ホストは、前記複数車両データ統合モードにおいてiterative Closest Point(ICP)アルゴリズムを使用して、前記点群データをマージすることを特徴とする、請求項7に記載の方法。 The method of claim 7, wherein the relay host merges the point cloud data using the iterative Closet Point (ICP) algorithm in the multi-vehicle data integration mode. 前記中継ホストによって受信される前記点群データは、第1の車両によって感知される複数のデータポイントを含む点群データの第1のグループ、および、第2の車両によって感知される複数のデータポイントを含む点群データの第2のグループを含み、前記複数車両データ統合モードに対する前記ICPアルゴリズムは、(a)前記点群データの第1のグループおよび前記点群データの第2のグループを得るステップと、(b)前記点群データの第1のグループと前記点群データの第2のグループとの間の相関性を得るために前記点群データの第1のグループおよび前記点群データの第2のグループにおいて互いにマッチする前記データポイントを判断するステップと、(c)前記点群データの第1のグループと前記点群データの第2のグループとの間の前記相関性に従って変換行列を算出するステップと、(d)前記変換行列によって前記点群データの第1のグループにおけるそれぞれのデータポイントの座標を変換するために変換を実行するステップと、(e)現在の前記変換における現在の二乗平均平方根値、および以前の前記変換の以前の二乗平均平方根値を算出して前記現在の二乗平均平方根値と前記以前の二乗平均平方根値との間の誤差を得るステップと、(f)算出した前記誤差がデフォルトの閾値より小さいかどうかを判断して、小さい場合、前記点群データの第1のグループは前記点群データの第2のグループと位置合わせされて前記複数車両データ統合モードを終了し、小さくない場合、前記ステップ(b)を繰り返すステップと、を含むことを特徴とする、請求項10に記載の方法。 The point group data received by the relay host includes a first group of point group data including a plurality of data points sensed by the first vehicle, and a plurality of data points sensed by the second vehicle. The ICP algorithm for the multi-vehicle data integration mode comprises a second group of point group data comprising (a) a step of obtaining a first group of the point group data and a second group of the point group data. And (b) the first group of the point group data and the first group of the point group data in order to obtain the correlation between the first group of the point group data and the second group of the point group data. The conversion matrix is calculated according to the step of determining the data points that match each other in the two groups and (c) the correlation between the first group of the point group data and the second group of the point group data. Steps to: (d) perform transformations to transform the coordinates of each data point in the first group of point group data by the transformation matrix, and (e) the current square of the current transformation. The step of calculating the mean square root value and the previous squared mean square root value of the previous transformation to obtain the error between the current squared mean square root value and the previous squared mean square root value, and (f) calculation. It is determined whether the error is smaller than the default threshold, and if it is smaller, the first group of the point group data is aligned with the second group of the point group data and the multi-vehicle data integration mode is terminated. However, the method according to claim 10, further comprising a step of repeating the step (b) if not small. 中継ホストによって実行される前記単一車両データ処理モードは、前記画像データにおけるオブジェクトに対する第1の結合ボックスを識別して前記画像データにおける前記オブジェクトの位置を得るステップと、前記点群データにおけるオブジェクトを識別して前記点群データにおける前記オブジェクトの第2の結合ボックスを得るステップと、前記点群データにおける前記第2の結合ボックスによって識別される前記オブジェクトが前記画像データに存在するかどうかを判断するステップであって、同じオブジェクトが前記点群データおよび前記画像データに存在する場合、前記同じオブジェクトは明領域オブジェクトに属し、前記明領域オブジェクトの3D座標情報は前記点群データに従って得られる、判断するステップと、前記画像データが前記点群データにおいて識別されないオブジェクトを含有するかどうかを判断するステップであって、前記点群データにおいて識別されないが前記画像データに存在するオブジェクトがある場合、前記オブジェクトは暗領域オブジェクトに属する、判断するステップと、前記暗領域オブジェクトの前記第1の結合ボックスを前記点群データにマッピングして前記暗領域オブジェクトの3D座標情報を得るステップと、を含むことを特徴とする、請求項8に記載の方法。 The single vehicle data processing mode executed by the relay host identifies the first join box for the object in the image data to obtain the position of the object in the image data and the object in the point group data. A step of identifying to obtain a second join box of the object in the point group data and determining whether the object identified by the second join box in the point group data exists in the image data. In the step, when the same object exists in the point group data and the image data, it is determined that the same object belongs to the bright area object and the 3D coordinate information of the bright area object is obtained according to the point group data. A step and a step of determining whether or not the image data contains an object that is not identified in the point group data, and if there is an object that is not identified in the point group data but exists in the image data, the object is It is characterized by including a step of determining belonging to the dark area object and a step of mapping the first connection box of the dark area object to the point group data to obtain 3D coordinate information of the dark area object. The method according to claim 8. 前記画像データにおいて識別可能である前記オブジェクトは、車両オブジェクト、歩行者オブジェクト、および擬似歩行者オブジェクトを含むことを特徴とする、請求項12に記載の方法。 12. The method of claim 12, wherein the object identifiable in the image data includes a vehicle object, a pedestrian object, and a pseudo-pedestrian object. 前記クラウドサーバによって生成される前記ダイナミックマップ情報は高精細(HD)マップ情報であることを特徴とする、請求項7または8に記載の方法。 The method according to claim 7 or 8, wherein the dynamic map information generated by the cloud server is high-definition (HD) map information.
JP2019201445A 2019-11-06 2019-11-06 Methods and systems for generating dynamic map information that can provide environmental information Active JP6999625B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019201445A JP6999625B2 (en) 2019-11-06 2019-11-06 Methods and systems for generating dynamic map information that can provide environmental information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019201445A JP6999625B2 (en) 2019-11-06 2019-11-06 Methods and systems for generating dynamic map information that can provide environmental information

Publications (2)

Publication Number Publication Date
JP2021076962A true JP2021076962A (en) 2021-05-20
JP6999625B2 JP6999625B2 (en) 2022-02-04

Family

ID=75897951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019201445A Active JP6999625B2 (en) 2019-11-06 2019-11-06 Methods and systems for generating dynamic map information that can provide environmental information

Country Status (1)

Country Link
JP (1) JP6999625B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004351977A (en) * 2003-05-27 2004-12-16 Matsushita Electric Ind Co Ltd Vehicle outside image display device
US20130242284A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
JP2017166846A (en) * 2016-03-14 2017-09-21 株式会社デンソー Object recognition device
JP2018092472A (en) * 2016-12-06 2018-06-14 トヨタ自動車株式会社 Distributed data processing system, center server, edge server, mobile terminal, and method
WO2018151211A1 (en) * 2017-02-15 2018-08-23 株式会社Preferred Networks Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle
WO2019008755A1 (en) * 2017-07-07 2019-01-10 マクセル株式会社 Information processing system, and information processing system infrastructure and information processing method used in same
WO2019044499A1 (en) * 2017-09-04 2019-03-07 日本電産株式会社 Mobile body, location estimation device, and computer program
JP2019087847A (en) * 2017-11-06 2019-06-06 Kddi株式会社 Server device, control method therefor, and program
JP2019185366A (en) * 2018-04-10 2019-10-24 住友電気工業株式会社 Information processing device, system, method, and computer program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004351977A (en) * 2003-05-27 2004-12-16 Matsushita Electric Ind Co Ltd Vehicle outside image display device
US20130242284A1 (en) * 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
JP2017166846A (en) * 2016-03-14 2017-09-21 株式会社デンソー Object recognition device
JP2018092472A (en) * 2016-12-06 2018-06-14 トヨタ自動車株式会社 Distributed data processing system, center server, edge server, mobile terminal, and method
WO2018151211A1 (en) * 2017-02-15 2018-08-23 株式会社Preferred Networks Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle
WO2019008755A1 (en) * 2017-07-07 2019-01-10 マクセル株式会社 Information processing system, and information processing system infrastructure and information processing method used in same
WO2019044499A1 (en) * 2017-09-04 2019-03-07 日本電産株式会社 Mobile body, location estimation device, and computer program
JP2019087847A (en) * 2017-11-06 2019-06-06 Kddi株式会社 Server device, control method therefor, and program
JP2019185366A (en) * 2018-04-10 2019-10-24 住友電気工業株式会社 Information processing device, system, method, and computer program

Also Published As

Publication number Publication date
JP6999625B2 (en) 2022-02-04

Similar Documents

Publication Publication Date Title
US10943355B2 (en) Systems and methods for detecting an object velocity
CN110312912B (en) Automatic vehicle parking system and method
EP3283843B1 (en) Generating 3-dimensional maps of a scene using passive and active measurements
US11010927B2 (en) Method and system for generating dynamic map information capable of providing environment information
US11270457B2 (en) Device and method for detection and localization of vehicles
JP6682833B2 (en) Database construction system for machine learning of object recognition algorithm
CN110765894B (en) Target detection method, device, equipment and computer readable storage medium
CN107567412A (en) Measured using vehicle camera using the object's position of vehicle motion data
KR102056147B1 (en) Registration method of distance data and 3D scan data for autonomous vehicle and method thereof
JP2014138420A (en) Depth sensing method and system for autonomous vehicle
CN112346453A (en) Automatic robot recharging method and device, robot and storage medium
WO2019181284A1 (en) Information processing device, movement device, method, and program
JP2021534494A (en) Camera evaluation technology for autonomous vehicles
CN111222441B (en) Point cloud target detection and blind area target detection method and system based on vehicle-road cooperation
WO2019188391A1 (en) Control device, control method, and program
US11847562B2 (en) Obstacle recognition assistance device, obstacle recognition assistance method, and storage medium
US11150096B2 (en) Method and device for the localization of a vehicle based on a degree of robustness of the localization
US11676403B2 (en) Combining visible light camera and thermal camera information
US20230237783A1 (en) Sensor fusion
WO2021168854A1 (en) Method and apparatus for free space detection
Mallik et al. Real-time Detection and Avoidance of Obstacles in the Path of Autonomous Vehicles Using Monocular RGB Camera
JP6999625B2 (en) Methods and systems for generating dynamic map information that can provide environmental information
Kotur et al. Camera and LiDAR sensor fusion for 3d object tracking in a collision avoidance system
JP7326429B2 (en) How to select the sensor image interval
WO2023010870A1 (en) Robot navigation method, robot, robot system, apparatus and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211222

R150 Certificate of patent or registration of utility model

Ref document number: 6999625

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150