JP2017090239A - Information processing device, control method, program, and storage media - Google Patents

Information processing device, control method, program, and storage media Download PDF

Info

Publication number
JP2017090239A
JP2017090239A JP2015220324A JP2015220324A JP2017090239A JP 2017090239 A JP2017090239 A JP 2017090239A JP 2015220324 A JP2015220324 A JP 2015220324A JP 2015220324 A JP2015220324 A JP 2015220324A JP 2017090239 A JP2017090239 A JP 2017090239A
Authority
JP
Japan
Prior art keywords
information
unit
feature
environment information
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015220324A
Other languages
Japanese (ja)
Other versions
JP6656886B2 (en
Inventor
陽子 藤田
Yoko Fujita
陽子 藤田
淳也 大石
Junya Oishi
淳也 大石
正行 天沼
Masayuki Amanuma
正行 天沼
守通 沓名
Morimichi Kutsuna
守通 沓名
聡智 阿部
Souchi Abe
聡智 阿部
和浩 中尾
Kazuhiro Nakao
和浩 中尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Geotechnologies Inc
Original Assignee
Pioneer Electronic Corp
Increment P Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp, Increment P Corp filed Critical Pioneer Electronic Corp
Priority to JP2015220324A priority Critical patent/JP6656886B2/en
Publication of JP2017090239A publication Critical patent/JP2017090239A/en
Application granted granted Critical
Publication of JP6656886B2 publication Critical patent/JP6656886B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device capable of acquiring extensive measurement data efficiently.SOLUTION: A server device 3 acquires 3D point group data Pt from a high precision measurement unit l including a rider 12 and RTK-GPS13 and also acquires 3D point group data Qt from a simple measurement unit 2 including a rider 22 and GPS23. Then, the server device 3 extracts feature point data Rt and St representing the shape of characteristic features at a connection point Lc of a measurement section by the simple measurement unit 2 with that of the high precision measurement unit l to correct the 3D point group data Qt based on the difference.SELECTED DRAWING: Figure 1

Description

本発明は、地図データの生成技術に関する。   The present invention relates to a map data generation technique.

近年、車両にレーザースキャナやカメラを搭載し、車両周辺の情報を収集する移動体計測車両が開発されている。例えば、特許文献1には、同じ走行路を複数回走行し、各走行でのレーザー点群の結果において位置が変化しない固定物を基準点とし、基準点が重ね合わさるように点群を伸縮する後処理を行うことで、三次元点群の座標位置データを高精度に算出することが開示されている。   2. Description of the Related Art In recent years, a mobile measurement vehicle has been developed in which a laser scanner or a camera is mounted on a vehicle to collect information around the vehicle. For example, in Patent Document 1, the same traveling route is traveled a plurality of times, a fixed object whose position does not change in the result of the laser point group in each traveling is used as a reference point, and the point group is expanded and contracted so that the reference points overlap. It is disclosed that coordinate position data of a three-dimensional point group is calculated with high accuracy by performing post-processing.

特開2013−40886号公報JP 2013-40886 A

ところで、特許文献1の技術によって取得された点群のデータは、例えば、車両の自動運転に用いられる高精度な地図の素材として利用されることがある。日本全国の高精度な地図を作成しようとした場合、日本全国の非常に広範囲にわたる点群データを取得することが好ましいが、これを取得するには多くの時間と手間がかかる。例えば、複数の車両で計測範囲を分担し、それぞれの車両にて取得された点群データを手動で繋ぎ合わせることが考えられるが、計測範囲が広ければ広いほど、計測車両の数が増えるほど、その作業は非常に多くの時間と手間がかかるものであった。   By the way, the data of the point cloud acquired by the technique of patent document 1 may be utilized as a highly accurate map material used for automatic driving of a vehicle, for example. When trying to create a high-precision map of the whole country of Japan, it is preferable to acquire point cloud data over a very wide area of Japan, but it takes a lot of time and effort to obtain this. For example, it is conceivable to share the measurement range by a plurality of vehicles and manually connect the point cloud data acquired by each vehicle, but the wider the measurement range, the more the number of measurement vehicles increases, The work was very time consuming and laborious.

また、特許文献1の技術は、高精度なデータを得ることが可能である一方で、同じ走行路を複数回走行することが必要となるため、広範囲のデータ収集という観点からすると改善の余地があるものである。   In addition, while the technology of Patent Document 1 can obtain highly accurate data, it is necessary to travel a plurality of times on the same traveling route, so there is room for improvement from the viewpoint of collecting a wide range of data. There is something.

本発明は、上記のような課題を解決するためになされたものであり、効率的に広範囲な測定データを得ることが可能な情報処理装置を提供することを主な目的とする。   The present invention has been made to solve the above-described problems, and a main object of the present invention is to provide an information processing apparatus capable of efficiently obtaining a wide range of measurement data.

請求項に記載の発明は、情報処理装置であって、第1経路を移動する第1移動体が有する第1環境情報取得部により取得される前記第1移動体の周囲の情報である第1環境情報を取得する第1取得部と、前記第1経路とは異なる第2経路を移動する第2移動体が有する第2環境情報取得部により取得される前記第2移動体の周囲の情報である第2環境情報を取得する第2取得部と、前記第1環境情報と前記第2環境情報とに基づいて抽出された特徴情報に基づいて、前記第1環境情報と前記第2環境情報とを合成する合成部と、を備えることを特徴とする。   The first aspect of the present invention is an information processing apparatus, which is information about a periphery of the first moving body acquired by a first environment information acquiring unit included in the first moving body moving on the first route. Information on the surroundings of the second moving body acquired by a first acquiring unit that acquires environmental information and a second environmental information acquiring unit included in a second moving body that moves on a second route different from the first route A second acquisition unit configured to acquire certain second environment information; and the first environment information and the second environment information based on feature information extracted based on the first environment information and the second environment information. And a synthesizing unit that synthesizes.

また、請求項に記載の発明は、情報処理装置が実行する制御方法であって、第1経路を移動する第1移動体が有する第1環境情報取得部により取得される前記第1移動体の周囲の情報である第1環境情報を取得する第1取得工程と、前記第1経路とは異なる第2経路を移動する第2移動体が有する第2環境情報取得部により取得される前記第2移動体の周囲の情報である第2環境情報を取得する第2取得工程と、前記第1環境情報と前記第2環境情報とに基づいて抽出された特徴情報に基づいて、前記第1環境情報と前記第2環境情報とを合成する合成工程と、を有することを特徴とする。   The invention described in the claims is a control method executed by the information processing apparatus, wherein the first mobile body acquired by the first environment information acquisition unit of the first mobile body moving on the first route is provided. The first acquisition step of acquiring the first environment information that is surrounding information, and the second environment information acquisition unit included in the second moving body that moves on the second route different from the first route. Based on feature information extracted based on a second acquisition step of acquiring second environment information, which is information around the mobile body, and the first environment information and the second environment information, the first environment information And a synthesis step for synthesizing the second environment information.

また、請求項に記載の発明は、コンピュータが実行するプログラムであって、第1経路を移動する第1移動体が有する第1環境情報取得部により取得される前記第1移動体の周囲の情報である第1環境情報を取得する第1取得部と、前記第1経路とは異なる第2経路を移動する第2移動体が有する第2環境情報取得部により取得される前記第2移動体の周囲の情報である第2環境情報を取得する第2取得部と、前記第1環境情報と前記第2環境情報とに基づいて抽出された特徴情報に基づいて、前記第1環境情報と前記第2環境情報とを合成する合成部として前記コンピュータを機能させることを特徴とする。   The invention described in the claims is a program executed by a computer, and is information about the first moving body acquired by a first environment information acquiring unit included in the first moving body moving on the first route. Of the second moving body acquired by the first acquiring unit that acquires the first environmental information and the second environmental information acquiring unit included in the second moving body that moves on a second route different from the first route. Based on feature information extracted based on a second acquisition unit that acquires second environment information, which is surrounding information, and on the first environment information and the second environment information, the first environment information and the first (2) The computer is caused to function as a synthesizing unit that synthesizes two environment information.

計測システムの概略構成である。It is a schematic structure of a measurement system. 主要道路及び主要道路に接続する非主要道路を含むエリアの俯瞰図である。It is a bird's-eye view of the area containing the main road and the non-main road connected to the main road. 点群データ補正処理のフローチャートを示す。The flowchart of a point cloud data correction process is shown.

本発明の好適な実施形態によれば、情報処理装置は、第1経路を移動する第1移動体が有する第1環境情報取得部により取得される前記第1移動体の周囲の情報である第1環境情報を取得する第1取得部と、前記第1経路とは異なる第2経路を移動する第2移動体が有する第2環境情報取得部により取得される前記第2移動体の周囲の情報である第2環境情報を取得する第2取得部と、前記第1環境情報と前記第2環境情報とに基づいて抽出された特徴情報に基づいて、前記第1環境情報と前記第2環境情報とを合成する合成部と、を備える。   According to a preferred embodiment of the present invention, the information processing apparatus is information about the surroundings of the first moving body acquired by the first environment information acquiring unit included in the first moving body moving on the first route. 1st acquisition part which acquires 1 environment information, and the surrounding information of the said 2nd mobile body acquired by the 2nd environment information acquisition part which the 2nd mobile body which moves the 2nd path | route different from the said 1st path | route has A second acquisition unit for acquiring the second environment information, and the first environment information and the second environment information based on the feature information extracted based on the first environment information and the second environment information. A synthesizing unit that synthesizes.

上記情報処理装置は、第1取得部と、第2取得部と、合成部とを備える。第1取得部は、第1経路を移動する第1移動体が有する第1環境情報取得部により取得される第1環境情報を取得する。第2取得部は、第1経路とは異なる第2経路を移動する第2移動体が有する第2環境情報取得部によって取得される第2環境情報を取得する。合成部は、第1環境情報と第2環境情報とに基づいて抽出された特徴情報に基づいて、第1環境情報と第2環境情報とを合成する。この態様では、情報処理装置は、第1移動体の移動により取得した第1環境情報と、第2移動体の移動により取得した第2環境情報とを合成することで、効率的に広範囲な測定データを得ることができる。   The information processing apparatus includes a first acquisition unit, a second acquisition unit, and a synthesis unit. A 1st acquisition part acquires the 1st environment information acquired by the 1st environment information acquisition part which the 1st moving body which moves the 1st path | route has. A 2nd acquisition part acquires the 2nd environment information acquired by the 2nd environment information acquisition part which the 2nd mobile which moves the 2nd course different from the 1st course has. The synthesizing unit synthesizes the first environment information and the second environment information based on the feature information extracted based on the first environment information and the second environment information. In this aspect, the information processing apparatus synthesizes the first environment information acquired by the movement of the first moving body and the second environment information acquired by the movement of the second moving body, thereby efficiently measuring a wide range. Data can be obtained.

上記情報処理装置の一態様では、前記第1取得部は、前記第1環境情報と、第1自己位置推定部によって推定された前記第1移動体の第1位置情報と、が統合され又は関連付けられた第1情報を取得し、前記第2取得部は、前記第2環境情報と、前記第1自己位置推定部よりも推定精度が低い第2自己位置推定部によって推定された前記第2移動体の第2位置情報と、が統合され又は関連付けられた第2情報を取得し、前記合成部は、前記第1情報と前記第2情報とに基づいて抽出された特徴情報に基づいて、前記第1情報と前記第2情報とを合成する。この態様により、情報処理装置は、地図データ等として利用可能な位置情報を含む広範囲の測定データを効率的に取得することができる。   In one aspect of the information processing apparatus, the first acquisition unit integrates or associates the first environment information and the first position information of the first moving body estimated by the first self-position estimation unit. The second acquisition unit obtains the second movement estimated by the second environment information and a second self-position estimation unit having an estimation accuracy lower than that of the first self-position estimation unit. Body second position information is integrated or associated with the second information, the synthesis unit, based on the feature information extracted based on the first information and the second information, The first information and the second information are combined. With this aspect, the information processing apparatus can efficiently acquire a wide range of measurement data including position information that can be used as map data or the like.

上記情報処理装置の他の一態様では、前記第2自己位置推定部の推定精度は、前記第1自己位置推定部より推定精度が低く、情報処理装置は、前記特徴情報に基づいて、前記第2情報を補正する補正部を更に備える。この態様では、情報処理装置は、第1自己位置推定部よりも推定精度が低い第2自己位置推定部に基づき生成した第2情報を、高精度な第1自己位置推定部を用いて生成した第1情報により補正し、第2情報の精度を好適に高めることができる。よって、この態様により、情報処理装置は、第1自己位置推定部よりも推定精度が低い第2自己位置推定部を効率的に活用し、計測に要する費用や手間などを好適に抑制しつつ高精度な測定データを得ることができる。   In another aspect of the information processing apparatus, the estimation accuracy of the second self-position estimation unit is lower than that of the first self-position estimation unit, and the information processing apparatus performs the first estimation based on the feature information. 2 further includes a correction unit that corrects the information. In this aspect, the information processing apparatus generates the second information generated based on the second self-position estimation unit having a lower estimation accuracy than the first self-position estimation unit using the high-accuracy first self-position estimation unit. It can correct | amend with 1st information and can improve the precision of 2nd information suitably. Therefore, according to this aspect, the information processing apparatus efficiently uses the second self-position estimation unit having a lower estimation accuracy than the first self-position estimation unit, and appropriately suppresses costs and labor required for measurement. Accurate measurement data can be obtained.

上記情報処理装置の一態様では、前記第1環境情報取得部は第1レーザースキャナを含み、前記第2環境情報取得部は第2レーザースキャナを含み、前記第1情報は、前記第1レーザースキャナによって計測された前記第1移動体と周囲の地物における照射点との距離情報と、前記第1自己位置推定部によって推定された前記第1移動体の第1位置情報と、に基づいて推定された、前記第1レーザースキャナのレーザー光が照射された前記地物の照射点からなる点群のそれぞれの座標位置を示す第1点群情報を含み、前記第2情報は、前記第2レーザースキャナによって計測された前記第2移動体と周囲の地物における照射点との距離情報と、前記第2自己位置推定部によって推定された前記第2移動体の第2位置情報と、に基づいて推定された、前記第2レーザースキャナのレーザー光が照射された前記地物の照射点からなる点群のそれぞれの座標位置を示す第2点群情報を含む。この態様では、情報処理装置は、第1移動体及び第2移動体が走行した経路に沿った点群情報を好適に生成することができ、自動運転等に用いられる地図データの生成等に好適に活用することができる。   In one aspect of the information processing apparatus, the first environment information acquisition unit includes a first laser scanner, the second environment information acquisition unit includes a second laser scanner, and the first information is the first laser scanner. Estimated on the basis of distance information between the first moving body and irradiation points on surrounding features measured by the first position information of the first moving body estimated by the first self-position estimating unit The first point group information indicating each coordinate position of a point group composed of irradiation points of the feature irradiated with the laser beam of the first laser scanner is included, and the second information includes the second laser Based on distance information between the second moving body measured by the scanner and irradiation points on surrounding features, and second position information on the second moving body estimated by the second self-position estimating unit. Estimated And, including the second laser and the second point group information indicating the respective coordinate positions of the point groups of illuminated points of the feature that a laser beam is irradiated in the scanner. In this aspect, the information processing apparatus can suitably generate point cloud information along the route traveled by the first moving body and the second moving body, and is suitable for generating map data used for automatic driving or the like. It can be used for.

上記情報処理装置の他の一態様では、前記第1環境情報取得部は第1カメラを含み、前記第2環境情報取得部は第2カメラを含み、前記第1情報は、前記第1カメラによって撮影された第1画像と、前記第1自己位置推定部によって推定された前記第1移動体の第1位置情報とが関連付けられた情報を含み、前記第2情報は、前記第2カメラによって撮影された第2画像と、前記第2自己位置推定部によって推定された前記第2移動体の第2位置情報とが関連付けられた情報を含み、前記補正部は、前記特徴情報に基づいて、前記第2画像に関連付けられた第2位置情報を補正する。この態様により、情報処理装置は、第1移動体及び第2移動体が走行した経路に沿って撮影した画像を高精度な位置情報と好適に関連付けることができる。   In another aspect of the information processing apparatus, the first environment information acquisition unit includes a first camera, the second environment information acquisition unit includes a second camera, and the first information is transmitted from the first camera. Including information in which the photographed first image is associated with the first position information of the first moving body estimated by the first self-position estimating unit, and the second information is photographed by the second camera. Information associated with the second position information of the second moving body estimated by the second self-position estimation unit, and the correction unit, based on the feature information, The second position information associated with the second image is corrected. According to this aspect, the information processing apparatus can suitably associate an image captured along a route traveled by the first moving body and the second moving body with high-accuracy position information.

上記情報処理装置の他の一態様では、情報処理装置は、前記第1経路と前記第2経路とが接続する地点を基準として、前記第1情報及び前記第2情報から共通して特定される地物に対応する特徴情報を抽出する抽出部をさらに備える。この態様により、情報処理装置は、第2情報を第1情報により補正するための基準となる特徴情報を好適に抽出することができる。   In another aspect of the information processing apparatus, the information processing apparatus is specified in common from the first information and the second information on the basis of a point where the first route and the second route are connected. The apparatus further includes an extraction unit that extracts feature information corresponding to the feature. According to this aspect, the information processing apparatus can suitably extract feature information serving as a reference for correcting the second information with the first information.

上記情報処理装置の他の一態様では、前記補正部は、前記第1情報から抽出した特徴情報が示す座標位置と、前記第2情報から抽出した特徴情報が示す座標位置との差分量に基づき、前記第2情報を補正する。この態様により、情報処理装置は、第2情報を第1情報により好適に補正することができる。   In another aspect of the information processing apparatus, the correction unit is based on a difference amount between a coordinate position indicated by the feature information extracted from the first information and a coordinate position indicated by the feature information extracted from the second information. The second information is corrected. With this aspect, the information processing apparatus can suitably correct the second information with the first information.

本発明の他の好適な実施形態によれば、情報処理装置が実行する制御方法であって、第1経路を移動する第1移動体が有する第1環境情報取得部により取得される前記第1移動体の周囲の情報である第1環境情報を取得する第1取得工程と、前記第1経路とは異なる第2経路を移動する第2移動体が有する第2環境情報取得部により取得される前記第2移動体の周囲の情報である第2環境情報を取得する第2取得工程と、前記第1環境情報と前記第2環境情報とに基づいて抽出された特徴情報に基づいて、前記第1環境情報と前記第2環境情報とを合成する合成工程と、を有する。情報処理装置は、この制御方法を実行することで、効率的に広範囲な測定データを得ることができる。   According to another preferred embodiment of the present invention, there is provided a control method executed by the information processing apparatus, wherein the first environment information acquisition unit included in the first mobile body moving on the first route is the first method. Acquired by a first acquisition step of acquiring first environment information, which is information around the mobile body, and a second environment information acquisition unit of a second mobile body that moves on a second route different from the first route. Based on feature information extracted based on a second acquisition step of acquiring second environment information, which is information around the second mobile body, and the first environment information and the second environment information, the second A synthesis step of synthesizing the first environment information and the second environment information. The information processing apparatus can efficiently obtain a wide range of measurement data by executing this control method.

本発明の他の好適な実施形態によれば、コンピュータが実行するプログラムであって、第1経路を移動する第1移動体が有する第1環境情報取得部により取得される前記第1移動体の周囲の情報である第1環境情報を取得する第1取得部と、前記第1経路とは異なる第2経路を移動する第2移動体が有する第2環境情報取得部により取得される前記第2移動体の周囲の情報である第2環境情報を取得する第2取得部と、前記第1環境情報と前記第2環境情報とに基づいて抽出された特徴情報に基づいて、前記第1環境情報と前記第2環境情報とを合成する合成部として前記コンピュータを機能させる。コンピュータは、このプログラムを実行することで、効率的に広範囲な測定データを得ることができる。好適には、上記プログラムは、記憶媒体に記憶される。   According to another preferred embodiment of the present invention, there is provided a program executed by a computer, the first moving body acquired by a first environment information acquiring unit included in the first moving body that moves on the first route. The first acquisition unit that acquires first environment information that is surrounding information, and the second environment information acquisition unit that is included in a second moving body that moves on a second route different from the first route. Based on feature information extracted based on the first environment information and the second environment information, a second acquisition unit that acquires second environment information that is information around the mobile body, and the first environment information And the second environment information are made to function as a synthesizing unit. The computer can efficiently obtain a wide range of measurement data by executing this program. Preferably, the program is stored in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

[計測システムの概要]
図1は、本実施例に係る計測システムの概略構成である。計測システムは、自動運転等に必要な地図データの一部として使用される三次元(3D)点群データを生成するためのシステムであり、主に、高精度計測ユニット1と、簡易計測ユニット2と、サーバ装置3とを有する。高精度計測ユニット1及び簡易計測ユニット2は、それぞれ車両に搭載される。
[Outline of measurement system]
FIG. 1 is a schematic configuration of a measurement system according to the present embodiment. The measurement system is a system for generating three-dimensional (3D) point cloud data used as a part of map data necessary for automatic driving or the like, and mainly includes a high-precision measurement unit 1 and a simple measurement unit 2. And a server device 3. The high-precision measurement unit 1 and the simple measurement unit 2 are each mounted on a vehicle.

高精度計測ユニット1は、高精度な3D点群データを生成するシステムであり、主に車載機11と、ライダ(Lidar:Laser Illuminated Detection And Ranging)12と、RTK−GPS13と、IMU(Inertial Measurement Unit)14とを有する。また、簡易計測ユニット2は、高精度計測ユニット1よりも精度が低い3D点群データを生成するシステムであり、主に車載機21と、ライダ22と、GPS23と、IMU24とを有する。   The high-precision measurement unit 1 is a system that generates high-precision 3D point cloud data, and mainly includes an in-vehicle device 11, a lidar (Lider: Laser Illuminated Detection And Ranging) 12, an RTK-GPS13, an IMU (Internal Measurement). Unit) 14. The simple measurement unit 2 is a system that generates 3D point cloud data with lower accuracy than the high-precision measurement unit 1, and mainly includes an in-vehicle device 21, a rider 22, a GPS 23, and an IMU 24.

ライダ12、22は、パルス状に発光するレーザー照射に対する散乱光を測定することで、外界に存在する物体までの距離を離散的に測定し、当該物体の位置を示す3次元の点群データを出力する。ライダ12、22が出力する点群データは、車両の位置及び進行方向に依存する相対的な3次元位置情報である。なお、ライダ12とライダ22とは同一精度であってもよく、ライダ12がライダ22よりも高精度であってもよい。ライダ12は本発明における「第1環境情報取得部」及び「第1レーザースキャナ」の一例であり、ライダ12が出力するデータは本発明における「第1環境情報」の一例である。同様に、ライダ22は本発明における「第2環境情報取得部」及び「第2レーザースキャナ」の一例であり、ライダ22が出力するデータは本発明における「第2環境情報」の一例である。   The lidars 12 and 22 discretely measure the distance to an object existing in the outside world by measuring scattered light in response to laser irradiation that emits pulses, and obtain three-dimensional point cloud data indicating the position of the object. Output. The point cloud data output by the lidars 12 and 22 is relative three-dimensional position information that depends on the position and traveling direction of the vehicle. The lidar 12 and the lidar 22 may have the same accuracy, and the lidar 12 may have a higher accuracy than the lidar 22. The lidar 12 is an example of the “first environment information acquisition unit” and the “first laser scanner” in the present invention, and the data output from the lidar 12 is an example of the “first environment information” in the present invention. Similarly, the lidar 22 is an example of the “second environment information acquisition unit” and “second laser scanner” in the present invention, and the data output from the lidar 22 is an example of the “second environment information” in the present invention.

RTK−GPS13は、RTK測位方式(即ち干渉測位方式)に基づき車両の絶対的な位置(例えば緯度、経度、及び高度の3次元位置)を示す高精度な位置情報を生成する。また、GPS23は、単独測位方式又は相対測位方式に基づき車両の絶対的な位置を示す位置情報を生成する。RTK−GPS13が出力する位置情報は、GPS23が出力する位置情報よりも位置推定精度が高い。RTK−GPS13は本発明における「第1自己位置推定部」の一例であり、RTK−GPS13が出力する位置情報は本発明における「第1位置情報」の一例である。また、GPS23は本発明における「第2自己位置推定部」の一例であり、GPS23が出力する位置情報は本発明における「第2位置情報」の一例である。IMU(慣性計測装置)14、24は、3軸方向における車両の加速度及び角速度(又は角度)を出力する。   The RTK-GPS 13 generates highly accurate position information indicating the absolute position of the vehicle (for example, a three-dimensional position of latitude, longitude, and altitude) based on the RTK positioning method (that is, the interference positioning method). The GPS 23 generates position information indicating the absolute position of the vehicle based on the single positioning method or the relative positioning method. The position information output from the RTK-GPS 13 has higher position estimation accuracy than the position information output from the GPS 23. The RTK-GPS 13 is an example of the “first self-position estimation unit” in the present invention, and the position information output by the RTK-GPS 13 is an example of the “first position information” in the present invention. The GPS 23 is an example of a “second self-position estimation unit” in the present invention, and the position information output from the GPS 23 is an example of “second position information” in the present invention. The IMUs (inertia measuring devices) 14 and 24 output the acceleration and angular velocity (or angle) of the vehicle in the three-axis directions.

車載機11は、RTK−GPS13から供給される出力に基づき、車両の絶対的な位置及び方位を特定し、ライダ12が検知した点群の各点について、車両の位置及び向きに依存した相対的な3次元位置情報から絶対的な3次元位置情報を算出する。なお、車両の絶対的な位置及び方位は、RTK−GPS13からの出力に加え、IMU14の出力に基づいて特定するようにしてもよい。そして、車載機11は、算出した3次元点群データ「Pt」を、サーバ装置3へ供給する。この場合、車載機11は、算出した3次元点群データPtを無線通信により即時にサーバ装置3へ送信してもよく、サーバ装置3が後で読取り可能な記憶媒体等に蓄積してもよい。3次元点群データPtは、本発明における「第1情報」の一例である。   The in-vehicle device 11 specifies the absolute position and direction of the vehicle based on the output supplied from the RTK-GPS 13, and for each point of the point group detected by the lidar 12, the relative position depends on the position and orientation of the vehicle. Absolute three-dimensional position information is calculated from the three-dimensional position information. The absolute position and direction of the vehicle may be specified based on the output of the IMU 14 in addition to the output from the RTK-GPS 13. Then, the in-vehicle device 11 supplies the calculated three-dimensional point cloud data “Pt” to the server device 3. In this case, the in-vehicle device 11 may immediately transmit the calculated three-dimensional point cloud data Pt to the server device 3 by wireless communication, or may store it in a storage medium or the like that can be read by the server device 3 later. . The three-dimensional point cloud data Pt is an example of “first information” in the present invention.

同様に、車載機21は、GPS23から供給される出力に基づき、車両の絶対的な位置及び方位を特定し、ライダ22が検知した点群の各点について、車両の位置及び向きに依存した相対的な3次元位置情報から絶対的な3次元位置情報を算出する。なお、なお、車両の絶対的な位置及び方位は、GPS23からの出力に加え、IMU24の出力に基づいて特定するようにしてもよい。そして、車載機21は、算出した3次元点群データ「Qt」を、サーバ装置3へ供給する。3次元点群データQtは、本発明における「第2情報」の一例である。   Similarly, the in-vehicle device 21 specifies the absolute position and orientation of the vehicle based on the output supplied from the GPS 23, and for each point of the point group detected by the lidar 22, the relative position depends on the position and orientation of the vehicle. Absolute three-dimensional position information is calculated from specific three-dimensional position information. In addition, you may make it specify the absolute position and direction of a vehicle based on the output of IMU24 in addition to the output from GPS23. Then, the in-vehicle device 21 supplies the calculated three-dimensional point cloud data “Qt” to the server device 3. The three-dimensional point cloud data Qt is an example of “second information” in the present invention.

本実施例では、高精度計測ユニット1は、高速道路や国道又は県道などの主要道路を対象に計測を行い、簡易計測ユニット2は、高精度計測ユニット1が計測対象とする主要道路以外の道路(「非主要道路」とも呼ぶ。)を対象に計測を行う。   In the present embodiment, the high-precision measurement unit 1 performs measurement on main roads such as expressways, national roads, and prefectural roads, and the simple measurement unit 2 is a road other than the main roads that are measured by the high-precision measurement unit 1. (Also called “non-major road”).

サーバ装置3は、車載機11から取得した3次元点群データPt及び車載機21から取得した3次元点群データQtを記憶し、記憶した3次元点群データPt及び3次元点群データQtから、3次元点群データQtを補正したデータ(「補正後点群データQ‘t」とも呼ぶ。)を生成する。この場合、サーバ装置3は、後述するように、高精度計測ユニット1の計測対象である主要道路と簡易計測ユニット2の計測対象である非主要道路との接続地点(「接続地点Lc」とも呼ぶ。)での3次元点群データPtと3次元点群データQtとの差異に基づき、3次元点群データQtを補正した補正後点群データQ‘tを生成する。サーバ装置3は、本発明における「情報処理装置」の一例である。   The server device 3 stores the 3D point cloud data Pt acquired from the in-vehicle device 11 and the 3D point cloud data Qt acquired from the in-vehicle device 21, and from the stored 3D point cloud data Pt and 3D point cloud data Qt. Data obtained by correcting the three-dimensional point group data Qt (also referred to as “corrected point group data Q′t”) is generated. In this case, the server device 3, as will be described later, is a connection point (also referred to as “connection point Lc”) between the main road that is the measurement target of the high-precision measurement unit 1 and the non-main road that is the measurement target of the simple measurement unit 2. )), Corrected point group data Q′t obtained by correcting the three-dimensional point group data Qt is generated based on the difference between the three-dimensional point group data Pt and the three-dimensional point group data Qt. The server device 3 is an example of an “information processing device” in the present invention.

[サーバ装置の構成]
サーバ装置3は、車載機11が生成した3次元点群データPt及び車載機21が生成した3次元点群データQtをそれぞれ取得するためのインターフェース30と、3次元点群データPt及び3次元点群データQtなどを記憶する記憶部31と、CPUなどから構成される制御部32と、を有する。
[Configuration of server device]
The server device 3 includes an interface 30 for acquiring the 3D point cloud data Pt generated by the vehicle-mounted device 11 and the 3D point cloud data Qt generated by the vehicle-mounted device 21, respectively, the 3D point cloud data Pt, and the 3D point data. It has the memory | storage part 31 which memorize | stores group data Qt etc., and the control part 32 comprised from CPU etc. FIG.

インターフェース30は、制御部32の制御に基づき、車載機11が生成した3次元点群データPt及び車載機21が生成した3次元点群データQtをそれぞれ取得する。インターフェース30は、車載機11、21と無線通信を行うためのワイヤレスインターフェースであってもよく、3次元点群データPt及び3次元点群データQtを記憶した記憶媒体等から3次元点群データPt及び3次元点群データQtを読み出すためのハードウェアインターフェースであってもよい。   The interface 30 acquires the three-dimensional point group data Pt generated by the in-vehicle device 11 and the three-dimensional point group data Qt generated by the in-vehicle device 21 based on the control of the control unit 32. The interface 30 may be a wireless interface for performing wireless communication with the in-vehicle devices 11 and 21, and the three-dimensional point cloud data Pt from a storage medium or the like storing the three-dimensional point cloud data Pt and the three-dimensional point cloud data Qt. And a hardware interface for reading the three-dimensional point cloud data Qt.

記憶部31は、制御部32が所定の処理を実行するためのプログラム及び制御部32の処理に必要な情報を記憶する。本実施例では、記憶部31は、制御部32の制御に基づき、インターフェース30が取得した3次元点群データPt及び3次元点群データQtを記憶する。また、記憶部31は、制御部32が3次元点群データPt及び3次元点群データQtに基づき3次元点群データQtを補正した補正後点群データQ‘tを記憶する。   The storage unit 31 stores a program for the control unit 32 to execute a predetermined process and information necessary for the process of the control unit 32. In the present embodiment, the storage unit 31 stores the 3D point group data Pt and the 3D point group data Qt acquired by the interface 30 based on the control of the control unit 32. In addition, the storage unit 31 stores corrected point group data Q′t in which the control unit 32 corrects the three-dimensional point group data Qt based on the three-dimensional point group data Pt and the three-dimensional point group data Qt.

制御部32は、記憶部31等に記憶されたプログラムなどを実行し、サーバ装置3の全体を制御する。本実施例では、制御部32は、インターフェース30を介して3次元点群データPt及び3次元点群データQtを取得し、記憶部31に記憶させる。その後、制御部32は、記憶部31が記憶する3次元点群データPt及び3次元点群データQtに基づき、補正後点群データQ‘tを生成する。制御部32は、機能的には、特徴点抽出部33A、33Bと、マッチング部34と、差分量算出部35と、補正部36と、を有する。制御部32は、本発明における「第1取得部」、「第2取得部」、「抽出部」、「補正部」、「合成部」及びプログラムを実行する「コンピュータ」の一例である。   The control unit 32 executes a program stored in the storage unit 31 or the like and controls the entire server device 3. In the present embodiment, the control unit 32 acquires the three-dimensional point group data Pt and the three-dimensional point group data Qt via the interface 30 and stores them in the storage unit 31. Thereafter, the control unit 32 generates corrected point group data Q′t based on the three-dimensional point group data Pt and the three-dimensional point group data Qt stored in the storage unit 31. Functionally, the control unit 32 includes feature point extraction units 33A and 33B, a matching unit 34, a difference amount calculation unit 35, and a correction unit 36. The control unit 32 is an example of the “first acquisition unit”, “second acquisition unit”, “extraction unit”, “correction unit”, “synthesis unit”, and “computer” that executes a program in the present invention.

特徴点抽出部33Aは、高精度計測ユニット1の計測対象である主要道路と簡易計測ユニット2の計測対象である非主要道路との接続地点Lc付近に存在する地物を構成する(特に、地物の特徴的な形状を構成する)点群データを、3次元点群データPtから抽出する。そして、特徴点抽出部33Aは、3次元点群データPtから抽出した点群データ(「特徴点データRt」とも呼ぶ。)を、マッチング部34へ供給する。同様に、特徴点抽出部33Bは、接続地点Lc付近に存在する地物を構成する(特に、地物の特徴的な形状を構成する)点群データを、3次元点群データQtから抽出し、抽出した点群データ(「特徴点データSt」とも呼ぶ。)を、マッチング部34へ供給する。特徴点データRt、Stは、本発明における「特徴情報」の一例である。   The feature point extraction unit 33A constitutes a feature that exists in the vicinity of the connection point Lc between the main road that is the measurement target of the high-precision measurement unit 1 and the non-main road that is the measurement target of the simple measurement unit 2 (particularly, Point cloud data (which constitutes a characteristic shape of an object) is extracted from the three-dimensional point cloud data Pt. Then, the feature point extraction unit 33A supplies the point group data extracted from the three-dimensional point group data Pt (also referred to as “feature point data Rt”) to the matching unit 34. Similarly, the feature point extraction unit 33B extracts from the three-dimensional point cloud data Qt the point cloud data that constitutes the feature existing in the vicinity of the connection point Lc (particularly, the feature shape of the feature). The extracted point cloud data (also referred to as “feature point data St”) is supplied to the matching unit 34. The feature point data Rt and St are examples of “feature information” in the present invention.

マッチング部34は、特徴点抽出部33Aから供給された特徴点データRtと、特徴点抽出部33Bから供給された特徴点データStとを比較することで、両者に共通した地物の形状を特定し、共通した地物を構成する特徴点データRt、Stを差分量算出部35へ供給する。   The matching unit 34 compares the feature point data Rt supplied from the feature point extraction unit 33A with the feature point data St supplied from the feature point extraction unit 33B, thereby specifying the feature shape common to both. Then, the feature point data Rt and St constituting the common feature are supplied to the difference amount calculation unit 35.

差分量算出部35は、マッチング部34から供給された、共通した地物を構成する特徴点データRtと特徴点データStとの差分量を、接続地点Lcごとに算出する。ここでは、マッチング部34から供給された特徴点データRt及び特徴点データStの3次元座標空間の各座標軸(例えば緯度、経度、高度)における上述の差分量を、それぞれ「Δx」、「Δy」、「Δz」とする。差分量算出部35は、接続地点Lcごとの差分量Δx、Δy、Δzの情報を、補正部36へ供給する。   The difference amount calculation unit 35 calculates, for each connection point Lc, the difference amount between the feature point data Rt and the feature point data St that are supplied from the matching unit 34 and constitute a common feature. Here, the above-mentioned difference amounts in the coordinate axes (for example, latitude, longitude, altitude) of the feature point data Rt and feature point data St supplied from the matching unit 34 in the three-dimensional coordinate space are respectively “Δx” and “Δy”. , “Δz”. The difference amount calculation unit 35 supplies information on the difference amounts Δx, Δy, Δz for each connection point Lc to the correction unit 36.

補正部36は、接続地点Lcごとの差分量Δx、Δy、Δzに基づき、3次元点群データQtを補正し、補正後の3次元点群データQtである補正後点群データQ‘tを記憶部31に記憶させる。この場合、補正部36は、差分量Δx、Δy、Δzが示す3次元点群データPtと3次元点群データQtとのずれが無くなるように、3次元点群データQtの全体の移動、回転、又は/及び拡縮を行う。この処理の具体例については、後述する。   The correction unit 36 corrects the three-dimensional point group data Qt based on the difference amounts Δx, Δy, Δz for each connection point Lc, and uses the corrected point group data Q′t, which is the corrected three-dimensional point group data Qt. The data is stored in the storage unit 31. In this case, the correction unit 36 moves and rotates the entire three-dimensional point group data Qt so that there is no deviation between the three-dimensional point group data Pt and the three-dimensional point group data Qt indicated by the difference amounts Δx, Δy, Δz. Or / and scaling. A specific example of this process will be described later.

また、制御部32は、補正部36が補正した補正後点群データQ‘tと3次元点群データPtとに対し、表示処理等の種々の用途において1つの3次元点群データベースとして使用できるようにするために、これらを合成する処理を行う。具体的には、制御部32は、補正後点群データQ‘tと3次元点群データPtとを1つの3次元点群データベースとして統合したり、補正後点群データQ‘tと3次元点群データPtとを別個のデータとして意識することなく使用できるようにこれらを関連付けたりする。   In addition, the control unit 32 can use the corrected point group data Q′t and the three-dimensional point group data Pt corrected by the correction unit 36 as one three-dimensional point group database in various applications such as display processing. In order to achieve this, a process of combining them is performed. Specifically, the control unit 32 integrates the corrected point group data Q′t and the three-dimensional point group data Pt as one three-dimensional point group database, or the corrected point group data Q′t and the three-dimensional point group data Qt. The point cloud data Pt are associated with each other so that they can be used without being conscious of as separate data.

[点群データ補正処理の詳細]
次に、サーバ装置3が実行する3次元点群データQtの補正処理について図2を参照して説明する。図2は、主要道路及び当該主要道路に接続する非主要道路を含むエリアの俯瞰図である。
[Details of point cloud data correction processing]
Next, correction processing of the three-dimensional point cloud data Qt executed by the server device 3 will be described with reference to FIG. FIG. 2 is an overhead view of an area including a main road and a non-main road connected to the main road.

図2は、高精度計測ユニット1による計測対象となる主要道路41と、簡易計測ユニット2による計測対象となる非主要道路42〜44とを示している。図2の例では、接続地点Lcとして、主要道路41と非主要道路42との接続地点「Lca」と、主要道路41と道路44との接続地点「Lcb」とが示されている。そして、実線で示される測定経路「Rt1」は、高精度計測ユニット1による測定対象の区間(即ち主要道路41に沿った経路)を示し、破線で示される測定経路「Rt2」は、簡易計測ユニット2による測定対象の区間(即ち非主要道路42〜44に沿った経路)を示す。測定経路Rt1は、本発明における「第1経路」の一例であり、測定経路Rt2は、本発明における「第2経路」の一例である。   FIG. 2 shows a main road 41 to be measured by the high-precision measurement unit 1 and non-main roads 42 to 44 to be measured by the simple measurement unit 2. In the example of FIG. 2, the connection point “Lca” between the main road 41 and the non-main road 42 and the connection point “Lcb” between the main road 41 and the road 44 are shown as the connection points Lc. A measurement route “Rt1” indicated by a solid line indicates a section to be measured by the high-precision measurement unit 1 (that is, a route along the main road 41), and a measurement route “Rt2” indicated by a broken line indicates a simple measurement unit. 2 shows a section to be measured by 2 (that is, a route along non-main roads 42 to 44). The measurement path Rt1 is an example of the “first path” in the present invention, and the measurement path Rt2 is an example of the “second path” in the present invention.

図2の例では、高精度計測ユニット1の車載機11は、測定経路Rt1を車両が走行中にライダ12、RTK−GPS13、及びIMU14が出力するデータに基づき3次元点群データPtを生成し、簡易計測ユニット2の車載機21は、測定経路Rt2を車両が走行中にライダ22、GPS23及びIMU24が出力するデータに基づき3次元点群データQtを生成する。その後、車載機11が生成した3次元点群データPt及び車載機21が生成した3次元点群データQtは、サーバ装置3に供給される。   In the example of FIG. 2, the in-vehicle device 11 of the high-precision measurement unit 1 generates the three-dimensional point cloud data Pt based on the data output from the lidar 12, the RTK-GPS 13, and the IMU 14 while the vehicle is traveling on the measurement route Rt 1. The in-vehicle device 21 of the simple measurement unit 2 generates the three-dimensional point cloud data Qt based on data output from the rider 22, the GPS 23, and the IMU 24 while the vehicle is traveling on the measurement route Rt2. Thereafter, the 3D point cloud data Pt generated by the in-vehicle device 11 and the 3D point cloud data Qt generated by the in-vehicle device 21 are supplied to the server device 3.

この場合、まず、サーバ装置3の特徴点抽出部33A、33Bは、接続地点Lca、Lcb付近に存在する地物の特徴的な形状を構成する特徴点データRt及び特徴点データStを、それぞれ3次元点群データPt及び3次元点群データQtから抽出する。図2の例では、特徴点抽出部33A、33Bは、それぞれ、接続地点Lca付近に存在する地物の特徴的な形状として、建物51の破線枠61内の形状及び建物52の破線枠62内の形状を認識し、当該形状を構成する特徴点データRt、Stを、それぞれ3次元点群データPt、Qtから抽出する。同様に、特徴点抽出部33A、33Bは、接続地点Lcb付近に存在する地物の特徴的な形状として、建物53の破線枠63内の形状及び建物54の破線枠64内の形状を認識し、当該形状を構成する特徴点データRt、Stを、それぞれ3次元点群データPt、Qtから抽出する。   In this case, first, the feature point extraction units 33A and 33B of the server device 3 respectively convert the feature point data Rt and the feature point data St constituting the characteristic shape of the feature existing near the connection points Lca and Lcb to 3 respectively. Extracted from the three-dimensional point group data Pt and the three-dimensional point group data Qt. In the example of FIG. 2, the feature point extraction units 33 </ b> A and 33 </ b> B respectively include the shape in the broken line frame 61 of the building 51 and the broken line frame 62 in the building 52 as the characteristic shape of the feature existing near the connection point Lca. The feature point data Rt and St constituting the shape are extracted from the three-dimensional point group data Pt and Qt, respectively. Similarly, the feature point extraction units 33A and 33B recognize the shape in the broken line frame 63 of the building 53 and the shape in the broken line frame 64 of the building 54 as the characteristic shape of the feature existing near the connection point Lcb. The feature point data Rt and St constituting the shape are extracted from the three-dimensional point group data Pt and Qt, respectively.

次に、サーバ装置3のマッチング部34は、接続地点Lcaと接続地点Lcbとのそれぞれについて、特徴点抽出部33Aから供給された特徴点データRtと、特徴点抽出部33Bから供給された特徴点データStとを比較し、両者が表す共通した地物の形状を特定する。図2の例では、マッチング部34は、接続地点Lcaについては、破線枠61〜62内の建物51〜52の形状を表す点群データが特徴点データRt及び特徴点データStに共通して存在すると判定し、当該形状を表す特徴点データRt及び特徴点データStを差分量算出部35へ供給する。また、マッチング部34は、接続地点Lcbについては、破線枠63〜64内の建物53〜54の形状を表す点群データが特徴点データRt及び特徴点データStに共通して存在すると判定し、当該形状を表す特徴点データRt及び特徴点データStを差分量算出部35へ供給する。   Next, the matching unit 34 of the server device 3 includes the feature point data Rt supplied from the feature point extraction unit 33A and the feature point supplied from the feature point extraction unit 33B for each of the connection point Lca and the connection point Lcb. The data St is compared, and the shape of the common feature represented by both is specified. In the example of FIG. 2, for the connection point Lca, the matching unit 34 has point cloud data representing the shapes of the buildings 51 to 52 in the broken line frames 61 to 62 in common with the feature point data Rt and the feature point data St. Then, the feature point data Rt and the feature point data St representing the shape are supplied to the difference amount calculation unit 35. Further, the matching unit 34 determines that the point cloud data representing the shapes of the buildings 53 to 54 in the broken line frames 63 to 64 exists in common with the feature point data Rt and the feature point data St for the connection point Lcb. The feature point data Rt and the feature point data St representing the shape are supplied to the difference amount calculation unit 35.

その後、サーバ装置3の差分量算出部35は、マッチング部34から供給された特徴点データRtと特徴点データStとに基づき、接続地点Lca、Lcbごとに差分量Δx、Δy、Δzを算出する。そして、補正部36は、接続地点Lca、Lcbごとの差分量Δx、Δy、Δzに基づき、測定経路Rt2に沿って計測された3次元点群データQtを補正した補正後点群データQ‘tを生成する。   Thereafter, the difference amount calculation unit 35 of the server device 3 calculates the difference amounts Δx, Δy, Δz for each connection point Lca, Lcb based on the feature point data Rt and the feature point data St supplied from the matching unit 34. . Then, the correction unit 36 corrects the point group data Q′t after correcting the three-dimensional point group data Qt measured along the measurement path Rt2 based on the difference amounts Δx, Δy, Δz for the connection points Lca, Lcb. Is generated.

ここで、補正部36が実行する補正後点群データQ‘tの生成方法の具体例について説明する。   Here, a specific example of a method for generating the corrected point cloud data Q′t executed by the correction unit 36 will be described.

例えば、補正部36は、接続地点Lca、Lcbごとの差分量Δx、Δy、Δzに基づき、接続地点Lca、Lcbに対する距離に応じた線形補間により、測定経路Rt2に沿って計測された3次元点群データQtを補正した補正後点群データQ‘tを生成する。この場合、補正部36は、3次元点群データQtの各点について、接続地点Lca、Lcbとの距離を算出し、算出した距離の比に基づき、接続地点Lca、Lcbごとの差分量Δx、Δy、Δzに対して重み付けを行い、重み付け後のΔx、Δy、Δzを対象の点の座標値に反映させる。   For example, the correction unit 36 uses the three-dimensional points measured along the measurement route Rt2 by linear interpolation according to the distances to the connection points Lca and Lcb based on the difference amounts Δx, Δy and Δz for the connection points Lca and Lcb. The corrected point group data Q′t obtained by correcting the group data Qt is generated. In this case, the correction unit 36 calculates the distance to the connection points Lca and Lcb for each point of the three-dimensional point group data Qt, and based on the calculated distance ratio, the difference amount Δx for each of the connection points Lca and Lcb, Weighting is performed on Δy and Δz, and Δx, Δy, and Δz after weighting are reflected in the coordinate values of the target point.

他の例では、補正部36は、接続地点Lca、Lcb間での任意の計測地点で生成された3次元点群データQtの信頼度に基づき、接続地点Lca、Lcbごとの差分量Δx、Δy、Δzに対して重み付けを行い、重み付け後の差分量Δx、Δy、Δzを、補正後点群データQ‘tに反映させる。この場合、補正部36は、接続地点Lca、Lcb間の任意の計測地点で、GPS衛星の補足数、及びマルチパスの有無などに基づき信頼度を算出し、算出した信頼度に基づき、接続地点Lca、Lcbごとの差分量Δx、Δy、Δzに対して重み付けを行う。例えば、補正部36は、接続地点Lca付近の信頼度が接続地点Lcb付近の信頼度よりも高い場合には、接続地点Lcaに対応する差分量Δx、Δy、Δzに対する重み付けを、接続地点Lcbに対応する差分量Δx、Δy、Δzに対する重み付けよりも大きくする。   In another example, the correction unit 36 determines the difference amounts Δx and Δy for the connection points Lca and Lcb based on the reliability of the three-dimensional point group data Qt generated at any measurement point between the connection points Lca and Lcb. , Δz, and the weighted difference amounts Δx, Δy, Δz are reflected in the corrected point group data Q′t. In this case, the correction unit 36 calculates the reliability at any measurement point between the connection points Lca and Lcb based on the number of supplemented GPS satellites, the presence / absence of multipaths, and the connection point based on the calculated reliability. Weighting is performed on the difference amounts Δx, Δy, Δz for Lca and Lcb. For example, when the reliability near the connection point Lca is higher than the reliability near the connection point Lcb, the correction unit 36 weights the difference amounts Δx, Δy, Δz corresponding to the connection point Lca to the connection point Lcb. The corresponding difference amounts Δx, Δy, Δz are set larger than the weighting.

その他、補正部36は、RTK−GPS13、GPS23、IMU14、24等の各センサの誤差に基づき、3次元点群データQtに対する補正量を決定してもよい。この場合、補正部36は、接続地点Lca、Lcbの真位置を推定後、各センサの誤差を勘案した公知の確率的手法を用いて3次元点群データPtの全体を移動することで、補正後点群データQ‘tを生成する。   In addition, the correction | amendment part 36 may determine the correction amount with respect to three-dimensional point group data Qt based on the error of each sensor, such as RTK-GPS13, GPS23, IMU14,24. In this case, the correction unit 36 corrects by estimating the true positions of the connection points Lca and Lcb and then moving the entire 3D point cloud data Pt using a known probabilistic method that takes into account the error of each sensor. The rear point cloud data Q′t is generated.

このように、サーバ装置3は、簡易計測ユニット2による測定経路Rt2の始点に相当する接続地点Lca及び終点に相当する接続地点Lcbでの3次元点群データPtと3次元点群データQtとの差異に基づき、3次元点群データQtの補正を行う。これにより、簡易計測ユニット2が計測したデータを好適に高精度化することができる。   As described above, the server device 3 uses the three-dimensional point group data Pt and the three-dimensional point group data Qt at the connection point Lca corresponding to the start point of the measurement route Rt2 and the connection point Lcb corresponding to the end point by the simple measurement unit 2. Based on the difference, the three-dimensional point cloud data Qt is corrected. Thereby, the data measured by the simple measurement unit 2 can be preferably made highly accurate.

一般に、高精度計測ユニット1を利用した高精度な測定のみによって全国の道路の測定を行った場合、膨大な時間と費用が掛かることが予想される。これに対し、本実施例では、非主要道路については簡易計測ユニット2により計測を行い、計測後のデータを補正することで、得られるデータの精度を保ちつつ、計測に要する時間及び費用を好適に低減することができる。従って、高精度での計測の簡素化及び高速化により、計測データの更新頻度を上げることもできる。   In general, it is expected that enormous time and cost will be required when measuring roads nationwide only by high-precision measurement using the high-precision measurement unit 1. On the other hand, in the present embodiment, the non-main road is measured by the simple measurement unit 2 and the data after measurement is corrected, so that the time and cost required for measurement are preferable while maintaining the accuracy of the obtained data. Can be reduced. Therefore, the measurement data can be updated more frequently by simplifying and speeding up the measurement with high accuracy.

[処理フロー]
図3は、本実施例においてサーバ装置3の制御部32が実行する点群データ補正処理の手順を示すフローチャートである。図3のフローチャートの実行時には、制御部32は、インターフェース30により供給された3次元点群データPt及び3次元点群データQtを取得し、これらを記憶部31に記憶しているものとする。制御部32は、簡易計測ユニット2による計測を行う一繋がりの測定経路(図2の例では測定経路Rt2)ごとに計測された3次元点群データQtを対象に、図3のフローチャートの処理を実行する。
[Processing flow]
FIG. 3 is a flowchart illustrating the procedure of the point cloud data correction process executed by the control unit 32 of the server device 3 in the present embodiment. When executing the flowchart of FIG. 3, the control unit 32 acquires the three-dimensional point group data Pt and the three-dimensional point group data Qt supplied by the interface 30 and stores them in the storage unit 31. The control unit 32 performs the processing of the flowchart of FIG. 3 on the three-dimensional point cloud data Qt measured for each continuous measurement path (measurement path Rt2 in the example of FIG. 2) for measurement by the simple measurement unit 2. Run.

まず、制御部32は、補正対象となる3次元点群データPtの計測区間の始点及び終点に相当する接続地点Lcを特定する(ステップS101)。次に、制御部32の特徴点抽出部33A,33Bは、3次元点群データPt、Qtから、それぞれ、特定した接続地点Lc付近の特徴的な地物の形状を構成する特徴点データRt、Stを抽出する(ステップS102)。この場合、特徴的な地物の形状は、例えば予め定めた特定の地物(例えば信号機や建物)の一部又は全部の形状であり、特徴点抽出部33A、33Bは、例えば公知のパターンマッチング技術により予め記憶したテンプレート等と一致又は類似する形状を構成する特徴点データRt、Stを、3次元点群データPt、Qtから抽出する。   First, the control unit 32 specifies the connection point Lc corresponding to the start point and the end point of the measurement section of the three-dimensional point group data Pt to be corrected (step S101). Next, the feature point extraction units 33A and 33B of the control unit 32 respectively include the feature point data Rt and the feature point data Rt constituting the shape of the characteristic feature near the identified connection point Lc from the three-dimensional point group data Pt and Qt, respectively. St is extracted (step S102). In this case, the shape of the characteristic feature is, for example, the shape of a part or the whole of a predetermined specific feature (for example, a traffic light or a building), and the feature point extraction units 33A and 33B are, for example, known pattern matching Feature point data Rt, St that form a shape that matches or resembles a template or the like stored in advance by technology is extracted from the three-dimensional point cloud data Pt, Qt.

次に、制御部32のマッチング部34は、共通の地物の形状を構成する特徴点データRt、Stを、接続地点Lcごとに選定する(ステップS103)。例えば、マッチング部34は、接続地点Lcごとに、特徴点データRtが構成する形状及び特徴点データStが構成する形状のマッチングを行い、一致していると推定された共通の形状を構成する一群の特徴点データRt及び特徴点データStを、接続地点Lcごとに選定する。   Next, the matching unit 34 of the control unit 32 selects the feature point data Rt and St constituting the common feature shape for each connection point Lc (step S103). For example, for each connection point Lc, the matching unit 34 matches the shape formed by the feature point data Rt and the shape formed by the feature point data St, and forms a group that forms a common shape estimated to match. Feature point data Rt and feature point data St are selected for each connection point Lc.

次に、制御部32の差分量算出部35は、接続地点Lcごとにマッチング部34が選定した特徴点データRt、Stを比較し、差分量Δx、Δy、Δzを算出する(ステップS104)。この場合、例えば、差分量算出部35は、接続地点Lcごとに選定された一群の特徴点データRt、Stの各々の重心を算出し、これらの重心の差を各接続地点Lcに対応する差分量Δx、Δy、Δzとして算出する。そして、補正部36は、接続地点Lcごとに算出した差分量Δx、Δy、Δzに基づき、3次元点群データQtを補正した補正後点群データQ‘tを生成し、記憶部31に記憶する(ステップS105)。なお、補正部36は、例えば、差分量Δx、Δy、Δzに基づいて、3次元点群データQtを移動、回転、拡縮処理を行うことで、補正後点群データQ‘tを生成してもよい。また、この場合、例えば、変換行列を生成し、差分量Δx、Δy、Δzに基づいて変換行列を算出し、当該変換行列に基づいて、上述の移動、回転、拡縮処理を行うようにしてもよい。   Next, the difference amount calculation unit 35 of the control unit 32 compares the feature point data Rt and St selected by the matching unit 34 for each connection point Lc, and calculates the difference amounts Δx, Δy, and Δz (step S104). In this case, for example, the difference calculation unit 35 calculates the centroid of each of the group of feature point data Rt and St selected for each connection point Lc, and the difference between these centroids corresponds to the difference corresponding to each connection point Lc. Calculated as the quantities Δx, Δy, Δz. Then, the correction unit 36 generates corrected point group data Q′t obtained by correcting the three-dimensional point group data Qt based on the difference amounts Δx, Δy, Δz calculated for each connection point Lc, and stores the corrected point group data Q′t in the storage unit 31. (Step S105). The correction unit 36 generates corrected point cloud data Q′t by moving, rotating, and scaling the 3D point cloud data Qt based on the difference amounts Δx, Δy, Δz, for example. Also good. In this case, for example, a conversion matrix is generated, a conversion matrix is calculated based on the difference amounts Δx, Δy, and Δz, and the above-described movement, rotation, and enlargement / reduction processing is performed based on the conversion matrix. Good.

以上説明したように、本実施例に係るサーバ装置3は、ライダ12及びRTK−GPS13を含む高精度計測ユニット1から3D点群データPtを取得すると共に、ライダ22及びGPS23を含む簡易計測ユニット2から3D点群データQtを取得する。そして、サーバ装置3は、3次元点群データPt、Qtから、簡易計測ユニット2による計測区間と高精度計測ユニット1による計測区間との接続地点Lcでの特徴的な地物の形状を表す特徴点データRt、Stを抽出し、これらの差異に基づき、3次元点群データQtの補正を行う。これにより、高精度計測ユニット1よりも測定精度が低い簡易計測ユニット2を好適に活用しつつ、高精度な測定データを得ることができる。   As described above, the server device 3 according to the present embodiment acquires the 3D point cloud data Pt from the high-precision measurement unit 1 including the lidar 12 and the RTK-GPS 13, and the simple measurement unit 2 including the lidar 22 and the GPS 23. To obtain 3D point cloud data Qt. And the server apparatus 3 represents the shape of the characteristic feature in the connection point Lc of the measurement area by the simple measurement unit 2 and the measurement area by the high-precision measurement unit 1 from the three-dimensional point cloud data Pt and Qt. The point data Rt and St are extracted, and the three-dimensional point group data Qt is corrected based on these differences. Thereby, highly accurate measurement data can be obtained while suitably utilizing the simple measurement unit 2 having a measurement accuracy lower than that of the high accuracy measurement unit 1.

[変形例]
次に、実施例に好適な変形例について説明する。以下の変形例は、任意に組み合わせて上述の実施例に適用してもよい。
[Modification]
Next, a modified example suitable for the embodiment will be described. The following modifications may be applied in any combination to the above-described embodiments.

(変形例1)
車載機11は、ライダ12、RTK−GPS13、IMU14の各出力を統合する処理を行うことなくこれらの出力データを計測時刻又は計測地点ごとに関連付けてサーバ装置3へ供給してもよい。同様に、車載機21は、ライダ22、GPS23、IMU24の各出力を統合する処理を行うことなく、これらの出力データを関連付けてサーバ装置3へ供給してもよい。この場合、サーバ装置3の制御部32は、高精度計測ユニット1及び簡易計測ユニット2からそれぞれ供給される出力データを記憶すると共に、これらの出力データから3次元点群データPt、Qtをそれぞれ生成する。なお、この例では、制御部32は、差分量算出部35が生成したΔx、Δy、Δzに基づき、3次元点群データQtを補正するのに代えて、又はこれに加えて、簡易計測ユニット2から供給された出力データに含まれるGPS23が測定した位置情報を補正してもよい。
(Modification 1)
The in-vehicle device 11 may supply these output data to the server device 3 in association with each measurement time or each measurement point without performing processing for integrating the outputs of the lidar 12, the RTK-GPS 13, and the IMU 14. Similarly, the in-vehicle device 21 may associate these output data and supply them to the server device 3 without performing the process of integrating the outputs of the lidar 22, GPS 23, and IMU 24. In this case, the control unit 32 of the server device 3 stores output data respectively supplied from the high-precision measurement unit 1 and the simple measurement unit 2 and generates three-dimensional point cloud data Pt and Qt from these output data, respectively. To do. In this example, the control unit 32 uses the simple measurement unit instead of or in addition to correcting the three-dimensional point group data Qt based on Δx, Δy, Δz generated by the difference amount calculation unit 35. The position information measured by the GPS 23 included in the output data supplied from 2 may be corrected.

(変形例2)
高精度計測ユニット1及び簡易計測ユニット2は、ライダ12、22に代えて、カメラを備えてもよい。
(Modification 2)
The high-precision measurement unit 1 and the simple measurement unit 2 may include a camera instead of the lidars 12 and 22.

この場合、車載機11は、搭載される車両が走行中における車両の周囲環境を撮影した撮影画像群(「第1撮影画像群」とも呼ぶ。)をカメラから取得し、撮影時にRTK−GPS13が出力する位置情報及びIMU14の出力データと関連付けて記憶する。同様に、車載機21は、搭載される車両が走行中における車両の周囲環境を撮影した画像(「第2撮影画像群」とも呼ぶ。)をカメラから取得し、撮影時にGPS23が出力する位置情報及びIMU24の出力データと関連付けて記憶する。そして、サーバ装置3は、車載機11、21から、位置情報等が関連付けられた第1及び第2撮影画像群を取得する。この場合、特徴点抽出部33A、33Bは、接続地点Lc付近の位置情報と関連付けられた第1及び第2撮影画像群のそれぞれから、公知の画像認識技術を適用し、特徴的な地物の形状を抽出すると共に、当該形状の3次元位置情報を公知の3次元測定技術に基づき算出する。このとき、特徴点抽出部33A、33Bは、第1及び第2撮影画像群と関連付けられた位置情報等を3次元位置情報に反映させることで、緯度、経度、高度等の絶対的な位置を表す3次元位置情報を生成する。マッチング部34は、特徴点抽出部33A、33Bが算出した接続地点Lcごとの特徴的な地物の形状を示す3次元位置情報から、第1及び第2撮影画像群で共通に存在する形状を構成する部分を抽出し、当該形状の3次元位置情報を差分量算出部35へ供給する。差分量算出部35は、マッチング部34から供給された第1撮影画像群に基づく3次元位置情報と第2撮影画像群に基づく3次元位置情報とを比較することで、差分量Δx、Δy、Δzを算出する。そして、差分量算出部35は、差分量Δx、Δy、Δzに基づき、第2撮影画像群に関連付けられた位置情報を補正する。   In this case, the vehicle-mounted device 11 acquires a captured image group (also referred to as a “first captured image group”) obtained by capturing the surrounding environment of the vehicle on which the mounted vehicle is traveling from the camera, and the RTK-GPS 13 captures the captured image. The positional information to be output and the output data of the IMU 14 are stored in association with each other. Similarly, the in-vehicle device 21 obtains an image (also referred to as “second photographed image group”) obtained by photographing the environment around the vehicle while the mounted vehicle is traveling, and positional information output by the GPS 23 during photographing. And stored in association with output data of the IMU 24. And the server apparatus 3 acquires the 1st and 2nd picked-up image group with which positional information etc. were linked | related from the vehicle equipment 11,21. In this case, the feature point extraction units 33A and 33B apply a known image recognition technique from each of the first and second photographed image groups associated with the position information in the vicinity of the connection point Lc, and detect characteristic features. The shape is extracted and the three-dimensional position information of the shape is calculated based on a known three-dimensional measurement technique. At this time, the feature point extraction units 33A and 33B reflect the absolute position such as latitude, longitude, and altitude by reflecting the position information associated with the first and second captured image groups in the three-dimensional position information. The three-dimensional position information to represent is generated. The matching unit 34 uses the three-dimensional position information indicating the shape of the characteristic feature for each connection point Lc calculated by the feature point extraction units 33A and 33B to determine a shape that exists in common in the first and second captured image groups. The constituent parts are extracted, and the three-dimensional position information of the shape is supplied to the difference amount calculation unit 35. The difference amount calculation unit 35 compares the three-dimensional position information based on the first photographed image group supplied from the matching unit 34 with the three-dimensional position information based on the second photographed image group, so that the difference amounts Δx, Δy, Δz is calculated. Then, the difference amount calculation unit 35 corrects the position information associated with the second captured image group based on the difference amounts Δx, Δy, Δz.

このように、本変形例では、GPS23を含む簡易計測ユニット2を、GPS23よりも高精度のRTK−GPS13を含む高精度計測ユニット1と併用し、高精度な位置情報に関連付けられた撮影画像を収集することができる。この場合、高精度計測ユニット1が備えるカメラは、本発明における「第1環境情報取得部」及び「第1カメラ」の一例であり、簡易計測ユニット2が備えるカメラは、本発明における「第2環境情報取得部」及び「第2カメラ」の一例である。   Thus, in this modification, the simple measurement unit 2 including the GPS 23 is used in combination with the high-accuracy measurement unit 1 including the RTK-GPS 13 having higher accuracy than the GPS 23, and a captured image associated with the high-accuracy position information is obtained. Can be collected. In this case, the camera included in the high-accuracy measurement unit 1 is an example of the “first environment information acquisition unit” and “first camera” in the present invention, and the camera included in the simple measurement unit 2 is “second” in the present invention. It is an example of an "environment information acquisition part" and a "2nd camera."

(変形例3)
実施例で説明したサーバ装置3の処理を、複数のサーバ装置からなるサーバシステムが実行してもよい。
(Modification 3)
The processing of the server device 3 described in the embodiment may be executed by a server system including a plurality of server devices.

例えば、サーバシステムは、3次元点群データPt及び3次元点群データQt等を記憶するサーバと、3次元点群データQtを補正する処理(即ち実施例の制御部32の処理)を実行する1又は複数のサーバとから構成されていてもよい。この場合、各サーバは、予め割り当てられた処理を実行するのに必要な情報を他のサーバから適宜受信して所定の処理を実行する。この場合、3次元点群データQtを補正する処理を実行する1又は複数のサーバは、本発明における「情報処理装置」の一例である。   For example, the server system executes a server that stores the 3D point cloud data Pt, the 3D point cloud data Qt, and the like, and a process that corrects the 3D point cloud data Qt (that is, the process of the control unit 32 in the embodiment). It may be composed of one or a plurality of servers. In this case, each server appropriately receives information necessary for executing a process assigned in advance from another server and executes a predetermined process. In this case, one or a plurality of servers that execute the process of correcting the three-dimensional point cloud data Qt is an example of the “information processing apparatus” in the present invention.

(変形例4)
高精度計測ユニット1が搭載される車両と、簡易計測ユニット2が搭載される車両とは、同一車両であってもよい。この場合、例えば、車両は、高精度計測ユニット1を搭載して高精度計測ユニット1の測定経路を走行後、高精度計測ユニット1から簡易計測ユニット2に積み替えて簡易計測ユニット2の測定経路を走行する。この場合、上述の車両は、本発明における「第1移動体」及び「第2移動体」の両方として機能する。
(Modification 4)
The vehicle on which the high-precision measurement unit 1 is mounted and the vehicle on which the simple measurement unit 2 is mounted may be the same vehicle. In this case, for example, the vehicle mounts the high-precision measurement unit 1 and travels the measurement path of the high-precision measurement unit 1, and then reloads the measurement path of the simple measurement unit 2 from the high-precision measurement unit 1 to the simple measurement unit 2. Run. In this case, the vehicle described above functions as both the “first moving body” and the “second moving body” in the present invention.

(変形例5)
実施例においては、高精度計測ユニット1及び簡易計測ユニット2は、それぞれ車両に搭載するようにしたが、車両以外の移動体(例えば航空機や歩行者)が備えるような構成にしてもよい。
(Modification 5)
In the embodiment, the high-precision measurement unit 1 and the simple measurement unit 2 are each mounted on a vehicle, but may be configured to be provided in a moving body (for example, an aircraft or a pedestrian) other than the vehicle.

(変形例6)
サーバ装置3は、高精度計測ユニット1と簡易計測ユニット2との測定精度が同等である場合などには、補正後点群データQ‘tを生成する処理を行わなくともよい。この場合、サーバ装置3は、マッチング部34が特定した共通した地物を構成する特徴点データRt、Stに基づき、3次元点群データPtと3次元点群データQtとを1つの3次元点群データベースとして使用できるように合成する処理を行う。この場合であっても、サーバ装置3は、広範囲な測定データを効率的に生成することができる。
(Modification 6)
The server device 3 does not have to perform the process of generating the corrected point group data Q′t when the high accuracy measurement unit 1 and the simple measurement unit 2 have the same measurement accuracy. In this case, the server device 3 converts the three-dimensional point group data Pt and the three-dimensional point group data Qt into one three-dimensional point based on the feature point data Rt and St constituting the common feature specified by the matching unit 34. A process of combining so that it can be used as a group database is performed. Even in this case, the server device 3 can efficiently generate a wide range of measurement data.

1 簡易計測ユニット
2 高精度計測ユニット
3 サーバ装置
30 インターフェース
31 記憶部
32 制御部
33A、33B 特徴点抽出部
34 マッチング部
35 差分量算出部
36 補正部
DESCRIPTION OF SYMBOLS 1 Simple measurement unit 2 High precision measurement unit 3 Server apparatus 30 Interface 31 Storage part 32 Control part 33A, 33B Feature point extraction part 34 Matching part 35 Difference amount calculation part 36 Correction | amendment part

Claims (10)

第1経路を移動する第1移動体が有する第1環境情報取得部により取得される前記第1移動体の周囲の情報である第1環境情報を取得する第1取得部と、
前記第1経路とは異なる第2経路を移動する第2移動体が有する第2環境情報取得部により取得される前記第2移動体の周囲の情報である第2環境情報を取得する第2取得部と、
前記第1環境情報と前記第2環境情報とに基づいて抽出された特徴情報に基づいて、前記第1環境情報と前記第2環境情報とを合成する合成部と、
を備える情報処理装置。
A first acquisition unit that acquires first environment information that is information around the first mobile body acquired by a first environmental information acquisition unit included in the first mobile body that moves along the first route;
Second acquisition for acquiring second environment information, which is information around the second moving body, acquired by a second environment information acquiring unit included in a second moving body that moves on a second path different from the first path. And
A synthesis unit that synthesizes the first environment information and the second environment information based on the feature information extracted based on the first environment information and the second environment information;
An information processing apparatus comprising:
前記第1取得部は、前記第1環境情報と、第1自己位置推定部によって推定された前記第1移動体の第1位置情報と、が統合され又は関連付けられた第1情報を取得し、
前記第2取得部は、前記第2環境情報と、前記第1自己位置推定部よりも推定精度が低い第2自己位置推定部によって推定された前記第2移動体の第2位置情報と、が統合され又は関連付けられた第2情報を取得し、
前記合成部は、前記第1情報と前記第2情報とに基づいて抽出された特徴情報に基づいて、前記第1情報と前記第2情報とを合成する、請求項1に記載の情報処理装置。
The first acquisition unit acquires first information in which the first environment information and the first position information of the first moving body estimated by the first self-position estimation unit are integrated or associated,
The second acquisition unit includes the second environment information and the second position information of the second moving body estimated by a second self-position estimation unit having a lower estimation accuracy than the first self-position estimation unit. Obtain integrated or associated second information,
The information processing apparatus according to claim 1, wherein the synthesis unit synthesizes the first information and the second information based on feature information extracted based on the first information and the second information. .
前記第2自己位置推定部の推定精度は、前記第1自己位置推定部より推定精度が低く、
前記特徴情報に基づいて、前記第2情報を補正する補正部を更に備える、請求項2に記載の情報処理装置。
The estimation accuracy of the second self-position estimation unit is lower than that of the first self-position estimation unit,
The information processing apparatus according to claim 2, further comprising a correction unit that corrects the second information based on the feature information.
前記第1環境情報取得部は第1レーザースキャナを含み、
前記第2環境情報取得部は第2レーザースキャナを含み、
前記第1情報は、前記第1レーザースキャナによって計測された前記第1移動体と周囲の地物における照射点との距離情報と、前記第1自己位置推定部によって推定された前記第1移動体の第1位置情報と、に基づいて推定された、前記第1レーザースキャナのレーザー光が照射された前記地物の照射点からなる点群のそれぞれの座標位置を示す第1点群情報を含み、
前記第2情報は、前記第2レーザースキャナによって計測された前記第2移動体と周囲の地物における照射点との距離情報と、前記第2自己位置推定部によって推定された前記第2移動体の第2位置情報と、に基づいて推定された、前記第2レーザースキャナのレーザー光が照射された前記地物の照射点からなる点群のそれぞれの座標位置を示す第2点群情報を含む、請求項2又は3に記載の情報処理装置。
The first environmental information acquisition unit includes a first laser scanner,
The second environmental information acquisition unit includes a second laser scanner,
The first information includes distance information between the first moving body measured by the first laser scanner and an irradiation point on a surrounding feature, and the first moving body estimated by the first self-position estimating unit. And first point group information indicating each coordinate position of a point group composed of irradiation points of the feature irradiated with the laser beam of the first laser scanner, estimated based on the first position information ,
The second information includes distance information between the second moving body measured by the second laser scanner and an irradiation point on a surrounding feature, and the second moving body estimated by the second self-position estimating unit. And second point group information indicating each coordinate position of a point group consisting of irradiation points of the feature irradiated with the laser beam of the second laser scanner, which is estimated based on the second position information of The information processing apparatus according to claim 2 or 3.
前記第1環境情報取得部は第1カメラを含み、
前記第2環境情報取得部は第2カメラを含み、
前記第1情報は、前記第1カメラによって撮影された第1画像と、前記第1自己位置推定部によって推定された前記第1移動体の第1位置情報とが関連付けられた情報を含み、
前記第2情報は、前記第2カメラによって撮影された第2画像と、前記第2自己位置推定部によって推定された前記第2移動体の第2位置情報とが関連付けられた情報を含み、
前記補正部は、前記特徴情報に基づいて、前記第2画像に関連付けられた第2位置情報を補正する請求項3に記載の情報処理装置
The first environment information acquisition unit includes a first camera,
The second environment information acquisition unit includes a second camera,
The first information includes information in which the first image captured by the first camera and the first position information of the first moving body estimated by the first self-position estimation unit are associated with each other.
The second information includes information in which a second image photographed by the second camera and second position information of the second moving body estimated by the second self-position estimation unit are associated with each other.
The information processing apparatus according to claim 3, wherein the correction unit corrects second position information associated with the second image based on the feature information.
前記第1経路と前記第2経路とが接続する地点を基準として、前記第1情報及び前記第2情報から共通して特定される地物に対応する特徴情報を抽出する抽出部を更に備える請求項1〜5のいずれか一項に記載の情報処理装置。   The system further comprises an extraction unit that extracts feature information corresponding to a feature specified in common from the first information and the second information on the basis of a point where the first route and the second route are connected. Item 6. The information processing device according to any one of Items 1 to 5. 前記補正部は、前記第1情報から抽出した特徴情報が示す座標位置と、前記第2情報から抽出した特徴情報が示す座標位置との差分量に基づき、前記第2情報を補正する請求項3または5に記載の情報処理装置。   The correction unit corrects the second information based on a difference amount between a coordinate position indicated by the feature information extracted from the first information and a coordinate position indicated by the feature information extracted from the second information. Or the information processing apparatus according to 5. 情報処理装置が実行する制御方法であって、
第1経路を移動する第1移動体が有する第1環境情報取得部により取得される前記第1移動体の周囲の情報である第1環境情報を取得する第1取得工程と、
前記第1経路とは異なる第2経路を移動する第2移動体が有する第2環境情報取得部により取得される前記第2移動体の周囲の情報である第2環境情報を取得する第2取得工程と、
前記第1環境情報と前記第2環境情報とに基づいて抽出された特徴情報に基づいて、前記第1環境情報と前記第2環境情報とを合成する合成工程と、
を有する制御方法。
A control method executed by the information processing apparatus,
A first acquisition step of acquiring first environment information which is information around the first mobile body acquired by a first environmental information acquisition unit included in the first mobile body moving on the first route;
Second acquisition for acquiring second environment information, which is information around the second moving body, acquired by a second environment information acquiring unit included in a second moving body that moves on a second path different from the first path. Process,
A synthesis step of synthesizing the first environment information and the second environment information based on feature information extracted based on the first environment information and the second environment information;
A control method.
コンピュータが実行するプログラムであって、
第1経路を移動する第1移動体が有する第1環境情報取得部により取得される前記第1移動体の周囲の情報である第1環境情報を取得する第1取得部と、
前記第1経路とは異なる第2経路を移動する第2移動体が有する第2環境情報取得部により取得される前記第2移動体の周囲の情報である第2環境情報を取得する第2取得部と、
前記第1環境情報と前記第2環境情報とに基づいて抽出された特徴情報に基づいて、前記第1環境情報と前記第2環境情報とを合成する合成部
として前記コンピュータを機能させるプログラム。
A program executed by a computer,
A first acquisition unit that acquires first environment information that is information around the first mobile body acquired by a first environmental information acquisition unit included in the first mobile body that moves along the first route;
Second acquisition for acquiring second environment information, which is information around the second moving body, acquired by a second environment information acquiring unit included in a second moving body that moves on a second path different from the first path. And
A program that causes the computer to function as a synthesis unit that synthesizes the first environment information and the second environment information based on feature information extracted based on the first environment information and the second environment information.
請求項9に記載のプログラムを記憶したことを特徴とする記憶媒体。   A storage medium storing the program according to claim 9.
JP2015220324A 2015-11-10 2015-11-10 Information processing apparatus, control method, program, and storage medium Active JP6656886B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015220324A JP6656886B2 (en) 2015-11-10 2015-11-10 Information processing apparatus, control method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015220324A JP6656886B2 (en) 2015-11-10 2015-11-10 Information processing apparatus, control method, program, and storage medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020018132A Division JP2020073931A (en) 2020-02-05 2020-02-05 Information processing device, control method, program, and storage media

Publications (2)

Publication Number Publication Date
JP2017090239A true JP2017090239A (en) 2017-05-25
JP6656886B2 JP6656886B2 (en) 2020-03-04

Family

ID=58770441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015220324A Active JP6656886B2 (en) 2015-11-10 2015-11-10 Information processing apparatus, control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP6656886B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018221458A1 (en) * 2017-05-31 2018-12-06 パイオニア株式会社 Updating device, control method, program, and storage medium
WO2019131075A1 (en) * 2017-12-25 2019-07-04 住友電気工業株式会社 Transmission device, point group data collection system, and computer program
JP2020034554A (en) * 2018-08-30 2020-03-05 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method, apparatus, and device for calibrating intelligent roadside unit
JP2020144226A (en) * 2019-03-06 2020-09-10 三菱電機株式会社 Map updating system, map updating method, and map updating program
JP2021504715A (en) * 2017-11-28 2021-02-15 深▲せん▼市杉川机器人有限公司Shenzhen 3Irobotix Co., Ltd. Area contouring methods, devices and computer-readable storage media
JP2021047157A (en) * 2019-09-20 2021-03-25 沖電気工業株式会社 Object detector, object detection method and program
WO2021106388A1 (en) * 2019-11-29 2021-06-03 ソニー株式会社 Information processing device, information processing method, and information processing program
JP2021179624A (en) * 2017-09-29 2021-11-18 パイオニア株式会社 Map data generation method
WO2022209573A1 (en) * 2021-04-02 2022-10-06 日立Astemo株式会社 Information processing device and information processing method
US11585665B2 (en) 2017-11-30 2023-02-21 Mitsubishi Electric Corporation Three-dimensional map generation system, three-dimensional map generation method, and computer readable medium
JP7414290B2 (en) 2021-06-01 2024-01-16 Necプラットフォームズ株式会社 Measuring device, measuring system, control method, and program
JP7466144B2 (en) 2020-03-25 2024-04-12 Tis株式会社 PROGRAM, AUTONOMOUS MOBILE DEVICE MANAGEMENT DEVICE, MANAGEMENT METHOD AND MANAGEMENT SYSTEM

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271434A (en) * 1994-03-30 1995-10-20 Nippon Telegr & Teleph Corp <Ntt> Environment map preparing method by plural mobile robots
JP2012155660A (en) * 2011-01-28 2012-08-16 Denso Corp Map data generation device and travel support device
WO2013150630A1 (en) * 2012-04-05 2013-10-10 株式会社日立製作所 Map data creation device, autonomous movement system and autonomous movement control device
WO2016031229A1 (en) * 2014-08-27 2016-03-03 パナソニックIpマネジメント株式会社 Road map creation system, data processing device, and on-board device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07271434A (en) * 1994-03-30 1995-10-20 Nippon Telegr & Teleph Corp <Ntt> Environment map preparing method by plural mobile robots
JP2012155660A (en) * 2011-01-28 2012-08-16 Denso Corp Map data generation device and travel support device
WO2013150630A1 (en) * 2012-04-05 2013-10-10 株式会社日立製作所 Map data creation device, autonomous movement system and autonomous movement control device
WO2016031229A1 (en) * 2014-08-27 2016-03-03 パナソニックIpマネジメント株式会社 Road map creation system, data processing device, and on-board device

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018221458A1 (en) * 2017-05-31 2018-12-06 パイオニア株式会社 Updating device, control method, program, and storage medium
JP2021179624A (en) * 2017-09-29 2021-11-18 パイオニア株式会社 Map data generation method
JP2021504715A (en) * 2017-11-28 2021-02-15 深▲せん▼市杉川机器人有限公司Shenzhen 3Irobotix Co., Ltd. Area contouring methods, devices and computer-readable storage media
US11275178B2 (en) 2017-11-28 2022-03-15 Shenzhen 3Irobotix Co., Ltd. Method and device for drawing region outline and computer readable storage medium
US11585665B2 (en) 2017-11-30 2023-02-21 Mitsubishi Electric Corporation Three-dimensional map generation system, three-dimensional map generation method, and computer readable medium
WO2019131075A1 (en) * 2017-12-25 2019-07-04 住友電気工業株式会社 Transmission device, point group data collection system, and computer program
US10950004B2 (en) 2018-08-30 2021-03-16 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus, device and medium for calibrating intelligent roadside unit
JP2020034554A (en) * 2018-08-30 2020-03-05 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method, apparatus, and device for calibrating intelligent roadside unit
JP7138589B2 (en) 2019-03-06 2022-09-16 三菱電機株式会社 Map update system, map update method and map update program
JP2020144226A (en) * 2019-03-06 2020-09-10 三菱電機株式会社 Map updating system, map updating method, and map updating program
JP2021047157A (en) * 2019-09-20 2021-03-25 沖電気工業株式会社 Object detector, object detection method and program
JP7259674B2 (en) 2019-09-20 2023-04-18 沖電気工業株式会社 OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND PROGRAM
WO2021106388A1 (en) * 2019-11-29 2021-06-03 ソニー株式会社 Information processing device, information processing method, and information processing program
JP7466144B2 (en) 2020-03-25 2024-04-12 Tis株式会社 PROGRAM, AUTONOMOUS MOBILE DEVICE MANAGEMENT DEVICE, MANAGEMENT METHOD AND MANAGEMENT SYSTEM
WO2022209573A1 (en) * 2021-04-02 2022-10-06 日立Astemo株式会社 Information processing device and information processing method
JP7414290B2 (en) 2021-06-01 2024-01-16 Necプラットフォームズ株式会社 Measuring device, measuring system, control method, and program

Also Published As

Publication number Publication date
JP6656886B2 (en) 2020-03-04

Similar Documents

Publication Publication Date Title
JP6656886B2 (en) Information processing apparatus, control method, program, and storage medium
CN109313031B (en) Vehicle-mounted processing device
Alonso et al. Accurate global localization using visual odometry and digital maps on urban environments
CN110617821B (en) Positioning method, positioning device and storage medium
KR101625486B1 (en) Map-based positioning system and method thereof
JP4232167B1 (en) Object identification device, object identification method, and object identification program
JP5589900B2 (en) Local map generation device, global map generation device, and program
JP2022518911A (en) Generate structured map data from vehicle sensors and camera arrays
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
KR101444685B1 (en) Method and Apparatus for Determining Position and Attitude of Vehicle by Image based Multi-sensor Data
JP2016057108A (en) Arithmetic device, arithmetic system, arithmetic method and program
WO2015173034A1 (en) Method and system for determining a position relative to a digital map
EP3617749A1 (en) Method and arrangement for sourcing of location information, generating and updating maps representing the location
EP4012341A1 (en) Camera calibration for localization
CN108613675B (en) Low-cost unmanned aerial vehicle movement measurement method and system
JP5716273B2 (en) Search target position specifying device, search target position specifying method and program
JP2018112506A (en) On-board processing device
CN112447058B (en) Parking method, parking device, computer equipment and storage medium
JP6698430B2 (en) Measuring device, measuring method and program
CN114127738A (en) Automatic mapping and positioning
JP2022066276A (en) Information processing device, control method, program, and storage media
JP2019174191A (en) Data structure, information transmitting device, control method, program, and storage medium
JP2022513828A (en) How and system to generate an environmental model for positioning
KR101181742B1 (en) Apparatus and method for land-use map renewel
WO2019188874A1 (en) Data structure, information processing device, and map data generation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181005

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200205

R150 Certificate of patent or registration of utility model

Ref document number: 6656886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250