JP2023174728A - Information processing device - Google Patents
Information processing device Download PDFInfo
- Publication number
- JP2023174728A JP2023174728A JP2023171440A JP2023171440A JP2023174728A JP 2023174728 A JP2023174728 A JP 2023174728A JP 2023171440 A JP2023171440 A JP 2023171440A JP 2023171440 A JP2023171440 A JP 2023171440A JP 2023174728 A JP2023174728 A JP 2023174728A
- Authority
- JP
- Japan
- Prior art keywords
- information
- cloud data
- point cloud
- shadow
- constituent points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 52
- 239000000470 constituent Substances 0.000 claims abstract description 110
- 238000003384 imaging method Methods 0.000 claims description 84
- 238000003672 processing method Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 description 23
- 239000000284 extract Substances 0.000 description 15
- 230000006870 function Effects 0.000 description 10
- 238000000034 method Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Navigation (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Instructional Devices (AREA)
Abstract
Description
本発明は、情報処理装置に関する。 The present invention relates to an information processing device.
従来、移動体において自己位置推定と環境地図作成を同時に実行する方法(SLAM;Simultaneous Localization and Mapping)が知られている。このようなSLAMの一種
として、レーザ装置に代えてビデオカメラを用いる方法(VSLAM;Visual SLAM)が
提案されている(例えば、特許文献1参照)。特許文献1に記載されたようなVSLAMでは、ビデオカメラを用いることによりコスト低減を図っている。
BACKGROUND ART Conventionally, a method (SLAM; Simultaneous Localization and Mapping) is known in which a mobile object simultaneously performs self-position estimation and environmental mapping. As a type of SLAM, a method (VSLAM; Visual SLAM) has been proposed that uses a video camera instead of a laser device (for example, see Patent Document 1). VSLAM as described in Patent Document 1 aims to reduce costs by using a video camera.
特許文献1に記載されたようなVSLAMにおいては、ビデオカメラによって撮像された各画像(フレーム)において特徴点を抽出し、各画像間における特徴点の変化に基づいて自己位置推定及び環境地図作成を行う。このように作成された環境地図に含まれる点群データは、自己位置推定等に活用されることがある。 In VSLAM as described in Patent Document 1, feature points are extracted from each image (frame) captured by a video camera, and self-position estimation and environment map creation are performed based on changes in feature points between each image. conduct. The point cloud data included in the environmental map created in this way may be used for self-position estimation, etc.
点群データを構成する複数の構成点には、例えば日時や天候によって変化する構成点が含まれている場合がある。このような場合、点群データの生成タイミングと自己位置推定のタイミングとが異なるため、点群データを構成する構成点と、自己位置推定時に検出される地物と、に齟齬が生じてしまい、点群データを活用しにくくなってしまう。 The plurality of constituent points that make up the point cloud data may include constituent points that change depending on, for example, the date and time or the weather. In such a case, the generation timing of point cloud data and the timing of self-position estimation are different, resulting in a discrepancy between the constituent points that make up the point cloud data and the features detected during self-position estimation. This makes it difficult to utilize point cloud data.
したがって、本発明の課題は、活用しやすい点群データを生成することができる情報処理装置を提供することが一例として挙げられる。 Therefore, an example of an object of the present invention is to provide an information processing device that can generate point cloud data that is easy to utilize.
前述した課題を解決し目的を達成するために、請求項1に記載の本発明の情報処理装置は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得部と、前記撮像情報に基づいて点群データを生成する生成部と、前記点群データを構成する構成点のうち影に対応する構成点を抽出する抽出部と、を備え、前記生成部は、前記抽出部が抽出した構成点に所定の情報を付与することを特徴としている。 In order to solve the above-mentioned problems and achieve the purpose, an information processing device of the present invention according to claim 1 includes: an imaging information acquisition section that acquires imaging information from an imaging section mounted on a moving body; a generation unit that generates point cloud data based on the point cloud data; and an extraction unit that extracts constituent points corresponding to shadows from among the constituent points constituting the point cloud data; The feature is that predetermined information is given to the constituent points.
請求項4に記載の本発明の情報処理装置は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得部と、前記撮像情報において影に対応する特徴点を抽出する抽出部と、前記撮像情報に基づいて点群データを生成する生成部と、を備え、前記生成部は、前記抽出部が抽出した特徴点を除去して前記点群データを生成することを特徴としている。
The information processing device of the present invention according to
請求項8に記載の本発明の情報処理方法は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得工程と、前記撮像情報に基づいて点群データを生成する生成工程と、前記点群データを構成する構成点のうち影に対応する構成点を抽出する抽出工程と、を含み、前記生成工程においては、前記抽出部が抽出した構成点に所定の情報を付与することを特徴としている。 The information processing method of the present invention according to claim 8 includes: an imaging information acquisition step of acquiring imaging information from an imaging unit mounted on a moving object; a generation step of generating point cloud data based on the imaging information; an extraction step of extracting component points corresponding to shadows from among the component points constituting the point cloud data, and in the generation step, adding predetermined information to the component points extracted by the extraction unit. It is a feature.
請求項9に記載の本発明の情報処理方法は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得工程と、前記撮像情報において影に対応する特徴点を抽出する抽出工程と、前記撮像情報に基づいて点群データを生成する生成工程と、を含み、前記生成工程において、前記抽出部が抽出した特徴点を除去して前記点群データを生成することを特徴としている。 The information processing method of the present invention according to claim 9 includes: an imaging information acquisition step of acquiring imaging information from an imaging unit mounted on a moving body; and an extraction step of extracting feature points corresponding to shadows in the imaging information. , a generation step of generating point cloud data based on the imaging information, and in the generation step, feature points extracted by the extraction unit are removed to generate the point cloud data.
以下、本発明の実施形態を説明する。本発明の実施形態に係る情報処理装置は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得部と、撮像情報に基づいて点群データを生成する生成部と、点群データを構成する構成点のうち影に対応する構成点を抽出する抽出部と、を備える。生成部は、抽出部が抽出した構成点に所定の情報を付与する。 Embodiments of the present invention will be described below. An information processing device according to an embodiment of the present invention includes: an imaging information acquisition unit that acquires imaging information from an imaging unit mounted on a moving object; a generation unit that generates point cloud data based on the imaging information; an extraction unit that extracts constituent points corresponding to the shadow from among the constituent points constituting the shadow. The generation unit adds predetermined information to the constituent points extracted by the extraction unit.
このような本実施形態の情報処理装置によれば、影に対応する構成点に所定の情報を付与することで、点群データを自己位置推定等に用いる際に、影に対応する構成点を利用しないようにしたり、利用度を下げたりすることができる。影に対応する構成点は、日時や天候によって変化し得ることから、点群データを活用しやすくすることができる。 According to the information processing device of this embodiment, by adding predetermined information to the constituent points corresponding to the shadow, when using point cloud data for self-position estimation etc., the constituent points corresponding to the shadow can be added to the constituent points corresponding to the shadow. You can prevent it from being used or reduce its usage. Since the constituent points corresponding to shadows can change depending on the date and time and the weather, point cloud data can be easily utilized.
尚、構成点に付与する所定の情報は、例えば、影であるという情報であってもよいし、影の可能性があるという情報であってもよいし、当該構成点の信頼度を低下させる(0にすることも含む)という情報であってもよい。また、情報処理装置によって生成された点群データは、そのまま活用されてもよいし、他の点群データと統合されてから活用されてもよい。また、撮像情報取得部と生成部と抽出部とは、同一の対象に搭載されていなくてもよく、互いに異なる機器や装置に搭載されていてもよい。即ち、情報処理装置の各構成は、物理的に分離した複数の装置に跨っていてもよい。 Note that the predetermined information given to a constituent point may be, for example, information that it is a shadow, information that there is a possibility of a shadow, or information that lowers the reliability of the constituent point. (including setting it to 0). Moreover, the point cloud data generated by the information processing device may be utilized as is, or may be utilized after being integrated with other point cloud data. Further, the imaging information acquisition section, the generation section, and the extraction section do not need to be installed in the same object, and may be installed in mutually different devices or devices. That is, each configuration of the information processing device may span multiple physically separated devices.
抽出部は、太陽高度情報と太陽方位情報と撮像方位情報とに基づき影に対応する構成点を抽出すればよい。地物のうち鉛直方向に沿って延びる縁部が影を形成する方向は、太陽高度情報と太陽方位情報と撮像方位情報とに基づいて推定することができる。 The extraction unit may extract constituent points corresponding to the shadow based on the solar altitude information, the solar azimuth information, and the imaging azimuth information. The direction in which the edge of the feature that extends along the vertical direction forms a shadow can be estimated based on the solar altitude information, the solar azimuth information, and the imaging azimuth information.
抽出部は、複数の構成点によって表される形状の複雑度に基づき影に対応する構成点を抽出してもよい。例えば、フラクタル次元を概算することにより、植生の葉によって形成される影を特定してもよい。 The extraction unit may extract constituent points corresponding to the shadow based on the complexity of the shape represented by the plurality of constituent points. For example, shadows formed by vegetation foliage may be identified by estimating the fractal dimension.
本発明の他の実施形態に係る情報処理装置は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得部と、撮像情報において影に対応する特徴点を抽出する抽出部と、撮像情報に基づいて点群データを生成する生成部と、を備える。生成部は、抽出部が抽出した特徴点を除去して点群データを生成する。 An information processing device according to another embodiment of the present invention includes: an imaging information acquisition unit that acquires imaging information from an imaging unit mounted on a moving object; an extraction unit that extracts feature points corresponding to shadows in the imaging information; A generation unit that generates point cloud data based on imaging information. The generation unit generates point cloud data by removing the feature points extracted by the extraction unit.
このような本実施形態の情報処理装置によれば、影に対応する特徴点を除去して点群データを生成することで、点群データを自己位置推定等に用いる際に、影による影響を受けないようにすることができる。影に対応する構成点は、日時や天候によって変化し得ることから、点群データを活用しやすくすることができる。尚、特徴点を抽出するタイミング及び除去するタイミングは任意であり、撮像情報に含まれる各フレームにおいて特徴点を
抽出するとともに除去してもよいし、複数のフレームに基づいてVSLAMによって点群データを生成する際に特徴点を抽出するとともに除去してもよい。また、特徴点を除去したことを示す情報を点群データに付与してもよい。
According to the information processing device of this embodiment, by removing feature points corresponding to shadows and generating point cloud data, the influence of shadows can be avoided when using point cloud data for self-position estimation, etc. You can avoid receiving it. Since the constituent points corresponding to shadows can change depending on the date and time and the weather, point cloud data can be easily utilized. Note that the timing of extracting and removing feature points is arbitrary; feature points may be extracted and removed in each frame included in the imaging information, or point cloud data may be extracted by VSLAM based on multiple frames. At the time of generation, feature points may be extracted and removed. Further, information indicating that the feature points have been removed may be added to the point cloud data.
抽出部は、太陽高度情報と太陽方位情報と撮像方位情報とに基づき影に対応する特徴点を抽出すればよい。地物のうち鉛直方向に沿って延びる縁部が影を形成する方向は、太陽高度情報と太陽方位情報と撮像方位情報とに基づいて推定することができる。
してもよい。
The extraction unit may extract feature points corresponding to the shadow based on the solar altitude information, the solar azimuth information, and the imaging azimuth information. The direction in which the edge of the feature that extends along the vertical direction forms a shadow can be estimated based on the solar altitude information, the solar azimuth information, and the imaging azimuth information.
You may.
抽出部は、複数の特徴点によって表される形状の複雑度に基づき影に対応する特徴点を抽出してもよい。例えば、フラクタル次元を概算することにより、植生の葉によって形成される影を特定してもよい。 The extraction unit may extract feature points corresponding to the shadow based on the complexity of the shape represented by the plurality of feature points. For example, shadows formed by vegetation foliage may be identified by estimating the fractal dimension.
前記いずれの実施形態の情報処理装置においても、点群データを出力する出力部をさらに備えることが好ましい。これにより、出力先において点群データを活用することができる。 It is preferable that the information processing apparatus of any of the embodiments further includes an output unit that outputs point cloud data. This allows the point cloud data to be utilized at the output destination.
本発明の実施形態に係る情報処理方法は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得工程と、撮像情報に基づいて点群データを生成する生成工程と、点群データを構成する構成点のうち影に対応する構成点を抽出する抽出工程と、を含む。生成工程において、抽出部が抽出した構成点に所定の情報を付与する。このような情報処理方法によれば、影に対応する構成点に所定の情報を付与することで、点群データを活用しやすくすることができる。 An information processing method according to an embodiment of the present invention includes an imaging information acquisition step of acquiring imaging information from an imaging unit mounted on a moving object, a generation step of generating point cloud data based on the imaging information, and a point cloud data generation step of generating point cloud data based on the imaging information. and an extraction step of extracting constituent points corresponding to the shadow from among the constituent points constituting the shadow. In the generation step, predetermined information is given to the constituent points extracted by the extraction unit. According to such an information processing method, point cloud data can be made easier to utilize by adding predetermined information to constituent points corresponding to shadows.
本発明の他の実施形態に係る情報処理方法は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得工程と、撮像情報において影に対応する特徴点を抽出する抽出工程と、撮像情報に基づいて点群データを生成する生成工程と、を含む。生成工程において、抽出部が抽出した特徴点を除去して点群データを生成する。このような情報処理方法によれば、影に対応する特徴点を除去して点群データを生成することで、点群データを活用しやすくすることができる。 An information processing method according to another embodiment of the present invention includes: an imaging information acquisition step of acquiring imaging information from an imaging unit mounted on a moving body; an extraction step of extracting feature points corresponding to shadows in the imaging information; The method includes a generation step of generating point cloud data based on the imaging information. In the generation step, the feature points extracted by the extraction unit are removed to generate point cloud data. According to such an information processing method, point cloud data can be easily utilized by removing feature points corresponding to shadows to generate point cloud data.
また、上述した情報処理方法をコンピュータにより実行させる情報処理プログラムとしてもよい。このようにすることにより、コンピュータを用いて、活用しやすい点群データを生成することができる。 Further, the information processing method described above may be implemented as an information processing program that causes a computer to execute the information processing method. By doing so, it is possible to generate point cloud data that is easy to utilize using a computer.
また、上述した情報処理プログラムをコンピュータ読み取り可能な記録媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。 Further, the information processing program described above may be stored in a computer-readable recording medium. By doing so, the program can be distributed as a standalone program in addition to being incorporated into a device, and version upgrades can be easily performed.
以下、本発明の実施例について具体的に説明する。本実施例の情報処理ユニット1は、図1に示すように、移動体10に搭載されたVSLAM装置である第1の情報処理装置1Aと、外部サーバ100に搭載された第2の情報処理装置1Bと、によって構成されている。第1の情報処理装置1Aは、情報取得部2と、生成部3と、出力部4と、を備える。移動体10は例えば車両であって、撮像部20と、地図情報記憶部30と、自己位置推定部40と、走行情報センサ50と、日時情報管理部60と、が搭載されている。
Examples of the present invention will be specifically described below. As shown in FIG. 1, the information processing unit 1 of this embodiment includes a first
第2の情報処理装置1Bは、収集部11と、生成部12と、を備える。外部サーバ100には、通信部101と、記憶部本体102と、が搭載されている。尚、外部サーバ100は複数の第1の情報処理装置1Aと通信するように構成されている。
The second information processing device 1B includes a
撮像部20は、例えばビデオカメラであって、移動体10の進行方向前方側を撮像するように配置されている。撮像部20が撮像した動画は、複数の撮像情報(フレーム)によって構成されており、情報取得部2に送信される。尚、撮像部は、所定の時間間隔で連続的に静止画を撮像可能なものであってもよい。
The
地図情報記憶部30は、例えばハードディスクや不揮発性メモリなどで構成され、既存の地図情報が記憶されている。地図情報記憶部30に記憶された地図情報は、少なくとも地物についての情報を含んでいればよい。尚、地物についての情報とは、地物の位置や大きさについての数値だけでなく、地物の属性や種別(住宅と商業施設との区別や、商業施設の業種等)についての情報も含むものとする。
The map
自己位置推定部40は、移動体10の現在位置(絶対位置)を推定するものであって、例えば複数のGPS(Global Positioning System)衛星から発信される電波を受信する
GPS受信部であればよい。自己位置推定部40が推定した現在位置は、撮像部20による撮像情報の撮像位置を示す位置情報として、情報取得部2に送信される。
The self-
走行情報センサ50は、移動体10の変位量を測定するためのセンサであって、例えば、移動体10の車速パルスを取得する車速パルス取得部と、移動体10の方位変位量を測定するためのジャイロセンサと、移動体10の加速度を取得するための加速度センサと、によって構成されている。走行情報センサ50が取得した変位量によって、移動体10の進行方向が推定される。移動体10の進行方向と、移動体10における撮像部20の取り付け方向と、によって、撮像時における撮像部20の向きに関する撮像方位情報が決定される。撮像部20が移動体の正面に向けられている場合には、進行方向と撮像方位とが略一致する。従って、走行情報センサ50から情報取得部2に撮像方位情報が送信される。尚、走行情報センサ50は、少なくとも移動体10の進行方向を推定可能なものであればよい。
The travel information sensor 50 is a sensor for measuring the amount of displacement of the moving
日時情報管理部60は、カレンダー機能と時計機能とを有するものである。尚、時計機能は、標準電波を受信して誤差を自動修正する電波時計機能であることが好ましい。日時情報管理部60から情報取得部2に日付情報及び時刻情報が送信される。尚、日付情報及び時刻情報に基づき、太陽高度情報及び太陽方位情報を特定することができる。従って、日付情報及び時刻情報を取得する情報取得部2は、太陽高度情報及び太陽方位情報を取得しているものとみなすことができる。
The date and time information management section 60 has a calendar function and a clock function. Note that the clock function is preferably a radio-controlled clock function that receives standard radio waves and automatically corrects errors. Date and time information is transmitted from the date and time information management section 60 to the
情報取得部2は、上記のように撮像部20から撮像情報を取得することで撮像情報取得部として機能し、上記のように自己位置推定部40から位置情報を取得することで位置情報取得部として機能し、地図情報記憶部30から地図情報を取得することで地図情報取得部として機能し、上記のように走行情報センサ50から撮像方位情報を取得することで、撮像方位情報取得部として機能し、上記のように日時情報管理部60から太陽高度情報及び太陽方位情報を取得することで、太陽情報取得部として機能する。
The
生成部3は、情報取得部2が取得した撮像情報において特徴点を抽出して二次元的な特徴点群を生成し、さらに、複数の特徴点群に基づいて点群データを生成する。尚、生成部3が生成する点群データは、例えば三次元点群データであればよい。尚、特徴点の抽出には、例えばORB(Oriented fast and Rotated Brief)アルゴリズムを用いてもよいし
、その他のアルゴリズムを用いてもよい。
The
出力部4は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、外部サーバ100の通信部101と通信することにより、生成部3
が生成した情報(点群データ)を送信する。これにより、外部サーバ100の記憶部本体102に情報が記憶されるようになっている。
The
Sends the information (point cloud data) generated by. As a result, information is stored in the storage
第2の情報処理装置1Bの収集部11は、通信部101を介し、第1の情報処理装置1Aが生成した点群データ(個別点群データ)を取得する。収集部11は、複数の移動体から個別点群データを取得したり、1つの移動体から個別点群データを複数回取得したりすることにより、個別点群データを収集する。
The
生成部12は、収集部11が収集した複数の個別点群データに基づいて、総合点群データを生成する。総合点群データは、複数の個別点群データを重ね合わせたものであってもよいし、複数の個別点群データの構成点の位置平均を示すものであってもよい。
The
このように生成された総合点群データは、例えば移動体の自己位置推定に用いられる。即ち、移動体に搭載された光センサ(いわゆるLIDAR; Laser Imaging Detection and Ranging)によって地物が検出された際、総合点群データと照合することによってこの移動体の自己位置を推定すればよい。 The comprehensive point cloud data generated in this way is used, for example, to estimate the self-position of a moving object. That is, when a terrestrial feature is detected by an optical sensor (so-called LIDAR; Laser Imaging Detection and Ranging) mounted on a moving object, the self-position of this moving object can be estimated by comparing it with comprehensive point cloud data.
[第1の情報処理装置における影の特定]
生成部3は、点群データを生成する際、点群データを構成する構成点のうち影に対応した構成点を特定し、抽出してもよい(即ち、抽出部として機能してもよい)。このときの詳細な手順の一例を以下に説明する。まず、生成部3は、太陽高度情報と太陽方位情報と撮像方位情報とに基づき、影生成方向を特定する。即ち、太陽の位置と撮像部20の向きとが決まれば、建物等の地物のうち鉛直方向に沿って延びる縁部が、撮像時点において影を形成する方向(影生成方向)を推定することができる。即ち、影生成方向に並んだ構成点が存在する場合、これらの構成点は、地物のうち鉛直方向に沿って延びる縁部の影に対応したものであると推定することができる。
[Identification of shadow in first information processing device]
When generating point cloud data, the
尚、影生成方向に並んだ構成点が影に対応するものであるか否かは、例えば、並んだ構成点の個数や、複数の構成点によって形成される直線の長さ等に基づいて判断すればよい。即ち、影生成方向に並んだ構成点の個数が少ない場合や、複数の構成点によって構成される直線の長さが短い場合、これらの構成点は偶然影生成方向に並んでいるだけであり、影に対応したものでない可能性が高い。 In addition, whether or not the constituent points arranged in the shadow generation direction correspond to the shadow is determined based on, for example, the number of constituent points arranged in a row, the length of the straight line formed by the plurality of constituent points, etc. do it. In other words, when the number of constituent points lined up in the shadow generation direction is small, or when the length of a straight line formed by a plurality of constituent points is short, these constituent points simply coincidentally line up in the shadow generation direction. There is a high possibility that it is not compatible with shadows.
生成部3は、影生成方向に並んだ構成点を抽出し、且つ、これらの構成点が影に対応すると判定した場合、点群データにおいてこれらの構成点を除去する。
The
ここで、影生成方向に並んだ構成点を抽出する方法の具体例について図2、3を参照しつつ説明する。尚、図2、3では、対象とする道路及び地物以外は適宜省略して示している。 Here, a specific example of a method for extracting constituent points arranged in the shadow generation direction will be described with reference to FIGS. 2 and 3. In addition, in FIGS. 2 and 3, parts other than the targeted roads and terrestrial features are omitted as appropriate.
図2に示すように、道路R沿いに建物Bが存在している場合、この建物Bによって、太陽の位置及び撮像部の向きに応じた影Sが地面に形成される。建物Bは、鉛直方向に沿って延びる縁部B1を有しており、影Sは縁部B1に対応した直線状の境界線S1を有する。図2のフレームにおいて境界線S1上の特徴点が抽出され、さらにこの前後のフレームにおいても境界線S1上の特徴点が抽出される。従って、図3に示すように生成部3が点群データを生成した際、点群データには、建物Bに対応した構成点PBと、境界線S1に対応した構成点P1~P4と、が含まれる。
As shown in FIG. 2, when a building B exists along a road R, a shadow S is formed by the building B on the ground according to the position of the sun and the direction of the imaging unit. The building B has an edge B1 extending in the vertical direction, and the shadow S has a straight boundary line S1 corresponding to the edge B1. Feature points on the boundary line S1 are extracted in the frame of FIG. 2, and feature points on the boundary line S1 are also extracted in the frames before and after this. Therefore, when the
生成部3は、太陽高度情報と太陽方位情報と撮像方位情報とに基づき、影生成方向L1を特定する。図示の例では、太陽は南西に位置し、撮像部20は北北西を向いている。生
成部3は、影生成方向L1を特定することで、この方向に並んだ構成点P1~P4を抽出することができる。
The
尚、生成部3は、影生成方向に並んだ構成点を抽出し、且つ、これらの構成点が影に対応すると判定した場合、点群データにおいてこれらの構成点を除去せずに、所定の情報をフラグとして付与してもよい。構成点に付与する所定の情報は、例えば、影であるという情報であってもよいし、影の可能性があるという情報であってもよいし、当該構成点の信頼度を低下させる(0にすることも含む)という情報であってもよい。
Note that when the
また、生成部3は、上記のように影生成方向に並んだ構成点を抽出する際、自己位置推定部40から取得した位置情報と、地図情報記憶部30から取得した地図情報と、に基づき、撮像範囲に含まれる地物の影の形状を推定してもよい。地物のうち鉛直方向に沿って延びる縁部の形状によって、形成される影の形状が決定される。例えば、道路沿いの地物が天然物である場合や複雑な形状の建物である場合、鉛直方向に沿って延びる縁部によって直線状の影は形成されにくいため、影生成方向に並んだ構成点が存在していても、この地物の影に対応した構成点ではないと判定することができる。
Furthermore, when extracting constituent points arranged in the shadow generation direction as described above, the
また、生成部3は、地図情報に地物の高さ情報が含まれている場合、この高さ情報を利用してもよい。即ち、高さ情報と太陽高度情報と太陽方位情報と撮像方位情報とに基づき、影生成方向だけでなく、影の境界線の長さを推定することができる。従って、構成点が影生成方向に沿って並んでいても、境界線の長さを超えた領域については、影に対応したものでないと判断することができる。
Further, if the map information includes height information of a feature, the
上記の例では、地物のうち鉛直方向に沿って延びる縁部の影に対応した構成点を抽出するものとしたが、他の影に対応した構成点を抽出してもよい。例えば、複数の構成点によって表される形状の複雑度に基づき影に対応する構成点を抽出してもよい。このような方法として、フラクタル次元を概算することにより、植生の葉によって形成される影を特定する方法が例示される。 In the above example, constituent points corresponding to the shadow of the edge extending in the vertical direction of the feature are extracted, but constituent points corresponding to other shadows may be extracted. For example, constituent points corresponding to a shadow may be extracted based on the complexity of a shape represented by a plurality of constituent points. An example of such a method is a method of identifying shadows formed by leaves of vegetation by estimating the fractal dimension.
また、生成部3は、VSLAMによって点群データを生成するよりも前に、撮像情報の各フレームの特徴点から、影に対応する特徴点を抽出してもよい。このとき、生成部3は、影に対応する特徴点を除去して点群データを生成すればよい。また、特徴点を除去したことを示す情報を点群データに付与してもよい。
Furthermore, the
[点群データのデータ構造]
上記のように生成部3が、影に対応する構成点に所定の情報をフラグとして付与した場合、この点群データは以下に詳述するようなデータ構造を有する。構成点に付与される所定の情報は、上記のように、影であるという情報であってもよいし、影の可能性があるという情報であってもよいし、当該構成点の信頼度を低下させる(0にすることも含む)という情報であってもよい。
[Data structure of point cloud data]
When the
第2の情報処理装置1Bの生成部(処理部)12は、収集部11が収集した複数の個別点群データに基づいて総合点群データを生成する際、情報が付与された(即ち影に対応する)構成点の寄与度を下げて処理することができる。例えば、複数の個別点群データを重ね合わせて総合点群データを生成する際、ある点群データ含まれるフラグ付きの構成点の位置に、他の点群データに含まれる構成点が位置しない場合、この位置の構成点はないものとして処理することができる。
The generation unit (processing unit) 12 of the second information processing device 1B generates the integrated point cloud data based on the plurality of individual point cloud data collected by the
また、構成点に付与される情報は、構成点が対応する影を生成する地物についての情報(例えば、当該構成点が、建物が生成した影に対応したものであるという情報や、植生が
生成した影に対応したものであるという情報)を含んでいてもよい。このような点群データのデータ構造の一例を、表1に示す。
In addition, the information given to the constituent points includes information about the features that generate the shadows that the constituent points correspond to (for example, information that the constituent points correspond to the shadows generated by buildings, (information indicating that the shadow corresponds to the generated shadow) may also be included. Table 1 shows an example of the data structure of such point cloud data.
即ち、各構成点にはIDが割り振られており、各構成点に、位置情報と、影フラグ情報(即ち情報が付与されているか否か)と、構成点が対応する影を生成する地物についての情報と、が付与されている。表1の例では、位置情報が二次元的な座標情報であるものとしたが、位置情報は三次元的な(xyz空間における)座標情報であってもよい。 That is, each constituent point is assigned an ID, and each constituent point has location information, shadow flag information (i.e. whether information is given or not), and the feature that generates the shadow to which the constituent point corresponds. Information about and is given. In the example of Table 1, the position information is two-dimensional coordinate information, but the position information may be three-dimensional (in xyz space) coordinate information.
影フラグ情報は、「0」の場合に情報が付与されていないことを示し、「1」の場合に情報が付与されていることを示す。構成点が対応する影を生成する地物についての情報は、影フラグ情報が0の場合にはブランクとなり、1の場合には、その地物の属性等を特定する情報となる。表1の例では、ID=2の構成点とID=3の構成点とは、異なるビルによって生成される影に対応している。尚、構成点が影に対応することは特定できているものの、その影を生成する地物が特定できていない場合には、地物についての情報をブランクとしてもよい。 When the shadow flag information is "0", it indicates that no information is attached, and when it is "1", it indicates that information is attached. The information about the feature that generates the shadow to which the constituent points correspond is blank if the shadow flag information is 0, and if it is 1, it becomes information specifying the attributes of the feature. In the example of Table 1, the constituent points with ID=2 and the constituent points with ID=3 correspond to shadows generated by different buildings. Note that if it has been determined that the constituent points correspond to a shadow, but the feature that generates the shadow has not been identified, the information about the feature may be left blank.
[総合点群データの生成]
上記のように、第2の情報処理装置1Bにおいて、収集部11が、個別点群データを収集し、生成部12が、複数の個別点群データに基づいて総合点群データを生成する。このとき、収集部11は、個別点群データだけでなく、この個別点群データを各構成点のうち影に対応する構成点に付与された付与情報(上記の影フラグ情報、及び、構成点が対応する影を生成する地物についての情報)を取得する。
[Generation of comprehensive point cloud data]
As described above, in the second information processing device 1B, the
生成部12は、取得した付与情報に基づいてその構成点の寄与度を決定し、総合点群データを生成する。寄与度は、例えば、総合点群データの生成時に複数の個別点群データを重ね合わせたり位置平均を求めたりする際に、重みづけに用いられる値であればよい。
The
生成部12は、影フラグ情報を取得した場合、その構成点の寄与度を0とし、即ちこの構成点を除去して総合点群データを生成してもよい。
When the
また、生成部12は、撮像条件の異なる複数の個別点群データにおいて、同一位置の構成点にフラグ情報が付与されている場合、これらの構成点の寄与度を低下させずに総合点群データを生成してもよい。昼間の撮像情報に基づいて生成された個別点群データにおいて影であると判定された構成点と、夜間の撮像情報に基づいて生成された個別点群データにおいて影であると判定された構成点と、が同一位置に存在する場合、これらの構成点は影ではない可能性がある。従って、ある構成点について影であると誤判定して付与情報を付与してしまった場合に、この構成点の寄与度を低下させないようにすることができる。
In addition, when flag information is attached to constituent points at the same position in a plurality of individual point cloud data with different imaging conditions, the
また、生成部12は、構成点の寄与度を決定する際、影フラグ情報だけでなく、影を生成する地物についての情報も参照してもよい。地物の形状が明確であるほど、構成点が影に対応しているか否かを正確に判断しやすい。即ち、影フラグ情報が付与された構成点であっても、影を生成する地物によって判定精度が異なる。そこで、例えば影を生成する地
物の形状が明確であるほど構成点の寄与度を低下させるという処理を行うことにより、影の判定精度も考慮して総合点群データを生成することができる。
Further, when determining the degree of contribution of the constituent points, the
上記の構成により、点群データを構成する構成点のうち影に対応する構成点に所定の情報を付与することで、点群データを自己位置推定等に用いる際に、影に対応する構成点を利用しないようにしたり、利用度を下げたりすることができる。影に対応する構成点は、日時や天候によって変化し得ることから、点群データを活用しやすくすることができる。 With the above configuration, by adding predetermined information to the constituent points corresponding to shadows among the constituent points constituting point cloud data, when using point cloud data for self-position estimation, etc., the constituent points corresponding to shadows can be used. You can prevent it from being used or reduce its usage. Since the constituent points corresponding to shadows can change depending on the date and time and the weather, point cloud data can be easily utilized.
また、撮像情報において影に対応する特徴点を抽出するとともに除去して点群データを生成すれば、点群データを自己位置推定等に用いる際に、影による影響を受けないようにすることができる。影に対応する構成点は、日時や天候によって変化し得ることから、点群データを活用しやすくすることができる。 In addition, if point cloud data is generated by extracting and removing feature points corresponding to shadows from imaging information, it is possible to avoid being affected by shadows when using point cloud data for self-position estimation, etc. can. Since the constituent points corresponding to shadows can change depending on the date and time and the weather, point cloud data can be easily utilized.
また、出力部4によって点群データを外部サーバ100に出力することで、出力先の外部サーバ100において点群データを活用することができる。
Further, by outputting the point cloud data to the
また、点群データのデータ構造において、影に対応する構成点に所定の情報が付与されており、影に対応する構成点について寄与度を下げて処理できるようになっていることで、処理後の点群データ(総合点群データ)を自己位置推定等に用いる際に、影に対応する構成点を利用しないようにしたり、利用度を下げたりすることができる。影に対応する構成点は、日時や天候によって変化し得ることから、処理後の点群データを活用しやすくすることができる。 In addition, in the data structure of point cloud data, predetermined information is attached to the constituent points corresponding to shadows, and by processing the constituent points corresponding to shadows with a lower degree of contribution, it is possible to When using the point cloud data (comprehensive point cloud data) for self-position estimation etc., it is possible to not use constituent points corresponding to shadows or to reduce the degree of use. Since the constituent points corresponding to the shadow can change depending on the date and time and the weather, the processed point cloud data can be easily utilized.
また、影に対応する構成点に付与されたフラグ情報に基づいて構成点の寄与度を決定し、複数の個別点群データに基づいて総合点群データを生成することで、総合点群データにおいて、影に対応する構成点を利用しないようにしたり、利用度を下げたりすることができる。影に対応する構成点は、日時や天候によって変化し得ることから、総合点群データを活用しやすくすることができる。 In addition, by determining the contribution of the constituent points based on the flag information given to the constituent points corresponding to the shadow and generating the comprehensive point cloud data based on multiple individual point cloud data, , it is possible to not use the constituent points corresponding to the shadow or to lower the degree of use. Since the constituent points corresponding to shadows can change depending on the date and time and the weather, comprehensive point cloud data can be easily utilized.
なお、本発明は、前記実施例に限定されるものではなく、本発明の目的が達成できる他の構成等を含み、以下に示すような変形等も本発明に含まれる。 Note that the present invention is not limited to the above-mentioned embodiments, but includes other configurations that can achieve the object of the present invention, and the present invention also includes the following modifications.
例えば、前記実施例では、情報取得部2と生成部3とが移動体に10に搭載されているものとしたが、第1の情報処理装置を構成する撮像情報取得部と生成部と抽出部とは、移動体に搭載されていなくてもよく、互いに異なる機器や装置に搭載されていてもよい。即ち、情報処理装置の各構成は、物理的に分離した複数の装置に跨っていてもよい。
For example, in the above embodiment, the
また、前記実施例では、収集部11と生成部12とが外部サーバ100に搭載されているものとしたが、第2の情報処理装置を構成する収集部と生成部は、外部サーバに搭載されていなくてもよく、互いに異なる機器や装置に搭載されていてもよい。即ち、情報処理装置の各構成は、物理的に分離した複数の装置に跨っていてもよい。
Furthermore, in the above embodiment, the
その他、本発明を実施するための最良の構成、方法などは、以上の記載で開示されているが、本発明は、これに限定されるものではない。すなわち、本発明は、主に特定の実施例に関して特に図示され、且つ、説明されているが、本発明の技術的思想および目的の範囲から逸脱することなく、以上述べた実施例に対し、形状、材質、数量、その他の詳細な構成において、当業者が様々な変形を加えることができるものである。従って、上記に開示した形状、材質などを限定した記載は、本発明の理解を容易にするために例示的に記載したものであり、本発明を限定するものではないから、それらの形状、材質などの限定の一部、もしくは全部の限定を外した部材の名称での記載は、本発明に含まれるものである
。
In addition, the best configuration, method, etc. for carrying out the present invention have been disclosed in the above description, but the present invention is not limited thereto. That is, although the present invention has been specifically illustrated and described primarily with respect to specific embodiments, modifications may be made to the embodiments described above without departing from the spirit and scope of the invention. , materials, quantities, and other detailed configurations, those skilled in the art can make various modifications. Therefore, the descriptions that limit the shapes, materials, etc. disclosed above are provided as examples to facilitate understanding of the present invention, and do not limit the present invention. Descriptions of names of members that exclude some or all of the limitations such as these are included in the present invention.
1A 第1の情報処理装置
2 情報取得部(撮像情報取得部)
3 生成部(抽出部)
4 出力部
10 移動体
20 撮像部
1B 第2の情報処理装置
11 収集部
12 生成部
1A First
3 Generation section (extraction section)
4
Claims (6)
複数の前記個別点群データに基づいて総合点群データを生成する生成部と、を備え、
前記収集部は、前記個別点群データを構成する構成点のうち影に対応する構成点に付与された付与情報を取得し、
前記生成部は、前記付与情報に基づいて前記構成点の寄与度を決定して前記総合点群データを生成することを特徴とする情報処理装置。 a collection unit that collects individual point cloud data generated based on the imaging information;
a generation unit that generates comprehensive point cloud data based on the plurality of individual point cloud data,
The collection unit acquires attached information attached to a constituent point corresponding to a shadow among the constituent points constituting the individual point cloud data,
The information processing device is characterized in that the generation unit generates the comprehensive point group data by determining the degree of contribution of the constituent points based on the attached information.
複数の前記個別点群データに基づいて総合点群データを生成する生成工程と、を含み、
前記収集工程において、前記個別点群データを構成する構成点のうち影に対応する構成点に付与された付与情報を取得し、
前記生成工程において、前記付与情報に基づいて前記構成点の寄与度を決定して前記総合点群データを生成することを特徴とする情報処理方法。 a collection step of collecting individual point cloud data generated based on the imaging information;
a generation step of generating comprehensive point cloud data based on the plurality of individual point cloud data,
In the collecting step, acquiring information given to a constituent point corresponding to a shadow among the constituent points forming the individual point cloud data;
An information processing method characterized in that, in the generation step, the degree of contribution of the constituent points is determined based on the assigned information to generate the comprehensive point group data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023171440A JP2023174728A (en) | 2018-10-12 | 2023-10-02 | Information processing device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018193082A JP7361462B2 (en) | 2018-10-12 | 2018-10-12 | information processing equipment |
JP2023171440A JP2023174728A (en) | 2018-10-12 | 2023-10-02 | Information processing device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018193082A Division JP7361462B2 (en) | 2018-10-12 | 2018-10-12 | information processing equipment |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023174728A true JP2023174728A (en) | 2023-12-08 |
Family
ID=70220155
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018193082A Active JP7361462B2 (en) | 2018-10-12 | 2018-10-12 | information processing equipment |
JP2023171440A Pending JP2023174728A (en) | 2018-10-12 | 2023-10-02 | Information processing device |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018193082A Active JP7361462B2 (en) | 2018-10-12 | 2018-10-12 | information processing equipment |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7361462B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111724440B (en) * | 2020-05-27 | 2024-02-02 | 杭州数梦工场科技有限公司 | Method and device for determining azimuth information of monitoring equipment and electronic equipment |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5867167B2 (en) * | 2012-03-05 | 2016-02-24 | 日産自動車株式会社 | Shadow detection device |
JP2015102449A (en) * | 2013-11-26 | 2015-06-04 | 日産自動車株式会社 | Vehicle self position estimation apparatus and vehicle self position estimation method |
-
2018
- 2018-10-12 JP JP2018193082A patent/JP7361462B2/en active Active
-
2023
- 2023-10-02 JP JP2023171440A patent/JP2023174728A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2020060499A (en) | 2020-04-16 |
JP7361462B2 (en) | 2023-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101933216B1 (en) | River topography information generation method using drone and geospatial information | |
AU2018282302B2 (en) | Integrated sensor calibration in natural scenes | |
Piermattei et al. | Suitability of ground-based SfM–MVS for monitoring glacial and periglacial processes | |
CN111436216A (en) | Method and system for color point cloud generation | |
US9082008B2 (en) | System and methods for feature selection and matching | |
US7860269B2 (en) | Auxilliary navigation system for use in urban areas | |
JP6950832B2 (en) | Position coordinate estimation device, position coordinate estimation method and program | |
Wang et al. | Accuracy evaluation of 3d geometry from low-attitude uav collections a case at zijin mine | |
JP2023174728A (en) | Information processing device | |
CN111256687A (en) | Map data processing method and device, acquisition equipment and storage medium | |
KR20140118529A (en) | Method for eliminating shadow of aerial photograph and apparatus thereof | |
JP6278790B2 (en) | Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system | |
CN116097128A (en) | Method and device for determining the position of a vehicle | |
US11443131B2 (en) | Systems and methods for creating a parking map | |
JP2023111921A (en) | Information processing device | |
JP2020060501A (en) | Information processing device | |
WO2020113425A1 (en) | Systems and methods for constructing high-definition map | |
CN112106112A (en) | Point cloud fusion method, device and system and storage medium | |
CN107808160B (en) | Three-dimensional building extraction method and device | |
JP7257770B2 (en) | Information processing equipment | |
JP2020061049A (en) | Point group data structure | |
JP2020060496A (en) | Information processing device | |
JP2008090011A (en) | Image correction device, image correction method, and program | |
CN111881233A (en) | Distributed point cloud map construction method and device, server and computer readable storage medium | |
JP2023138605A (en) | Information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231002 |