JP2023174728A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2023174728A
JP2023174728A JP2023171440A JP2023171440A JP2023174728A JP 2023174728 A JP2023174728 A JP 2023174728A JP 2023171440 A JP2023171440 A JP 2023171440A JP 2023171440 A JP2023171440 A JP 2023171440A JP 2023174728 A JP2023174728 A JP 2023174728A
Authority
JP
Japan
Prior art keywords
information
cloud data
point cloud
shadow
constituent points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023171440A
Other languages
Japanese (ja)
Inventor
真武 下平
Masatake Shimodaira
令司 松本
Reiji Matsumoto
宏平 伊藤
Kohei Ito
裕貴 玉田
Hiroki Tamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2023171440A priority Critical patent/JP2023174728A/en
Publication of JP2023174728A publication Critical patent/JP2023174728A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Instructional Devices (AREA)

Abstract

To provide an information processing device with which it is possible to generate point group data that is easily utilizable.SOLUTION: A degree of contribution of constituent points is determined on the basis of flag information added to constituent points corresponding to a shadow, and overall point group data is generated on the basis of a plurality of individual point group data, it is thereby made possible to disable the constituent points corresponding to the shadow from being utilized or lower the degree of utilization of overall point group data. As the constituent points corresponding to the shadow can change due to the date and time or weather, it is possible to cause the overall point group data to be easily utilizable.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置に関する。 The present invention relates to an information processing device.

従来、移動体において自己位置推定と環境地図作成を同時に実行する方法(SLAM;Simultaneous Localization and Mapping)が知られている。このようなSLAMの一種
として、レーザ装置に代えてビデオカメラを用いる方法(VSLAM;Visual SLAM)が
提案されている(例えば、特許文献1参照)。特許文献1に記載されたようなVSLAMでは、ビデオカメラを用いることによりコスト低減を図っている。
BACKGROUND ART Conventionally, a method (SLAM; Simultaneous Localization and Mapping) is known in which a mobile object simultaneously performs self-position estimation and environmental mapping. As a type of SLAM, a method (VSLAM; Visual SLAM) has been proposed that uses a video camera instead of a laser device (for example, see Patent Document 1). VSLAM as described in Patent Document 1 aims to reduce costs by using a video camera.

特開2014-222550号公報Japanese Patent Application Publication No. 2014-222550

特許文献1に記載されたようなVSLAMにおいては、ビデオカメラによって撮像された各画像(フレーム)において特徴点を抽出し、各画像間における特徴点の変化に基づいて自己位置推定及び環境地図作成を行う。このように作成された環境地図に含まれる点群データは、自己位置推定等に活用されることがある。 In VSLAM as described in Patent Document 1, feature points are extracted from each image (frame) captured by a video camera, and self-position estimation and environment map creation are performed based on changes in feature points between each image. conduct. The point cloud data included in the environmental map created in this way may be used for self-position estimation, etc.

点群データを構成する複数の構成点には、例えば日時や天候によって変化する構成点が含まれている場合がある。このような場合、点群データの生成タイミングと自己位置推定のタイミングとが異なるため、点群データを構成する構成点と、自己位置推定時に検出される地物と、に齟齬が生じてしまい、点群データを活用しにくくなってしまう。 The plurality of constituent points that make up the point cloud data may include constituent points that change depending on, for example, the date and time or the weather. In such a case, the generation timing of point cloud data and the timing of self-position estimation are different, resulting in a discrepancy between the constituent points that make up the point cloud data and the features detected during self-position estimation. This makes it difficult to utilize point cloud data.

したがって、本発明の課題は、活用しやすい点群データを生成することができる情報処理装置を提供することが一例として挙げられる。 Therefore, an example of an object of the present invention is to provide an information processing device that can generate point cloud data that is easy to utilize.

前述した課題を解決し目的を達成するために、請求項1に記載の本発明の情報処理装置は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得部と、前記撮像情報に基づいて点群データを生成する生成部と、前記点群データを構成する構成点のうち影に対応する構成点を抽出する抽出部と、を備え、前記生成部は、前記抽出部が抽出した構成点に所定の情報を付与することを特徴としている。 In order to solve the above-mentioned problems and achieve the purpose, an information processing device of the present invention according to claim 1 includes: an imaging information acquisition section that acquires imaging information from an imaging section mounted on a moving body; a generation unit that generates point cloud data based on the point cloud data; and an extraction unit that extracts constituent points corresponding to shadows from among the constituent points constituting the point cloud data; The feature is that predetermined information is given to the constituent points.

請求項4に記載の本発明の情報処理装置は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得部と、前記撮像情報において影に対応する特徴点を抽出する抽出部と、前記撮像情報に基づいて点群データを生成する生成部と、を備え、前記生成部は、前記抽出部が抽出した特徴点を除去して前記点群データを生成することを特徴としている。 The information processing device of the present invention according to claim 4 includes: an imaging information acquisition unit that acquires imaging information from an imaging unit mounted on a moving object; and an extraction unit that extracts feature points corresponding to shadows in the imaging information. , a generation unit that generates point cloud data based on the imaging information, and the generation unit generates the point cloud data by removing feature points extracted by the extraction unit.

請求項8に記載の本発明の情報処理方法は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得工程と、前記撮像情報に基づいて点群データを生成する生成工程と、前記点群データを構成する構成点のうち影に対応する構成点を抽出する抽出工程と、を含み、前記生成工程においては、前記抽出部が抽出した構成点に所定の情報を付与することを特徴としている。 The information processing method of the present invention according to claim 8 includes: an imaging information acquisition step of acquiring imaging information from an imaging unit mounted on a moving object; a generation step of generating point cloud data based on the imaging information; an extraction step of extracting component points corresponding to shadows from among the component points constituting the point cloud data, and in the generation step, adding predetermined information to the component points extracted by the extraction unit. It is a feature.

請求項9に記載の本発明の情報処理方法は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得工程と、前記撮像情報において影に対応する特徴点を抽出する抽出工程と、前記撮像情報に基づいて点群データを生成する生成工程と、を含み、前記生成工程において、前記抽出部が抽出した特徴点を除去して前記点群データを生成することを特徴としている。 The information processing method of the present invention according to claim 9 includes: an imaging information acquisition step of acquiring imaging information from an imaging unit mounted on a moving body; and an extraction step of extracting feature points corresponding to shadows in the imaging information. , a generation step of generating point cloud data based on the imaging information, and in the generation step, feature points extracted by the extraction unit are removed to generate the point cloud data.

本発明の実施例に係る情報処理装置の概略を示すブロック図である。1 is a block diagram schematically showing an information processing apparatus according to an embodiment of the present invention. 前記情報処理装置が取得する撮像情報のフレームの一例を示す平面図である。FIG. 3 is a plan view showing an example of a frame of imaging information acquired by the information processing device. 前記情報処理装置が生成する点群データの一例を示す平面図である。FIG. 3 is a plan view showing an example of point cloud data generated by the information processing device.

以下、本発明の実施形態を説明する。本発明の実施形態に係る情報処理装置は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得部と、撮像情報に基づいて点群データを生成する生成部と、点群データを構成する構成点のうち影に対応する構成点を抽出する抽出部と、を備える。生成部は、抽出部が抽出した構成点に所定の情報を付与する。 Embodiments of the present invention will be described below. An information processing device according to an embodiment of the present invention includes: an imaging information acquisition unit that acquires imaging information from an imaging unit mounted on a moving object; a generation unit that generates point cloud data based on the imaging information; an extraction unit that extracts constituent points corresponding to the shadow from among the constituent points constituting the shadow. The generation unit adds predetermined information to the constituent points extracted by the extraction unit.

このような本実施形態の情報処理装置によれば、影に対応する構成点に所定の情報を付与することで、点群データを自己位置推定等に用いる際に、影に対応する構成点を利用しないようにしたり、利用度を下げたりすることができる。影に対応する構成点は、日時や天候によって変化し得ることから、点群データを活用しやすくすることができる。 According to the information processing device of this embodiment, by adding predetermined information to the constituent points corresponding to the shadow, when using point cloud data for self-position estimation etc., the constituent points corresponding to the shadow can be added to the constituent points corresponding to the shadow. You can prevent it from being used or reduce its usage. Since the constituent points corresponding to shadows can change depending on the date and time and the weather, point cloud data can be easily utilized.

尚、構成点に付与する所定の情報は、例えば、影であるという情報であってもよいし、影の可能性があるという情報であってもよいし、当該構成点の信頼度を低下させる(0にすることも含む)という情報であってもよい。また、情報処理装置によって生成された点群データは、そのまま活用されてもよいし、他の点群データと統合されてから活用されてもよい。また、撮像情報取得部と生成部と抽出部とは、同一の対象に搭載されていなくてもよく、互いに異なる機器や装置に搭載されていてもよい。即ち、情報処理装置の各構成は、物理的に分離した複数の装置に跨っていてもよい。 Note that the predetermined information given to a constituent point may be, for example, information that it is a shadow, information that there is a possibility of a shadow, or information that lowers the reliability of the constituent point. (including setting it to 0). Moreover, the point cloud data generated by the information processing device may be utilized as is, or may be utilized after being integrated with other point cloud data. Further, the imaging information acquisition section, the generation section, and the extraction section do not need to be installed in the same object, and may be installed in mutually different devices or devices. That is, each configuration of the information processing device may span multiple physically separated devices.

抽出部は、太陽高度情報と太陽方位情報と撮像方位情報とに基づき影に対応する構成点を抽出すればよい。地物のうち鉛直方向に沿って延びる縁部が影を形成する方向は、太陽高度情報と太陽方位情報と撮像方位情報とに基づいて推定することができる。 The extraction unit may extract constituent points corresponding to the shadow based on the solar altitude information, the solar azimuth information, and the imaging azimuth information. The direction in which the edge of the feature that extends along the vertical direction forms a shadow can be estimated based on the solar altitude information, the solar azimuth information, and the imaging azimuth information.

抽出部は、複数の構成点によって表される形状の複雑度に基づき影に対応する構成点を抽出してもよい。例えば、フラクタル次元を概算することにより、植生の葉によって形成される影を特定してもよい。 The extraction unit may extract constituent points corresponding to the shadow based on the complexity of the shape represented by the plurality of constituent points. For example, shadows formed by vegetation foliage may be identified by estimating the fractal dimension.

本発明の他の実施形態に係る情報処理装置は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得部と、撮像情報において影に対応する特徴点を抽出する抽出部と、撮像情報に基づいて点群データを生成する生成部と、を備える。生成部は、抽出部が抽出した特徴点を除去して点群データを生成する。 An information processing device according to another embodiment of the present invention includes: an imaging information acquisition unit that acquires imaging information from an imaging unit mounted on a moving object; an extraction unit that extracts feature points corresponding to shadows in the imaging information; A generation unit that generates point cloud data based on imaging information. The generation unit generates point cloud data by removing the feature points extracted by the extraction unit.

このような本実施形態の情報処理装置によれば、影に対応する特徴点を除去して点群データを生成することで、点群データを自己位置推定等に用いる際に、影による影響を受けないようにすることができる。影に対応する構成点は、日時や天候によって変化し得ることから、点群データを活用しやすくすることができる。尚、特徴点を抽出するタイミング及び除去するタイミングは任意であり、撮像情報に含まれる各フレームにおいて特徴点を
抽出するとともに除去してもよいし、複数のフレームに基づいてVSLAMによって点群データを生成する際に特徴点を抽出するとともに除去してもよい。また、特徴点を除去したことを示す情報を点群データに付与してもよい。
According to the information processing device of this embodiment, by removing feature points corresponding to shadows and generating point cloud data, the influence of shadows can be avoided when using point cloud data for self-position estimation, etc. You can avoid receiving it. Since the constituent points corresponding to shadows can change depending on the date and time and the weather, point cloud data can be easily utilized. Note that the timing of extracting and removing feature points is arbitrary; feature points may be extracted and removed in each frame included in the imaging information, or point cloud data may be extracted by VSLAM based on multiple frames. At the time of generation, feature points may be extracted and removed. Further, information indicating that the feature points have been removed may be added to the point cloud data.

抽出部は、太陽高度情報と太陽方位情報と撮像方位情報とに基づき影に対応する特徴点を抽出すればよい。地物のうち鉛直方向に沿って延びる縁部が影を形成する方向は、太陽高度情報と太陽方位情報と撮像方位情報とに基づいて推定することができる。
してもよい。
The extraction unit may extract feature points corresponding to the shadow based on the solar altitude information, the solar azimuth information, and the imaging azimuth information. The direction in which the edge of the feature that extends along the vertical direction forms a shadow can be estimated based on the solar altitude information, the solar azimuth information, and the imaging azimuth information.
You may.

抽出部は、複数の特徴点によって表される形状の複雑度に基づき影に対応する特徴点を抽出してもよい。例えば、フラクタル次元を概算することにより、植生の葉によって形成される影を特定してもよい。 The extraction unit may extract feature points corresponding to the shadow based on the complexity of the shape represented by the plurality of feature points. For example, shadows formed by vegetation foliage may be identified by estimating the fractal dimension.

前記いずれの実施形態の情報処理装置においても、点群データを出力する出力部をさらに備えることが好ましい。これにより、出力先において点群データを活用することができる。 It is preferable that the information processing apparatus of any of the embodiments further includes an output unit that outputs point cloud data. This allows the point cloud data to be utilized at the output destination.

本発明の実施形態に係る情報処理方法は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得工程と、撮像情報に基づいて点群データを生成する生成工程と、点群データを構成する構成点のうち影に対応する構成点を抽出する抽出工程と、を含む。生成工程において、抽出部が抽出した構成点に所定の情報を付与する。このような情報処理方法によれば、影に対応する構成点に所定の情報を付与することで、点群データを活用しやすくすることができる。 An information processing method according to an embodiment of the present invention includes an imaging information acquisition step of acquiring imaging information from an imaging unit mounted on a moving object, a generation step of generating point cloud data based on the imaging information, and a point cloud data generation step of generating point cloud data based on the imaging information. and an extraction step of extracting constituent points corresponding to the shadow from among the constituent points constituting the shadow. In the generation step, predetermined information is given to the constituent points extracted by the extraction unit. According to such an information processing method, point cloud data can be made easier to utilize by adding predetermined information to constituent points corresponding to shadows.

本発明の他の実施形態に係る情報処理方法は、移動体に搭載された撮像部から撮像情報を取得する撮像情報取得工程と、撮像情報において影に対応する特徴点を抽出する抽出工程と、撮像情報に基づいて点群データを生成する生成工程と、を含む。生成工程において、抽出部が抽出した特徴点を除去して点群データを生成する。このような情報処理方法によれば、影に対応する特徴点を除去して点群データを生成することで、点群データを活用しやすくすることができる。 An information processing method according to another embodiment of the present invention includes: an imaging information acquisition step of acquiring imaging information from an imaging unit mounted on a moving body; an extraction step of extracting feature points corresponding to shadows in the imaging information; The method includes a generation step of generating point cloud data based on the imaging information. In the generation step, the feature points extracted by the extraction unit are removed to generate point cloud data. According to such an information processing method, point cloud data can be easily utilized by removing feature points corresponding to shadows to generate point cloud data.

また、上述した情報処理方法をコンピュータにより実行させる情報処理プログラムとしてもよい。このようにすることにより、コンピュータを用いて、活用しやすい点群データを生成することができる。 Further, the information processing method described above may be implemented as an information processing program that causes a computer to execute the information processing method. By doing so, it is possible to generate point cloud data that is easy to utilize using a computer.

また、上述した情報処理プログラムをコンピュータ読み取り可能な記録媒体に格納してもよい。このようにすることにより、当該プログラムを機器に組み込む以外に単体でも流通させることができ、バージョンアップ等も容易に行える。 Further, the information processing program described above may be stored in a computer-readable recording medium. By doing so, the program can be distributed as a standalone program in addition to being incorporated into a device, and version upgrades can be easily performed.

以下、本発明の実施例について具体的に説明する。本実施例の情報処理ユニット1は、図1に示すように、移動体10に搭載されたVSLAM装置である第1の情報処理装置1Aと、外部サーバ100に搭載された第2の情報処理装置1Bと、によって構成されている。第1の情報処理装置1Aは、情報取得部2と、生成部3と、出力部4と、を備える。移動体10は例えば車両であって、撮像部20と、地図情報記憶部30と、自己位置推定部40と、走行情報センサ50と、日時情報管理部60と、が搭載されている。 Examples of the present invention will be specifically described below. As shown in FIG. 1, the information processing unit 1 of this embodiment includes a first information processing device 1A, which is a VSLAM device mounted on a mobile object 10, and a second information processing device mounted on an external server 100. 1B. The first information processing device 1A includes an information acquisition section 2, a generation section 3, and an output section 4. The moving body 10 is, for example, a vehicle, and is equipped with an imaging section 20, a map information storage section 30, a self-position estimation section 40, a travel information sensor 50, and a date and time information management section 60.

第2の情報処理装置1Bは、収集部11と、生成部12と、を備える。外部サーバ100には、通信部101と、記憶部本体102と、が搭載されている。尚、外部サーバ100は複数の第1の情報処理装置1Aと通信するように構成されている。 The second information processing device 1B includes a collection section 11 and a generation section 12. The external server 100 is equipped with a communication section 101 and a storage section main body 102. Note that the external server 100 is configured to communicate with a plurality of first information processing devices 1A.

撮像部20は、例えばビデオカメラであって、移動体10の進行方向前方側を撮像するように配置されている。撮像部20が撮像した動画は、複数の撮像情報(フレーム)によって構成されており、情報取得部2に送信される。尚、撮像部は、所定の時間間隔で連続的に静止画を撮像可能なものであってもよい。 The imaging unit 20 is, for example, a video camera, and is arranged to take an image of the front side of the moving body 10 in the direction of movement. The moving image captured by the imaging unit 20 is composed of a plurality of imaging information (frames), and is transmitted to the information acquisition unit 2. Note that the imaging unit may be capable of continuously capturing still images at predetermined time intervals.

地図情報記憶部30は、例えばハードディスクや不揮発性メモリなどで構成され、既存の地図情報が記憶されている。地図情報記憶部30に記憶された地図情報は、少なくとも地物についての情報を含んでいればよい。尚、地物についての情報とは、地物の位置や大きさについての数値だけでなく、地物の属性や種別(住宅と商業施設との区別や、商業施設の業種等)についての情報も含むものとする。 The map information storage unit 30 is composed of, for example, a hard disk or a nonvolatile memory, and stores existing map information. The map information stored in the map information storage unit 30 only needs to include at least information about terrestrial features. Information about features includes not only numerical values about the location and size of features, but also information about the attributes and types of features (distinction between residential and commercial facilities, industry type of commercial facilities, etc.). shall be included.

自己位置推定部40は、移動体10の現在位置(絶対位置)を推定するものであって、例えば複数のGPS(Global Positioning System)衛星から発信される電波を受信する
GPS受信部であればよい。自己位置推定部40が推定した現在位置は、撮像部20による撮像情報の撮像位置を示す位置情報として、情報取得部2に送信される。
The self-position estimating unit 40 estimates the current position (absolute position) of the mobile object 10, and may be any GPS receiving unit that receives radio waves transmitted from a plurality of GPS (Global Positioning System) satellites, for example. . The current position estimated by the self-position estimation unit 40 is transmitted to the information acquisition unit 2 as position information indicating the imaging position of the imaging information by the imaging unit 20.

走行情報センサ50は、移動体10の変位量を測定するためのセンサであって、例えば、移動体10の車速パルスを取得する車速パルス取得部と、移動体10の方位変位量を測定するためのジャイロセンサと、移動体10の加速度を取得するための加速度センサと、によって構成されている。走行情報センサ50が取得した変位量によって、移動体10の進行方向が推定される。移動体10の進行方向と、移動体10における撮像部20の取り付け方向と、によって、撮像時における撮像部20の向きに関する撮像方位情報が決定される。撮像部20が移動体の正面に向けられている場合には、進行方向と撮像方位とが略一致する。従って、走行情報センサ50から情報取得部2に撮像方位情報が送信される。尚、走行情報センサ50は、少なくとも移動体10の進行方向を推定可能なものであればよい。 The travel information sensor 50 is a sensor for measuring the amount of displacement of the moving body 10, and includes, for example, a vehicle speed pulse acquisition section for acquiring a vehicle speed pulse of the moving body 10, and a sensor for measuring the amount of azimuth displacement of the moving body 10. A gyro sensor and an acceleration sensor for acquiring the acceleration of the moving body 10. The traveling direction of the mobile object 10 is estimated based on the amount of displacement acquired by the traveling information sensor 50. Imaging orientation information regarding the orientation of the imaging section 20 during imaging is determined by the traveling direction of the moving object 10 and the mounting direction of the imaging section 20 on the moving object 10. When the imaging unit 20 is directed toward the front of the moving body, the traveling direction and the imaging direction substantially match. Therefore, the imaging direction information is transmitted from the driving information sensor 50 to the information acquisition section 2. Note that the traveling information sensor 50 may be any sensor that can at least estimate the traveling direction of the moving body 10.

日時情報管理部60は、カレンダー機能と時計機能とを有するものである。尚、時計機能は、標準電波を受信して誤差を自動修正する電波時計機能であることが好ましい。日時情報管理部60から情報取得部2に日付情報及び時刻情報が送信される。尚、日付情報及び時刻情報に基づき、太陽高度情報及び太陽方位情報を特定することができる。従って、日付情報及び時刻情報を取得する情報取得部2は、太陽高度情報及び太陽方位情報を取得しているものとみなすことができる。 The date and time information management section 60 has a calendar function and a clock function. Note that the clock function is preferably a radio-controlled clock function that receives standard radio waves and automatically corrects errors. Date and time information is transmitted from the date and time information management section 60 to the information acquisition section 2. Note that based on the date information and time information, solar altitude information and solar azimuth information can be specified. Therefore, the information acquisition unit 2 that acquires date information and time information can be considered to acquire solar altitude information and solar azimuth information.

情報取得部2は、上記のように撮像部20から撮像情報を取得することで撮像情報取得部として機能し、上記のように自己位置推定部40から位置情報を取得することで位置情報取得部として機能し、地図情報記憶部30から地図情報を取得することで地図情報取得部として機能し、上記のように走行情報センサ50から撮像方位情報を取得することで、撮像方位情報取得部として機能し、上記のように日時情報管理部60から太陽高度情報及び太陽方位情報を取得することで、太陽情報取得部として機能する。 The information acquisition unit 2 functions as an imaging information acquisition unit by acquiring imaging information from the imaging unit 20 as described above, and functions as a position information acquisition unit by acquiring position information from the self-position estimation unit 40 as described above. It functions as a map information acquisition unit by acquiring map information from the map information storage unit 30, and functions as an imaging azimuth information acquisition unit by acquiring imaging azimuth information from the driving information sensor 50 as described above. However, by acquiring solar altitude information and solar azimuth information from the date and time information management section 60 as described above, it functions as a solar information acquisition section.

生成部3は、情報取得部2が取得した撮像情報において特徴点を抽出して二次元的な特徴点群を生成し、さらに、複数の特徴点群に基づいて点群データを生成する。尚、生成部3が生成する点群データは、例えば三次元点群データであればよい。尚、特徴点の抽出には、例えばORB(Oriented fast and Rotated Brief)アルゴリズムを用いてもよいし
、その他のアルゴリズムを用いてもよい。
The generation unit 3 extracts feature points from the imaging information acquired by the information acquisition unit 2 to generate a two-dimensional feature point group, and further generates point cloud data based on the plurality of feature point groups. Note that the point cloud data generated by the generation unit 3 may be, for example, three-dimensional point cloud data. Note that, for example, an ORB (Oriented fast and Rotated Brief) algorithm may be used to extract feature points, or other algorithms may be used.

出力部4は、インターネットや公衆回線等のネットワークと通信するための回路やアンテナ等から構成され、外部サーバ100の通信部101と通信することにより、生成部3
が生成した情報(点群データ)を送信する。これにより、外部サーバ100の記憶部本体102に情報が記憶されるようになっている。
The output unit 4 is composed of a circuit, an antenna, etc. for communicating with networks such as the Internet and public lines, and outputs the output unit 3 by communicating with the communication unit 101 of the external server 100.
Sends the information (point cloud data) generated by. As a result, information is stored in the storage main body 102 of the external server 100.

第2の情報処理装置1Bの収集部11は、通信部101を介し、第1の情報処理装置1Aが生成した点群データ(個別点群データ)を取得する。収集部11は、複数の移動体から個別点群データを取得したり、1つの移動体から個別点群データを複数回取得したりすることにより、個別点群データを収集する。 The collection unit 11 of the second information processing device 1B acquires point cloud data (individual point cloud data) generated by the first information processing device 1A via the communication unit 101. The collection unit 11 collects individual point cloud data by acquiring individual point cloud data from a plurality of moving objects or by acquiring individual point cloud data from one moving object multiple times.

生成部12は、収集部11が収集した複数の個別点群データに基づいて、総合点群データを生成する。総合点群データは、複数の個別点群データを重ね合わせたものであってもよいし、複数の個別点群データの構成点の位置平均を示すものであってもよい。 The generation unit 12 generates comprehensive point cloud data based on the plurality of individual point cloud data collected by the collection unit 11. The comprehensive point cloud data may be obtained by superimposing a plurality of individual point cloud data, or may indicate a positional average of constituent points of a plurality of individual point cloud data.

このように生成された総合点群データは、例えば移動体の自己位置推定に用いられる。即ち、移動体に搭載された光センサ(いわゆるLIDAR; Laser Imaging Detection and Ranging)によって地物が検出された際、総合点群データと照合することによってこの移動体の自己位置を推定すればよい。 The comprehensive point cloud data generated in this way is used, for example, to estimate the self-position of a moving object. That is, when a terrestrial feature is detected by an optical sensor (so-called LIDAR; Laser Imaging Detection and Ranging) mounted on a moving object, the self-position of this moving object can be estimated by comparing it with comprehensive point cloud data.

[第1の情報処理装置における影の特定]
生成部3は、点群データを生成する際、点群データを構成する構成点のうち影に対応した構成点を特定し、抽出してもよい(即ち、抽出部として機能してもよい)。このときの詳細な手順の一例を以下に説明する。まず、生成部3は、太陽高度情報と太陽方位情報と撮像方位情報とに基づき、影生成方向を特定する。即ち、太陽の位置と撮像部20の向きとが決まれば、建物等の地物のうち鉛直方向に沿って延びる縁部が、撮像時点において影を形成する方向(影生成方向)を推定することができる。即ち、影生成方向に並んだ構成点が存在する場合、これらの構成点は、地物のうち鉛直方向に沿って延びる縁部の影に対応したものであると推定することができる。
[Identification of shadow in first information processing device]
When generating point cloud data, the generation unit 3 may identify and extract constituent points corresponding to shadows among the constituent points forming the point cloud data (that is, may function as an extraction unit). . An example of a detailed procedure at this time will be described below. First, the generation unit 3 identifies the shadow generation direction based on the solar altitude information, the solar azimuth information, and the imaging azimuth information. That is, once the position of the sun and the orientation of the imaging unit 20 are determined, it is possible to estimate the direction in which an edge of a feature such as a building that extends along the vertical direction forms a shadow (shadow generation direction) at the time of imaging. I can do it. That is, when there are constituent points arranged in the shadow generation direction, it can be estimated that these constituent points correspond to the shadow of the edge of the feature extending in the vertical direction.

尚、影生成方向に並んだ構成点が影に対応するものであるか否かは、例えば、並んだ構成点の個数や、複数の構成点によって形成される直線の長さ等に基づいて判断すればよい。即ち、影生成方向に並んだ構成点の個数が少ない場合や、複数の構成点によって構成される直線の長さが短い場合、これらの構成点は偶然影生成方向に並んでいるだけであり、影に対応したものでない可能性が高い。 In addition, whether or not the constituent points arranged in the shadow generation direction correspond to the shadow is determined based on, for example, the number of constituent points arranged in a row, the length of the straight line formed by the plurality of constituent points, etc. do it. In other words, when the number of constituent points lined up in the shadow generation direction is small, or when the length of a straight line formed by a plurality of constituent points is short, these constituent points simply coincidentally line up in the shadow generation direction. There is a high possibility that it is not compatible with shadows.

生成部3は、影生成方向に並んだ構成点を抽出し、且つ、これらの構成点が影に対応すると判定した場合、点群データにおいてこれらの構成点を除去する。 The generation unit 3 extracts constituent points arranged in the shadow generation direction, and when it is determined that these constituent points correspond to a shadow, removes these constituent points from the point group data.

ここで、影生成方向に並んだ構成点を抽出する方法の具体例について図2、3を参照しつつ説明する。尚、図2、3では、対象とする道路及び地物以外は適宜省略して示している。 Here, a specific example of a method for extracting constituent points arranged in the shadow generation direction will be described with reference to FIGS. 2 and 3. In addition, in FIGS. 2 and 3, parts other than the targeted roads and terrestrial features are omitted as appropriate.

図2に示すように、道路R沿いに建物Bが存在している場合、この建物Bによって、太陽の位置及び撮像部の向きに応じた影Sが地面に形成される。建物Bは、鉛直方向に沿って延びる縁部B1を有しており、影Sは縁部B1に対応した直線状の境界線S1を有する。図2のフレームにおいて境界線S1上の特徴点が抽出され、さらにこの前後のフレームにおいても境界線S1上の特徴点が抽出される。従って、図3に示すように生成部3が点群データを生成した際、点群データには、建物Bに対応した構成点PBと、境界線S1に対応した構成点P1~P4と、が含まれる。 As shown in FIG. 2, when a building B exists along a road R, a shadow S is formed by the building B on the ground according to the position of the sun and the direction of the imaging unit. The building B has an edge B1 extending in the vertical direction, and the shadow S has a straight boundary line S1 corresponding to the edge B1. Feature points on the boundary line S1 are extracted in the frame of FIG. 2, and feature points on the boundary line S1 are also extracted in the frames before and after this. Therefore, when the generation unit 3 generates the point cloud data as shown in FIG. 3, the point cloud data includes the constituent points PB corresponding to the building B and the constituent points P1 to P4 corresponding to the boundary line S1. included.

生成部3は、太陽高度情報と太陽方位情報と撮像方位情報とに基づき、影生成方向L1を特定する。図示の例では、太陽は南西に位置し、撮像部20は北北西を向いている。生
成部3は、影生成方向L1を特定することで、この方向に並んだ構成点P1~P4を抽出することができる。
The generation unit 3 identifies the shadow generation direction L1 based on the solar altitude information, the solar azimuth information, and the imaging azimuth information. In the illustrated example, the sun is located in the southwest, and the imaging unit 20 faces north-northwest. By specifying the shadow generation direction L1, the generation unit 3 can extract the constituent points P1 to P4 lined up in this direction.

尚、生成部3は、影生成方向に並んだ構成点を抽出し、且つ、これらの構成点が影に対応すると判定した場合、点群データにおいてこれらの構成点を除去せずに、所定の情報をフラグとして付与してもよい。構成点に付与する所定の情報は、例えば、影であるという情報であってもよいし、影の可能性があるという情報であってもよいし、当該構成点の信頼度を低下させる(0にすることも含む)という情報であってもよい。 Note that when the generation unit 3 extracts constituent points arranged in the shadow generation direction and determines that these constituent points correspond to a shadow, the generation unit 3 extracts constituent points arranged in the shadow generation direction, and when it is determined that these constituent points correspond to a shadow, a predetermined shape is generated without removing these constituent points in the point cloud data. Information may be added as a flag. The predetermined information given to a constituent point may be, for example, information indicating that it is a shadow, information that there is a possibility of a shadow, or reducing the reliability of the constituent point (0 It may also be information such as:

また、生成部3は、上記のように影生成方向に並んだ構成点を抽出する際、自己位置推定部40から取得した位置情報と、地図情報記憶部30から取得した地図情報と、に基づき、撮像範囲に含まれる地物の影の形状を推定してもよい。地物のうち鉛直方向に沿って延びる縁部の形状によって、形成される影の形状が決定される。例えば、道路沿いの地物が天然物である場合や複雑な形状の建物である場合、鉛直方向に沿って延びる縁部によって直線状の影は形成されにくいため、影生成方向に並んだ構成点が存在していても、この地物の影に対応した構成点ではないと判定することができる。 Furthermore, when extracting constituent points arranged in the shadow generation direction as described above, the generation unit 3 uses the position information acquired from the self-position estimation unit 40 and the map information acquired from the map information storage unit 30. , the shape of the shadow of a feature included in the imaging range may be estimated. The shape of the formed shadow is determined by the shape of the edge of the feature that extends in the vertical direction. For example, if the feature along the road is a natural object or a building with a complex shape, it is difficult to form a linear shadow due to edges that extend along the vertical direction, so the constituent points arranged in the direction of shadow generation are difficult to form. Even if a point exists, it can be determined that the point does not correspond to the shadow of this feature.

また、生成部3は、地図情報に地物の高さ情報が含まれている場合、この高さ情報を利用してもよい。即ち、高さ情報と太陽高度情報と太陽方位情報と撮像方位情報とに基づき、影生成方向だけでなく、影の境界線の長さを推定することができる。従って、構成点が影生成方向に沿って並んでいても、境界線の長さを超えた領域については、影に対応したものでないと判断することができる。 Further, if the map information includes height information of a feature, the generation unit 3 may use this height information. That is, based on the height information, solar altitude information, solar azimuth information, and imaging azimuth information, it is possible to estimate not only the shadow generation direction but also the length of the boundary line of the shadow. Therefore, even if the constituent points are lined up along the shadow generation direction, it can be determined that a region that exceeds the length of the boundary line does not correspond to a shadow.

上記の例では、地物のうち鉛直方向に沿って延びる縁部の影に対応した構成点を抽出するものとしたが、他の影に対応した構成点を抽出してもよい。例えば、複数の構成点によって表される形状の複雑度に基づき影に対応する構成点を抽出してもよい。このような方法として、フラクタル次元を概算することにより、植生の葉によって形成される影を特定する方法が例示される。 In the above example, constituent points corresponding to the shadow of the edge extending in the vertical direction of the feature are extracted, but constituent points corresponding to other shadows may be extracted. For example, constituent points corresponding to a shadow may be extracted based on the complexity of a shape represented by a plurality of constituent points. An example of such a method is a method of identifying shadows formed by leaves of vegetation by estimating the fractal dimension.

また、生成部3は、VSLAMによって点群データを生成するよりも前に、撮像情報の各フレームの特徴点から、影に対応する特徴点を抽出してもよい。このとき、生成部3は、影に対応する特徴点を除去して点群データを生成すればよい。また、特徴点を除去したことを示す情報を点群データに付与してもよい。 Furthermore, the generation unit 3 may extract feature points corresponding to shadows from the feature points of each frame of imaging information before generating point cloud data using VSLAM. At this time, the generation unit 3 may generate point cloud data by removing feature points corresponding to shadows. Further, information indicating that the feature points have been removed may be added to the point cloud data.

[点群データのデータ構造]
上記のように生成部3が、影に対応する構成点に所定の情報をフラグとして付与した場合、この点群データは以下に詳述するようなデータ構造を有する。構成点に付与される所定の情報は、上記のように、影であるという情報であってもよいし、影の可能性があるという情報であってもよいし、当該構成点の信頼度を低下させる(0にすることも含む)という情報であってもよい。
[Data structure of point cloud data]
When the generation unit 3 assigns predetermined information as a flag to the constituent points corresponding to the shadow as described above, this point cloud data has a data structure as described in detail below. The predetermined information given to a constituent point may be information indicating that it is a shadow, information that there is a possibility of a shadow, or information that indicates the reliability of the constituent point, as described above. It may be information that the value is lowered (including setting it to 0).

第2の情報処理装置1Bの生成部(処理部)12は、収集部11が収集した複数の個別点群データに基づいて総合点群データを生成する際、情報が付与された(即ち影に対応する)構成点の寄与度を下げて処理することができる。例えば、複数の個別点群データを重ね合わせて総合点群データを生成する際、ある点群データ含まれるフラグ付きの構成点の位置に、他の点群データに含まれる構成点が位置しない場合、この位置の構成点はないものとして処理することができる。 The generation unit (processing unit) 12 of the second information processing device 1B generates the integrated point cloud data based on the plurality of individual point cloud data collected by the collection unit 11. processing can be performed by lowering the contribution of the corresponding) constituent points. For example, when generating comprehensive point cloud data by overlapping multiple individual point cloud data, if a constituent point included in other point cloud data is not located at the position of a flagged constituent point included in one point cloud data. , it can be treated as if there were no constituent points at this position.

また、構成点に付与される情報は、構成点が対応する影を生成する地物についての情報(例えば、当該構成点が、建物が生成した影に対応したものであるという情報や、植生が
生成した影に対応したものであるという情報)を含んでいてもよい。このような点群データのデータ構造の一例を、表1に示す。
In addition, the information given to the constituent points includes information about the features that generate the shadows that the constituent points correspond to (for example, information that the constituent points correspond to the shadows generated by buildings, (information indicating that the shadow corresponds to the generated shadow) may also be included. Table 1 shows an example of the data structure of such point cloud data.

Figure 2023174728000002
Figure 2023174728000002

即ち、各構成点にはIDが割り振られており、各構成点に、位置情報と、影フラグ情報(即ち情報が付与されているか否か)と、構成点が対応する影を生成する地物についての情報と、が付与されている。表1の例では、位置情報が二次元的な座標情報であるものとしたが、位置情報は三次元的な(xyz空間における)座標情報であってもよい。 That is, each constituent point is assigned an ID, and each constituent point has location information, shadow flag information (i.e. whether information is given or not), and the feature that generates the shadow to which the constituent point corresponds. Information about and is given. In the example of Table 1, the position information is two-dimensional coordinate information, but the position information may be three-dimensional (in xyz space) coordinate information.

影フラグ情報は、「0」の場合に情報が付与されていないことを示し、「1」の場合に情報が付与されていることを示す。構成点が対応する影を生成する地物についての情報は、影フラグ情報が0の場合にはブランクとなり、1の場合には、その地物の属性等を特定する情報となる。表1の例では、ID=2の構成点とID=3の構成点とは、異なるビルによって生成される影に対応している。尚、構成点が影に対応することは特定できているものの、その影を生成する地物が特定できていない場合には、地物についての情報をブランクとしてもよい。 When the shadow flag information is "0", it indicates that no information is attached, and when it is "1", it indicates that information is attached. The information about the feature that generates the shadow to which the constituent points correspond is blank if the shadow flag information is 0, and if it is 1, it becomes information specifying the attributes of the feature. In the example of Table 1, the constituent points with ID=2 and the constituent points with ID=3 correspond to shadows generated by different buildings. Note that if it has been determined that the constituent points correspond to a shadow, but the feature that generates the shadow has not been identified, the information about the feature may be left blank.

[総合点群データの生成]
上記のように、第2の情報処理装置1Bにおいて、収集部11が、個別点群データを収集し、生成部12が、複数の個別点群データに基づいて総合点群データを生成する。このとき、収集部11は、個別点群データだけでなく、この個別点群データを各構成点のうち影に対応する構成点に付与された付与情報(上記の影フラグ情報、及び、構成点が対応する影を生成する地物についての情報)を取得する。
[Generation of comprehensive point cloud data]
As described above, in the second information processing device 1B, the collection unit 11 collects individual point cloud data, and the generation unit 12 generates comprehensive point cloud data based on a plurality of individual point cloud data. At this time, the collecting unit 11 collects not only the individual point cloud data but also the attached information (the above-mentioned shadow flag information and (information about the feature that produces the corresponding shadow).

生成部12は、取得した付与情報に基づいてその構成点の寄与度を決定し、総合点群データを生成する。寄与度は、例えば、総合点群データの生成時に複数の個別点群データを重ね合わせたり位置平均を求めたりする際に、重みづけに用いられる値であればよい。 The generation unit 12 determines the degree of contribution of the constituent points based on the acquired assignment information, and generates comprehensive point cloud data. The degree of contribution may be any value that is used for weighting, for example, when superimposing a plurality of individual point cloud data or calculating a positional average when generating comprehensive point cloud data.

生成部12は、影フラグ情報を取得した場合、その構成点の寄与度を0とし、即ちこの構成点を除去して総合点群データを生成してもよい。 When the generation unit 12 acquires the shadow flag information, the generation unit 12 may set the degree of contribution of the constituent points to 0, that is, remove the constituent points to generate the comprehensive point group data.

また、生成部12は、撮像条件の異なる複数の個別点群データにおいて、同一位置の構成点にフラグ情報が付与されている場合、これらの構成点の寄与度を低下させずに総合点群データを生成してもよい。昼間の撮像情報に基づいて生成された個別点群データにおいて影であると判定された構成点と、夜間の撮像情報に基づいて生成された個別点群データにおいて影であると判定された構成点と、が同一位置に存在する場合、これらの構成点は影ではない可能性がある。従って、ある構成点について影であると誤判定して付与情報を付与してしまった場合に、この構成点の寄与度を低下させないようにすることができる。 In addition, when flag information is attached to constituent points at the same position in a plurality of individual point cloud data with different imaging conditions, the generation unit 12 generates the comprehensive point cloud data without reducing the contribution of these constituent points. may be generated. Component points determined to be shadows in individual point cloud data generated based on daytime imaging information and component points determined to be shadows in individual point cloud data generated based on nighttime imaging information If and exist at the same position, these constituent points may not be shadows. Therefore, even if a certain constituent point is erroneously determined to be a shadow and additional information is assigned, it is possible to prevent the degree of contribution of this constituent point from decreasing.

また、生成部12は、構成点の寄与度を決定する際、影フラグ情報だけでなく、影を生成する地物についての情報も参照してもよい。地物の形状が明確であるほど、構成点が影に対応しているか否かを正確に判断しやすい。即ち、影フラグ情報が付与された構成点であっても、影を生成する地物によって判定精度が異なる。そこで、例えば影を生成する地
物の形状が明確であるほど構成点の寄与度を低下させるという処理を行うことにより、影の判定精度も考慮して総合点群データを生成することができる。
Further, when determining the degree of contribution of the constituent points, the generation unit 12 may refer not only to the shadow flag information but also to information about the feature that generates the shadow. The clearer the shape of the feature, the easier it is to accurately determine whether the constituent points correspond to shadows. That is, even for constituent points to which shadow flag information is attached, the determination accuracy differs depending on the feature that generates the shadow. Therefore, for example, by performing a process in which the degree of contribution of the constituent points is reduced as the shape of the feature that generates the shadow is clearer, it is possible to generate comprehensive point cloud data in consideration of the shadow determination accuracy.

上記の構成により、点群データを構成する構成点のうち影に対応する構成点に所定の情報を付与することで、点群データを自己位置推定等に用いる際に、影に対応する構成点を利用しないようにしたり、利用度を下げたりすることができる。影に対応する構成点は、日時や天候によって変化し得ることから、点群データを活用しやすくすることができる。 With the above configuration, by adding predetermined information to the constituent points corresponding to shadows among the constituent points constituting point cloud data, when using point cloud data for self-position estimation, etc., the constituent points corresponding to shadows can be used. You can prevent it from being used or reduce its usage. Since the constituent points corresponding to shadows can change depending on the date and time and the weather, point cloud data can be easily utilized.

また、撮像情報において影に対応する特徴点を抽出するとともに除去して点群データを生成すれば、点群データを自己位置推定等に用いる際に、影による影響を受けないようにすることができる。影に対応する構成点は、日時や天候によって変化し得ることから、点群データを活用しやすくすることができる。 In addition, if point cloud data is generated by extracting and removing feature points corresponding to shadows from imaging information, it is possible to avoid being affected by shadows when using point cloud data for self-position estimation, etc. can. Since the constituent points corresponding to shadows can change depending on the date and time and the weather, point cloud data can be easily utilized.

また、出力部4によって点群データを外部サーバ100に出力することで、出力先の外部サーバ100において点群データを活用することができる。 Further, by outputting the point cloud data to the external server 100 by the output unit 4, the point cloud data can be utilized in the external server 100 as the output destination.

また、点群データのデータ構造において、影に対応する構成点に所定の情報が付与されており、影に対応する構成点について寄与度を下げて処理できるようになっていることで、処理後の点群データ(総合点群データ)を自己位置推定等に用いる際に、影に対応する構成点を利用しないようにしたり、利用度を下げたりすることができる。影に対応する構成点は、日時や天候によって変化し得ることから、処理後の点群データを活用しやすくすることができる。 In addition, in the data structure of point cloud data, predetermined information is attached to the constituent points corresponding to shadows, and by processing the constituent points corresponding to shadows with a lower degree of contribution, it is possible to When using the point cloud data (comprehensive point cloud data) for self-position estimation etc., it is possible to not use constituent points corresponding to shadows or to reduce the degree of use. Since the constituent points corresponding to the shadow can change depending on the date and time and the weather, the processed point cloud data can be easily utilized.

また、影に対応する構成点に付与されたフラグ情報に基づいて構成点の寄与度を決定し、複数の個別点群データに基づいて総合点群データを生成することで、総合点群データにおいて、影に対応する構成点を利用しないようにしたり、利用度を下げたりすることができる。影に対応する構成点は、日時や天候によって変化し得ることから、総合点群データを活用しやすくすることができる。 In addition, by determining the contribution of the constituent points based on the flag information given to the constituent points corresponding to the shadow and generating the comprehensive point cloud data based on multiple individual point cloud data, , it is possible to not use the constituent points corresponding to the shadow or to lower the degree of use. Since the constituent points corresponding to shadows can change depending on the date and time and the weather, comprehensive point cloud data can be easily utilized.

なお、本発明は、前記実施例に限定されるものではなく、本発明の目的が達成できる他の構成等を含み、以下に示すような変形等も本発明に含まれる。 Note that the present invention is not limited to the above-mentioned embodiments, but includes other configurations that can achieve the object of the present invention, and the present invention also includes the following modifications.

例えば、前記実施例では、情報取得部2と生成部3とが移動体に10に搭載されているものとしたが、第1の情報処理装置を構成する撮像情報取得部と生成部と抽出部とは、移動体に搭載されていなくてもよく、互いに異なる機器や装置に搭載されていてもよい。即ち、情報処理装置の各構成は、物理的に分離した複数の装置に跨っていてもよい。 For example, in the above embodiment, the information acquisition section 2 and the generation section 3 are mounted on the moving object 10, but the imaging information acquisition section, the generation section, and the extraction section that constitute the first information processing device This does not necessarily have to be installed on a moving body, and may be installed on different devices or devices. That is, each configuration of the information processing device may span multiple physically separated devices.

また、前記実施例では、収集部11と生成部12とが外部サーバ100に搭載されているものとしたが、第2の情報処理装置を構成する収集部と生成部は、外部サーバに搭載されていなくてもよく、互いに異なる機器や装置に搭載されていてもよい。即ち、情報処理装置の各構成は、物理的に分離した複数の装置に跨っていてもよい。 Furthermore, in the above embodiment, the collection unit 11 and the generation unit 12 are installed in the external server 100, but the collection unit and the generation unit that constitute the second information processing device are installed in the external server. They may be installed in different devices or devices. That is, each configuration of the information processing device may span multiple physically separated devices.

その他、本発明を実施するための最良の構成、方法などは、以上の記載で開示されているが、本発明は、これに限定されるものではない。すなわち、本発明は、主に特定の実施例に関して特に図示され、且つ、説明されているが、本発明の技術的思想および目的の範囲から逸脱することなく、以上述べた実施例に対し、形状、材質、数量、その他の詳細な構成において、当業者が様々な変形を加えることができるものである。従って、上記に開示した形状、材質などを限定した記載は、本発明の理解を容易にするために例示的に記載したものであり、本発明を限定するものではないから、それらの形状、材質などの限定の一部、もしくは全部の限定を外した部材の名称での記載は、本発明に含まれるものである
In addition, the best configuration, method, etc. for carrying out the present invention have been disclosed in the above description, but the present invention is not limited thereto. That is, although the present invention has been specifically illustrated and described primarily with respect to specific embodiments, modifications may be made to the embodiments described above without departing from the spirit and scope of the invention. , materials, quantities, and other detailed configurations, those skilled in the art can make various modifications. Therefore, the descriptions that limit the shapes, materials, etc. disclosed above are provided as examples to facilitate understanding of the present invention, and do not limit the present invention. Descriptions of names of members that exclude some or all of the limitations such as these are included in the present invention.

1A 第1の情報処理装置
2 情報取得部(撮像情報取得部)
3 生成部(抽出部)
4 出力部
10 移動体
20 撮像部
1B 第2の情報処理装置
11 収集部
12 生成部
1A First information processing device 2 Information acquisition section (imaging information acquisition section)
3 Generation section (extraction section)
4 Output unit 10 Mobile object 20 Imaging unit 1B Second information processing device 11 Collection unit 12 Generation unit

Claims (6)

撮像情報に基づいて生成された個別点群データを収集する収集部と、
複数の前記個別点群データに基づいて総合点群データを生成する生成部と、を備え、
前記収集部は、前記個別点群データを構成する構成点のうち影に対応する構成点に付与された付与情報を取得し、
前記生成部は、前記付与情報に基づいて前記構成点の寄与度を決定して前記総合点群データを生成することを特徴とする情報処理装置。
a collection unit that collects individual point cloud data generated based on the imaging information;
a generation unit that generates comprehensive point cloud data based on the plurality of individual point cloud data,
The collection unit acquires attached information attached to a constituent point corresponding to a shadow among the constituent points constituting the individual point cloud data,
The information processing device is characterized in that the generation unit generates the comprehensive point group data by determining the degree of contribution of the constituent points based on the attached information.
前記生成部は、前記付与情報が付与された構成点を除去して前記総合点群データを生成することを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the generation unit generates the comprehensive point cloud data by removing constituent points to which the attached information is attached. 前記生成部は、撮像条件の異なる複数の前記個別点群データにおいて、同一位置の構成点に前記付与情報が付与されている場合、当該構成点の寄与度を低下させずに前記総合点群データを生成することを特徴とする請求項1又は2に記載の情報処理装置。 When the attached information is attached to constituent points at the same position in a plurality of the individual point cloud data having different imaging conditions, the generation unit generates the integrated point cloud data without reducing the degree of contribution of the constituent points. 3. The information processing apparatus according to claim 1, wherein the information processing apparatus generates the information processing apparatus. 撮像情報に基づいて生成された個別点群データを収集する収集工程と、
複数の前記個別点群データに基づいて総合点群データを生成する生成工程と、を含み、
前記収集工程において、前記個別点群データを構成する構成点のうち影に対応する構成点に付与された付与情報を取得し、
前記生成工程において、前記付与情報に基づいて前記構成点の寄与度を決定して前記総合点群データを生成することを特徴とする情報処理方法。
a collection step of collecting individual point cloud data generated based on the imaging information;
a generation step of generating comprehensive point cloud data based on the plurality of individual point cloud data,
In the collecting step, acquiring information given to a constituent point corresponding to a shadow among the constituent points forming the individual point cloud data;
An information processing method characterized in that, in the generation step, the degree of contribution of the constituent points is determined based on the assigned information to generate the comprehensive point group data.
請求項4に記載の情報処理方法を、コンピュータにより実行させることを特徴とする情報処理プログラム。 An information processing program that causes a computer to execute the information processing method according to claim 4. 請求項5に記載の情報処理プログラムを格納したことを特徴とするコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium storing the information processing program according to claim 5.
JP2023171440A 2018-10-12 2023-10-02 Information processing device Pending JP2023174728A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023171440A JP2023174728A (en) 2018-10-12 2023-10-02 Information processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018193082A JP7361462B2 (en) 2018-10-12 2018-10-12 information processing equipment
JP2023171440A JP2023174728A (en) 2018-10-12 2023-10-02 Information processing device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018193082A Division JP7361462B2 (en) 2018-10-12 2018-10-12 information processing equipment

Publications (1)

Publication Number Publication Date
JP2023174728A true JP2023174728A (en) 2023-12-08

Family

ID=70220155

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018193082A Active JP7361462B2 (en) 2018-10-12 2018-10-12 information processing equipment
JP2023171440A Pending JP2023174728A (en) 2018-10-12 2023-10-02 Information processing device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018193082A Active JP7361462B2 (en) 2018-10-12 2018-10-12 information processing equipment

Country Status (1)

Country Link
JP (2) JP7361462B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111724440B (en) * 2020-05-27 2024-02-02 杭州数梦工场科技有限公司 Method and device for determining azimuth information of monitoring equipment and electronic equipment

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5867167B2 (en) * 2012-03-05 2016-02-24 日産自動車株式会社 Shadow detection device
JP2015102449A (en) * 2013-11-26 2015-06-04 日産自動車株式会社 Vehicle self position estimation apparatus and vehicle self position estimation method

Also Published As

Publication number Publication date
JP2020060499A (en) 2020-04-16
JP7361462B2 (en) 2023-10-16

Similar Documents

Publication Publication Date Title
KR101933216B1 (en) River topography information generation method using drone and geospatial information
AU2018282302B2 (en) Integrated sensor calibration in natural scenes
Piermattei et al. Suitability of ground-based SfM–MVS for monitoring glacial and periglacial processes
CN111436216A (en) Method and system for color point cloud generation
US9082008B2 (en) System and methods for feature selection and matching
US7860269B2 (en) Auxilliary navigation system for use in urban areas
JP6950832B2 (en) Position coordinate estimation device, position coordinate estimation method and program
Wang et al. Accuracy evaluation of 3d geometry from low-attitude uav collections a case at zijin mine
JP2023174728A (en) Information processing device
CN111256687A (en) Map data processing method and device, acquisition equipment and storage medium
KR20140118529A (en) Method for eliminating shadow of aerial photograph and apparatus thereof
JP6278790B2 (en) Vehicle position detection device, vehicle position detection method, vehicle position detection computer program, and vehicle position detection system
CN116097128A (en) Method and device for determining the position of a vehicle
US11443131B2 (en) Systems and methods for creating a parking map
JP2023111921A (en) Information processing device
JP2020060501A (en) Information processing device
WO2020113425A1 (en) Systems and methods for constructing high-definition map
CN112106112A (en) Point cloud fusion method, device and system and storage medium
CN107808160B (en) Three-dimensional building extraction method and device
JP7257770B2 (en) Information processing equipment
JP2020061049A (en) Point group data structure
JP2020060496A (en) Information processing device
JP2008090011A (en) Image correction device, image correction method, and program
CN111881233A (en) Distributed point cloud map construction method and device, server and computer readable storage medium
JP2023138605A (en) Information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231002