JP2023105835A - Environment map generation device, environment map generation method and program - Google Patents

Environment map generation device, environment map generation method and program Download PDF

Info

Publication number
JP2023105835A
JP2023105835A JP2022006804A JP2022006804A JP2023105835A JP 2023105835 A JP2023105835 A JP 2023105835A JP 2022006804 A JP2022006804 A JP 2022006804A JP 2022006804 A JP2022006804 A JP 2022006804A JP 2023105835 A JP2023105835 A JP 2023105835A
Authority
JP
Japan
Prior art keywords
data
environment map
unit
point cloud
movable object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022006804A
Other languages
Japanese (ja)
Other versions
JP7254222B1 (en
Inventor
大輔 西田
Daisuke Nishida
謙二 平
Kenji Taira
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Engineering Co Ltd
Original Assignee
Mitsubishi Electric Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Engineering Co Ltd filed Critical Mitsubishi Electric Engineering Co Ltd
Priority to JP2022006804A priority Critical patent/JP7254222B1/en
Application granted granted Critical
Publication of JP7254222B1 publication Critical patent/JP7254222B1/en
Publication of JP2023105835A publication Critical patent/JP2023105835A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide an environment map generation device, an environment map generation method and a program which can prevent unnecessary reduction of three-dimensional point group data to be used for generation of an environment map.SOLUTION: An environment map generation device (1) comprises: a data acquisition unit (11) which acquires three-dimensional point group data of an object space measured by a LiDAR (2) and video data of the object space imaged by a camera (3); a feature point extraction unit (13) which extracts feature point data of an object in the object space from the three-dimensional point group data; a position posture estimation unit (14) which estimates a position and a posture of the LiDAR (2); an environment map generation unit (15) which generates an environment map of the object space on the basis of the three-dimensional point group data and estimation results of the position and the posture of the LiDAR (2); an object detection unit (16) which determines whether or not a movable object reflected on the video data moves; and a data removal unit (17) which does not remove the three-dimensional point group data of the movable object determined not to move, and removes the three-dimensional point group data of the movable object determined to move from among the three-dimensional point group data to be used for generation of the environment map data.SELECTED DRAWING: Figure 1

Description

本開示は、環境地図生成装置、環境地図生成方法およびプログラムに関する。 The present disclosure relates to an environment map generation device, an environment map generation method, and a program.

現実空間に対応する3次元の環境地図を生成するための従来の技術として、SLAM(Simultaneous Localization And Mapping)が知られている。SLAMは、自己位置の推定と3次元環境地図の生成とを同時に行う技術である。SLAMのうち、Visual SLAMは、映像を用いて、自己位置の推定と3次元環境地図の生成を行うものである。このVisual SLAMを、単にSLAMということもある。 SLAM (Simultaneous Localization And Mapping) is known as a conventional technique for generating a three-dimensional environment map corresponding to the real space. SLAM is a technique for estimating self-location and generating a three-dimensional environmental map at the same time. Among SLAMs, Visual SLAM uses images to estimate its own position and generate a three-dimensional environmental map. This Visual SLAM may be simply called SLAM.

Visual SLAMにおいては、カメラが周辺空間の映像を連続的に撮像し、3次元計測センサが周辺空間を連続的に計測して、周辺空間の映像と、周辺空間の3次元点の座標である3次元点群データが取得される。映像を構成する各フレーム画像における画素とこれに対応する3次元点とが対応付けられ、3次元点に対し、対応する画素の色情報が付加される。そして、色情報が付加された3次元点群データを用いて、自己位置(3次元計測センサ等の位置)の推定と、3次元の環境地図データの生成とが行われる。 In Visual SLAM, a camera continuously captures an image of the surrounding space, a three-dimensional measurement sensor continuously measures the surrounding space, and the image of the surrounding space and the coordinates of a three-dimensional point in the surrounding space are obtained. Dimensional point cloud data is acquired. A pixel in each frame image forming an image is associated with a corresponding three-dimensional point, and color information of the corresponding pixel is added to the three-dimensional point. Then, using the 3D point cloud data to which the color information is added, estimation of the self position (position of a 3D measurement sensor or the like) and generation of 3D environment map data are performed.

また、3次元計測センサには、例えば、3次元のLiDAR(Light Detection And Ranging)が用いられる。3次元のLiDARは、レーザ光を用いて対象点の3次元座標を計測するレーザセンサである。 In addition, for example, a three-dimensional LiDAR (Light Detection And Ranging) is used for the three-dimensional measurement sensor. A three-dimensional LiDAR is a laser sensor that measures the three-dimensional coordinates of a target point using laser light.

SLAMでは、周辺空間にあるランドマーク(陸標)を目印として、自己位置(LiDARの位置)の推定が行われる。LiDARによる周辺空間の3次元計測では、周辺空間内を移動している物体がランドマークとして誤認識される場合がある。この場合、ランドマークと誤認識された物体が移動することにより、本来、一定の位置にあるランドマークが移動したように認識され、自己位置を推定できずに喪失する可能性がある。また、自己位置を推定できたとしても、フレーム画像間の画素と3次元点との対応付けに誤差が生じて3次元環境地図の精度が低下する。 In SLAM, self-position (position of LiDAR) is estimated using landmarks (landmarks) in the surrounding space as marks. In three-dimensional measurement of the surrounding space by LiDAR, an object moving in the surrounding space may be erroneously recognized as a landmark. In this case, due to the movement of an object that is erroneously recognized as a landmark, the landmark that is originally at a fixed position is recognized as if it has moved, and there is a possibility that the self-position cannot be estimated and lost. Moreover, even if the self-position can be estimated, an error occurs in the correspondence between the pixels between the frame images and the 3D points, and the accuracy of the 3D environment map is reduced.

上記不具合に対し、例えば、特許文献1には、LiDARが計測した3次元距離画像であるポイントクラウドから、歩行者、車両等の動的な交通参加者の計測データを除去し、残ったポイントクラウドのデータを用いて、SLAMを実行する方法が記載されている。動的な交通参加者は、ランドマークと誤って認識される虞があるので、その計測データをポイントクラウドから除去することで、動的な交通参加者に起因した不具合の発生を低減できる。 In response to the above problems, for example, in Patent Document 1, measurement data of dynamic traffic participants such as pedestrians and vehicles are removed from the point cloud, which is a three-dimensional range image measured by LiDAR, and the remaining point cloud A method for executing SLAM is described using the data of . Since dynamic traffic participants may be erroneously recognized as landmarks, removing their measurement data from the point cloud can reduce the occurrence of problems caused by dynamic traffic participants.

特開2019-207220号公報JP 2019-207220 A

特許文献1に記載される従来の技術は、予め定められた動的な交通参加者の3次元点群データを除去する。このため、動的な交通参加者といった可動物体であるが、計測中に動いておらず、ランドマークとされても環境地図の精度に影響を与えないものであっても、その3次元点群データが除去される。この場合、環境地図データの生成に用いられる3次元点群データが過剰に削減されるので、環境地図の精度が低下するという課題があった。 The conventional technique described in US Pat. No. 5,900,002 removes the predefined dynamic 3D point cloud data of traffic participants. For this reason, moving objects, such as dynamic traffic participants, but not moving during the measurement and not affecting the accuracy of the environment map when used as landmarks, can be used for 3D point clouds. Data is removed. In this case, since the three-dimensional point cloud data used for generating the environment map data is excessively reduced, there is a problem that the accuracy of the environment map is lowered.

本開示は、上記課題を解決するものであり、環境地図データの生成に用いられる3次元点群データが過剰に削減されることを防止できる、環境地図生成装置、環境地図生成方法およびプログラムを得ることを目的とする。 The present disclosure solves the above problems, and provides an environment map generation device, an environment map generation method, and a program that can prevent excessive reduction of 3D point cloud data used to generate environment map data. for the purpose.

本開示に係る環境地図生成装置は、センサが対象領域を計測した3次元点の集合である3次元点群データおよび撮像装置が対象領域を撮像した映像データを取得するデータ取得部と、3次元点群データから、対象領域内に存在する物体の特徴点データを抽出する特徴点抽出部と、3次元点群データを用いてセンサの位置および姿勢を推定する位置姿勢推定部と、特徴点データとセンサの位置および姿勢の推定結果とに基づいて、対象領域の環境地図データを生成する環境地図生成部と、映像データに映る物体の中から、動くことが可能な物体である可動物体を検出し、検出した可動物体が動いているか否かを判定する物体検出部と、環境地図データの生成に用いられる3次元点群データの中から、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データを除去するデータ除去部と、を備える。 An environment map generation device according to the present disclosure includes a data acquisition unit that acquires 3D point cloud data, which is a set of 3D points obtained by measuring a target area by a sensor, and video data obtained by capturing an image of the target area by an imaging device; A feature point extraction unit that extracts feature point data of an object existing in a target region from point cloud data, a position and orientation estimation unit that estimates the position and orientation of a sensor using 3D point cloud data, and feature point data and the position and posture estimation results of the sensor. an object detection unit that determines whether or not the detected movable object is moving; and 3D points of the movable object that are determined not to be moving from the 3D point cloud data used to generate the environment map data. a data removal unit that does not remove the group data but removes the three-dimensional point cloud data of the movable object determined to be in motion.

本開示によれば、映像データに映る物体の中から、動くことが可能な物体である可動物体を検出し、検出した可動物体が動いているか否かを判定して、環境地図データの生成に用いられる3次元点群データの中から、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データを除去する。
これにより、本開示に係る環境地図生成装置は、環境地図の生成に用いられる3次元点群データが過剰に削減されることを防止できる。
According to the present disclosure, a movable object, which is an object that can move, is detected from objects appearing in video data, and it is determined whether or not the detected movable object is moving to generate environment map data. The three-dimensional point cloud data of the movable object determined not to be moving is not removed from the three-dimensional point cloud data used, but the three-dimensional point cloud data of the movable object determined to be moving is removed.
As a result, the environment map generation device according to the present disclosure can prevent excessive reduction of the three-dimensional point cloud data used to generate the environment map.

実施の形態1に係る環境地図生成装置の構成を示すブロック図である。1 is a block diagram showing the configuration of an environment map generating device according to Embodiment 1; FIG. 物体検出部の構成を示すブロック図である。4 is a block diagram showing the configuration of an object detection unit; FIG. フレーム画像から可動物体を検出する処理の概要を示す概要図である。FIG. 4 is a schematic diagram showing an outline of processing for detecting a movable object from a frame image; 可動物体が動いているか否かの判定処理の概要を示す概要図である。FIG. 10 is a schematic diagram showing an outline of determination processing as to whether or not a movable object is moving; 盛り土の環境地図を示す画面図である。It is a screen figure which shows the environmental map of embankment. 一部の土を運び出した盛り土の環境地図を示す画面図である。It is a screen figure which shows the environmental map of the embankment which carried out some soil. 実施の形態1に係る環境地図生成方法を示すフローチャートである。4 is a flowchart showing an environment map generation method according to Embodiment 1; 図8Aおよび図8Bは実施の形態1に係る環境地図生成装置の機能を実現するハードウェア構成を示すブロック図である。8A and 8B are block diagrams showing the hardware configuration for realizing the functions of the environment map generating device according to Embodiment 1. FIG.

実施の形態1.
図1は、実施の形態1に係る環境地図生成装置1の構成を示すブロック図である。図1において、環境地図生成装置1は、LiDAR2が対象領域を計測して得られた3次元点群データとカメラ3が対象領域を撮像した映像データを取得し、3次元点群データおよび映像データを用いて、対象領域について3次元の環境地図データを生成する。例えば、環境地図生成装置1は、計測作業者が携帯可能であり、LiDAR2およびカメラ3を備えた端末に搭載される。また、環境地図生成装置1は、LiDAR2およびカメラ3とは別に設けられ、LiDAR2およびカメラ3と有線または無線で通信可能な装置であってもよい。
Embodiment 1.
FIG. 1 is a block diagram showing the configuration of an environment map generating device 1 according to Embodiment 1. As shown in FIG. In FIG. 1, the environment map generation device 1 acquires 3D point cloud data obtained by measuring the target area by the LiDAR 2 and image data of the target area captured by the camera 3, and acquires the 3D point cloud data and the image data. is used to generate three-dimensional environmental map data for the region of interest. For example, the environment map generation device 1 is portable by the measurement operator and mounted on a terminal equipped with the LiDAR 2 and the camera 3 . The environment map generation device 1 may be provided separately from the LiDAR 2 and the camera 3 and may be a device capable of communicating with the LiDAR 2 and the camera 3 by wire or wirelessly.

LiDAR2は、予め定められた計測周期(例えば、100ミリ秒ごと)で対象領域に照射したレーザパルスの反射光を受光して距離を計測し、計測した距離で特定される3次元点の集合である、3次元点群データを検出するセンサである。LiDAR2は、移動体に搭載される。移動体は、例えば、対象領域の周辺を移動可能な車両、対象領域の上空を移動可能な飛行物体または作業者が携帯して移動可能な端末が挙げられる。移動体が移動しながら、LiDAR2が対象領域を計測する。LiDAR2は、対象領域内に存在する物体までの距離を3次元点の深度として計測し、3次元点の集合である3次元点群データを出力する。 LiDAR2 measures the distance by receiving the reflected light of the laser pulse irradiated to the target area at a predetermined measurement cycle (for example, every 100 milliseconds), and is a set of three-dimensional points specified by the measured distance. It is a sensor that detects three-dimensional point cloud data. LiDAR2 is mounted on a moving body. Examples of mobile objects include vehicles that can move around the target area, flying objects that can move over the target area, and terminals that can be carried and moved by workers. The LiDAR2 measures the target area while the moving object moves. The LiDAR 2 measures the distance to an object existing within the target area as the depth of a 3D point, and outputs 3D point cloud data, which is a set of 3D points.

カメラ3は、対象領域を撮像して、映像データを得る撮像装置である。カメラ3は、単眼カメラであってもよいが、ステレオカメラであってもよい。対象領域の映像データは、例えば、一定のフレームレート(例えば、20fps)で撮像された複数のフレーム画像から構成される。フレーム画像はRGB画像データであり、各画素は色情報を有する。 The camera 3 is an imaging device that captures an image of a target area and obtains video data. The camera 3 may be a monocular camera or a stereo camera. The video data of the target area is composed of, for example, a plurality of frame images captured at a constant frame rate (eg, 20 fps). A frame image is RGB image data, and each pixel has color information.

また、カメラ3の撮像視野は、LiDAR2の計測範囲と同等であることが望ましい。例えば、カメラ3は、上記移動体にLiDAR2とともに搭載され、LiDAR2が周囲360度の計測を行うセンサである場合、カメラ3も周囲360度の撮像が行えるものが使用される。また、カメラ3は、一台に限らず、複数のカメラ3を用いてLiDAR2の計測範囲と同等の撮像視野を実現してもよい。 Moreover, it is desirable that the imaging field of view of the camera 3 is equivalent to the measurement range of the LiDAR 2 . For example, the camera 3 is mounted on the moving object together with the LiDAR 2, and if the LiDAR 2 is a sensor that measures 360 degrees around, the camera 3 is also capable of imaging 360 degrees around. In addition, the number of cameras 3 is not limited to one, and a plurality of cameras 3 may be used to realize an imaging field of view equivalent to the measurement range of the LiDAR 2 .

また、LiDAR2とカメラ3の位置関係は、予め実施したキャリブレーションされて相関がとれている。例えば、移動体にLiDAR2およびカメラ3が搭載され、当該移動体が対象領域の周辺を移動しながら、LiDAR2による計測およびカメラ3による撮像が行われる場合、LiDAR2が計測する3次元点群データは、カメラ3が撮像する映像のフレームごとに同期がとれている。 Further, the positional relationship between the LiDAR 2 and the camera 3 has been calibrated in advance and correlated. For example, when the LiDAR 2 and the camera 3 are mounted on a moving object, and the moving object moves around the target area while performing measurement by the LiDAR 2 and imaging by the camera 3, the three-dimensional point cloud data measured by the LiDAR 2 is Synchronization is achieved for each frame of the video imaged by the camera 3 .

データ取得部11は、LiDAR2が対象領域を計測した3次元点の集合である3次元点群データと、カメラ3が対象領域を撮像した映像データとを取得する。例えば、データ取得部11は、LiDAR2およびカメラ3との間で、有線または無線の通信により接続されている。データ取得部11は、LiDAR2が予め定められた計測周期で対象領域を計測して得られた3次元点群データと、LiDAR2の計測に伴いカメラ3によって撮像された対象領域の映像データを取得し、取得したデータを色情報付加部12に出力する。 The data acquisition unit 11 acquires three-dimensional point cloud data, which is a set of three-dimensional points obtained by measuring the target area by the LiDAR 2, and video data obtained by imaging the target area by the camera 3. For example, the data acquisition unit 11 is connected to the LiDAR 2 and the camera 3 through wired or wireless communication. The data acquisition unit 11 acquires three-dimensional point cloud data obtained by measuring the target area with the LiDAR 2 at a predetermined measurement cycle, and video data of the target area captured by the camera 3 along with the measurement of the LiDAR 2. , and outputs the acquired data to the color information addition unit 12 .

色情報付加部12は、3次元点群データを構成する3次元点と、映像データを構成するフレーム画像における画素との対応関係を特定して、3次元点に対応する画素の色情報を付加した3次元点群データを生成する。例えば、LiDAR2とカメラ3との位置関係はキャリブレーションされているので、3次元点群データは、映像データのフレームごとに同期がとれている。この位置関係に基づいて、色情報付加部12は、3次元点群データにおける3次元点の位置とこれに対応する画素の位置とを特定し、3次元点に対応する画素の色情報を付加する。 The color information addition unit 12 specifies the correspondence between the 3D points that make up the 3D point cloud data and the pixels in the frame images that make up the video data, and adds the color information of the pixels corresponding to the 3D points. 3D point cloud data is generated. For example, since the positional relationship between the LiDAR 2 and the camera 3 is calibrated, the 3D point cloud data is synchronized for each frame of video data. Based on this positional relationship, the color information adding unit 12 identifies the positions of the three-dimensional points in the three-dimensional point cloud data and the positions of the corresponding pixels, and adds the color information of the pixels corresponding to the three-dimensional points. do.

なお、3次元点群データにおける3次元点の深度情報のみを用いて、環境地図データを生成する場合、3次元点に色情報を付与する必要はない。この場合、環境地図生成装置1は、色情報付加部12は備えていなくてもよい。すなわち、データ取得部11が取得した3次元点群データはそのまま特徴点抽出部13に出力され、3次元点群データから特徴点の抽出が行われる。 Note that if the environment map data is generated using only the depth information of the 3D points in the 3D point cloud data, it is not necessary to add color information to the 3D points. In this case, the environment map generation device 1 does not have to include the color information adding section 12 . That is, the three-dimensional point cloud data acquired by the data acquisition unit 11 is directly output to the feature point extraction unit 13, and feature points are extracted from the three-dimensional point cloud data.

特徴点抽出部13は、対象領域内に存在する物体の特徴点データを、3次元点群データから抽出する。特徴点データは、対象領域内に存在する物体の表面、凹凸またはエッジといった視覚的に他の部分と区別でき、特徴があるとみなせる点(特徴点)に対応する3次元点データである。例えば、特徴点抽出部13は、映像データを構成するフレーム画像に映る物体の特徴点を抽出し、抽出した特徴点の画素に対応する3次元点データを、3次元点群データに含まれる複数の3次元点データから、特徴点データとして抽出する。 The feature point extraction unit 13 extracts feature point data of an object existing within the target area from the three-dimensional point cloud data. The feature point data is three-dimensional point data corresponding to points (feature points) that can be visually distinguished from other parts such as the surface, unevenness, or edges of an object existing in the target area and that can be regarded as having features. For example, the feature point extracting unit 13 extracts feature points of an object appearing in a frame image that constitutes video data, and extracts three-dimensional point data corresponding to pixels of the extracted feature points from a plurality of points included in the three-dimensional point cloud data. are extracted as feature point data from the three-dimensional point data of .

位置姿勢推定部14は、特徴点抽出部13が抽出した特徴点データを用いて、移動体に搭載または携帯されて移動するLiDAR2の位置および姿勢を推定する。例えば、位置姿勢推定部14は、特徴点データを用いて、対象領域におけるランドマークを認識する。ランドマークは、対象領域で位置が固定されて、地理上の目印となる地物である。 The position/orientation estimation unit 14 uses the feature point data extracted by the feature point extraction unit 13 to estimate the position and orientation of the LiDAR 2 that is mounted on or carried by a moving object. For example, the position/posture estimation unit 14 uses the feature point data to recognize landmarks in the target area. A landmark is a geographical feature whose position is fixed in the target area and serves as a geographical landmark.

位置姿勢推定部14は、ランドマークの位置を、例えば、ランドマークの中心座標で表して、特徴点データから複数のランドマークの位置に対応する距離データを特定する。位置姿勢推定部14は、SLAM技術を用い、時刻t-1に得られたランドマークとの距離データおよび移動体の進行方向に基づいて、時刻tにおけるLiDAR2の位置および姿勢を推定する。LiDAR2の姿勢は、例えば、移動体の進行方向に対する方位角および仰角である。LiDAR2の位置および姿勢の推定結果を示すオドメトリ情報は、環境地図生成部15に出力される。 The position/orientation estimation unit 14 expresses the positions of the landmarks by, for example, the center coordinates of the landmarks, and identifies distance data corresponding to the positions of the plurality of landmarks from the feature point data. The position/orientation estimation unit 14 uses SLAM technology to estimate the position and orientation of the LiDAR 2 at time t based on the distance data to the landmark obtained at time t−1 and the traveling direction of the moving object. The posture of the LiDAR 2 is, for example, the azimuth angle and elevation angle with respect to the traveling direction of the moving body. Odometry information indicating the estimation results of the position and orientation of the LiDAR 2 is output to the environment map generator 15 .

環境地図生成部15は、3次元点群データと、LiDAR2の位置および姿勢の推定結果を示すオドメトリ情報とに基づいて、対象領域の環境地図データを生成する。環境地図データは、3次元点群データにより構成された3次元地図を示すデータである。環境地図のそれぞれの3次元点には、色情報が付加されている。例えば、環境地図生成部15は、時刻t-1におけるLiDAR2の位置および姿勢に応じた環境地図データを生成し、時刻tにおけるLiDAR2の位置および姿勢に応じた環境地図データを生成する。 The environment map generation unit 15 generates environment map data of the target area based on the 3D point cloud data and the odometry information indicating the estimation result of the position and orientation of the LiDAR 2 . The environment map data is data representing a three-dimensional map constructed from three-dimensional point cloud data. Color information is added to each 3D point of the environment map. For example, the environment map generation unit 15 generates environment map data according to the position and orientation of the LiDAR 2 at time t−1, and generates environment map data according to the position and orientation of the LiDAR 2 at time t.

物体検出部16が、映像データに映る物体の中から可動物体を検出し、検出した可動物体が動いているか否かを判定する。可動物体は、動くことが可能な物体であり、例えば、対象領域内に存在する、歩行者、車両等である。また、車両には、建設機械も含まれる。例えば、物体検出部16は、映像データを構成するフレーム画像ごとにパターン認識等の画像解析を行うことにより、フレーム画像から可動物体を検出する。
なお、可動物体は、環境地図の利用分野ごとに決定してもよい。例えば、環境地図を土木作業の管理に利用する場合、可動物体としては、歩行者である作業員、移動可能な作業機械、運搬を行う車両等が挙げられる。
An object detection unit 16 detects a movable object among the objects appearing in the image data, and determines whether or not the detected movable object is moving. Movable objects are objects that can move, such as pedestrians, vehicles, etc., that are present in the region of interest. Vehicles also include construction machinery. For example, the object detection unit 16 detects a movable object from a frame image by performing image analysis such as pattern recognition for each frame image forming video data.
Note that the movable object may be determined for each application field of the environment map. For example, when an environmental map is used for management of civil engineering work, examples of movable objects include workers who are pedestrians, movable working machines, vehicles for transportation, and the like.

物体検出部16は、フレーム画像に映る可動物体の位置が経時的に変化していた場合、可動物体が動いていると判定する。例えば、物体検出部16は、予め定められた判定期間に連続した複数のフレーム画像間で継続して可動物体の位置が変化した場合、あるいは、フレーム画像間における可動物体の位置の変化が予め定められた閾値を超える頻度で発生した場合、可動物体が動いていると判定する。また、物体検出部16は、予め定められた判定期間に連続した複数のフレーム画像間での可動物体の位置の変化が断続して発生した場合、あるいは、フレーム画像間における可動物体の位置の変化が上記閾値以下の頻度で発生した場合に、可動物体が動いていないと判定する。 The object detection unit 16 determines that the movable object is moving when the position of the movable object shown in the frame image changes over time. For example, the object detection unit 16 determines whether the position of the movable object continuously changes between a plurality of consecutive frame images during a predetermined determination period, or when the position of the movable object changes between the frame images. If it occurs with a frequency exceeding the set threshold, it is determined that the movable object is moving. In addition, the object detection unit 16 detects intermittent changes in the position of the movable object between a plurality of consecutive frame images during a predetermined determination period, or when changes in the position of the movable object between the frame images occur intermittently. occurs at a frequency equal to or lower than the threshold, it is determined that the movable object is not moving.

LiDAR2による対象領域の計測において、LiDAR2を搭載する移動体は、対象領域の周辺を移動している。可動物体が動いている場合、LiDAR2の位置および姿勢は時々刻々と変化し、LiDAR2に対する可動物体の位置も時々刻々と変化している。このため、物体検出部16は、動いている可動物体のみに対応する3次元点群データを正確に判別するのは困難である。 In the measurement of the target area by the LiDAR2, the moving object equipped with the LiDAR2 is moving around the target area. When the movable object is moving, the position and orientation of the LiDAR2 change every moment, and the position of the movable object relative to the LiDAR2 also changes every moment. Therefore, it is difficult for the object detection unit 16 to accurately discriminate three-dimensional point cloud data corresponding only to moving movable objects.

物体検出部16は、例えば、映像データを構成するフレーム画像から、可動物体を含む画像領域を特定し、特定した画像領域に対応する3次元点群データを、可動物体に対応する3次元点群データとして判別する。すなわち、可動物体が含まれる画像領域に対応する大まかな範囲に含まれる3次元点群データが、動いていると判定された可動物体に対応する3次元点群データであると判別される。物体検出部16は、判別した3次元点群データと、これに対応する可動物体が動いているか否かを示す判定結果とを、物体検出情報としてデータ除去部17に出力する。 The object detection unit 16 identifies, for example, an image region containing a movable object from the frame images that make up the video data, converts 3D point cloud data corresponding to the identified image region into a 3D point cloud corresponding to the movable object. Determined as data. That is, the three-dimensional point cloud data included in the rough range corresponding to the image area including the movable object is determined to be the three-dimensional point cloud data corresponding to the movable object determined to be moving. The object detection unit 16 outputs the determined three-dimensional point cloud data and the determination result indicating whether or not the corresponding movable object is moving to the data removal unit 17 as object detection information.

データ除去部17は、環境地図生成部15が環境地図データの生成に用いる3次元点群データから、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データを除去する。環境地図生成部15は、物体検出部16が動いていると判定した可動物体に対応する3次元点群データが除去された、残りの3次元点群データと、LiDAR2の位置および姿勢の推定結果とを用いて、対象領域の環境地図データを生成する。すなわち、可動物体が検出されても、計測中に動いておらず、可動物体がランドマークとされても環境地図の精度に影響を与えない場合には、可動物体に対応する3次元点群データが、環境地図データの生成に用いられる3次元点群データから除去されない。これにより、環境地図生成装置1は、環境地図データの生成に用いられる3次元点群データが過剰に削減されることを防止できる。 The data removal unit 17 does not remove the 3D point cloud data of the movable object determined not to be moving from the 3D point cloud data used by the environment map generation unit 15 to generate the environment map data, and determines that the object is moving. 3D point cloud data of the determined movable object is removed. The environment map generation unit 15 removes the 3D point cloud data corresponding to the movable object determined to be moving by the object detection unit 16, the remaining 3D point cloud data, and the estimation result of the position and orientation of the LiDAR 2 is used to generate environmental map data of the target area. In other words, even if a movable object is detected, if it does not move during measurement, and if the movable object is used as a landmark but does not affect the accuracy of the environment map, the 3D point cloud data corresponding to the movable object is not removed from the 3D point cloud data used to generate the environmental map data. As a result, the environment map generation device 1 can prevent excessive reduction of the three-dimensional point cloud data used to generate the environment map data.

また、データ除去部17は、物体検出部16により動いていないと判定された可動物体を、生成された環境地図データから除去する。動いていないと判定された可動物体に対応する3次元点群データは、環境地図データの生成に用いられる3次元点群データの中から除去されない。このため、環境地図データには、動いていないと判定された当該可動物体が含まれており、データ除去部17は、環境地図データを構成する3次元点群データの中から、動いていないと判定された可動物体に対応する3次元点群データを正確に除去することができる。 Further, the data removal unit 17 removes movable objects determined by the object detection unit 16 not to move from the generated environment map data. The 3D point cloud data corresponding to movable objects that are determined not to be moving are not removed from the 3D point cloud data used to generate the environment map data. For this reason, the environment map data includes the movable object determined not to move, and the data removal unit 17 selects the movable object that is not moving from the three-dimensional point group data constituting the environment map data. The 3D point cloud data corresponding to the determined movable object can be accurately removed.

さらに、物体検出部16は、映像データに映る物体の中から除去対象物体を検出する。除去対象物体とは、対象領域の3次元計測および対象領域の撮像を遮蔽する、対象領域に固定的に存在している障害物である。例えば、盛り土の環境地図データの生成において、盛り土と移動体との間に固定的に存在する樹木(街路樹等)あるいは一時的に設置された標識等は、当該環境地図のノイズである。
なお、除去対象物体は、環境地図の利用分野ごとに決定してもよい。例えば、環境地図を土木作業の管理に利用する場合、除去対象物体としては、管理対象の作業領域を遮蔽する可能性がある樹木等が挙げられる。
Further, the object detection unit 16 detects objects to be removed from among the objects appearing in the video data. The object to be removed is an obstacle that is fixedly present in the target area and blocks the three-dimensional measurement of the target area and the imaging of the target area. For example, in the generation of environment map data for embankments, trees (such as roadside trees) that are fixedly present between the embankment and the moving object, or temporarily installed signs, etc., are noise in the environment map.
Note that objects to be removed may be determined for each application field of the environment map. For example, when an environmental map is used to manage civil engineering work, objects to be removed include trees that may block the work area to be managed.

データ除去部17は、環境地図生成部15が環境地図データの生成に用いる3次元点群データの中から、除去対象物体の3次元点群データを除去する。これにより、対象領域の環境地図から樹木等の除去対象物体が除外されるので、環境地図の精度を高めることができる。なお、除去対象物体は対象領域に固定的に存在するので、物体検出部16は、除去対象物体に正確に対応する3次元点群データを判別することが可能である。 The data removal unit 17 removes the 3D point cloud data of the object to be removed from the 3D point cloud data used by the environment map generation unit 15 to generate the environment map data. As a result, removal target objects such as trees are excluded from the environment map of the target area, so the accuracy of the environment map can be improved. Since the removal target object is fixedly present in the target area, the object detection unit 16 can determine the three-dimensional point cloud data that accurately corresponds to the removal target object.

図2は、物体検出部16の構成を示すブロック図である。図2に示すように、物体検出部16は、例えば、物体推論部161および物体領域特定部162を備えて構成される。物体推論部161は、映像データが入力されると、映像データを構成するフレーム画像に可動物体が映っているか否かを推論する学習済みモデルを用いて、可動物体を検出する。学習済みモデルは、図1および図2に図示していない学習装置が生成し、学習済みモデルを定義するパラメータは、図1および図2に図示していない記憶装置に保存される。 FIG. 2 is a block diagram showing the configuration of the object detection section 16. As shown in FIG. As shown in FIG. 2, the object detection unit 16 includes, for example, an object inference unit 161 and an object region identification unit 162. As shown in FIG. When video data is input, the object inference unit 161 detects a movable object using a trained model that infers whether or not a movable object is shown in a frame image forming the video data. A trained model is generated by a learning device (not shown in FIGS. 1 and 2), and parameters defining the trained model are stored in a storage device (not shown in FIGS. 1 and 2).

例えば、学習装置は、カメラ3が対象領域を撮像した映像データを機械学習用データとして、映像データに可動物体が映っているか否かを推論する学習済みモデルを学習する。学習済みモデルは、ディープラーニングで学習されたニューラルネットワーク(NN)である。学習装置は、可動物体の検出精度が向上するようにNNの重みの更新を繰り返し実行してNNの重みが最適化されたNN(学習済みモデル)を生成する。 For example, the learning device learns a learned model for inferring whether or not a movable object is shown in the video data, using video data obtained by imaging the target area with the camera 3 as data for machine learning. A trained model is a neural network (NN) trained by deep learning. The learning device generates an NN (learned model) in which the NN weights are optimized by repeatedly updating the weights of the NN so as to improve the detection accuracy of the movable object.

学習装置は、映像データに可動物体が映っているか否かを推論する学習済みモデルを生成すると、当該学習済みモデルを定義する重み等のパラメータを記憶装置に保存する。物体推論部161は、記憶装置に保存されたパラメータにより定義される学習済みモデルを用いて可動物体の推論を行う。これにより、環境地図生成装置1は、可動物体の検出精度を向上させることができる。 When the learning device generates a learned model for inferring whether or not a movable object is shown in video data, the learning device stores parameters such as weights defining the learned model in a storage device. The object inference unit 161 infers a movable object using a learned model defined by parameters stored in a storage device. As a result, the environment map generation device 1 can improve the detection accuracy of movable objects.

ディープラーニングとしては、例えば、YOLO、EfficientDet等が用いられる。また、当該学習済みモデルの学習として、学習装置が、過去に撮像された映像データを教師データとして用いる教師あり学習を実行してもよいし、教師データを用いない教師なし学習を実行してもよい。物体検出部16が、学習済みモデルを用いて可動物体を検出することにより、環境地図生成装置1は、可動物体の検出精度を向上させることができる。 As deep learning, for example, YOLO, EfficientDet, etc. are used. Further, as the learning of the trained model, the learning device may perform supervised learning using video data captured in the past as teacher data, or may perform unsupervised learning without using teacher data. good. The environment map generation device 1 can improve the detection accuracy of the movable object by the object detection unit 16 detecting the movable object using the learned model.

物体領域特定部162は、映像データを構成するフレーム画像から可動物体の画像領域を特定し、特定した可動物体の画像領域に基づいて、可動物体が動いているか否かを判定する。例えば、物体領域特定部162は、物体推論部161が推論した可動物体が映っている画像領域を特定し、フレーム画像間での当該画像領域に含まれる可動物体の位置変化に基づいて、可動物体が動いているか否かを判定する。物体検出部16は、可動物体が映っている画像領域を示す情報と可動物体が動いているか否かの判定結果とを含む物体検出情報を、データ除去部17に出力する。 The object area identifying unit 162 identifies the image area of the movable object from the frame images forming the video data, and determines whether or not the movable object is moving based on the identified image area of the movable object. For example, the object region specifying unit 162 specifies an image region in which the movable object inferred by the object inferring unit 161 is shown, and based on the position change of the movable object included in the image region between frame images, the movable object determines whether it is running. The object detection unit 16 outputs to the data removal unit 17 object detection information including information indicating the image area in which the movable object is shown and the determination result as to whether or not the movable object is moving.

また、物体推論部161は、映像データが入力されると、映像データを構成するフレーム画像に除去対象物体が映っているか否かを推論する学習済みモデルを用いて、除去対象物体を検出してもよい。例えば、学習装置が、除去対象物体の検出精度が向上するようにNNの重みの更新を繰り返し実行してNNの重みが最適化されたNN(学習済みモデル)を生成する。 In addition, when video data is input, the object inference unit 161 detects an object to be removed using a trained model for inferring whether or not an object to be removed is shown in a frame image forming the video data. good too. For example, the learning device generates an NN (learned model) in which the NN weights are optimized by repeatedly updating the weights of the NN so as to improve the detection accuracy of the object to be removed.

なお、環境地図生成装置1とは別に学習装置を設ける場合を示したが、環境地図生成装置1が、当該学習装置を備えてもよい。また、環境地図生成装置1が、学習済みモデルを定義する重み等のパラメータを保存しておく記憶装置を備えてもよい。 Although the case where the learning device is provided separately from the environment map generation device 1 is shown, the environment map generation device 1 may be provided with the learning device. Moreover, the environment map generation device 1 may include a storage device that stores parameters such as weights that define the learned model.

図3は、物体検出部16がフレーム画像3Aから可動物体を検出する処理の概要を示す概要図である。図3において、フレーム画像3Aは、カメラ3が撮像した対象領域の映像データに含まれるフレーム画像の例である。フレーム画像3Aには、対象領域に固定的に存在する建物21が映っており、歩行者22が映っている。物体検出部16は、カメラ3が撮像する映像データをフレーム画像ごとに画像解析するか、映像データのフレーム画像を学習済みモデルに入力することにより、対象領域の周辺に存在する可動物体である歩行者22を検出する。 FIG. 3 is a schematic diagram showing an overview of the process by which the object detection unit 16 detects a movable object from the frame image 3A. In FIG. 3, a frame image 3A is an example of a frame image included in the video data of the target area captured by the camera 3. As shown in FIG. In the frame image 3A, a building 21 fixedly present in the target area is shown, and a pedestrian 22 is shown. The object detection unit 16 analyzes the image data captured by the camera 3 for each frame image, or inputs the frame images of the image data into a trained model to detect walking, which is a movable object existing around the target area. person 22 is detected.

物体検出部16は、歩行者22を検出すると、検出した歩行者22を含む画像領域31を特定し、特定した画像領域に対応する3次元点群データを、歩行者22に対応する3次元点群データとして判別する。物体検出部16は、判別した3次元点群データと、これに対応する歩行者22が動いているか否かを示す判定結果とを物体検出情報として、データ除去部17に出力する。 When the pedestrian 22 is detected, the object detection unit 16 specifies an image area 31 including the detected pedestrian 22, converts the 3D point cloud data corresponding to the specified image area into 3D points corresponding to the pedestrian 22, Discriminate as group data. The object detection unit 16 outputs the determined three-dimensional point cloud data and the corresponding determination result indicating whether or not the pedestrian 22 is moving to the data removal unit 17 as object detection information.

図4は、可動物体が動いているか否かの判定処理の概要を示す概要図であり、可動物体として歩行者22が検出された場合を示している。図4において、フレーム画像3A1は時刻t-1(秒)における画像であり、フレーム画像3A2は、単位時間が「1」進んだ時刻t(秒)における画像である。フレーム画像3A2において、実線で示す歩行者22は、時刻tにおける歩行者22の位置であり、破線で示す歩行者22は、フレーム画像3A1における歩行者22の位置、すなわち時刻t-1における歩行者22の位置を表している。 FIG. 4 is a schematic diagram showing an overview of the process of determining whether or not a movable object is moving, and shows a case where the pedestrian 22 is detected as the movable object. In FIG. 4, a frame image 3A1 is an image at time t-1 (seconds), and a frame image 3A2 is an image at time t (seconds) when the unit time has advanced by "1". In the frame image 3A2, the pedestrian 22 indicated by a solid line is the position of the pedestrian 22 at time t, and the pedestrian 22 indicated by a broken line is the position of the pedestrian 22 in the frame image 3A1, that is, the pedestrian at time t 22 positions are shown.

図4において矢印で示すように、歩行者22の位置は、フレーム画像3A1とフレーム画像3A2との間で変化している。物体検出部16は、フレーム画像3A1とフレーム画像3A2との間で歩行者22の位置の変化を検出すると、歩行者22が動いていると判定する。また、物体検出部16は、予め定められた判定期間内にフレーム画像間での歩行者22の位置変化を連続して検出した場合に、歩行者22が動いていると判定してもよい。さらに、物体検出部16は、フレーム画像間での歩行者22の位置変化が断続して予め定められた閾値を超える頻度で発生した場合に、可動物体が動いていると判定してもよい。 As indicated by arrows in FIG. 4, the position of pedestrian 22 changes between frame image 3A1 and frame image 3A2. When the object detection unit 16 detects a change in the position of the pedestrian 22 between the frame image 3A1 and the frame image 3A2, it determines that the pedestrian 22 is moving. Further, the object detection unit 16 may determine that the pedestrian 22 is moving when continuously detecting a change in the position of the pedestrian 22 between frame images within a predetermined determination period. Furthermore, the object detection unit 16 may determine that the movable object is moving when the pedestrian 22 intermittently changes position between frame images at a frequency exceeding a predetermined threshold.

物体検出部16は、環境地図データの生成に用いられる3次元点群データから、動いていると判定した歩行者22に対応する3次元点群データを判別して、判別した3次元点群データおよび対応する歩行者22が動いているか否かを示す判定結果を、物体検出情報としてデータ除去部17に出力する。 The object detection unit 16 discriminates the three-dimensional point cloud data corresponding to the pedestrian 22 determined to be moving from the three-dimensional point cloud data used to generate the environment map data, and generates the determined three-dimensional point cloud data. And the determination result indicating whether or not the corresponding pedestrian 22 is moving is output to the data removal unit 17 as object detection information.

土木作業現場における盛り土を運搬する作業の管理に用いられる環境地図について説明する。図5は、盛り土41の環境地図を示す画面図である。図5の左側に示す環境地図15Aは、盛り土41とショベルカー42とに対応する3次元点群データから構成される3次元地図である。図5の右側に示す環境地図15Bは、環境地図15Aからショベルカー42に対応する3次元点群データを除外した3次元地図である。なお、ショベルカー42は、盛り土41の土を運搬機械に積み込む積み込み機械である。 An environmental map used for managing the work of transporting embankment at a civil engineering work site will be described. FIG. 5 is a screen diagram showing an environmental map of the embankment 41. As shown in FIG. An environment map 15A shown on the left side of FIG. The environment map 15B shown on the right side of FIG. 5 is a three-dimensional map obtained by excluding the three-dimensional point group data corresponding to the excavator 42 from the environment map 15A. In addition, the excavator 42 is a loading machine that loads the soil of the embankment 41 onto a transporting machine.

環境地図15Aにおいて、ショベルカー42は、盛り土41に存在して、盛り土41の状態を遮蔽している。このため、環境地図15Aを用いて、盛り土41の状態を管理するためには、ショベルカー42を環境地図15Aから除外する必要がある。この場合、環境地図生成装置1は、盛り土41を計測しているときにショベルカー42を可動物体として検出すると、ショベルカー42を除外した環境地図15Bを生成する。 In the environmental map 15A, the excavator 42 exists on the embankment 41 and shields the state of the embankment 41 . Therefore, in order to manage the state of the embankment 41 using the environmental map 15A, it is necessary to exclude the excavator 42 from the environmental map 15A. In this case, when the environment map generation device 1 detects the excavator 42 as a movable object while measuring the embankment 41, it generates the environment map 15B excluding the excavator 42. FIG.

例えば、環境地図生成装置1は、盛り土41を計測しているときにショベルカー42が動いていれば、環境地図15Bの生成に用いる3次元点群データから、ショベルカー42に対応する3次元点群データを自動的に除外し、残りの3次元点群データを用いて環境地図15Bを生成する。また、ショベルカー42が動いていなければ、環境地図生成装置1は、生成した環境地図15Bから、ショベルカー42に対応する3次元点群データを自動的に除外する。これにより、作業者は、環境地図15Bを参照することにより、盛り土41の状態を正確に認識することが可能である。 For example, if the excavator 42 is moving while the embankment 41 is being measured, the environment map generating device 1 can extract three-dimensional points corresponding to the excavator 42 from the three-dimensional point cloud data used to generate the environmental map 15B. The group data are automatically excluded and the environment map 15B is generated using the remaining three-dimensional point cloud data. Also, if the excavator 42 is not moving, the environment map generation device 1 automatically excludes the three-dimensional point cloud data corresponding to the excavator 42 from the generated environment map 15B. Accordingly, the worker can accurately recognize the state of the embankment 41 by referring to the environmental map 15B.

図6は、一部の土を運び出した盛り土41の環境地図を示す画面図である。図6の左側に示す環境地図15Cは、盛り土41とショベルカー42とに対応する3次元点群データから構成される3次元地図である。ショベルカー42は、盛り土41の上部に存在して、盛り土41から土の運び出しを行っている。このため、作業者は、環境地図15Cを参照しても、ショベルカー42が遮蔽して盛り土41からどれくらいの土量43が運び出されたかを認識できない。この場合、環境地図生成装置1は、ショベルカー42を可動物体として検出すると、ショベルカー42を除外した環境地図15Dを生成する。 FIG. 6 is a screen view showing an environmental map of the embankment 41 from which a part of the soil has been carried out. An environment map 15C shown on the left side of FIG. The excavator 42 is present above the embankment 41 and carries out soil from the embankment 41 . Therefore, even if the operator refers to the environmental map 15C, the excavator 42 is shielded and the worker cannot recognize how much soil 43 has been carried out from the embankment 41 . In this case, when the environment map generation device 1 detects the excavator 42 as a movable object, it generates an environment map 15D excluding the excavator 42 .

例えば、環境地図生成装置1は、土の運び出し作業のためにショベルカー42が動いていれば、環境地図15Dの生成に用いる3次元点群データから、ショベルカー42に対応する3次元点群データを自動的に除外し、残りの3次元点群データを用いて環境地図15Dを生成する。また、ショベルカー42が停止していても、環境地図生成装置1は、生成した環境地図15Dからショベルカー42を自動的に除外する。これにより、作業者は、環境地図15Dを参照することで、盛り土41から運び出された土量43を正確に認識することができる。 For example, if the excavator 42 is moving for the work of carrying out soil, the environment map generation device 1 generates three-dimensional point cloud data corresponding to the excavator 42 from the three-dimensional point cloud data used to generate the environment map 15D. are automatically excluded, and the environment map 15D is generated using the remaining three-dimensional point cloud data. Moreover, even if the excavator 42 is stopped, the environment map generation device 1 automatically excludes the excavator 42 from the generated environment map 15D. Accordingly, the worker can accurately recognize the amount of soil 43 carried out from the embankment 41 by referring to the environmental map 15D.

次に、実施の形態1に係る環境地図生成方法について説明する。
図7は、実施の形態1に係る環境地図生成方法を示すフローチャートである。
データ取得部11が、LiDAR2が対象領域を計測した3次元点群データと、カメラ3が対象領域を撮像した映像データとを取得する(ステップST1)。例えば、作業者が対象領域の周辺を移動し、このとき、作業者が携帯する端末に搭載されたLiDAR2が予め定められた計測周期で対象領域を計測し、カメラ3が予め定められたフレームレートで対象領域を撮像する。データ取得部11は、LiDAR2が計測する3次元点群データとカメラ3が撮像する映像データを順次取得する。
Next, an environment map generation method according to Embodiment 1 will be described.
FIG. 7 is a flow chart showing an environment map generation method according to the first embodiment.
The data acquisition unit 11 acquires three-dimensional point cloud data obtained by measuring the target area by the LiDAR 2 and video data obtained by imaging the target area by the camera 3 (step ST1). For example, the worker moves around the target area, and at this time, the LiDAR 2 mounted on the terminal carried by the worker measures the target area at a predetermined measurement cycle, and the camera 3 has a predetermined frame rate. to capture an image of the target area. The data acquisition unit 11 sequentially acquires three-dimensional point cloud data measured by the LiDAR 2 and video data captured by the camera 3 .

色情報付加部12が、3次元点群データを構成する3次元点と映像データを構成するフレーム画像における画素との対応関係を特定し、3次元点に色情報を付加した3次元点群データを生成する(ステップST2)。なお、環境地図生成装置1が色情報付加部12を備えていない場合は、ステップST2は実施されない。 The color information addition unit 12 specifies the correspondence relationship between the three-dimensional points forming the three-dimensional point cloud data and the pixels in the frame images forming the video data, and adds color information to the three-dimensional point cloud data. is generated (step ST2). Note that step ST2 is not performed if the environment map generation device 1 does not include the color information addition unit 12 .

特徴点抽出部13が、3次元点群データから、対象領域内に存在する物体の特徴点データを抽出する(ステップST3)。位置姿勢推定部14が、特徴点抽出部13が抽出した特徴点データを用いて、LiDAR2の位置および姿勢を推定する(ステップST4)。 The feature point extraction unit 13 extracts feature point data of an object existing within the target area from the three-dimensional point cloud data (step ST3). The position and orientation estimation unit 14 uses the feature point data extracted by the feature point extraction unit 13 to estimate the position and orientation of the LiDAR 2 (step ST4).

物体検出部16が、映像データに映る物体の中から可動物体を検出する(ステップST5)。ここで、可動物体が検出されなければ(ステップST5;NO)、環境地図生成部15は、3次元点群データおよびLiDAR2の位置および姿勢の推定結果に基づいて、対象領域の環境地図データを生成する(ステップST8)。 The object detection unit 16 detects a movable object among the objects appearing in the image data (step ST5). Here, if no movable object is detected (step ST5; NO), the environment map generation unit 15 generates environment map data of the target area based on the three-dimensional point cloud data and the estimation result of the position and orientation of the LiDAR2. (step ST8).

可動物体を検出した場合(ステップST5;YES)、物体検出部16は、当該可動物体が動いているか否かを判定する(ステップST6)。ここで、物体検出部16により可動物体が動いていると判定された場合(ステップST6;YES)、データ除去部17は、環境地図データの生成に用いられる3次元点群データの中から、動いていると判定された可動物体の3次元点群データを除去する(ステップST7)。また、物体検出部16が、映像データから除去対象物体を検出した場合には、データ除去部17は、環境地図データの生成に用いられる3次元点群データの中から除去対象物体に対応する3次元点群データを除去する。これにより、環境地図生成部15は、可動物体または除去対象物体に対応する3次元点群データが除去された、残りの3次元点群データを用いて、対象領域の環境地図データを生成する(ステップST8)。 When a movable object is detected (step ST5; YES), the object detection unit 16 determines whether or not the movable object is moving (step ST6). Here, if the object detection unit 16 determines that the movable object is moving (step ST6; YES), the data removal unit 17 selects the moving object from the three-dimensional point cloud data used to generate the environment map data. The three-dimensional point group data of the movable object determined to be on the screen are removed (step ST7). Further, when the object detection unit 16 detects an object to be removed from the image data, the data removal unit 17 extracts three-dimensional point cloud data corresponding to the object to be removed from the three-dimensional point cloud data used to generate the environment map data. Remove dimensional point cloud data. As a result, the environment map generating unit 15 uses the remaining 3D point cloud data from which the 3D point cloud data corresponding to the movable object or the object to be removed is removed to generate the environment map data of the target area ( step ST8).

一方、物体検出部16により可動物体が動いていないと判定された場合(ステップST6;NO)、環境地図生成部15は、可動物体に対応するデータを含む3次元点群データとLiDAR2の位置および姿勢の推定結果とに基づいて、対象領域の環境地図データを生成する(ステップST9)。データ除去部17は、環境地図生成部15が生成した環境地図データから可動物体に対応する3次元点群データを除去する(ステップST10)。 On the other hand, when the object detection unit 16 determines that the movable object is not moving (step ST6; NO), the environment map generation unit 15 generates three-dimensional point cloud data including data corresponding to the movable object, the position of the LiDAR 2 and Environment map data of the target area is generated based on the posture estimation result (step ST9). The data removal unit 17 removes the three-dimensional point cloud data corresponding to the movable object from the environment map data generated by the environment map generation unit 15 (step ST10).

次に、環境地図生成装置1の機能を実現するハードウェア構成について説明する。
環境地図生成装置1が備える、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17の機能は、処理回路により実現される。すなわち、環境地図生成装置1は、図7に示したステップST1からステップST10までの各処理を実行するための処理回路を備える。処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
Next, a hardware configuration that implements the functions of the environment map generation device 1 will be described.
The functions of the data acquisition unit 11, the color information addition unit 12, the feature point extraction unit 13, the position/orientation estimation unit 14, the environment map generation unit 15, the object detection unit 16, and the data removal unit 17 included in the environment map generation device 1 are as follows. It is implemented by a processing circuit. That is, the environment map generation device 1 includes a processing circuit for executing each process from step ST1 to step ST10 shown in FIG. The processing circuit may be dedicated hardware, or may be a CPU (Central Processing Unit) that executes a program stored in memory.

図8Aは、環境地図生成装置1の機能を実現するハードウェア構成を示すブロック図である。図8Bは、環境地図生成装置1の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図8Aおよび図8Bにおいて、入力インタフェース100は、LiDAR2およびカメラ3から環境地図生成装置1へ出力されるデータを中継するインタフェースである。出力インタフェース101は、環境地図生成装置1から後段の装置へ出力される環境地図データを中継するインタフェースである。 FIG. 8A is a block diagram showing a hardware configuration that implements the functions of the environment map generation device 1. As shown in FIG. FIG. 8B is a block diagram showing a hardware configuration for executing software realizing the functions of the environment map generating device 1. As shown in FIG. 8A and 8B, an input interface 100 is an interface that relays data output from the LiDAR 2 and the camera 3 to the environment map generation device 1. FIG. The output interface 101 is an interface that relays the environment map data output from the environment map generation device 1 to a subsequent device.

処理回路が、図8Aに示す専用のハードウェアの処理回路102である場合、処理回路102は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)またはこれらを組み合わせたものが該当する。
環境地図生成装置1が備える、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17の機能を、別々の処理回路が実現してもよく、これらの機能をまとめて一つの処理回路が実現してもよい。
If the processing circuit is the dedicated hardware processing circuit 102 shown in FIG. 8A, the processing circuit 102 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an Application Specific Integrated Integrated Circuit (ASIC), Circuit), FPGA (Field-Programmable Gate Array), or a combination thereof.
The functions of the data acquisition unit 11, the color information addition unit 12, the feature point extraction unit 13, the position/orientation estimation unit 14, the environment map generation unit 15, the object detection unit 16, and the data removal unit 17 included in the environment map generation device 1 are Separate processing circuits may be implemented, or these functions may be combined into one processing circuit.

処理回路が図8Bに示すプロセッサ103である場合、環境地図生成装置1が備える、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17の機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせにより実現される。なお、ソフトウェアまたはファームウェアは、プログラムとして記述されてメモリ104に記憶される。 When the processing circuit is the processor 103 shown in FIG. 8B, the data acquisition unit 11, the color information addition unit 12, the feature point extraction unit 13, the position/orientation estimation unit 14, the environment map generation unit 15, which are provided in the environment map generation device 1, The functions of the object detection unit 16 and the data removal unit 17 are realized by software, firmware, or a combination of software and firmware. Note that software or firmware is written as a program and stored in the memory 104 .

プロセッサ103は、メモリ104に記憶されたプログラムを読み出して実行することにより、環境地図生成装置1が備える、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17の機能を実現する。例えば、環境地図生成装置1は、プロセッサ103により実行されるときに、図7に示したステップST1からステップST10の処理が結果的に実行されるプログラムを記憶するためのメモリ104を備える。これらのプログラムは、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17が行う処理の手順または方法を、コンピュータに実行させる。メモリ104は、コンピュータを、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17として機能させるためのプログラムが記憶されたコンピュータ可読記憶媒体であってもよい。 The processor 103 reads and executes a program stored in the memory 104 to obtain the data acquisition unit 11, the color information addition unit 12, the feature point extraction unit 13, the position and orientation estimation unit 14, and the The functions of the environment map generation unit 15, the object detection unit 16, and the data removal unit 17 are realized. For example, the environment map generation device 1 includes a memory 104 for storing a program that, when executed by the processor 103, results in the processing of steps ST1 to ST10 shown in FIG. These programs are procedures or methods of processing performed by the data acquisition unit 11, the color information addition unit 12, the feature point extraction unit 13, the position/orientation estimation unit 14, the environment map generation unit 15, the object detection unit 16, and the data removal unit 17. to run on the computer. The memory 104 causes the computer to function as the data acquisition unit 11, the color information addition unit 12, the feature point extraction unit 13, the position/orientation estimation unit 14, the environment map generation unit 15, the object detection unit 16, and the data removal unit 17. It may be a computer-readable storage medium storing a program.

メモリ104は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically-EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。 The memory 104 includes, for example, non-volatile or volatile semiconductor memory such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically-EPROM), magnetic Discs, flexible discs, optical discs, compact discs, mini discs, DVDs, and the like are applicable.

環境地図生成装置1が備える、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17の機能の一部が専用のハードウェアで実現され、残りの一部がソフトウェアまたはファームウェアで実現されてもよい。例えば、データ取得部11は、専用のハードウェアである処理回路102によってその機能が実現され、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17は、プロセッサ103がメモリ104に記憶されたプログラムを読み出して実行することによりその機能が実現される。このように、処理回路はハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせによって上記機能を実現することができる。 One of the functions of the data acquisition unit 11, the color information addition unit 12, the feature point extraction unit 13, the position/orientation estimation unit 14, the environment map generation unit 15, the object detection unit 16, and the data removal unit 17 included in the environment map generation device 1. A portion may be implemented in dedicated hardware, and the remaining portion may be implemented in software or firmware. For example, the data acquisition unit 11 has its functions realized by the processing circuit 102, which is dedicated hardware, and includes a color information addition unit 12, a feature point extraction unit 13, a position/orientation estimation unit 14, an environment map generation unit 15, an object detection unit, and a The functions of the unit 16 and the data removal unit 17 are realized by the processor 103 reading out and executing a program stored in the memory 104 . As such, the processing circuitry may implement the above functions in hardware, software, firmware, or a combination thereof.

なお、図2には、可動物体の存在を推論する学習済みモデルを、環境地図生成装置1とは別に設けられた学習装置が学習して得る場合を示したが、環境地図生成装置1は、これに限定されるものではない。例えば、環境地図生成装置1は、可動物体の存在を推論する学習済みモデルを学習する学習装置を備えてもよい。 FIG. 2 shows a case in which a learning device provided separately from the environment map generation device 1 learns and obtains a learned model for inferring the existence of a movable object, but the environment map generation device 1 It is not limited to this. For example, the environment map generation device 1 may comprise a learning device that learns a trained model that infers the existence of movable objects.

以上のように、実施の形態1に係る環境地図生成装置1は、3次元点群データおよび映像データを取得するデータ取得部11と、3次元点群データから、対象領域内に存在する物体の特徴点データを抽出する特徴点抽出部13と、LiDAR2の位置および姿勢を推定する位置姿勢推定部14と、3次元点群データと、LiDAR2の位置および姿勢の推定結果とに基づいて、対象領域の環境地図を生成する環境地図生成部15と、映像データに映る物体の中から、動くことが可能な可動物体を検出して、検出した可動物体が動いているか否かを判定する物体検出部16と、環境地図の生成に用いられる3次元点群データから、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データを除去するデータ除去部17を備える。
環境地図生成装置1は、映像データに映る物体の中から、動くことが可能な可動物体を検出し、検出した可動物体が動いているか否かを判定して、環境地図の生成に用いられる3次元点群データから、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データを除去する。これにより、環境地図の生成に用いられる3次元点群データが過剰に削減されることを防止できる。
As described above, the environment map generation apparatus 1 according to the first embodiment includes the data acquisition unit 11 that acquires the 3D point cloud data and the video data, and the 3D point cloud data to identify the objects existing in the target area. Based on a feature point extraction unit 13 that extracts feature point data, a position and orientation estimation unit 14 that estimates the position and orientation of the LiDAR 2, three-dimensional point cloud data, and the results of estimating the position and orientation of the LiDAR 2, the target region and an object detection unit that detects a movable object that can move from among the objects shown in the image data and determines whether the detected movable object is moving. 16 and the 3D points of the movable object determined to be moving without removing the 3D point cloud data of the movable object determined not to be moving from the 3D point cloud data used to generate the environment map. A data removing unit 17 for removing group data is provided.
The environment map generation device 1 detects movable objects that can move from among the objects shown in the image data, determines whether the detected movable objects are moving, and uses them to generate an environment map 3 . Three-dimensional point cloud data of a movable object determined not to move is not removed from dimensional point cloud data, and three-dimensional point cloud data of a movable object determined to move is removed. As a result, it is possible to prevent excessive reduction of the three-dimensional point cloud data used to generate the environment map.

実施の形態1に係る環境地図生成装置1において、データ除去部17は、動いていないと判定された可動物体を、生成された環境地図から除去する。これにより、環境地図生成装置1は、環境地図データを構成する3次元点群データの中から、動いていないと判定された可動物体に対応する3次元点群データを正確に除去することができる。 In the environment map generation device 1 according to Embodiment 1, the data removal unit 17 removes movable objects determined not to move from the generated environment map. As a result, the environment map generation device 1 can accurately remove the three-dimensional point cloud data corresponding to the movable object determined not to move from the three-dimensional point cloud data constituting the environment map data. .

実施の形態1に係る環境地図生成装置1において、3次元点群データを構成する3次元点と映像データを構成するフレーム画像における画素との対応関係を特定し、3次元点に色情報を付加した3次元点群データを生成する色情報付加部12を備える。これにより、環境地図生成装置1は、3次元点に色情報が付加された環境地図データを生成することができる。 In the environment map generation device 1 according to Embodiment 1, the correspondence relationship between the 3D points that make up the 3D point cloud data and the pixels in the frame images that make up the video data is specified, and color information is added to the 3D points. A color information addition unit 12 is provided for generating the three-dimensional point cloud data. As a result, the environment map generation device 1 can generate environment map data in which color information is added to three-dimensional points.

実施の形態1に係る環境地図生成装置1において、物体検出部16は、映像データが入力されると、映像データを構成するフレーム画像に可動物体が映っているか否かを推論する学習済みモデルを用いて可動物体を検出する物体推論部161と、映像データを構成するフレーム画像に映る可動物体の画像領域を特定し、特定した可動物体の画像領域に基づいて当該可動物体が動いているか否かを判定する物体領域特定部162を備える。これにより、環境地図生成装置1は、可動物体の検出精度を向上させることができる。 In the environment map generation device 1 according to Embodiment 1, when video data is input, the object detection unit 16 creates a learned model for inferring whether or not a movable object is shown in the frame images that make up the video data. and an object inference unit 161 that detects a movable object using an object inference unit 161 that identifies an image area of a movable object appearing in a frame image that constitutes video data, and determines whether or not the movable object is moving based on the identified image area of the movable object. An object region identification unit 162 is provided for determining As a result, the environment map generation device 1 can improve the detection accuracy of movable objects.

実施の形態1に係る環境地図生成装置1において、物体検出部16は、映像データに映る物体の中から、除去対象物体を検出する。データ除去部17は、環境地図データの生成に用いる3次元点群データから、除去対象物体の3次元点群データを除去する。対象領域の環境地図から除去対象物体が除外されるので、環境地図生成装置1は、環境地図の精度を高めることが可能である。 In the environment map generation device 1 according to Embodiment 1, the object detection unit 16 detects objects to be removed from objects appearing in video data. The data removal unit 17 removes the 3D point cloud data of the object to be removed from the 3D point cloud data used to generate the environment map data. Since the object to be removed is excluded from the environment map of the target area, the environment map generation device 1 can improve the accuracy of the environment map.

実施の形態1に係る環境地図生成方法は、データ取得部11が、3次元点群データと映像データとを取得するステップと、特徴点抽出部13が、3次元点群データから、特徴点データを抽出するステップと、位置姿勢推定部14が、LiDAR2の位置および姿勢を推定するステップと、環境地図生成部15が、3次元点群データとLiDAR2の位置および姿勢の推定結果に基づいて、対象領域の環境地図データを生成するステップと、物体検出部16が、映像データに映る物体の中から、動くことが可能な可動物体を検出して、検出した可動物体が動いているか否かを判定するステップと、データ除去部17が、環境地図データの生成に用いられる3次元点群データの中から、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データを除去するステップを備える。これにより、環境地図の生成に用いられる3次元点群データが過剰に削減されることを防止できる。 The environment map generation method according to the first embodiment includes steps in which the data acquisition unit 11 acquires three-dimensional point cloud data and image data, and a feature point extraction unit 13 extracts feature point data from the three-dimensional point cloud data. a step of estimating the position and orientation of the LiDAR 2 by the position and orientation estimation unit 14; and a step of the environment map generation unit 15 extracting the target a step of generating environment map data of the area; and an object detection unit 16 detecting a movable object that can move from among the objects appearing in the image data, and determining whether the detected movable object is moving. and the data removal unit 17 does not remove the 3D point cloud data of the movable object determined not to be moving from the 3D point cloud data used to generate the environment map data, and is moving. removing the 3D point cloud data of the movable object determined as As a result, it is possible to prevent excessive reduction of the three-dimensional point cloud data used to generate the environment map.

実施の形態1に係るプログラムは、コンピュータを環境地図生成装置1として機能させる。これにより、環境地図の生成に用いられる3次元点群データが過剰に削減されることを防止できる環境地図生成装置1を提供することができる。 A program according to Embodiment 1 causes a computer to function as the environment map generation device 1 . As a result, it is possible to provide the environmental map generating device 1 that can prevent excessive reduction of the three-dimensional point cloud data used for generating the environmental map.

なお、実施の形態の任意の構成要素の変形もしくは実施の形態の任意の構成要素の省略が可能である。 It should be noted that any component of the embodiment can be modified or any component of the embodiment can be omitted.

1 環境地図生成装置、2 LiDAR、3 カメラ、3A,3A1,3A2 フレーム画像、11 データ取得部、12 色情報付加部、13 特徴点抽出部、14 位置姿勢推定部、15 環境地図生成部、15A~15D 環境地図、16 物体検出部、17 データ除去部、21 建物、22 歩行者、31 画像領域、41 盛り土、42 ショベルカー、43 土量、100 入力インタフェース、101 出力インタフェース、102 処理回路、103 プロセッサ、104 メモリ、161 物体推論部、162 物体領域特定部。 1 environment map generation device 2 LiDAR 3 camera 3A, 3A1, 3A 2 frame image 11 data acquisition unit 12 color information addition unit 13 feature point extraction unit 14 position and orientation estimation unit 15 environment map generation unit 15A 15D environment map, 16 object detection unit, 17 data removal unit, 21 building, 22 pedestrian, 31 image area, 41 embankment, 42 excavator, 43 soil volume, 100 input interface, 101 output interface, 102 processing circuit, 103 Processor, 104 memory, 161 object inference unit, 162 object region identification unit.

本開示に係る環境地図生成装置は、作業現場の対象領域を示す環境地図データを生成する環境地図生成装置であって、センサが対象領域を計測した3次元点の集合である3次元点群データおよび撮像装置が対象領域を撮像した映像データを取得するデータ取得部と、3次元点群データから、対象領域内に存在する物体の特徴点データを抽出する特徴点抽出部と、3次元点群データを用いてセンサの位置および姿勢を推定する位置姿勢推定部と、特徴点データとセンサの位置および姿勢の推定結果とに基づいて、対象領域の環境地図データを生成する環境地図生成部と、映像データに映る物体の中から、センサによる作業領域の3次元計測および撮像装置による作業領域の撮像を遮蔽する除去対象物体を検出し、映像データに映る作業現場の作業に関わる物体の中から、動くことが可能な物体である可動物体を検出し、検出した可動物体が動いているか否かを判定する物体検出部と、環境地図データの生成に用いられる3次元点群データの中から、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データおよび除去対象物体の3次元点群データを除去するデータ除去部と、を備え、環境地図生成部は、除去対象物体を除く、動いていないと判定された可動物体を含む対象領域に存在する物体の3次元点群データを用いて、作業現場の対象領域を示す環境地図データを生成する。 An environment map generation device according to the present disclosure is an environment map generation device that generates environment map data indicating a target area of a work site, and is three-dimensional point cloud data that is a set of three-dimensional points measured by a sensor in the target area. and a data acquisition unit for acquiring video data obtained by imaging a target region by an imaging device, a feature point extraction unit for extracting feature point data of an object existing in the target region from the 3D point cloud data, and a 3D point cloud a position/orientation estimation unit that estimates the position and orientation of the sensor using data; an environment map generation unit that generates environment map data of the target area based on the feature point data and the result of estimating the position and orientation of the sensor; Objects to be removed that block the three-dimensional measurement of the work area by the sensor and the imaging of the work area by the imaging device are detected from the objects shown in the video data, and the objects related to the work at the work site shown in the video data An object detection unit that detects a movable object that is an object that can move and determines whether or not the detected movable object is moving; A data removal unit that does not remove the 3D point cloud data of the movable object determined not to be moving, and removes the 3D point cloud data of the movable object determined to be moving and the 3D point cloud data of the object to be removed and the environment map generation unit uses the 3D point cloud data of the objects present in the target area including the movable object determined not to move, excluding the object to be removed, to map the target area of the work site. Generate environmental map data to show

Claims (7)

センサが対象領域を計測して得られた3次元点の集合である3次元点群データと、撮像装置が前記対象領域を撮像した映像データとを取得するデータ取得部と、
前記3次元点群データから、前記対象領域内に存在する物体の特徴点データを抽出する特徴点抽出部と、
前記特徴点データを用いて前記センサの位置および姿勢を推定する位置姿勢推定部と、
前記3次元点群データと、前記センサの位置および姿勢の推定結果とに基づいて、前記対象領域の環境地図データを生成する環境地図生成部と、
前記映像データに映る物体の中から、動くことが可能な物体である可動物体を検出し、検出した前記可動物体が動いているか否かを判定する物体検出部と、
前記環境地図データの生成に用いられる前記3次元点群データの中から、動いていないと判定された前記可動物体の前記3次元点群データを除去せず、動いていると判定された前記可動物体の前記3次元点群データを除去するデータ除去部と、を備えた
ことを特徴とする環境地図生成装置。
a data acquisition unit that acquires three-dimensional point cloud data, which is a set of three-dimensional points obtained by measuring a target area with a sensor, and video data obtained by imaging the target area with an imaging device;
a feature point extraction unit that extracts feature point data of an object existing in the target area from the three-dimensional point cloud data;
a position and orientation estimation unit that estimates the position and orientation of the sensor using the feature point data;
an environment map generation unit that generates environment map data of the target area based on the three-dimensional point cloud data and estimation results of the position and orientation of the sensor;
an object detection unit that detects a movable object, which is an object that can move, from objects appearing in the image data and determines whether the detected movable object is moving;
The movable object determined to be moving is not removed from the three-dimensional point cloud data used to generate the environment map data, and the three-dimensional point cloud data of the movable object determined not to be moving is not removed. and a data removing unit that removes the three-dimensional point cloud data of the object.
前記データ除去部は、動いていないと判定された前記可動物体を、生成された前記環境地図データから除去する
ことを特徴とする請求項1に記載の環境地図生成装置。
2. The environment map generating apparatus according to claim 1, wherein the data removing unit removes the movable object determined not to move from the generated environment map data.
前記3次元点群データを構成する3次元点と前記映像データを構成するフレーム画像における画素との対応関係を特定し、3次元点に色情報を付加した前記3次元点群データを生成する色情報付加部を備えた
ことを特徴とする請求項1または請求項2に記載の環境地図生成装置。
A color for generating the 3D point cloud data by specifying a correspondence relationship between 3D points constituting the 3D point cloud data and pixels in a frame image constituting the video data, and adding color information to the 3D points. 3. The environment map generation device according to claim 1, further comprising an information addition unit.
前記物体検出部は、前記映像データが入力されると、前記映像データを構成するフレーム画像に前記可動物体が映っているか否かを推論する学習済みモデルを用いて、前記可動物体を検出する物体推論部と、前記映像データを構成するフレーム画像に映る前記可動物体の画像領域を特定し、特定した前記可動物体の画像領域に基づいて当該可動物体が動いているか否かを判定する物体領域特定部と、を備えた
ことを特徴とする請求項1から請求項3のいずれか1項に記載の環境地図生成装置。
When the image data is input, the object detection unit detects the movable object using a trained model for inferring whether or not the movable object is shown in the frame images forming the image data. an inference unit; specifying an image area of the movable object appearing in a frame image forming the video data, and determining whether or not the movable object is moving based on the specified image area of the movable object. 4. The environment map generation device according to any one of claims 1 to 3, further comprising a unit.
前記物体検出部は、前記映像データに映る物体の中から除去対象物体をさらに検出し、
前記データ除去部は、前記環境地図データの生成に用いられる前記3次元点群データの中から、前記除去対象物体の前記3次元点群データを除去する
ことを特徴とする請求項1から請求項4のいずれか1項に記載の環境地図生成装置。
The object detection unit further detects an object to be removed from objects appearing in the image data,
The data removal unit removes the three-dimensional point cloud data of the removal target object from the three-dimensional point cloud data used to generate the environment map data. 5. The environment map generation device according to any one of 4.
データ取得部、特徴点抽出部、位置姿勢推定部、物体検出部、環境地図生成部、およびデータ除去部を備えた環境地図生成装置の環境地図生成方法であって、
前記データ取得部が、センサが対象領域を計測した3次元点の集合である3次元点群データと、撮像装置が前記対象領域を撮像した映像データとを取得するステップと、
前記特徴点抽出部が、前記3次元点群データから、前記対象領域内に存在する物体の特徴点データを抽出するステップと、
前記位置姿勢推定部が、前記特徴点データを用いて前記センサの位置および姿勢を推定するステップと、
前記環境地図生成部が、前記3次元点群データと、前記センサの位置および姿勢の推定結果とに基づいて、前記対象領域の環境地図データを生成するステップと、
前記物体検出部が、前記映像データに映る物体の中から、動くことが可能な物体である可動物体を検出し、検出した前記可動物体が動いているか否かを判定するステップと、
前記データ除去部が、前記環境地図データの生成に用いられる前記3次元点群データの中から、動いていないと判定された前記可動物体の前記3次元点群データを除去せず、動いていると判定された前記可動物体の前記3次元点群データを除去するステップと、を備えた
ことを特徴とする環境地図生成方法。
An environment map generation method for an environment map generation device including a data acquisition unit, a feature point extraction unit, a position and orientation estimation unit, an object detection unit, an environment map generation unit, and a data removal unit,
a step in which the data acquisition unit acquires three-dimensional point cloud data, which is a set of three-dimensional points obtained by measuring a target area by a sensor, and video data obtained by capturing an image of the target area by an imaging device;
a step in which the feature point extraction unit extracts feature point data of an object existing in the target region from the three-dimensional point cloud data;
the position and orientation estimation unit estimating the position and orientation of the sensor using the feature point data;
a step in which the environment map generation unit generates environment map data of the target area based on the three-dimensional point cloud data and estimation results of the position and orientation of the sensor;
a step in which the object detection unit detects a movable object, which is an object that can move, from objects appearing in the video data, and determines whether or not the detected movable object is moving;
The data removal unit does not remove the three-dimensional point cloud data of the movable object determined not to be moving from the three-dimensional point cloud data used to generate the environment map data, and is moving. and removing the three-dimensional point cloud data of the movable object determined to be the environment map generation method.
コンピュータを、請求項1から請求項5のいずれか1項に記載の環境地図生成装置として機能させるためのプログラム。 A program for causing a computer to function as the environmental map generation device according to any one of claims 1 to 5.
JP2022006804A 2022-01-20 2022-01-20 ENVIRONMENTAL MAP GENERATING DEVICE, ENVIRONMENTAL MAP GENERATING METHOD AND PROGRAM Active JP7254222B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022006804A JP7254222B1 (en) 2022-01-20 2022-01-20 ENVIRONMENTAL MAP GENERATING DEVICE, ENVIRONMENTAL MAP GENERATING METHOD AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022006804A JP7254222B1 (en) 2022-01-20 2022-01-20 ENVIRONMENTAL MAP GENERATING DEVICE, ENVIRONMENTAL MAP GENERATING METHOD AND PROGRAM

Publications (2)

Publication Number Publication Date
JP7254222B1 JP7254222B1 (en) 2023-04-07
JP2023105835A true JP2023105835A (en) 2023-08-01

Family

ID=85795587

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022006804A Active JP7254222B1 (en) 2022-01-20 2022-01-20 ENVIRONMENTAL MAP GENERATING DEVICE, ENVIRONMENTAL MAP GENERATING METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7254222B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019045892A (en) * 2017-08-29 2019-03-22 ソニー株式会社 Information processing apparatus, information processing method, program and movable body
JP2020502653A (en) * 2016-12-19 2020-01-23 フォルヴェルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハーVorwerk & Compagnie Interholding Gesellshaft Mit Beschrankter Haftung Method of creating an environment map for a processing unit
WO2021048985A1 (en) * 2019-09-12 2021-03-18 株式会社ソニー・インタラクティブエンタテインメント Image processing device, image processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020502653A (en) * 2016-12-19 2020-01-23 フォルヴェルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハーVorwerk & Compagnie Interholding Gesellshaft Mit Beschrankter Haftung Method of creating an environment map for a processing unit
JP2019045892A (en) * 2017-08-29 2019-03-22 ソニー株式会社 Information processing apparatus, information processing method, program and movable body
WO2021048985A1 (en) * 2019-09-12 2021-03-18 株式会社ソニー・インタラクティブエンタテインメント Image processing device, image processing method, and program

Also Published As

Publication number Publication date
JP7254222B1 (en) 2023-04-07

Similar Documents

Publication Publication Date Title
JP6464337B2 (en) Traffic camera calibration update using scene analysis
US20200334843A1 (en) Information processing apparatus, control method for same, non-transitory computer-readable storage medium, and vehicle driving support system
CN109344687B (en) Vision-based obstacle detection method and device and mobile device
JP6632474B2 (en) Monitoring device, monitoring method and airport monitoring system
CN111753609B (en) Target identification method and device and camera
KR101787542B1 (en) Estimation system and method of slope stability using 3d model and soil classification
CN107169418A (en) A kind of obstacle detection method and device
JP6524529B2 (en) Building limit judging device
KR20140009737A (en) Hybrid map based localization method of robot
CN103959307A (en) Method of detecting and describing features from an intensity image
CN110262487B (en) Obstacle detection method, terminal and computer readable storage medium
CN110399807B (en) Method and device for detecting ground obstacle, readable storage medium and electronic equipment
WO2021134285A1 (en) Image tracking processing method and apparatus, and computer device and storage medium
Lion et al. Smart speed bump detection and estimation with kinect
CN112541938A (en) Pedestrian speed measuring method, system, medium and computing device
El Bouazzaoui et al. Enhancing rgb-d slam performances considering sensor specifications for indoor localization
JP2020118575A (en) Inter-vehicle distance measurement device, error model generation device, learning model generation device, and method and program thereof
JP7254222B1 (en) ENVIRONMENTAL MAP GENERATING DEVICE, ENVIRONMENTAL MAP GENERATING METHOD AND PROGRAM
KR20160125803A (en) Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest
CN116160458B (en) Multi-sensor fusion rapid positioning method, equipment and system for mobile robot
Karunasekera et al. Energy minimization approach for negative obstacle region detection
JP7133971B2 (en) 3D model generation device and 3D model generation method
Luo et al. Autonomous mobile robot navigation and localization based on floor plan map information and sensory fusion approach
CN114089364A (en) Integrated sensing system device and implementation method
Tupper et al. Pedestrian proximity detection using RGB-D data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221206

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230328

R150 Certificate of patent or registration of utility model

Ref document number: 7254222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150