JP2023105835A - Environment map generation device, environment map generation method and program - Google Patents
Environment map generation device, environment map generation method and program Download PDFInfo
- Publication number
- JP2023105835A JP2023105835A JP2022006804A JP2022006804A JP2023105835A JP 2023105835 A JP2023105835 A JP 2023105835A JP 2022006804 A JP2022006804 A JP 2022006804A JP 2022006804 A JP2022006804 A JP 2022006804A JP 2023105835 A JP2023105835 A JP 2023105835A
- Authority
- JP
- Japan
- Prior art keywords
- data
- environment map
- unit
- point cloud
- movable object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 61
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 239000000284 extract Substances 0.000 claims abstract description 12
- 230000007613 environmental effect Effects 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 17
- 230000009467 reduction Effects 0.000 abstract description 7
- 230000000875 corresponding effect Effects 0.000 description 33
- 238000005259 measurement Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 8
- 239000002689 soil Substances 0.000 description 8
- 230000008859 change Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 102000008115 Signaling Lymphocytic Activation Molecule Family Member 1 Human genes 0.000 description 1
- 108010074687 Signaling Lymphocytic Activation Molecule Family Member 1 Proteins 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Abstract
Description
本開示は、環境地図生成装置、環境地図生成方法およびプログラムに関する。 The present disclosure relates to an environment map generation device, an environment map generation method, and a program.
現実空間に対応する3次元の環境地図を生成するための従来の技術として、SLAM(Simultaneous Localization And Mapping)が知られている。SLAMは、自己位置の推定と3次元環境地図の生成とを同時に行う技術である。SLAMのうち、Visual SLAMは、映像を用いて、自己位置の推定と3次元環境地図の生成を行うものである。このVisual SLAMを、単にSLAMということもある。 SLAM (Simultaneous Localization And Mapping) is known as a conventional technique for generating a three-dimensional environment map corresponding to the real space. SLAM is a technique for estimating self-location and generating a three-dimensional environmental map at the same time. Among SLAMs, Visual SLAM uses images to estimate its own position and generate a three-dimensional environmental map. This Visual SLAM may be simply called SLAM.
Visual SLAMにおいては、カメラが周辺空間の映像を連続的に撮像し、3次元計測センサが周辺空間を連続的に計測して、周辺空間の映像と、周辺空間の3次元点の座標である3次元点群データが取得される。映像を構成する各フレーム画像における画素とこれに対応する3次元点とが対応付けられ、3次元点に対し、対応する画素の色情報が付加される。そして、色情報が付加された3次元点群データを用いて、自己位置(3次元計測センサ等の位置)の推定と、3次元の環境地図データの生成とが行われる。 In Visual SLAM, a camera continuously captures an image of the surrounding space, a three-dimensional measurement sensor continuously measures the surrounding space, and the image of the surrounding space and the coordinates of a three-dimensional point in the surrounding space are obtained. Dimensional point cloud data is acquired. A pixel in each frame image forming an image is associated with a corresponding three-dimensional point, and color information of the corresponding pixel is added to the three-dimensional point. Then, using the 3D point cloud data to which the color information is added, estimation of the self position (position of a 3D measurement sensor or the like) and generation of 3D environment map data are performed.
また、3次元計測センサには、例えば、3次元のLiDAR(Light Detection And Ranging)が用いられる。3次元のLiDARは、レーザ光を用いて対象点の3次元座標を計測するレーザセンサである。 In addition, for example, a three-dimensional LiDAR (Light Detection And Ranging) is used for the three-dimensional measurement sensor. A three-dimensional LiDAR is a laser sensor that measures the three-dimensional coordinates of a target point using laser light.
SLAMでは、周辺空間にあるランドマーク(陸標)を目印として、自己位置(LiDARの位置)の推定が行われる。LiDARによる周辺空間の3次元計測では、周辺空間内を移動している物体がランドマークとして誤認識される場合がある。この場合、ランドマークと誤認識された物体が移動することにより、本来、一定の位置にあるランドマークが移動したように認識され、自己位置を推定できずに喪失する可能性がある。また、自己位置を推定できたとしても、フレーム画像間の画素と3次元点との対応付けに誤差が生じて3次元環境地図の精度が低下する。 In SLAM, self-position (position of LiDAR) is estimated using landmarks (landmarks) in the surrounding space as marks. In three-dimensional measurement of the surrounding space by LiDAR, an object moving in the surrounding space may be erroneously recognized as a landmark. In this case, due to the movement of an object that is erroneously recognized as a landmark, the landmark that is originally at a fixed position is recognized as if it has moved, and there is a possibility that the self-position cannot be estimated and lost. Moreover, even if the self-position can be estimated, an error occurs in the correspondence between the pixels between the frame images and the 3D points, and the accuracy of the 3D environment map is reduced.
上記不具合に対し、例えば、特許文献1には、LiDARが計測した3次元距離画像であるポイントクラウドから、歩行者、車両等の動的な交通参加者の計測データを除去し、残ったポイントクラウドのデータを用いて、SLAMを実行する方法が記載されている。動的な交通参加者は、ランドマークと誤って認識される虞があるので、その計測データをポイントクラウドから除去することで、動的な交通参加者に起因した不具合の発生を低減できる。 In response to the above problems, for example, in Patent Document 1, measurement data of dynamic traffic participants such as pedestrians and vehicles are removed from the point cloud, which is a three-dimensional range image measured by LiDAR, and the remaining point cloud A method for executing SLAM is described using the data of . Since dynamic traffic participants may be erroneously recognized as landmarks, removing their measurement data from the point cloud can reduce the occurrence of problems caused by dynamic traffic participants.
特許文献1に記載される従来の技術は、予め定められた動的な交通参加者の3次元点群データを除去する。このため、動的な交通参加者といった可動物体であるが、計測中に動いておらず、ランドマークとされても環境地図の精度に影響を与えないものであっても、その3次元点群データが除去される。この場合、環境地図データの生成に用いられる3次元点群データが過剰に削減されるので、環境地図の精度が低下するという課題があった。 The conventional technique described in US Pat. No. 5,900,002 removes the predefined dynamic 3D point cloud data of traffic participants. For this reason, moving objects, such as dynamic traffic participants, but not moving during the measurement and not affecting the accuracy of the environment map when used as landmarks, can be used for 3D point clouds. Data is removed. In this case, since the three-dimensional point cloud data used for generating the environment map data is excessively reduced, there is a problem that the accuracy of the environment map is lowered.
本開示は、上記課題を解決するものであり、環境地図データの生成に用いられる3次元点群データが過剰に削減されることを防止できる、環境地図生成装置、環境地図生成方法およびプログラムを得ることを目的とする。 The present disclosure solves the above problems, and provides an environment map generation device, an environment map generation method, and a program that can prevent excessive reduction of 3D point cloud data used to generate environment map data. for the purpose.
本開示に係る環境地図生成装置は、センサが対象領域を計測した3次元点の集合である3次元点群データおよび撮像装置が対象領域を撮像した映像データを取得するデータ取得部と、3次元点群データから、対象領域内に存在する物体の特徴点データを抽出する特徴点抽出部と、3次元点群データを用いてセンサの位置および姿勢を推定する位置姿勢推定部と、特徴点データとセンサの位置および姿勢の推定結果とに基づいて、対象領域の環境地図データを生成する環境地図生成部と、映像データに映る物体の中から、動くことが可能な物体である可動物体を検出し、検出した可動物体が動いているか否かを判定する物体検出部と、環境地図データの生成に用いられる3次元点群データの中から、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データを除去するデータ除去部と、を備える。 An environment map generation device according to the present disclosure includes a data acquisition unit that acquires 3D point cloud data, which is a set of 3D points obtained by measuring a target area by a sensor, and video data obtained by capturing an image of the target area by an imaging device; A feature point extraction unit that extracts feature point data of an object existing in a target region from point cloud data, a position and orientation estimation unit that estimates the position and orientation of a sensor using 3D point cloud data, and feature point data and the position and posture estimation results of the sensor. an object detection unit that determines whether or not the detected movable object is moving; and 3D points of the movable object that are determined not to be moving from the 3D point cloud data used to generate the environment map data. a data removal unit that does not remove the group data but removes the three-dimensional point cloud data of the movable object determined to be in motion.
本開示によれば、映像データに映る物体の中から、動くことが可能な物体である可動物体を検出し、検出した可動物体が動いているか否かを判定して、環境地図データの生成に用いられる3次元点群データの中から、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データを除去する。
これにより、本開示に係る環境地図生成装置は、環境地図の生成に用いられる3次元点群データが過剰に削減されることを防止できる。
According to the present disclosure, a movable object, which is an object that can move, is detected from objects appearing in video data, and it is determined whether or not the detected movable object is moving to generate environment map data. The three-dimensional point cloud data of the movable object determined not to be moving is not removed from the three-dimensional point cloud data used, but the three-dimensional point cloud data of the movable object determined to be moving is removed.
As a result, the environment map generation device according to the present disclosure can prevent excessive reduction of the three-dimensional point cloud data used to generate the environment map.
実施の形態1.
図1は、実施の形態1に係る環境地図生成装置1の構成を示すブロック図である。図1において、環境地図生成装置1は、LiDAR2が対象領域を計測して得られた3次元点群データとカメラ3が対象領域を撮像した映像データを取得し、3次元点群データおよび映像データを用いて、対象領域について3次元の環境地図データを生成する。例えば、環境地図生成装置1は、計測作業者が携帯可能であり、LiDAR2およびカメラ3を備えた端末に搭載される。また、環境地図生成装置1は、LiDAR2およびカメラ3とは別に設けられ、LiDAR2およびカメラ3と有線または無線で通信可能な装置であってもよい。
Embodiment 1.
FIG. 1 is a block diagram showing the configuration of an environment map generating device 1 according to Embodiment 1. As shown in FIG. In FIG. 1, the environment map generation device 1 acquires 3D point cloud data obtained by measuring the target area by the LiDAR 2 and image data of the target area captured by the camera 3, and acquires the 3D point cloud data and the image data. is used to generate three-dimensional environmental map data for the region of interest. For example, the environment map generation device 1 is portable by the measurement operator and mounted on a terminal equipped with the LiDAR 2 and the camera 3 . The environment map generation device 1 may be provided separately from the LiDAR 2 and the camera 3 and may be a device capable of communicating with the LiDAR 2 and the camera 3 by wire or wirelessly.
LiDAR2は、予め定められた計測周期(例えば、100ミリ秒ごと)で対象領域に照射したレーザパルスの反射光を受光して距離を計測し、計測した距離で特定される3次元点の集合である、3次元点群データを検出するセンサである。LiDAR2は、移動体に搭載される。移動体は、例えば、対象領域の周辺を移動可能な車両、対象領域の上空を移動可能な飛行物体または作業者が携帯して移動可能な端末が挙げられる。移動体が移動しながら、LiDAR2が対象領域を計測する。LiDAR2は、対象領域内に存在する物体までの距離を3次元点の深度として計測し、3次元点の集合である3次元点群データを出力する。 LiDAR2 measures the distance by receiving the reflected light of the laser pulse irradiated to the target area at a predetermined measurement cycle (for example, every 100 milliseconds), and is a set of three-dimensional points specified by the measured distance. It is a sensor that detects three-dimensional point cloud data. LiDAR2 is mounted on a moving body. Examples of mobile objects include vehicles that can move around the target area, flying objects that can move over the target area, and terminals that can be carried and moved by workers. The LiDAR2 measures the target area while the moving object moves. The LiDAR 2 measures the distance to an object existing within the target area as the depth of a 3D point, and outputs 3D point cloud data, which is a set of 3D points.
カメラ3は、対象領域を撮像して、映像データを得る撮像装置である。カメラ3は、単眼カメラであってもよいが、ステレオカメラであってもよい。対象領域の映像データは、例えば、一定のフレームレート(例えば、20fps)で撮像された複数のフレーム画像から構成される。フレーム画像はRGB画像データであり、各画素は色情報を有する。 The camera 3 is an imaging device that captures an image of a target area and obtains video data. The camera 3 may be a monocular camera or a stereo camera. The video data of the target area is composed of, for example, a plurality of frame images captured at a constant frame rate (eg, 20 fps). A frame image is RGB image data, and each pixel has color information.
また、カメラ3の撮像視野は、LiDAR2の計測範囲と同等であることが望ましい。例えば、カメラ3は、上記移動体にLiDAR2とともに搭載され、LiDAR2が周囲360度の計測を行うセンサである場合、カメラ3も周囲360度の撮像が行えるものが使用される。また、カメラ3は、一台に限らず、複数のカメラ3を用いてLiDAR2の計測範囲と同等の撮像視野を実現してもよい。 Moreover, it is desirable that the imaging field of view of the camera 3 is equivalent to the measurement range of the LiDAR 2 . For example, the camera 3 is mounted on the moving object together with the LiDAR 2, and if the LiDAR 2 is a sensor that measures 360 degrees around, the camera 3 is also capable of imaging 360 degrees around. In addition, the number of cameras 3 is not limited to one, and a plurality of cameras 3 may be used to realize an imaging field of view equivalent to the measurement range of the LiDAR 2 .
また、LiDAR2とカメラ3の位置関係は、予め実施したキャリブレーションされて相関がとれている。例えば、移動体にLiDAR2およびカメラ3が搭載され、当該移動体が対象領域の周辺を移動しながら、LiDAR2による計測およびカメラ3による撮像が行われる場合、LiDAR2が計測する3次元点群データは、カメラ3が撮像する映像のフレームごとに同期がとれている。 Further, the positional relationship between the LiDAR 2 and the camera 3 has been calibrated in advance and correlated. For example, when the LiDAR 2 and the camera 3 are mounted on a moving object, and the moving object moves around the target area while performing measurement by the LiDAR 2 and imaging by the camera 3, the three-dimensional point cloud data measured by the LiDAR 2 is Synchronization is achieved for each frame of the video imaged by the camera 3 .
データ取得部11は、LiDAR2が対象領域を計測した3次元点の集合である3次元点群データと、カメラ3が対象領域を撮像した映像データとを取得する。例えば、データ取得部11は、LiDAR2およびカメラ3との間で、有線または無線の通信により接続されている。データ取得部11は、LiDAR2が予め定められた計測周期で対象領域を計測して得られた3次元点群データと、LiDAR2の計測に伴いカメラ3によって撮像された対象領域の映像データを取得し、取得したデータを色情報付加部12に出力する。
The
色情報付加部12は、3次元点群データを構成する3次元点と、映像データを構成するフレーム画像における画素との対応関係を特定して、3次元点に対応する画素の色情報を付加した3次元点群データを生成する。例えば、LiDAR2とカメラ3との位置関係はキャリブレーションされているので、3次元点群データは、映像データのフレームごとに同期がとれている。この位置関係に基づいて、色情報付加部12は、3次元点群データにおける3次元点の位置とこれに対応する画素の位置とを特定し、3次元点に対応する画素の色情報を付加する。
The color
なお、3次元点群データにおける3次元点の深度情報のみを用いて、環境地図データを生成する場合、3次元点に色情報を付与する必要はない。この場合、環境地図生成装置1は、色情報付加部12は備えていなくてもよい。すなわち、データ取得部11が取得した3次元点群データはそのまま特徴点抽出部13に出力され、3次元点群データから特徴点の抽出が行われる。
Note that if the environment map data is generated using only the depth information of the 3D points in the 3D point cloud data, it is not necessary to add color information to the 3D points. In this case, the environment map generation device 1 does not have to include the color
特徴点抽出部13は、対象領域内に存在する物体の特徴点データを、3次元点群データから抽出する。特徴点データは、対象領域内に存在する物体の表面、凹凸またはエッジといった視覚的に他の部分と区別でき、特徴があるとみなせる点(特徴点)に対応する3次元点データである。例えば、特徴点抽出部13は、映像データを構成するフレーム画像に映る物体の特徴点を抽出し、抽出した特徴点の画素に対応する3次元点データを、3次元点群データに含まれる複数の3次元点データから、特徴点データとして抽出する。
The feature
位置姿勢推定部14は、特徴点抽出部13が抽出した特徴点データを用いて、移動体に搭載または携帯されて移動するLiDAR2の位置および姿勢を推定する。例えば、位置姿勢推定部14は、特徴点データを用いて、対象領域におけるランドマークを認識する。ランドマークは、対象領域で位置が固定されて、地理上の目印となる地物である。
The position/
位置姿勢推定部14は、ランドマークの位置を、例えば、ランドマークの中心座標で表して、特徴点データから複数のランドマークの位置に対応する距離データを特定する。位置姿勢推定部14は、SLAM技術を用い、時刻t-1に得られたランドマークとの距離データおよび移動体の進行方向に基づいて、時刻tにおけるLiDAR2の位置および姿勢を推定する。LiDAR2の姿勢は、例えば、移動体の進行方向に対する方位角および仰角である。LiDAR2の位置および姿勢の推定結果を示すオドメトリ情報は、環境地図生成部15に出力される。
The position/
環境地図生成部15は、3次元点群データと、LiDAR2の位置および姿勢の推定結果を示すオドメトリ情報とに基づいて、対象領域の環境地図データを生成する。環境地図データは、3次元点群データにより構成された3次元地図を示すデータである。環境地図のそれぞれの3次元点には、色情報が付加されている。例えば、環境地図生成部15は、時刻t-1におけるLiDAR2の位置および姿勢に応じた環境地図データを生成し、時刻tにおけるLiDAR2の位置および姿勢に応じた環境地図データを生成する。
The environment
物体検出部16が、映像データに映る物体の中から可動物体を検出し、検出した可動物体が動いているか否かを判定する。可動物体は、動くことが可能な物体であり、例えば、対象領域内に存在する、歩行者、車両等である。また、車両には、建設機械も含まれる。例えば、物体検出部16は、映像データを構成するフレーム画像ごとにパターン認識等の画像解析を行うことにより、フレーム画像から可動物体を検出する。
なお、可動物体は、環境地図の利用分野ごとに決定してもよい。例えば、環境地図を土木作業の管理に利用する場合、可動物体としては、歩行者である作業員、移動可能な作業機械、運搬を行う車両等が挙げられる。
An
Note that the movable object may be determined for each application field of the environment map. For example, when an environmental map is used for management of civil engineering work, examples of movable objects include workers who are pedestrians, movable working machines, vehicles for transportation, and the like.
物体検出部16は、フレーム画像に映る可動物体の位置が経時的に変化していた場合、可動物体が動いていると判定する。例えば、物体検出部16は、予め定められた判定期間に連続した複数のフレーム画像間で継続して可動物体の位置が変化した場合、あるいは、フレーム画像間における可動物体の位置の変化が予め定められた閾値を超える頻度で発生した場合、可動物体が動いていると判定する。また、物体検出部16は、予め定められた判定期間に連続した複数のフレーム画像間での可動物体の位置の変化が断続して発生した場合、あるいは、フレーム画像間における可動物体の位置の変化が上記閾値以下の頻度で発生した場合に、可動物体が動いていないと判定する。
The
LiDAR2による対象領域の計測において、LiDAR2を搭載する移動体は、対象領域の周辺を移動している。可動物体が動いている場合、LiDAR2の位置および姿勢は時々刻々と変化し、LiDAR2に対する可動物体の位置も時々刻々と変化している。このため、物体検出部16は、動いている可動物体のみに対応する3次元点群データを正確に判別するのは困難である。
In the measurement of the target area by the LiDAR2, the moving object equipped with the LiDAR2 is moving around the target area. When the movable object is moving, the position and orientation of the LiDAR2 change every moment, and the position of the movable object relative to the LiDAR2 also changes every moment. Therefore, it is difficult for the
物体検出部16は、例えば、映像データを構成するフレーム画像から、可動物体を含む画像領域を特定し、特定した画像領域に対応する3次元点群データを、可動物体に対応する3次元点群データとして判別する。すなわち、可動物体が含まれる画像領域に対応する大まかな範囲に含まれる3次元点群データが、動いていると判定された可動物体に対応する3次元点群データであると判別される。物体検出部16は、判別した3次元点群データと、これに対応する可動物体が動いているか否かを示す判定結果とを、物体検出情報としてデータ除去部17に出力する。
The
データ除去部17は、環境地図生成部15が環境地図データの生成に用いる3次元点群データから、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データを除去する。環境地図生成部15は、物体検出部16が動いていると判定した可動物体に対応する3次元点群データが除去された、残りの3次元点群データと、LiDAR2の位置および姿勢の推定結果とを用いて、対象領域の環境地図データを生成する。すなわち、可動物体が検出されても、計測中に動いておらず、可動物体がランドマークとされても環境地図の精度に影響を与えない場合には、可動物体に対応する3次元点群データが、環境地図データの生成に用いられる3次元点群データから除去されない。これにより、環境地図生成装置1は、環境地図データの生成に用いられる3次元点群データが過剰に削減されることを防止できる。
The
また、データ除去部17は、物体検出部16により動いていないと判定された可動物体を、生成された環境地図データから除去する。動いていないと判定された可動物体に対応する3次元点群データは、環境地図データの生成に用いられる3次元点群データの中から除去されない。このため、環境地図データには、動いていないと判定された当該可動物体が含まれており、データ除去部17は、環境地図データを構成する3次元点群データの中から、動いていないと判定された可動物体に対応する3次元点群データを正確に除去することができる。
Further, the
さらに、物体検出部16は、映像データに映る物体の中から除去対象物体を検出する。除去対象物体とは、対象領域の3次元計測および対象領域の撮像を遮蔽する、対象領域に固定的に存在している障害物である。例えば、盛り土の環境地図データの生成において、盛り土と移動体との間に固定的に存在する樹木(街路樹等)あるいは一時的に設置された標識等は、当該環境地図のノイズである。
なお、除去対象物体は、環境地図の利用分野ごとに決定してもよい。例えば、環境地図を土木作業の管理に利用する場合、除去対象物体としては、管理対象の作業領域を遮蔽する可能性がある樹木等が挙げられる。
Further, the
Note that objects to be removed may be determined for each application field of the environment map. For example, when an environmental map is used to manage civil engineering work, objects to be removed include trees that may block the work area to be managed.
データ除去部17は、環境地図生成部15が環境地図データの生成に用いる3次元点群データの中から、除去対象物体の3次元点群データを除去する。これにより、対象領域の環境地図から樹木等の除去対象物体が除外されるので、環境地図の精度を高めることができる。なお、除去対象物体は対象領域に固定的に存在するので、物体検出部16は、除去対象物体に正確に対応する3次元点群データを判別することが可能である。
The
図2は、物体検出部16の構成を示すブロック図である。図2に示すように、物体検出部16は、例えば、物体推論部161および物体領域特定部162を備えて構成される。物体推論部161は、映像データが入力されると、映像データを構成するフレーム画像に可動物体が映っているか否かを推論する学習済みモデルを用いて、可動物体を検出する。学習済みモデルは、図1および図2に図示していない学習装置が生成し、学習済みモデルを定義するパラメータは、図1および図2に図示していない記憶装置に保存される。
FIG. 2 is a block diagram showing the configuration of the
例えば、学習装置は、カメラ3が対象領域を撮像した映像データを機械学習用データとして、映像データに可動物体が映っているか否かを推論する学習済みモデルを学習する。学習済みモデルは、ディープラーニングで学習されたニューラルネットワーク(NN)である。学習装置は、可動物体の検出精度が向上するようにNNの重みの更新を繰り返し実行してNNの重みが最適化されたNN(学習済みモデル)を生成する。 For example, the learning device learns a learned model for inferring whether or not a movable object is shown in the video data, using video data obtained by imaging the target area with the camera 3 as data for machine learning. A trained model is a neural network (NN) trained by deep learning. The learning device generates an NN (learned model) in which the NN weights are optimized by repeatedly updating the weights of the NN so as to improve the detection accuracy of the movable object.
学習装置は、映像データに可動物体が映っているか否かを推論する学習済みモデルを生成すると、当該学習済みモデルを定義する重み等のパラメータを記憶装置に保存する。物体推論部161は、記憶装置に保存されたパラメータにより定義される学習済みモデルを用いて可動物体の推論を行う。これにより、環境地図生成装置1は、可動物体の検出精度を向上させることができる。
When the learning device generates a learned model for inferring whether or not a movable object is shown in video data, the learning device stores parameters such as weights defining the learned model in a storage device. The
ディープラーニングとしては、例えば、YOLO、EfficientDet等が用いられる。また、当該学習済みモデルの学習として、学習装置が、過去に撮像された映像データを教師データとして用いる教師あり学習を実行してもよいし、教師データを用いない教師なし学習を実行してもよい。物体検出部16が、学習済みモデルを用いて可動物体を検出することにより、環境地図生成装置1は、可動物体の検出精度を向上させることができる。
As deep learning, for example, YOLO, EfficientDet, etc. are used. Further, as the learning of the trained model, the learning device may perform supervised learning using video data captured in the past as teacher data, or may perform unsupervised learning without using teacher data. good. The environment map generation device 1 can improve the detection accuracy of the movable object by the
物体領域特定部162は、映像データを構成するフレーム画像から可動物体の画像領域を特定し、特定した可動物体の画像領域に基づいて、可動物体が動いているか否かを判定する。例えば、物体領域特定部162は、物体推論部161が推論した可動物体が映っている画像領域を特定し、フレーム画像間での当該画像領域に含まれる可動物体の位置変化に基づいて、可動物体が動いているか否かを判定する。物体検出部16は、可動物体が映っている画像領域を示す情報と可動物体が動いているか否かの判定結果とを含む物体検出情報を、データ除去部17に出力する。
The object
また、物体推論部161は、映像データが入力されると、映像データを構成するフレーム画像に除去対象物体が映っているか否かを推論する学習済みモデルを用いて、除去対象物体を検出してもよい。例えば、学習装置が、除去対象物体の検出精度が向上するようにNNの重みの更新を繰り返し実行してNNの重みが最適化されたNN(学習済みモデル)を生成する。
In addition, when video data is input, the
なお、環境地図生成装置1とは別に学習装置を設ける場合を示したが、環境地図生成装置1が、当該学習装置を備えてもよい。また、環境地図生成装置1が、学習済みモデルを定義する重み等のパラメータを保存しておく記憶装置を備えてもよい。 Although the case where the learning device is provided separately from the environment map generation device 1 is shown, the environment map generation device 1 may be provided with the learning device. Moreover, the environment map generation device 1 may include a storage device that stores parameters such as weights that define the learned model.
図3は、物体検出部16がフレーム画像3Aから可動物体を検出する処理の概要を示す概要図である。図3において、フレーム画像3Aは、カメラ3が撮像した対象領域の映像データに含まれるフレーム画像の例である。フレーム画像3Aには、対象領域に固定的に存在する建物21が映っており、歩行者22が映っている。物体検出部16は、カメラ3が撮像する映像データをフレーム画像ごとに画像解析するか、映像データのフレーム画像を学習済みモデルに入力することにより、対象領域の周辺に存在する可動物体である歩行者22を検出する。
FIG. 3 is a schematic diagram showing an overview of the process by which the
物体検出部16は、歩行者22を検出すると、検出した歩行者22を含む画像領域31を特定し、特定した画像領域に対応する3次元点群データを、歩行者22に対応する3次元点群データとして判別する。物体検出部16は、判別した3次元点群データと、これに対応する歩行者22が動いているか否かを示す判定結果とを物体検出情報として、データ除去部17に出力する。
When the
図4は、可動物体が動いているか否かの判定処理の概要を示す概要図であり、可動物体として歩行者22が検出された場合を示している。図4において、フレーム画像3A1は時刻t-1(秒)における画像であり、フレーム画像3A2は、単位時間が「1」進んだ時刻t(秒)における画像である。フレーム画像3A2において、実線で示す歩行者22は、時刻tにおける歩行者22の位置であり、破線で示す歩行者22は、フレーム画像3A1における歩行者22の位置、すなわち時刻t-1における歩行者22の位置を表している。
FIG. 4 is a schematic diagram showing an overview of the process of determining whether or not a movable object is moving, and shows a case where the
図4において矢印で示すように、歩行者22の位置は、フレーム画像3A1とフレーム画像3A2との間で変化している。物体検出部16は、フレーム画像3A1とフレーム画像3A2との間で歩行者22の位置の変化を検出すると、歩行者22が動いていると判定する。また、物体検出部16は、予め定められた判定期間内にフレーム画像間での歩行者22の位置変化を連続して検出した場合に、歩行者22が動いていると判定してもよい。さらに、物体検出部16は、フレーム画像間での歩行者22の位置変化が断続して予め定められた閾値を超える頻度で発生した場合に、可動物体が動いていると判定してもよい。
As indicated by arrows in FIG. 4, the position of
物体検出部16は、環境地図データの生成に用いられる3次元点群データから、動いていると判定した歩行者22に対応する3次元点群データを判別して、判別した3次元点群データおよび対応する歩行者22が動いているか否かを示す判定結果を、物体検出情報としてデータ除去部17に出力する。
The
土木作業現場における盛り土を運搬する作業の管理に用いられる環境地図について説明する。図5は、盛り土41の環境地図を示す画面図である。図5の左側に示す環境地図15Aは、盛り土41とショベルカー42とに対応する3次元点群データから構成される3次元地図である。図5の右側に示す環境地図15Bは、環境地図15Aからショベルカー42に対応する3次元点群データを除外した3次元地図である。なお、ショベルカー42は、盛り土41の土を運搬機械に積み込む積み込み機械である。
An environmental map used for managing the work of transporting embankment at a civil engineering work site will be described. FIG. 5 is a screen diagram showing an environmental map of the
環境地図15Aにおいて、ショベルカー42は、盛り土41に存在して、盛り土41の状態を遮蔽している。このため、環境地図15Aを用いて、盛り土41の状態を管理するためには、ショベルカー42を環境地図15Aから除外する必要がある。この場合、環境地図生成装置1は、盛り土41を計測しているときにショベルカー42を可動物体として検出すると、ショベルカー42を除外した環境地図15Bを生成する。
In the
例えば、環境地図生成装置1は、盛り土41を計測しているときにショベルカー42が動いていれば、環境地図15Bの生成に用いる3次元点群データから、ショベルカー42に対応する3次元点群データを自動的に除外し、残りの3次元点群データを用いて環境地図15Bを生成する。また、ショベルカー42が動いていなければ、環境地図生成装置1は、生成した環境地図15Bから、ショベルカー42に対応する3次元点群データを自動的に除外する。これにより、作業者は、環境地図15Bを参照することにより、盛り土41の状態を正確に認識することが可能である。
For example, if the
図6は、一部の土を運び出した盛り土41の環境地図を示す画面図である。図6の左側に示す環境地図15Cは、盛り土41とショベルカー42とに対応する3次元点群データから構成される3次元地図である。ショベルカー42は、盛り土41の上部に存在して、盛り土41から土の運び出しを行っている。このため、作業者は、環境地図15Cを参照しても、ショベルカー42が遮蔽して盛り土41からどれくらいの土量43が運び出されたかを認識できない。この場合、環境地図生成装置1は、ショベルカー42を可動物体として検出すると、ショベルカー42を除外した環境地図15Dを生成する。
FIG. 6 is a screen view showing an environmental map of the
例えば、環境地図生成装置1は、土の運び出し作業のためにショベルカー42が動いていれば、環境地図15Dの生成に用いる3次元点群データから、ショベルカー42に対応する3次元点群データを自動的に除外し、残りの3次元点群データを用いて環境地図15Dを生成する。また、ショベルカー42が停止していても、環境地図生成装置1は、生成した環境地図15Dからショベルカー42を自動的に除外する。これにより、作業者は、環境地図15Dを参照することで、盛り土41から運び出された土量43を正確に認識することができる。
For example, if the
次に、実施の形態1に係る環境地図生成方法について説明する。
図7は、実施の形態1に係る環境地図生成方法を示すフローチャートである。
データ取得部11が、LiDAR2が対象領域を計測した3次元点群データと、カメラ3が対象領域を撮像した映像データとを取得する(ステップST1)。例えば、作業者が対象領域の周辺を移動し、このとき、作業者が携帯する端末に搭載されたLiDAR2が予め定められた計測周期で対象領域を計測し、カメラ3が予め定められたフレームレートで対象領域を撮像する。データ取得部11は、LiDAR2が計測する3次元点群データとカメラ3が撮像する映像データを順次取得する。
Next, an environment map generation method according to Embodiment 1 will be described.
FIG. 7 is a flow chart showing an environment map generation method according to the first embodiment.
The
色情報付加部12が、3次元点群データを構成する3次元点と映像データを構成するフレーム画像における画素との対応関係を特定し、3次元点に色情報を付加した3次元点群データを生成する(ステップST2)。なお、環境地図生成装置1が色情報付加部12を備えていない場合は、ステップST2は実施されない。
The color
特徴点抽出部13が、3次元点群データから、対象領域内に存在する物体の特徴点データを抽出する(ステップST3)。位置姿勢推定部14が、特徴点抽出部13が抽出した特徴点データを用いて、LiDAR2の位置および姿勢を推定する(ステップST4)。
The feature
物体検出部16が、映像データに映る物体の中から可動物体を検出する(ステップST5)。ここで、可動物体が検出されなければ(ステップST5;NO)、環境地図生成部15は、3次元点群データおよびLiDAR2の位置および姿勢の推定結果に基づいて、対象領域の環境地図データを生成する(ステップST8)。
The
可動物体を検出した場合(ステップST5;YES)、物体検出部16は、当該可動物体が動いているか否かを判定する(ステップST6)。ここで、物体検出部16により可動物体が動いていると判定された場合(ステップST6;YES)、データ除去部17は、環境地図データの生成に用いられる3次元点群データの中から、動いていると判定された可動物体の3次元点群データを除去する(ステップST7)。また、物体検出部16が、映像データから除去対象物体を検出した場合には、データ除去部17は、環境地図データの生成に用いられる3次元点群データの中から除去対象物体に対応する3次元点群データを除去する。これにより、環境地図生成部15は、可動物体または除去対象物体に対応する3次元点群データが除去された、残りの3次元点群データを用いて、対象領域の環境地図データを生成する(ステップST8)。
When a movable object is detected (step ST5; YES), the
一方、物体検出部16により可動物体が動いていないと判定された場合(ステップST6;NO)、環境地図生成部15は、可動物体に対応するデータを含む3次元点群データとLiDAR2の位置および姿勢の推定結果とに基づいて、対象領域の環境地図データを生成する(ステップST9)。データ除去部17は、環境地図生成部15が生成した環境地図データから可動物体に対応する3次元点群データを除去する(ステップST10)。
On the other hand, when the
次に、環境地図生成装置1の機能を実現するハードウェア構成について説明する。
環境地図生成装置1が備える、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17の機能は、処理回路により実現される。すなわち、環境地図生成装置1は、図7に示したステップST1からステップST10までの各処理を実行するための処理回路を備える。処理回路は、専用のハードウェアであってもよいが、メモリに記憶されたプログラムを実行するCPU(Central Processing Unit)であってもよい。
Next, a hardware configuration that implements the functions of the environment map generation device 1 will be described.
The functions of the
図8Aは、環境地図生成装置1の機能を実現するハードウェア構成を示すブロック図である。図8Bは、環境地図生成装置1の機能を実現するソフトウェアを実行するハードウェア構成を示すブロック図である。図8Aおよび図8Bにおいて、入力インタフェース100は、LiDAR2およびカメラ3から環境地図生成装置1へ出力されるデータを中継するインタフェースである。出力インタフェース101は、環境地図生成装置1から後段の装置へ出力される環境地図データを中継するインタフェースである。
FIG. 8A is a block diagram showing a hardware configuration that implements the functions of the environment map generation device 1. As shown in FIG. FIG. 8B is a block diagram showing a hardware configuration for executing software realizing the functions of the environment map generating device 1. As shown in FIG. 8A and 8B, an
処理回路が、図8Aに示す専用のハードウェアの処理回路102である場合、処理回路102は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)またはこれらを組み合わせたものが該当する。
環境地図生成装置1が備える、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17の機能を、別々の処理回路が実現してもよく、これらの機能をまとめて一つの処理回路が実現してもよい。
If the processing circuit is the dedicated
The functions of the
処理回路が図8Bに示すプロセッサ103である場合、環境地図生成装置1が備える、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17の機能は、ソフトウェア、ファームウェアまたはソフトウェアとファームウェアとの組み合わせにより実現される。なお、ソフトウェアまたはファームウェアは、プログラムとして記述されてメモリ104に記憶される。
When the processing circuit is the
プロセッサ103は、メモリ104に記憶されたプログラムを読み出して実行することにより、環境地図生成装置1が備える、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17の機能を実現する。例えば、環境地図生成装置1は、プロセッサ103により実行されるときに、図7に示したステップST1からステップST10の処理が結果的に実行されるプログラムを記憶するためのメモリ104を備える。これらのプログラムは、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17が行う処理の手順または方法を、コンピュータに実行させる。メモリ104は、コンピュータを、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17として機能させるためのプログラムが記憶されたコンピュータ可読記憶媒体であってもよい。
The
メモリ104は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically-EPROM)などの不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDなどが該当する。
The
環境地図生成装置1が備える、データ取得部11、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17の機能の一部が専用のハードウェアで実現され、残りの一部がソフトウェアまたはファームウェアで実現されてもよい。例えば、データ取得部11は、専用のハードウェアである処理回路102によってその機能が実現され、色情報付加部12、特徴点抽出部13、位置姿勢推定部14、環境地図生成部15、物体検出部16およびデータ除去部17は、プロセッサ103がメモリ104に記憶されたプログラムを読み出して実行することによりその機能が実現される。このように、処理回路はハードウェア、ソフトウェア、ファームウェアまたはこれらの組み合わせによって上記機能を実現することができる。
One of the functions of the
なお、図2には、可動物体の存在を推論する学習済みモデルを、環境地図生成装置1とは別に設けられた学習装置が学習して得る場合を示したが、環境地図生成装置1は、これに限定されるものではない。例えば、環境地図生成装置1は、可動物体の存在を推論する学習済みモデルを学習する学習装置を備えてもよい。 FIG. 2 shows a case in which a learning device provided separately from the environment map generation device 1 learns and obtains a learned model for inferring the existence of a movable object, but the environment map generation device 1 It is not limited to this. For example, the environment map generation device 1 may comprise a learning device that learns a trained model that infers the existence of movable objects.
以上のように、実施の形態1に係る環境地図生成装置1は、3次元点群データおよび映像データを取得するデータ取得部11と、3次元点群データから、対象領域内に存在する物体の特徴点データを抽出する特徴点抽出部13と、LiDAR2の位置および姿勢を推定する位置姿勢推定部14と、3次元点群データと、LiDAR2の位置および姿勢の推定結果とに基づいて、対象領域の環境地図を生成する環境地図生成部15と、映像データに映る物体の中から、動くことが可能な可動物体を検出して、検出した可動物体が動いているか否かを判定する物体検出部16と、環境地図の生成に用いられる3次元点群データから、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データを除去するデータ除去部17を備える。
環境地図生成装置1は、映像データに映る物体の中から、動くことが可能な可動物体を検出し、検出した可動物体が動いているか否かを判定して、環境地図の生成に用いられる3次元点群データから、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データを除去する。これにより、環境地図の生成に用いられる3次元点群データが過剰に削減されることを防止できる。
As described above, the environment map generation apparatus 1 according to the first embodiment includes the
The environment map generation device 1 detects movable objects that can move from among the objects shown in the image data, determines whether the detected movable objects are moving, and uses them to generate an environment map 3 . Three-dimensional point cloud data of a movable object determined not to move is not removed from dimensional point cloud data, and three-dimensional point cloud data of a movable object determined to move is removed. As a result, it is possible to prevent excessive reduction of the three-dimensional point cloud data used to generate the environment map.
実施の形態1に係る環境地図生成装置1において、データ除去部17は、動いていないと判定された可動物体を、生成された環境地図から除去する。これにより、環境地図生成装置1は、環境地図データを構成する3次元点群データの中から、動いていないと判定された可動物体に対応する3次元点群データを正確に除去することができる。
In the environment map generation device 1 according to Embodiment 1, the
実施の形態1に係る環境地図生成装置1において、3次元点群データを構成する3次元点と映像データを構成するフレーム画像における画素との対応関係を特定し、3次元点に色情報を付加した3次元点群データを生成する色情報付加部12を備える。これにより、環境地図生成装置1は、3次元点に色情報が付加された環境地図データを生成することができる。
In the environment map generation device 1 according to Embodiment 1, the correspondence relationship between the 3D points that make up the 3D point cloud data and the pixels in the frame images that make up the video data is specified, and color information is added to the 3D points. A color
実施の形態1に係る環境地図生成装置1において、物体検出部16は、映像データが入力されると、映像データを構成するフレーム画像に可動物体が映っているか否かを推論する学習済みモデルを用いて可動物体を検出する物体推論部161と、映像データを構成するフレーム画像に映る可動物体の画像領域を特定し、特定した可動物体の画像領域に基づいて当該可動物体が動いているか否かを判定する物体領域特定部162を備える。これにより、環境地図生成装置1は、可動物体の検出精度を向上させることができる。
In the environment map generation device 1 according to Embodiment 1, when video data is input, the
実施の形態1に係る環境地図生成装置1において、物体検出部16は、映像データに映る物体の中から、除去対象物体を検出する。データ除去部17は、環境地図データの生成に用いる3次元点群データから、除去対象物体の3次元点群データを除去する。対象領域の環境地図から除去対象物体が除外されるので、環境地図生成装置1は、環境地図の精度を高めることが可能である。
In the environment map generation device 1 according to Embodiment 1, the
実施の形態1に係る環境地図生成方法は、データ取得部11が、3次元点群データと映像データとを取得するステップと、特徴点抽出部13が、3次元点群データから、特徴点データを抽出するステップと、位置姿勢推定部14が、LiDAR2の位置および姿勢を推定するステップと、環境地図生成部15が、3次元点群データとLiDAR2の位置および姿勢の推定結果に基づいて、対象領域の環境地図データを生成するステップと、物体検出部16が、映像データに映る物体の中から、動くことが可能な可動物体を検出して、検出した可動物体が動いているか否かを判定するステップと、データ除去部17が、環境地図データの生成に用いられる3次元点群データの中から、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データを除去するステップを備える。これにより、環境地図の生成に用いられる3次元点群データが過剰に削減されることを防止できる。
The environment map generation method according to the first embodiment includes steps in which the
実施の形態1に係るプログラムは、コンピュータを環境地図生成装置1として機能させる。これにより、環境地図の生成に用いられる3次元点群データが過剰に削減されることを防止できる環境地図生成装置1を提供することができる。 A program according to Embodiment 1 causes a computer to function as the environment map generation device 1 . As a result, it is possible to provide the environmental map generating device 1 that can prevent excessive reduction of the three-dimensional point cloud data used for generating the environmental map.
なお、実施の形態の任意の構成要素の変形もしくは実施の形態の任意の構成要素の省略が可能である。 It should be noted that any component of the embodiment can be modified or any component of the embodiment can be omitted.
1 環境地図生成装置、2 LiDAR、3 カメラ、3A,3A1,3A2 フレーム画像、11 データ取得部、12 色情報付加部、13 特徴点抽出部、14 位置姿勢推定部、15 環境地図生成部、15A~15D 環境地図、16 物体検出部、17 データ除去部、21 建物、22 歩行者、31 画像領域、41 盛り土、42 ショベルカー、43 土量、100 入力インタフェース、101 出力インタフェース、102 処理回路、103 プロセッサ、104 メモリ、161 物体推論部、162 物体領域特定部。
1 environment map generation device 2 LiDAR 3 camera 3A, 3A1, 3A 2
本開示に係る環境地図生成装置は、作業現場の対象領域を示す環境地図データを生成する環境地図生成装置であって、センサが対象領域を計測した3次元点の集合である3次元点群データおよび撮像装置が対象領域を撮像した映像データを取得するデータ取得部と、3次元点群データから、対象領域内に存在する物体の特徴点データを抽出する特徴点抽出部と、3次元点群データを用いてセンサの位置および姿勢を推定する位置姿勢推定部と、特徴点データとセンサの位置および姿勢の推定結果とに基づいて、対象領域の環境地図データを生成する環境地図生成部と、映像データに映る物体の中から、センサによる作業領域の3次元計測および撮像装置による作業領域の撮像を遮蔽する除去対象物体を検出し、映像データに映る作業現場の作業に関わる物体の中から、動くことが可能な物体である可動物体を検出し、検出した可動物体が動いているか否かを判定する物体検出部と、環境地図データの生成に用いられる3次元点群データの中から、動いていないと判定された可動物体の3次元点群データを除去せず、動いていると判定された可動物体の3次元点群データおよび除去対象物体の3次元点群データを除去するデータ除去部と、を備え、環境地図生成部は、除去対象物体を除く、動いていないと判定された可動物体を含む対象領域に存在する物体の3次元点群データを用いて、作業現場の対象領域を示す環境地図データを生成する。 An environment map generation device according to the present disclosure is an environment map generation device that generates environment map data indicating a target area of a work site, and is three-dimensional point cloud data that is a set of three-dimensional points measured by a sensor in the target area. and a data acquisition unit for acquiring video data obtained by imaging a target region by an imaging device, a feature point extraction unit for extracting feature point data of an object existing in the target region from the 3D point cloud data, and a 3D point cloud a position/orientation estimation unit that estimates the position and orientation of the sensor using data; an environment map generation unit that generates environment map data of the target area based on the feature point data and the result of estimating the position and orientation of the sensor; Objects to be removed that block the three-dimensional measurement of the work area by the sensor and the imaging of the work area by the imaging device are detected from the objects shown in the video data, and the objects related to the work at the work site shown in the video data An object detection unit that detects a movable object that is an object that can move and determines whether or not the detected movable object is moving; A data removal unit that does not remove the 3D point cloud data of the movable object determined not to be moving, and removes the 3D point cloud data of the movable object determined to be moving and the 3D point cloud data of the object to be removed and the environment map generation unit uses the 3D point cloud data of the objects present in the target area including the movable object determined not to move, excluding the object to be removed, to map the target area of the work site. Generate environmental map data to show
Claims (7)
前記3次元点群データから、前記対象領域内に存在する物体の特徴点データを抽出する特徴点抽出部と、
前記特徴点データを用いて前記センサの位置および姿勢を推定する位置姿勢推定部と、
前記3次元点群データと、前記センサの位置および姿勢の推定結果とに基づいて、前記対象領域の環境地図データを生成する環境地図生成部と、
前記映像データに映る物体の中から、動くことが可能な物体である可動物体を検出し、検出した前記可動物体が動いているか否かを判定する物体検出部と、
前記環境地図データの生成に用いられる前記3次元点群データの中から、動いていないと判定された前記可動物体の前記3次元点群データを除去せず、動いていると判定された前記可動物体の前記3次元点群データを除去するデータ除去部と、を備えた
ことを特徴とする環境地図生成装置。 a data acquisition unit that acquires three-dimensional point cloud data, which is a set of three-dimensional points obtained by measuring a target area with a sensor, and video data obtained by imaging the target area with an imaging device;
a feature point extraction unit that extracts feature point data of an object existing in the target area from the three-dimensional point cloud data;
a position and orientation estimation unit that estimates the position and orientation of the sensor using the feature point data;
an environment map generation unit that generates environment map data of the target area based on the three-dimensional point cloud data and estimation results of the position and orientation of the sensor;
an object detection unit that detects a movable object, which is an object that can move, from objects appearing in the image data and determines whether the detected movable object is moving;
The movable object determined to be moving is not removed from the three-dimensional point cloud data used to generate the environment map data, and the three-dimensional point cloud data of the movable object determined not to be moving is not removed. and a data removing unit that removes the three-dimensional point cloud data of the object.
ことを特徴とする請求項1に記載の環境地図生成装置。 2. The environment map generating apparatus according to claim 1, wherein the data removing unit removes the movable object determined not to move from the generated environment map data.
ことを特徴とする請求項1または請求項2に記載の環境地図生成装置。 A color for generating the 3D point cloud data by specifying a correspondence relationship between 3D points constituting the 3D point cloud data and pixels in a frame image constituting the video data, and adding color information to the 3D points. 3. The environment map generation device according to claim 1, further comprising an information addition unit.
ことを特徴とする請求項1から請求項3のいずれか1項に記載の環境地図生成装置。 When the image data is input, the object detection unit detects the movable object using a trained model for inferring whether or not the movable object is shown in the frame images forming the image data. an inference unit; specifying an image area of the movable object appearing in a frame image forming the video data, and determining whether or not the movable object is moving based on the specified image area of the movable object. 4. The environment map generation device according to any one of claims 1 to 3, further comprising a unit.
前記データ除去部は、前記環境地図データの生成に用いられる前記3次元点群データの中から、前記除去対象物体の前記3次元点群データを除去する
ことを特徴とする請求項1から請求項4のいずれか1項に記載の環境地図生成装置。 The object detection unit further detects an object to be removed from objects appearing in the image data,
The data removal unit removes the three-dimensional point cloud data of the removal target object from the three-dimensional point cloud data used to generate the environment map data. 5. The environment map generation device according to any one of 4.
前記データ取得部が、センサが対象領域を計測した3次元点の集合である3次元点群データと、撮像装置が前記対象領域を撮像した映像データとを取得するステップと、
前記特徴点抽出部が、前記3次元点群データから、前記対象領域内に存在する物体の特徴点データを抽出するステップと、
前記位置姿勢推定部が、前記特徴点データを用いて前記センサの位置および姿勢を推定するステップと、
前記環境地図生成部が、前記3次元点群データと、前記センサの位置および姿勢の推定結果とに基づいて、前記対象領域の環境地図データを生成するステップと、
前記物体検出部が、前記映像データに映る物体の中から、動くことが可能な物体である可動物体を検出し、検出した前記可動物体が動いているか否かを判定するステップと、
前記データ除去部が、前記環境地図データの生成に用いられる前記3次元点群データの中から、動いていないと判定された前記可動物体の前記3次元点群データを除去せず、動いていると判定された前記可動物体の前記3次元点群データを除去するステップと、を備えた
ことを特徴とする環境地図生成方法。 An environment map generation method for an environment map generation device including a data acquisition unit, a feature point extraction unit, a position and orientation estimation unit, an object detection unit, an environment map generation unit, and a data removal unit,
a step in which the data acquisition unit acquires three-dimensional point cloud data, which is a set of three-dimensional points obtained by measuring a target area by a sensor, and video data obtained by capturing an image of the target area by an imaging device;
a step in which the feature point extraction unit extracts feature point data of an object existing in the target region from the three-dimensional point cloud data;
the position and orientation estimation unit estimating the position and orientation of the sensor using the feature point data;
a step in which the environment map generation unit generates environment map data of the target area based on the three-dimensional point cloud data and estimation results of the position and orientation of the sensor;
a step in which the object detection unit detects a movable object, which is an object that can move, from objects appearing in the video data, and determines whether or not the detected movable object is moving;
The data removal unit does not remove the three-dimensional point cloud data of the movable object determined not to be moving from the three-dimensional point cloud data used to generate the environment map data, and is moving. and removing the three-dimensional point cloud data of the movable object determined to be the environment map generation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022006804A JP7254222B1 (en) | 2022-01-20 | 2022-01-20 | ENVIRONMENTAL MAP GENERATING DEVICE, ENVIRONMENTAL MAP GENERATING METHOD AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022006804A JP7254222B1 (en) | 2022-01-20 | 2022-01-20 | ENVIRONMENTAL MAP GENERATING DEVICE, ENVIRONMENTAL MAP GENERATING METHOD AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7254222B1 JP7254222B1 (en) | 2023-04-07 |
JP2023105835A true JP2023105835A (en) | 2023-08-01 |
Family
ID=85795587
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022006804A Active JP7254222B1 (en) | 2022-01-20 | 2022-01-20 | ENVIRONMENTAL MAP GENERATING DEVICE, ENVIRONMENTAL MAP GENERATING METHOD AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7254222B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019045892A (en) * | 2017-08-29 | 2019-03-22 | ソニー株式会社 | Information processing apparatus, information processing method, program and movable body |
JP2020502653A (en) * | 2016-12-19 | 2020-01-23 | フォルヴェルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハーVorwerk & Compagnie Interholding Gesellshaft Mit Beschrankter Haftung | Method of creating an environment map for a processing unit |
WO2021048985A1 (en) * | 2019-09-12 | 2021-03-18 | 株式会社ソニー・インタラクティブエンタテインメント | Image processing device, image processing method, and program |
-
2022
- 2022-01-20 JP JP2022006804A patent/JP7254222B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020502653A (en) * | 2016-12-19 | 2020-01-23 | フォルヴェルク・ウント・ツェーオー、インターホールディング・ゲーエムベーハーVorwerk & Compagnie Interholding Gesellshaft Mit Beschrankter Haftung | Method of creating an environment map for a processing unit |
JP2019045892A (en) * | 2017-08-29 | 2019-03-22 | ソニー株式会社 | Information processing apparatus, information processing method, program and movable body |
WO2021048985A1 (en) * | 2019-09-12 | 2021-03-18 | 株式会社ソニー・インタラクティブエンタテインメント | Image processing device, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7254222B1 (en) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6464337B2 (en) | Traffic camera calibration update using scene analysis | |
US20200334843A1 (en) | Information processing apparatus, control method for same, non-transitory computer-readable storage medium, and vehicle driving support system | |
CN109344687B (en) | Vision-based obstacle detection method and device and mobile device | |
JP6632474B2 (en) | Monitoring device, monitoring method and airport monitoring system | |
CN111753609B (en) | Target identification method and device and camera | |
KR101787542B1 (en) | Estimation system and method of slope stability using 3d model and soil classification | |
CN107169418A (en) | A kind of obstacle detection method and device | |
JP6524529B2 (en) | Building limit judging device | |
KR20140009737A (en) | Hybrid map based localization method of robot | |
CN103959307A (en) | Method of detecting and describing features from an intensity image | |
CN110262487B (en) | Obstacle detection method, terminal and computer readable storage medium | |
CN110399807B (en) | Method and device for detecting ground obstacle, readable storage medium and electronic equipment | |
WO2021134285A1 (en) | Image tracking processing method and apparatus, and computer device and storage medium | |
Lion et al. | Smart speed bump detection and estimation with kinect | |
CN112541938A (en) | Pedestrian speed measuring method, system, medium and computing device | |
El Bouazzaoui et al. | Enhancing rgb-d slam performances considering sensor specifications for indoor localization | |
JP2020118575A (en) | Inter-vehicle distance measurement device, error model generation device, learning model generation device, and method and program thereof | |
JP7254222B1 (en) | ENVIRONMENTAL MAP GENERATING DEVICE, ENVIRONMENTAL MAP GENERATING METHOD AND PROGRAM | |
KR20160125803A (en) | Apparatus for defining an area in interest, apparatus for detecting object in an area in interest and method for defining an area in interest | |
CN116160458B (en) | Multi-sensor fusion rapid positioning method, equipment and system for mobile robot | |
Karunasekera et al. | Energy minimization approach for negative obstacle region detection | |
JP7133971B2 (en) | 3D model generation device and 3D model generation method | |
Luo et al. | Autonomous mobile robot navigation and localization based on floor plan map information and sensory fusion approach | |
CN114089364A (en) | Integrated sensing system device and implementation method | |
Tupper et al. | Pedestrian proximity detection using RGB-D data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230328 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7254222 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |