JP6851295B2 - Object detection system, object detection device, object detection program, and object detection method - Google Patents

Object detection system, object detection device, object detection program, and object detection method Download PDF

Info

Publication number
JP6851295B2
JP6851295B2 JP2017184066A JP2017184066A JP6851295B2 JP 6851295 B2 JP6851295 B2 JP 6851295B2 JP 2017184066 A JP2017184066 A JP 2017184066A JP 2017184066 A JP2017184066 A JP 2017184066A JP 6851295 B2 JP6851295 B2 JP 6851295B2
Authority
JP
Japan
Prior art keywords
data
region
pseudo
area
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017184066A
Other languages
Japanese (ja)
Other versions
JP2018124973A (en
Inventor
信一 住吉
信一 住吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Publication of JP2018124973A publication Critical patent/JP2018124973A/en
Application granted granted Critical
Publication of JP6851295B2 publication Critical patent/JP6851295B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、現実空間をセンシングして対象物体を検出する物体検出システム、物体検出装置、物体検出プログラム、及び物体検出方法に関する。 The present invention relates to an object detection system, an object detection device, an object detection program, and an object detection method that detect an object by sensing the real space.

従来より、現実空間をセンシングして3Dデータを得て、この3Dデータに基づいて対象物体を検出する3次元物体検出(認識)技術が知られている。この3次元物体検出技術は、AR(Augmented Reality:拡張現実)、VR(Virtual Reality:仮想現実)、MR(Mixed Reality: 複合現実)に応用される。 Conventionally, there has been known a three-dimensional object detection (recognition) technique that senses a real space to obtain 3D data and detects an object object based on the 3D data. This three-dimensional object detection technology is applied to AR (Augmented Reality), VR (Virtual Reality), and MR (Mixed Reality).

モデルベースの3次元物体検出では、あらかじめ検出すべき物体の3Dデータ(CADデータ)を参照用3Dデータとして用意しておき、デプスセンサ等の3Dデータ取得手段によるセンシングによって現実空間の3Dデータを取得し、取得した3Dデータと参照用3Dデータとのマッチングを行うことで物体の検出を行う。 In model-based 3D object detection, 3D data (CAD data) of an object to be detected is prepared in advance as reference 3D data, and 3D data in real space is acquired by sensing with a 3D data acquisition means such as a depth sensor. , The object is detected by matching the acquired 3D data with the reference 3D data.

本願発明に関連する技術を記載した文献として、以下の文献がある。 The following documents describe the techniques related to the present invention.

特表2013−513191号公報Special Table 2013-513191

相田優,柳井啓司,柴原一友,藤本浩司,「服飾画像マイニングのための衣類領域からの色情報抽出”,電子情報通信学会技術報告,vol. 111,no. 478,IE2011-173,pp.235-240,2012.Yu Aida, Keiji Yanai, Kazutomo Shibahara, Koji Fujimoto, "Extracting Color Information from Clothing Areas for Clothing Image Mining", IEICE Technical Report, vol. 111, no. 478, IE2011-173, pp. 235-240, 2012. Shuichi Akizuki, Manabu Hashimoto,“Position and Pose Recognition of Randomly Stacked Objects using Highly Observable 3D Vector Pairs”,Proc. the 40th Annual Conference of the IEEE Industrial Electronics Society,pp.5266-5271,Oct. 2014.Shuichi Akizuki, Manabu Hashimoto, “Position and Pose Recognition of Randomly Stacked Objects using Highly Observable 3D Vector Pairs”, Proc. The 40th Annual Conference of the IEEE Industrial Electronics Society, pp.5266-5271, Oct. 2014. 金崎 朝子,Emanuele Rodola,原田 達也,「グラフマッチング学習を用いたRGB-D画像からの物体検出」,第20回ロボティクスシンポジア,pp.432-437,2015.Asako Kanasaki, Emanuele Rodola, Tatsuya Harada, "Object Detection from RGB-D Images Using Graph Matching Learning", 20th Robotics Symposia, pp.432-437, 2015. Tao Wang,Haibin Ling,Congyan Lang,Jun Wu,“Branching Path Following for Graph Matching”,Computer Vision - ECCV 2016,pp.508-523.Tao Wang, Haibin Ling, Congyan Lang, Jun Wu, “Branching Path Following for Graph Matching”, Computer Vision --ECV 2016, pp.508-523. Fayao Liu,Chunhua Shen,Guosheng Lin,“Deep Convolutional Neural Fields for Depth Estimation from a Single Image”,ArXive-prints 1411, 6387.Fayao Liu, Chunhua Shen, Guosheng Lin, “Deep Convolutional Neural Fields for Depth Estimation from a Single Image”, ArXive-prints 1411, 6387. Shu Liu,Xiaojuan Qi,Jianping Shi,Hong Zhang,Jiaya Jia,“Multi-scale Patch Aggregation (MPA) for Simultaneous Detection and Segmentation”,CVPR,2016.Shu Liu, Xiaojuan Qi, Jianping Shi, Hong Zhang, Jiaya Jia, “Multi-scale Patch Aggregation (MPA) for Simultaneous Detection and Segmentation”, CVPR, 2016.

上記のように、モデルベースの3次元物体検出では、現実空間をセンシングして物体の3Dデータを取得する必要があるが、実際には物体の一部の3Dデータが得られないことがある。例えば、3Dデータを光学的に取得する場合において、3Dデータ取得手段と物体との間に遮蔽物が存在するときには、遮蔽部分について当該物体の3Dデータが欠落する。また、物体の一部が金属や光沢度の高い材質であったり、透明であったりする場合にも、当該部分について有効な3Dデータが得られないことがある。さらには、そもそも3Dデータ取得手段の設置位置の関係で、原理上、物体の3Dデータがある限定的な範囲でしか得られないこともある。 As described above, in model-based 3D object detection, it is necessary to sense the real space to acquire 3D data of the object, but in reality, 3D data of a part of the object may not be obtained. For example, in the case of optically acquiring 3D data, when a shield exists between the 3D data acquisition means and the object, the 3D data of the object is missing for the shield portion. Further, even when a part of the object is made of metal, a material having high gloss, or is transparent, effective 3D data may not be obtained for the part. Furthermore, in principle, 3D data of an object may be obtained only in a limited range due to the installation position of the 3D data acquisition means.

このように、現実空間の物体の3Dデータに欠落(点群不足)があると、参照用3Dデータとのマッチングが成立せず、あるいは、マッチングの精度が低下してしまうことがある。 As described above, if the 3D data of the object in the real space is missing (insufficient point cloud), the matching with the reference 3D data may not be established, or the matching accuracy may be lowered.

本発明は、モデルベースの3次元物体検出において、センシングによって得られた物体の3Dデータが不足している場合にも、参照用データとのマッチングによる物体検出の可能性を向上させることを目的とする。 An object of the present invention is to improve the possibility of object detection by matching with reference data even when the 3D data of the object obtained by sensing is insufficient in the model-based 3D object detection. To do.

本発明の一態様の物体検出システムは、対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段と、現実空間をセンシングして計測3Dデータを取得する3Dデータ取得手段と、前記計測3Dデータにおける検出対象領域を特定する領域特定手段と、前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与手段と、前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理手段と、を備えており、前記領域特定部は、前記計測3Dデータにおいて、距離が互いに近く隣接するセグメントを連結した連結領域について、前記連結領域に隣接する他の連結領域であって、かつ前記連結領域との境界において距離の差が所定の閾値以上あり、前記連結領域よりも近い距離にある前記他の連結領域がある場合に、前記連結領域を検出対象領域として特定し、前記他の領域を前記欠落領域として特定する
The object detection system of one aspect of the present invention includes a storage means for storing 3D data of an object object as reference 3D data, a 3D data acquisition means for sensing real space to acquire measurement 3D data, and the measurement 3D data. The area specifying means for specifying the detection target area in the above, the pseudo 3D data adding means for adding pseudo 3D data to the missing area where the measurement 3D data for the target object is insufficient, the measurement 3D data, and the pseudo 3D. A detection processing means for detecting the target object by matching the query 3D data based on the data with the reference 3D data is provided , and the area identification unit is included in the measurement 3D data. With respect to a connecting region in which segments that are close to each other and adjacent to each other are connected, there is a difference in distance between the other connecting regions adjacent to the connecting region and a predetermined threshold or more at the boundary with the connecting region, and the distance is larger than that of the connecting region. When there is the other connecting region at a short distance, the connecting region is specified as a detection target region, and the other region is specified as the missing region .

この構成により、対象物体の計測3Dデータに不足がある場合にも、そのような計測3Dデータに疑似3Dデータが付加された上で、参照用3Dデータとのマッチングが行われるので、オクルージョン等によって計測3Dデータが不足する場合におけるマッチングの精度を向上でき、よって、対象物体の検出の可能性を向上できる。 With this configuration, even if the measurement 3D data of the target object is insufficient, the pseudo 3D data is added to the measurement 3D data, and then the matching with the reference 3D data is performed. It is possible to improve the accuracy of matching when the measurement 3D data is insufficient, and thus improve the possibility of detecting the target object.

上記の物体検出システムは、3Dデータをノードとするグラフを生成するグラフ生成手段をさらに備えていてよく、前記3Dデータ取得手段は、センシングによって前記現実空間の3D点群データを取得する3D点群データ取得手段と、前記3D点群データから前記計測3Dデータとして特徴点を抽出する特徴点抽出手段とを含んでいてよく、前記記憶手段は、前記参照用3Dデータとして、前記対象物体の特徴点のグラフを記憶してよく、前記疑似3Dデータ付与手段は、前記疑似3Dデータとして疑似特徴点を付与してよく、前記グラフ生成手段は、前記計測3Dデータ及び前記疑似3Dデータをノードとするクエリグラフを生成してよく、前記検出処理手段は、前記クエリグラフを前記クエリ3Dデータとして、前記参照用3Dデータとのグラフマッチングを行ってよい。 The object detection system may further include a graph generation means for generating a graph having 3D data as a node, and the 3D data acquisition means acquires 3D point group data in the real space by sensing. The data acquisition means and the feature point extraction means for extracting the feature points as the measurement 3D data from the 3D point group data may be included, and the storage means may include the feature points of the target object as the reference 3D data. The graph may be stored, the pseudo 3D data adding means may give a pseudo feature point as the pseudo 3D data, and the graph generating means may use the measured 3D data and the pseudo 3D data as a node for a query. A graph may be generated, and the detection processing means may use the query graph as the query 3D data and perform graph matching with the reference 3D data.

この構成により、特徴点のグラフを用いたグラフマッチングによって対象物体を検出できる。なお、センシングによって現実空間の3D点群データを取得する3D点群データ取得手段としては、例えば、デプスセンサ、ステレオカメラ画像を用いたステレオ測距、深層畳み込みニューラルネットワーク(Deep Convolutional Neural Network)を用いて単眼カメラ画像からデプス画像を推定する方法、LiDAR(Light Detection and Ranging)とカメラを組み合わせて密なデプスデータを取得する方法等を採用できる。 With this configuration, the target object can be detected by graph matching using a graph of feature points. As a 3D point cloud data acquisition means for acquiring 3D point cloud data in real space by sensing, for example, a depth sensor, stereo ranging using a stereo camera image, and a deep convolutional neural network are used. A method of estimating a depth image from a monocular camera image, a method of acquiring dense depth data by combining a LiDAR (Light Detection and Ranging) and a camera, and the like can be adopted.

上記の物体検出システムは、前記現実空間を撮影して画像を取得する画像取得手段と、前記画像から手前物体を検出する物体検出手段と、前記手前物体の検出結果に基づいて、前記欠落領域を推定する推定手段とをさらに備えていてよく、前記疑似3Dデータ付与手段は、前記推定手段にて推定された前記欠落領域に前記疑似3Dデータを付与してよい。 The object detection system captures the missing area based on an image acquisition means that captures the real space and acquires an image, an object detection means that detects a foreground object from the image, and a detection result of the foreground object. The estimation means for estimating may be further provided, and the pseudo 3D data addition means may add the pseudo 3D data to the missing area estimated by the estimation means.

この構成により、画像(RGBデータ)に対する物体検出によって検出可能な物体については画像から検出され、画像からは検出されない物体について、3Dデータを用いた物体検出で検出をすることができる。 With this configuration, an object that can be detected by object detection on an image (RGB data) can be detected from the image, and an object that cannot be detected from the image can be detected by object detection using 3D data.

上記の物体検出システムは、前記手前物体をグラフカット処理によって切り出して、切り出した部分のエッジを膨張させた輪郭を算出する輪郭算出手段をさらに備えていてよく、前記推定手段は、前記計測3Dデータから抽出した特徴点であって、前記輪郭に対応する特徴点を含む直方体を前記欠落領域として推定してよい。 The object detection system may further include a contour calculation means for cutting out the foreground object by a graph cut process and calculating a contour in which the edge of the cut out portion is expanded, and the estimation means is the measurement 3D data. A rectangular parallelepiped including the feature points corresponding to the contour, which is the feature points extracted from the above, may be estimated as the missing region.

上記の物体検出システムにおいて、前記疑似3Dデータ付与手段は、前記欠落領域に奥行き方向に並ぶ複数の仮想平面を設定し、前記仮想平面内において複数の同心楕円上に前記疑似3Dデータを付与してよい。 In the above object detection system, the pseudo 3D data adding means sets a plurality of virtual planes arranged in the depth direction in the missing area, and adds the pseudo 3D data on a plurality of concentric ellipses in the virtual plane. Good.

上記の物体検出システムは、前記現実空間を撮影して画像を取得する画像取得手段をさらに備えていてよく、前記3Dデータ取得手段は、センシングによって前記現実空間の3D点群データを取得する3D点群データ取得手段を備えていてよく、前記領域特定手段は、前記3D点群データと同期する前記画像を用いたセグメント分け情報に基づいて、前記検出対象領域を特定してよい。 The object detection system may further include an image acquisition means for capturing the real space and acquiring an image, and the 3D data acquisition means acquires 3D point group data in the real space by sensing. The group data acquisition means may be provided, and the area specifying means may specify the detection target area based on the segmentation information using the image synchronized with the 3D point group data.

この構成により、画像に基づいて検出対象領域を特定できる。 With this configuration, the detection target area can be specified based on the image.

上記の物体検出システムにおいて、前記領域特定手段は、前記3D点群データから、距離が所定の範囲にある領域を除外して前記検出対象領域を特定してよい。 In the above-mentioned object detection system, the area specifying means may specify the detection target area by excluding the area where the distance is within a predetermined range from the 3D point cloud data.

この構成により、無駄な領域を探索することなく、対象物体を検出することができ、検出に要する処理時間を削減できる。例えば、距離が所定の閾値以上である領域を除外してよい。 With this configuration, the target object can be detected without searching for a useless area, and the processing time required for detection can be reduced. For example, a region where the distance is equal to or greater than a predetermined threshold value may be excluded.

上記の物体検出システムは、前記3Dデータ取得手段は、センシングによって前記現実空間の3D点群データを取得する3D点群データ取得手段を備えていてよく、前記領域特定手段は、前記3D点群データに基づいて、対象物体を遮蔽する遮蔽領域を前記欠落領域として特定してよい。 In the object detection system, the 3D data acquisition means may include a 3D point cloud data acquisition means for acquiring 3D point cloud data in the real space by sensing, and the area identification means may include the 3D point cloud data. The shielded area that shields the target object may be specified as the missing area based on the above.

この構成により、遮蔽領域に対して疑似3Dデータを付与することができる。 With this configuration, pseudo 3D data can be added to the shielded area.

上記の物体検出システムにおいて、前記領域特定手段は、前記検出対象領域に隣接する領域であって、前記3D点群データの距離が前記検出対象領域の前記3D点群データの距離より短く、かつ、前記3D点群データの距離と前記検出対象領域の前記3D点群データとの距離との差が閾値以上である領域を前記遮蔽領域として、前記欠落領域を特定してよい。 In the above-mentioned object detection system, the area specifying means is a region adjacent to the detection target region, and the distance of the 3D point cloud data is shorter than the distance of the 3D point cloud data of the detection target region. The missing region may be specified by using a region where the difference between the distance of the 3D point cloud data and the distance of the detection target region from the 3D point cloud data is equal to or greater than a threshold value as the shielding region.

この構成により、好適に遮蔽領域を特定できる。 With this configuration, the shielding area can be preferably specified.

上記の物体検出システムにおいて、前記疑似3Dデータ付与手段は、前記検出対象領域内の起点を中心とする球面上に前記疑似3Dデータを付与してよい。 In the above-mentioned object detection system, the pseudo 3D data adding means may add the pseudo 3D data on a spherical surface centered on a starting point in the detection target region.

この構成により、起点を中心とする球面上に疑似3Dデータを付与できる。なお、起点は、検出対象領域から抽出された特徴点であってよい。検出対象領域内の遮蔽領域に近い点を起点とすることができる。また、起点を複数としてもよく、所定の距離を複数設定してもよい。疑似3Dデータ付与手段は、上記に代えて、記憶部に参照用3Dデータが記憶された複数の対象物体を重心で位置合わせして得られた平均分布を用いて疑似3Dデータを付与してよい。 With this configuration, pseudo 3D data can be added on a spherical surface centered on the starting point. The starting point may be a feature point extracted from the detection target area. The starting point can be a point close to the shielded area in the detection target area. Further, a plurality of starting points may be set, and a plurality of predetermined distances may be set. Instead of the above, the pseudo 3D data addition means may add pseudo 3D data using an average distribution obtained by aligning a plurality of target objects in which reference 3D data is stored in the storage unit with the center of gravity. ..

上記の物体検出システムにおいて、前記計測3Dデータよりも前記疑似3Dデータの重みが軽くなるように前記クエリ3Dデータに重みづけがされてよい。 In the object detection system, the query 3D data may be weighted so that the weight of the pseudo 3D data is lighter than that of the measurement 3D data.

この構成により、実際のセンシングで得られた計測3Dデータの情報をより重視してマッチングを行うことができる。より具体的には、起点から遠い(ないしは検出対象領域から遠い)疑似3Dデータほど重みが軽くなるように重みづけを行ってよい。 With this configuration, it is possible to perform matching with more emphasis on the information of the measurement 3D data obtained by the actual sensing. More specifically, weighting may be performed so that the weight becomes lighter as the pseudo 3D data is farther from the starting point (or farther from the detection target area).

本発明の一態様の物体検出装置は、対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段と、現実空間をセンシングして計測3Dデータを取得する3Dデータ取得手段と、前記計測3Dデータにおける検出対象領域を特定する領域特定手段と、前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与手段と、前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理手段と、を備えており、前記領域特定部は、前記計測3Dデータにおいて、距離が互いに近く隣接するセグメントを連結した連結領域について、前記連結領域に隣接する他の連結領域であって、かつ前記連結領域との境界において距離の差が所定の閾値以上あり、前記連結領域よりも近い距離にある前記他の連結領域がある場合に、前記連結領域を検出対象領域として特定し、前記他の領域を前記欠落領域として特定する
The object detection device of one aspect of the present invention includes a storage means for storing 3D data of an object object as reference 3D data, a 3D data acquisition means for sensing real space to acquire measurement 3D data, and the measurement 3D data. The area specifying means for specifying the detection target area in the above, the pseudo 3D data adding means for adding pseudo 3D data to the missing area where the measurement 3D data for the target object is insufficient, the measurement 3D data, and the pseudo 3D. A detection processing means for detecting the target object by matching the query 3D data based on the data with the reference 3D data is provided , and the area identification unit is included in the measurement 3D data. With respect to a connecting region in which segments that are close to each other and adjacent to each other are connected, there is a difference in distance between the other connecting regions adjacent to the connecting region and a predetermined threshold or more at the boundary with the connecting region, and the distance is larger than that of the connecting region. When there is the other connecting region at a short distance, the connecting region is specified as a detection target region, and the other region is specified as the missing region .

この構成によっても、対象物体の計測3Dデータに不足がある場合にも、そのような計測3Dデータに疑似3Dデータが付加された上で、参照用3Dデータとのマッチングが行われるので、オクルージョン等によって計測3Dデータが不足する場合におけるマッチングの精度を向上でき、よって、対象物体の検出の可能性を向上できる。 Even with this configuration, even if the measurement 3D data of the target object is insufficient, the pseudo 3D data is added to the measurement 3D data, and then matching with the reference 3D data is performed. Therefore, occlusion, etc. Therefore, the accuracy of matching can be improved when the measured 3D data is insufficient, and thus the possibility of detecting the target object can be improved.

本発明の一態様の物体検出プログラムは、対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段を備えた情報処理装置に、現実空間をセンシングして計測3Dデータを取得する3Dデータ取得ステップと、前記計測3Dデータにおける検出対象領域を特定する領域特定ステップと、前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与ステップと、前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理ステップと、を実行させる物体検出プログラムであって、前記領域特定ステップは、前記計測3Dデータにおいて、距離が互いに近く隣接するセグメントを連結した連結領域について、前記連結領域に隣接する他の連結領域であって、かつ前記連結領域との境界において距離の差が所定の閾値以上あり、前記連結領域よりも近い距離にある前記他の連結領域がある場合に、前記連結領域を検出対象領域として特定し、前記他の領域を前記欠落領域として特定する。
The object detection program of one aspect of the present invention is a 3D data acquisition step of sensing the real space and acquiring the measured 3D data in an information processing device provided with a storage means for storing the 3D data of the target object as reference 3D data. And the area identification step for specifying the detection target area in the measurement 3D data, the pseudo 3D data addition step for adding the pseudo 3D data to the missing area where the measurement 3D data for the target object is insufficient, and the measurement. and query 3D data based on the 3D data and the pseudo 3D data, by performing matching between the reference 3D data, a object detection program for executing the detection processing step of performing detection of the target object, wherein In the area identification step, in the measurement 3D data, the difference in distance at the boundary between the connection area and the connection area, which is another connection area adjacent to the connection area, with respect to the connection area in which the segments that are close to each other and are adjacent to each other are connected. Is equal to or greater than a predetermined threshold value, and when there is the other connecting region that is closer than the connecting region, the connecting region is specified as a detection target region, and the other region is specified as the missing region.

この構成によっても、対象物体の計測3Dデータに不足がある場合にも、そのような計測3Dデータに疑似3Dデータが付加された上で、参照用3Dデータとのマッチングが行われるので、オクルージョン等によって計測3Dデータが不足する場合におけるマッチングの精度を向上でき、よって、対象物体の検出の可能性を向上できる。 Even with this configuration, even if the measurement 3D data of the target object is insufficient, the pseudo 3D data is added to the measurement 3D data, and then matching with the reference 3D data is performed. Therefore, occlusion, etc. Therefore, the accuracy of matching can be improved when the measured 3D data is insufficient, and thus the possibility of detecting the target object can be improved.

本発明の一態様の物体検出方法は、対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段を備えた情報処理装置における物体検出方法であって、前記情報処理装置は、現実空間をセンシングして計測3Dデータを取得する3Dデータ取得ステップと、前記計測3Dデータにおける検出対象領域を特定する領域特定ステップと、前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与ステップと、前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理ステップと、を実行し、前記領域特定ステップは、前記計測3Dデータにおいて、距離が互いに近く隣接するセグメントを連結した連結領域について、前記連結領域に隣接する他の連結領域であって、かつ前記連結領域との境界において距離の差が所定の閾値以上あり、前記連結領域よりも近い距離にある前記他の連結領域がある場合に、前記連結領域を検出対象領域として特定し、前記他の領域を前記欠落領域として特定するThe object detection method of one aspect of the present invention is an object detection method in an information processing apparatus provided with a storage means for storing 3D data of an object object as reference 3D data, and the information processing apparatus senses a real space. Pseudo 3D data in the 3D data acquisition step of acquiring the measurement 3D data, the area identification step of specifying the detection target area in the measurement 3D data, and the missing area where the measurement 3D data of the target object is insufficient. A detection processing step for detecting the target object by matching the measurement 3D data and the query 3D data based on the pseudo 3D data with the reference 3D data. , Is executed, and in the measurement 3D data, the connection region in which segments adjacent to each other are close to each other in distance is connected to another connection region adjacent to the connection region and with the connection region. When the difference in distance is equal to or greater than a predetermined threshold value and there is the other connection region closer than the connection region, the connection region is specified as a detection target region, and the other region is the missing region. Specify as an area .

この構成によっても、対象物体の計測3Dデータに不足がある場合にも、そのような計測3Dデータに疑似3Dデータが付加された上で、参照用3Dデータとのマッチングが行われるので、オクルージョン等によって計測3Dデータが不足する場合におけるマッチングの精度を向上でき、よって、対象物体の検出の可能性を向上できる。 Even with this configuration, even if the measurement 3D data of the target object is insufficient, the pseudo 3D data is added to the measurement 3D data, and then matching with the reference 3D data is performed. Therefore, occlusion, etc. Therefore, the accuracy of matching can be improved when the measured 3D data is insufficient, and thus the possibility of detecting the target object can be improved.

本発明によれば、対象物体の計測3Dデータに不足がある場合にも、そのような計測3Dデータに疑似3Dデータが付加された上で、参照用3Dデータとのマッチングが行われるので、オクルージョン等によって計測3Dデータが不足する場合におけるマッチングの精度を向上でき、よって、対象物体の検出の可能性を向上できる。 According to the present invention, even if the measurement 3D data of the target object is insufficient, the pseudo 3D data is added to the measurement 3D data, and then the matching with the reference 3D data is performed. It is possible to improve the accuracy of matching when the measured 3D data is insufficient due to the above, and thus the possibility of detecting the target object can be improved.

本発明の第1の実施の形態の物体検出システムの利用態様を示す図The figure which shows the usage mode of the object detection system of 1st Embodiment of this invention. 本発明の第1の実施の形態の物体検出システムの構成を示すブロック図A block diagram showing a configuration of an object detection system according to the first embodiment of the present invention. 本発明の第1の実施の形態の物体が遮蔽領域において遮蔽されている状態の例を示す図The figure which shows the example of the state which the object of 1st Embodiment of this invention is shielded in a shielding region. 本発明の第1の実施の形態の3D点群データの取得の例を示す図The figure which shows the example of acquisition of the 3D point cloud data of 1st Embodiment of this invention. 本発明の第1の実施の形態の疑似特徴点の付与の例を示す図The figure which shows the example of giving the pseudo-feature point of the 1st Embodiment of this invention. 本発明の第1の実施の形態のグラフ生成部にて生成されたクエリ3Dグラフの例を示す図The figure which shows the example of the query 3D graph generated by the graph generation part of 1st Embodiment of this invention. 本発明の第1の実施の形態の複数の対象物体の平均分布の生成の例を示す図The figure which shows the example of the generation of the average distribution of a plurality of object objects of the 1st Embodiment of this invention. 本発明の第1の実施の形態のグラフマッチングの概念図Conceptual diagram of graph matching according to the first embodiment of the present invention 本発明の第1の実施の形態の物体検出システムの動作を示すフロー図A flow chart showing the operation of the object detection system according to the first embodiment of the present invention. 本発明の第2の実施の形態の物体検出システム100の構成を示すブロック図A block diagram showing the configuration of the object detection system 100 according to the second embodiment of the present invention. 本発明の第2の実施の形態のRGB−Dカメラによって得られた画像データの例An example of image data obtained by the RGB-D camera according to the second embodiment of the present invention. 本発明の第2の実施の形態の画像データと共に3D点群データを可視化した例An example of visualizing 3D point cloud data together with the image data of the second embodiment of the present invention. 本発明の第2の実施の形態の手前物体の検出の結果を示す図The figure which shows the result of the detection of the front object of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の手前物体検出部によって得られた検出枠に対してグラフカット処理を行って切り出された物体(person)の画像An image of an object (person) cut out by performing graph cut processing on the detection frame obtained by the front object detection unit of the second embodiment of the present invention. 本発明の第2の実施の形態の二値化によって得られた二値化画像Binarized image obtained by binarization of the second embodiment of the present invention 本発明の第2の実施の形態の二値化画像から生成された輪郭画像Contour image generated from the binarized image of the second embodiment of the present invention 本発明の第2の実施の形態の3DSIFTによって抽出された3Dキーポイントを示す図The figure which shows the 3D key point extracted by 3DSIFT of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の遮蔽空間として推定されるバウンディングボックスを示す図The figure which shows the bounding box estimated as the shielding space of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の推定された遮蔽空間OSの例を示す図The figure which shows the example of the estimated shield space OS of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の疑似3Dデータの付与を説明する図The figure explaining the addition of pseudo 3D data of the 2nd Embodiment of this invention. 本発明の第2の実施の形態の物体検出システムの動作を示すフロー図A flow chart showing the operation of the object detection system according to the second embodiment of the present invention.

以下、図面を参照して本発明の実施の形態を説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. It should be noted that the embodiments described below show an example of the case where the present invention is carried out, and the present invention is not limited to the specific configuration described below. In carrying out the present invention, a specific configuration according to the embodiment may be appropriately adopted.

(第1の実施の形態)
図1は、本発明の第1の実施の形態の物体検出システムの利用態様を示す図である。本実施の形態では、物体検出システムがヘッドマウントディスプレイ(HMD)に適用されている。HMD100は、ユーザUの頭部に装着されて、ユーザUの眼前でホログラム画像を表示する。ユーザUは、画像越しに現実空間も見ることができる。
(First Embodiment)
FIG. 1 is a diagram showing a usage mode of the object detection system according to the first embodiment of the present invention. In this embodiment, the object detection system is applied to a head mounted display (HMD). The HMD 100 is attached to the head of the user U and displays a hologram image in front of the user U. User U can also see the real space through the image.

HMD100は、現実空間を撮影して画像データを取得する画像取得部としてのカメラと、現実空間に対して測距を行って3D点群データを取得する測距部としてのデプスセンサとを備えている。HMD100は、画像データ及び3D点群データを用いて、現実空間にある物体を検出(認識ないし識別)し、検出した物体に関連付けてホログラム画像を生成し、生成したホログラム画像をユーザUの眼前で表示する。 The HMD 100 includes a camera as an image acquisition unit that captures an image of the real space and acquires image data, and a depth sensor as a distance measuring unit that measures the distance to the real space and acquires 3D point cloud data. .. The HMD 100 detects (recognizes or identifies) an object in the real space using image data and 3D point cloud data, generates a hologram image in association with the detected object, and displays the generated hologram image in front of the user U. indicate.

図1の例では、ユーザUの前のテーブルには、物体O1〜O5が存在している。HMD100を装着したユーザUは、物体O1〜O5を含む現実空間をHDM100越しに見ることができるとともに、検出した物体O1〜O5(の一部又は全部)に関連付けて表示された画像を見ることができる。このようなHMD100としては、例えばマイクロソフト社のHOLOLENS(登録商標)を用いることがでる。 In the example of FIG. 1, objects O1 to O5 are present in the table in front of the user U. The user U wearing the HMD100 can see the real space including the objects O1 to O5 through the HDM100, and can see the image displayed in association with (a part or all of) the detected objects O1 to O5. it can. As such an HMD100, for example, HoloLens (registered trademark) manufactured by Microsoft Corporation can be used.

図1に示すように、ユーザUが手Uhを伸ばすと、物体O1〜O5に対してこの手Uhが遮蔽物となって、HMD100のカメラやデプスセンサから見た手Uhの裏側は遮蔽領域Sとなる。図1の例では、手Uhによって物体O3の一部が遮蔽され、この被遮蔽部分については、HMD100のカメラやデプスセンサでは物体O3の画像データや3D点群データが得られない。本実施の形態のHMD100は、このような遮蔽(オクルージョン)によって物体の検出ができなくなり、あるいは検出精度が低下するという課題を解決する。 As shown in FIG. 1, when the user U extends the hand Uh, the hand Uh acts as a shield against the objects O1 to O5, and the back side of the hand Uh as seen from the camera or depth sensor of the HMD 100 is a shield region S. Become. In the example of FIG. 1, a part of the object O3 is shielded by the hand Uh, and the camera or depth sensor of the HMD 100 cannot obtain the image data or the 3D point group data of the object O3 for the shielded portion. The HMD 100 of the present embodiment solves the problem that an object cannot be detected or the detection accuracy is lowered due to such occlusion.

図2は、HDMとして構成される本実施の形態の物体検出システム100の構成を示すブロック図である。物体検出システム100は、上述のように、現実空間を撮影して画像データを取得する画像取得部1と、現実空間に対して測距を行って3D点群データを取得する測距部2とを備えている。画像取得部1と測距部2は、HMDにおいて隣接して設けられ、ほぼ同じ視野を有している。 FIG. 2 is a block diagram showing the configuration of the object detection system 100 of the present embodiment configured as HDM. As described above, the object detection system 100 includes an image acquisition unit 1 that photographs the real space and acquires image data, and a distance measuring unit 2 that measures the distance to the real space and acquires 3D point group data. It has. The image acquisition unit 1 and the distance measuring unit 2 are provided adjacent to each other in the HMD and have substantially the same field of view.

画像取得部1及び測距部2は、所定のフレームレート(例えば、1/30秒)で撮影及び測距を行い、取得した画像データ及び3D点群データを同期部3に出力する。この3D点群データの各点データは、平面座標値とデプス値(距離)とからなる。すなわち、物体検出システム100では、入力データとして、視野内の各座標について、画像取得部1にて画素値(RGB)が得られ、測距部2にてデプス値(D)が得られる。 The image acquisition unit 1 and the distance measurement unit 2 perform shooting and distance measurement at a predetermined frame rate (for example, 1/30 second), and output the acquired image data and 3D point cloud data to the synchronization unit 3. Each point data of this 3D point cloud data includes a plane coordinate value and a depth value (distance). That is, in the object detection system 100, as input data, a pixel value (RGB) is obtained by the image acquisition unit 1 and a depth value (D) is obtained by the distance measuring unit 2 for each coordinate in the field of view.

同期部3は、画像データと3D点群データとの同期をとって、同期のとれた(同一タイミングで取得された)画像データと3D点群データをセットにして入力データとして情報処理部4に出力する。情報処理部4は、領域特定部41と、特徴点抽出部42と、グラフ生成部43と、疑似3Dデータ付与部44と、検出処理部45とを備えている。 The synchronization unit 3 synchronizes the image data with the 3D point cloud data, sets the synchronized (acquired at the same timing) image data and the 3D point cloud data as a set, and sends the information processing unit 4 as input data. Output. The information processing unit 4 includes an area identification unit 41, a feature point extraction unit 42, a graph generation unit 43, a pseudo 3D data addition unit 44, and a detection processing unit 45.

領域特定部41は、画像データと3D点群データとに基づいて、物体検出をすべき領域(検出対象領域)を特定する。具体的には、領域特定部41は、画像データを用いたスーパーピクセル画像によるセグメント分け(小領域への分割)を行う(非特許文献1参照)。より具体的には、領域特定部41は、画像データの画素をノードとみなした最小全域木を構成していく過程で、適時、木の分断を行うことでセグメント分けを行う。 The area identification unit 41 identifies an area (detection target area) for which object detection should be performed based on the image data and the 3D point cloud data. Specifically, the area specifying unit 41 performs segmentation (division into small areas) by a superpixel image using image data (see Non-Patent Document 1). More specifically, the area specifying unit 41 divides the tree into segments by dividing the tree in a timely manner in the process of constructing the minimum spanning tree in which the pixels of the image data are regarded as nodes.

このとき、領域特定部41は、3D点群データに基づいて、距離が所定の閾値(例えば、ユーザUの手が届かない距離)以上である小領域を対象から除外する。これにより、無駄な領域を探索することなく、対象物体を探索することができ、処理時間を削減することができる。領域特定部41は、さらに、測距部2により得られた3D点群データが示すデプス値が互いに近い、互いに隣接するセグメントどうしを連結して、連結領域とする。一般に、1フレームから複数の連結領域が特定される。 At this time, the area specifying unit 41 excludes a small area whose distance is equal to or greater than a predetermined threshold value (for example, a distance beyond the reach of the user U) from the target based on the 3D point cloud data. As a result, the target object can be searched without searching for a useless area, and the processing time can be reduced. The region identification unit 41 further connects segments adjacent to each other whose depth values indicated by the 3D point cloud data obtained by the distance measuring unit 2 are close to each other to form a connected region. Generally, a plurality of connecting regions are specified from one frame.

この結果、このある物体が遮蔽されていない場合には、当該物体に対応する領域が1つの連結領域とされる。ある物体の一部が遮蔽されている場合は、その可視部分が1つの連結領域とされ、遮蔽部分は別の連結領域(遮蔽領域)とされる。そして、可視領域と遮蔽領域とは互いに接している。 As a result, when the certain object is not shielded, the area corresponding to the object is regarded as one connecting area. When a part of an object is shielded, the visible part is regarded as one connecting area, and the shielding part is regarded as another connecting area (shielding area). The visible region and the shielded region are in contact with each other.

特徴点抽出部42は、領域特定部41において検出対象領域として特定された領域について、3D点群データから特徴点を抽出する。具体的には、特徴点抽出部42は、遮蔽に頑健であるとされる、可観測性を用いたキーポイント抽出手法(非特許文献2参照)を用いて特徴点を抽出する。これにより、対象物体の3D点群データの中で有用な点を特徴点として扱うことができる。ただし、対象物体の大きな割合を覆い隠すような大きな遮蔽がある場合には、わずかな特徴点しか得られないことがある。 The feature point extraction unit 42 extracts feature points from the 3D point cloud data for the region specified as the detection target region in the region identification unit 41. Specifically, the feature point extraction unit 42 extracts feature points by using a key point extraction method using observability (see Non-Patent Document 2), which is said to be robust to shielding. As a result, useful points in the 3D point cloud data of the target object can be treated as feature points. However, if there is a large shield that covers a large proportion of the target object, only a few feature points may be obtained.

そこで、疑似3Dデータ付与部44は、遮蔽がある場合には、その遮蔽領域に疑似特徴点を散布配置し、検出処理部45では、この疑似特徴点も用いて物体検出を行う。領域特定部41における遮蔽領域Sの特定、及び疑似3Dデータ付与部44における疑似特徴点の付与について、以下詳細に説明する。 Therefore, if there is a shield, the pseudo 3D data addition unit 44 scatters and arranges the pseudo feature points in the shielded area, and the detection processing unit 45 also uses the pseudo feature points to perform object detection. The identification of the shielded area S in the area specifying unit 41 and the addition of the pseudo feature points in the pseudo 3D data adding unit 44 will be described in detail below.

図3Aは、物体O3が遮蔽領域Sにおいて遮蔽されている状態を示す図である。図3Aの例では、領域特定部41によって物体O3の可視部分が検出対象領域Kとして特定されている。図3Aに示すように、この例では、物体O3は遮蔽領域Sにおいて遮蔽されている。この場合には、図3Bに示すように、遮蔽領域Sにおいては本来得られるはずの物体O3の3D点群データ(図3Bの△:非可視3D点群データ)が得られず、物体O3については、遮蔽されていない検出対象領域Kからしか3D点群データ(図3Bの○:可視3D点群データ)が得られない。 FIG. 3A is a diagram showing a state in which the object O3 is shielded in the shielding region S. In the example of FIG. 3A, the visible portion of the object O3 is specified as the detection target region K by the region identification unit 41. As shown in FIG. 3A, in this example, the object O3 is shielded in the shielding region S. In this case, as shown in FIG. 3B, the 3D point cloud data of the object O3 (Δ: invisible 3D point cloud data in FIG. 3B) that should have been originally obtained cannot be obtained in the shielded region S, and the object O3 Can obtain 3D point cloud data (◯ in FIG. 3B: visible 3D point cloud data) only from the unshielded detection target area K.

そこで、まず、領域特定部41は、連結領域の中から遮蔽領域Sを特定する。領域特定部41は、ある連結領域A1について、当該連結領域A1に隣接する連結領域A2であって、かつ、連結領域A1との境界において距離(デプス値)の差が所定の閾値以上であり、連結領域A1よりも近い距離にある(小さいデプス値を有する)連結領域A2がある場合に、連結領域A1を検出対象領域Kとするとともに、連結領域A2を連結領域A1の物体に対する遮蔽領域Sとして特定する。 Therefore, first, the area specifying unit 41 specifies the shielding area S from the connecting area. The area specifying unit 41 is a connecting area A2 adjacent to the connecting area A1 with respect to a certain connecting area A1, and the difference in distance (depth value) at the boundary with the connecting area A1 is equal to or more than a predetermined threshold value. When there is a connection area A2 that is closer than the connection area A1 (has a small depth value), the connection area A1 is set as the detection target area K, and the connection area A2 is set as the shielding area S for the object in the connection area A1. Identify.

疑似3Dデータ付与部44は、領域特定部41から検出対象領域Kと遮蔽領域Sの特定結果を受けて、遮蔽領域Sと検出対象領域Kとの境界Bを特定し、境界Bに近い可視3D点群データの特徴点を起点特徴点として選択する。図3Cの例では、2つの起点特徴点が選択されている。疑似3Dデータ付与部44は、起点特徴点を中心とする半径の異なる複数の球面(スケール球)上に疑似特徴点を配置する。なお、このスケール球の半径は、対象物体の大きさに応じて可変に設定してよく、複数の対象物体がある場合には、複数のサイズのスケール球を設定してよい。 The pseudo 3D data addition unit 44 receives the identification result of the detection target area K and the shielding area S from the area identification unit 41, identifies the boundary B between the shielding area S and the detection target area K, and is a visible 3D close to the boundary B. The feature point of the point cloud data is selected as the starting feature point. In the example of FIG. 3C, two origin feature points are selected. The pseudo 3D data addition unit 44 arranges pseudo feature points on a plurality of spherical surfaces (scale spheres) having different radii centered on the origin feature point. The radius of the scale sphere may be set variably according to the size of the target object, and when there are a plurality of target objects, scale spheres of a plurality of sizes may be set.

可視領域である検出対象領域Kについては、物体O3の可視3D点群データが得られており、ここに疑似特徴点を配置すると不要な情報を増やすことになってしまうので、疑似3Dデータ付与部44が疑似特徴点を配置する領域は、同様のデプス値を持つ点群塊、あるいは、同スーパーピクセル内に存在するデプス塊において、手前側に遮蔽物体があると思われるデプス変化が顕著な境界領域の奥側とする。すなわち、遮蔽が原因であれば、手前側に何らかの別物体があるので、その奥側の領域であって、かつ、仮想的に配置する球面の手前側だけに、疑似特徴点を配置する。疑似3Dデータ付与部44は、遮蔽領域Sに疑似特徴点を配置し、物体O3についての可視3D点群データが得られている検出対象領域Kには疑似特徴点を配置しない。 For the detection target area K, which is the visible area, the visible 3D point cloud data of the object O3 is obtained, and if the pseudo feature points are arranged here, unnecessary information will be increased. Therefore, the pseudo 3D data addition unit The area where 44 places pseudo-feature points is a boundary where a point cloud having a similar depth value or a depth mass existing in the same superpixel has a remarkable depth change in which a shielding object is considered to be on the front side. The back side of the area. That is, if the cause is shielding, since there is some other object on the front side, the pseudo feature points are arranged only in the area on the back side of the object and on the front side of the sphere to be virtually arranged. The pseudo 3D data addition unit 44 arranges the pseudo feature points in the shielding area S, and does not arrange the pseudo feature points in the detection target area K where the visible 3D point cloud data for the object O3 is obtained.

図4は、グラフ生成部43において生成されたクエリ3Dグラフの例を示す図である。グラフ生成部43は、領域特定部41にて特定された領域において特徴点抽出部42において可視領域である検出対象領域から抽出された特徴点及びそれらの特徴点のいずれかを起点特徴点として疑似3Dデータ付与部44で配置された疑似特徴点をクエリ特徴点として、これらのクエリ特徴点をノードとする3Dグラフ(クエリ3Dグラフ)を生成する。なお、グラフ生成部43は、遮蔽がない場合には、検出対象領域から抽出された特徴点のみをクエリ特徴点として、クエリ3Dグラフを生成する。 FIG. 4 is a diagram showing an example of a query 3D graph generated by the graph generation unit 43. The graph generation unit 43 simulates using any of the feature points extracted from the detection target region, which is the visible region in the feature point extraction unit 42, in the region specified by the region identification unit 41, and any of those feature points as the starting feature point. A 3D graph (query 3D graph) is generated in which the pseudo feature points arranged by the 3D data addition unit 44 are set as query feature points and these query feature points are nodes. If there is no shielding, the graph generation unit 43 generates a query 3D graph using only the feature points extracted from the detection target area as query feature points.

グラフ生成部43は、クエリ3Dグラフの生成において、対象物体のスケールに応じてノード間の距離に制限を設ける。この制限は静的(固定)、あるいは動的に設定してよい。例えば、対象物体のなかでコップが最大である場合において、コップの幅、奥行き、高さのうち、最大長が15cmであるときは、その30%にあたる4.5cm以下のエッジを生成しないようにし、かつ、15cm以上のエッジを生成しないようにする。 The graph generation unit 43 sets a limit on the distance between the nodes according to the scale of the target object in the generation of the query 3D graph. This limit may be static (fixed) or dynamically set. For example, when the cup is the largest among the target objects, if the maximum length of the width, depth, and height of the cup is 15 cm, 30% of the width, 4.5 cm or less, should not be generated. And, do not generate an edge of 15 cm or more.

また、グラフ生成部43は、クエリ3Dグラフの生成において、各ノードに、信頼度(確率)に応じて重みづけをする。このとき、グラフ生成部43は、検出対象領域の特徴点には1.0、疑似特徴点にはそれ以下の重みを付与する。具体的には、グラフ生成部43は、疑似特徴点に対して、起点特徴点からの距離が遠いほど小さい重みを付与する。 Further, the graph generation unit 43 weights each node according to the reliability (probability) in the generation of the query 3D graph. At this time, the graph generation unit 43 assigns a weight of 1.0 to the feature points in the detection target region and a weight of 1.0 or less to the pseudo feature points. Specifically, the graph generation unit 43 gives a smaller weight to the pseudo feature point as the distance from the starting feature point increases.

グラフ生成部43は、これに代えて、起点特徴点を中心とするガウス分布に従って重みを付与してもよい。また、グラフ生成部43は、これに代えて、対象物体の平均分布を用いてもよい。すなわち、対象物体が複数ある場合に、図5に示すようにその平均場を計算し、複数の対象物体の平均分布を生成しておき、これを適用することで、平均分布に従って各疑似特徴点に重みを付与してよい。 Instead of this, the graph generation unit 43 may give weights according to a Gaussian distribution centered on the origin feature point. Further, the graph generation unit 43 may use the average distribution of the target object instead. That is, when there are a plurality of target objects, the average field is calculated as shown in FIG. 5, the average distribution of the plurality of target objects is generated, and by applying this, each pseudo feature point is according to the average distribution. May be weighted.

検出処理部45は、クエリ3Dグラフと画像データと3D点群データとを用いて、グラフ生成部43で生成されたクエリ3Dグラフと記憶部5に記憶された複数の対象物体の3Dグラフ(参照用3Dグラフ)とのグラフマッチングを行うことで、クエリ3Dグラフが記憶部5に記憶されたいずれの対象物体の参照用3Dグラフに対応するかを探索して対応する対象物体を検出する。 The detection processing unit 45 uses the query 3D graph, the image data, and the 3D point group data to generate the query 3D graph generated by the graph generation unit 43 and the 3D graph of a plurality of target objects stored in the storage unit 5 (see). By performing graph matching with the 3D graph for reference), it is searched for which target object stored in the storage unit 5 the query 3D graph corresponds to the reference 3D graph, and the corresponding target object is detected.

図6は、グラフマッチングの概念図である。図6に示すように、記憶部5には、あらかじめ完全な3DモデルであるCADデータから生成された対象物体の参照用3Dグラフがラベル(図6の例では、「パソコンモニタ」、「ノート」、「コップ」、「筆立て」等)とともに記憶されている。 FIG. 6 is a conceptual diagram of graph matching. As shown in FIG. 6, the storage unit 5 is labeled with a reference 3D graph of the target object generated in advance from CAD data which is a complete 3D model (in the example of FIG. 6, "computer monitor" and "notebook". , "Cup", "Brush stand", etc.).

検出処理部45は、具体的には、非特許文献3に記載のグラフマッチング技術を3Dグラフに拡張する形で応用することで、3Dグラフのグラフマッチングを行う。すなわち、非特許文献3に記載のグラフマッチング技術では、RGBD(画像データと3D点群データ)のD情報(デプス情報)を、空間内からの対象物体の粗いセグメンテーションにしか利用していないが、検出処理部45は、このデプス情報を積極的に利用する。また、非特許文献4には、2D画像向けの技術としてグラフマッチングのアルゴリズムが記載されているが、これを3Dに拡張して検出処理部45におけるグラフマッチングに適用してもよい。これらの非特許文献3及び4の技術を組み合わせることで安定的なグラフマッチングを実現できる。 Specifically, the detection processing unit 45 performs graph matching of a 3D graph by applying the graph matching technique described in Non-Patent Document 3 in a form of extending it to a 3D graph. That is, in the graph matching technique described in Non-Patent Document 3, the D information (depth information) of RGBD (image data and 3D point cloud data) is used only for coarse segmentation of the target object from the space. The detection processing unit 45 positively uses this depth information. Further, although a graph matching algorithm is described as a technique for 2D images in Non-Patent Document 4, it may be extended to 3D and applied to graph matching in the detection processing unit 45. Stable graph matching can be realized by combining the techniques of Non-Patent Documents 3 and 4.

検出処理部45は、マッチングスコア(尤度)が、所定の閾値以上であって、かつ最大である対象物体を検出し、そのラベルを出力する。検出処理部45は、このラベルとともに、検出した対象物体の位置及び姿勢の情報も出力する。検出された対象物体が複数ある場合には、検出された複数の対象物体の各々について、ラベル、位置、姿勢の情報を出力する。 The detection processing unit 45 detects a target object whose matching score (likelihood) is equal to or higher than a predetermined threshold value and has the maximum matching score, and outputs a label thereof. The detection processing unit 45 outputs information on the position and orientation of the detected target object together with this label. When there are a plurality of detected target objects, label, position, and posture information is output for each of the plurality of detected target objects.

検出結果画像生成部6は、検出処理部45が検出した対象物体のラベル、位置、姿勢の情報を用いて、表示部7に表示すべきホログラム画像を生成する。この画像は、上述のように、ユーザUが現実空間に重ねて見るべきホログラム画像であり、例えば、検出した対象物体についての関連情報(例えば、ラベルの情報)を示す画像である。表示部7は、検出結果画像生成部6で生成された検出結果画像を表示する。 The detection result image generation unit 6 generates a hologram image to be displayed on the display unit 7 by using the label, position, and orientation information of the target object detected by the detection processing unit 45. As described above, this image is a hologram image that the user U should superimpose and view in the real space, and is, for example, an image showing related information (for example, label information) about the detected target object. The display unit 7 displays the detection result image generated by the detection result image generation unit 6.

図7は、物体検出システム100の動作を示すフロー図である。図7に示すフローは、所定のフレームレートで繰り返される。まず、画像取得部1は現実空間を撮影することにより画像データを取得し、測距部2は現実空間を測距することで3D点群データを取得する(ステップS71)。 FIG. 7 is a flow chart showing the operation of the object detection system 100. The flow shown in FIG. 7 is repeated at a predetermined frame rate. First, the image acquisition unit 1 acquires image data by photographing the real space, and the distance measuring unit 2 acquires 3D point cloud data by measuring the distance in the real space (step S71).

領域特定部41は、画像データと3D点群データを用いて、検出対象領域を特定する(ステップS72)。具体的には、上述のように、領域特定部41は、画像データをスーパーピクセル(小領域)に分けて、距離が所定の閾値より遠い(デプス値が閾値より大きい)スーパーピクセルを除外した上で、隣り合うスーパーピクセルであってデプス値が近いものどうしを連結して連結領域とする。 The area specifying unit 41 identifies the detection target area using the image data and the 3D point cloud data (step S72). Specifically, as described above, the area identification unit 41 divides the image data into superpixels (small areas) and excludes superpixels whose distance is longer than a predetermined threshold value (depth value is larger than the threshold value). Then, adjacent superpixels with similar depth values are concatenated to form a concatenated area.

そして、領域特定部41は、隣接する2つの連結領域について、デプス値の差が所定の閾値以上である場合に、奥側(デプス値が大きい側)の連結領域を、一部遮蔽された対象物体の検出対象領域Kとして特定し、手前側(デプス値が小さい側)の連結領域を遮蔽領域Sとして特定する。 Then, when the difference between the depth values of the two adjacent connecting regions is equal to or greater than a predetermined threshold value, the region specifying unit 41 partially shields the connecting region on the back side (the side having the larger depth value). The detection target area K of the object is specified, and the connecting area on the front side (the side having a small depth value) is specified as the shielding area S.

特徴点抽出部42は、検出対象領域Kから特徴点を抽出する(ステップS73)。疑似3Dデータ付与部44は、遮蔽領域Sがあるか否かを判断する(ステップS74)。疑似3Dデータ付与部44は、領域特定部41にて特定された遮蔽領域Sがある場合には(ステップS74でYES)、検出対象領域Kにおける遮蔽領域Sに近い特徴点を起点特徴点とするスケール球の球面上に疑似特徴点を配置する(ステップS75)。なお、疑似特徴点は遮蔽領域Sに配置し、検出対象領域Kには配置しない。 The feature point extraction unit 42 extracts feature points from the detection target area K (step S73). The pseudo 3D data addition unit 44 determines whether or not there is a shielding region S (step S74). If there is a shielded area S specified by the area specifying unit 41 (YES in step S74), the pseudo 3D data adding unit 44 sets a feature point close to the shielded area S in the detection target area K as a starting feature point. Pseudo-feature points are placed on the spherical surface of the scale sphere (step S75). The pseudo feature points are arranged in the shielding area S and not in the detection target area K.

3Dグラフ生成部43は、遮蔽がない場合には(ステップS74でNO)、特徴点抽出部42にて抽出された特徴点をクエリ特徴点として、当該クエリ特徴点をノードとするクエリ3Dグラフを生成する(ステップS76)。3Dグラフ生成部43は、遮蔽がある場合には(ステップS74でYES)、ステップS75にて疑似3Dデータ付与部44により付与された疑似特徴点と、特徴点抽出部42で検出対象領域Kから抽出された特徴点とを合わせてクエリ特徴点として、このクエリ特徴点をノードとするクエリ3Dグラフを生成する(ステップS76)。 When there is no shielding (NO in step S74), the 3D graph generation unit 43 uses the feature points extracted by the feature point extraction unit 42 as the query feature points, and sets the query feature points as nodes in the query 3D graph. Generate (step S76). When the 3D graph generation unit 43 has a shield (YES in step S74), the pseudo feature points assigned by the pseudo 3D data addition unit 44 in step S75 and the detection target area K by the feature point extraction unit 42 A query 3D graph having the extracted feature points as a node is generated as a query feature points (step S76).

検出処理部45は、グラフ生成部43にて生成されたクエリ3Dグラフと、記憶部5に記憶された参照用3Dグラフとのグラフマッチングを行って、クエリ3Dグラフに対応する参照用3Dグラフを探索する(ステップS77)。検出処理部45は、マッチングスコア(尤度)が最大の参照用3Dグラフのラベルを特定し、その位置及び姿勢を記録する(ステップS78)。 The detection processing unit 45 performs graph matching between the query 3D graph generated by the graph generation unit 43 and the reference 3D graph stored in the storage unit 5, and obtains a reference 3D graph corresponding to the query 3D graph. Search (step S77). The detection processing unit 45 identifies the label of the reference 3D graph having the maximum matching score (likelihood), and records the position and orientation thereof (step S78).

検出結果画像生成部6は、ステップS78で記録されたラベルに関連するホログラム画像を生成し、その位置及び姿勢に従って、表示位置及び表示角度を決定して、検出結果画像を生成する(ステップS79)。表示部7は、ステップS79で生成された検出結果画像を表示する(ステップS80)。 The detection result image generation unit 6 generates a hologram image related to the label recorded in step S78, determines a display position and a display angle according to the position and orientation, and generates a detection result image (step S79). .. The display unit 7 displays the detection result image generated in step S79 (step S80).

以上説明したように、本実施の形態の物体検出システム100によれば、測距部2が現実空間を測距して得た3D点群データに基づいて、検出処理部45にて3Dグラフマッチングを行って、記憶部5に記憶されている対象物体のなかから対応する物体を検出するにあたって、測距によっても対象物体の一部領域の3D点群データが得られない場合には、疑似3Dデータ付与部44にて当該領域に疑似3D点群データ(特徴点)を付与する。そして、グラフ生成部43は、この疑似3D点群データを測距により得られた3D点群データと同等に扱って、測距により得られた3D点群データと疑似3D点群データとからなるクエリ3D点群データからクエリ3Dグラフを生成し、検出処理部45はこのようにして生成されたクエリ3Dグラフについて記憶部5に記憶された参照用3Dグラフとのマッチングを行う。 As described above, according to the object detection system 100 of the present embodiment, the detection processing unit 45 performs 3D graph matching based on the 3D point group data obtained by the distance measuring unit 2 measuring the distance in the real space. When the corresponding object is detected from the target objects stored in the storage unit 5, if 3D point group data of a part of the target object cannot be obtained even by distance measurement, pseudo 3D is performed. Pseudo 3D point group data (feature points) is added to the area by the data addition unit 44. Then, the graph generation unit 43 treats the pseudo 3D point group data in the same manner as the 3D point group data obtained by the distance measurement, and includes the 3D point group data obtained by the distance measurement and the pseudo 3D point group data. A query 3D graph is generated from the query 3D point group data, and the detection processing unit 45 matches the query 3D graph generated in this way with the reference 3D graph stored in the storage unit 5.

これにより、画像取得部1や測距部2において、遮蔽によって対象物体のすべての画像データや3D点群データが得られない場合であっても、グラフマッチングによる対象物体の検出が可能となる。 As a result, even when the image acquisition unit 1 or the distance measuring unit 2 cannot obtain all the image data or the 3D point cloud data of the target object due to shielding, the target object can be detected by graph matching.

なお、上記の実施の形態では、疑似3Dデータ付与部44は、遮蔽領域Sにおいて、起点特徴点を中心とするスケール球の表面に疑似特徴点を配置したが、疑似特徴点の配置方法はこれに限られない。疑似3Dデータ付与部44は、例えば、図5に示した平均分布を用いて、疑似特徴点を散布する量や散布するか否かを確率的に決定してもよい。 In the above embodiment, the pseudo 3D data addition unit 44 arranges the pseudo feature points on the surface of the scale sphere centered on the starting point feature point in the shielding region S, but the method of arranging the pseudo feature points is this. Not limited to. The pseudo 3D data addition unit 44 may, for example, use the average distribution shown in FIG. 5 to probabilistically determine the amount and whether or not to disperse the pseudo feature points.

また、上記の実施の形態では、測距部2において3D点群データを取得するためにデプスセンサを用いる例を説明したが、これに代えて、ステレオカメラを用いてよく、画像データに対してディープラーニングを用いてデプス推定画像を生成する方法(非特許文献5参照)を用いてもよく、あるいは、セマンティックセグメンテーション技術(非特許文献6参照)を適用して、探索するエリアを制限して処理制度と処理時間の削減を図ってもよい。 Further, in the above embodiment, an example in which the depth sensor is used in the distance measuring unit 2 to acquire the 3D point cloud data has been described, but instead, a stereo camera may be used, which is deeper than the image data. A method of generating a depth estimation image using learning (see Non-Patent Document 5) may be used, or a semantic segmentation technique (see Non-Patent Document 6) may be applied to limit the area to be searched and a processing system. And the processing time may be reduced.

また、上記の実施の形態では、検出処理部45におけるモデルベースの物体の検出において、グラフマッチングを用いたが、グラフマッチング以外のマッチングによって物体の検出を行ってもよい。例えば、上記の実施の形態では、グラフ生成部43において、特徴点をノードとする3Dグラフを生成したが、これに代えて、クエリ3Dデータとして、特徴点についてSIFT(Scale-Invariant Feature Transform)、SURF(Speeded Up Robust Features)等の局所特徴量を算出し、記憶部5にも参照用3Dデータとして対象物体の局所特徴量を記憶しておき、検出処理部45がSVM(Support Vector Machine)によるマッチングを行うことで対象物体を検出してもよい。 Further, in the above embodiment, graph matching is used in the detection of the model-based object in the detection processing unit 45, but the object may be detected by matching other than graph matching. For example, in the above embodiment, the graph generation unit 43 generates a 3D graph having feature points as nodes, but instead of this, as query 3D data, SIFT (Scale-Invariant Feature Transform) for feature points, Local features such as SURF (Speeded Up Robust Features) are calculated, and the local features of the target object are stored in the storage unit 5 as reference 3D data, and the detection processing unit 45 uses the SVM (Support Vector Machine). The target object may be detected by performing matching.

また、上記の実施の形態では、対象物体の3D点群データが不足する欠落領域として、対象物体の一部が遮蔽物体によって遮蔽されている遮蔽領域が生じる場合に、そのような遮蔽領域について疑似特徴点を付与する例を説明したが、上述のように、3D点群データが不足する欠落領域は遮蔽領域に限られない。例えば、対象物体の一部が高光沢である場合にも、そのような部分について3D点群データが十分に得られないことがある。この場合には、画像データの輝度値に基づいてそのような高光沢領域を特定して、疑似特徴点を配置することができる。 Further, in the above embodiment, when a shielded area in which a part of the target object is shielded by the shielded object occurs as a missing area in which the 3D point cloud data of the target object is insufficient, such a shielded area is pseudo An example of assigning feature points has been described, but as described above, the missing area where the 3D point cloud data is insufficient is not limited to the shielded area. For example, even when a part of the target object has high gloss, sufficient 3D point cloud data may not be obtained for such a part. In this case, such a high-gloss region can be specified based on the brightness value of the image data, and pseudo feature points can be arranged.

また、上記の実施の形態では、物体検出システム100をHMDとして構成し、検出処理部45における物体検出の結果を検出結果画像の生成に用いたが、本発明の実施の形態の物体検出システム100は、HMD以外にも応用可能である。たとえば、物体検出システム100を車両に搭載し、対象物体として歩行者、他車両、標識等を検出して、検出結果を運転制御に反映させるシステムとして構成することも可能である。 Further, in the above embodiment, the object detection system 100 is configured as an HMD, and the result of the object detection in the detection processing unit 45 is used to generate the detection result image. However, the object detection system 100 of the embodiment of the present invention is used. Can be applied to other than HMD. For example, it is also possible to mount the object detection system 100 on a vehicle, detect a pedestrian, another vehicle, a sign, or the like as a target object, and configure the system to reflect the detection result in driving control.

また、上記の実施の形態では、物体検出システム100は、すべての構成要素がHMDという1つの装置に搭載されて、物体検出装置を構成していたが、一部又は全部の構成要素が分散して配置されてよく、さらには、分散配置された構成要素の間に通信ネットワークが介在していてもよい。また、物体検出システム100の各構成要素は、コンピュータプログラムに従って動作してよく、CPUによって実行されることで物体検出システム100の各構成要素を実現して動作させる物体検出プログラムが提供されてよい。すなわち、上記の実施の形態の物体検出装置としてのHMDは、物体検出プログラムに従って動作してよい。 Further, in the above embodiment, in the object detection system 100, all the components are mounted on one device called the HMD to form the object detection device, but some or all the components are dispersed. In addition, a communication network may be interposed between the components arranged in a distributed manner. Further, each component of the object detection system 100 may operate according to a computer program, and an object detection program that realizes and operates each component of the object detection system 100 by being executed by the CPU may be provided. That is, the HMD as the object detection device of the above embodiment may operate according to the object detection program.

(第2の実施の形態)
以下では、本発明の第2の実施の形態を説明する。第1の実施の形態の物体検出システムと第2の実施の形態の物体検出システムとは、現実空間をセンシングして計測3Dデータを取得し、計測3Dデータにおける検出対象領域を特定し、検出対象領域に隣接する欠落領域に、疑似3Dデータを付与し、計測3Dデータ及び疑似3Dデータに基づくクエリ3Dデータと、記憶手段に記憶されている参照用3Dデータとのマッチングを行うことで、対象物体の検出を行うという点において共通する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described. The object detection system of the first embodiment and the object detection system of the second embodiment sense the real space to acquire the measurement 3D data, specify the detection target area in the measurement 3D data, and detect the detection target. Pseudo 3D data is added to the missing area adjacent to the area, and the query 3D data based on the measurement 3D data and the pseudo 3D data is matched with the reference 3D data stored in the storage means to perform the target object. It is common in that it detects.

以下において、第1の実施の形態と同様の構成については詳細な説明はせず、第1の実施の形態における応用可能な内容は第2の実施の形態にも応用されるものとする。 In the following, the same configuration as that of the first embodiment will not be described in detail, and the applicable contents of the first embodiment will be applied to the second embodiment.

図8は、第2の実施の形態の物体検出システム100の構成を示すブロック図である。物体検出システム100は、RGB−Dカメラ11と、情報処理部12と、記憶部13と、検出結果画像生成部14と、表示部15とを備えている。情報処理部12は、手前物体検出部21、輪郭算出部22、特徴点抽出部23、遮蔽空間推定部24、疑似3Dデータ付与部25、及び検出処理部26を備えている。 FIG. 8 is a block diagram showing the configuration of the object detection system 100 of the second embodiment. The object detection system 100 includes an RGB-D camera 11, an information processing unit 12, a storage unit 13, a detection result image generation unit 14, and a display unit 15. The information processing unit 12 includes a front object detection unit 21, a contour calculation unit 22, a feature point extraction unit 23, a shielding space estimation unit 24, a pseudo 3D data addition unit 25, and a detection processing unit 26.

RGB−Dカメラ11は、現実空間を撮影して画像データを取得する画像取得部としての機能及び現実空間に対して測距を行って測距データを取得する測距部としての機能を有している。RGB−Dカメラ11は撮影によって互いに同期した画像データと測距データを取得する。情報処理部12は、RGB−Dカメラ11からの入力、即ち現実空間の画像データ(RBGデータ)及び現実空間の測距データ(3D点群データ、あるいはデプスデータ、Dデータともいう。)に基づいて、記憶部13に記憶された参照用3Dデータとのマッチングをすることで、物体の検出を行う。 The RGB-D camera 11 has a function as an image acquisition unit that captures an image in the real space and acquires image data, and a function as a distance measuring unit that measures the distance in the real space and acquires the distance measurement data. ing. The RGB-D camera 11 acquires image data and distance measurement data synchronized with each other by shooting. The information processing unit 12 is based on the input from the RGB-D camera 11, that is, the image data (RBG data) in the real space and the distance measurement data in the real space (also referred to as 3D point cloud data, depth data, or D data). Then, the object is detected by matching with the reference 3D data stored in the storage unit 13.

記憶部13は、複数種類の物体について、参照用3Dデータを記憶している。後述するように、本実施の形態では、情報処理部12においてクエリ3Dデータと参照用3DデータとのFPFHマッチングが行われるので、記憶部13にも参照用3DデータがFPFH特徴の形式で記憶されている。検出結果画像生成部14は、RBG−Dカメラ11で得られた画像データに対して、情報処理部12における物体の検出結果を重畳して検出結果画像を生成する。表示部15は、検出結果画像を表示する。 The storage unit 13 stores reference 3D data for a plurality of types of objects. As will be described later, in the present embodiment, since the information processing unit 12 performs FPFH matching between the query 3D data and the reference 3D data, the reference 3D data is also stored in the storage unit 13 in the form of the FPFH feature. ing. The detection result image generation unit 14 generates a detection result image by superimposing the detection result of the object in the information processing unit 12 on the image data obtained by the RBG-D camera 11. The display unit 15 displays the detection result image.

図9は、RGB−Dカメラ11によって得られた画像データの例であり、図10は図9の画像データと共にRGB−Dカメラ11によって得られた3D点群データ(計測3Dデータともいう。)を可視化した例である。 FIG. 9 is an example of image data obtained by the RGB-D camera 11, and FIG. 10 shows 3D point group data (also referred to as measurement 3D data) obtained by the RGB-D camera 11 together with the image data of FIG. Is an example of visualization.

図9及び図10の例では、人の手(person)奥側にカップが置かれており、カップの一部は、人の手によって隠されている。本実施の形態は、第1の実施の形態と同様に、このカップのように、画像データが完全に得られていないことからCNN等の画像による物体検出では検出されず、かつ、計測3Dデータも完全に得られておらず計測3Dデータが欠落した欠落領域を含む物体、特に、そのような欠落領域が比較的大きい物体を検出対象として、物体検出を行うものである。 In the examples of FIGS. 9 and 10, the cup is placed behind the human hand, and a part of the cup is hidden by the human hand. Similar to the first embodiment, the present embodiment is not detected by the object detection by the image such as CNN because the image data is not completely obtained like this cup, and the measurement 3D data. However, the object is detected by targeting an object including a missing area in which the measured 3D data is missing, particularly an object having a relatively large missing area.

情報処理部12の手前物体検出部21は、RGB−Dカメラ11で得られた画像データ(RGBデータ)を取得して、この画像データに対して画像認識を行うことで、物体を検出する。この物体検出には、例えば、YOLO(You Only Look Once)やSSD(Single Shot MultiBox Detector)のようなCNN(Convolutional Neural Network)をベースとした技術を用いることができる。 The front object detection unit 21 of the information processing unit 12 detects an object by acquiring image data (RGB data) obtained by the RGB-D camera 11 and performing image recognition on the image data. For this object detection, for example, a technique based on a CNN (Convolutional Neural Network) such as YOLO (You Only Look Once) or SSD (Single Shot MultiBox Detector) can be used.

図11は、手前物体検出部21による物体検出の結果を示す図である。図11の例では、手前物体検出部21は、検出枠とともに「tv(69%)」、「person(51%)」、「keyboard(51%)」等の識別結果を得ている。このとき、検出枠には、当該物体の大部分が含まれていると考えられる。換言すれば、画像データにおいて物体の大部分が見えている場合に、手前物体検出部21によって当該物体が検出され、カップのように大部分が遮蔽されている物体(被遮蔽物体)は手前物体検出部21では検出されない。よって、手前物体検出部21は、他の物体によって遮蔽されておらず、大部分が画像データに現れている物体、即ち手前物体を検出する。 FIG. 11 is a diagram showing the result of object detection by the front object detection unit 21. In the example of FIG. 11, the front object detection unit 21 obtains identification results such as “tv (69%)”, “person (51%)”, and “keyboard (51%)” together with the detection frame. At this time, it is considered that the detection frame includes most of the object. In other words, when most of the object is visible in the image data, the object is detected by the front object detection unit 21, and the object that is mostly shielded (shielded object) such as a cup is the front object. It is not detected by the detection unit 21. Therefore, the foreground object detection unit 21 detects an object that is not shielded by other objects and most of which appears in the image data, that is, the foreground object.

輪郭算出部22は、手前物体検出部21にて検出された物体の輪郭を算出する。図12は、手前物体検出部21によって得られた検出枠に対してグラフカット処理を行って切り出された物体(person)の画像である。輪郭算出部22は、グラフカットによって切り出された物体の領域を第1の値とし、背景の領域を第2の値とすることで、切り出された物体の領域と背景の領域とを区別する二値化処理を行う。図13は、二値化によって得られた二値化画像である。図13の例では、切り出された物体の領域が白く、背景が黒くなっている。 The contour calculation unit 22 calculates the contour of the object detected by the front object detection unit 21. FIG. 12 is an image of an object (person) cut out by performing a graph cut process on the detection frame obtained by the front object detection unit 21. The contour calculation unit 22 distinguishes between the cut-out object area and the background area by setting the area of the object cut out by the graph cut as the first value and the background area as the second value. Perform digitization processing. FIG. 13 is a binarized image obtained by binarization. In the example of FIG. 13, the region of the cut-out object is white and the background is black.

輪郭算出部22は、さらに、二値化画像のエッジを検出することで輪郭画像を生成する。図14は、二値化画像から生成された輪郭画像である。本実施の形態の輪郭算出部22は、輪郭周辺に被遮蔽物体があることを考慮して、図14に示すように、二値化画像のエッジ部分を膨張させて輪郭画像とする。なお、この輪郭画像における膨張した輪郭は、手前物体によって一部が隠された物体が存在する領域であって、本発明の検出対象領域に相当し、そのような輪郭画像を生成する輪郭算出部22は、本発明の領域特定手段に相当する。 The contour calculation unit 22 further generates a contour image by detecting the edge of the binarized image. FIG. 14 is a contour image generated from the binarized image. The contour calculation unit 22 of the present embodiment expands the edge portion of the binarized image to obtain a contour image, as shown in FIG. 14, in consideration of the fact that there is a shielded object around the contour. The expanded contour in this contour image is a region in which an object partially hidden by a foreground object exists, corresponds to a detection target region of the present invention, and is a contour calculation unit that generates such a contour image. Reference numeral 22 corresponds to the area specifying means of the present invention.

特徴点抽出部23は、RGB−Dカメラ11で得られた3D点群データ(計測3Dデータ)の中から、輪郭算出部22にて得られた輪郭に対応する3Dキーポイントを抽出する。本実施の形態の特徴点抽出部23は、3Dキーポイントとして、3DSIFT(Scale-Invariant Feature Transform)特徴を利用して3DSIFT特徴点を抽出する。 The feature point extraction unit 23 extracts 3D key points corresponding to the contour obtained by the contour calculation unit 22 from the 3D point cloud data (measurement 3D data) obtained by the RGB-D camera 11. The feature point extraction unit 23 of the present embodiment extracts 3DSIFT feature points by using 3DSIFT (Scale-Invariant Feature Transform) features as 3D key points.

図15は、3DSIFTによって抽出された3Dキーポイントを示す図である。特徴点抽出部23は、図15に示す3Dキーポイントの中から、輪郭算出部22にて算出された膨張された輪郭に対応する3Dキーポイントを抽出する。上述のように、輪郭算出部22では、輪郭画像として手前物体の周辺領域が得られており、かつ、RGB−Dカメラ11で得られる画像データと3D点群データとは互いに対応しているので、特徴点抽出部23がこの輪郭画像に対応する3Dキーポイントを抽出することで、手前物体の周辺の3Dキーポイントを抽出できる。 FIG. 15 is a diagram showing 3D key points extracted by 3DSIFT. The feature point extraction unit 23 extracts the 3D key points corresponding to the expanded contours calculated by the contour calculation unit 22 from the 3D key points shown in FIG. As described above, in the contour calculation unit 22, the peripheral region of the foreground object is obtained as the contour image, and the image data obtained by the RGB-D camera 11 and the 3D point group data correspond to each other. By extracting the 3D key points corresponding to this contour image, the feature point extraction unit 23 can extract the 3D key points around the foreground object.

遮蔽空間推定部24は、疑似3Dデータを付与するための遮蔽空間を推定する。遮蔽空間推定部24は、手前物体の周辺から抽出された3Dキーポイントを包含する空間を遮蔽空間として推定する。具体的には、遮蔽空間推定部24は、特徴点抽出部23によって抽出された手前物体周辺の3Dキーポイントをすべて含む直方体(バウンディングボックス)を遮蔽空間として推定する。 The shielded space estimation unit 24 estimates the shielded space for adding pseudo 3D data. The shielded space estimation unit 24 estimates the space including the 3D key points extracted from the periphery of the foreground object as the shielded space. Specifically, the shield space estimation unit 24 estimates a rectangular parallelepiped (bounding box) including all 3D key points around the foreground object extracted by the feature point extraction unit 23 as the shield space.

図16は、遮蔽空間として推定されるバウンディングボックスを示す図である。この例では、RGB−Dカメラ11は、光軸が水平になる姿勢とされており、被遮蔽物体は水平面に置かれていると仮定されている。RGB−Dカメラ11を中心として、光軸方向がX3方向とされ、垂直下向きにX2方向が定義され、X3方向及びX2方向に垂直な方向がX1とされる。 FIG. 16 is a diagram showing a bounding box estimated as a shielded space. In this example, the RGB-D camera 11 is in a posture in which the optical axis is horizontal, and it is assumed that the shielded object is placed on a horizontal plane. With the RGB-D camera 11 as the center, the optical axis direction is the X3 direction, the X2 direction is defined vertically downward, and the direction perpendicular to the X3 direction and the X2 direction is X1.

特徴点抽出部22で抽出された3Dキーポイントのうち、X1〜X3の各軸に関して最大値及び最小値がそれぞれ、maxX1、maxX2、maxX3、minX1、minX2、minX3とされて、これらのmaxX1、maxX2、maxX3、minX1、minX2、minX3により遮蔽空間OSとしての直方体が定義される。図17は、推定された遮蔽空間OSの例を示す図である。 Of the 3D key points extracted by the feature point extraction unit 22, the maximum and minimum values for each axis of X1 to X3 are maxX1, maxX2, maxX3, minX1, minX2, and minX3, respectively, and these maxX1 and maxX2. , MaxX3, minX1, minX2, minX3 define a rectangular parallelepiped as a shielded space OS. FIG. 17 is a diagram showing an example of an estimated shielded space OS.

このように、手前物体の周辺から抽出した3Dキーポイントを包含する直方体を遮蔽空間とすることで、この遮蔽空間OSには、手前物体の奥側、即ち被遮蔽物体の3Dデータが欠落した領域(欠落領域)が含まれることになる。よって、この遮蔽空間OSに疑似3Dデータを付与することで、欠落領域に疑似3Dデータを付与することができる。なお、特徴点抽出部23で抽出された手前物体周辺の3Dキーポイントは、遮蔽空間推定部24における遮蔽空間OSの推定にのみ用いられ、マッチングの際には後述するようにFPFH特徴が用いられる。 By setting the rectangular parallelepiped including the 3D key points extracted from the periphery of the foreground object as the shielding space in this way, the shielding space OS is located on the back side of the foreground object, that is, the area where the 3D data of the shielded object is missing. (Missing area) will be included. Therefore, by adding pseudo 3D data to this shielded space OS, it is possible to add pseudo 3D data to the missing area. The 3D key points around the foreground object extracted by the feature point extraction unit 23 are used only for estimating the shield space OS in the shield space estimation unit 24, and the FPFH feature is used at the time of matching as described later. ..

疑似3Dデータ付与部25は、遮蔽空間に疑似3Dデータを付与する。この疑似3Dデータは、被遮蔽物体上の点として疑似的に付与されるものである。疑似3Dデータ付与部25は、遮蔽空間OS内に、X1X2平面に平行で、かつ、X3方向に所定の間隔で並ぶ複数の仮想平面を設定し、それらの仮想平面上に疑似3Dデータを分布させる。 The pseudo 3D data addition unit 25 adds pseudo 3D data to the shielded space. This pseudo 3D data is artificially given as a point on the shielded object. The pseudo 3D data addition unit 25 sets a plurality of virtual planes parallel to the X1X2 plane and arranged at predetermined intervals in the X3 direction in the shielded space OS, and distributes the pseudo 3D data on the virtual planes. ..

大部分が遮蔽されている被遮蔽物体は、その重心も遮蔽されている可能性が高い。そこで、疑似3Dデータ付与部25は、各仮想平面上の楕円上に疑似3Dデータを分布させる。楕円を採用するのは、遮蔽物体の表面の存在確率は、遮蔽空間の中心から放射状に減少すると考えられるからである。 A shielded object that is largely shielded is likely to have its center of gravity also shielded. Therefore, the pseudo 3D data addition unit 25 distributes the pseudo 3D data on the ellipse on each virtual plane. The ellipse is adopted because the existence probability of the surface of the shielded object is considered to decrease radially from the center of the shielded space.

図18は、疑似3Dデータの付与を説明する図である。図18の例では、上段に示すように、被遮蔽物体であるカップは、右側の大部分が遮蔽されているとする。図18の下段の左は、カップの真の3Dデータであり、その一部が計測され、他の一部は手前物体に遮蔽されている。図18の下段中央は、疑似3Dデータが遮蔽空間の中心を中心とする複数の同心楕円上に3D疑似データが分布されることを示している。疑似3Dデータ付与部25は、図18の下段の右に示すように、遮蔽空間においてX3方向に間隔を空けて設定される複数の仮想平面P1〜PHの各々において複数の同心楕円上に疑似3Dデータを付与する。 FIG. 18 is a diagram illustrating the addition of pseudo 3D data. In the example of FIG. 18, as shown in the upper part, it is assumed that most of the right side of the cup, which is a shielded object, is shielded. The lower left of FIG. 18 is the true 3D data of the cup, a part of which is measured and the other part is shielded by the foreground object. The lower center of FIG. 18 shows that the pseudo 3D data is distributed on a plurality of concentric ellipses centered on the center of the shielded space. As shown on the lower right of FIG. 18, the pseudo 3D data addition unit 25 is placed on a plurality of concentric ellipses on a plurality of concentric ellipses in each of the plurality of virtual planes P1 to PH set at intervals in the X3 direction in the shielded space. Give data.

疑似3Dデータ付与部25は、下式(1)によって疑似3Dデータを付与する。

Figure 0006851295
ここで、
Figure 0006851295
である。 The pseudo 3D data addition unit 25 assigns pseudo 3D data by the following equation (1).
Figure 0006851295
here,
Figure 0006851295
Is.

また、kは半径方向の位置であり、mは疑似3Dデータの密度であり、hは等間隔で並んだ仮想平面の間隔である。また、図18に示すように、Kは楕円の周方向の間隔であり、Mは半径方向の間隔であり、Hは深さ方向(X3方向)の仮想平面の数である。M及びKを調整することで、疑似3Dデータの数をダウンサンプリング後の計測3Dデータの数に適合させることができる。このように、疑似3Dデータ付与部25は、H×K×M個の疑似3Dデータを付与する。 Further, k is a position in the radial direction, m is the density of pseudo 3D data, and h is the interval of virtual planes arranged at equal intervals. Further, as shown in FIG. 18, K is an interval in the circumferential direction of the ellipse, M is an interval in the radial direction, and H is the number of virtual planes in the depth direction (X3 direction). By adjusting M and K, the number of pseudo 3D data can be adapted to the number of measured 3D data after downsampling. In this way, the pseudo 3D data addition unit 25 assigns H × K × M pseudo 3D data.

検出処理部26は、可視領域で計測された計測3Dデータと遮蔽領域に付与された疑似3Dデータを用いて、記憶部13に記憶された参照用3Dデータとのマッチングを行う。このマッチングにはPFH(Point Feature Histogram)、FPFH(Fast Point Feature Histogram)、SHOT(Signature of Histograms of OrienTations)等のマッチング手法を用いることができる。 The detection processing unit 26 matches the measurement 3D data measured in the visible region with the reference 3D data stored in the storage unit 13 by using the pseudo 3D data given to the shield region. For this matching, a matching method such as PFH (Point Feature Histogram), FPFH (Fast Point Feature Histogram), SHOT (Signature of Histograms of OrienTations) can be used.

具体的には、検出処理部26は、疑似3Dデータ付与部25によって付与された疑似3Dデータと疑似3Dデータ付近の計測3DデータとからFPFH特徴(疑似FPFH特徴)を抽出して、これをクエリ3Dデータとし、このクエリ3Dデータについて、FPFHでマッチングを行う。これにより、欠落領域が原因で下がった尤度を底上げして、正常な検出がしやすくなる。特に、マッチング処理の後段ステージで特徴量記述を改善できる。 Specifically, the detection processing unit 26 extracts the FPFH feature (pseudo FPFH feature) from the pseudo 3D data given by the pseudo 3D data addition unit 25 and the measurement 3D data in the vicinity of the pseudo 3D data, and queries this. 3D data is used, and this query 3D data is matched by FPFH. As a result, the likelihood lowered due to the missing area is raised, and normal detection becomes easier. In particular, the feature description can be improved in the subsequent stage of the matching process.

検出結果画像生成部14は、検出処理部26が検出した対象物体の重心を求め、RGB−Dカメラ11が取得したRGB−Dデータに対して、この重心位置を示すアノテーションを重畳させた検出結果画面を生成する。表示部15は、検出結果画像生成部14で生成された検出結果画像を表示する。 The detection result image generation unit 14 obtains the center of gravity of the target object detected by the detection processing unit 26, and superimposes an annotation indicating the position of the center of gravity on the RGB-D data acquired by the RGB-D camera 11. Generate a screen. The display unit 15 displays the detection result image generated by the detection result image generation unit 14.

図19は、物体検出システム100の動作を示すフロー図である。図19に示すフローは、所定のフレームレートで繰り返される。まず、RGB−Dカメラ11は現実空間を撮影することによりRGB−Dデータ、即ち画像データ及び3D点群データを取得する(ステップS91)。 FIG. 19 is a flow chart showing the operation of the object detection system 100. The flow shown in FIG. 19 is repeated at a predetermined frame rate. First, the RGB-D camera 11 acquires RGB-D data, that is, image data and 3D point cloud data by photographing the real space (step S91).

手前物体検出部21は、YOLOによって画像データから手前物体を検出する(ステップS92)。そして、輪郭算出部22は、検出された手前物体に対してグラフカッティング処理を行い、手前物体を切り出し、切り出した手前物体を二値化し、二値化画像のエッジを検出することで輪郭画像を生成する(ステップS93)。このとき、上述のとおり、この輪郭算出部22は、二値画像のエッジを膨張させることである程度の幅のある輪郭を算出する。 The front object detection unit 21 detects the front object from the image data by YOLO (step S92). Then, the contour calculation unit 22 performs graph cutting processing on the detected foreground object, cuts out the foreground object, binarizes the cut out foreground object, and detects the edge of the binarized image to obtain the contour image. Generate (step S93). At this time, as described above, the contour calculation unit 22 calculates a contour having a certain width by expanding the edge of the binary image.

次に、特徴点抽出部23は、RGB−Dカメラ11によって得られた3D点群データから、輪郭の位置に対応する3Dキーポイントを抽出する(ステップS94)。遮蔽空間推定部24は、抽出された3Dキーポイントをすべて包含する直方体を求め、この直方体を遮蔽空間OSとして推定する(ステップS95)。 Next, the feature point extraction unit 23 extracts 3D key points corresponding to the contour positions from the 3D point cloud data obtained by the RGB-D camera 11 (step S94). The shielded space estimation unit 24 obtains a rectangular parallelepiped including all the extracted 3D key points, and estimates this rectangular parallelepiped as the shielded space OS (step S95).

疑似3Dデータ付与部25は、遮蔽空間に複数の仮想平面を設定し、各仮想平面内に疑似3Dデータを付与する(ステップS96)。このとき、各仮想平面では、複数の同心楕円上に疑似3Dデータを付与する。 The pseudo 3D data addition unit 25 sets a plurality of virtual planes in the shielded space, and adds pseudo 3D data in each virtual plane (step S96). At this time, in each virtual plane, pseudo 3D data is added on a plurality of concentric ellipses.

このようにして遮蔽空間OSに疑似3Dデータが付与されると、検出処理部26は、RGB−Dカメラ11で得られた可視領域の計測3DデータからFPFH特徴を抽出し、また、疑似3Dデータを疑似FPFH特徴とし、これらのFPFH特徴及び疑似FPFH特徴を用いて、FPFHによるマッチングを行うことで、被遮蔽物体を検出する(ステップS97)。 When the pseudo 3D data is added to the shielded space OS in this way, the detection processing unit 26 extracts the FPFH feature from the measurement 3D data in the visible region obtained by the RGB-D camera 11, and also extracts the pseudo 3D data. Is used as a pseudo FPFH feature, and these FPFH features and pseudo FPFH features are used to perform matching by FPFH to detect a shielded object (step S97).

検出結果画面生成部14は、検出された被遮蔽物体の重心位置を算出し(ステップS98)、検出結果画面を生成する(ステップS99)。 The detection result screen generation unit 14 calculates the position of the center of gravity of the detected object to be shielded (step S98) and generates a detection result screen (step S99).

以上のように、本発明の第2の実施の形態の物体検出システム100によれば、画像データから検出された物体を手前物体として、その裏側に遮蔽領域を設定して疑似3Dデータを付与するので、画像データからは検出されない被遮蔽物体についても、モデルベースの3次元物体検出によって物体検出をすることができる。 As described above, according to the object detection system 100 of the second embodiment of the present invention, the object detected from the image data is set as the front object, and the shielding area is set on the back side thereof to add the pseudo 3D data. Therefore, even for a shielded object that is not detected from the image data, the object can be detected by the model-based three-dimensional object detection.

なお、上記の実施の形態では、手前物体を切り出して二値化し、そのエッジを検出して膨張した輪郭を生成し、その輪郭に対応する3Dキーポイントを抽出し、抽出された3Dキーポイントを包含する直方体を遮蔽空間としたが、手前物体の裏側に疑似3Dデータを付与するための遮蔽空間を設定する手法はこれに限られない。例えば、手前物体を検出した際の検出枠からRGB−Dカメラ11の光軸方向(X3方向)に所定の長さで延びる直方体を遮蔽空間としてもよい。なお、この場合には、膨張した輪郭(即ち、検出対象領域)を算出する必要はない。また、遮蔽空間は直方体以外の形状であってもよい。 In the above embodiment, the foreground object is cut out and binarized, the edge is detected to generate an expanded contour, the 3D key point corresponding to the contour is extracted, and the extracted 3D key point is used. The rectangular parallelepiped to be included is used as a shielding space, but the method of setting a shielding space for adding pseudo 3D data to the back side of the front object is not limited to this. For example, a rectangular parallelepiped extending from the detection frame when the foreground object is detected in the optical axis direction (X3 direction) of the RGB-D camera 11 by a predetermined length may be used as the shielding space. In this case, it is not necessary to calculate the expanded contour (that is, the detection target area). Further, the shielded space may have a shape other than a rectangular parallelepiped.

また、上記の実施の形態では、物体検出の結果をアノテーションの重畳に用いたが、物体検出の結果の応用例はこれに限らず、物体検出の結果は、例えば、トラッキングをする際のスタート地点の認識やロボットにおけるピッキング等、種々の応用が可能である。 Further, in the above embodiment, the result of object detection is used for superimposing annotations, but the application example of the result of object detection is not limited to this, and the result of object detection is, for example, a starting point when tracking. Various applications such as recognition of and picking in robots are possible.

本発明は、対象物体の計測3Dデータに不足がある場合にも、そのような計測3Dデータに疑似3Dデータが付加された上で、参照用3Dデータとのマッチングが行われるので、オクルージョン等によって計測3Dデータが不足する場合におけるマッチングの精度を向上でき、よって、対象物体の検出の可能性を向上でき、現実空間をセンシングして対象物体を検出する物体検出システム等として有用である。 In the present invention, even when the measurement 3D data of the target object is insufficient, the pseudo 3D data is added to the measurement 3D data, and then the matching with the reference 3D data is performed. It is possible to improve the accuracy of matching when the measurement 3D data is insufficient, thereby improving the possibility of detecting the target object, and it is useful as an object detection system or the like that detects the target object by sensing the real space.

100 物体検出システム(HMD)
1 画像取得部
2 測距部
3 同期部
4 情報処理部
41 領域特定部
42 特徴点抽出部
43 グラフ生成部
44 疑似3Dデータ付与部
45 検出処理部
5 記憶部
6 検出結果画像生成部
7 表示部
11 RGB−Dカメラ
12 情報処理部
13 記憶部
14 検出結果画像生成部
15 表示部
21 手前物体検出部
22 輪郭算出部
23 特徴点抽出部
24 遮蔽空間推定部
25 疑似3Dデータ付与部
26 検出処理部
K 検出対象領域
S 遮蔽領域
OS 遮蔽空間
100 Object Detection System (HMD)
1 Image acquisition unit 2 Distance measurement unit 3 Synchronization unit 4 Information processing unit 41 Area identification unit 42 Feature point extraction unit 43 Graph generation unit 44 Pseudo 3D data addition unit 45 Detection processing unit 5 Storage unit 6 Detection result image generation unit 7 Display unit 11 RGB-D camera 12 Information processing unit 13 Storage unit 14 Detection result image generation unit 15 Display unit 21 Front object detection unit 22 Contour calculation unit
23 Feature point extraction unit 24 Shielding space estimation unit 25 Pseudo 3D data addition unit 26 Detection processing unit K Detection target area S Shielding area OS Shielding space

Claims (14)

対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段と、
現実空間をセンシングして計測3Dデータを取得する3Dデータ取得手段と、
前記計測3Dデータにおける検出対象領域を特定する領域特定手段と、
前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与手段と、
前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理手段と、を備えており、
前記領域特定部は、
前記計測3Dデータにおいて、距離が互いに近く隣接するセグメントを連結した連結領域について、前記連結領域に隣接する他の連結領域であって、かつ前記連結領域との境界において距離の差が所定の閾値以上あり、前記連結領域よりも近い距離にある前記他の連結領域がある場合に、前記連結領域を検出対象領域として特定し、前記他の領域を前記欠落領域として特定する、
ことを特徴とする物体検出システム。
A storage means for storing 3D data of the target object as reference 3D data,
A 3D data acquisition means that senses the real space and acquires measurement 3D data,
An area specifying means for specifying a detection target area in the measurement 3D data, and
Pseudo 3D data adding means for adding pseudo 3D data to a missing area where measurement 3D data for the target object is insufficient, and
It is provided with a detection processing means for detecting the target object by matching the query 3D data based on the measurement 3D data and the pseudo 3D data with the reference 3D data.
The area identification part is
In the measurement 3D data, with respect to a connecting region in which segments adjacent to each other are close to each other, the difference in distance is equal to or greater than a predetermined threshold value in another connecting region adjacent to the connecting region and at the boundary with the connecting region. When there is the other connecting region that is closer than the connecting region, the connecting region is specified as the detection target region, and the other region is specified as the missing region.
An object detection system characterized by this.
3Dデータをノードとするグラフを生成するグラフ生成手段をさらに備え、
前記3Dデータ取得手段は、センシングによって前記現実空間の3D点群データを取得する3D点群データ取得手段と、前記3D点群データから前記計測3Dデータとして特徴点を抽出する特徴点抽出手段とを含み、
前記記憶手段は、前記参照用3Dデータとして、前記対象物体の特徴点のグラフを記憶し、
前記疑似3Dデータ付与手段は、前記疑似3Dデータとして疑似特徴点を付与し、
前記グラフ生成手段は、前記計測3Dデータ及び前記疑似3Dデータをノードとするクエリグラフを生成し、
前記検出処理手段は、前記クエリグラフを前記クエリ3Dデータとして、前記参照用3Dデータとのグラフマッチングを行う、
請求項1に記載の物体検出システム。
Further equipped with a graph generation means for generating a graph using 3D data as a node,
The 3D data acquisition means includes a 3D point cloud data acquisition means that acquires 3D point cloud data in the real space by sensing, and a feature point extraction means that extracts feature points as measurement 3D data from the 3D point cloud data. Including
The storage means stores a graph of feature points of the target object as the reference 3D data, and stores the graph.
The pseudo 3D data adding means adds pseudo feature points as the pseudo 3D data.
The graph generation means generates a query graph having the measurement 3D data and the pseudo 3D data as nodes.
The detection processing means uses the query graph as the query 3D data and performs graph matching with the reference 3D data.
The object detection system according to claim 1.
前記現実空間を撮影して画像を取得する画像取得手段と、
前記画像から手前物体を検出する物体検出手段と、
前記手前物体の検出結果に基づいて、前記欠落領域を推定する推定手段と、をさらに備え、
前記疑似3Dデータ付与手段は、前記推定手段にて推定された前記欠落領域に前記疑似3Dデータを付与する、
請求項1に記載の物体検出システム。
An image acquisition means for photographing the real space and acquiring an image,
An object detection means for detecting a foreground object from the image,
An estimation means for estimating the missing region based on the detection result of the foreground object is further provided.
The pseudo 3D data adding means adds the pseudo 3D data to the missing area estimated by the estimating means.
The object detection system according to claim 1.
前記手前物体をグラフカット処理によって切り出して、切り出した部分のエッジを膨張させた輪郭を算出する輪郭算出手段をさらに備え、
前記推定手段は、前記計測3Dデータから抽出した特徴点であって、前記輪郭に対応する特徴点を含む直方体を前記欠落領域として推定する、
請求項3に記載の物体検出システム。
Further provided with a contour calculation means for cutting out the foreground object by a graph cut process and calculating a contour in which the edge of the cut out portion is expanded.
The estimation means estimates the feature points extracted from the measurement 3D data, and a rectangular parallelepiped including the feature points corresponding to the contour as the missing region.
The object detection system according to claim 3.
前記疑似3Dデータ付与手段は、前記欠落領域に奥行き方向に並ぶ複数の仮想平面を設定し、前記仮想平面内において複数の同心楕円上に前記疑似3Dデータを付与する、
請求項4に記載の物体検出システム。
The pseudo 3D data adding means sets a plurality of virtual planes arranged in the depth direction in the missing area, and imparts the pseudo 3D data on a plurality of concentric ellipses in the virtual plane.
The object detection system according to claim 4.
前記現実空間を撮影して画像を取得する画像取得手段をさらに備え、
前記3Dデータ取得手段は、センシングによって前記現実空間の3D点群データを取得する3D点群データ取得手段を備え、
前記領域特定手段は、前記3D点群データと同期する前記画像を用いたセグメント分け
情報に基づいて、前記検出対象領域を特定する、
請求項1に記載の物体検出システム。
Further provided with an image acquisition means for photographing the real space and acquiring an image,
The 3D data acquisition means includes a 3D point cloud data acquisition unit that acquires 3D point cloud data in the real space by sensing.
The area specifying means identifies the detection target area based on the segmentation information using the image synchronized with the 3D point cloud data.
The object detection system according to claim 1.
前記領域特定手段は、前記3D点群データから、距離が所定の範囲にある領域を除外して前記検出対象領域を特定する、請求項5に記載の物体検出システム。 The object detection system according to claim 5 , wherein the area specifying means specifies the detection target area by excluding a area having a distance within a predetermined range from the 3D point cloud data. 前記3Dデータ取得手段は、センシングによって前記現実空間の3D点群データを取得する3D点群データ取得手段を備え、
前記領域特定手段は、前記3D点群データに基づいて、対象物体を遮蔽する遮蔽領域を前記欠落領域として特定する、
請求項1に記載の物体検出システム。
The 3D data acquisition means includes a 3D point cloud data acquisition unit that acquires 3D point cloud data in the real space by sensing.
The region specifying means identifies a shielded region that shields the target object as the missing region based on the 3D point cloud data.
The object detection system according to claim 1.
前記領域特定手段は、前記検出対象領域に隣接する領域であって、前記3D点群データの距離が前記検出対象領域の前記3D点群データの距離より短く、かつ、前記3D点群データの距離と前記検出対象領域の前記3D点群データとの距離との差が閾値以上である領域を前記遮蔽領域として、前記欠落領域を特定する、請求項8に記載の物体検出システム。 The area specifying means is a region adjacent to the detection target region, the distance of the 3D point group data is shorter than the distance of the 3D point group data of the detection target region, and the distance of the 3D point group data. The object detection system according to claim 8 , wherein the missing area is specified by using a region in which the difference between the detection target region and the distance from the 3D point group data is equal to or greater than a threshold value as the shielding region. 前記疑似3Dデータ付与手段は、前記検出対象領域内の起点を中心とする球面上に前記疑似3Dデータを付与する、請求項8又はに記載の物体検出システム。 The object detection system according to claim 8 or 9 , wherein the pseudo 3D data adding means applies the pseudo 3D data on a spherical surface centered on a starting point in the detection target region. 前記計測3Dデータよりも前記疑似3Dデータの重みが軽くなるように前記クエリ3Dデータに重みづけがされる、請求項1ないし10のいずれかに記載の物体検出システム。 The object detection system according to any one of claims 1 to 10 , wherein the query 3D data is weighted so that the weight of the pseudo 3D data is lighter than that of the measured 3D data. 対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段と、
現実空間をセンシングして計測3Dデータを取得する3Dデータ取得手段と、
前記計測3Dデータにおける検出対象領域を特定する領域特定手段と、
前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与手段と、
前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理手段と、を備えており、
前記領域特定部は、
前記計測3Dデータにおいて、距離が互いに近く隣接するセグメントを連結した連結領域について、前記連結領域に隣接する他の連結領域であって、かつ前記連結領域との境界において距離の差が所定の閾値以上あり、前記連結領域よりも近い距離にある前記他の連結領域がある場合に、前記連結領域を検出対象領域として特定し、前記他の領域を前記欠落領域として特定する、
ことを特徴とする物体検出装置。
A storage means for storing 3D data of the target object as reference 3D data,
A 3D data acquisition means that senses the real space and acquires measurement 3D data,
An area specifying means for specifying a detection target area in the measurement 3D data, and
Pseudo 3D data adding means for adding pseudo 3D data to a missing area where measurement 3D data for the target object is insufficient, and
It is provided with a detection processing means for detecting the target object by matching the query 3D data based on the measurement 3D data and the pseudo 3D data with the reference 3D data.
The area identification part is
In the measurement 3D data, with respect to a connecting region in which segments adjacent to each other are close to each other, the difference in distance is equal to or greater than a predetermined threshold value in another connecting region adjacent to the connecting region and at the boundary with the connecting region. When there is the other connecting region that is closer than the connecting region, the connecting region is specified as the detection target region, and the other region is specified as the missing region.
An object detection device characterized by the fact that.
対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段を備えた情報処理装置に、
現実空間をセンシングして計測3Dデータを取得する3Dデータ取得ステップと、
前記計測3Dデータにおける検出対象領域を特定する領域特定ステップと、
前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与ステップと、
前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理ステップと、
を実行させる物体検出プログラムであって、
前記領域特定ステップは、
前記計測3Dデータにおいて、距離が互いに近く隣接するセグメントを連結した連結領域について、前記連結領域に隣接する他の連結領域であって、かつ前記連結領域との境界において距離の差が所定の閾値以上あり、前記連結領域よりも近い距離にある前記他の連結領域がある場合に、前記連結領域を検出対象領域として特定し、前記他の領域を前記欠落領域として特定する、
ことを特徴とする物体検出プログラム。
An information processing device equipped with a storage means for storing 3D data of a target object as reference 3D data.
A 3D data acquisition step that senses the real space and acquires measured 3D data,
An area identification step for specifying a detection target area in the measurement 3D data, and
A pseudo 3D data addition step of adding pseudo 3D data to a missing area where measurement 3D data of the target object is insufficient, and
A detection processing step for detecting the target object by matching the query 3D data based on the measurement 3D data and the pseudo 3D data with the reference 3D data.
A object detection program for executing,
The area identification step
In the measurement 3D data, with respect to a connecting region in which segments adjacent to each other are close to each other, the difference in distance is equal to or greater than a predetermined threshold value in another connecting region adjacent to the connecting region and at the boundary with the connecting region. When there is the other connecting region that is closer than the connecting region, the connecting region is specified as the detection target region, and the other region is specified as the missing region.
An object detection program characterized by this.
対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段を備えた情報処理装置における物体検出方法であって、
前記情報処理装置は、
現実空間をセンシングして計測3Dデータを取得する3Dデータ取得ステップと、
前記計測3Dデータにおける検出対象領域を特定する領域特定ステップと、
前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与ステップと、
前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理ステップと、を実行し、
前記領域特定ステップは、
前記計測3Dデータにおいて、距離が互いに近く隣接するセグメントを連結した連結領域について、前記連結領域に隣接する他の連結領域であって、かつ前記連結領域との境界において距離の差が所定の閾値以上あり、前記連結領域よりも近い距離にある前記他の連結領域がある場合に、前記連結領域を検出対象領域として特定し、前記他の領域を前記欠落領域として特定する、
物体検出方法。
It is an object detection method in an information processing device provided with a storage means for storing 3D data of a target object as reference 3D data.
The information processing device
A 3D data acquisition step that senses the real space and acquires measured 3D data,
An area identification step for specifying a detection target area in the measurement 3D data, and
A pseudo 3D data addition step of adding pseudo 3D data to a missing area where measurement 3D data of the target object is insufficient, and
The detection processing step of detecting the target object by matching the query 3D data based on the measurement 3D data and the pseudo 3D data with the reference 3D data is executed.
The area identification step
In the measurement 3D data, with respect to a connecting region in which segments adjacent to each other are close to each other, the difference in distance is equal to or greater than a predetermined threshold value in another connecting region adjacent to the connecting region and at the boundary with the connecting region. When there is the other connecting region that is closer than the connecting region, the connecting region is specified as the detection target region, and the other region is specified as the missing region.
Object detection method.
JP2017184066A 2017-01-27 2017-09-25 Object detection system, object detection device, object detection program, and object detection method Active JP6851295B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017012604 2017-01-27
JP2017012604 2017-01-27

Publications (2)

Publication Number Publication Date
JP2018124973A JP2018124973A (en) 2018-08-09
JP6851295B2 true JP6851295B2 (en) 2021-03-31

Family

ID=63111468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017184066A Active JP6851295B2 (en) 2017-01-27 2017-09-25 Object detection system, object detection device, object detection program, and object detection method

Country Status (1)

Country Link
JP (1) JP6851295B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109345510A (en) 2018-09-07 2019-02-15 百度在线网络技术(北京)有限公司 Object detecting method, device, equipment, storage medium and vehicle
KR102256583B1 (en) * 2019-05-15 2021-05-26 주식회사 씨에스아이비젼 System for Measuring Position of Subject
EP3985615A4 (en) * 2019-06-14 2022-08-10 FUJIFILM Corporation Point cloud data processing device, point cloud data processing method, and program
JP7246641B2 (en) * 2019-10-03 2023-03-28 国立大学法人京都大学 agricultural machine
CN111340030B (en) * 2020-02-14 2021-12-21 北京市商汤科技开发有限公司 Image processing method and device, electronic equipment and computer readable storage medium
JP6927540B1 (en) * 2020-09-04 2021-09-01 株式会社セルシス Information processing equipment, information processing system, information processing method and program
CN112907760B (en) * 2021-02-09 2023-03-24 浙江商汤科技开发有限公司 Three-dimensional object labeling method and device, tool, electronic equipment and storage medium
WO2023188179A1 (en) * 2022-03-30 2023-10-05 日本電信電話株式会社 Three-dimensional point group segmentation device, three-dimensional point group segmentation method, and three-dimensional point group segmentation program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4940706B2 (en) * 2006-03-01 2012-05-30 トヨタ自動車株式会社 Object detection device
JP4914517B2 (en) * 2009-10-08 2012-04-11 富士フイルム株式会社 Structure detection apparatus and method, and program
JP2013002909A (en) * 2011-06-15 2013-01-07 Mitsubishi Electric Corp Object identification device and object identification program
JP6003367B2 (en) * 2012-08-06 2016-10-05 日本電気株式会社 Image recognition apparatus, image recognition method, and image recognition program
JP2015123534A (en) * 2013-12-26 2015-07-06 トヨタ自動車株式会社 Mounting determination method, mounting method, mounting determination device, and robot

Also Published As

Publication number Publication date
JP2018124973A (en) 2018-08-09

Similar Documents

Publication Publication Date Title
JP6851295B2 (en) Object detection system, object detection device, object detection program, and object detection method
US11727661B2 (en) Method and system for determining at least one property related to at least part of a real environment
Feng et al. Local background enclosure for RGB-D salient object detection
CN107392958B (en) Method and device for determining object volume based on binocular stereo camera
KR101486543B1 (en) Method and apparatus for recognition and segmentation object for 3d object recognition
US9305206B2 (en) Method for enhancing depth maps
US10204284B2 (en) Object recognition utilizing feature alignment
US20150029222A1 (en) Dynamically configuring an image processing function
US9317924B2 (en) Information processing apparatus, three-dimensional position calculation method, and program
AU2013237718A1 (en) Method, apparatus and system for selecting a frame
Desai et al. A window to your smartphone: exploring interaction and communication in immersive vr with augmented virtuality
WO2014107538A1 (en) Stereo image matching
Chansri et al. Hand gesture recognition for Thai sign language in complex background using fusion of depth and color video
US9595125B2 (en) Expanding a digital representation of a physical plane
CN106295640A (en) The object identification method of a kind of intelligent terminal and device
CN111666792B (en) Image recognition method, image acquisition and recognition method, and commodity recognition method
US11823394B2 (en) Information processing apparatus and method for aligning captured image and object
KR101337423B1 (en) Method of moving object detection and tracking using 3d depth and motion information
Kordelas et al. Viewpoint independent object recognition in cluttered scenes exploiting ray-triangle intersection and SIFT algorithms
JP2015045919A (en) Image recognition method and robot
Ashraf et al. Motion retrieval using consistency of epipolar geometry
Feng et al. HOSO: Histogram of surface orientation for RGB-D salient object detection
Mitra et al. Seethrough: Finding objects in heavily occluded indoor scene images
JP6717769B2 (en) Information processing device and program
Koniarski Augmented reality using optical flow

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210309

R150 Certificate of patent or registration of utility model

Ref document number: 6851295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250