JP2018124973A - 物体検出システム、物体検出装置、物体検出プログラム、及び物体検出方法 - Google Patents

物体検出システム、物体検出装置、物体検出プログラム、及び物体検出方法 Download PDF

Info

Publication number
JP2018124973A
JP2018124973A JP2017184066A JP2017184066A JP2018124973A JP 2018124973 A JP2018124973 A JP 2018124973A JP 2017184066 A JP2017184066 A JP 2017184066A JP 2017184066 A JP2017184066 A JP 2017184066A JP 2018124973 A JP2018124973 A JP 2018124973A
Authority
JP
Japan
Prior art keywords
data
pseudo
detection
measurement
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017184066A
Other languages
English (en)
Other versions
JP6851295B2 (ja
Inventor
信一 住吉
Shinichi Sumiyoshi
信一 住吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso IT Laboratory Inc
Original Assignee
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso IT Laboratory Inc filed Critical Denso IT Laboratory Inc
Publication of JP2018124973A publication Critical patent/JP2018124973A/ja
Application granted granted Critical
Publication of JP6851295B2 publication Critical patent/JP6851295B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】モデルベースの3次元物体検出において、センシングによって得られた物体の3Dデータが不足している場合にも、参照用データとのマッチングによる物体検出の可能性を向上させる。【解決手段】物体検出システム100は、対象物体の3Dグラフを参照用3Dデータとして記憶する記憶部5と、現実空間をセンシングして計測3Dデータを取得する測距部2と、計測3Dデータにおける検出対象領域及びそれに隣接する遮蔽領域を特定する領域特定部41と、遮蔽領域に疑似3Dデータを付与する疑似3Dデータ付与部44と、計測3Dデータと疑似3Dデータとに基づいて、クエリ3Dデータとしてクエリ3Dグラフを生成するグラフ生成部43と、クエリ3Dデータと参照用3Dデータとのマッチングを行うことで対象物体の検出を行う検出処理部45とを備えている。【選択図】図2

Description

本発明は、現実空間をセンシングして対象物体を検出する物体検出システム、物体検出装置、物体検出プログラム、及び物体検出方法に関する。
従来より、現実空間をセンシングして3Dデータを得て、この3Dデータに基づいて対象物体を検出する3次元物体検出(認識)技術が知られている。この3次元物体検出技術は、AR(Augmented Reality:拡張現実)、VR(Virtual Reality:仮想現実)、MR(Mixed Reality: 複合現実)に応用される。
モデルベースの3次元物体検出では、あらかじめ検出すべき物体の3Dデータ(CADデータ)を参照用3Dデータとして用意しておき、デプスセンサ等の3Dデータ取得手段によるセンシングによって現実空間の3Dデータを取得し、取得した3Dデータと参照用3Dデータとのマッチングを行うことで物体の検出を行う。
本願発明に関連する技術を記載した文献として、以下の文献がある。
特表2013−513191号公報
相田優,柳井啓司,柴原一友,藤本浩司,「服飾画像マイニングのための衣類領域からの色情報抽出",電子情報通信学会技術報告,vol. 111,no. 478,IE2011-173,pp.235-240,2012. Shuichi Akizuki, Manabu Hashimoto,"Position and Pose Recognition of Randomly Stacked Objects using Highly Observable 3D Vector Pairs",Proc. the 40th Annual Conference of the IEEE Industrial Electronics Society,pp.5266-5271,Oct. 2014. 金崎 朝子,Emanuele Rodola,原田 達也,「グラフマッチング学習を用いたRGB-D画像からの物体検出」,第20回ロボティクスシンポジア,pp.432-437,2015. Tao Wang,Haibin Ling,Congyan Lang,Jun Wu,"Branching Path Following for Graph Matching",Computer Vision - ECCV 2016,pp.508-523. Fayao Liu,Chunhua Shen,Guosheng Lin,"Deep Convolutional Neural Fields for Depth Estimation from a Single Image",ArXive-prints 1411, 6387. Shu Liu,Xiaojuan Qi,Jianping Shi,Hong Zhang,Jiaya Jia,"Multi-scale Patch Aggregation (MPA) for Simultaneous Detection and Segmentation",CVPR,2016.
上記のように、モデルベースの3次元物体検出では、現実空間をセンシングして物体の3Dデータを取得する必要があるが、実際には物体の一部の3Dデータが得られないことがある。例えば、3Dデータを光学的に取得する場合において、3Dデータ取得手段と物体との間に遮蔽物が存在するときには、遮蔽部分について当該物体の3Dデータが欠落する。また、物体の一部が金属や光沢度の高い材質であったり、透明であったりする場合にも、当該部分について有効な3Dデータが得られないことがある。さらには、そもそも3Dデータ取得手段の設置位置の関係で、原理上、物体の3Dデータがある限定的な範囲でしか得られないこともある。
このように、現実空間の物体の3Dデータに欠落(点群不足)があると、参照用3Dデータとのマッチングが成立せず、あるいは、マッチングの精度が低下してしまうことがある。
本発明は、モデルベースの3次元物体検出において、センシングによって得られた物体の3Dデータが不足している場合にも、参照用データとのマッチングによる物体検出の可能性を向上させることを目的とする。
本発明の一態様の物体検出システムは、対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段と、現実空間をセンシングして計測3Dデータを取得する3Dデータ取得手段と、前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与手段と、前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理手段とを備えた構成を有している。
この構成により、対象物体の計測3Dデータに不足がある場合にも、そのような計測3Dデータに疑似3Dデータが付加された上で、参照用3Dデータとのマッチングが行われるので、オクルージョン等によって計測3Dデータが不足する場合におけるマッチングの精度を向上でき、よって、対象物体の検出の可能性を向上できる。
上記の物体検出システムは、前記計測3Dデータにおける検出対象領域を特定する領域特定手段をさらに備えていてよく、前記疑似3Dデータ付与手段は、前記検出対象領域に隣接する領域を前記欠落領域として前記疑似3Dデータを付与してよい。
上記の物体検出システムは、3Dデータをノードとするグラフを生成するグラフ生成手段をさらに備えていてよく、前記3Dデータ取得手段は、センシングによって前記現実空間の3D点群データを取得する3D点群データ取得手段と、前記3D点群データから前記計測3Dデータとして特徴点を抽出する特徴点抽出手段とを含んでいてよく、前記記憶手段は、前記参照用3Dデータとして、前記対象物体の特徴点のグラフを記憶してよく、前記疑似3Dデータ付与手段は、前記疑似3Dデータとして疑似特徴点を付与してよく、前記グラフ生成手段は、前記計測3Dデータ及び前記疑似3Dデータをノードとするクエリグラフを生成してよく、前記検出処理手段は、前記クエリグラフを前記クエリ3Dデータとして、前記参照用3Dデータとのグラフマッチングを行ってよい。
この構成により、特徴点のグラフを用いたグラフマッチングによって対象物体を検出できる。なお、センシングによって現実空間の3D点群データを取得する3D点群データ取得手段としては、例えば、デプスセンサ、ステレオカメラ画像を用いたステレオ測距、深層畳み込みニューラルネットワーク(Deep Convolutional Neural Network)を用いて単眼カメラ画像からデプス画像を推定する方法、LiDAR(Light Detection and Ranging)とカメラを組み合わせて密なデプスデータを取得する方法等を採用できる。
上記の物体検出システムは、前記現実空間を撮影して画像を取得する画像取得手段と、前記画像から手前物体を検出する物体検出手段と、前記手前物体の検出結果に基づいて、前記欠落領域を推定する推定手段とをさらに備えていてよく、前記疑似3Dデータ付与手段は、前記推定手段にて推定された前記欠落領域に前記疑似3Dデータを付与してよい。
この構成により、画像(RGBデータ)に対する物体検出によって検出可能な物体については画像から検出され、画像からは検出されない物体について、3Dデータを用いた物体検出で検出をすることができる。
上記の物体検出システムは、前記手前物体をグラフカット処理によって切り出して、切り出した部分のエッジを膨張させた輪郭を算出する輪郭算出手段をさらに備えていてよく、前記推定手段は、前記計測3Dデータから抽出した特徴点であって、前記輪郭に対応する特徴点を含む直方体を前記欠落領域として推定してよい。
上記の物体検出システムにおいて、前記疑似3Dデータ付与手段は、前記欠落領域に奥行き方向に並ぶ複数の仮想平面を設定し、前記仮想平面内において複数の同心楕円上に前記疑似3Dデータを付与してよい。
上記の物体検出システムは、前記現実空間を撮影して画像を取得する画像取得手段をさらに備えていてよく、前記3Dデータ取得手段は、センシングによって前記現実空間の3D点群データを取得する3D点群データ取得手段を備えていてよく、前記領域特定手段は、前記3D点群データと同期する前記画像を用いたセグメント分け情報に基づいて、前記検出対象領域を特定してよい。
この構成により、画像に基づいて検出対象領域を特定できる。
上記の物体検出システムにおいて、前記領域特定手段は、前記3D点群データから、距離が所定の範囲にある領域を除外して前記検出対象領域を特定してよい。
この構成により、無駄な領域を探索することなく、対象物体を検出することができ、検出に要する処理時間を削減できる。例えば、距離が所定の閾値以上である領域を除外してよい。
上記の物体検出システムは、前記3Dデータ取得手段は、センシングによって前記現実空間の3D点群データを取得する3D点群データ取得手段を備えていてよく、前記領域特定手段は、前記3D点群データに基づいて、対象物体を遮蔽する遮蔽領域を前記欠落領域として特定してよい。
この構成により、遮蔽領域に対して疑似3Dデータを付与することができる。
上記の物体検出システムにおいて、前記領域特定手段は、前記検出対象領域に隣接する領域であって、前記3D点群データの距離が前記検出対象領域の前記3D点群データの距離より短く、かつ、前記3D点群データの距離と前記検出対象領域の前記3D点群データとの距離との差が閾値以上である領域を前記遮蔽領域として、前記欠落領域を特定してよい。
この構成により、好適に遮蔽領域を特定できる。
上記の物体検出システムにおいて、前記疑似3Dデータ付与手段は、前記検出対象領域内の起点を中心とする球面上に前記疑似3Dデータを付与してよい。
この構成により、起点を中心とする球面上に疑似3Dデータを付与できる。なお、起点は、検出対象領域から抽出された特徴点であってよい。検出対象領域内の遮蔽領域に近い点を起点とすることができる。また、起点を複数としてもよく、所定の距離を複数設定してもよい。疑似3Dデータ付与手段は、上記に代えて、記憶部に参照用3Dデータが記憶された複数の対象物体を重心で位置合わせして得られた平均分布を用いて疑似3Dデータを付与してよい。
上記の物体検出システムにおいて、前記計測3Dデータよりも前記疑似3Dデータの重みが軽くなるように前記クエリ3Dデータに重みづけがされてよい。
この構成により、実際のセンシングで得られた計測3Dデータの情報をより重視してマッチングを行うことができる。より具体的には、起点から遠い(ないしは検出対象領域から遠い)疑似3Dデータほど重みが軽くなるように重みづけを行ってよい。
本発明の一態様の物体検出装置は、対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段と、現実空間をセンシングして計測3Dデータを取得する3Dデータ取得手段と、前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与手段と、前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理手段とを備えた構成を有している。
この構成によっても、対象物体の計測3Dデータに不足がある場合にも、そのような計測3Dデータに疑似3Dデータが付加された上で、参照用3Dデータとのマッチングが行われるので、オクルージョン等によって計測3Dデータが不足する場合におけるマッチングの精度を向上でき、よって、対象物体の検出の可能性を向上できる。
本発明の一態様の物体検出プログラムは、対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段を備えた情報処理装置に、現実空間をセンシングして計測3Dデータを取得する3Dデータ取得ステップと、前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与ステップと、前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理ステップとを実行させる構成を有している。
この構成によっても、対象物体の計測3Dデータに不足がある場合にも、そのような計測3Dデータに疑似3Dデータが付加された上で、参照用3Dデータとのマッチングが行われるので、オクルージョン等によって計測3Dデータが不足する場合におけるマッチングの精度を向上でき、よって、対象物体の検出の可能性を向上できる。
本発明の一態様の物体検出方法は、対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段を備えた情報処理装置における物体検出方法であって、現実空間をセンシングして計測3Dデータを取得する3Dデータ取得ステップと、前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与ステップと、前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理ステップとを含む構成を有している。
この構成によっても、対象物体の計測3Dデータに不足がある場合にも、そのような計測3Dデータに疑似3Dデータが付加された上で、参照用3Dデータとのマッチングが行われるので、オクルージョン等によって計測3Dデータが不足する場合におけるマッチングの精度を向上でき、よって、対象物体の検出の可能性を向上できる。
本発明によれば、対象物体の計測3Dデータに不足がある場合にも、そのような計測3Dデータに疑似3Dデータが付加された上で、参照用3Dデータとのマッチングが行われるので、オクルージョン等によって計測3Dデータが不足する場合におけるマッチングの精度を向上でき、よって、対象物体の検出の可能性を向上できる。
本発明の第1の実施の形態の物体検出システムの利用態様を示す図 本発明の第1の実施の形態の物体検出システムの構成を示すブロック図 本発明の第1の実施の形態の物体が遮蔽領域において遮蔽されている状態の例を示す図 本発明の第1の実施の形態の3D点群データの取得の例を示す図 本発明の第1の実施の形態の疑似特徴点の付与の例を示す図 本発明の第1の実施の形態のグラフ生成部にて生成されたクエリ3Dグラフの例を示す図 本発明の第1の実施の形態の複数の対象物体の平均分布の生成の例を示す図 本発明の第1の実施の形態のグラフマッチングの概念図 本発明の第1の実施の形態の物体検出システムの動作を示すフロー図 本発明の第2の実施の形態の物体検出システム100の構成を示すブロック図 本発明の第2の実施の形態のRGB−Dカメラによって得られた画像データの例 本発明の第2の実施の形態の画像データと共に3D点群データを可視化した例 本発明の第2の実施の形態の手前物体の検出の結果を示す図 本発明の第2の実施の形態の手前物体検出部によって得られた検出枠に対してグラフカット処理を行って切り出された物体(person)の画像 本発明の第2の実施の形態の二値化によって得られた二値化画像 本発明の第2の実施の形態の二値化画像から生成された輪郭画像 本発明の第2の実施の形態の3DSIFTによって抽出された3Dキーポイントを示す図 本発明の第2の実施の形態の遮蔽空間として推定されるバウンディングボックスを示す図 本発明の第2の実施の形態の推定された遮蔽空間OSの例を示す図 本発明の第2の実施の形態の疑似3Dデータの付与を説明する図 本発明の第2の実施の形態の物体検出システムの動作を示すフロー図
以下、図面を参照して本発明の実施の形態を説明する。なお、以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明の実施にあたっては、実施の形態に応じた具体的構成が適宜採用されてよい。
(第1の実施の形態)
図1は、本発明の第1の実施の形態の物体検出システムの利用態様を示す図である。本実施の形態では、物体検出システムがヘッドマウントディスプレイ(HMD)に適用されている。HMD100は、ユーザUの頭部に装着されて、ユーザUの眼前でホログラム画像を表示する。ユーザUは、画像越しに現実空間も見ることができる。
HMD100は、現実空間を撮影して画像データを取得する画像取得部としてのカメラと、現実空間に対して測距を行って3D点群データを取得する測距部としてのデプスセンサとを備えている。HMD100は、画像データ及び3D点群データを用いて、現実空間にある物体を検出(認識ないし識別)し、検出した物体に関連付けてホログラム画像を生成し、生成したホログラム画像をユーザUの眼前で表示する。
図1の例では、ユーザUの前のテーブルには、物体O1〜O5が存在している。HMD100を装着したユーザUは、物体O1〜O5を含む現実空間をHDM100越しに見ることができるとともに、検出した物体O1〜O5(の一部又は全部)に関連付けて表示された画像を見ることができる。このようなHMD100としては、例えばマイクロソフト社のHOLOLENS(登録商標)を用いることがでる。
図1に示すように、ユーザUが手Uhを伸ばすと、物体O1〜O5に対してこの手Uhが遮蔽物となって、HMD100のカメラやデプスセンサから見た手Uhの裏側は遮蔽領域Sとなる。図1の例では、手Uhによって物体O3の一部が遮蔽され、この被遮蔽部分については、HMD100のカメラやデプスセンサでは物体O3の画像データや3D点群データが得られない。本実施の形態のHMD100は、このような遮蔽(オクルージョン)によって物体の検出ができなくなり、あるいは検出精度が低下するという課題を解決する。
図2は、HDMとして構成される本実施の形態の物体検出システム100の構成を示すブロック図である。物体検出システム100は、上述のように、現実空間を撮影して画像データを取得する画像取得部1と、現実空間に対して測距を行って3D点群データを取得する測距部2とを備えている。画像取得部1と測距部2は、HMDにおいて隣接して設けられ、ほぼ同じ視野を有している。
画像取得部1及び測距部2は、所定のフレームレート(例えば、1/30秒)で撮影及び測距を行い、取得した画像データ及び3D点群データを同期部3に出力する。この3D点群データの各点データは、平面座標値とデプス値(距離)とからなる。すなわち、物体検出システム100では、入力データとして、視野内の各座標について、画像取得部1にて画素値(RGB)が得られ、測距部2にてデプス値(D)が得られる。
同期部3は、画像データと3D点群データとの同期をとって、同期のとれた(同一タイミングで取得された)画像データと3D点群データをセットにして入力データとして情報処理部4に出力する。情報処理部4は、領域特定部41と、特徴点抽出部42と、グラフ生成部43と、疑似3Dデータ付与部44と、検出処理部45とを備えている。
領域特定部41は、画像データと3D点群データとに基づいて、物体検出をすべき領域(検出対象領域)を特定する。具体的には、領域特定部41は、画像データを用いたスーパーピクセル画像によるセグメント分け(小領域への分割)を行う(非特許文献1参照)。より具体的には、領域特定部41は、画像データの画素をノードとみなした最小全域木を構成していく過程で、適時、木の分断を行うことでセグメント分けを行う。
このとき、領域特定部41は、3D点群データに基づいて、距離が所定の閾値(例えば、ユーザUの手が届かない距離)以上である小領域を対象から除外する。これにより、無駄な領域を探索することなく、対象物体を探索することができ、処理時間を削減することができる。領域特定部41は、さらに、測距部2により得られた3D点群データが示すデプス値が互いに近い、互いに隣接するセグメントどうしを連結して、連結領域とする。一般に、1フレームから複数の連結領域が特定される。
この結果、このある物体が遮蔽されていない場合には、当該物体に対応する領域が1つの連結領域とされる。ある物体の一部が遮蔽されている場合は、その可視部分が1つの連結領域とされ、遮蔽部分は別の連結領域(遮蔽領域)とされる。そして、可視領域と遮蔽領域とは互いに接している。
特徴点抽出部42は、領域特定部41において検出対象領域として特定された領域について、3D点群データから特徴点を抽出する。具体的には、特徴点抽出部42は、遮蔽に頑健であるとされる、可観測性を用いたキーポイント抽出手法(非特許文献2参照)を用いて特徴点を抽出する。これにより、対象物体の3D点群データの中で有用な点を特徴点として扱うことができる。ただし、対象物体の大きな割合を覆い隠すような大きな遮蔽がある場合には、わずかな特徴点しか得られないことがある。
そこで、疑似3Dデータ付与部44は、遮蔽がある場合には、その遮蔽領域に疑似特徴点を散布配置し、検出処理部45では、この疑似特徴点も用いて物体検出を行う。領域特定部41における遮蔽領域Sの特定、及び疑似3Dデータ付与部44における疑似特徴点の付与について、以下詳細に説明する。
図3Aは、物体O3が遮蔽領域Sにおいて遮蔽されている状態を示す図である。図3Aの例では、領域特定部41によって物体O3の可視部分が検出対象領域Kとして特定されている。図3Aに示すように、この例では、物体O3は遮蔽領域Sにおいて遮蔽されている。この場合には、図3Bに示すように、遮蔽領域Sにおいては本来得られるはずの物体O3の3D点群データ(図3Bの△:非可視3D点群データ)が得られず、物体O3については、遮蔽されていない検出対象領域Kからしか3D点群データ(図3Bの○:可視3D点群データ)が得られない。
そこで、まず、領域特定部41は、連結領域の中から遮蔽領域Sを特定する。領域特定部41は、ある連結領域A1について、当該連結領域A1に隣接する連結領域A2であって、かつ、連結領域A1との境界において距離(デプス値)の差が所定の閾値以上であり、連結領域A1よりも近い距離にある(小さいデプス値を有する)連結領域A2がある場合に、連結領域A1を検出対象領域Kとするとともに、連結領域A2を連結領域A1の物体に対する遮蔽領域Sとして特定する。
疑似3Dデータ付与部44は、領域特定部41から検出対象領域Kと遮蔽領域Sの特定結果を受けて、遮蔽領域Sと検出対象領域Kとの境界Bを特定し、境界Bに近い可視3D点群データの特徴点を起点特徴点として選択する。図3Cの例では、2つの起点特徴点が選択されている。疑似3Dデータ付与部44は、起点特徴点を中心とする半径の異なる複数の球面(スケール球)上に疑似特徴点を配置する。なお、このスケール球の半径は、対象物体の大きさに応じて可変に設定してよく、複数の対象物体がある場合には、複数のサイズのスケール球を設定してよい。
可視領域である検出対象領域Kについては、物体O3の可視3D点群データが得られており、ここに疑似特徴点を配置すると不要な情報を増やすことになってしまうので、疑似3Dデータ付与部44が疑似特徴点を配置する領域は、同様のデプス値を持つ点群塊、あるいは、同スーパーピクセル内に存在するデプス塊において、手前側に遮蔽物体があると思われるデプス変化が顕著な境界領域の奥側とする。すなわち、遮蔽が原因であれば、手前側に何らかの別物体があるので、その奥側の領域であって、かつ、仮想的に配置する球面の手前側だけに、疑似特徴点を配置する。疑似3Dデータ付与部44は、遮蔽領域Sに疑似特徴点を配置し、物体O3についての可視3D点群データが得られている検出対象領域Kには疑似特徴点を配置しない。
図4は、グラフ生成部43において生成されたクエリ3Dグラフの例を示す図である。グラフ生成部43は、領域特定部41にて特定された領域において特徴点抽出部42において可視領域である検出対象領域から抽出された特徴点及びそれらの特徴点のいずれかを起点特徴点として疑似3Dデータ付与部44で配置された疑似特徴点をクエリ特徴点として、これらのクエリ特徴点をノードとする3Dグラフ(クエリ3Dグラフ)を生成する。なお、グラフ生成部43は、遮蔽がない場合には、検出対象領域から抽出された特徴点のみをクエリ特徴点として、クエリ3Dグラフを生成する。
グラフ生成部43は、クエリ3Dグラフの生成において、対象物体のスケールに応じてノード間の距離に制限を設ける。この制限は静的(固定)、あるいは動的に設定してよい。例えば、対象物体のなかでコップが最大である場合において、コップの幅、奥行き、高さのうち、最大長が15cmであるときは、その30%にあたる4.5cm以下のエッジを生成しないようにし、かつ、15cm以上のエッジを生成しないようにする。
また、グラフ生成部43は、クエリ3Dグラフの生成において、各ノードに、信頼度(確率)に応じて重みづけをする。このとき、グラフ生成部43は、検出対象領域の特徴点には1.0、疑似特徴点にはそれ以下の重みを付与する。具体的には、グラフ生成部43は、疑似特徴点に対して、起点特徴点からの距離が遠いほど小さい重みを付与する。
グラフ生成部43は、これに代えて、起点特徴点を中心とするガウス分布に従って重みを付与してもよい。また、グラフ生成部43は、これに代えて、対象物体の平均分布を用いてもよい。すなわち、対象物体が複数ある場合に、図5に示すようにその平均場を計算し、複数の対象物体の平均分布を生成しておき、これを適用することで、平均分布に従って各疑似特徴点に重みを付与してよい。
検出処理部45は、クエリ3Dグラフと画像データと3D点群データとを用いて、グラフ生成部43で生成されたクエリ3Dグラフと記憶部5に記憶された複数の対象物体の3Dグラフ(参照用3Dグラフ)とのグラフマッチングを行うことで、クエリ3Dグラフが記憶部5に記憶されたいずれの対象物体の参照用3Dグラフに対応するかを探索して対応する対象物体を検出する。
図6は、グラフマッチングの概念図である。図6に示すように、記憶部5には、あらかじめ完全な3DモデルであるCADデータから生成された対象物体の参照用3Dグラフがラベル(図6の例では、「パソコンモニタ」、「ノート」、「コップ」、「筆立て」等)とともに記憶されている。
検出処理部45は、具体的には、非特許文献3に記載のグラフマッチング技術を3Dグラフに拡張する形で応用することで、3Dグラフのグラフマッチングを行う。すなわち、非特許文献3に記載のグラフマッチング技術では、RGBD(画像データと3D点群データ)のD情報(デプス情報)を、空間内からの対象物体の粗いセグメンテーションにしか利用していないが、検出処理部45は、このデプス情報を積極的に利用する。また、非特許文献4には、2D画像向けの技術としてグラフマッチングのアルゴリズムが記載されているが、これを3Dに拡張して検出処理部45におけるグラフマッチングに適用してもよい。これらの非特許文献3及び4の技術を組み合わせることで安定的なグラフマッチングを実現できる。
検出処理部45は、マッチングスコア(尤度)が、所定の閾値以上であって、かつ最大である対象物体を検出し、そのラベルを出力する。検出処理部45は、このラベルとともに、検出した対象物体の位置及び姿勢の情報も出力する。検出された対象物体が複数ある場合には、検出された複数の対象物体の各々について、ラベル、位置、姿勢の情報を出力する。
検出結果画像生成部6は、検出処理部45が検出した対象物体のラベル、位置、姿勢の情報を用いて、表示部7に表示すべきホログラム画像を生成する。この画像は、上述のように、ユーザUが現実空間に重ねて見るべきホログラム画像であり、例えば、検出した対象物体についての関連情報(例えば、ラベルの情報)を示す画像である。表示部7は、検出結果画像生成部6で生成された検出結果画像を表示する。
図7は、物体検出システム100の動作を示すフロー図である。図7に示すフローは、所定のフレームレートで繰り返される。まず、画像取得部1は現実空間を撮影することにより画像データを取得し、測距部2は現実空間を測距することで3D点群データを取得する(ステップS71)。
領域特定部41は、画像データと3D点群データを用いて、検出対象領域を特定する(ステップS72)。具体的には、上述のように、領域特定部41は、画像データをスーパーピクセル(小領域)に分けて、距離が所定の閾値より遠い(デプス値が閾値より大きい)スーパーピクセルを除外した上で、隣り合うスーパーピクセルであってデプス値が近いものどうしを連結して連結領域とする。
そして、領域特定部41は、隣接する2つの連結領域について、デプス値の差が所定の閾値以上である場合に、奥側(デプス値が大きい側)の連結領域を、一部遮蔽された対象物体の検出対象領域Kとして特定し、手前側(デプス値が小さい側)の連結領域を遮蔽領域Sとして特定する。
特徴点抽出部42は、検出対象領域Kから特徴点を抽出する(ステップS73)。疑似3Dデータ付与部44は、遮蔽領域Sがあるか否かを判断する(ステップS74)。疑似3Dデータ付与部44は、領域特定部41にて特定された遮蔽領域Sがある場合には(ステップS74でYES)、検出対象領域Kにおける遮蔽領域Sに近い特徴点を起点特徴点とするスケール球の球面上に疑似特徴点を配置する(ステップS75)。なお、疑似特徴点は遮蔽領域Sに配置し、検出対象領域Kには配置しない。
3Dグラフ生成部43は、遮蔽がない場合には(ステップS74でNO)、特徴点抽出部42にて抽出された特徴点をクエリ特徴点として、当該クエリ特徴点をノードとするクエリ3Dグラフを生成する(ステップS76)。3Dグラフ生成部43は、遮蔽がある場合には(ステップS74でYES)、ステップS75にて疑似3Dデータ付与部44により付与された疑似特徴点と、特徴点抽出部42で検出対象領域Kから抽出された特徴点とを合わせてクエリ特徴点として、このクエリ特徴点をノードとするクエリ3Dグラフを生成する(ステップS76)。
検出処理部45は、グラフ生成部43にて生成されたクエリ3Dグラフと、記憶部5に記憶された参照用3Dグラフとのグラフマッチングを行って、クエリ3Dグラフに対応する参照用3Dグラフを探索する(ステップS77)。検出処理部45は、マッチングスコア(尤度)が最大の参照用3Dグラフのラベルを特定し、その位置及び姿勢を記録する(ステップS78)。
検出結果画像生成部6は、ステップS78で記録されたラベルに関連するホログラム画像を生成し、その位置及び姿勢に従って、表示位置及び表示角度を決定して、検出結果画像を生成する(ステップS79)。表示部7は、ステップS79で生成された検出結果画像を表示する(ステップS80)。
以上説明したように、本実施の形態の物体検出システム100によれば、測距部2が現実空間を測距して得た3D点群データに基づいて、検出処理部45にて3Dグラフマッチングを行って、記憶部5に記憶されている対象物体のなかから対応する物体を検出するにあたって、測距によっても対象物体の一部領域の3D点群データが得られない場合には、疑似3Dデータ付与部44にて当該領域に疑似3D点群データ(特徴点)を付与する。そして、グラフ生成部43は、この疑似3D点群データを測距により得られた3D点群データと同等に扱って、測距により得られた3D点群データと疑似3D点群データとからなるクエリ3D点群データからクエリ3Dグラフを生成し、検出処理部45はこのようにして生成されたクエリ3Dグラフについて記憶部5に記憶された参照用3Dグラフとのマッチングを行う。
これにより、画像取得部1や測距部2において、遮蔽によって対象物体のすべての画像データや3D点群データが得られない場合であっても、グラフマッチングによる対象物体の検出が可能となる。
なお、上記の実施の形態では、疑似3Dデータ付与部44は、遮蔽領域Sにおいて、起点特徴点を中心とするスケール球の表面に疑似特徴点を配置したが、疑似特徴点の配置方法はこれに限られない。疑似3Dデータ付与部44は、例えば、図5に示した平均分布を用いて、疑似特徴点を散布する量や散布するか否かを確率的に決定してもよい。
また、上記の実施の形態では、測距部2において3D点群データを取得するためにデプスセンサを用いる例を説明したが、これに代えて、ステレオカメラを用いてよく、画像データに対してディープラーニングを用いてデプス推定画像を生成する方法(非特許文献5参照)を用いてもよく、あるいは、セマンティックセグメンテーション技術(非特許文献6参照)を適用して、探索するエリアを制限して処理制度と処理時間の削減を図ってもよい。
また、上記の実施の形態では、検出処理部45におけるモデルベースの物体の検出において、グラフマッチングを用いたが、グラフマッチング以外のマッチングによって物体の検出を行ってもよい。例えば、上記の実施の形態では、グラフ生成部43において、特徴点をノードとする3Dグラフを生成したが、これに代えて、クエリ3Dデータとして、特徴点についてSIFT(Scale-Invariant Feature Transform)、SURF(Speeded Up Robust Features)等の局所特徴量を算出し、記憶部5にも参照用3Dデータとして対象物体の局所特徴量を記憶しておき、検出処理部45がSVM(Support Vector Machine)によるマッチングを行うことで対象物体を検出してもよい。
また、上記の実施の形態では、対象物体の3D点群データが不足する欠落領域として、対象物体の一部が遮蔽物体によって遮蔽されている遮蔽領域が生じる場合に、そのような遮蔽領域について疑似特徴点を付与する例を説明したが、上述のように、3D点群データが不足する欠落領域は遮蔽領域に限られない。例えば、対象物体の一部が高光沢である場合にも、そのような部分について3D点群データが十分に得られないことがある。この場合には、画像データの輝度値に基づいてそのような高光沢領域を特定して、疑似特徴点を配置することができる。
また、上記の実施の形態では、物体検出システム100をHMDとして構成し、検出処理部45における物体検出の結果を検出結果画像の生成に用いたが、本発明の実施の形態の物体検出システム100は、HMD以外にも応用可能である。たとえば、物体検出システム100を車両に搭載し、対象物体として歩行者、他車両、標識等を検出して、検出結果を運転制御に反映させるシステムとして構成することも可能である。
また、上記の実施の形態では、物体検出システム100は、すべての構成要素がHMDという1つの装置に搭載されて、物体検出装置を構成していたが、一部又は全部の構成要素が分散して配置されてよく、さらには、分散配置された構成要素の間に通信ネットワークが介在していてもよい。また、物体検出システム100の各構成要素は、コンピュータプログラムに従って動作してよく、CPUによって実行されることで物体検出システム100の各構成要素を実現して動作させる物体検出プログラムが提供されてよい。すなわち、上記の実施の形態の物体検出装置としてのHMDは、物体検出プログラムに従って動作してよい。
(第2の実施の形態)
以下では、本発明の第2の実施の形態を説明する。第1の実施の形態の物体検出システムと第2の実施の形態の物体検出システムとは、現実空間をセンシングして計測3Dデータを取得し、計測3Dデータにおける検出対象領域を特定し、検出対象領域に隣接する欠落領域に、疑似3Dデータを付与し、計測3Dデータ及び疑似3Dデータに基づくクエリ3Dデータと、記憶手段に記憶されている参照用3Dデータとのマッチングを行うことで、対象物体の検出を行うという点において共通する。
以下において、第1の実施の形態と同様の構成については詳細な説明はせず、第1の実施の形態における応用可能な内容は第2の実施の形態にも応用されるものとする。
図8は、第2の実施の形態の物体検出システム100の構成を示すブロック図である。物体検出システム100は、RGB−Dカメラ11と、情報処理部12と、記憶部13と、検出結果画像生成部14と、表示部15とを備えている。情報処理部12は、手前物体検出部21、輪郭算出部22、特徴点抽出部23、遮蔽空間推定部24、疑似3Dデータ付与部25、及び検出処理部26を備えている。
RGB−Dカメラ11は、現実空間を撮影して画像データを取得する画像取得部としての機能及び現実空間に対して測距を行って測距データを取得する測距部としての機能を有している。RGB−Dカメラ11は撮影によって互いに同期した画像データと測距データを取得する。情報処理部12は、RGB−Dカメラ11からの入力、即ち現実空間の画像データ(RBGデータ)及び現実空間の測距データ(3D点群データ、あるいはデプスデータ、Dデータともいう。)に基づいて、記憶部13に記憶された参照用3Dデータとのマッチングをすることで、物体の検出を行う。
記憶部13は、複数種類の物体について、参照用3Dデータを記憶している。後述するように、本実施の形態では、情報処理部12においてクエリ3Dデータと参照用3DデータとのFPFHマッチングが行われるので、記憶部13にも参照用3DデータがFPFH特徴の形式で記憶されている。検出結果画像生成部14は、RBG−Dカメラ11で得られた画像データに対して、情報処理部12における物体の検出結果を重畳して検出結果画像を生成する。表示部15は、検出結果画像を表示する。
図9は、RGB−Dカメラ11によって得られた画像データの例であり、図10は図9の画像データと共にRGB−Dカメラ11によって得られた3D点群データ(計測3Dデータともいう。)を可視化した例である。
図9及び図10の例では、人の手(person)奥側にカップが置かれており、カップの一部は、人の手によって隠されている。本実施の形態は、第1の実施の形態と同様に、このカップのように、画像データが完全に得られていないことからCNN等の画像による物体検出では検出されず、かつ、計測3Dデータも完全に得られておらず計測3Dデータが欠落した欠落領域を含む物体、特に、そのような欠落領域が比較的大きい物体を検出対象として、物体検出を行うものである。
情報処理部12の手前物体検出部21は、RGB−Dカメラ11で得られた画像データ(RGBデータ)を取得して、この画像データに対して画像認識を行うことで、物体を検出する。この物体検出には、例えば、YOLO(You Only Look Once)やSSD(Single Shot MultiBox Detector)のようなCNN(Convolutional Neural Network)をベースとした技術を用いることができる。
図11は、手前物体検出部21による物体検出の結果を示す図である。図11の例では、手前物体検出部21は、検出枠とともに「tv(69%)」、「person(51%)」、「keyboard(51%)」等の識別結果を得ている。このとき、検出枠には、当該物体の大部分が含まれていると考えられる。換言すれば、画像データにおいて物体の大部分が見えている場合に、手前物体検出部21によって当該物体が検出され、カップのように大部分が遮蔽されている物体(被遮蔽物体)は手前物体検出部21では検出されない。よって、手前物体検出部21は、他の物体によって遮蔽されておらず、大部分が画像データに現れている物体、即ち手前物体を検出する。
輪郭算出部22は、手前物体検出部21にて検出された物体の輪郭を算出する。図12は、手前物体検出部21によって得られた検出枠に対してグラフカット処理を行って切り出された物体(person)の画像である。輪郭算出部22は、グラフカットによって切り出された物体の領域を第1の値とし、背景の領域を第2の値とすることで、切り出された物体の領域と背景の領域とを区別する二値化処理を行う。図13は、二値化によって得られた二値化画像である。図13の例では、切り出された物体の領域が白く、背景が黒くなっている。
輪郭算出部22は、さらに、二値化画像のエッジを検出することで輪郭画像を生成する。図14は、二値化画像から生成された輪郭画像である。本実施の形態の輪郭算出部22は、輪郭周辺に被遮蔽物体があることを考慮して、図14に示すように、二値化画像のエッジ部分を膨張させて輪郭画像とする。なお、この輪郭画像における膨張した輪郭は、手前物体によって一部が隠された物体が存在する領域であって、本発明の検出対象領域に相当し、そのような輪郭画像を生成する輪郭算出部22は、本発明の領域特定手段に相当する。
特徴点抽出部23は、RGB−Dカメラ11で得られた3D点群データ(計測3Dデータ)の中から、輪郭算出部22にて得られた輪郭に対応する3Dキーポイントを抽出する。本実施の形態の特徴点抽出部23は、3Dキーポイントとして、3DSIFT(Scale-Invariant Feature Transform)特徴を利用して3DSIFT特徴点を抽出する。
図15は、3DSIFTによって抽出された3Dキーポイントを示す図である。特徴点抽出部23は、図15に示す3Dキーポイントの中から、輪郭算出部22にて算出された膨張された輪郭に対応する3Dキーポイントを抽出する。上述のように、輪郭算出部22では、輪郭画像として手前物体の周辺領域が得られており、かつ、RGB−Dカメラ11で得られる画像データと3D点群データとは互いに対応しているので、特徴点抽出部23がこの輪郭画像に対応する3Dキーポイントを抽出することで、手前物体の周辺の3Dキーポイントを抽出できる。
遮蔽空間推定部24は、疑似3Dデータを付与するための遮蔽空間を推定する。遮蔽空間推定部24は、手前物体の周辺から抽出された3Dキーポイントを包含する空間を遮蔽空間として推定する。具体的には、遮蔽空間推定部24は、特徴点抽出部23によって抽出された手前物体周辺の3Dキーポイントをすべて含む直方体(バウンディングボックス)を遮蔽空間として推定する。
図16は、遮蔽空間として推定されるバウンディングボックスを示す図である。この例では、RGB−Dカメラ11は、光軸が水平になる姿勢とされており、被遮蔽物体は水平面に置かれていると仮定されている。RGB−Dカメラ11を中心として、光軸方向がX3方向とされ、垂直下向きにX2方向が定義され、X3方向及びX2方向に垂直な方向がX1とされる。
特徴点抽出部22で抽出された3Dキーポイントのうち、X1〜X3の各軸に関して最大値及び最小値がそれぞれ、maxX1、maxX2、maxX3、minX1、minX2、minX3とされて、これらのmaxX1、maxX2、maxX3、minX1、minX2、minX3により遮蔽空間OSとしての直方体が定義される。図17は、推定された遮蔽空間OSの例を示す図である。
このように、手前物体の周辺から抽出した3Dキーポイントを包含する直方体を遮蔽空間とすることで、この遮蔽空間OSには、手前物体の奥側、即ち被遮蔽物体の3Dデータが欠落した領域(欠落領域)が含まれることになる。よって、この遮蔽空間OSに疑似3Dデータを付与することで、欠落領域に疑似3Dデータを付与することができる。なお、特徴点抽出部23で抽出された手前物体周辺の3Dキーポイントは、遮蔽空間推定部24における遮蔽空間OSの推定にのみ用いられ、マッチングの際には後述するようにFPFH特徴が用いられる。
疑似3Dデータ付与部25は、遮蔽空間に疑似3Dデータを付与する。この疑似3Dデータは、被遮蔽物体上の点として疑似的に付与されるものである。疑似3Dデータ付与部25は、遮蔽空間OS内に、X1X2平面に平行で、かつ、X3方向に所定の間隔で並ぶ複数の仮想平面を設定し、それらの仮想平面上に疑似3Dデータを分布させる。
大部分が遮蔽されている被遮蔽物体は、その重心も遮蔽されている可能性が高い。そこで、疑似3Dデータ付与部25は、各仮想平面上の楕円上に疑似3Dデータを分布させる。楕円を採用するのは、遮蔽物体の表面の存在確率は、遮蔽空間の中心から放射状に減少すると考えられるからである。
図18は、疑似3Dデータの付与を説明する図である。図18の例では、上段に示すように、被遮蔽物体であるカップは、右側の大部分が遮蔽されているとする。図18の下段の左は、カップの真の3Dデータであり、その一部が計測され、他の一部は手前物体に遮蔽されている。図18の下段中央は、疑似3Dデータが遮蔽空間の中心を中心とする複数の同心楕円上に3D疑似データが分布されることを示している。疑似3Dデータ付与部25は、図18の下段の右に示すように、遮蔽空間においてX3方向に間隔を空けて設定される複数の仮想平面P1〜PHの各々において複数の同心楕円上に疑似3Dデータを付与する。
疑似3Dデータ付与部25は、下式(1)によって疑似3Dデータを付与する。
ここで、
である。
また、kは半径方向の位置であり、mは疑似3Dデータの密度であり、hは等間隔で並んだ仮想平面の間隔である。また、図18に示すように、Kは楕円の周方向の間隔であり、Mは半径方向の間隔であり、Hは深さ方向(X3方向)の仮想平面の数である。M及びKを調整することで、疑似3Dデータの数をダウンサンプリング後の計測3Dデータの数に適合させることができる。このように、疑似3Dデータ付与部25は、H×K×M個の疑似3Dデータを付与する。
検出処理部26は、可視領域で計測された計測3Dデータと遮蔽領域に付与された疑似3Dデータを用いて、記憶部13に記憶された参照用3Dデータとのマッチングを行う。このマッチングにはPFH(Point Feature Histogram)、FPFH(Fast Point Feature Histogram)、SHOT(Signature of Histograms of OrienTations)等のマッチング手法を用いることができる。
具体的には、検出処理部26は、疑似3Dデータ付与部25によって付与された疑似3Dデータと疑似3Dデータ付近の計測3DデータとからFPFH特徴(疑似FPFH特徴)を抽出して、これをクエリ3Dデータとし、このクエリ3Dデータについて、FPFHでマッチングを行う。これにより、欠落領域が原因で下がった尤度を底上げして、正常な検出がしやすくなる。特に、マッチング処理の後段ステージで特徴量記述を改善できる。
検出結果画像生成部14は、検出処理部26が検出した対象物体の重心を求め、RGB−Dカメラ11が取得したRGB−Dデータに対して、この重心位置を示すアノテーションを重畳させた検出結果画面を生成する。表示部15は、検出結果画像生成部14で生成された検出結果画像を表示する。
図19は、物体検出システム100の動作を示すフロー図である。図19に示すフローは、所定のフレームレートで繰り返される。まず、RGB−Dカメラ11は現実空間を撮影することによりRGB−Dデータ、即ち画像データ及び3D点群データを取得する(ステップS91)。
手前物体検出部21は、YOLOによって画像データから手前物体を検出する(ステップS92)。そして、輪郭算出部22は、検出された手前物体に対してグラフカッティング処理を行い、手前物体を切り出し、切り出した手前物体を二値化し、二値化画像のエッジを検出することで輪郭画像を生成する(ステップS93)。このとき、上述のとおり、この輪郭算出部22は、二値画像のエッジを膨張させることである程度の幅のある輪郭を算出する。
次に、特徴点抽出部23は、RGB−Dカメラ11によって得られた3D点群データから、輪郭の位置に対応する3Dキーポイントを抽出する(ステップS94)。遮蔽空間推定部24は、抽出された3Dキーポイントをすべて包含する直方体を求め、この直方体を遮蔽空間OSとして推定する(ステップS95)。
疑似3Dデータ付与部25は、遮蔽空間に複数の仮想平面を設定し、各仮想平面内に疑似3Dデータを付与する(ステップS96)。このとき、各仮想平面では、複数の同心楕円上に疑似3Dデータを付与する。
このようにして遮蔽空間OSに疑似3Dデータが付与されると、検出処理部26は、RGB−Dカメラ11で得られた可視領域の計測3DデータからFPFH特徴を抽出し、また、疑似3Dデータを疑似FPFH特徴とし、これらのFPFH特徴及び疑似FPFH特徴を用いて、FPFHによるマッチングを行うことで、被遮蔽物体を検出する(ステップS97)。
検出結果画面生成部14は、検出された被遮蔽物体の重心位置を算出し(ステップS98)、検出結果画面を生成する(ステップS99)。
以上のように、本発明の第2の実施の形態の物体検出システム100によれば、画像データから検出された物体を手前物体として、その裏側に遮蔽領域を設定して疑似3Dデータを付与するので、画像データからは検出されない被遮蔽物体についても、モデルベースの3次元物体検出によって物体検出をすることができる。
なお、上記の実施の形態では、手前物体を切り出して二値化し、そのエッジを検出して膨張した輪郭を生成し、その輪郭に対応する3Dキーポイントを抽出し、抽出された3Dキーポイントを包含する直方体を遮蔽空間としたが、手前物体の裏側に疑似3Dデータを付与するための遮蔽空間を設定する手法はこれに限られない。例えば、手前物体を検出した際の検出枠からRGB−Dカメラ11の光軸方向(X3方向)に所定の長さで延びる直方体を遮蔽空間としてもよい。なお、この場合には、膨張した輪郭(即ち、検出対象領域)を算出する必要はない。また、遮蔽空間は直方体以外の形状であってもよい。
また、上記の実施の形態では、物体検出の結果をアノテーションの重畳に用いたが、物体検出の結果の応用例はこれに限らず、物体検出の結果は、例えば、トラッキングをする際のスタート地点の認識やロボットにおけるピッキング等、種々の応用が可能である。
本発明は、対象物体の計測3Dデータに不足がある場合にも、そのような計測3Dデータに疑似3Dデータが付加された上で、参照用3Dデータとのマッチングが行われるので、オクルージョン等によって計測3Dデータが不足する場合におけるマッチングの精度を向上でき、よって、対象物体の検出の可能性を向上でき、現実空間をセンシングして対象物体を検出する物体検出システム等として有用である。
100 物体検出システム(HMD)
1 画像取得部
2 測距部
3 同期部
4 情報処理部
41 領域特定部
42 特徴点抽出部
43 グラフ生成部
44 疑似3Dデータ付与部
45 検出処理部
5 記憶部
6 検出結果画像生成部
7 表示部
11 RGB−Dカメラ
12 情報処理部
13 記憶部
14 検出結果画像生成部
15 表示部
21 手前物体検出部
22 輪郭算出部
23 特徴点抽出部
24 遮蔽空間推定部
25 疑似3Dデータ付与部
26 検出処理部
K 検出対象領域
S 遮蔽領域
OS 遮蔽空間

Claims (15)

  1. 対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段と、
    現実空間をセンシングして計測3Dデータを取得する3Dデータ取得手段と、
    前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与手段と、
    前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理手段と、
    を備えた物体検出システム。
  2. 前記計測3Dデータにおける検出対象領域を特定する領域特定手段をさらに備え、
    前記疑似3Dデータ付与手段は、前記検出対象領域に隣接する領域を前記欠落領域として前記疑似3Dデータを付与する、
    請求項1に記載の物体検出システム。
  3. 3Dデータをノードとするグラフを生成するグラフ生成手段をさらに備え、
    前記3Dデータ取得手段は、センシングによって前記現実空間の3D点群データを取得する3D点群データ取得手段と、前記3D点群データから前記計測3Dデータとして特徴点を抽出する特徴点抽出手段とを含み、
    前記記憶手段は、前記参照用3Dデータとして、前記対象物体の特徴点のグラフを記憶し、
    前記疑似3Dデータ付与手段は、前記疑似3Dデータとして疑似特徴点を付与し、
    前記グラフ生成手段は、前記計測3Dデータ及び前記疑似3Dデータをノードとするクエリグラフを生成し、
    前記検出処理手段は、前記クエリグラフを前記クエリ3Dデータとして、前記参照用3Dデータとのグラフマッチングを行う、
    請求項1に記載の物体検出システム。
  4. 前記現実空間を撮影して画像を取得する画像取得手段と、
    前記画像から手前物体を検出する物体検出手段と、
    前記手前物体の検出結果に基づいて、前記欠落領域を推定する推定手段と、をさらに備え、
    前記疑似3Dデータ付与手段は、前記推定手段にて推定された前記欠落領域に前記疑似3Dデータを付与する、
    請求項1に記載の物体検出システム。
  5. 前記手前物体をグラフカット処理によって切り出して、切り出した部分のエッジを膨張させた輪郭を算出する輪郭算出手段をさらに備え、
    前記推定手段は、前記計測3Dデータから抽出した特徴点であって、前記輪郭に対応する特徴点を含む直方体を前記欠落領域として推定する、
    請求項4に記載の物体検出システム。
  6. 前記疑似3Dデータ付与手段は、前記欠落領域に奥行き方向に並ぶ複数の仮想平面を設定し、前記仮想平面内において複数の同心楕円上に前記疑似3Dデータを付与する、
    請求項5に記載の物体検出システム。
  7. 前記現実空間を撮影して画像を取得する画像取得手段をさらに備え、
    前記3Dデータ取得手段は、センシングによって前記現実空間の3D点群データを取得する3D点群データ取得手段を備え、
    前記領域特定手段は、前記3D点群データと同期する前記画像を用いたセグメント分け情報に基づいて、前記検出対象領域を特定する、
    請求項2に記載の物体検出システム。
  8. 前記領域特定手段は、前記3D点群データから、距離が所定の範囲にある領域を除外して前記検出対象領域を特定する、請求項6に記載の物体検出システム。
  9. 前記3Dデータ取得手段は、センシングによって前記現実空間の3D点群データを取得する3D点群データ取得手段を備え、
    前記領域特定手段は、前記3D点群データに基づいて、対象物体を遮蔽する遮蔽領域を前記欠落領域として特定する、
    請求項2に記載の物体検出システム。
  10. 前記領域特定手段は、前記検出対象領域に隣接する領域であって、前記3D点群データの距離が前記検出対象領域の前記3D点群データの距離より短く、かつ、前記3D点群データの距離と前記検出対象領域の前記3D点群データとの距離との差が閾値以上である領域を前記遮蔽領域として、前記欠落領域を特定する、請求項9に記載の物体検出システム。
  11. 前記疑似3Dデータ付与手段は、前記検出対象領域内の起点を中心とする球面上に前記疑似3Dデータを付与する、請求項9又は10に記載の物体検出システム。
  12. 前記計測3Dデータよりも前記疑似3Dデータの重みが軽くなるように前記クエリ3Dデータに重みづけがされる、請求項1ないし11のいずれかに記載の物体検出システム。
  13. 対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段と、
    現実空間をセンシングして計測3Dデータを取得する3Dデータ取得手段と、
    前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与手段と、
    前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理手段と、
    を備えた物体検出装置。
  14. 対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段を備えた情報処理装置に、
    現実空間をセンシングして計測3Dデータを取得する3Dデータ取得ステップと、
    前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与ステップと、
    前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理ステップと、
    を実行させる物体検出プログラム。
  15. 対象物体の3Dデータを参照用3Dデータとして記憶する記憶手段を備えた情報処理装置における物体検出方法であって、
    現実空間をセンシングして計測3Dデータを取得する3Dデータ取得ステップと、
    前記対象物体についての計測3Dデータが不足している欠落領域に、疑似3Dデータを付与する疑似3Dデータ付与ステップと、
    前記計測3Dデータ及び前記疑似3Dデータに基づくクエリ3Dデータと、前記参照用3Dデータとのマッチングを行うことで、前記対象物体の検出を行う検出処理ステップと、
    を含む物体検出方法。
JP2017184066A 2017-01-27 2017-09-25 物体検出システム、物体検出装置、物体検出プログラム、及び物体検出方法 Active JP6851295B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017012604 2017-01-27
JP2017012604 2017-01-27

Publications (2)

Publication Number Publication Date
JP2018124973A true JP2018124973A (ja) 2018-08-09
JP6851295B2 JP6851295B2 (ja) 2021-03-31

Family

ID=63111468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017184066A Active JP6851295B2 (ja) 2017-01-27 2017-09-25 物体検出システム、物体検出装置、物体検出プログラム、及び物体検出方法

Country Status (1)

Country Link
JP (1) JP6851295B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042816A (ja) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 物体検出方法、装置、機器、記憶媒体及び車両
KR20200132065A (ko) * 2019-05-15 2020-11-25 주식회사 씨에스아이비젼 3d 포인트 클라우드를 이용한 2d 영상에서의 피사체 위치 계측 시스템
JPWO2020250620A1 (ja) * 2019-06-14 2020-12-17
JP2021058099A (ja) * 2019-10-03 2021-04-15 国立大学法人京都大学 農作業機
CN112907760A (zh) * 2021-02-09 2021-06-04 浙江商汤科技开发有限公司 三维对象的标注方法及装置、工具、电子设备和存储介质
KR20210144887A (ko) * 2020-02-14 2021-11-30 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 판독 가능한 저장 매체
JP2022043749A (ja) * 2020-09-04 2022-03-16 株式会社セルシス 情報処理装置、情報処理システム、情報処理方法及びプログラム
WO2023188179A1 (ja) * 2022-03-30 2023-10-05 日本電信電話株式会社 三次元点群セグメンテーション装置、三次元点群セグメンテーション方法、及び三次元点群セグメンテーションプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232593A (ja) * 2006-03-01 2007-09-13 Toyota Motor Corp 物体検出装置
JP2011098195A (ja) * 2009-10-08 2011-05-19 Fujifilm Corp 構造物検出装置および方法ならびにプログラム
JP2013002909A (ja) * 2011-06-15 2013-01-07 Mitsubishi Electric Corp 物体識別装置及び物体識別プログラム
JP2014032605A (ja) * 2012-08-06 2014-02-20 Nec Corp 画像認識装置、画像認識方法および画像認識プログラム
JP2015123534A (ja) * 2013-12-26 2015-07-06 トヨタ自動車株式会社 載置判断方法、載置方法、載置判断装置及びロボット

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007232593A (ja) * 2006-03-01 2007-09-13 Toyota Motor Corp 物体検出装置
JP2011098195A (ja) * 2009-10-08 2011-05-19 Fujifilm Corp 構造物検出装置および方法ならびにプログラム
JP2013002909A (ja) * 2011-06-15 2013-01-07 Mitsubishi Electric Corp 物体識別装置及び物体識別プログラム
JP2014032605A (ja) * 2012-08-06 2014-02-20 Nec Corp 画像認識装置、画像認識方法および画像認識プログラム
JP2015123534A (ja) * 2013-12-26 2015-07-06 トヨタ自動車株式会社 載置判断方法、載置方法、載置判断装置及びロボット

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042816A (ja) * 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 物体検出方法、装置、機器、記憶媒体及び車両
US11379699B2 (en) 2018-09-07 2022-07-05 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Object detection method and apparatus for object detection
KR20200132065A (ko) * 2019-05-15 2020-11-25 주식회사 씨에스아이비젼 3d 포인트 클라우드를 이용한 2d 영상에서의 피사체 위치 계측 시스템
KR102256583B1 (ko) 2019-05-15 2021-05-26 주식회사 씨에스아이비젼 3d 포인트 클라우드를 이용한 2d 영상에서의 피사체 위치 계측 시스템
JPWO2020250620A1 (ja) * 2019-06-14 2020-12-17
WO2020250620A1 (ja) * 2019-06-14 2020-12-17 富士フイルム株式会社 点群データ処理装置、点群データ処理方法及びプログラム
JP7344289B2 (ja) 2019-06-14 2023-09-13 富士フイルム株式会社 点群データ処理装置、点群データ処理方法及びプログラム
JP2021058099A (ja) * 2019-10-03 2021-04-15 国立大学法人京都大学 農作業機
JP7246641B2 (ja) 2019-10-03 2023-03-28 国立大学法人京都大学 農作業機
JP2022522242A (ja) * 2020-02-14 2022-04-14 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド 画像処理方法及び装置、電子機器、並びにコンピュータ可読記憶媒体
KR20210144887A (ko) * 2020-02-14 2021-11-30 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 판독 가능한 저장 매체
KR102668641B1 (ko) * 2020-02-14 2024-05-29 베이징 센스타임 테크놀로지 디벨롭먼트 컴퍼니 리미티드 이미지 처리 방법 및 장치, 전자 기기, 컴퓨터 판독 가능한 저장 매체
JP2022043749A (ja) * 2020-09-04 2022-03-16 株式会社セルシス 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN112907760A (zh) * 2021-02-09 2021-06-04 浙江商汤科技开发有限公司 三维对象的标注方法及装置、工具、电子设备和存储介质
WO2023188179A1 (ja) * 2022-03-30 2023-10-05 日本電信電話株式会社 三次元点群セグメンテーション装置、三次元点群セグメンテーション方法、及び三次元点群セグメンテーションプログラム

Also Published As

Publication number Publication date
JP6851295B2 (ja) 2021-03-31

Similar Documents

Publication Publication Date Title
JP6851295B2 (ja) 物体検出システム、物体検出装置、物体検出プログラム、及び物体検出方法
US11727661B2 (en) Method and system for determining at least one property related to at least part of a real environment
Feng et al. Local background enclosure for RGB-D salient object detection
Cheng et al. Global contrast based salient region detection
CN107392958B (zh) 一种基于双目立体摄像机确定物体体积的方法及装置
WO2015161816A1 (en) Three-dimensional facial recognition method and system
KR101486543B1 (ko) 3차원 객체 인식을 위한 rgb-d 영상 기반 객체 구역화 및 인식 방법 및 장치
US10204284B2 (en) Object recognition utilizing feature alignment
US10339657B2 (en) Character detection apparatus and method
Desai et al. A window to your smartphone: exploring interaction and communication in immersive vr with augmented virtuality
Chansri et al. Hand gesture recognition for Thai sign language in complex background using fusion of depth and color video
Wang et al. Real-time hand posture recognition based on hand dominant line using kinect
US11106949B2 (en) Action classification based on manipulated object movement
KR101337423B1 (ko) 깊이 정보와 움직임 정보를 이용한 움직임 객체 검출 및 추적방법
Kordelas et al. Viewpoint independent object recognition in cluttered scenes exploiting ray-triangle intersection and SIFT algorithms
Segundo et al. Real-time scale-invariant face detection on range images
Ashraf et al. Motion retrieval using consistency of epipolar geometry
KR101357581B1 (ko) 깊이 정보 기반 사람의 피부 영역 검출 방법
Karbasi et al. Real-time hand detection by depth images: A survey
Feng et al. HOSO: Histogram of surface orientation for RGB-D salient object detection
Mitra et al. Seethrough: Finding objects in heavily occluded indoor scene images
CN110858404B (zh) 一种基于区域偏移的识别方法及终端
JP6717769B2 (ja) 情報処理装置及びプログラム
Bermudez et al. Comparison of natural feature descriptors for rigid-object tracking for real-time augmented reality
KR101828340B1 (ko) 객체 추출 방법 및 그 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210309

R150 Certificate of patent or registration of utility model

Ref document number: 6851295

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250