JP2018073119A - 物体識別装置、物体識別プログラム及び物体識別方法 - Google Patents

物体識別装置、物体識別プログラム及び物体識別方法 Download PDF

Info

Publication number
JP2018073119A
JP2018073119A JP2016212047A JP2016212047A JP2018073119A JP 2018073119 A JP2018073119 A JP 2018073119A JP 2016212047 A JP2016212047 A JP 2016212047A JP 2016212047 A JP2016212047 A JP 2016212047A JP 2018073119 A JP2018073119 A JP 2018073119A
Authority
JP
Japan
Prior art keywords
finger
shape
unit
model
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016212047A
Other languages
English (en)
Inventor
一樹 長村
Kazuki Nagamura
一樹 長村
村瀬 太一
Taichi Murase
太一 村瀬
勇作 藤井
Yusaku Fujii
勇作 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016212047A priority Critical patent/JP2018073119A/ja
Priority to US15/724,313 priority patent/US20180121745A1/en
Publication of JP2018073119A publication Critical patent/JP2018073119A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物体の一部が手指に隠れても、物体が識別できるようにする。【解決手段】物体に手指が接しているか否かを判断する判断部と、前記判断部により前記手指が前記物体に接していると判断された場合に、前記手指の形状から、前記物体の手指により隠れている領域の形状を特定する特定部と、前記特定部により特定された形状に基づいて、前記物体を識別する識別部とを有することを特徴とする。【選択図】図8

Description

本発明は、物体識別装置、物体識別プログラム及び物体識別方法に関する。
従来より、ユーザが手指を使って物体とインタラクションするプロジェクタカメラシステムが知られている。当該プロジェクタカメラシステムでは、操作対象となる物体を識別し、識別した物体に対してユーザが行った操作を把握することで、当該物体の状態の変化を推定し、推定結果に応じた画像を投影する。
例えば、当該プロジェクタカメラシステムを飲食店等に設置した場合について説明する。飲食店等では、ユーザが、物体(例えば、グラス)内の飲み物を飲むために、当該グラスを手指で把持し、傾ける操作を行う。このような操作をプロジェクタカメラシステムが把握し、当該グラスの傾きを算出することで、当該グラスの状態(中身の残量)の変化を推定することができる。この結果、プロジェクタカメラシステムでは、例えば、追加注文に適した画像を適切なタイミングでユーザに提供することができる。
特開2001−282456号公報
ここで、上記プロジェクタカメラシステムにおいて、操作対象となる物体の状態の変化を推定するにあたっては、手指で把持された物体を、形状等に基づいて正しく識別し、物体の位置、角度等の情報を精度よく算出することが求められる。
しかしながら、手指で把持された物体の場合、物体の一部が手指によって隠れてしまうため、正しく物体を識別することは容易ではない。
一つの側面では、物体の一部が手指に隠れても、物体が識別できるようにすることを目的としている。
一態様によれば、物体識別装置は、
物体に手指が接しているか否かを判断する判断部と、
前記判断部により前記手指が前記物体に接していると判断された場合に、前記手指の形状から、前記物体の手指により隠れている領域の形状を特定する特定部と、
前記特定部により特定された形状に基づいて、前記物体を識別する識別部とを有することを特徴とする。
物体の一部が手指に隠れても、物体が識別できるようになる。
プロジェクタカメラシステムの適用例を示す図である。 プロジェクタカメラシステムのシステム構成の一例を示す図である。 情報処理装置のハードウェア構成の一例を示す図である。 基本形状テーブルの一例を示す図である。 手指モデルテーブルの一例を示す図である。 取っ手モデルテーブルの一例を示す図である。 物体モデルテーブルの一例を示す図である。 物体識別部の機能構成の一例を示す図である。 物体識別処理(非接触時)の概要を示す図である。 非接触時の物体識別結果、位置情報及び角度情報の一例を示す図である。 物体識別処理(接触時)の概要を示す図である。 隠れ物体形状特定処理の概要を示す図である。 統合処理の概要を示す図である。 接触時の物体識別結果、位置情報及び角度情報の一例を示す図である。 物体識別処理の第1のフローチャートである。 物体識別処理の第2のフローチャートである。
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
[第1の実施形態]
<プロジェクタカメラシステムの適用例>
はじめに、第1の実施形態に係るプロジェクタカメラシステムを飲食店等の店舗におけるメニューの自動表示に適用した場合の適用例について説明する。図1は、プロジェクタカメラシステムの適用例を示す図である。
図1に示すように、プロジェクタカメラシステム100は、距離測定装置120と、撮影装置121と、プロジェクタ装置130と、物体識別装置の一例である情報処理装置140とを有する。距離測定装置120、撮影装置121及びプロジェクタ装置130と、情報処理装置140とは、通信ケーブル141を介して通信可能に接続されている。距離測定装置120、撮影装置121、プロジェクタ装置130は、店舗内の天井に取り付けられた照明器具のハウジング110内に設置されている。
店舗内には、テーブル150と椅子151とが設置されており、利用者160が、店舗より飲食サービスの提供を受ける。図1(a)の例は、テーブル150上に、飲食用の各種容器(グラス170、小鉢171、小皿172等の物体)が置かれ、利用者160が、グラス170内の飲み物を飲んでいるシーンを示している。
距離測定装置120は、テーブル150の上面を含む所定領域を測定範囲として測定を行い、距離画像データを生成する。同様に、撮影装置121は、テーブル150の上面を含む所定領域を撮影範囲として撮影を行い、RGB画像データを生成する。また、プロジェクタ装置130は、テーブル150の上面を投影範囲として投影画像データの投影を行う。
なお、第1の実施形態では、店舗内のプロジェクタカメラシステム100が設置された空間内の所定の基準点を原点とし、テーブル150の上面に平行な面をxy平面、xy平面に直交する軸をz軸とおく。これにより、店舗内のプロジェクタカメラシステム100が設置された空間内の任意の位置が、x座標、y座標、z座標により特定されることになる。
プロジェクタカメラシステム100の場合、利用者160の手指でグラス170が把持された状態であっても、手指に隠れた領域の形状を特定できる。このため、プロジェクタカメラシステム100では、グラス170をリアルタイムに正しく識別することができる。この結果、プロジェクタカメラシステム100によれば、グラス170の傾きを精度よく算出し、グラス170の状態(グラス170内の飲み物の残量がゼロになったこと)をリアルタイムに推定することが可能になる。
図1(b)は、プロジェクタカメラシステム100が、グラス170内の飲み物の残量がゼロになったと推定した直後に、利用者160が、グラス170をテーブル150上に戻した様子を示している。
プロジェクタカメラシステム100では、物体の状態(グラス170内の飲み物の残量がゼロになったこと)を推定すると、物体の状態に則した投影画像データ180を、プロジェクタ装置130を介して、テーブル150上に投影する。物体の状態に則した投影画像データ180とは、例えば、グラス170内の飲み物がアルコール類であった場合にあっては、アルコール類の追加注文を行うためのメニューを含む投影画像データを指す。
<プロジェクタカメラシステムのシステム構成>
次に、プロジェクタカメラシステム100のシステム構成について説明する。図2は、プロジェクタカメラシステムのシステム構成の一例を示す図である。
図2に示すように、距離測定装置120により測定された距離画像データは、情報処理装置140に入力される。同様に、撮影装置121により撮影されたRGB画像データは、情報処理装置140に入力される。なお、距離画像データ内の各画素により特定される、空間内の位置を示す座標(x、y、z座標)と、RGB画像データ内の各画素により特定される、空間内の位置を示す座標(x、y、z座標)とは、互いに一致するように調整されている。
情報処理装置140より送信される投影画像データはプロジェクタ装置130に入力され、プロジェクタ装置130により、テーブル150の上面に投影される。
情報処理装置140には、物体識別プログラム、物体状態推定プログラム、投影画像出力プログラムがインストールされている。情報処理装置140は、当該プログラムを実行することで、物体識別部210、物体状態推定部220、投影画像出力部230として機能する。
物体識別部210は、距離画像データ及びRGB画像データに基づいて利用者160の手指を検出し、手指モデル情報記憶部250に格納された手指モデルテーブルを参照することで、手指モデルを特定するとともに、手指モデルの状態量を算出する。手指モデルの状態量とは、手指モデルに含まれる各骨格の位置を示す位置情報及び角度を示す角度情報を指す。
また、物体識別部210は、距離画像データ及びRGB画像データに基づいてテーブル150上に置かれた物体を検出する。物体識別部210は、検出した物体の位置と、特定した手指モデルの位置とに基づいて、利用者160の手指がいずれかの物体に所定の状態(例えば、物体を把持した状態)で接触しているか否かを判断する。
利用者160の手指がいずれかの物体に所定の状態で接触していると判断しなかった場合、物体識別部210は、基本形状情報記憶部240に格納された基本形状テーブルと、物体モデル情報記憶部270に格納された物体モデルテーブルとを参照する。これにより、物体識別部210は、検出した物体を識別する。また、物体識別部210は、非接触時の当該物体識別結果を、当該物体の位置を示す位置情報及び角度を示す角度情報と対応付けて物体状態推定部220に通知する。
一方、利用者160の手指がいずれかの物体に所定の状態で接触していると判断した場合、物体識別部210は、接触時の手指モデルと、手指により隠れた領域の物体の形状候補とを対比することで、手指により隠れた領域の物体の形状を特定する。
なお、第1の実施形態では、手指により隠れた領域が、グラス170の取っ手であるとして説明する。具体的には、物体識別部210は、取っ手モデル情報記憶部260に格納された取っ手モデルテーブルより、手指により隠れた領域の形状候補として、各種取っ手モデルを読み出す。また、物体識別部210は、読み出した各種取っ手モデルの形状を、手指モデルの状態量に基づいて算出される手指の形状と対比することで、いずれかの取っ手モデルを特定する。
更に、物体識別部210は、接触時に検出した物体の形状(手指により隠れていない領域の形状)と、接触時に特定した取っ手モデルとを統合し、物体モデル情報記憶部270に格納された物体モデルテーブルと対比することで、物体を識別する。また、物体識別部210は、接触時の当該物体識別結果を、当該物体の位置を示す位置情報及び角度を示す角度情報と対応付けて物体状態推定部220に通知する。
物体状態推定部220は、物体識別部210より、非接触時または接触時の物体識別結果、位置情報及び角度情報を取得する。また、物体状態推定部220は、取得した物体識別結果、位置情報及び角度情報に基づいて、物体の状態を推定し、推定結果を物体状態情報として、投影画像出力部230に通知する。
投影画像出力部230は、物体状態推定部220より、物体状態情報を取得する。また、投影画像出力部230は、取得した物体状態情報に基づいて、プロジェクタ装置130に送信すべき投影画像データを選択する。更に、投影画像出力部230は、選択した投影画像データをプロジェクタ装置130に送信する。
これにより、プロジェクタ装置130は、テーブル150上の各種物体の状態に応じた投影画像データを、テーブル150の上面に投影することができる。
<情報処理装置のハードウェア構成>
次に、情報処理装置140のハードウェア構成について説明する。図3は、情報処理装置のハードウェア構成の一例を示す図である。
図3に示すように、情報処理装置140は、CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303、補助記憶装置304を有する。また、情報処理装置140は、操作装置305、I/F(Interface)装置306、ドライブ装置307を有する。なお、情報処理装置140の各部は、バス308を介して相互に接続されている。
CPU301は、補助記憶装置304にインストールされた各種プログラム(例えば、物体識別プログラム、物体状態推定プログラム、投影画像出力プログラム等)を実行するコンピュータである。ROM302は、不揮発性メモリである。ROM302は、補助記憶装置304に格納された各種プログラムをCPU301が実行するために必要な各種プログラム、データ等を格納する主記憶装置として機能する。具体的には、ROM302はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する。
RAM303は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリであり、主記憶装置として機能する。RAM303は、補助記憶装置304に格納された各種プログラムがCPU301によって実行される際に展開される、作業領域を提供する。
補助記憶装置304は、各種プログラムや、各種プログラムが実行されることで生成される情報、ならびに各種プログラムが実行される際に用いられる情報を格納する。基本形状情報記憶部240、手指モデル情報記憶部250、取っ手モデル情報記憶部260、物体モデル情報記憶部270は、補助記憶装置304により実現される。
操作装置305は、情報処理装置140の管理者が情報処理装置140に対して各種指示を入力するためのデバイスである。
I/F装置306は、距離測定装置120、撮影装置121及びプロジェクタ装置130と、情報処理装置140とを通信ケーブル141を介して通信可能に接続するためのデバイスである。
ドライブ装置307は記録媒体310をセットするためのデバイスである。ここでいう記録媒体310には、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。また、記録媒体310には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等も含まれる。
なお、補助記憶装置304に格納される各種プログラムは、例えば、配布された記録媒体310がドライブ装置307にセットされ、該記録媒体310に記録された各種プログラムがドライブ装置307により読み出されることでインストールされる。
<各種情報記憶部に格納されるテーブル>
次に、各種情報記憶部(基本形状情報記憶部240、手指モデル情報記憶部250、取っ手モデル情報記憶部260、物体モデル情報記憶部270)に格納されるテーブルについて説明する。
はじめに、基本形状情報記憶部240に格納される基本形状テーブルについて説明する。図4は、基本形状テーブルの一例を示す図である。図4に示すように、基本形状テーブル400は、情報の項目として、“識別番号”、“基本形状モデル”を含む。
“識別番号”には、基本形状モデルを識別するための識別子が格納される。“基本形状モデル”には、テーブル150上に置かれた物体を検出するための基本的な形状を示すモデルが格納される。図4の例では、識別番号=1に対応付けて、中サイズの円柱形状のモデルが格納されている。また、識別番号=2、3、4に対応付けて、それぞれ、大サイズの直方体形状のモデル、大サイズの円盤形状のモデル、小サイズの円柱形状のモデルがそれぞれ格納されている。なお、図4に示した基本形状テーブル400は一例であり、基本形状テーブル400には、図4以外の基本形状モデルが格納されていてもよい。
続いて、手指モデル情報記憶部250に格納される手指モデルテーブルについて説明する。図5は、手指モデルテーブルの一例を示す図である。図5に示すように、手指モデルテーブル500は、情報の項目として、“種類”、“手指モデル”を含む。
“種類”には、手指モデルの種類を示す情報が格納される。第1の実施形態において、手指モデルは、手指の太さ、長さ、形状に基づいて、3種類に分類して格納されている。具体的には、男性かつ大人の手指モデル、女性かつ大人の手指モデル、子供の手指モデル、の3種類の手指モデルに分類して格納されている。
“手指モデル”には、更に、情報の項目として“右手”と“左手”が含まれており、“右手”には、対応する種類の右手の手指モデルが格納されている。また、“左手”には、対応する種類の左手の手指モデルが格納されている。
なお、上述したように、手指モデルは複数の骨格を含み、各骨格の位置及び角度を示す「状態量」は、手指の領域の距離画像データに基づいて算出される。
続いて、取っ手モデル情報記憶部260に格納される取っ手モデルテーブルについて説明する。図6は、取っ手モデルテーブルの一例を示す図である。図6に示すように、取っ手モデルテーブル600は、情報の項目として、“識別番号”、“取っ手モデル”を含む。
“識別番号”には、取っ手モデルを識別するための識別子が格納される。“取っ手モデル”には、テーブル150上に置かれた物体の一部である取っ手の形状を示すモデルが格納される。
図6に示すように、第1の実施形態において、取っ手モデルテーブル600には、識別番号=E1の角型の取っ手モデル、識別番号=E2の丸型の取っ手モデル、識別番号=E3のコーヒーカップ用の取っ手モデル、が格納されている。
続いて、物体モデル情報記憶部270に格納される物体モデルテーブルについて説明する。図7は、物体モデルテーブルの一例を示す図である。図7に示すように、物体モデルテーブル700は、情報の項目として、“識別番号”、“物体モデル”を含む。
“識別番号”には、物体モデルを識別するための識別子が格納される。“物体モデル”には、テーブル150上に置かれる物体の形状を示すモデルが格納される。具体的には、“物体モデル”には、識別番号=O1に対応付けて、グラス170を示す物体モデルが格納されている。また、“物体モデル”には、識別番号=O2に対応付けて、小鉢171を示す物体モデルが格納されている。更に、“物体モデル”には、識別番号=O3に対応付けて、小皿172を示す物体モデルが格納されている。
<物体識別部の機能構成>
次に、物体識別部210の機能構成について説明する。図8は、物体識別部の機能構成を示す図である。図8に示すように、物体識別部210は、画像データ取得部801、領域分割部802、物体検出部803、接触判断部804、第1物体マッチング部805を有する。また、物体識別部210は、手形状認識部806、メッシュ作成部807、隠れ物体形状特定部808、物体統合部809、第2物体マッチング部810を有する。
画像データ取得部801は、距離測定装置120により測定された距離画像データ、及び、撮影装置121により撮影されたRGB画像データを、それぞれ所定周期で取得する。画像データ取得部801は、取得した距離画像データ及びRGB画像データを、領域分割部802に通知する。
領域分割部802は、画像データ取得部801より通知されたRGB画像データに基づいて、物体及び手指を検出し、検出した物体及び手指の領域を抽出する。領域分割部802は、例えば、RGB画像データにおいて、テーブル150上面のRGB値との差分が所定値以上の領域を物体の領域として抽出する。また、領域分割部802は、例えば、RGB画像データにおいて、所定の色味(肌色)を有する領域を、手指の領域として抽出する。更に、領域分割部802は、抽出した領域に対応する位置の距離画像データの領域を抽出する。
領域分割部802は、距離画像データより抽出された、物体を含む領域を、物体検出部803に通知する。また、距離画像データより抽出された、手指を含む領域を、手形状認識部806に通知する。
物体検出部803は、領域分割部802より通知された領域の距離画像データに基づいて特定される、当該領域内の物体の形状と、基本形状テーブル400に含まれる各基本形状モデルとを対比する。これにより、物体検出部803は、当該領域内の物体の形状を、基本形状モデルの組み合わせとして認識する。また、物体検出部803は、認識した基本形状モデルの組み合わせの位置を示す位置情報及び角度を示す角度情報を算出する。
また、物体検出部803は、認識した基本形状モデルの組み合わせを、基本形状情報として接触判断部804に通知する。また、物体検出部803は、算出した位置情報及び角度情報を、接触判断部804に通知する。
手形状認識部806は、領域分割部802より通知された領域の距離画像データに基づいて特定される、当該領域内の手指について、太さ、長さ、形状等に基づき、手指モデルテーブル500に含まれる各手指モデルと対比する。これにより、手形状認識部806は、当該領域内の手指(の太さ、長さ、形状等)に最も類似する手指モデルを抽出するとともに、手指の位置、姿勢、各関節の角度に基づいて、手指モデルの状態量を算出する。
手形状認識部806は、抽出した手指モデルと、算出した状態量とを接触判断部804に通知する。また、手形状認識部806は、通知後に、利用者160の手指がテーブル150上のいずれかの物体に所定の状態で接触している旨の判断結果を接触判断部804より取得した場合、手指モデルと状態量とをメッシュ作成部807に通知する。
接触判断部804は判断部の一例であり、利用者160の手指がテーブル150上のいずれかの物体に所定の状態で接触しているか否かを判断する。具体的には、接触判断部804は、物体検出部803より通知された基本形状情報に対応付けられた位置情報及び角度情報と、手形状認識部806より通知された手指モデルの状態量とを対比する。これにより、接触判断部804は、利用者160の手指がテーブル150上のいずれかの物体に所定の状態で接触しているか否かを判断する。
例えば、接触判断部804は、基本形状情報に対応付けられた位置情報及び角度情報により導出される範囲内に、手指モデルが位置しているか否かを判定することで、接触の有無を判断する。
また、接触判断部804は、接触していると判断した際の手指モデルの状態量に基づいて、利用者160の手指が所定の状態(物体を把持している状態)にあるか否かを判断する。接触判断部804は、例えば、手指モデルに含まれる所定の骨格が、他の骨格に対して一定角度以上回転している場合に、利用者160の手指が所定の状態(物体を把持している状態)にあると判断する。
利用者160の手指がいずれかの物体に所定の状態で接触していると判断しなかった場合、接触判断部804は、基本形状情報、位置情報及び角度情報を、第1物体マッチング部805に通知する。
一方、利用者160の手指がいずれかの物体に所定の状態で接触していると判断した場合、接触判断部804は、基本形状情報、位置情報及び角度情報を、物体統合部809に通知する。また、利用者160の手指がいずれかの物体に所定の状態で接触していると判断した場合、接触判断部804は、当該判断結果を手形状認識部806に通知する。
第1物体マッチング部805は、接触判断部804より通知された基本形状情報と、物体モデルテーブル700に含まれる各物体モデルとを対比する。これにより、第1物体マッチング部805は、基本形状情報に最も類似する物体モデルを、物体識別結果として抽出する。第1物体マッチング部805は、基本形状情報により特定される形状(点群により表されるものとする)と、物体モデルにより特定される形状(点群により表されるものとする)とを対比する。そして、第1物体マッチング部805は、両者が最も類似する(互いに対応する点群間の距離が最も短い)物体モデルを、物体識別結果として抽出する。
また、第1物体マッチング部805は、抽出した物体モデルが基本形状情報に最も類似すると判定した際の、当該物体モデルの位置を示す位置情報及び角度を示す角度情報を抽出する。更に、第1物体マッチング部805は、物体識別結果、位置情報及び角度情報を、利用者160の手指が接触していない(非接触時の)物体についての物体識別結果、位置情報及び角度情報として、物体状態推定部220に出力する。
メッシュ作成部807は、手形状認識部806により抽出された手指モデルと、手形状認識部806により算出された状態量とを取得する。また、メッシュ作成部807は、手指モデルに含まれる各骨格の端部(骨格点)を線分でつなぐことで、ドロネー三角形を作成し、手指モデルの3次元メッシュを作成する。また、メッシュ作成部807は、作成した3次元メッシュを点群化することで、手指モデルの内側面(物体と接触する内側の面)の形状を特定するとともに、特定した形状を示す3次元形状特徴量を算出する。メッシュ作成部807は、3次元形状特徴量として、例えば、SHOT(Signature of Histograms of Orientations)特徴量を算出する。
また、メッシュ作成部807は、取っ手モデルテーブル600に含まれる各取っ手モデルを読み出し、各取っ手モデルを点群化することで、各取っ手モデルの外側面(手指と接触する外側の面)の形状を特定する。更に、メッシュ作成部807は、特定した形状を示す3次元形状特徴量を算出する。
更に、メッシュ作成部807は、手指モデルの内側面の3次元形状特徴量と、各取っ手モデルの外側面の3次元形状特徴量とを、隠れ物体形状特定部808に通知する。
隠れ物体形状特定部808は特定部の一例であり、メッシュ作成部807より通知された3次元形状特徴量を対比することで、手指モデルの内側面の形状に類似する、外側面の形状を有する取っ手モデルを、隠れ物体特定結果として抽出する。
隠れ物体形状特定部808は、抽出した取っ手モデルの外側面の形状が、手指モデルの内側面の形状に最も類似すると判定した際の、当該取っ手モデルの位置を示す位置情報及び角度を示す角度情報を抽出する。更に、隠れ物体形状特定部808は、抽出した隠れ物体特定結果、位置情報及び角度情報を、物体統合部809に通知する。
物体統合部809は、接触判断部804より通知された基本形状情報と、隠れ物体形状特定部808より通知された隠れ物体特定結果とを、それぞれの位置情報及び角度情報に基づいて一体化させ、統合物体を生成する。また、物体統合部809は、統合物体(基本形状モデル+取っ手モデル)を示す統合物体情報を、位置情報及び角度情報と対応付けて、第2物体マッチング部810に通知する。
第2物体マッチング部810は識別部の一例であり、物体統合部809より通知された統合物体情報と、物体モデルテーブル700に含まれる各物体モデルとを対比する。これにより、第2物体マッチング部810は、統合物体情報に最も類似する物体モデルを、物体識別結果として抽出する。第2物体マッチング部810は、統合物体情報により特定される形状(点群により表されるものとする)と、物体モデルにより特定される形状(点群により表されるものとする)とを対比する。そして、第2物体マッチング部810は、両者が最も類似する(互いに対応する点群間の距離が最も短い)物体モデルを、物体識別結果として抽出する。
また、第2物体マッチング部810は、抽出した物体モデルが統合物体情報に最も類似すると判定した際の、当該物体モデルの位置を示す位置情報及び角度を示す角度情報を抽出する。更に、第2物体マッチング部810は、物体識別結果、位置情報及び角度情報を、利用者160の手指が接触している(接触時の)物体についての物体識別結果、位置情報及び角度情報として、物体状態推定部220に出力する。
<物体識別部による処理の具体例(非接触時)>
続いて、物体識別部210に含まれる各機能部による処理の具体例について説明する。はじめに、物体識別部210に含まれる各機能部により、利用者160の手指が接触していない物体についての物体識別結果を出力するまでの処理について説明する。図9は、物体識別処理(非接触時)の概要を示す図である。なお、図1で示したように、距離測定装置120及び撮影装置121はテーブル150の上方に取り付けられているため、距離画像データ及びRGB画像データも、テーブル150の上方から見た画像データとなる。しかしながら、テーブル150の上方から見た画像データの場合、物体の立体的な形状がわかりにくいことから、以降では、便宜上、テーブル150の斜め上方から見た画像データを用いて説明する。
図9(a)は、RGB画像データに基づいて、領域分割部802が、物体及び手指を検出し、検出した物体及び手指の領域を、それぞれ、領域901〜903、領域911として抽出した様子を示している。
図9(b)は、領域911の距離画像データに基づいて、手形状認識部806が、手指モデル921を抽出するとともに、手指モデル921の状態量を算出した様子を示している。手指モデル921の状態量が算出されることで、接触判断部804は、利用者160の手指が領域901〜903内のいずれかの物体に所定の状態で接触しているか否かを判断することができる。
図9(b)に示す例の場合、利用者160の手指が領域901〜903内のいずれかの物体に所定の状態で接触していると判断されることはない。このため、領域901〜903の距離画像データに基づいて物体検出部803が通知した基本形状情報により、第1物体マッチング部805が、物体モデルを抽出することになる。これにより、第1物体マッチング部805は、グラス170、小鉢171、小皿172をそれぞれ識別するとともに、グラス170、小鉢171、小皿172の位置を示す位置情報及び角度を示す角度情報を算出する。
図10は、非接触時の物体識別結果、位置情報及び角度情報の一例を示す図である。図10に示すように、第1物体マッチング部805は、グラス170の物体識別結果として、識別情報=O1を出力する。また、グラス170の位置情報として“(x,y,z)”を、グラス170の角度情報として“θ”をそれぞれ出力する。
同様に、第1物体マッチング部805は、小鉢171の物体識別結果として、識別情報=O2を出力する。また、小鉢171の位置情報として“(x,y,z)”を、小鉢171の角度情報として“θ”をそれぞれ出力する。更に、第1物体マッチング部805は、小皿172の物体識別結果として、識別情報=O3を出力する。また、小皿172の位置情報として“(x,y,z)”を、小皿172の角度情報として“θ”をそれぞれ出力する。
<物体識別部による処理の具体例(接触時)>
次に、物体識別部210に含まれる各機能部により、利用者160の手指が接触している物体についての物体識別結果を出力するまでの処理について説明する。図11は、物体識別処理(接触時)の概要を示す図である。
図11(a)は、RGB画像データに基づいて、領域分割部802が、物体及び手指を検出し、検出した物体及び手指の領域を、それぞれ、領域1101〜1103、領域1111として抽出した様子を示している。
図11(b)は、領域1102、1103の距離画像データに基づいて、物体検出部803が通知した基本形状情報により、第1物体マッチング部805が、物体モデルを抽出した様子を示している。これにより、第1物体マッチング部805は、小鉢171、小皿172をそれぞれ識別するとともに、小鉢171、小皿172の位置を示す位置情報及び角度を示す角度情報を算出する。
また、図11(b)は、領域1111の距離画像データに基づいて、手形状認識部806が、手指モデル921を抽出するとともに、手指モデル921の状態量を算出した様子を示している。接触判断部804は、領域1101の距離画像データに基づいて物体検出部803が通知した基本形状情報、位置情報、角度情報と、手指モデル921の状態量とに基づいて、利用者160の手指が領域1101内の物体に所定の状態で接触していると判断する。この場合、領域1101内の物体については、物体検出部803により通知された基本形状情報、位置情報及び角度情報が、第2物体マッチング部810に通知されることになる。
ここで、接触判断部804により、利用者160の手指が領域1101内の物体に所定の状態で接触していると判断された場合、メッシュ作成部807及び隠れ物体形状特定部808は、隠れ物体形状特定処理を行う。
図12は、隠れ物体形状特定処理の概要を示す図である。このうち、処理1210は、メッシュ作成部807が、手指モデル921の内側面の形状を示す3次元形状特徴量を算出するまでの処理を表している。
利用者160の手指が領域1101内の物体に所定の状態で接触している旨の判断結果を取得すると、メッシュ作成部807は、手指モデル921に含まれる各骨格点(図12に示す手指モデル921内の丸印)を線分でつなぎ、ドロネー三角形を作成する。これにより、メッシュ作成部807は、手指モデルの3次元メッシュ1211を作成する。また、メッシュ作成部807は、作成した3次元メッシュ1211を点群化することで、手指モデルの内側面を形成する点群化データ1212を算出する。更に、メッシュ作成部807は、点群化データ1212に基づいて、手指モデルの内側面の形状を示す3次元形状特徴量を算出する。
一方、処理1220は、メッシュ作成部807が、各取っ手モデルの外側面の形状を示す3次元形状特徴量を算出するまでの処理を示している。処理1210が完了すると、メッシュ作成部807は、取っ手モデルテーブル600に含まれる各取っ手モデルを点群化することで、取っ手モデルの外側面を形成する点群化データ1221〜1223を算出する。図12において、点群化データ1221は、識別番号=E1により識別される取っ手モデルに基づいて算出された点群化データである。また、点群化データ1222は、識別番号=E2により識別される取っ手モデルに基づいて算出された点群化データである。更に、点群化データ1223は、識別番号=E3により識別される取っ手モデルに基づいて算出された点群化データである。メッシュ作成部807は、各点群化データ1221〜1223に基づいて、各取っ手モデルの外側面の形状を示す3次元形状特徴量を算出する。
隠れ物体形状特定部808は、処理1210により算出された3次元形状特徴量と、処理1220により算出された各3次元形状特徴量とを対比することで、手指モデルの内側面の形状に類似する外側面の形状を有する取っ手モデルを特定する。
図13は、統合処理の概要を示す図である。図13の例では、手指モデル921を、内側面の方から見た様子を示している。利用者160の手指が、丸型の取っ手を把持している場合、手指モデル921の内側面の形状も、丸型の取っ手に沿った形状1301となる。このため、隠れ物体形状特定部808は、手指モデル921の内側面の形状に類似する外側面の形状を有する取っ手モデルとして、識別番号=E2の取っ手モデルを特定することになる。
隠れ物体形状特定部808により識別番号=E2の取っ手モデルが特定されると、物体統合部809は、接触判断部804より通知された基本形状情報と統合することで統合物体1302を生成する。
統合物体1302が生成されると、第2物体マッチング部810は、統合物体1302に類似する物体モデルを物体識別結果として抽出する。
図14は、接触時の物体識別結果、位置情報及び角度情報の一例を示す図である。図14に示すように、第2物体マッチング部810は、グラス170の物体識別結果として、識別情報“O1”を出力する。また、グラス170の位置情報として“(x’,y’,z’)”を、グラス170の角度情報として“θ’”をそれぞれ出力する。
このように、物体識別部210では、手指に隠れた領域の形状を手指の形状に基づいて特定し、基本形状情報と統合することで統合物体を生成したうえで、物体の識別を行う。このため、グラス170の取っ手が手指に隠れていた場合であっても、グラス170をリアルタイムに正しく識別することができる。
<物体識別処理の流れ>
次に、物体識別部210による物体識別処理全体の流れについて、図15、図16を用いて説明する。図15、図16は、物体識別処理の第1及び第2のフローチャートである。利用者160が椅子151に着席すると、図15に示すフローチャートが実行される。
ステップS1501において、画像データ取得部801は、距離測定装置120により測定された距離画像データと、撮影装置121により撮影されたRGB画像データとを取得する。
ステップS1502において、領域分割部802は、画像データ取得部801より通知されたRGB画像データに基づいて、物体及び手指を検出し、検出した物体及び手指の領域を抽出する。
ステップS1503において、手形状認識部806は、手指の領域の距離画像データに基づいて、手指モデルを抽出するとともに、手指モデルの状態量を算出する。
ステップS1504において、物体検出部803は、物体の領域の距離画像データに基づいて、基本形状情報、位置情報及び角度情報を接触判断部804に通知する。
ステップS1505において、接触判断部804は、手指モデルの状態量と、物体の基本形状情報、位置情報及び角度情報とに基づいて、利用者160の手指が、テーブル150上のいずれかの物体に接触しているか否かを判断する。
ステップS1505において、利用者160の手指が、テーブル150上のいずれの物体にも接触していないと判断した場合には(ステップS1505においてNo)、ステップS1507に進む。一方、ステップS1506において、利用者160の手指が、テーブル150上のいずれかの物体に接触していると判断した場合には(ステップS1505においてYes)、ステップS1506に進む。
ステップS1506において、接触判断部804は、手指モデルの状態量に基づいて、利用者160の手指が所定の状態(物体を把持している状態)にあるか否かを判断する。ステップS1506において、利用者160の手指が所定の状態(物体を把持している状態)にないと判断した場合には(ステップS1506においてNo)、ステップS1507に進む。
ステップS1507において、第1物体マッチング部805は、基本形状情報、位置情報及び角度情報に基づいて、物体モデルを抽出する。更に、抽出した物体モデルの位置情報及び角度情報を算出する。
ステップS1508において、第1物体マッチング部805は、抽出した物体モデルを物体識別結果として物体状態推定部220に出力するとともに、算出した位置情報及び角度情報を出力し、ステップS1501に戻る。
一方、ステップS1506において、利用者160の手指が所定の状態(物体を把持している状態)にあると判断した場合には(ステップS1506においてYes)、図16のステップS1601に進む。
図16のステップS1601において、メッシュ作成部807は、手指モデルの各骨格点から、ドロネー三角形を生成することで、3次元メッシュを作成する。
ステップS1602において、メッシュ作成部807は、手指モデルに基づいて作成した3次元メッシュから、手指モデルの点群化データを生成する。
ステップS1603において、メッシュ作成部807は、生成した手指モデルの点群化データに基づいて、手指モデルの内側面の3次元形状特徴量を算出する。
ステップS1604において、メッシュ作成部807は、取っ手モデルテーブル600に含まれる各取っ手モデルを読み出し、各取っ手モデルの点群化データを生成する。
ステップS1605において、メッシュ作成部807は、生成した点群化データに基づいて、取っ手モデルの外側面の3次元形状特徴量を算出する。
ステップS1606において、隠れ物体形状特定部808は、手指モデルの3次元形状特徴量と各取っ手モデルの3次元形状特徴量とを対比する。これにより、隠れ物体形状特定部808は、手指モデルの内側面の形状に類似する外側面の形状を有する取っ手モデルを、隠れ物体特定結果として抽出する。
ステップS1607において、物体統合部809は、基本形状情報と、隠れ物体特定結果とを用いて、統合物体を生成する。
ステップS1608において、第2物体マッチング部810は、生成された統合物体の統合物体情報と、物体モデルテーブル700に含まれる各物体モデルとを対比する。ステップS1609において、第2物体マッチング部810は、統合物体情報に最も類似する物体モデルを、物体識別結果として抽出する。
ステップS1610において、第2物体マッチング部810は、抽出した物体モデルが統合物体情報に最も類似すると判定した際の、当該物体モデルの位置を示す位置情報及び角度を示す角度情報を算出する。
ステップS1611において、第2物体マッチング部810は、物体識別結果、位置情報及び角度情報を物体状態推定部220に出力する。
ステップS1612において、画像データ取得部801は、物体識別処理を継続するか否かを判定する。ステップS1612において、物体識別処理を継続すると判定した場合には(ステップS1612においてNo)、ステップS1501に戻る。
一方、ステップS1612において、物体識別処理を終了すると判定した場合には(ステップS1612においてYes)、物体識別処理を終了する。画像データ取得部801は、例えば、利用者160が退席した場合に、物体識別処理を終了する。
以上の説明から明らかなように、第1の実施形態における物体識別部210によれば、手指に隠れた領域の形状を特定したうえで物体を識別するため、物体の一部が手指に隠れていた場合でも、物体をリアルタイムに正しく識別することができる。
[第2の実施形態]
上記第1の実施形態では、距離測定装置120と撮影装置121とを有するプロジェクタカメラシステム100について説明した。しかしながら、距離画像データに基づいて、物体及び手指を検出することができる場合には、撮影装置121は必ずしもプロジェクタカメラシステム100に含まれていなくてもよい。
また、上記第1の実施形態では、距離測定装置120、撮影装置121、プロジェクタ装置130を、天井に設置された照明器具のハウジング110内に配置するものとして説明した。しかしながら、距離測定装置120、撮影装置121、プロジェクタ装置130の設置位置はこれに限定されない。
また、上記第1の実施形態では、隠れ物体として、取っ手モデルを取っ手モデルテーブル600に格納するものとして説明したが、取っ手モデル以外の隠れ物体を格納してもよい。
また、上記第1の実施形態では、プロジェクタ装置130の投影範囲を、テーブル150の上面を含む所定領域としたが、投影範囲は、識別した各物体の位置に応じて可変としてもよい。
また、上記第1の実施形態では、プロジェクタカメラシステム100を、飲食店等の店舗に適用する場合について説明したが、飲食店以外の店舗に適用してもよい。
なお、開示の技術では、以下に記載する付記のような形態が考えられる。
(付記1)
物体に手指が接しているか否かを判断する判断部と、
前記判断部により前記手指が前記物体に接していると判断された場合に、前記手指の形状から、前記物体の手指により隠れている領域の形状を特定する特定部と、
前記特定部により特定された形状に基づいて、前記物体を識別する識別部と
を有することを特徴とする物体識別装置。
(付記2)
前記特定部は、
前記物体の一部の領域の形状を示す特徴量と、前記物体に接している前記手指の形状を示す特徴量との対比の結果に基づき、該物体の一部の領域の形状を、前記物体の手指により隠れている領域の形状として特定することを特徴とする付記1に記載の物体識別装置。
(付記3)
前記特定部は、
前記判断部により前記手指が前記物体に接していると判断された場合であって、前記手指が前記物体を把持している状態にあると判断された場合に、前記物体の隠れている領域の形状を特定することを特徴とする付記1に記載の物体識別装置。
(付記4)
前記識別部は、
前記手指が前記物体に接していると判断された物体の隠れていない領域の形状と、前記特定部により特定された前記物体の一部の領域の形状と、を統合することで得られる形状に基づいて、前記物体を識別することを特徴とする付記1乃至付記3のいずれかの付記に記載の物体識別装置。
(付記5)
前記判断部により前記手指が前記物体に接していないと判断された場合に、前記物体を示す物体モデルに基づいて、前記物体を識別することを特徴とする付記1に記載の物体識別装置。
(付記6)
物体に手指が接しているか否かを判断し、
前記手指が前記物体に接していると判断された場合に、前記手指の形状から、前記物体の手指により隠れている領域の形状を特定し、
特定された前記形状に基づいて、前記物体を識別する、
処理をコンピュータに実行させるための物体識別プログラム。
(付記7)
コンピュータが、
物体に手指が接しているか否かを判断し、
前記手指が前記物体に接していると判断された場合に、前記手指の形状から、前記物体の手指により隠れている領域の形状を特定し、
特定された前記形状に基づいて、前記物体を識別する、
処理を実行することを特徴とする物体識別方法。
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
100 :プロジェクタカメラシステム
110 :照明器具のハウジング
120 :距離測定装置
121 :撮影装置
130 :プロジェクタ装置
140 :情報処理装置
150 :テーブル
210 :物体識別部
220 :物体状態推定部
230 :投影画像出力部
400 :基本形状テーブル
500 :手指モデルテーブル
600 :取っ手モデルテーブル
700 :物体モデルテーブル
801 :画像データ取得部
802 :領域分割部
803 :物体検出部
804 :接触判断部
805 :第1物体マッチング部
806 :手形状認識部
807 :メッシュ作成部
808 :隠れ物体形状特定部
921 :手指モデル

Claims (7)

  1. 物体に手指が接しているか否かを判断する判断部と、
    前記判断部により前記手指が前記物体に接していると判断された場合に、前記手指の形状から、前記物体の手指により隠れている領域の形状を特定する特定部と、
    前記特定部により特定された形状に基づいて、前記物体を識別する識別部と
    を有することを特徴とする物体識別装置。
  2. 前記特定部は、
    前記物体の一部の領域の形状を示す特徴量と、前記物体に接している前記手指の形状を示す特徴量との対比の結果に基づき、該物体の一部の領域の形状を、前記物体の手指により隠れている領域の形状として特定することを特徴とする請求項1に記載の物体識別装置。
  3. 前記特定部は、
    前記判断部により前記手指が前記物体に接していると判断された場合であって、前記手指が前記物体を把持している状態にあると判断された場合に、前記物体の隠れている領域の形状を特定することを特徴とする請求項1に記載の物体識別装置。
  4. 前記識別部は、
    前記手指が前記物体に接していると判断された物体の隠れていない領域の形状と、前記特定部により特定された前記物体の一部の領域の形状と、を統合することで得られる形状に基づいて、前記物体を識別することを特徴とする請求項1乃至3のいずれか1項に記載の物体識別装置。
  5. 前記判断部により前記手指が前記物体に接していないと判断された場合に、前記物体を示す物体モデルに基づいて、前記物体を識別することを特徴とする請求項1に記載の物体識別装置。
  6. 物体に手指が接しているか否かを判断し、
    前記手指が前記物体に接していると判断された場合に、前記手指の形状から、前記物体の手指により隠れている領域の形状を特定し、
    特定された前記形状に基づいて、前記物体を識別する、
    処理をコンピュータに実行させるための物体識別プログラム。
  7. コンピュータが、
    物体に手指が接しているか否かを判断し、
    前記手指が前記物体に接していると判断された場合に、前記手指の形状から、前記物体の手指により隠れている領域の形状を特定し、
    特定された前記形状に基づいて、前記物体を識別する、
    処理を実行することを特徴とする物体識別方法。
JP2016212047A 2016-10-28 2016-10-28 物体識別装置、物体識別プログラム及び物体識別方法 Pending JP2018073119A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016212047A JP2018073119A (ja) 2016-10-28 2016-10-28 物体識別装置、物体識別プログラム及び物体識別方法
US15/724,313 US20180121745A1 (en) 2016-10-28 2017-10-04 Apparatus, method for object identification, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016212047A JP2018073119A (ja) 2016-10-28 2016-10-28 物体識別装置、物体識別プログラム及び物体識別方法

Publications (1)

Publication Number Publication Date
JP2018073119A true JP2018073119A (ja) 2018-05-10

Family

ID=62022381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016212047A Pending JP2018073119A (ja) 2016-10-28 2016-10-28 物体識別装置、物体識別プログラム及び物体識別方法

Country Status (2)

Country Link
US (1) US20180121745A1 (ja)
JP (1) JP2018073119A (ja)

Also Published As

Publication number Publication date
US20180121745A1 (en) 2018-05-03

Similar Documents

Publication Publication Date Title
JP6369534B2 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
US10456918B2 (en) Information processing apparatus, information processing method, and program
AU2015224418B2 (en) Three-dimensional coordinate computing apparatus, three-dimensional coordinate computing method, and non-transitory computer readable recording medium having therein program for three-dimensional coordinate computing
JP5838355B2 (ja) 空間情報検出装置、人位置検出装置
US10324563B2 (en) Identifying a target touch region of a touch-sensitive surface based on an image
CN108022264B (zh) 相机位姿确定方法及设备
WO2015186436A1 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
JP2008304268A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
CN103562934B (zh) 脸部位置检测
US20140357290A1 (en) Device localization using camera and wireless signal
JP2018091656A (ja) 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法
US10664090B2 (en) Touch region projection onto touch-sensitive surface
JP2009176209A (ja) 食堂用自動精算装置
US8970479B1 (en) Hand gesture detection
JP2015184054A (ja) 同定装置、方法及びプログラム
Netz et al. Recognition using specular highlights
JP2014106597A (ja) 自律移動体、物体情報取得装置、および物体情報取得方法
JP2018073119A (ja) 物体識別装置、物体識別プログラム及び物体識別方法
JP6393409B2 (ja) 画像認識システム、カメラ状態推定装置及びプログラム
JP2016224485A (ja) マーカーの解析方法
KR20160052256A (ko) 가상 특징점을 이용하는 3차원 공간 매핑장치 및 그 방법
JP2016125995A (ja) 三次元形状測定装置、三次元形状測定方法、及び、プログラム
TW201913262A (zh) 物件遞送系統以及其方法
JP6303918B2 (ja) ジェスチャ管理システム、ジェスチャ管理プログラム、ジェスチャ管理方法および指さし認識装置
JP2016139396A (ja) ユーザーインターフェイス装置、方法およびプログラム