JP4422792B1 - 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム - Google Patents

物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム Download PDF

Info

Publication number
JP4422792B1
JP4422792B1 JP2009539326A JP2009539326A JP4422792B1 JP 4422792 B1 JP4422792 B1 JP 4422792B1 JP 2009539326 A JP2009539326 A JP 2009539326A JP 2009539326 A JP2009539326 A JP 2009539326A JP 4422792 B1 JP4422792 B1 JP 4422792B1
Authority
JP
Japan
Prior art keywords
article
information
hand
holding
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009539326A
Other languages
English (en)
Other versions
JPWO2010004719A1 (ja
Inventor
知宣 成岡
徹 谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP4422792B1 publication Critical patent/JP4422792B1/ja
Publication of JPWO2010004719A1 publication Critical patent/JPWO2010004719A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Abstract

物品と物品を運ぶときの持ち方を対応付けて登録した持ち方登録データベース(112)と、人が対象物品を運んでいるとき、前記対象物品をどのように持っているかを判定する持ち方判定処理手段(107)と、前記持ち方登録データベース(112)に登録された物品の中から、前記持ち方判定処理手段(107)によって判定された持ち方が登録されている物品を候補物品として抽出する第1物品候補抽出手段(114)、を備えるようにする。
【選択図】図1A

Description

本発明は、家庭又はオフィスなどの生活空間において、ユーザが取り扱う日用品又はオフィス用品などの物品を推定する物品推定装置、及び、推定された物品の位置を求める物品位置推定装置、物品推定方法、並びに、物品推定プログラムに関するものである。
家庭又はオフィスなどの生活空間(以下、環境空間とする。)にある日用品又はオフィス用品などの物品は、日常、机の上又は棚の中など様々な場所に置かれている。このような場所の物品を、例えば、画像センサで検出しようとすると、他の物品又は家具によって対象物品の一部、又は全部が隠されてしまい、正しく識別できないという問題が発生する。
そこで、このような問題に対処可能である、従来の物品を検出する技術としては、対象物品を掴もうとする指の動きに基づいて識別する技術がある(特許文献1)。図41は、前記特許文献1に記載された従来の物体識別装置の構成図である。
動き検出部1にて、対象物品を掴もうとするときの指の動きを検出する。特徴抽出部2にて、動き検出部1で検出した指の動きデータから特徴量を抽出する。ニューラルネットワーク部3にて、あらかじめ定めた教示データを用いて、特徴抽出部2で抽出した特徴量を学習する。判別部4にて、前記ニューラルネットワーク部3の学習結果に基づいて対象物品の識別を行うものである。
これは、人は対象物品を掴もうとするとき、対象物品の形状に応じて手の形を準備するプレシェイピングと呼ばれる動作を行うことを利用している。
特開平7−160665号公報
しかし、家庭又はオフィスなどの生活空間にある日用品又はオフィス用品などの物品は多種多様である。このような状況において前記従来の技術を適用すると、指の動きを検出して、対象物品の形状に基づいて識別しているので、同一形状の物品が多数存在する場合には、対象物品の候補が多数存在してしまうという課題を有している。
本発明は、前記従来の課題を解決するもので、対象物品の一部又は全部が隠されてしまい、かつ、多数の同一形状の物品が存在する場合においても、対象物品を推定することができる物品推定装置、及び、その対象物品の位置を求めることができる物品位置推定装置、物品推定方法、並びに、物品推定プログラムを提供することを目的とする。
前記目的を達成するために、本発明は以下のように構成する。
本発明の第1態様によれば、環境空間中に存在する複数の物品の位置の情報を検出する物品センシング手段と、
前記環境空間中に存在する人の手の位置の情報を検出する手センシング手段と、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出された前記物品の位置の情報と前記手の位置の情報との位置関係を、前記手による前記物品の持ち方として判定する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると推定する物品推定手段とを、
備える物品推定装置を提供する。
本発明の第2態様によれば、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を物品検出履歴データベースに登録する物品センシング手段と、
前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を手検出履歴データベースに登録する手センシング手段と、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると推定する物品推定手段とを
備える物品推定装置を提供する。
本発明の第9態様によれば、環境空間中に存在する複数の物品の位置の情報を物品センシング手段で検出し、
前記環境空間中に存在する人の手の位置の情報を手センシング手段で検出し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出された前記物品の位置の情報と前記手の位置の情報との位置関係を、前記手による前記物品の持ち方として持ち方判定処理手段で判定し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると物品推定手段で推定する、
ことを備える物品推定方法を提供する。
本発明の第10態様によれば、物品センシング手段により、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を物品検出履歴データベースに登録し、
手センシング手段により、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を手検出履歴データベースに登録し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を持ち方判定処理手段で判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに持ち方判定処理手段で登録し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として第1物品候補抽出手段で抽出し、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると、物品推定手段で推定する、
ことを備える物品推定方法を提供する。
本発明の第11態様によれば、物品センシング手段により、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、物品検出履歴データベースに登録し、
手センシング手段により、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、手検出履歴データベースに登録し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを持ち方判定処理手段で判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに持ち方判定処理手段で登録し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として第1物品候補抽出手段で抽出し、
シーン判定手段により、前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得し、
第2物品候補抽出手段により、前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が運ぶ前に対象物品が置かれていた移動元の位置に存在する、第2候補物品を抽出し、
前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と、物品推定手段で推定する、
ことを備える物品推定方法を提供する。
本発明の第12態様によれば、物品センシング手段で検出された環境空間中に存在する複数の物品の位置の情報と、手センシング手段で検出された前記環境空間中に存在する人の手の位置の情報との位置関係を、前記手による前記物品の持ち方として判定する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラムを提供する。
本発明の第13態様によれば、物品センシング手段により検出された、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報が登録された物品検出履歴データベースと、手センシング手段により検出された、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報が登録された手検出履歴データベースとにそれぞれ登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラムを提供する。
本発明の第14態様によれば、物品センシング手段により検出された、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を、検出した時刻の情報と対応付けて、登録された物品検出履歴データベースと、手センシング手段により検出された、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を、検出した時刻の情報と対応付けて、登録された手検出履歴データベースとにそれぞれ登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得するシーン判定手段と、
前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が運ぶ前に対象物品が置かれていた移動元の位置に存在する、第2候補物品を抽出する第2物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラムを提供する。
本発明によれば、対象物品の一部又は全部が隠されてしまい、かつ、多数の同一形状の物品が存在する場合においても、人が対象物品を運ぶときの持ち方を判定することにより、対象物品の識別候補を絞り込んでその物品を推定することができるようになり、さらに、その推定結果を用いて物品の位置を推定することができるようになる。
本発明のこれらと他の目的と特徴は、添付された図面についての好ましい実施形態に関連した次の記述から明らかになる。
図1Aは、本発明の第1実施形態にかかる物品推定装置及び物品位置推定装置における機能ブロック図である。 図1Bは、本発明の第1実施形態にかかる物品推定装置及び物品位置推定装置における持ち方判定処理手段の機能ブロック図である。 図2は、本発明の前記第1実施形態における全体の処理フローを説明する図である。 図3は、本発明の前記第1実施形態における生活空間としてのキッチン環境空間を説明する図である。 図4は、本発明の前記第1実施形態における座標系を説明する図である。 図5Aは、本発明の前記第1実施形態における環境空間内の時刻t11の物品の状況の例を示す平面図である。 図5Bは、本発明の前記第1実施形態における環境空間内の時刻t99の物品の状況の例を示す平面図である。 図6Aは、本発明の前記第1実施形態における画像センサの処理における背景画像を説明する図である。 図6Bは、本発明の前記第1実施形態における画像センサの処理における撮像画像を説明する図である。 図6Cは、本発明の前記第1実施形態における画像センサの処理における差分画像を説明する図である。 図7は、本発明の前記第1実施形態における登録物品データベースの例を示す図である。 図8は、本発明の前記第1実施形態における物品検出履歴データベースの例を示す図である。 図9Aは、本発明の前記第1実施形態における超音波タグセンサの処理を説明する斜視図である。 図9Bは、本発明の前記第1実施形態の変形例における超音波タグセンサの処理を説明する斜視図である。 図10は、本発明の前記第1実施形態における登録人物データベースの例を示す図である。 図11は、本発明の前記第1実施形態における手検出履歴データベースの例を示す図である。 図12Aは、本発明の前記第1実施形態における手とその周辺領域を手の甲側から撮像した撮像画像の例を示す図である。 図12Aは、本発明の前記第1実施形態における手とその周辺領域を手の平側から撮像した撮像画像の例を示す図である。 図13は、本発明の前記第1実施形態における持ち方判定処理手段の処理フローを説明する図である。 図14Aは、本発明の前記第1実施形態における手の領域とその手に持っている物品の領域を図12Aから抽出した画像の例を示す図である。 図14Bは、本発明の前記第1実施形態における手の領域とその手に持っている物品の領域を図12Bから抽出した画像の例を示す図である。 図15Aは、本発明の前記第1実施形態における手領域と物品領域を検出した画像の例を示す図である。 図15Bは、本発明の前記第1実施形態における手領域と物品領域を検出した画像の例を示す図である。 図15Cは、本発明の前記第1実施形態における手領域と物品領域を検出した画像の例を示す図である。 図15Dは、本発明の前記第1実施形態における手領域と物品領域を検出した画像の例を示す図である。 図16は、本発明の前記第1実施形態における持ち方登録データベースの例を示す図である。 図17Aは、本発明の前記第1実施形態における、手による物品の持ち方を撮像した撮像画像の例を示す図である。 図17Bは、本発明の前記第1実施形態における、手による物品の持ち方を撮像した撮像画像の例を示す図である。 図17Cは、本発明の前記第1実施形態における、手による物品の持ち方を撮像した撮像画像の例を示す図である。 図17Dは、本発明の前記第1実施形態における、手による物品の持ち方を撮像した撮像画像の例を示す図である。 図17Eは、本発明の前記第1実施形態における、手による物品の持ち方を撮像した撮像画像の例を示す図である。 図17Fは、本発明の前記第1実施形態における、手による物品の持ち方を撮像した撮像画像の例を示す図である。 図17Gは、本発明の前記第1実施形態における、図17Aの撮像画像から手の領域と物品の領域とをそれぞれ抽出した画像の例を示す図である。 図17Hは、本発明の前記第1実施形態における、図17Bの撮像画像から手の領域と物品の領域とをそれぞれ抽出した画像の例を示す図である。 図17Iは、本発明の前記第1実施形態における、図17Cの撮像画像から手の領域と物品の領域とをそれぞれ抽出した画像の例を示す図である。 図17Jは、本発明の前記第1実施形態における、図17Dの撮像画像から手の領域と物品の領域とをそれぞれ抽出した画像の例を示す図である。 図17Kは、本発明の前記第1実施形態における、図17Eの撮像画像から手の領域と物品の領域とをそれぞれ抽出した画像の例を示す図である。 図17Lは、本発明の前記第1実施形態における、図17Fの撮像画像から手の領域と物品の領域とをそれぞれ抽出した画像の例を示す図である。 図18Aは、本発明の前記第1実施形態における、手による物品の持ち方を撮像した撮像画像の例を示す図である。 図18Bは、本発明の前記第1実施形態における、手による物品の持ち方を撮像した撮像画像の例を示す図である。 図18Cは、本発明の前記第1実施形態における、手による物品の持ち方を撮像した撮像画像の例を示す図である。 図18Dは、本発明の前記第1実施形態における、手による物品の持ち方を撮像した撮像画像の例を示す図である。 図18Eは、本発明の前記第1実施形態における、手による物品の持ち方を撮像した撮像画像の例を示す図である。 図18Fは、本発明の前記第1実施形態における、図18Aの撮像画像から手の領域と物品の領域とをそれぞれ抽出した画像の例を示す図である。 図18Gは、本発明の前記第1実施形態における、図18Bの撮像画像から手の領域と物品の領域とをそれぞれ抽出した画像の例を示す図である。 図18Hは、本発明の前記第1実施形態における、図18Cの撮像画像から手の領域と物品の領域とをそれぞれ抽出した画像の例を示す図である。 図18Iは、本発明の前記第1実施形態における、図18Dの撮像画像から手の領域と物品の領域とをそれぞれ抽出した画像の例を示す図である。 図18Jは、本発明の前記第1実施形態における、図18Eの撮像画像から手の領域と物品の領域とをそれぞれ抽出した画像の例を示す図である。 図19は、本発明の前記第1実施形態における持ち方判定結果履歴データベースの例を示す図である。 図20Aは、本発明の前記第1実施形態における移動軌跡の例を示す平面図である。 図20Bは、本発明の前記第1実施形態における移動軌跡の例をテーブル形式で示す図である。 図21は、本発明の前記第1実施形態における単位時間あたりの移動量のグラフの例を示す図である。 図22は、本発明の前記第1実施形態におけるシーン判定結果履歴データベースの例を示す図である。 図23Aは、本発明の前記第1実施形態における本を運ぶシーンを撮像した撮像画像の例を示す図である。 図23Bは、本発明の前記第1実施形態における本を運ぶシーンを撮像した撮像画像の例を示す図である。 図23Cは、本発明の前記第1実施形態における、図23Aの撮像画像から手の領域と物品の領域とをそれぞれ抽出した画像の例を示す図である。 図23Dは、本発明の前記第1実施形態における、図23Bの撮像画像から手の領域と物品の領域とをそれぞれ抽出した画像の例を示す図である。 図24は、本発明の前記第1実施形態におけるシーン判定結果の情報と持ち方判定結果の情報の例を示す図である。 図25は、本発明の前記第1実施形態における物品持ち方対応データベースの例を示す図である。 図26は、本発明の前記第1実施形態における第2物品候補抽出手段の考え方を説明する図である。 図27は、本発明の前記第1実施形態における物品推定結果履歴データベースの例を示す図である。 図28Aは、本発明の前記第1実施形態における物品位置推定手段の統合方法を説明する図である。 図28Bは、本発明の前記第1実施形態における物品位置推定手段の統合方法を説明する図である。 図29Aは、本発明の前記第1実施形態における物品位置推定手段の統合方法を説明する図である。 図29Bは、本発明の前記第1実施形態における物品位置推定手段の統合方法を説明する図である。 図30は、本発明の前記第1実施形態における物品位置推定結果履歴データベースの例を示す図である。 図31は、本発明の前記第1実施形態における表示画面の例を示す図である。 図32Aは、本発明の第2実施形態にかかる物品推定装置及び物品位置推定装置における環境空間内の物品の状況の例を示す図である。 図32Bは、本発明の前記第2実施形態における環境空間内の物品の状況の例を示す図である。 図32Cは、本発明の前記第2実施形態における環境空間内の物品の状況の例を示す図である。 図33は、本発明の前記第2実施形態における物品検出履歴データベースの例を示す図である。 図34は、本発明の前記第2実施形態におけるシーン判定結果の情報と持ち方判定結果の情報の例を示す図である。 図35Aは、本発明の前記第2実施形態における物品持ち方対応データベースの例を示す図である。 図35Bは、本発明の前記第2実施形態における物品持ち方対応データベースの例を示す図である。 図36Aは、本発明の第3実施形態にかかる物品推定装置及び物品位置推定装置における環境空間内の物品の状況の例を示す図である。 図36Bは、本発明の前記第3実施形態における環境空間内の物品の状況の例を示す図である。 図37は、本発明の前記第3実施形態における無線ICタグセンサの処理を説明する図である。 図38は、本発明の前記第3実施形態における物品検出履歴データベースの例を示す図である。 図39は、本発明の前記第3実施形態におけるシーン判定結果の情報と持ち方判定結果の情報の例を示す図である。 図40は、本発明の前記第3実施形態における更新された物品持ち方対応データベースの例を示す図である。 図41は、従来の物体識別装置の説明図である。 図42は、本発明の前記第1実施形態において、第2物品候補抽出手段の具体的な物品候補の情報の抽出方法について説明するフローチャートである。 図43は、本発明の前記第1実施形態の変形例におけるシーン判定結果の情報と持ち方判定結果の情報の別の例を示す図である。 図44は、本発明の前記第1実施形態の変形例にかかる物品推定装置及び物品位置推定装置における機能ブロック図である。 図45は、本発明の前記第1実施形態の変形例における物品推定結果履歴データベースの例を示す図である。 図46は、本発明の前記第1実施形態の変形例における物品推定装置における機能ブロック図である。 図47は、図46の物品位置推定装置の処理フローを説明するフローチャートである。 図48は、本発明の前記第1実施形態において、エリア分割を行った環境空間の例を示す説明図である。
以下に、本発明にかかる実施の形態を図面に基づいて詳細に説明する。
以下、図面を参照して本発明における実施形態を詳細に説明する前に、本発明の種々の態様について説明する。
本発明の第1態様によれば、環境空間中に存在する複数の物品の位置の情報を検出する物品センシング手段と、
前記環境空間中に存在する人の手の位置の情報を検出する手センシング手段と、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出された前記物品の位置の情報と前記手の位置の情報との位置関係を、前記手による前記物品の持ち方として判定する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると推定する物品推定手段とを、
備える物品推定装置を提供する。
本発明の第2態様によれば、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を物品検出履歴データベースに登録する物品センシング手段と、
前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を手検出履歴データベースに登録する手センシング手段と、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると推定する物品推定手段とを
備える物品推定装置を提供する。
本発明の第3態様によれば、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、物品検出履歴データベースに登録する物品センシング手段と、
前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、手検出履歴データベースに登録する手センシング手段と、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得するシーン判定手段と、
前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が前記手で持って前記物品を運ぶ前にその物品が置かれていた移動元の位置に存在する、第2候補物品を抽出する第2物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と推定する物品推定手段と、
を備える物品推定装置を提供する。
本発明の第4態様によれば、前記物品センシング手段及び前記手センシング手段の少なくともいずれか1つは、前記環境空間中に存在する前記複数の物品及び前記人の手を含む画像情報を撮像する画像センサと、前記画像センサで撮像された画像情報を基に、画像認識処理を行う画像認識手段とで構成され、
前記画像認識手段は、前記複数の物品のIDの情報及び前記複数の物品の位置の情報を検出して、前記物品検出履歴データベースに登録する前記物品センシング手段としての機能か、又は、前記人のIDの情報及び前記人の手の位置の情報を検出して、前記手検出履歴データベースに登録する前記手センシング手段としての機能のいずれかを有する第2又は3の態様に記載の物品推定装置を提供する。
本発明の第5態様によれば、前記シーン判定手段は、前記手検出履歴データベースを参照して、取得した時間区間の情報における前記手の位置の情報とその手の位置の情報を検出した時刻の情報から、単位時間当たりの前記手の移動量を算出し、算出した前記手の移動量が予め設定された閾値以下となる時間区間の情報を複数個抽出し、抽出した時間区間のうち最も時刻の情報が早い時間区間の情報を、物品を取るシーンと判定し、前記抽出した時間区間のうち最も時刻の情報が遅い時間区間の情報を、物品を置くシーンと判定し、前記物品を取るシーンと前記物品を置くシーンとの間の時間区間を、物品を運ぶシーンと判定し、前記判定の結果をシーン判定結果履歴データベースにそれぞれ登録し、
さらに、前記人が前記物品の持ち方を、前記複数の物品のIDの情報毎及び前記物品を前記人が運ぶときの持ち方の情報をシーン毎に、前記物品と前記人の手との位置関係として登録した物品持ち方対応データベースを備え、
前記第1物品候補抽出手段は、前記シーン判定結果履歴データベースに登録されたシーンにおいて、前記物品持ち方対応データベースに登録された物品の中から、前記シーン判定手段によって判定されたシーンにおいて、前記持ち方判定処理手段によって判定された持ち方が登録されている物品を候補物品として抽出する、第3の態様に記載の物品推定装置を提供する。
本発明の第6態様によれば、前記手で持って前記物品を運ぶ前記人、又は、前記手で持って前記物品を前記人が運んでいる場所に応じて、前記持ち方登録データベース及び前記物品持ち方対応データベースの前記第1物品候補抽出手段が参照するデータを切り替えるデータベース切替手段、
をさらに備える第5の態様に記載の物品推定装置を提供する。
本発明の第7態様によれば、第2〜6のいずれか1つの態様に記載の前記物品推定装置と、
前記物品検出履歴データベースを参照し、前記物品推定手段が推定した前記物品のIDの情報に対応する前記物品のIDの位置の情報を推定位置とする物品位置推定手段と、
を備える物品位置推定装置を提供する。
本発明の第8態様によれば、前記物品の探索要求を受付け、前記物品位置推定手段で推定した前記物品のIDの位置の情報において、前記探索要求を受けた前記物品のIDの情報と対応する前記物品の位置の情報を出力する入出力手段と、
をさらに備えることを特徴とする第7の態様に記載の物品位置推定装置を提供する。
本発明の第9態様によれば、環境空間中に存在する複数の物品の位置の情報を物品センシング手段で検出し、
前記環境空間中に存在する人の手の位置の情報を手センシング手段で検出し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出された前記物品の位置の情報と前記手の位置の情報との位置関係を、前記手による前記物品の持ち方として持ち方判定処理手段で判定し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると物品推定手段で推定する、
ことを備える物品推定方法を提供する。
本発明の第10態様によれば、物品センシング手段により、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を物品検出履歴データベースに登録し、
手センシング手段により、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を手検出履歴データベースに登録し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を持ち方判定処理手段で判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに持ち方判定処理手段で登録し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として第1物品候補抽出手段で抽出し、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると、物品推定手段で推定する、
ことを備える物品推定方法を提供する。
本発明の第11態様によれば、物品センシング手段により、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、物品検出履歴データベースに登録し、
手センシング手段により、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、手検出履歴データベースに登録し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを持ち方判定処理手段で判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに持ち方判定処理手段で登録し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として第1物品候補抽出手段で抽出し、
シーン判定手段により、前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得し、
第2物品候補抽出手段により、前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が運ぶ前に対象物品が置かれていた移動元の位置に存在する、第2候補物品を抽出し、
前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と、物品推定手段で推定する、
ことを備える物品推定方法を提供する。
本発明の第12態様によれば、物品センシング手段で検出された環境空間中に存在する複数の物品の位置の情報と、手センシング手段で検出された前記環境空間中に存在する人の手の位置の情報との位置関係を、前記手による前記物品の持ち方として判定する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラムを提供する。
本発明の第13態様によれば、物品センシング手段により検出された、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報が登録された物品検出履歴データベースと、手センシング手段により検出された、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報が登録された手検出履歴データベースとにそれぞれ登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラムを提供する。
本発明の第14態様によれば、物品センシング手段により検出された、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を、検出した時刻の情報と対応付けて、登録された物品検出履歴データベースと、手センシング手段により検出された、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を、検出した時刻の情報と対応付けて、登録された手検出履歴データベースとにそれぞれ登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得するシーン判定手段と、
前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が運ぶ前に対象物品が置かれていた移動元の位置に存在する、第2候補物品を抽出する第2物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラムを提供する。
以下本発明の実施の形態について、図面を参照しながら説明する。
(第1実施形態)
図1Aは、本発明の第1実施形態にかかる物品推定装置及び物品位置推定装置における機能ブロック図である。
この物品推定装置は、時刻取得手段(時刻取得部)100と、物品センシング手段(物品センシング部)101と、物品検出履歴データベース(物品検出履歴DB)102と、手センシング手段(手センシング部)103と、手検出履歴データベース(手検出履歴DB)104と、持ち方判定処理手段(持ち方判定処理部)107と、持ち方判定結果履歴データベース(持ち方判定結果履歴DB)108と、シーン判定手段(シーン判定部)109と、シーン判定結果履歴データベース(シーン判定結果履歴DB)110と、データベース切替手段(データベース切替部)111と、持ち方登録データベース(持ち方登録DB)112と、物品持ち方対応データベース(物品持ち方対応DB)123と、登録物品データベース(登録物品DB)113と、第1物品候補抽出手段(第1物品候補抽出部)114と、第2物品候補抽出手段(第2物品候補抽出部)115と、物品推定手段(物品推定部)116と、物品推定結果履歴データベース(物品推定結果履歴DB)117と、入出力手段(入出力部)120と、データベース更新手段(データベース更新部)121とを備えて構成されて、人が取り扱う物品を推定することができる。
また、前記第1実施形態にかかる物品位置推定装置は、前記物品推定装置に、さらに、物品位置推定手段118と、物品位置推定結果履歴データベース(物品位置推定結果履歴DB)119とを備えて、前記推定結果の情報を用いて物品の位置を推定することができる。
《各構成要素の簡単な説明》
以下、各構成要素を簡単に説明する。
時刻取得手段100は、現在時刻の情報を取得し、出力するものである。
物品センシング手段101は、家庭又はオフィスなどの生活空間(以下、環境空間とする。)91にある日用品又はオフィス用品などの物品のIDの情報及び位置の情報を検出するものである。物品センシング手段101は、検出した時刻の情報を前記時刻取得手段100から取得し、その時刻の情報と物品のIDの情報及び位置の情報とを合わせて物品検出履歴データベース102に登録する。
物品検出履歴データベース102は、前記物品センシング手段101により検出された物品のIDの情報及び位置の情報と、前記時刻取得手段100から取得した時刻の情報とを対応付けて蓄積するものである。
手センシング手段103は、環境空間91で活動している人のIDの情報及び人の手の位置の情報を検出するものである。手センシング手段103は、検出した時刻の情報を前記時刻取得手段100から取得し、その時刻の情報と人のIDの情報及び人の手の位置の情報とを合わせて手検出履歴データベース104に登録する。
手検出履歴データベース104は、前記手センシング手段103により検出された手の位置の情報と、前記時刻取得手段100から取得した時刻の情報とを対応付けて蓄積するものである。
持ち方判定処理手段107は、物品検出履歴データベース102に登録された物品のIDの情報及び位置の情報と前記手検出履歴データベース104に登録された人のIDの情報及びその人の手の位置の情報を参照して、手及びその周辺領域の情報から、人が物品をどのようにして持っているか、又は何も持っていないか、を判定する。判定結果の情報を、時刻の情報と合わせて物品のIDの情報毎に持ち方判定結果履歴データベース108に登録する。
持ち方判定結果履歴データベース108は、前記持ち方判定処理手段107により判定された物品の持ち方と時刻の情報とを対応付けて物品のID毎に蓄積するものである。
シーン判定手段109は、前記手検出履歴データベース104に登録された手の位置を時系列に参照して、人が物品を移動するときの手の移動軌跡を求める。さらに、その手の移動軌跡に基づいてシーンをシーン判定手段109により判定する。ここで、「シーン」とは、人が物品を移動するときに、置かれている物品を人が取り上げている状況(取るシーン)、取り上げた物品を人が運んでいる状況(運ぶシーン)、持っている物品を人が置いている状況(置くシーン)、のいずれかの状況を示すものとする。移動軌跡と判定結果の情報を、時刻の情報と合わせて、シーン判定結果履歴データベース110にシーン判定手段109により登録する。
シーン判定結果履歴データベース110は、前記シーン判定手段109により求められた手の移動軌跡とシーン判定結果の情報と、時刻の情報とを対応付けて蓄積するものである。
データベース切替手段111は、前記手検出履歴データベース104に登録された人のIDの情報及び手の位置の情報を参照して、持ち方登録データベース112の複数のデータの中から状況に適したデータに切り替え、そのデータが第1物品候補抽出手段114に参照されるようにするものである。また、データベース切替手段111は、物品持ち方対応データベース123についても、状況に適したデータに切り替え、そのデータが第1物品候補抽出手段114に参照されるようにするものである。
持ち方登録データベース112は、物品の持ち方を分類し、それぞれの持ち方の判定条件を登録したデータが登録されている。前記データは、人のIDの情報毎、位置の情報毎、にそれぞれ記述し、前記データベース切替手段111によって状況に適したデータに切り替えられる。
物品持ち方対応データベース123は、登録物品データベース113に記録された各物品の情報に対して、そのシーン毎の持ち方を記述したデータを登録している。前記データは、人のIDの情報毎、位置の情報毎、にそれぞれ記述し、前記データベース切替手段111によって、状況に適したデータに切り替えられる。
登録物品データベース113は、環境空間91にある日用品又はオフィス用品などの取り扱い対象となる物品の情報を登録したものである。少なくとも、物品のIDの情報、物品の品名の情報、前記物品センシング手段101により物品のIDの情報及び位置の情報を検出するために用いられる情報(例えば、テンプレート画像情報、色情報など)を持つ。
第1物品候補抽出手段114は、前記持ち方判定結果履歴データベース108と前記シーン判定結果履歴データベース110を参照して、各シーンで対象物品をどのような持ち方をしていたかを比較することにより、前記持ち方登録データベース112又は/及び物品持ち方対応データベース123に登録されているデータから対象物品の第1物品候補の情報を抽出するものである。
第2物品候補抽出手段115は、前記物品検出履歴データベース102と前記シーン判定結果履歴データベース110を参照して、対象物品の移動軌跡の移動元において検出されていた物品の情報を第2物品候補の情報として抽出するものである。
物品推定手段116は、前記第1物品候補抽出手段114と前記第2物品候補抽出手段115において共通に抽出された対象物品の候補の情報を、対象物品の推定結果の情報とするものである。推定結果の情報を、時刻の情報と合わせて物品推定結果履歴データベース117に物品推定手段116により登録する。
物品推定結果履歴データベース117は、前記物品推定手段116により推定された物品推定結果の情報と、時刻の情報とを対応付けて蓄積するものである。
物品位置推定手段118は、前記物品検出履歴データベース102と前記物品推定結果履歴データベース117を参照して、対象物品の位置を推定するものである。推定結果の情報を、時刻の情報と合わせて物品位置推定結果履歴データベース119に物品位置推定手段118により登録する。
物品位置推定結果履歴データベース119は、前記物品位置推定手段118により推定された物品位置推定結果の情報と、時刻の情報とを対応付けて蓄積するものである。
入出力手段120は、ユーザからの物品探索要求の情報を受付けるとともに、物品探索要求の情報を受付けたとき、探索要求された物品について前記物品位置推定結果履歴データベース119を参照し、物品の位置情報を出力するものである。また、入出力手段120を使用することにより、本発明の任意のデータベースに対して適宜アクセスして、データベースに登録している情報を追加又は更新することもできる。
データベース更新手段121は、前記物品検出履歴データベース102と前記持ち方判定結果履歴データベース108と前記シーン判定結果履歴データベース110を参照して、前記持ち方登録データベース112又は/及び物品持ち方対応データベース123の内容を更新するものである。
登録人物データベース(登録人物DB)122は、環境空間91で活動している人の情報を登録したものである。人の情報としては、少なくとも人のIDの情報、及び、人の名前の情報を持つ。
《全体の処理フロー》
次に、本発明の第1実施形態における物品位置推定装置の全体の処理フローについて、図2を参照して説明する。
ステップS201で、環境空間91内の複数の物品のIDの情報及び位置の情報と、人の手の位置の情報とその手を有する人のIDの情報とをそれぞれセンシング手段で検出し、それぞれ、データベース102,104に登録する。具体的には、物品センシング手段101は、環境空間91に存在する日用品又はオフィス用品などの複数の物品のIDの情報及び位置の情報を検出し、検出した時刻の情報と対応付けて、物品検出履歴データベース102に登録する。手センシング手段103は、環境空間91に存在する人の手の位置の情報及びその手を有する人のIDの情報を検出し、検出した時刻の情報と対応付けて、手検出履歴データベース104に登録する。
次いで、ステップS202で、持ち方判定処理手段107は、物品検出履歴データベース102と手検出履歴データベース104を参照し、物品と手との位置関係を取得し、その位置関係と持ち方登録データベース112のデータ(分類された物品の持ち方の判定条件を登録したデータ)とから、人が物品をどのようにして持っているか、又は、何も持っていないか、を判定し、判定結果の情報を、物品のID毎に持ち方判定結果履歴データベース108に登録する。
次いで、ステップS203で、シーン判定手段109は、手検出履歴データベース104の手の位置の情報を時系列に参照し、手の移動軌跡を求め、その移動軌跡に基づいてシーン(「取るシーン」、「運ぶシーン」、又は、「置くシーン」)を判定し、判定したシーンの情報とそのシーンを判定した時刻の情報とを対応付けて、シーン判定結果履歴データベース110に登録する。また、手検出履歴データベース104を参照し、移動している手に対応する「人のID」の情報を特定し、シーン判定結果履歴データベース110に登録する。さらに、特定した人のIDの情報に対応する人の手の位置の情報と、その位置の情報を検出した時刻の情報とを対応付けた手の移動軌跡として登録する。
次いで、ステップS204で、第2物品候補抽出手段115は、ステップS203において判定されてシーン判定結果履歴データベース110に登録された結果の情報から、物品を「置くシーン」が終了したか否かを判定し、物品を「置くシーン」の終了以前であったと第2物品候補抽出手段115で判定されるならば、ステップS201のセンシングから繰り返す一方、物品を「置くシーン」が終了したと第2物品候補抽出手段115で判定されているならば、以下のステップS205以降の物品推定のための処理を開始する。
ステップS205で、データベース更新手段121は、物品検出履歴データベース102と前記持ち方判定結果履歴データベース108とシーン判定結果履歴データベース110とを参照し、シーン判定結果履歴データベース110に登録された手の移動軌跡と同様に移動する物品を、物品センシング手段101が唯1つに特定しているとき、その物品の持ち方について、ステップS202で判定された持ち方の情報に、持ち方登録データベース112又は/及び物品持ち方対応データベース123を更新する。
次いで、ステップS206で、データベース切替手段111は、シーン判定結果履歴データベース110に登録された人のIDの情報2203と手検出履歴データベース104を参照して取得する、その人の手が存在する位置の情報と、その人のIDの情報とに基づいて、持ち方登録データベース112に登録された複数のデータの中から、状況に対応するデータに切り替えて、その切り替えられたデータを第1物品候補抽出手段114が次のステップで参照可能となるようにする。例えば、人のIDの情報に基づいて、手領域及び物品領域位置関係におけるIDを切り替えることができて、具体的には、大人と子供で物品の持ち方が異なる場面などに対応することができる。
次いで、ステップS207で、前記第1物品候補抽出手段114は、持ち方判定結果履歴データベース108とシーン判定結果履歴データベース110とに登録された人のIDの情報とシーンの情報とを参照して、各シーンでの物品の持ち方に基づいて、持ち方登録データベース112又は/及び物品持ち方対応データベース123に登録されているデータから第1物品候補の情報を抽出する。
次いで、ステップS208で、第2物品候補抽出手段115により、前記物品検出履歴データベース102と前記シーン判定結果履歴データベース110を参照して、前記シーン判定結果履歴データベース110に登録されている手の移動軌跡に基づいて、物品が移動される前の位置(以下、「移動元」と言います。)において、推定されていた物品の情報を第2物品候補の情報として抽出する。
次いで、ステップS209で、物品推定手段116は、第1物品候補抽出手段114と前記第2物品候補抽出手段115において抽出した第1物品候補の情報と第2物品候補の情報に共通する物品の情報を、物品の推定結果の情報とする。物品推定手段116は、物品推定手段116により推定された物品推定結果の情報と、時刻の情報とを対応付けて、物品推定結果履歴データベース117に蓄積する。前記物品推定装置としては、この状態で物品の推定結果の情報をステップS211で出力すればよい。前記物品推定位置装置では、ステップS211の前に、以下のステップS210の動作を行う。
次いで、ステップS210で、物品位置推定手段118は、物品検出履歴データベース102と物品推定結果履歴データベース117を参照して、対象物品の位置を推定する。
次いで、ステップS211で、前記入出力手段120により、推定結果の情報を出力して、処理を終了する。
《各手段の説明》
次に、前述の各手段について、具体的な処理内容を説明する。ここでは、図3に示したようなキッチンの環境空間91においてキッチン用品を取り扱うシーンを例に説明する。本発明は、環境空間91としてキッチンに限定されるものではなく、リビング又はダイニングなどの他の空間にも適用することができるものであるが、理解しやすくするため、キッチンを例にとって、以下、説明する。
センサの一例としてカメラ301がキッチンの環境空間91の天井91aに設置されており、環境空間91内をセンシングしている。システムキッチン上には、システムキッチンの一端のコンロの奥側に収納ラック302が置かれており、システムキッチンの他端の側部に収納ラック303が置かれており、これらの収納ラック302又は303により、前記カメラ301でキッチン用品をセンシングしようとするとき、キッチン用品の隠蔽などの問題が発生する。また、表示出力用のモニタ304もシステムキッチンの調理台の奥側に設置されている。人305は、この環境空間91内を動きながら、作業を行う。以降において、図4に示したように、左上隅を原点とした座標系を考えることとする。
この環境空間91において、マグカップ3203の一部が収納ラック302に隠されるようにマグカップ3203が収納ラック302に置かれている。花子は、時刻t11にこのマグカップ3203を収納ラック302から取り出し、運び、時刻t99に、別の収納ラック303の、マグカップ3203の一部が隠されるような位置に、マグカップ3203を置く。このとき、モニタ304の前方のよく見える位置にも、マグカップ3204が置かれている。以上のような状況を考える。図5A及び図5Bに、時刻t11の物品の状況3201、時刻t99の物品の状況3202をそれぞれ示す。時刻t11の物品の状況3201では、円形のマグカップ3203の半分が収納ラック302に隠されるように、マグカップ3203が収納ラック302に置かれており、マグカップ3203の半円形の斜線領域のみが収納ラック302から露出して見えているとともに、モニタ304の前方のよく見える位置にも、円形の斜線領域で示すマグカップ3204が見えている状況を示している。時刻t99の物品の状況3202では、円形のマグカップ3203の半分が別の収納ラック303に隠されるように、マグカップ3203が収納ラック303に置かれており、マグカップ3203の半円形の斜線領域のみが収納ラック303から露出して見えているとともに、モニタ304の前方のよく見える位置にも、円形の斜線領域で示すマグカップ3204が見えている状況を示している。
《センシング手段》
センシング手段は、物品センシング手段101と手センシング手段103とで構成されている。物品センシング手段101と手センシング手段103とは、別々の装置又は手段などで構成してもよいが、共通の装置又は手段(例えば、画像センサなど)で構成してもよい。
この実施形態では、物品センシング手段101は、一例として、環境空間91に存在する複数の物品の情報(複数の物品のIDの情報及び前記複数の物品の位置の情報)を取得する情報取得装置と、情報取得装置により得られた情報から物品を特定する特定手段(特定部)とを備えて構成されている。情報取得装置の一例としては、物品の形状及び色情報などを取得可能な公知の画像センサなどのカメラ301が使用できる。特定手段の一例としては、公知の画像認識手段300などが使用できる。よって、環境空間91中に存在する複数の物品を画像センサ301で撮像して、撮像した画像に基づいて、複数の物品のIDの情報及び前記複数の物品の位置の情報を画像認識手段300で検出して、物品検出履歴データベース102に登録することで、物品センシング手段101として機能することができる。なお、手センシング手段103も、この物品センシング手段101と同様に、環境空間91中に存在する複数又は単数の人及びその人の手を画像センサ301で撮像して、撮像した画像に基づいて、複数又は単数の人のIDの情報及び前記人の位置の情報及び手の位置の情報を画像認識手段300で検出して、手検出履歴データベース104に登録するように構成することもできる。
物品センシング手段101は、環境空間91に存在する複数の物品の情報から、環境空間91にある複数の日用品又はオフィス用品などの複数の物品のIDの情報及び位置の情報を検出する。
以下に、図6A〜図6Cを参照して、画像センサ301を用いて、環境空間91に存在する複数の物品の情報を物品センシング手段101で取得した場合の動作の例を説明する。
図3に示したように、物品センシング手段101の画像センサの一例としてのカメラ301がキッチン環境空間91の天井91aに設置されていたとき、あらかじめ検出したい物品が無い状態の画像を背景画像501(図6A参照)をカメラ301により撮像して登録物品データベース113に保持しておく。そして、検出したい物品が環境空間91に存在するとき、カメラ301により環境空間91を撮像して、そのときの環境空間91に存在する複数の物品を含む画像情報を取得し、背景画像501と、カメラ301により撮像した環境空間91の画像との差分を画像認識手段300により算出して、物品のID及び位置を検出する。ここで、図6Bに示すように、収納ラック302に一部が隠されてしまうような位置に物品90を置いたとすると、物品90が置かれたときの入力画像502(図6B参照)と前記背景画像501(図6A参照)との差を画像認識手段300により求めることにより、差分画像503(図6C参照)が得られる。前記差分画像503で抽出された斜線部の領域504の重心位置を、検出物品90の位置とする。
一方、登録物品データベース113には、あらかじめ、物品を検出するために用いられる情報を入出力手段120などを使用して登録しておく。ここでは、テンプレート画像情報と色情報とを物品のIDの情報及び品名の情報とに対応付けて、登録物品データベース113に登録した例を図7に示す。すなわち、図7において、登録物品データベース113には、各物品に対して、IDの情報601と、品名の情報602と、テンプレート画像情報603と、色情報604が対応付けて登録されている。テンプレート画像情報603は、実際には様々な方向から取得した画像(例えば、上面、下面、左側面、右側面、正面、裏面の6方向の画像)が登録されているが、簡略化するため、ここでは、上方から取得した画像の例のみを記載している。
登録物品データベース113に登録された情報を画像認識手段300により参照し、背景画像501とカメラ301により撮像した環境空間91の画像とから画像認識手段300により算出された差分画像と、差分画像に対応するテンプレート画像情報603などの情報から、物品のIDの情報を画像認識手段300により検出する。
例えば、図6Cの差分画像503から抽出された斜線部の領域504と、テンプレート画像情報603とを照合することにより、物品のIDを識別する。前記のように、物品の一部が隠されてしまっているような場合、物品の全部が見えていても撮像画像が粗くテンプレートとの照合が正確にできない場合、及び、同一形状の物品が多数登録されている場合など、1つの物品に特定することは困難である。そこで、領域504とテンプレート画像情報603の類似度が、あらかじめ設定した閾値以上の複数の物品を候補の情報として、当該複数の物品のIDの情報を物品検出履歴データベース102に登録する。ここで、類似度には、例えば撮像画像とテンプレート画像とのマッチングの比率を用いることができる。
また、色情報604を利用する場合、抽出した領域504の色と物品の色情報604とを画像認識手段300により比較することで、物品を識別して物品のIDの情報を画像認識手段300により取得する。前記テンプレート画像情報603を利用する場合と同様に1つの物品に特定することが困難である場合、複数の物品のIDの情報を候補の情報として、物品検出履歴データベース102に画像認識手段300により登録する。物品の検出及び識別はここで述べた方法に限るものではないが、多くの場合において、同様に1つの物品を特定することが困難であることが発生すると考えられるので、複数の候補のIDの情報が物品検出履歴データベース102に画像認識手段300により登録される。
図8に、物品センシング手段101による結果の情報が登録された物品検出履歴データベース102の例を示す。物品検出履歴データベース102には、物品センシング手段101により物品を検出した時刻701と、物品を検出した位置の情報(例えばXY座標)702と、検出した物品の候補の情報(例えば、検出した物品の候補である、複数の物品のIDの情報)703が登録されている。図8は、一例として、時刻t11に検出した結果の情報と、時刻t99に検出した結果の情報を位置の情報毎に示している。
手センシング手段103は、環境空間91で活動している人305のIDの情報及び手の位置の情報を検出する。一例として、図9Aを参照して、人305の手首に装着可能な腕時計型の超音波タグセンサ802を用いた場合の動作の例を説明する。なお、図9Bには、別の例として、人305の服に装着可能な超音波タグセンサ802Bを用いた場合を示すが、動作的には図9Aと同じであるため、以下の説明では、図9Aの超音波タグセンサ802を基に行なう。天井91a又は壁などに複数の超音波受信機801を設置しておき、人305の手首に腕時計型の超音波発信器802を装着して人305に超音波発信器802を携帯させる。超音波発信器802が発信する超音波を、複数の超音波受信機801が受信し、前記超音波の到達時間の差により超音波発信器802の3次元位置を求めることができ、この位置を人305の手の位置とする。また、超音波発信器802に人305のIDをあらかじめ登録しておくことにより、登録人物データベース122を手センシング手段103が参照することで、検出した人305が誰であるかを識別できる。すなわち、手センシング手段103が登録人物データベース122を用いて人のIDまで識別する。そして、人のIDが分かると、人毎の物品の持ち方の違い等が、物品持ち方対応データベース123などを手センシング手段103が参照することによって分かるようになる。
図10に、登録人物データベース122の例を示す。図10において、登録人物データベース122には、IDの情報901と、人物名の情報902が登録されている。人305の手の位置検出する別の例として、前記画像センサ301を使用して撮像を行い(又は、物品センシング手段101で撮像した撮像画像を使用して)、撮像画像中の肌色領域を画像認識手段300で抽出し、追跡することにより実現することもできる。例えば、特開2007−148663号公報などに示されている方法を用いても良い。
以上のような処理により得られた結果の情報を手検出履歴データベース104に登録する。
図11に、前記結果の情報が登録された手検出履歴データベース104の例を示す。手検出履歴データベース104には、検出した時刻の情報1101と、検出した手のIDの情報1102(その手を有する人305のIDの情報と対応する。)と、検出した位置の情報1(XY座標)103が登録されている。
《センシング制御手段》
センシング制御手段1220は、例えば、図3に示すように、画像センサの一例としてのカメラ301を上下方向沿いのレール1221に沿って移動装置1222で移動するように制御し、カメラ301の3次元位置を変化させて、異なる位置からカメラ301で撮像して、取得する環境空間91に存在する物体(物品及び人)の画像情報を変えることによって、物品センシング手段101及び手センシング手段103等を構成する画像認識手段300で用いる画像情報を制御する。これによって、後述する持ち方登録データベース112及び物品持ち方対応データベース123の登録された物品と手との位置関係に対応するように、様々な角度の画像情報(画像センサ301と物体との間に障害物がない場合には、物体の360度の全ての方向から見た画像情報)を得ることができる。具体的な制御は、後述するが、例えば、手センシング手段103で検出した手の高さに、画像センサ301の位置を変化させて、環境空間に存在する物体の画像情報を得る。
《持ち方判定処理手段》
持ち方判定処理手段107は、前記手検出履歴データベース104に登録された手の位置を参照し、さらに物品検出履歴データベース102を参照して、手とその周辺に存在する物品との位置情報から、人が物品をどのようにして持っているか、又は何も持っていないか、を判定する。
判定は、センシング制御手段1220により複数のカメラ301を制御することにより得られた、手とその周辺領域の画像を比較することで行う。図12Aは手の甲側から撮像した撮像画像、図12Bは手の平側から撮像した撮像画像を示す。なお、人が動き回ることで多方向から撮影された画像が取得できれば、カメラ301は必ずしも複数台設置しなくても良い。また、手の甲側の画像か、手の平側の画像かの区別は、一例として、2つの画像を取得したのち、手の領域が多い方の画像を手の甲側の画像として取り扱い、手の領域が少ない方の画像を手の平側の画像として取り扱うことができる。
図13を参照して、持ち方判定処理手段107による持ち方判定処理の処理内容を説明する。
まず、ステップS1300で、センシング制御手段1220が、カメラ301の高さ位置を制御する。例えば、手センシング手段103で検出した手の高さ方向に対応する位置に、カメラ301が位置するように移動装置1222を駆動制御してカメラ301の高さを制御し、人305の手及びその手の周辺の領域の画像情報をカメラ301で撮像して取得する。ここで、例えば、人305の手、及び、手で把持された物品の撮像画像を得ることができる。
次いで、ステップS1301で、カメラ301で取得した、手及びその手の周辺の領域の画像情報から、物品センシング手段101と手センシング手段103の画像認識手段300を用いて、人の手とその手の周辺に存在する物品(人305の手が持っていると推定させる物品)を検出する。手センシング手段103により、画像センサ301の撮像画像を処理する画像認識手段300を用いた肌色検出等で手の検出を行う。検出した手の位置を中心に、あらかじめ設定した領域(例えば、手の位置を中心とした直径50cmの球の領域)を対象として、あらかじめ取得した背景画像との差分領域を画像認識手段300で抽出することで、手とその手の周辺に存在する物品を画像認識手段300により検出する。
ここでは、センシング制御手段1220で、2台のカメラ301の高さ位置を制御し、1つの手の両側(手の甲側と手の平側)から同時に撮影するように制御している。得られた手の画像情報から画像認識手段300により画像認識処理を行い、肌色領域が多い方向から撮像した画像情報を「手の甲側画像」(図12A参照)と呼び、肌色領域が少ない方向から撮像した画像情報を手の平側から撮影された画像を「手の平側画像」(図12B参照)と呼ぶことにする。図14A及び図14Bに、「手の甲側画像」(図12A参照)及び「手の平側画像」(図12B参照)から抽出した画像の例を示す。図14A及び図14Bにおいて、白い楕円形の部分Wは手の部分であり、黒い円柱部分Bは物品(この例ではコップ)の部分である。
次いで、ステップS1302で、手領域と物品領域を分割し、それぞれの領域のサイズを求める。具体的には、前記ステップS1301で画像認識手段300により画像認識処理を行って検出した領域の中で、肌色領域を手領域とし、肌色以外の領域を物品領域とする。そして、それぞれの領域の面積を、持ち方判定処理手段107の一部を構成する演算部107A(図1B参照)により求める。図15A〜図15Dに、それぞれ、手の甲側の画像と手の平側の画像の手領域1501と、手の甲側の画像と手の平側の画像の物品領域1502を示す。図15Cでは、物品領域1502が複数の連結成分に分かれている状態を示している。
次いで、ステップS1303で、物品領域1502のサイズが0(ゼロ)であるか否かを持ち方判定処理手段107の一部を構成する判定部107B(図1B参照)により判定する。手の甲側画像及び手の平側画像ともに物品領域1502のサイズが0であると、持ち方判定処理手段107の一部を構成する手領域比較判定部107C(図1B参照)により判定されれば、ステップS1308で人の手は何も持っていないとステップS1308で判定し、判定結果の情報を持ち方判定結果履歴データベース108に登録して、持ち方判定処理を終了する。また、ステップS1303で、物品領域1502のサイズが0でないと、持ち方判定処理手段107の一部を構成する手領域比較判定部107Cにより判定されれば、次のステップS1304へ進む。
なお、手検出履歴データベース104を参照し、一定時間連続で手の位置が腰の高さより高い位置にある場合、人は手に収まる小さな物品を持っていると判断しても良い。
ステップS1304で、手領域1501のサイズを手の甲側画像と手の平側画像とを、持ち方判定処理手段107の一部を構成する手領域比較判定部107Cで比較する。
手の甲側画像の手領域1501のサイズと手の平側画像の手領域1501のサイズがほぼ等しいと、持ち方判定処理手段107の一部を構成する手領域比較判定部107Cで判定すれば、「タイプA1」であるとし、手の甲側画像の手領域1501のサイズの方が、手の平側画像の手領域1501のサイズより大きいと、持ち方判定処理手段107の一部を構成する手領域比較判定部107Cで判定すれば、「タイプA2」であるとする。
次いで、ステップS1305で、物品領域1502のサイズを手の甲側画像と手の平側画像と、持ち方判定処理手段107の一部を構成する手領域比較判定部107Cで比較する。手の甲側画像の物品領域サイズと手の平側画像の物品領域サイズがほぼ等しいと、持ち方判定処理手段107の一部を構成する手領域比較判定部107Cで判定すれば、「タイプB1」であるとし、手の甲側画像の物品領域サイズの方が、手の平側画像の物品領域サイズより小さいと、持ち方判定処理手段107の一部を構成する手領域比較判定部107Cで判定すれば、「タイプB2」であるとする。ここでは、物品を手で持つときは、通常、手の甲側の画像の物品領域のサイズの方が、手の平側の画像の物品領域のサイズより小さくなるはずであると、仮定している。
次いで、ステップS1306で、手領域1501と物品領域1502との位置関係を、持ち方判定処理手段107の一部を構成する位置関係算出部107D(図1B参照)で求める。すなわち、具体的には、位置関係は、手領域1501と物品領域1502とのそれぞれの領域の重心の位置を、持ち方判定処理手段107の一部を構成する位置関係算出部107Dで求め、求められたそれぞれの領域の重心の位置の関係から、持ち方判定処理手段107の一部を構成する位置関係算出部107Dで求める。それぞれの領域が複数の連結成分に分かれている場合(例えば、図15Dのように物品領域1502が複数の連結成分に分かれている場合)は、それぞれの連結成分についての重心位置を用いる。詳細は、後述する具体的な持ち方の判定において説明する。
次いで、ステップS1307で、持ち方の判定を、持ち方判定処理手段107の一部を構成する持ち方判定部107E(図1B参照)で行う。持ち方登録データベース112を、持ち方判定処理手段107の一部を構成する持ち方判定部107Eで参照し、その判定条件に基づいて持ち方を、持ち方判定処理手段107の一部を構成する持ち方判定部107Eで判定し、判定結果の情報を持ち方判定結果履歴データベース108に、持ち方判定処理手段107の一部を構成する持ち方判定部107Eで登録して、持ち方判定処理を終了する。ここで、持ち方判定結果履歴データベース108に登録される判定結果の情報とは、持ち方のIDの情報と、判定のときに時刻取得手段100から取得した時刻と、人のIDの情報を含むものである(図19参照)。
図16に前記持ち方登録データベース112の例を示す。人のIDの情報1600と、持ち方のIDの情報1601と、持ち方の判定条件として、ステップS1304での手領域1501のサイズ比較結果の情報1602と、物品領域1502のサイズ比較結果の情報1603と、手領域1501と物品領域1502との位置関係の情報1604とが登録されている。手領域1501と物品領域1502との位置関係の情報1604において、左側を人の体側とし、丸は手領域1501の重心を表し、四角は物品領域1502の重心を表す。
図16の前記持ち方登録データベース112の上から2段目の持ち方ID=C001は、手領域のサイズ比較結果=A1(タイプA1を意味する。)、物品領域のサイズ比較結果=B1(タイプB1を意味する。)、手領域と物品領域との位置関係は、手領域の前方に物品領域が存在するものである。これは、例えば、マグカップの取っ手部分を手で握るような持ち方(図17Aの1701及び図17Gの1701Aにそれぞれ例示)である。又は、これは、皿を手前側から手で摘むように持ち上げる持ち方(図17Bの1702及び図17Hの1702Aにそれぞれ例示)である。なお、図17A〜図17Fは手で物品を持っているときの状態を撮像した撮像画像であり、図17G〜図17Lは、それぞれ、図17A〜図17Fの撮像画像1701,1702,1703,1704,1705,1706から手の領域と物品の領域とをそれぞれ抽出した画像1701A,1702A,1703A,1704A,1705A,1706Aの例を示す。図17G〜図17Lにおいて、白い楕円形の部分Wは手の部分であり、黒い円柱部分Bは物品(この例ではコップ)の部分である。
図16の前記持ち方登録データベース112の上から3段目の持ち方ID=C002は、手領域のサイズ比較結果=A1、物品領域のサイズ比較結果=B1、手領域と物品領域との位置関係は、手領域の下方に物品領域が存在するものである。これは、例えば、急須の取っ手部分を手で握るような持ち方(図17Cの1703及び図17Iの1703Aにそれぞれ例示)である。又は、これは、コップ上部を上から手で掴むような持ち方(図17Dの1704及び図17Jの1704Aにそれぞれ例示)である。
図16の前記持ち方登録データベース112の上から4段目の持ち方ID=C003は、手領域のサイズ比較結果=A1、物品領域のサイズ比較結果=B1、手領域と物品領域との位置関係は、手領域の上方に物品領域が存在するものである。これは、例えば、ナイフの柄の端部分を手で握るような持ち方(図17Eの1705及び図17Kの1705Aにそれぞれ例示)である。又は、これは、小さな皿を下から手で支えるような持ち方(図17Fの1706及び図17Lの1706Aにそれぞれ例示)である。
図16の前記持ち方登録データベース112の上から5段目の持ち方ID=C004は、手領域のサイズ比較結果=A1、物品領域のサイズ比較結果=B1、手領域と物品領域との位置関係は、手領域の上方と下方に物品領域が存在するものである。これは、例えば、フォークの柄の中央部分を手で握るような持ち方(図18Aの1801及び図18Fの1801Aにそれぞれ例示)である。なお、図18A〜図18Eは手で物品を持っているときの状態を撮像した撮像画像であり、図18F〜図18Jは、それぞれ、図18A〜図18Eの撮像画像1801,1802,1803,1804,1805から手の領域と物品の領域とをそれぞれ抽出した画像1801A,1802A,1803A,1804A,1805Aの例を示す。図18F〜図18Jにおいて、白い楕円形の部分Wは手の部分であり、黒い円柱部分Bは物品(この例ではコップ)の部分である。
図16の前記持ち方登録データベース112の上から6段目の持ち方ID=C005は、手領域のサイズ比較結果=A2、物品領域のサイズ比較結果=B1、手領域と物品領域との位置関係は、手の甲側画像においては手領域の奥側に物品領域が存在し、手の平側画像においては手領域の手前側に物品領域が存在するものである。これは、例えば、皿を横から、手ですくうように持つ持ち方(図18Bの1802及び図18Gの1802Aにそれぞれ例示)である。
図16の前記持ち方登録データベース112の上から7段目の持ち方ID=C006は、手領域のサイズ比較結果=A2、物品領域のサイズ比較結果=B2、手領域と物品領域との位置関係は、手の甲側画像においては手領域の上方と下方に物品領域が存在し、手の平側画像においては手領域の前方に物品領域が存在するものである。これは、例えば、コップを横から手で持つような持ち方(図18Cの1803及び図18Hの1803Aにそれぞれ例示)である。
図16の前記持ち方登録データベース112の上から8段目の持ち方ID=C007は、手領域のサイズ比較結果=A2、物品領域のサイズ比較結果=B2、手領域と物品領域との位置関係は、手の甲側画像においては手領域の前方に物品領域が存在し、手の平側画像においても手領域の前方に物品領域が存在するものである。これは、例えば、お椀を横から手で持つような持ち方(図18Dの1804及び図18Iの1804Aにそれぞれ例示)である。
図16の前記持ち方登録データベース112の上から9段目の持ち方ID=C008は、手領域のサイズ比較結果=A2、物品領域のサイズ比較結果=B2、手領域と物品領域との位置関係は、手の甲側画像においては手領域の下方に物品領域が存在し、手の平側画像においても手領域の下方に物品領域が存在するものである。これは、例えば、スポンジを上から手で握るように持ち上げる持ち方(図18Eの1805及び図18Jの1805Aにそれぞれ例示)である。
図16の前記持ち方登録データベース112の上から10段目の持ち方ID=C009は、手領域のサイズ比較結果=A2、物品領域のサイズ比較結果=B2、手領域と物品領域との位置関係は、手の甲側画像においては手領域の前方と後方に物品領域が存在し、手の平側画像においても手領域の前方と後方に物品領域が存在するものである。これは、例えば、本を手で抱えるような持ち方(図23Aの2301に例示)である。
次に、図19に、判定結果の情報がステップS1307で登録された持ち方判定結果履歴データベース108の例を示す。持ち方判定結果履歴データベース108には、時刻の情報1901と、判定された持ち方をした人のIDの情報1902と、判定された持ち方のIDの情報1903が登録されている。前記持ち方判定処理手段107によりステップS1308で「何も持っていない」と判定された場合、持ち方のIDの情報1903にはC000を登録するものとする。図19では、時刻t1から時刻t10までが持ち方のID1903にはC000が登録され、時刻t11から時刻t99までが持ち方のID1903にはC001が登録され、時刻t100から持ち方のID1903にはC000が登録されている。よって、図19は、ID=B001の人(花子)が時刻t11に、ID=C001の持ち方をする物品、例えば、マグカップを取り上げ、運び、時刻t99に別の場所に置いたときの検出結果の情報を示しており、時刻t11からt99までの間、ID=B001の人(花子)が、ID=C001の持ち方をしていたことが分かる。
《シーン判定手段》
シーン判定手段109は、手検出履歴データベース104に登録された手の位置の情報を時系列に参照して、移動している手に対応する手のID(すなわち、人のID)毎に、手の位置の情報とその手を検出した時刻の情報とを対応付けて、人が物品を移動するときの手の移動軌跡を算出する。さらに、その移動軌跡に基づいてシーンをシーン判定手段109で判定する。前述の通り、「シーン」とは、人が物品を移動するときに、置かれている物品を人が取り上げている状況(取るシーン)、取り上げた物品を人が運んでいる状況(運ぶシーン)、持っている物品を人が置いている状況(置くシーン)、のいずれかの状況を示すものとしているので、図19の持ち方判定結果履歴データベース108を参照して、人が何らかの物品を持っているとシーン判定手段109で判定されている期間、つまり、C000以外の持ち方IDが登録されている時刻のデータにおいてのみ、シーン判定をシーン判定手段109で実施すれば良い。ただし、後に説明する第2の閾値時間以内の間に、持ち方IDがC000からC000以外に変わった場合は、C000以外の持ち方IDが登録されている時刻データ(つまり、持ち方が判定された時刻データ)として、シーン判定をシーン判定手段109で実施する。
シーン判定手段109で実行されたシーンの判定結果の情報をシーン判定結果履歴データベース110に登録する。
人が何らかの物品を持っているとシーン判定手段109で判定されている期間(持ち方IDがC000以外)に、あらかじめ設定した一定時間だけ前後に幅を持たせた期間(例えば、「取るシーン」の場合は1秒前から、「置くシーン」の場合は1秒後まで)の、手検出履歴データベース104に登録された手の位置データをシーン判定手段109で抽出し、時系列にシーン判定手段109で参照することで、手の移動軌跡をシーン判定手段109で得ることができる。具体的には、持ち方判定結果履歴データベース108をシーン判定手段109で参照して、持ち方IDがC000からC000以外に変わった時刻から、次に持ち方IDがC000以外からC000になった時刻が一定時間以上続く時刻までの時刻データをシーン判定手段109で取得する。そして、手検出履歴データベース104をシーン判定手段109で参照して、取得した時刻データに対応する手の位置データを手のID毎にシーン判定手段109で切り出し、時系列に手の位置が動いているとして、手の移動軌跡をシーン判定手段109で得る。図20Aには、シーン判定手段109で求めた移動軌跡の例2001をキッチンの平面図に点線で示している。図20Bには、前記移動軌跡の例をテーブル形式で2002として示している。テーブル2002では、時刻とXY座標の位置とで前記移動軌跡を表している。
移動軌跡を抽出した手の位置データを用いて、単位時間あたりの移動量をシーン判定手段109で算出することにより、シーンをシーン判定手段109で判定する。すなわち、人が物品を取ったり置いたりするときには、自然と手の移動速度が遅くなる時間が一定時間以上続くと考えられるので、これに基づいてシーン判定手段109で判定する。
シーン判定手段109でシーン判定に用いるとして切り出したデータにおいて、単位時間あたりの移動量をシーン判定手段109で算出し、第1の閾値時間以上(たとえば、3秒以上)の間、算出した移動量があらかじめ設定した閾値以下(例えば、0.05m/s)になる時間区間をシーン判定手段109で抽出する。そして、抽出された複数の時間区間の中で、最も時刻が早い時間区間を「取るシーン」とシーン判定手段109で判定する。「取るシーン」であるとシーン判定手段109で判定された時刻以降に、第2の閾値時間以上(例えば、3秒以上)の間、算出した移動量があらかじめ設定した閾値以下(例えば、0.05m/s)になる時間区間をシーン判定手段109で抽出する。そして、抽出された複数の時刻区間の中で、最も時刻の遅い時刻区間を「置くシーン」とシーン判定手段109で判定する。そして、「取るシーン」と「置くシーン」との間の時間区間を「運ぶシーン」であるとシーン判定手段109で判定する。
図21に、算出した単位時間あたりの移動量のグラフの例を示す。単位時間あたりの移動量のグラフ2101に対して、設定した閾値TH(図21で2102で示す。)以下となる期間をシーン判定手段109で抽出し、一番早い時間帯(時刻t11からt19)を「取るシーン」2103とシーン判定手段109で判定し、一番遅い時間帯(時刻t91からt99)を「置くシーン」2105とシーン判定手段109で判定し、「取るシーン」2103と「置くシーン」2105の間を「運ぶシーン」2104とシーン判定手段109で判定する。
ここで、「運ぶシーン」と判定した2104においても、移動量が閾値以下の時間が存在する。この時間は、持ちづらい物品を運ぶとき、重い物品を運ぶとき又は熱い飲み物が入った物品を運ぶときに、人が物品の持ち方を変える場合を想定している。物品の持ち方を変える場合は、一度、物品を置く、又は、物品の持ち方を変えて物品を取る、又は、再度物品を運ぶというように、物品を取る場合より動作が多くなり、時間がかかる。したがって、その時間をシーン判定手段109で考慮して、第1の閾値時間より長い第2の閾値時間よりも後の時間とし、その後の時間における物品の持ち方IDもシーン判定手段109で用いることにより、物品の持ち方を変えて運ぶ場合と物品を置く場合と区別して、シーン判定手段109で判定することできる。
図22に、判定結果の情報が登録されたシーン判定結果履歴データベース110の例を示す。シーン判定結果履歴データベース110には、時刻の情報2201と、人の情報ID2203と、シーン判定結果の情報2202が登録されている。
なお、「運ぶシーン」と判定されたシーンにおいて、さらに、手検出履歴データベース104をシーン判定手段109で参照することにより、その人自身が歩行中か、停止中であるかをシーン判定手段109で取得し、シーン判定手段109で、その人が歩行中か、又は、停止中かに分類するようにしても良い。例えば、図23A〜図23Dに示すように、本を人が歩行中に「運ぶシーン」では、図23Aの2301及び図23Cの2301Aにそれぞれ示すように手で本を抱えるように本を持ち、人の停止中に「運ぶシーン」では、図23Bの2302及び図23Dの2302Aにそれぞれ示すように手で本を掴むように本を持つという違いがある。これにより、人が歩行中と停止中で持ち方が変化する物品に対して、より正確な推定結果の情報をシーン判定手段109で得ることができるようになる。なお、図23C及び図23Dにおいて、白い楕円形の部分Wは手の部分であり、黒い円柱部分Bは物品(この例では本)の部分である。
《第1物品候補抽出手段》
第1物品候補抽出手段114は、前記持ち方判定結果履歴データベース108と前記シーン判定結果履歴データベース110を参照して、各シーンで対象物品をどのような持ち方をしていたかを比較することにより、前記物品持ち方対応データベース123に登録されているデータから対象物品の候補の情報を抽出する。
第1物品候補抽出手段114では、シーン判定結果履歴データベース110の「取るシーン」と「運ぶシーン」と「置くシーン」とのそれぞれのシーンの時刻と同じ時間帯における、持ち方判定結果履歴データベース108の持ち方判定結果の情報の中から、最も多く判定されている持ち方を、そのシーンの持ち方とする。例えば、図24に示したようなシーン判定結果の情報2401と持ち方判定結果の情報2402であった場合、「取るシーン」の持ち方はID=C006、「運ぶシーン」の持ち方はID=C009、「置くシーン」の持ち方はID=C006、となる。
この結果の情報と、物品持ち方対応データベース123に登録されている持ち方を第1物品候補抽出手段114で比較して、シーンと持ち方の対応がすべて同一である物品を、対象物品の候補の情報として第1物品候補抽出手段114で抽出する。
図25に、物品持ち方対応データベース123の例を示す。物品持ち方対応データベース123には、人のIDの情報2500と、物品のIDの情報2501と、品名の情報2502と、その物品の持ち方の情報2503とがシーン毎に登録されている。物品のIDの情報2501は、登録物品データベース113と共通に用いる。また、持ち方は必ずしも一意ではなく、複数の持ち方をする物品に対しては、複数の持ち方を物品持ち方対応データベース123に登録する。
図24と図25に示した例の場合、図24では、持ち方IDがC006とC009の両方が存在するので、図25の物品持ち方対応データベース123の中で、持ち方IDがC006とC009の両方存在する物品を第1物品候補抽出手段114で抽出すると、対象物品の候補の情報として、ID=A002、A012、A013が抽出される。
《第2物品候補抽出手段》
第2物品候補抽出手段115は、前記物品検出履歴データベース102と前記シーン判定結果履歴データベース110を参照して、対象物品の移動軌跡の移動元において検出されていた物品を候補の情報として抽出する。
図26に候補抽出の考え方を示す。まず、時刻t1にカメラ301が位置(30,30)に物品2601を検出し、画像認識手段300での画像認識処理の結果、物品A001又はA002又はA013のいずれかであるとして、結果の情報を画像認識手段300から出力する。一方、時刻t1からt99までの間に、人は何らかの物品を位置(30,30)から(270,50)まで運んだという移動軌跡2602がシーン判定手段109で得られる。すると、位置(270,50)の様子を直接検出できない場合でも、位置(270,50)に物品A001又はA002又はA013のいずれかが存在する、と第2物品候補抽出手段115で推定することができる。
図42のフローチャートを用いて、第2物品候補抽出手段1125の具体的な物品候補の抽出方法について、説明する。
まず、ステップS1401では、ステップS202(図2参照)のシーン判定の際にも用いた、シーン判定結果履歴データベース110を第2物品候補抽出手段1125で参照し、時刻毎のシーン判定結果の情報と、移動している手に対応する人のIDとを第2物品候補抽出手段1125で取得する。
次いで、S1402では、取得したシーン判定結果の情報から「取るシーン」と判定された時刻を第2物品候補抽出手段1125で取得し、手検出履歴データベース104に登録されている時刻の中で、特定した時刻の直前の時刻を第2物品候補抽出手段1125で特定する。手検出履歴データベース104を第2物品候補抽出手段1125で参照し、特定した時刻とS1401で取得した人のIDとに対応する、手の位置を第2物品候補抽出手段1125で取得する。
次いで、S1403では、物品検出履歴データベース102を第2物品候補抽出手段1125で参照し、S1402で特定した時刻における手の位置付近に存在する物品を第2物品候補抽出手段1125で取得する。手の位置付近は、手の位置を中心として、直径50cmの球の領域とする等、第2物品候補抽出手段1125内に予め設定しておく。手の位置に対して、物品検出履歴データベース102に登録されている全ての方向に対して±25cmの範囲にある物品を第2物品候補の情報と第2物品候補抽出手段1125で決定して、第2物品候補抽出手段1125による物品候補の情報の抽出処理を終了する。
《物品推定手段》
物品推定手段116は、前記第1物品候補抽出手段114と前記第2物品候補抽出手段115において、共通に抽出された対象物品の候補の情報を、対象物品の推定結果の情報とする。推定結果の情報を、物品推定結果履歴データベース117に登録する。
前述の例の場合、位置(270,50)に置かれた物品は、第1物品候補抽出手段114の抽出結果の情報のID=A002、A012、A013と、第2物品候補抽出手段115の抽出結果の情報のID=A001、A002、A013とのうちの共通物品である、ID=A002とID=A013とのいずれかであると物品推定手段116で推定される。
図27に、物品推定結果履歴データベース117の例を示す。物品推定結果履歴データベース117には、時刻の情報2701と、位置の情報2702と、物品推定結果の情報2703が登録されている。この例は、時刻t99に、位置(270,50)に置かれた物品は、ID=A002、A013のいずれかであると物品推定手段116で推定されたことを示している。
《物品位置推定手段》
物品位置推定手段118は、前記物品検出履歴データベース102(図8参照)と前記物品推定結果履歴データベース117(図27参照)を参照して、対象物品の位置を推定する。推定結果の情報を、物品位置推定結果履歴データベース119に物品位置推定手段118で登録する。
物品検出履歴データベース102と物品推定結果履歴データベース117に登録された同じ時間帯に検出及び推定された結果の情報を物品位置推定手段118で統合して、登録物品データベース113に登録された一つ以上の物品の位置を物品位置推定手段118で推定する。
図28A及び図28Bを用いて、統合方法の1つの例を説明する。時刻t99における物品検出履歴データベース102の物品候補の情報2801と、物品推定結果履歴データベース117の物品推定結果の情報2802が得られたとする。物品推定結果の情報2802を物品位置推定手段118で参照すると、位置(270,50)には物品ID=A002、A013のいずれかが存在すると推定されている。一方、物品候補の情報2801を物品位置推定手段118で参照すると、位置(100,70)には物品ID=A002のみが存在すると検出されている。1つの位置において物品の候補の情報が1つしか存在しないということは、それだけ確からしいと考えられるので、逆に、物品ID=A002は位置(270,50)に存在する可能性は低いと考えられる。つまり、位置(270,50)に存在する物品はID=A013であると考えられる。よって、物品位置推定手段118で統合の結果、位置(270,50)に複数の物品IDが存在すると検出されている場合よりも、位置(100,70)には物品ID=A002のみが存在すると検出されている場合を物品位置推定手段118で推定結果の情報として抽出し、位置(100,70)には物品ID=A002が存在し、位置(270,50)には物品ID=A013が存在するという推定結果の情報が物品位置推定手段118で得られる。すなわち、物品位置推定手段118により、物品候補の情報2801と物品推定結果の情報2802とを比較して、1つの位置において物品の候補の情報が1つのみ存在する場合(例えば、1つの位置(100,70)には1つの物品ID=A002のみが存在する場合)を推定結果の情報として抽出し、抽出された物品(例えば、物品ID=A002)を物品推定結果の情報2802から除いた残りの物品推定結果の情報2802と物品候補の情報2801とをさらに比較して、1つの位置において物品の候補の情報が1つしか存在しない場合(例えば、1つの位置(270,50)には1つの物品ID=A013のみが存在する場合)があれば、その場合も推定結果の情報として抽出して、その推定結果の情報を出力する。
図29A及び図29Bを用いて、物品位置推定手段118による統合方法の別の例を説明する。時刻t99における物品検出履歴データベース102の物品候補の情報2901と、物品推定結果履歴データベース117の物品推定結果の情報2902が得られたとする。物品候補の情報2901を参照すると、位置(270,50)には、物品ID=A003,A004,A005,A013が存在すると検出されている。一方、物品推定結果の情報2902を参照すると、前記と同じ位置(270,50)には、物品ID=A002、A013のいずれかが存在すると推定されている。両方とも同じ位置に物品を検出しているので、単純に合わせると、位置(270,50)には、物品ID=A002,A003,A004,A005,A013のいずれかが存在するという結果が得られることになる。ここで、両方で出力されている同じ物品が両方で出力されている場合には、その物品が前記位置に存在する可能性が高いと考えられる。この考えに基づくと、統合の結果、位置(270,50)には、物品ID=A002,A003,A004,A005,A013のいずれかが存在するが、物品ID=A013が存在する可能性が高い、という結果を得ることができるようになる。このような判定動作を物品位置推定手段118に行わせる。すなわち、物品位置推定手段118により、物品候補の情報2901と物品推定結果の情報2902とを比較して、同一位置(例えば、位置(270,50))において重複して登録されている物品(例えば、物品ID=A013)を抽出し、抽出された物品(例えば、物品ID=A013)がその位置(例えば、位置(270,50))に存在する可能性が高いと推定して、その推定結果の情報を出力する。
以上、物品位置推定手段118による2通りの簡単な統合方法を説明したが、さらに別の例として、物品候補の情報又は物品推定結果の情報にそれぞれの物品である確率の情報を持たせて、確率的に物品を推定しても良い。例えば、第1物品候補抽出手段114が、ID=A001である確率を60%、ID=A002である確率を30%、ID=A003である確率を10%として物品候補をそれぞれ抽出し、第2物品候補抽出手段115が、ID=A001である確率を40%、ID=A002である確率を40%、ID=A003である確率を20%として物品候補をそれぞれ抽出したとする。このとき、人によって操作された物品の確率の比は、(ID=A001):(ID=A002):(ID=A003)=60×40:30×40:10×20となる。正規化すると、ID=A001が操作された確率が63%、ID=A002が操作された確率が32%、ID=A003が操作された確率が5%となる。以上から、人によって操作された物品を、確率の最も高いID=A001の物品であると決定する。尚、第1物品候補を抽出するときの確率の求め方は、各物品の持ち方を識別したときの識別誤りの傾向から算出することができる。また、第2物品候補を抽出するときの確率の求め方は、前回物品が操作されたときに推定した各物品らしさの確率とすることができる。つまり、次回、この位置から人が物品操作を開始したとすると、第2物品候補はID=A001である確率が63%、ID=A002である確率が32%、ID=A003である確率が5%として物品候補をそれぞれ抽出することとなる。
図30に、前記物品位置推定手段118による推定結果の情報が登録された物品位置推定結果履歴データベース119の例を示す。物品位置推定結果履歴データベース119には、時刻の情報3001と、位置の情報3002と、物品推定結果の情報3003が登録されている。すなわち、図28A及び図28Bを用いた物品位置推定手段118による前記統合方法の前記最初の例における推定結果の情報として、時刻t99において、位置(100,70)には物品ID=A002が存在するとともに、位置(270,50)には物品がID=A013存在するという推定結果の情報が登録されていることを示している。また、図29A及び図29Bを用いた物品位置推定手段118による前記統合方法の前記2番目の例における推定結果の情報として、時刻t99において、位置(270,50)には物品がID=A013存在するという推定結果の情報が登録されていることを示している。
《入出力手段》
入出力手段120は、ユーザからの物品探索要求を入力し、前記物品位置推定結果履歴データベース119を参照し、物品の位置情報を出力する。また、入出力手段120を他のデータベース又は他の手段と接続して、あらかじめ、物品を検出するために用いられる物品又は人の情報を入力して、それぞれのデータベース又は他の手段の内部記憶部に登録することもできる。入出力手段120は、インターネットなどを介して他のデータベースなどの情報を取り込むように構成することもできる。
図31に、入出力手段120の一例としての出力装置の例としてのモニタ304における、物品探索のための表示画面の例を示す。出力装置の例としてのモニタ304に「探したい物品名を入力してください」と表示され、ユーザは、入出力手段120の別の例としての入力装置の例としてのキーボードなどを使用して、物品名(例えば、ティーポット)を入力する。入力された物品名に基づき、入出力手段120により、図7の登録物品データベース113を参照して、ティーポットのIDはA008であることを検出したのち、図30に示した物品位置推定結果履歴データベース119を参照し、最新の時刻のA008の位置を求め、モニタ304に出力する(図44参照)。
前記第1実施形態では、第1物品候補と第2物品候補で重複している物品を、物品推定手段116が対象物品と推定するようにしているが、これに限られるものではなく、前記第1実施形態の簡略版として、第2物品候補抽出手段を省略し、第1物品候補をそのまま、物品推定手段116が対象物品と推定するようにしてもよい。以下、そのような第1実施形態の変形例にかかる第1物品候補抽出手段114及び物品推定手段116の動作について、図44を参照しながら説明する。
《第1物品候補抽出手段》
第1物品候補抽出手段114は、前記持ち方判定結果履歴データベース108と前記シーン判定結果履歴データベース110を参照して、各シーンで対象物品をどのような持ち方をしていたかを比較することにより、前記物品持ち方対応データベース123に登録されているデータから対象物品の候補の情報を抽出する。
第1物品候補抽出手段114では、シーン判定結果履歴データベース110の「取るシーン」と「運ぶシーン」と「置くシーン」とのそれぞれのシーンの時刻と同じ時間帯における、持ち方判定結果履歴データベース108の持ち方判定結果の情報の中から、最も多く判定されている持ち方を、そのシーンの持ち方とする。例えば、図43に示したようなシーン判定結果の情報2401と持ち方判定結果の情報2402であった場合、「取るシーン」の持ち方はID=C002、「運ぶシーン」の持ち方はID=C006、「置くシーン」の持ち方はID=C002、となる。
この結果の情報と、物品持ち方対応データベース123に登録されている持ち方を第1物品候補抽出手段114で比較して、シーンと持ち方の対応がすべて同一である物品を、対象物品の候補の情報として第1物品候補抽出手段114で抽出する。
図25に、物品持ち方対応データベース123の例を示す。物品持ち方対応データベース123には、物品のIDの情報2501と、品名の情報2502と、その物品の持ち方の情報2503とがシーン毎に登録されている。物品のIDの情報2501は、登録物品データベース113と共通に用いる。また、持ち方は必ずしも一意ではなく、複数の持ち方をする物品に対しては、複数の持ち方を登録する。
図43と図25とに示した例の場合、対象物品の候補として、ID=A001が抽出される。
《物品推定手段》
物品推定手段116は、前記第1物品候補抽出手段114において抽出された物品の情報を、対象物品の推定結果の情報とする。物品推定手段116は、推定結果の情報を、物品推定結果履歴データベース117に登録する。
前述の例の場合、位置(270,50)に置かれた物品は、第1物品候補抽出手段114の抽出結果の情報からID=A001であると物品推定手段116で推定される。
図45に、物品推定結果履歴データベース117の例を示す。物品推定結果履歴データベース117には、時刻の情報4401と、位置の情報4402と、物品推定結果の情報4403が登録されている。この例は、時刻t99に、位置(270,50)に置かれた物品は、ID=A001であると物品推定手段116で推定されたことを示している。

次に、センシング制御手段1220を用いない場合の処理について説明する。カメラと人の位置関係によって、カメラから見た手と物品の位置関係が実際の手と物品の位置関係と異なる場合がある。そのため、環境空間91を複数のエリアに分割し、分割したエリア毎に物品持ち方対応データベース123を作成しても良い。このとき、物品持ち方対応データベース123は、カメラの設置位置に基づいて作成する。尚、エリア分割の例としては、環境空間91をX軸方向とY軸方向に対してN(m)間隔に正方形のメッシュで区切る等が考えられる。図48にエリア分割を行った環境空間91の例を示す。図48の4801は、分割された正方形のエリアを示す。尚、環境空間91においては、人はXY平面(床面)上しか移動できないため、エリア分割はX軸方向とY軸方向にしか行っていない。
次いで、各エリア4801の間隔寸法N(m)の設定方法について説明する。低い天井にカメラが設置されている場合、人の移動に対する手と物品の見え方の変化が大きいため、Nは小さめに設定する方が良い。また、高い天井にカメラが設置されている場合、人の移動に対する手と物品の見え方の変化は小さいため、Nは大きめに設定しておいても良い。
また、人の向きによっても、カメラに映る手と物品の位置関係が実際の手と物品の位置関係と異なる場合がある。そのため、(上述したエリア毎に)θ度刻みで360/θ分の物品持ち方対応データベース123を作成しても良い。このとき、物品持ち方対応データベース123は、カメラの設置位置に基づいて作成する。尚、人の向きは、例えば人の進行方向の向きとして考えることができる。人の進行方向は、例えばタグの検出位置の履歴を用いることで推測可能である。
また、エリア又は人の向き毎に物品持ち方対応データベース123を作成するのが困難な場合、物品を把持している状態の手と物品の三次元形状モデルを予め作成しておく方法が考えられる。
図12Aを、人がコップを把持したときの三次元形状モデルとして説明する。ここで、三次元形状モデルとは、手の位置、カメラの設置位置、及びカメラの撮影方向との情報を用いて、カメラに映る手と物品の位置関係である物品持ち方対応データベース123を作成するための規則である。
ここで、三次元形状モデルは、例えばCADなどを用いて作成することができる。三次元形状モデルを用いると、人の位置(向き)とカメラの設置位置に基づいて、手と物品の見え方である物品持ち方対応データベース123を予め作成することができる。 例えば、図12Aは、人の位置(向き)が(x,y,z,θ)=(0,0,0,0)であるとともに、カメラの設置位置が(x,y,z,仰角,方位角)=(100,0,100,3π/2,π/2)であるときの結果である。図12Bは、人の位置(向き)が(x,y,z,θ)=(0,0,0,0)であるとともに、カメラの設置位置が(x,y,z,仰角,方位角)=(−100,0,100,π/2,π/2)であるときの結果である。このように人の位置(向き)に応じて、その場で手と物品の位置関係を算出することにより、エリア又は人の向き毎に、物品持ち方対応データベース123を予め作成する必要はなくなる。
また、作成した三次元形状モデルが、人の位置(向き)に対してどの位置(向き)に存在するかを予め設定しておいても良い。仮にカメラが足元の座標を出力するセンサであった場合、手に持っている物品は、出力された人位置に対して高さ(Z座標)が高くなっているはずである。例えば、人の位置(向き)が、(x,y,z,θ)=(0,0,0,0)の場合、作成した三次元形状モデルは、人の位置に対して、(0,0,+50,0)の位置に存在すると設定しておく。そして、三次元形状モデルの位置(向き)とカメラの設置位置に基づいて、カメラから見た手と物品の位置関係を求める。
物品持ち方対応データベース123の作成は、物品持ち方対応データベース作成手段124で行うことができる。一例として、後述する図46の物品の推定を行うための最低限必要な構成例に物品持ち方対応データベース123を追加する場合を点線で示す。物品持ち方対応データベース作成手段124により物品持ち方対応データベース123を予め作成しておき、物品の推定を行なうときには、物品持ち方対応データベース123のみを使用するようにしてもよい。
物品持ち方対応データベース作成手段124は、物品毎に、カメラに映る手と物品の位置関係である物品持ち方対応データベース123を作成するための規則である三次元形状モデルを保持している。
一例として、物品持ち方対応データベース作成手段124は、カメラ301から人の位置(向き)を取得し、予め保持するカメラ301の設置位置とカメラ301で取得した人の位置(向き)とに基づき、物品持ち方対応データベース123を作成する。よって、図46の構成に対応する図47のフローでは、図47のフローの前段階で、手センシングとしてカメラ301から人の位置(向き)を取得したのち、物品持ち方対応データベース作成手段124で物品持ち方対応データベース123の作成を行なったのち、図47のフローを実行する。
なお、一例として、図46及び図47に物品持ち方対応データベース作成手段124を図示したが、同様に、他の構成図及びフロー図にも追加可能である。
以上のような前記第1実施形態又はその変形例の構成により、対象物品の一部又は全部が収納ラックなど他の物品又は家具などの設備などにより隠されてしまい、かつ、多数の同一形状の物品が存在する場合においても、人が対象物品を運ぶときの持ち方を持ち方判定処理手段107で判定することにより、対象物品の識別候補の情報を絞り込んで推定することができるようになり、さらに、その結果を用いて物品の位置を、第1物品候補抽出手段114と第2物品候補抽出手段115とで、又は、第1物品候補抽出手段114で、推定することができるようになる。また、シーン毎に物品の持ち方をシーン判定手段109などで判定することで、より正確に物品を推定できるようになる。
また、物品の推定を行うための最低限必要な構成例を図46に示す。
図46に示した物品推定装置は、物品センシング手段(物品センシング部)101と、手センシング手段(手センシング部)103と、持ち方判定処理手段(持ち方判定処理部)107と、物品推定手段(物品推定部)116と、物品持ち方対応データベース(物品持ち方対応DB)123とを備えて構成されて、人が取り扱う物品を推定することができる。尚、各構成要素の機能は上述した内容と同等である。
図46の構成を用いたときの物品位置推定装置の処理フローについて、図47を参照して説明する。
ステップS4701で、物品センシング手段101は、環境空間91に存在する日用品又はオフィス用品などの複数の物品の位置の情報を検出する。
ステップS4702で、手センシング手段103は、環境空間91内の人の手の位置の情報を検出する。
ステップS4703で、持ち方判定処理手段107は、物品センシング手段101及び手センシング手段103から複数の物品の位置の情報と人の手の位置の情報とに基づいて物品と手の位置関係を取得し、人が物品をどのようにして持っているか、又は、何も持っていないか、を判定する。
ステップS4704で、物品推定手段116は、物品持ち方対応データベース123を参照し、S4703で持ち方判定処理手段107により判定した持ち方が物品持ち方対応データベース123に登録されている物品を、人が持っている物品であると推定する。
(第2実施形態)
ここでは、対象物品が全部隠されてしまう状況と、人によって物品の持ち方が異なっている状況について説明する。
最初に、図32Aに示すように、フォーク3304が収納ラック302に一部が隠されるように置かれている。1つ目の状況は、花子は、時刻t11に、このフォーク3304を取り、運び、時刻t99に、収納ラック303に全部が隠されるような位置に置いた(図32B参照)。2つ目の状況は、花子は、時刻t11にこのフォーク3304を取り、運び、時刻t99に、ダイニングテーブルの花瓶3305に全部が隠されるような位置に置いた(図32C参照)。図32時刻t11の物品の状況3301を図32Aに示し、前記1つ目の状況における時刻t99の物品の状況3302を図32Bに示し、前記2つ目の状況における時刻t99の物品の状況3303を図32Cに示す。
以下、前記の図2の全体の処理フローに従って処理を行うとき、前記した説明とは異なる点についてのみ、説明を行う。
図33に、物品センシング手段101の検出結果の情報が登録された物品検出履歴データベース102の例を示す。時刻t11において、1つの物品が検出されているが、時刻t99においては、物品は全部が隠されてしまっている状態であるので、検出結果の情報は得られていない。
図34に、シーン判定結果の情報3501と持ち方判定結果の情報3502の例を示す。物品は時刻t99まで運ばれているが、最後(この例では時刻t92以降)は収納ラック303に隠されてしまっているので、持ち方判定処理手段107によって、この時間帯は何も持っていないと判定される。よって、シーン判定結果の情報3501では、時刻t92以降の情報は無い。また、物品を置くときも、置いた物品が収納ラック303に隠されてしまっていることになるので、シーン判定手段109によって、「置くシーン」として判定されないため、シーン判定結果の情報3501では、「置くシーン」が登録されていない。
前記の図2の全体の処理フローのステップS204で、「置くシーン」が終了したら物品推定のための処理を開始することになっていたが、この場合、「置くシーン」が存在しなくなるので、そのままでは適用できないため、その代わりに、「運ぶシーン」が終了したら、物品推定のための処理を開始することになる。すなわち、シーン判定手段109は、「取るシーン」及び「運ぶシーン」が存在しかつ「置くシーン」が無い場合には、「運ぶシーン」が終了したら、ステップS204において物品を「置くシーン」が終了したと判定して、ステップS205以降の物品推定のための処理を開始するようにする。
ステップS206を経て、ステップS207で、前記第1物品候補抽出手段114により第1物品候補の情報を抽出するとき、以下のように行う。
まず、前記1つ目の状況の場合、図34の持ち方判定結果の情報3502より、「取るシーン」の持ち方は、持ち方ID=C004となり、「運ぶシーン」の持ち方は、持ち方ID=C004となる。「置くシーン」は存在しないので、第1物品候補抽出手段114は、ステップS207で「取るシーン」と「運ぶシーン」のみを比較して、対象物品の候補の情報を抽出する。図25に示した物品持ち方対応データベース123の例を参照すると、対象物品の候補の情報として、ID=A009、A010、A011が第1物品候補抽出手段114で抽出される。
次いで、ステップS208では、第2物品候補抽出手段115が、図33の物品検出履歴データベース102を参照して、ID=A009、A010、A011が対象物品の候補の情報として第2物品候補抽出手段115で抽出される。ただし、対象物品が置かれた位置は、収納ラック303で隠されてしまっており、どの位置か不明であるため、ここでは、対象物品を隠していると想定される収納ラック303の重心位置(290,50)を置かれたとする。よって、第2物品候補抽出手段115では、データベースを適宜参照して、図34の持ち方判定結果の情報3502の「運ぶシーン」の最後の情報である時刻91における手の位置を抽出し、抽出された位置には収納ラック303が位置していることを取得し、取得した収納ラック303の重心位置(290,50)を対象物品の候補の位置の情報として抽出する。
ここで、物品が隠蔽されているか否かの判断方法について説明する。「運ぶシーン」が終了したときに、手の位置の付近に対象物品が検出できなかった場合、対象物品は、別の物品により隠蔽されるようにして配置されたと、第2物品候補抽出手段115により判断することができる。この例の場合、「運ぶシーン」が終了したときの人の手の位置が収納ラック303の位置にあったため、対象物品は、収納ラック303により隠蔽されていると、第2物品候補抽出手段115により判断することができる。なお、収納ラック303の重心位置は、登録物品データベース113に記録されているものとする。
この結果、ステップS209において、物品推定手段116は、前記第1物品候補抽出手段114により抽出された候補の情報と、前記第2物品候補抽出手段115により抽出された候補の情報から、位置(290,50)に置かれた物品は、ID=A009、A010、A011のいずれかであると推定し、物品推定結果履歴データベース117に推定された物品のID(この例では、ID=A009,ID=A110,ID=A011)を登録する。
さらに、ステップS210において、物品位置推定手段118は、図8の前記物品検出履歴データベース102と図27の前記物品推定結果履歴データベース117を参照して、物品の位置を推定するが、この場合、対象物品は収納ラック303に全部が隠されており前記物品検出履歴データベース102には参照すべきデータが存在しないので、前記物品推定結果履歴データベース117の結果の情報を採用し、位置(290,50)には、ID=A009、A010、A011のいずれかが存在するという推定結果の情報を得る。
以上のような構成により、対象物品が全部隠されてしまう状況においても、物品及びその位置を推定することができるようになる。
《データベース切替手段》
次に、前記2つ目の状況の場合、持ち方判定処理手段107とシーン判定手段109の処理(ステップS201〜S204)までは、前記1つ目の状況と同様に行い、図34に示した結果の情報が得られたとする。
このとき、物品持ち方対応データベース123を場所又は人毎に複数登録しておくことで、対象物品を運ぶ場所又は人に応じて、第1物品候補抽出手段114が参照するデータを、データベース切替手段111により切り替えることができる。具体的には、シーン判定結果履歴データベース110に登録した人のIDに対応するデータ、又は、手の移動軌跡として登録した手の位置を場所として、その場所に対応するデータに、ステップS206でデータベース切替手段111により切り替える。
図35A及び図35Bに物品持ち方対応データベース123の例を示す。物品持ち方対応データベース123には、物品IDの情報、品名の情報、シーン毎の物品の持ち方の情報に加えて、人のIDの情報3601と、場所の情報3602とが登録されている。人のIDの情報3601と、場所の情報3602には、それぞれのデータを適用する人と場所のID又は名称を物品持ち方対応データベース123に登録しておく。すなわち、人のIDと(人の居る)場所の情報は、センシング手段101にて検出を行う。また、図35A及び図35Bの物品持ち方対応データベース123は、予め用意しておくものであり、各手段から、逐次記録されるものではない。センシング手段101によって、人のIDと場所が判断できれば、図35A及び図35Bの物品持ち方対応データベース123の中から、判断された人のIDと場所に対応するデータベースを選択して物品の候補を抽出することができる。
図35Aには人ID=B001の場所=キッチンにおける第1のデータ3603の一部を示しているとともに、図35Bには人ID=B001の場所=リビング、ダイニングにおける第2のデータ3604の一部を示している。
図35A及び図35Bに示した例では、物品ID=A009(ナイフ)の物品の持ち方が第1のデータ3603と第2のデータ3604で異なっている。これは、キッチンでは、ナイフを洗うときに、持ち方C004、すなわち、ナイフの柄の中央部分を持つこともあるので、第1のデータ3603ではC004が物品持ち方対応データベース123に登録されているが、リビング又はダイニングでは危ないので、持ち方C003、すなわちナイフの柄の端部分を持つ持ち方しかしていないので、第2のデータ3604ではC003のみが物品持ち方対応データベース123に登録されていることを意味している。
また、図示はしていないが、大人と子供などのように、人によっても、持ち方が異なることも考えられるので、その場合には、同様に、異なる持ち方を物品持ち方対応データベース123に登録することができる。
前記2つ目の状況では、対象物品をダイニングテーブルに人が運んでいるので、この場所(ダイニングテーブル)に従って、データベース切替手段111は、図35Bの第2のデータ3604を選択する。図34より、「取るシーン」の持ち方はID=C004、「運ぶシーン」の持ち方はID=C004となる。「置くシーン」は存在しないので、第1物品候補抽出手段114は、ステップS207で「取るシーン」と「運ぶシーン」のみを比較して、対象物品の候補の情報を抽出する。第1物品候補抽出手段114が、図35Bに示した物品持ち方対応データベース123のデータ3604を参照してID=C004の物品を検索すると、対象物品の候補の情報として、ID=A010、A011が第1物品候補抽出手段114により抽出される。
ステップS208では、第2物品候補抽出手段115により、前記1つ目の状況と同様に、図33の物品検出履歴データベース102を参照して、ID=A009、A010、A011が、対象物品の候補の情報として抽出される。
この結果、ステップS209では、物品推定手段116は、前記第1物品候補抽出手段114により抽出された候補の情報と、前記第2物品候補抽出手段115により抽出された候補の情報から、位置(290,50)に置かれた物品は、ID=A010、A011のいずれかであるの推定し、物品推定結果履歴データベース117に登録する。さらに、ステップS210では、物品位置推定手段118は、前記物品検出履歴データベース102と前記物品推定結果履歴データベース117を参照して、物品の位置を推定し、位置(290,50)には、ID=A010、A011のいずれかが存在するという推定結果の情報を得る。
以上のような構成により、物品持ち方対応データベース123を場所又は人毎に複数登録しておき、対象物品を運ぶ場所又は人に応じて、第1物品候補抽出手段114により参照するデータをデータベース切替手段111により切り替えることで、より正確に物品及びその位置を推定することができるようになる。
(第3実施形態)
ここでは、物品持ち方対応データベース123の更新方法について説明する。
最初に、図36Aに示すように、マグカップ3703がモニタ304の前方に置かれているとする。花子は、時刻t11にこのマグカップ3703を取り、運び、図36Bに示すように、時刻t99に収納ラック303の前方に置いたとする。このとき、マグカップ3703の取っ手部分3703aではなく、マグカップ3703の本体部分3703bを普通のコップと同じように手で持ったとする。また、モニタ304の前方には、物品センシング手段101の一例として無線ICタグセンサ3704が設置されている。図36Aに時刻t11の物品の状況3701を示し、図36Bに時刻t99の物品の状況3702を示す。
ここで、無線ICタグセンサ3704について図37を参照して説明する。物品を検出したい領域が検出範囲となるように、読み取りアンテナ3801を設置し、物品には、無線ICタグ3802を貼り付ける。読み取りアンテナ3801の検出範囲内に、無線ICタグ3802が貼り付けられた物品が置かれると、この物品の無線ICタグ3802の情報を読み取りアンテナ3801で読み取ることで、物品の位置を検出することができる。ただし、読み取りアンテナ3801の検出範囲内のどこにあるかまでは分からないので、検出位置の精度は、読み取りアンテナ3801の検出範囲のサイズに依存する。また、無線ICタグ3802に取り扱う物品のIDの情報をあらかじめ登録しておくことにより、検出した物品が何であるかを識別することができる。
以下、前記の図2の全体の処理フローに従って処理を行う。
ステップS201で、物品センシング手段101は、前述の通り無線ICタグセンサ3704が設置されているので、物品のIDは一意に特定することができる。図38に、検出結果の情報が登録された物品検出履歴データベース102の例を示す。時刻t11において、1つの物品が検出されており、物品ID=A004と、1つの物品に特定されている。
《データベース更新手段》
前記の図2の全体の処理フローのステップS204で、「置くシーン」が終了したら物品推定のための処理を開始する。ここで、前述の通り、前記物品センシング手段101によって、対象物品が1つに特定されているので、データベース更新手段121の処理をステップS205で行う。
図39に、シーン判定結果の情報4001と持ち方判定結果の情報4002の例を示す。この結果、「取るシーン」の持ち方は、持ち方ID=C006となり、「運ぶシーン」の持ち方は、持ち方ID=C006、「置くシーン」の持ち方は、持ち方ID=C006となる。
そこで、物品持ち方対応データベース123を第1物品候補抽出手段114が参照し、物品ID=A004に対応する物品(マグカップ2)の持ち方の項目に、「取るシーン」の持ち方に「持ち方ID=C006」を追加し、「運ぶシーン」の持ち方に「持ち方ID=C006」を追加し、「置くシーン」の持ち方に「持ち方ID=C006」を追加する。図25に示した物品持ち方対応データベース123の例に対して、データベース更新手段121で物品持ち方対応データベース123を更新した結果を図40に示す。
更新前の物品持ち方対応データベース123において、既に、持ち方が登録されていた場合、このデータベース更新手段121による更新の前後で、物品持ち方対応データベース123の内容は変化しない。しかし、例えば、データベース更新手段121で更新された回数をデータベース更新手段121自体でカウントしておき、その回数によってデータベース更新手段121により重み付けをし、その重み付けの情報を物品推定処理のときに参照することにより、人の運び方の傾向を物品の推定に反映させるようにしても良い。
以降の処理は、前述の例と同様である。
以上のような構成により、物品持ち方対応データベース123をデータベース更新手段121で適切に更新することで、より正確に物品及びその位置を推定することができるようになる。
なお、前記したセンシング手段を除く手段及びデータベースは、それぞれをコンピュータで機能させることにより、物品推定プログラム又は物品位置推定プログラムとしても利用可能である。例えば、前記した各処理フローのそれぞれのステップを有するコンピュータプログラムとして、記憶装置(ハードディスク等)などの記録媒体に読み取り可能に記憶させ、そのコンピュータプログラムをコンピュータの一時記憶装置(半導体メモリ等)に読み込んでCPUを用いて実行することにより、前記した各動作又は処理を実行することで、物品推定装置又は物品位置推定装置と同様な作用効果を奏することができる。
なお、前記様々な実施形態又は変形例のうちの任意の実施形態又は変形例を適宜組み合わせることにより、それぞれの有する効果を奏するようにすることができる。
本発明にかかる物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラムは、環境空間において、ユーザが取り扱う日用品又はオフィス用品などの物品を人が運ぶときの持ち方を持ち方判定処理手段で判定することにより、対象物品の識別候補の情報を絞り込んで推定することができるようになり、さらに、その結果の情報を用いて物品を物品推定手段で推定し、さらに物品の位置までを物品位置推定手段で推定することができるようになる。これにより、人が所望の物品の所在を探索するときに用いられる物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラムとして有用である。また、物品の位置を利用するサービス、アプリケーション全般にも応用できる。
本発明は、添付図面を参照しながら好ましい実施形態に関連して充分に記載されているが、この技術の熟練した人々にとっては種々の変形又は修正は明白である。そのような変形又は修正は、添付した請求の範囲による本発明の範囲から外れない限りにおいて、その中に含まれると理解されるべきである。

Claims (14)

  1. 環境空間中に存在する複数の物品の位置の情報を検出する物品センシング手段と、
    前記環境空間中に存在する人の手の位置の情報を検出する手センシング手段と、
    前記物品センシング手段及び前記手センシング手段でそれぞれ検出された前記物品の位置の情報と前記手の位置の情報との位置関係を、前記手による前記物品の持ち方として判定する持ち方判定処理手段と、
    前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると推定する物品推定手段とを、
    備える物品推定装置。
  2. 環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を物品検出履歴データベースに登録する物品センシング手段と、
    前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を手検出履歴データベースに登録する手センシング手段と、
    前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
    前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
    前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると推定する物品推定手段とを、
    備える物品推定装置。
  3. 環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、物品検出履歴データベースに登録する物品センシング手段と、
    前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、手検出履歴データベースに登録する手センシング手段と、
    前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
    前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
    前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得するシーン判定手段と、
    前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が前記手で持って前記物品を運ぶ前にその物品が置かれていた移動元の位置に存在する、第2候補物品を抽出する第2物品候補抽出手段と、
    前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と推定する物品推定手段と、
    を備える物品推定装置。
  4. 前記物品センシング手段及び前記手センシング手段の少なくともいずれか1つは、前記環境空間中に存在する前記複数の物品及び前記人の手を含む画像情報を撮像する画像センサと、前記画像センサで撮像された画像情報を基に、画像認識処理を行う画像認識手段とで構成され、
    前記画像認識手段は、前記複数の物品のIDの情報及び前記複数の物品の位置の情報を検出して、前記物品検出履歴データベースに登録する前記物品センシング手段としての機能か、又は、前記人のIDの情報及び前記人の手の位置の情報を検出して、前記手検出履歴データベースに登録する前記手センシング手段としての機能のいずれかを有する請求項2又は3に記載の物品推定装置。
  5. 前記シーン判定手段は、前記手検出履歴データベースを参照して、取得した時間区間の情報における前記手の位置の情報とその手の位置の情報を検出した時刻の情報から、単位時間当たりの前記手の移動量を算出し、算出した前記手の移動量が予め設定された閾値以下となる時間区間の情報を複数個抽出し、抽出した時間区間のうち最も時刻の情報が早い時間区間の情報を、物品を取るシーンと判定し、前記抽出した時間区間のうち最も時刻の情報が遅い時間区間の情報を、物品を置くシーンと判定し、前記物品を取るシーンと前記物品を置くシーンとの間の時間区間を、物品を運ぶシーンと判定し、前記判定の結果をシーン判定結果履歴データベースにそれぞれ登録し、
    さらに、前記人が前記物品の持ち方を、前記複数の物品のIDの情報毎及び前記物品を前記人が運ぶときの持ち方の情報をシーン毎に、前記物品と前記人の手との位置関係として登録した物品持ち方対応データベースを備え、
    前記第1物品候補抽出手段は、前記シーン判定結果履歴データベースに登録されたシーンにおいて、前記物品持ち方対応データベースに登録された物品の中から、前記シーン判定手段によって判定されたシーンにおいて、前記持ち方判定処理手段によって判定された持ち方が登録されている物品を候補物品として抽出する、
    請求項3に記載の物品推定装置。
  6. 前記手で持って前記物品を運ぶ前記人、又は、前記手で持って前記物品を前記人が運んでいる場所に応じて、前記持ち方登録データベース及び前記物品持ち方対応データベースの前記第1物品候補抽出手段が参照するデータを切り替えるデータベース切替手段、
    をさらに備える請求項5に記載の物品推定装置。
  7. 請求項2〜3,5〜6のいずれか1つに記載の前記物品推定装置と、
    前記物品検出履歴データベースを参照し、前記物品推定手段が推定した前記物品のIDの情報に対応する前記物品のIDの位置の情報を推定位置とする物品位置推定手段と、
    を備える物品位置推定装置。
  8. 前記物品の探索要求を受付け、前記物品位置推定手段で推定した前記物品のIDの位置の情報において、前記探索要求を受けた前記物品のIDの情報と対応する前記物品の位置の情報を出力する入出力手段と、
    をさらに備える請求項7に記載の物品位置推定装置。
  9. 環境空間中に存在する複数の物品の位置の情報を物品センシング手段で検出し、
    前記環境空間中に存在する人の手の位置の情報を手センシング手段で検出し、
    前記物品センシング手段及び前記手センシング手段でそれぞれ検出された前記物品の位置の情報と前記手の位置の情報との位置関係を、前記手による前記物品の持ち方として持ち方判定処理手段で判定し、
    前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると物品推定手段で推定する、
    ことを備える物品推定方法。
  10. 物品センシング手段により、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を物品検出履歴データベースに登録し、
    手センシング手段により、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を手検出履歴データベースに登録し、
    前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を持ち方判定処理手段で判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに持ち方判定処理手段で登録し、
    前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として第1物品候補抽出手段で抽出し、
    前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると、物品推定手段で推定する、
    ことを備える物品推定方法。
  11. 物品センシング手段により、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、物品検出履歴データベースに登録し、
    手センシング手段により、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、手検出履歴データベースに登録し、
    前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを持ち方判定処理手段で判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに持ち方判定処理手段で登録し、
    前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として第1物品候補抽出手段で抽出し、
    シーン判定手段により、前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得し、
    第2物品候補抽出手段により、前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が運ぶ前に対象物品が置かれていた移動元の位置に存在する、第2候補物品を抽出し、
    前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と、物品推定手段で推定する、
    ことを備える物品推定方法。
  12. 物品センシング手段で検出された環境空間中に存在する複数の物品の位置の情報と、手センシング手段で検出された前記環境空間中に存在する人の手の位置の情報との位置関係を、前記手による前記物品の持ち方として判定する持ち方判定処理手段と、
    前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると推定する物品推定手段、
    としてコンピュータを機能させる物品推定プログラム。
  13. 物品センシング手段により検出された、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報が登録された物品検出履歴データベースと、手センシング手段により検出された、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報が登録された手検出履歴データベースとにそれぞれ登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
    前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
    前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると推定する物品推定手段、
    としてコンピュータを機能させる物品推定プログラム。
  14. 物品センシング手段により検出された、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を、検出した時刻の情報と対応付けて、登録された物品検出履歴データベースと、手センシング手段により検出された、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を、検出した時刻の情報と対応付けて、登録された手検出履歴データベースとにそれぞれ登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
    前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
    前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得するシーン判定手段と、
    前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が運ぶ前に対象物品が置かれていた移動元の位置に存在する、第2候補物品を抽出する第2物品候補抽出手段と、
    前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と推定する物品推定手段、
    としてコンピュータを機能させる物品推定プログラム。
JP2009539326A 2008-07-08 2009-07-06 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム Active JP4422792B1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2008177996 2008-07-08
JP2008177996 2008-07-08
PCT/JP2009/003123 WO2010004719A1 (ja) 2008-07-08 2009-07-06 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム

Publications (2)

Publication Number Publication Date
JP4422792B1 true JP4422792B1 (ja) 2010-02-24
JPWO2010004719A1 JPWO2010004719A1 (ja) 2011-12-22

Family

ID=41506847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009539326A Active JP4422792B1 (ja) 2008-07-08 2009-07-06 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム

Country Status (4)

Country Link
US (1) US8436897B2 (ja)
JP (1) JP4422792B1 (ja)
CN (1) CN102007514B (ja)
WO (1) WO2010004719A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015058995A (ja) * 2013-09-17 2015-03-30 Necフィールディング株式会社 管理システム、管理装置、管理方法、及びプログラム

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9665767B2 (en) * 2011-02-28 2017-05-30 Aic Innovations Group, Inc. Method and apparatus for pattern tracking
US11288472B2 (en) 2011-08-30 2022-03-29 Digimarc Corporation Cart-based shopping arrangements employing probabilistic item identification
US9367770B2 (en) 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
US10762467B2 (en) * 2012-08-06 2020-09-01 Nec Corporation Placement information registration device, placement information registration method, and placement information registration program
WO2014047086A1 (en) * 2012-09-24 2014-03-27 Siemens Healthcare Diagnostics Inc. Image capture-based predictive control device
US10268983B2 (en) * 2013-06-26 2019-04-23 Amazon Technologies, Inc. Detecting item interaction and movement
US10176513B1 (en) 2013-06-26 2019-01-08 Amazon Technologies, Inc. Using gestures and expressions to assist users
US10176456B2 (en) 2013-06-26 2019-01-08 Amazon Technologies, Inc. Transitioning items from a materials handling facility
WO2015033575A1 (ja) 2013-09-06 2015-03-12 日本電気株式会社 販売促進システム、販売促進方法、非一時的なコンピュータ可読媒体及び棚システム
CN105320931B (zh) * 2014-05-26 2019-09-20 京瓷办公信息系统株式会社 物品信息提供装置和物品信息提供系统
US20170193290A1 (en) * 2016-01-06 2017-07-06 Toshiba Tec Kabushiki Kaisha Commodity registration apparatus and commodity registration method
US10049267B2 (en) * 2016-02-29 2018-08-14 Toyota Jidosha Kabushiki Kaisha Autonomous human-centric place recognition
JP6909960B2 (ja) * 2017-03-31 2021-07-28 パナソニックIpマネジメント株式会社 検知装置、検知方法及び検知プログラム
WO2018235198A1 (ja) 2017-06-21 2018-12-27 日本電気株式会社 情報処理装置、制御方法、及びプログラム
KR102003691B1 (ko) * 2017-07-31 2019-07-25 코닉오토메이션 주식회사 소품 등록 시스템
US11003916B2 (en) * 2017-11-03 2021-05-11 Toyota Research Institute, Inc. Systems and methods for object historical association
CN109002782A (zh) * 2018-07-02 2018-12-14 深圳码隆科技有限公司 一种基于自动售货机的商品购买方法、装置和用户终端
CN108960132B (zh) * 2018-07-02 2020-12-15 深圳码隆科技有限公司 一种开放式自动售货机中商品的购买方法及其装置
CN109784319A (zh) * 2019-03-25 2019-05-21 珠海格力电器股份有限公司 物品管理方法、装置、存储介质及移动终端
CN111565301B (zh) * 2020-05-25 2021-09-14 珠海格力电器股份有限公司 室内监控方法、装置、系统、存储介质及摄像装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160665A (ja) * 1993-12-13 1995-06-23 Fujitsu Ltd 物体識別装置
JP2002027449A (ja) 2000-07-10 2002-01-25 Fujitsu Ltd 移動物体識別方法および移動物体識別装置
JPWO2004106009A1 (ja) * 2003-06-02 2006-07-20 松下電器産業株式会社 物品取扱いシステムおよび物品取扱いサーバ
WO2006000020A1 (en) 2004-06-29 2006-01-05 European Nickel Plc Improved leaching of base metals
JP2006092530A (ja) * 2004-08-26 2006-04-06 Ihc:Kk 認証システム
MX2007016203A (es) 2005-06-29 2008-03-10 Compumedics Ltd Ensamble de sensor con puente conductivo.
JP2007079918A (ja) 2005-09-14 2007-03-29 Matsushita Electric Ind Co Ltd 物品検索システム及び方法
US7852217B2 (en) * 2005-12-28 2010-12-14 Panasonic Corporation Object detecting device, object detecting method and object detecting computer program
JP2007213528A (ja) * 2006-02-13 2007-08-23 Sanyo Electric Co Ltd 行動認識システム
WO2008029724A1 (fr) * 2006-09-04 2008-03-13 Panasonic Corporation Dispositif de détermination de danger, procédé de détermination de danger, dispositif de rapport de danger et programme de détermination de danger

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015058995A (ja) * 2013-09-17 2015-03-30 Necフィールディング株式会社 管理システム、管理装置、管理方法、及びプログラム

Also Published As

Publication number Publication date
CN102007514B (zh) 2012-09-19
US8436897B2 (en) 2013-05-07
US20100134611A1 (en) 2010-06-03
WO2010004719A1 (ja) 2010-01-14
JPWO2010004719A1 (ja) 2011-12-22
CN102007514A (zh) 2011-04-06

Similar Documents

Publication Publication Date Title
JP4422792B1 (ja) 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム
CN111989537B (zh) 用于在无约束环境中检测人类视线和手势的系统和方法
US10055851B2 (en) Determining dimension of target object in an image using reference object
CN106647742B (zh) 移动路径规划方法及装置
CN104487915B (zh) 维持扩增的连续性
TWI684136B (zh) 機器人、控制系統以及用以操作機器人之方法
US20160041623A1 (en) Sessionless pointing user interface
US20150262004A1 (en) Information input apparatus, information input method, and computer program
WO2016138567A1 (en) Structure modelling
JP6771996B2 (ja) ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法
WO2017047182A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN109933061A (zh) 基于人工智能的机器人及控制方法
CN106030610A (zh) 移动设备的实时3d姿势识别和跟踪系统
US20200326722A1 (en) Mobile robot, system for multiple mobile robot, and map learning method of mobile robot using artificial intelligence
JP2005056213A (ja) 情報提供システム、情報提供サーバ、情報提供方法
Li et al. Visual interpretation of natural pointing gestures in 3D space for human-robot interaction
JP5418938B2 (ja) グループ行動推定装置およびサービス提供システム
US11630569B2 (en) System, method and devices for touch, user and object sensing for IoT experiences
JP5567725B2 (ja) グループ行動推定装置
CN109087351A (zh) 基于深度信息对场景画面进行闭环检测的方法及装置
CN116385489B (zh) 基于rgbd相机的目标跟随方法及系统
CN106127138A (zh) 一种手型识别的初始化方法和装置以及虚拟现实终端
Kim et al. Object recognition using smart tag and stereo vision system on pan-tilt mechanism
Le et al. 3d object finding using geometrical constraints on depth images
CN115461794A (zh) 从二维图像估计用户手势的方法、系统和非暂时性计算机可读记录介质

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091204

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4422792

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121211

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131211

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250