JP4422792B1 - 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム - Google Patents
物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム Download PDFInfo
- Publication number
- JP4422792B1 JP4422792B1 JP2009539326A JP2009539326A JP4422792B1 JP 4422792 B1 JP4422792 B1 JP 4422792B1 JP 2009539326 A JP2009539326 A JP 2009539326A JP 2009539326 A JP2009539326 A JP 2009539326A JP 4422792 B1 JP4422792 B1 JP 4422792B1
- Authority
- JP
- Japan
- Prior art keywords
- article
- information
- hand
- holding
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 190
- 238000000605 extraction Methods 0.000 claims abstract description 132
- 238000012545 processing Methods 0.000 claims abstract description 119
- 238000001514 detection method Methods 0.000 claims description 173
- 230000007613 environmental effect Effects 0.000 claims description 53
- 230000006870 function Effects 0.000 claims description 16
- 238000010586 diagram Methods 0.000 description 83
- 239000000284 extract Substances 0.000 description 11
- 230000010354 integration Effects 0.000 description 11
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 230000002354 daily effect Effects 0.000 description 9
- 230000005484 gravity Effects 0.000 description 8
- 238000009434 installation Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 101100185408 Mus musculus Mug2 gene Proteins 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 235000012171 hot beverage Nutrition 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/107—Static hand or arm
- G06V40/11—Hand-related biometrics; Hand pose recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
Abstract
【選択図】図1A
Description
本発明の第1態様によれば、環境空間中に存在する複数の物品の位置の情報を検出する物品センシング手段と、
前記環境空間中に存在する人の手の位置の情報を検出する手センシング手段と、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出された前記物品の位置の情報と前記手の位置の情報との位置関係を、前記手による前記物品の持ち方として判定する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると推定する物品推定手段とを、
備える物品推定装置を提供する。
本発明の第2態様によれば、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を物品検出履歴データベースに登録する物品センシング手段と、
前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を手検出履歴データベースに登録する手センシング手段と、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると推定する物品推定手段とを
備える物品推定装置を提供する。
前記環境空間中に存在する人の手の位置の情報を手センシング手段で検出し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出された前記物品の位置の情報と前記手の位置の情報との位置関係を、前記手による前記物品の持ち方として持ち方判定処理手段で判定し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると物品推定手段で推定する、
ことを備える物品推定方法を提供する。
本発明の第10態様によれば、物品センシング手段により、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を物品検出履歴データベースに登録し、
手センシング手段により、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を手検出履歴データベースに登録し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を持ち方判定処理手段で判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに持ち方判定処理手段で登録し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として第1物品候補抽出手段で抽出し、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると、物品推定手段で推定する、
ことを備える物品推定方法を提供する。
手センシング手段により、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、手検出履歴データベースに登録し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを持ち方判定処理手段で判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに持ち方判定処理手段で登録し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として第1物品候補抽出手段で抽出し、
シーン判定手段により、前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得し、
第2物品候補抽出手段により、前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が運ぶ前に対象物品が置かれていた移動元の位置に存在する、第2候補物品を抽出し、
前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と、物品推定手段で推定する、
ことを備える物品推定方法を提供する。
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラムを提供する。
本発明の第13態様によれば、物品センシング手段により検出された、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報が登録された物品検出履歴データベースと、手センシング手段により検出された、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報が登録された手検出履歴データベースとにそれぞれ登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラムを提供する。
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得するシーン判定手段と、
前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が運ぶ前に対象物品が置かれていた移動元の位置に存在する、第2候補物品を抽出する第2物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラムを提供する。
以下、図面を参照して本発明における実施形態を詳細に説明する前に、本発明の種々の態様について説明する。
前記環境空間中に存在する人の手の位置の情報を検出する手センシング手段と、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出された前記物品の位置の情報と前記手の位置の情報との位置関係を、前記手による前記物品の持ち方として判定する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると推定する物品推定手段とを、
備える物品推定装置を提供する。
本発明の第2態様によれば、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を物品検出履歴データベースに登録する物品センシング手段と、
前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を手検出履歴データベースに登録する手センシング手段と、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると推定する物品推定手段とを
備える物品推定装置を提供する。
前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、手検出履歴データベースに登録する手センシング手段と、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得するシーン判定手段と、
前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が前記手で持って前記物品を運ぶ前にその物品が置かれていた移動元の位置に存在する、第2候補物品を抽出する第2物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と推定する物品推定手段と、
を備える物品推定装置を提供する。
前記画像認識手段は、前記複数の物品のIDの情報及び前記複数の物品の位置の情報を検出して、前記物品検出履歴データベースに登録する前記物品センシング手段としての機能か、又は、前記人のIDの情報及び前記人の手の位置の情報を検出して、前記手検出履歴データベースに登録する前記手センシング手段としての機能のいずれかを有する第2又は3の態様に記載の物品推定装置を提供する。
さらに、前記人が前記物品の持ち方を、前記複数の物品のIDの情報毎及び前記物品を前記人が運ぶときの持ち方の情報をシーン毎に、前記物品と前記人の手との位置関係として登録した物品持ち方対応データベースを備え、
前記第1物品候補抽出手段は、前記シーン判定結果履歴データベースに登録されたシーンにおいて、前記物品持ち方対応データベースに登録された物品の中から、前記シーン判定手段によって判定されたシーンにおいて、前記持ち方判定処理手段によって判定された持ち方が登録されている物品を候補物品として抽出する、第3の態様に記載の物品推定装置を提供する。
をさらに備える第5の態様に記載の物品推定装置を提供する。
前記物品検出履歴データベースを参照し、前記物品推定手段が推定した前記物品のIDの情報に対応する前記物品のIDの位置の情報を推定位置とする物品位置推定手段と、
を備える物品位置推定装置を提供する。
をさらに備えることを特徴とする第7の態様に記載の物品位置推定装置を提供する。
本発明の第9態様によれば、環境空間中に存在する複数の物品の位置の情報を物品センシング手段で検出し、
前記環境空間中に存在する人の手の位置の情報を手センシング手段で検出し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出された前記物品の位置の情報と前記手の位置の情報との位置関係を、前記手による前記物品の持ち方として持ち方判定処理手段で判定し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると物品推定手段で推定する、
ことを備える物品推定方法を提供する。
手センシング手段により、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を手検出履歴データベースに登録し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を持ち方判定処理手段で判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに持ち方判定処理手段で登録し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として第1物品候補抽出手段で抽出し、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると、物品推定手段で推定する、
ことを備える物品推定方法を提供する。
手センシング手段により、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、手検出履歴データベースに登録し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを持ち方判定処理手段で判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに持ち方判定処理手段で登録し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として第1物品候補抽出手段で抽出し、
シーン判定手段により、前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得し、
第2物品候補抽出手段により、前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が運ぶ前に対象物品が置かれていた移動元の位置に存在する、第2候補物品を抽出し、
前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と、物品推定手段で推定する、
ことを備える物品推定方法を提供する。
本発明の第12態様によれば、物品センシング手段で検出された環境空間中に存在する複数の物品の位置の情報と、手センシング手段で検出された前記環境空間中に存在する人の手の位置の情報との位置関係を、前記手による前記物品の持ち方として判定する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラムを提供する。
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラムを提供する。
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得するシーン判定手段と、
前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が運ぶ前に対象物品が置かれていた移動元の位置に存在する、第2候補物品を抽出する第2物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラムを提供する。
図1Aは、本発明の第1実施形態にかかる物品推定装置及び物品位置推定装置における機能ブロック図である。
以下、各構成要素を簡単に説明する。
時刻取得手段100は、現在時刻の情報を取得し、出力するものである。
物品センシング手段101は、家庭又はオフィスなどの生活空間(以下、環境空間とする。)91にある日用品又はオフィス用品などの物品のIDの情報及び位置の情報を検出するものである。物品センシング手段101は、検出した時刻の情報を前記時刻取得手段100から取得し、その時刻の情報と物品のIDの情報及び位置の情報とを合わせて物品検出履歴データベース102に登録する。
次に、本発明の第1実施形態における物品位置推定装置の全体の処理フローについて、図2を参照して説明する。
次に、前述の各手段について、具体的な処理内容を説明する。ここでは、図3に示したようなキッチンの環境空間91においてキッチン用品を取り扱うシーンを例に説明する。本発明は、環境空間91としてキッチンに限定されるものではなく、リビング又はダイニングなどの他の空間にも適用することができるものであるが、理解しやすくするため、キッチンを例にとって、以下、説明する。
センシング手段は、物品センシング手段101と手センシング手段103とで構成されている。物品センシング手段101と手センシング手段103とは、別々の装置又は手段などで構成してもよいが、共通の装置又は手段(例えば、画像センサなど)で構成してもよい。
センシング制御手段1220は、例えば、図3に示すように、画像センサの一例としてのカメラ301を上下方向沿いのレール1221に沿って移動装置1222で移動するように制御し、カメラ301の3次元位置を変化させて、異なる位置からカメラ301で撮像して、取得する環境空間91に存在する物体(物品及び人)の画像情報を変えることによって、物品センシング手段101及び手センシング手段103等を構成する画像認識手段300で用いる画像情報を制御する。これによって、後述する持ち方登録データベース112及び物品持ち方対応データベース123の登録された物品と手との位置関係に対応するように、様々な角度の画像情報(画像センサ301と物体との間に障害物がない場合には、物体の360度の全ての方向から見た画像情報)を得ることができる。具体的な制御は、後述するが、例えば、手センシング手段103で検出した手の高さに、画像センサ301の位置を変化させて、環境空間に存在する物体の画像情報を得る。
持ち方判定処理手段107は、前記手検出履歴データベース104に登録された手の位置を参照し、さらに物品検出履歴データベース102を参照して、手とその周辺に存在する物品との位置情報から、人が物品をどのようにして持っているか、又は何も持っていないか、を判定する。
なお、手検出履歴データベース104を参照し、一定時間連続で手の位置が腰の高さより高い位置にある場合、人は手に収まる小さな物品を持っていると判断しても良い。
シーン判定手段109は、手検出履歴データベース104に登録された手の位置の情報を時系列に参照して、移動している手に対応する手のID(すなわち、人のID)毎に、手の位置の情報とその手を検出した時刻の情報とを対応付けて、人が物品を移動するときの手の移動軌跡を算出する。さらに、その移動軌跡に基づいてシーンをシーン判定手段109で判定する。前述の通り、「シーン」とは、人が物品を移動するときに、置かれている物品を人が取り上げている状況(取るシーン)、取り上げた物品を人が運んでいる状況(運ぶシーン)、持っている物品を人が置いている状況(置くシーン)、のいずれかの状況を示すものとしているので、図19の持ち方判定結果履歴データベース108を参照して、人が何らかの物品を持っているとシーン判定手段109で判定されている期間、つまり、C000以外の持ち方IDが登録されている時刻のデータにおいてのみ、シーン判定をシーン判定手段109で実施すれば良い。ただし、後に説明する第2の閾値時間以内の間に、持ち方IDがC000からC000以外に変わった場合は、C000以外の持ち方IDが登録されている時刻データ(つまり、持ち方が判定された時刻データ)として、シーン判定をシーン判定手段109で実施する。
第1物品候補抽出手段114は、前記持ち方判定結果履歴データベース108と前記シーン判定結果履歴データベース110を参照して、各シーンで対象物品をどのような持ち方をしていたかを比較することにより、前記物品持ち方対応データベース123に登録されているデータから対象物品の候補の情報を抽出する。
第2物品候補抽出手段115は、前記物品検出履歴データベース102と前記シーン判定結果履歴データベース110を参照して、対象物品の移動軌跡の移動元において検出されていた物品を候補の情報として抽出する。
物品推定手段116は、前記第1物品候補抽出手段114と前記第2物品候補抽出手段115において、共通に抽出された対象物品の候補の情報を、対象物品の推定結果の情報とする。推定結果の情報を、物品推定結果履歴データベース117に登録する。
物品位置推定手段118は、前記物品検出履歴データベース102(図8参照)と前記物品推定結果履歴データベース117(図27参照)を参照して、対象物品の位置を推定する。推定結果の情報を、物品位置推定結果履歴データベース119に物品位置推定手段118で登録する。
入出力手段120は、ユーザからの物品探索要求を入力し、前記物品位置推定結果履歴データベース119を参照し、物品の位置情報を出力する。また、入出力手段120を他のデータベース又は他の手段と接続して、あらかじめ、物品を検出するために用いられる物品又は人の情報を入力して、それぞれのデータベース又は他の手段の内部記憶部に登録することもできる。入出力手段120は、インターネットなどを介して他のデータベースなどの情報を取り込むように構成することもできる。
第1物品候補抽出手段114は、前記持ち方判定結果履歴データベース108と前記シーン判定結果履歴データベース110を参照して、各シーンで対象物品をどのような持ち方をしていたかを比較することにより、前記物品持ち方対応データベース123に登録されているデータから対象物品の候補の情報を抽出する。
物品推定手段116は、前記第1物品候補抽出手段114において抽出された物品の情報を、対象物品の推定結果の情報とする。物品推定手段116は、推定結果の情報を、物品推定結果履歴データベース117に登録する。
次に、センシング制御手段1220を用いない場合の処理について説明する。カメラと人の位置関係によって、カメラから見た手と物品の位置関係が実際の手と物品の位置関係と異なる場合がある。そのため、環境空間91を複数のエリアに分割し、分割したエリア毎に物品持ち方対応データベース123を作成しても良い。このとき、物品持ち方対応データベース123は、カメラの設置位置に基づいて作成する。尚、エリア分割の例としては、環境空間91をX軸方向とY軸方向に対してN(m)間隔に正方形のメッシュで区切る等が考えられる。図48にエリア分割を行った環境空間91の例を示す。図48の4801は、分割された正方形のエリアを示す。尚、環境空間91においては、人はXY平面(床面)上しか移動できないため、エリア分割はX軸方向とY軸方向にしか行っていない。
次いで、各エリア4801の間隔寸法N(m)の設定方法について説明する。低い天井にカメラが設置されている場合、人の移動に対する手と物品の見え方の変化が大きいため、Nは小さめに設定する方が良い。また、高い天井にカメラが設置されている場合、人の移動に対する手と物品の見え方の変化は小さいため、Nは大きめに設定しておいても良い。
また、人の向きによっても、カメラに映る手と物品の位置関係が実際の手と物品の位置関係と異なる場合がある。そのため、(上述したエリア毎に)θ度刻みで360/θ分の物品持ち方対応データベース123を作成しても良い。このとき、物品持ち方対応データベース123は、カメラの設置位置に基づいて作成する。尚、人の向きは、例えば人の進行方向の向きとして考えることができる。人の進行方向は、例えばタグの検出位置の履歴を用いることで推測可能である。
また、エリア又は人の向き毎に物品持ち方対応データベース123を作成するのが困難な場合、物品を把持している状態の手と物品の三次元形状モデルを予め作成しておく方法が考えられる。
図12Aを、人がコップを把持したときの三次元形状モデルとして説明する。ここで、三次元形状モデルとは、手の位置、カメラの設置位置、及びカメラの撮影方向との情報を用いて、カメラに映る手と物品の位置関係である物品持ち方対応データベース123を作成するための規則である。
ここで、三次元形状モデルは、例えばCADなどを用いて作成することができる。三次元形状モデルを用いると、人の位置(向き)とカメラの設置位置に基づいて、手と物品の見え方である物品持ち方対応データベース123を予め作成することができる。 例えば、図12Aは、人の位置(向き)が(x,y,z,θ)=(0,0,0,0)であるとともに、カメラの設置位置が(x,y,z,仰角,方位角)=(100,0,100,3π/2,π/2)であるときの結果である。図12Bは、人の位置(向き)が(x,y,z,θ)=(0,0,0,0)であるとともに、カメラの設置位置が(x,y,z,仰角,方位角)=(−100,0,100,π/2,π/2)であるときの結果である。このように人の位置(向き)に応じて、その場で手と物品の位置関係を算出することにより、エリア又は人の向き毎に、物品持ち方対応データベース123を予め作成する必要はなくなる。
また、作成した三次元形状モデルが、人の位置(向き)に対してどの位置(向き)に存在するかを予め設定しておいても良い。仮にカメラが足元の座標を出力するセンサであった場合、手に持っている物品は、出力された人位置に対して高さ(Z座標)が高くなっているはずである。例えば、人の位置(向き)が、(x,y,z,θ)=(0,0,0,0)の場合、作成した三次元形状モデルは、人の位置に対して、(0,0,+50,0)の位置に存在すると設定しておく。そして、三次元形状モデルの位置(向き)とカメラの設置位置に基づいて、カメラから見た手と物品の位置関係を求める。
物品持ち方対応データベース123の作成は、物品持ち方対応データベース作成手段124で行うことができる。一例として、後述する図46の物品の推定を行うための最低限必要な構成例に物品持ち方対応データベース123を追加する場合を点線で示す。物品持ち方対応データベース作成手段124により物品持ち方対応データベース123を予め作成しておき、物品の推定を行なうときには、物品持ち方対応データベース123のみを使用するようにしてもよい。
物品持ち方対応データベース作成手段124は、物品毎に、カメラに映る手と物品の位置関係である物品持ち方対応データベース123を作成するための規則である三次元形状モデルを保持している。
一例として、物品持ち方対応データベース作成手段124は、カメラ301から人の位置(向き)を取得し、予め保持するカメラ301の設置位置とカメラ301で取得した人の位置(向き)とに基づき、物品持ち方対応データベース123を作成する。よって、図46の構成に対応する図47のフローでは、図47のフローの前段階で、手センシングとしてカメラ301から人の位置(向き)を取得したのち、物品持ち方対応データベース作成手段124で物品持ち方対応データベース123の作成を行なったのち、図47のフローを実行する。
なお、一例として、図46及び図47に物品持ち方対応データベース作成手段124を図示したが、同様に、他の構成図及びフロー図にも追加可能である。
また、物品の推定を行うための最低限必要な構成例を図46に示す。
図46に示した物品推定装置は、物品センシング手段(物品センシング部)101と、手センシング手段(手センシング部)103と、持ち方判定処理手段(持ち方判定処理部)107と、物品推定手段(物品推定部)116と、物品持ち方対応データベース(物品持ち方対応DB)123とを備えて構成されて、人が取り扱う物品を推定することができる。尚、各構成要素の機能は上述した内容と同等である。
図46の構成を用いたときの物品位置推定装置の処理フローについて、図47を参照して説明する。
ステップS4701で、物品センシング手段101は、環境空間91に存在する日用品又はオフィス用品などの複数の物品の位置の情報を検出する。
ステップS4702で、手センシング手段103は、環境空間91内の人の手の位置の情報を検出する。
ステップS4703で、持ち方判定処理手段107は、物品センシング手段101及び手センシング手段103から複数の物品の位置の情報と人の手の位置の情報とに基づいて物品と手の位置関係を取得し、人が物品をどのようにして持っているか、又は、何も持っていないか、を判定する。
ステップS4704で、物品推定手段116は、物品持ち方対応データベース123を参照し、S4703で持ち方判定処理手段107により判定した持ち方が物品持ち方対応データベース123に登録されている物品を、人が持っている物品であると推定する。
ここでは、対象物品が全部隠されてしまう状況と、人によって物品の持ち方が異なっている状況について説明する。
次に、前記2つ目の状況の場合、持ち方判定処理手段107とシーン判定手段109の処理(ステップS201〜S204)までは、前記1つ目の状況と同様に行い、図34に示した結果の情報が得られたとする。
ここでは、物品持ち方対応データベース123の更新方法について説明する。
最初に、図36Aに示すように、マグカップ3703がモニタ304の前方に置かれているとする。花子は、時刻t11にこのマグカップ3703を取り、運び、図36Bに示すように、時刻t99に収納ラック303の前方に置いたとする。このとき、マグカップ3703の取っ手部分3703aではなく、マグカップ3703の本体部分3703bを普通のコップと同じように手で持ったとする。また、モニタ304の前方には、物品センシング手段101の一例として無線ICタグセンサ3704が設置されている。図36Aに時刻t11の物品の状況3701を示し、図36Bに時刻t99の物品の状況3702を示す。
ステップS201で、物品センシング手段101は、前述の通り無線ICタグセンサ3704が設置されているので、物品のIDは一意に特定することができる。図38に、検出結果の情報が登録された物品検出履歴データベース102の例を示す。時刻t11において、1つの物品が検出されており、物品ID=A004と、1つの物品に特定されている。
前記の図2の全体の処理フローのステップS204で、「置くシーン」が終了したら物品推定のための処理を開始する。ここで、前述の通り、前記物品センシング手段101によって、対象物品が1つに特定されているので、データベース更新手段121の処理をステップS205で行う。
以上のような構成により、物品持ち方対応データベース123をデータベース更新手段121で適切に更新することで、より正確に物品及びその位置を推定することができるようになる。
Claims (14)
- 環境空間中に存在する複数の物品の位置の情報を検出する物品センシング手段と、
前記環境空間中に存在する人の手の位置の情報を検出する手センシング手段と、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出された前記物品の位置の情報と前記手の位置の情報との位置関係を、前記手による前記物品の持ち方として判定する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると推定する物品推定手段とを、
備える物品推定装置。 - 環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を物品検出履歴データベースに登録する物品センシング手段と、
前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を手検出履歴データベースに登録する手センシング手段と、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると推定する物品推定手段とを、
備える物品推定装置。 - 環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、物品検出履歴データベースに登録する物品センシング手段と、
前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、手検出履歴データベースに登録する手センシング手段と、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得するシーン判定手段と、
前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が前記手で持って前記物品を運ぶ前にその物品が置かれていた移動元の位置に存在する、第2候補物品を抽出する第2物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と推定する物品推定手段と、
を備える物品推定装置。 - 前記物品センシング手段及び前記手センシング手段の少なくともいずれか1つは、前記環境空間中に存在する前記複数の物品及び前記人の手を含む画像情報を撮像する画像センサと、前記画像センサで撮像された画像情報を基に、画像認識処理を行う画像認識手段とで構成され、
前記画像認識手段は、前記複数の物品のIDの情報及び前記複数の物品の位置の情報を検出して、前記物品検出履歴データベースに登録する前記物品センシング手段としての機能か、又は、前記人のIDの情報及び前記人の手の位置の情報を検出して、前記手検出履歴データベースに登録する前記手センシング手段としての機能のいずれかを有する請求項2又は3に記載の物品推定装置。 - 前記シーン判定手段は、前記手検出履歴データベースを参照して、取得した時間区間の情報における前記手の位置の情報とその手の位置の情報を検出した時刻の情報から、単位時間当たりの前記手の移動量を算出し、算出した前記手の移動量が予め設定された閾値以下となる時間区間の情報を複数個抽出し、抽出した時間区間のうち最も時刻の情報が早い時間区間の情報を、物品を取るシーンと判定し、前記抽出した時間区間のうち最も時刻の情報が遅い時間区間の情報を、物品を置くシーンと判定し、前記物品を取るシーンと前記物品を置くシーンとの間の時間区間を、物品を運ぶシーンと判定し、前記判定の結果をシーン判定結果履歴データベースにそれぞれ登録し、
さらに、前記人が前記物品の持ち方を、前記複数の物品のIDの情報毎及び前記物品を前記人が運ぶときの持ち方の情報をシーン毎に、前記物品と前記人の手との位置関係として登録した物品持ち方対応データベースを備え、
前記第1物品候補抽出手段は、前記シーン判定結果履歴データベースに登録されたシーンにおいて、前記物品持ち方対応データベースに登録された物品の中から、前記シーン判定手段によって判定されたシーンにおいて、前記持ち方判定処理手段によって判定された持ち方が登録されている物品を候補物品として抽出する、
請求項3に記載の物品推定装置。 - 前記手で持って前記物品を運ぶ前記人、又は、前記手で持って前記物品を前記人が運んでいる場所に応じて、前記持ち方登録データベース及び前記物品持ち方対応データベースの前記第1物品候補抽出手段が参照するデータを切り替えるデータベース切替手段、
をさらに備える請求項5に記載の物品推定装置。 - 請求項2〜3,5〜6のいずれか1つに記載の前記物品推定装置と、
前記物品検出履歴データベースを参照し、前記物品推定手段が推定した前記物品のIDの情報に対応する前記物品のIDの位置の情報を推定位置とする物品位置推定手段と、
を備える物品位置推定装置。 - 前記物品の探索要求を受付け、前記物品位置推定手段で推定した前記物品のIDの位置の情報において、前記探索要求を受けた前記物品のIDの情報と対応する前記物品の位置の情報を出力する入出力手段と、
をさらに備える請求項7に記載の物品位置推定装置。 - 環境空間中に存在する複数の物品の位置の情報を物品センシング手段で検出し、
前記環境空間中に存在する人の手の位置の情報を手センシング手段で検出し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出された前記物品の位置の情報と前記手の位置の情報との位置関係を、前記手による前記物品の持ち方として持ち方判定処理手段で判定し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると物品推定手段で推定する、
ことを備える物品推定方法。 - 物品センシング手段により、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を物品検出履歴データベースに登録し、
手センシング手段により、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を手検出履歴データベースに登録し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を持ち方判定処理手段で判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに持ち方判定処理手段で登録し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として第1物品候補抽出手段で抽出し、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると、物品推定手段で推定する、
ことを備える物品推定方法。 - 物品センシング手段により、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、物品検出履歴データベースに登録し、
手センシング手段により、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を検出し、検出した情報を検出した時刻の情報と対応付けて、手検出履歴データベースに登録し、
前記物品センシング手段及び前記手センシング手段でそれぞれ検出されて前記物品検出履歴データベースと前記手検出履歴データベースに登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを持ち方判定処理手段で判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに持ち方判定処理手段で登録し、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として第1物品候補抽出手段で抽出し、
シーン判定手段により、前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得し、
第2物品候補抽出手段により、前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が運ぶ前に対象物品が置かれていた移動元の位置に存在する、第2候補物品を抽出し、
前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と、物品推定手段で推定する、
ことを備える物品推定方法。 - 物品センシング手段で検出された環境空間中に存在する複数の物品の位置の情報と、手センシング手段で検出された前記環境空間中に存在する人の手の位置の情報との位置関係を、前記手による前記物品の持ち方として判定する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって判定した前記持ち方の情報に対応する物品のIDを、前記人が持っている物品であると推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラム。 - 物品センシング手段により検出された、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報が登録された物品検出履歴データベースと、手センシング手段により検出された、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報が登録された手検出履歴データベースとにそれぞれ登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方を判定し、判定された持ち方の情報を前記物品のID毎に持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品を、前記人が運んでいる物品であると推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラム。 - 物品センシング手段により検出された、環境空間中に存在する複数の物品のIDの情報及び前記複数の物品の位置の情報を、検出した時刻の情報と対応付けて、登録された物品検出履歴データベースと、手センシング手段により検出された、前記環境空間中に存在する人のIDの情報及び前記人の手の位置の情報を、検出した時刻の情報と対応付けて、登録された手検出履歴データベースとにそれぞれ登録された前記物品の位置の情報と前記手の位置の情報との位置関係から、前記手による前記物品の持ち方、又は、前記物品を前記手で持っていないかを判定し、前記物品センシング手段及び前記手センシング手段でそれぞれ検出した情報に対応付けられて前記物品検出履歴データベースと前記手検出履歴データベースに登録された時刻の情報と対応付けてその判定の結果の情報を、持ち方判定結果履歴データベースに登録する持ち方判定処理手段と、
前記人の前記物品の持ち方が、前記物品のID毎に、前記物品と前記人の前記手との位置関係として登録されている持ち方登録データベースから、前記持ち方判定処理手段によって取得した前記持ち方の情報に対応する物品のIDを第1候補物品として抽出する第1物品候補抽出手段と、
前記持ち方判定結果履歴データベースを参照して、前記物品の持ち方が判定された時刻が含まれる時間区間の情報を取得するシーン判定手段と、
前記手検出履歴データベースを参照し、前記シーン判定手段が取得した前記時間区間の直前の時刻の情報における前記手の位置を取得し、前記取得した手の位置の情報と前記直前の時刻の情報とに基づいて前記物品検出履歴データベースを参照し、前記人が運ぶ前に対象物品が置かれていた移動元の位置に存在する、第2候補物品を抽出する第2物品候補抽出手段と、
前記第1物品候補抽出手段で抽出された前記第1候補物品と前記第2物品候補抽出手段で抽出された前記第2候補物品とに共通する物品を、前記人が運んでいる物品と推定する物品推定手段、
としてコンピュータを機能させる物品推定プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008177996 | 2008-07-08 | ||
JP2008177996 | 2008-07-08 | ||
PCT/JP2009/003123 WO2010004719A1 (ja) | 2008-07-08 | 2009-07-06 | 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP4422792B1 true JP4422792B1 (ja) | 2010-02-24 |
JPWO2010004719A1 JPWO2010004719A1 (ja) | 2011-12-22 |
Family
ID=41506847
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009539326A Active JP4422792B1 (ja) | 2008-07-08 | 2009-07-06 | 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US8436897B2 (ja) |
JP (1) | JP4422792B1 (ja) |
CN (1) | CN102007514B (ja) |
WO (1) | WO2010004719A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015058995A (ja) * | 2013-09-17 | 2015-03-30 | Necフィールディング株式会社 | 管理システム、管理装置、管理方法、及びプログラム |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9665767B2 (en) * | 2011-02-28 | 2017-05-30 | Aic Innovations Group, Inc. | Method and apparatus for pattern tracking |
US11288472B2 (en) | 2011-08-30 | 2022-03-29 | Digimarc Corporation | Cart-based shopping arrangements employing probabilistic item identification |
US9367770B2 (en) | 2011-08-30 | 2016-06-14 | Digimarc Corporation | Methods and arrangements for identifying objects |
US10762467B2 (en) * | 2012-08-06 | 2020-09-01 | Nec Corporation | Placement information registration device, placement information registration method, and placement information registration program |
WO2014047086A1 (en) * | 2012-09-24 | 2014-03-27 | Siemens Healthcare Diagnostics Inc. | Image capture-based predictive control device |
US10268983B2 (en) * | 2013-06-26 | 2019-04-23 | Amazon Technologies, Inc. | Detecting item interaction and movement |
US10176513B1 (en) | 2013-06-26 | 2019-01-08 | Amazon Technologies, Inc. | Using gestures and expressions to assist users |
US10176456B2 (en) | 2013-06-26 | 2019-01-08 | Amazon Technologies, Inc. | Transitioning items from a materials handling facility |
WO2015033575A1 (ja) | 2013-09-06 | 2015-03-12 | 日本電気株式会社 | 販売促進システム、販売促進方法、非一時的なコンピュータ可読媒体及び棚システム |
CN105320931B (zh) * | 2014-05-26 | 2019-09-20 | 京瓷办公信息系统株式会社 | 物品信息提供装置和物品信息提供系统 |
US20170193290A1 (en) * | 2016-01-06 | 2017-07-06 | Toshiba Tec Kabushiki Kaisha | Commodity registration apparatus and commodity registration method |
US10049267B2 (en) * | 2016-02-29 | 2018-08-14 | Toyota Jidosha Kabushiki Kaisha | Autonomous human-centric place recognition |
JP6909960B2 (ja) * | 2017-03-31 | 2021-07-28 | パナソニックIpマネジメント株式会社 | 検知装置、検知方法及び検知プログラム |
WO2018235198A1 (ja) | 2017-06-21 | 2018-12-27 | 日本電気株式会社 | 情報処理装置、制御方法、及びプログラム |
KR102003691B1 (ko) * | 2017-07-31 | 2019-07-25 | 코닉오토메이션 주식회사 | 소품 등록 시스템 |
US11003916B2 (en) * | 2017-11-03 | 2021-05-11 | Toyota Research Institute, Inc. | Systems and methods for object historical association |
CN109002782A (zh) * | 2018-07-02 | 2018-12-14 | 深圳码隆科技有限公司 | 一种基于自动售货机的商品购买方法、装置和用户终端 |
CN108960132B (zh) * | 2018-07-02 | 2020-12-15 | 深圳码隆科技有限公司 | 一种开放式自动售货机中商品的购买方法及其装置 |
CN109784319A (zh) * | 2019-03-25 | 2019-05-21 | 珠海格力电器股份有限公司 | 物品管理方法、装置、存储介质及移动终端 |
CN111565301B (zh) * | 2020-05-25 | 2021-09-14 | 珠海格力电器股份有限公司 | 室内监控方法、装置、系统、存储介质及摄像装置 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07160665A (ja) * | 1993-12-13 | 1995-06-23 | Fujitsu Ltd | 物体識別装置 |
JP2002027449A (ja) | 2000-07-10 | 2002-01-25 | Fujitsu Ltd | 移動物体識別方法および移動物体識別装置 |
JPWO2004106009A1 (ja) * | 2003-06-02 | 2006-07-20 | 松下電器産業株式会社 | 物品取扱いシステムおよび物品取扱いサーバ |
WO2006000020A1 (en) | 2004-06-29 | 2006-01-05 | European Nickel Plc | Improved leaching of base metals |
JP2006092530A (ja) * | 2004-08-26 | 2006-04-06 | Ihc:Kk | 認証システム |
MX2007016203A (es) | 2005-06-29 | 2008-03-10 | Compumedics Ltd | Ensamble de sensor con puente conductivo. |
JP2007079918A (ja) | 2005-09-14 | 2007-03-29 | Matsushita Electric Ind Co Ltd | 物品検索システム及び方法 |
US7852217B2 (en) * | 2005-12-28 | 2010-12-14 | Panasonic Corporation | Object detecting device, object detecting method and object detecting computer program |
JP2007213528A (ja) * | 2006-02-13 | 2007-08-23 | Sanyo Electric Co Ltd | 行動認識システム |
WO2008029724A1 (fr) * | 2006-09-04 | 2008-03-13 | Panasonic Corporation | Dispositif de détermination de danger, procédé de détermination de danger, dispositif de rapport de danger et programme de détermination de danger |
-
2009
- 2009-07-06 CN CN2009801135304A patent/CN102007514B/zh active Active
- 2009-07-06 WO PCT/JP2009/003123 patent/WO2010004719A1/ja active Application Filing
- 2009-07-06 JP JP2009539326A patent/JP4422792B1/ja active Active
-
2010
- 2010-01-29 US US12/696,384 patent/US8436897B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015058995A (ja) * | 2013-09-17 | 2015-03-30 | Necフィールディング株式会社 | 管理システム、管理装置、管理方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN102007514B (zh) | 2012-09-19 |
US8436897B2 (en) | 2013-05-07 |
US20100134611A1 (en) | 2010-06-03 |
WO2010004719A1 (ja) | 2010-01-14 |
JPWO2010004719A1 (ja) | 2011-12-22 |
CN102007514A (zh) | 2011-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4422792B1 (ja) | 物品推定装置及び物品位置推定装置、物品推定方法、並びに、物品推定プログラム | |
CN111989537B (zh) | 用于在无约束环境中检测人类视线和手势的系统和方法 | |
US10055851B2 (en) | Determining dimension of target object in an image using reference object | |
CN106647742B (zh) | 移动路径规划方法及装置 | |
CN104487915B (zh) | 维持扩增的连续性 | |
TWI684136B (zh) | 機器人、控制系統以及用以操作機器人之方法 | |
US20160041623A1 (en) | Sessionless pointing user interface | |
US20150262004A1 (en) | Information input apparatus, information input method, and computer program | |
WO2016138567A1 (en) | Structure modelling | |
JP6771996B2 (ja) | ユーザーインターフェースのリアルタイムインタラクティブ操作のためのシステム及び方法 | |
WO2017047182A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN109933061A (zh) | 基于人工智能的机器人及控制方法 | |
CN106030610A (zh) | 移动设备的实时3d姿势识别和跟踪系统 | |
US20200326722A1 (en) | Mobile robot, system for multiple mobile robot, and map learning method of mobile robot using artificial intelligence | |
JP2005056213A (ja) | 情報提供システム、情報提供サーバ、情報提供方法 | |
Li et al. | Visual interpretation of natural pointing gestures in 3D space for human-robot interaction | |
JP5418938B2 (ja) | グループ行動推定装置およびサービス提供システム | |
US11630569B2 (en) | System, method and devices for touch, user and object sensing for IoT experiences | |
JP5567725B2 (ja) | グループ行動推定装置 | |
CN109087351A (zh) | 基于深度信息对场景画面进行闭环检测的方法及装置 | |
CN116385489B (zh) | 基于rgbd相机的目标跟随方法及系统 | |
CN106127138A (zh) | 一种手型识别的初始化方法和装置以及虚拟现实终端 | |
Kim et al. | Object recognition using smart tag and stereo vision system on pan-tilt mechanism | |
Le et al. | 3d object finding using geometrical constraints on depth images | |
CN115461794A (zh) | 从二维图像估计用户手势的方法、系统和非暂时性计算机可读记录介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091104 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091204 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121211 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4422792 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121211 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131211 Year of fee payment: 4 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |