JP2005242759A - 行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents
行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 Download PDFInfo
- Publication number
- JP2005242759A JP2005242759A JP2004052967A JP2004052967A JP2005242759A JP 2005242759 A JP2005242759 A JP 2005242759A JP 2004052967 A JP2004052967 A JP 2004052967A JP 2004052967 A JP2004052967 A JP 2004052967A JP 2005242759 A JP2005242759 A JP 2005242759A
- Authority
- JP
- Japan
- Prior art keywords
- human
- intention
- low
- speed
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【課題】室内の人間の動作を追跡して、その人間の行動・意図を推定することを可能とする。
【解決手段】撮像部11が室内の人間を撮像し、撮像した人間の映像を高速・低解像度処理部12および低速・高解像度処理部13に送信し、高速・低解像度処理部12が、撮像部11が撮像した人間の映像に基づいて、その人間の室内における2次元、3次元の位置や方向を特定し、低速・高解像度処理部13が、撮像部11が撮像した人間の映像に基づいて、知識蓄積部15に蓄積されたデータを用いて、人間のジェスチャーを特定し、行動・意図推定部14が、高速・低解像度処理部12による処理結果と、低速・高解像度処理部13による処理結果とに基づいて、ベイズ分類を用いて、撮像対象となった人間の行動・意図を推定する。
【選択図】図1
【解決手段】撮像部11が室内の人間を撮像し、撮像した人間の映像を高速・低解像度処理部12および低速・高解像度処理部13に送信し、高速・低解像度処理部12が、撮像部11が撮像した人間の映像に基づいて、その人間の室内における2次元、3次元の位置や方向を特定し、低速・高解像度処理部13が、撮像部11が撮像した人間の映像に基づいて、知識蓄積部15に蓄積されたデータを用いて、人間のジェスチャーを特定し、行動・意図推定部14が、高速・低解像度処理部12による処理結果と、低速・高解像度処理部13による処理結果とに基づいて、ベイズ分類を用いて、撮像対象となった人間の行動・意図を推定する。
【選択図】図1
Description
本発明は、人間の行動・意図を推定する行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
近年、コンピュータ自体が生活環境に溶け込み、知らないあいだに無意識にコンピュータを利用できる社会が期待されるようになってきている。こうした社会においては、例えば、冷蔵庫やテレビ、洗濯機など家庭の機器が個々にインターネットのアドレスを持ち、ネットワークで結ばれたネット家電が生活の中で活用される。
高齢化社会に入り、一人暮らしの人間が増えているが、室内にいる一人暮らしの人間の動作をビデオカメラで追跡し、追跡結果を分析して、例えばその人間がテレビを見るつもりであることを推定し、ネットワークで結ばれたテレビの電源を自動的に入れるようにしたり、例えばその人間が暖房をつけるつもりであることを推定し、ネットワークで結ばれたエアコンのスイッチを付けるシステムを利用すれば、一人暮らしの人間がより快適に生活をすることができるようになる。
従来から、室内に居る人間の動作を追跡するシステムは存在する。従来は、室内の人間の動作を、例えば一般的に知られている背景差分(例えば、非特許文献2参照)を用いた動物体の抽出技術によって追跡していた。
なお、人間の顔認識に応用可能な画像処理技術として、例えば、下記の非特許文献1に記載された非線形フィルタを用いた多重解像度解析技術がある。
Y.Shinagawa and T.L.Kunii.Unconstrained automatic image matching using multiresolutional critical-point filters. IEEE Trans Pattern Analysis and Machine Intelligence, Vol.20, No.9, September 1998 加藤丈和,柴田智行,和田俊和,最近傍識別器を用いた背景差分と色検出の統合,情報処理学会研究報告2004-CVIM-142 ,Vol.2004,No. 6 ,pp.31-36,2004.
Y.Shinagawa and T.L.Kunii.Unconstrained automatic image matching using multiresolutional critical-point filters. IEEE Trans Pattern Analysis and Machine Intelligence, Vol.20, No.9, September 1998 加藤丈和,柴田智行,和田俊和,最近傍識別器を用いた背景差分と色検出の統合,情報処理学会研究報告2004-CVIM-142 ,Vol.2004,No. 6 ,pp.31-36,2004.
しかし、上記従来技術のうち、室内の人間の動作を、背景差分を用いた動物体の抽出技術を用いて追跡する技術では、室内の人間の動作を高速に追跡することが可能であるが、追跡可能なのは、その人間の室内における2次元、3次元の位置や方向であり、その人間の姿勢やポーズ、ジェスチャーなどの詳細な動作を追跡することは困難である。
また、非特許文献1に記載された技術は、その人間が現時点で何をするつもりなのかを推定することは想定していない。
本発明は、上記従来技術の問題点を解決し、室内の人間の動作をリアルタイムに追跡し、追跡結果に基づいて、その人間が次に何をするつもりなのか、すなわち、その人間の行動・意図を推定することが可能な行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体の提供を目的とする。
上記課題を解決するため、本発明は、室内の人間の行動・意図を推定するシステムであって、前記人間を撮像する撮像手段と、前記撮像手段が撮像した人間の映像に基づいて、背景差分を用いた動物体の抽出技術を用いて、前記人間の室内における2次元、3次元の位置や方向を特定する高速・低解像度処理手段と、前記撮像手段が撮像した人間の映像に基づいて、知識蓄積手段に蓄積されたデータを用いて多重解像度解析を行い、前記撮像された人間の姿勢を特定する低速・高解像度処理手段と、前記高速・低解像度処理手段による処理結果と、前記低速・高解像度処理手段による処理結果とに基づいて、ベイズ分類を用いて前記人間の行動・意図を推定する行動・意図推定手段と、人体の各部分と人体の各部分を表す複数の画像との対応情報と、人間の姿勢と人間の姿勢を表す複数の画像との対応情報とが蓄積された知識蓄積手段とを備えることを特徴とする行動・意図推定システムである。
また、本発明は、室内の人間の行動・意図を推定する方法であって、前記人間を撮像する撮像ステップと、前記撮像ステップにおいて撮像した人間の映像に基づいて、背景差分を用いた動物体の抽出技術を用いて、前記人間の室内における2次元、3次元の位置や方向を特定する高速・低解像度処理ステップと、前記撮像ステップにおいて撮像した人間の映像に基づいて、人体の各部分と人体の各部分を表す複数の画像との対応情報と、人間の姿勢と人間の姿勢を表す複数の画像との対応情報とを用いて多重解像度解析を行い、前記撮像された人間の姿勢を特定する低速・高解像度処理ステップと、前記高速・低解像度処理ステップによる処理結果と、前記低速・高解像度処理ステップによる処理結果とに基づいて、ベイズ分類を用いて前記人間の行動・意図を推定する行動・意図推定ステップとを有することを特徴とする行動・意図推定方法である。
また、本発明は、室内の人間の行動・意図を推定する方法をコンピュータに実行させるためのプログラムであって、前記人間を撮像する撮像処理と、前記撮像処理において撮像した人間の映像に基づいて、背景差分を用いた動物体の抽出技術を用いて、前記人間の室内における2次元、3次元の位置や方向を特定する高速・低解像度処理と、前記撮像処理において撮像した人間の映像に基づいて、人体の各部分と人体の各部分を表す複数の画像との対応情報と、人間の姿勢と人間の姿勢を表す複数の画像との対応情報とを用いて多重解像度解析を行い、前記撮像された人間の姿勢を特定する低速・高解像度処理と、前記高速・低解像度処理による処理結果と、前記低速・高解像度処理による処理結果とに基づいて、ベイズ分類を用いて前記人間の行動・意図を推定する行動・意図推定処理とを、コンピュータに実行させることを特徴とする行動・意図推定プログラムである。
また、本発明は、室内の人間の行動・意図を推定する方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、前記人間を撮像する撮像処理と、前記撮像処理において撮像した人間の映像に基づいて、背景差分を用いた動物体の抽出技術を用いて、前記人間の室内における2次元、3次元の位置や方向を特定する高速・低解像度処理と、前記撮像処理において撮像した人間の映像に基づいて、人体の各部分と人体の各部分を表す複数の画像との対応情報と、人間の姿勢と人間の姿勢を表す複数の画像との対応情報とを用いて多重解像度解析を行い、前記撮像された人間の姿勢を特定する低速・高解像度処理と、前記高速・低解像度処理による処理結果と、前記低速・高解像度処理による処理結果とに基づいて、ベイズ分類を用いて前記人間の行動・意図を推定する行動・意図推定処理とを、コンピュータに実行させることを特徴とする行動・意図推定プログラムを記録したコンピュータ読み取り可能な記録媒体である。
本発明によれば、室内の人間の動作をリアルタイムに追跡し、追跡結果に基づいて、その人間の行動・意図を推定することが可能となる。
従って、例えば、室内の人間がテレビの方向に移動し、テレビの近くの位置でテレビのリモコンを持ち上げた時点でその人間がテレビの電源を入れるつもりであることを推定することが可能となる。
また、例えば、室内の人間がエアコンのリモコンの方向に移動し、そのリモコンに触れた時点でその人間がエアコンのスイッチを入れるつもりであることが推定可能となる。
以下、本発明の実施の形態について、図面を参照しながら説明する。図1は、本発明の構成例を示す図である。図1において、1は行動・意図推定システムである。
また、11はビデオカメラ等の撮像部、12は高速・低解像度処理部、13は低速・高解像度処理部、14は行動・意図推定部、15は知識蓄積部、151は人体部分情報DB、152は姿勢情報DBである。
撮像部11は、室内に居る人間をリアルタイムに撮像する。高速・低解像度処理部12は、撮像部11が撮像した人間の映像に基づいて、一般的な背景差分を用いた動物体抽出技術を用いて、その人間の室内における2次元、3次元の位置や方向を特定する。
高速・低解像度処理部12による処理は、撮像対象となった人間の室内における2次元、3次元の位置しか特定できないが、その処理を高速に行うことができる。
低速・高解像度処理部13は、上記非特許文献1に記載された非線型フィルタを用いた多重解像度解析技術を用いて、撮像対象となった人間の詳細な動作を特定する。すなわち、撮像部11が撮像した人間の映像に基づいて、知識蓄積部15に蓄積されたデータを用いてマッチングを行い、その人間の姿勢やポーズ、ジェスチャーを特定する。
低速・高解像度処理部13は、高速・低解像度処理部12に比して処理速度が遅いが、撮像対象となった人間の姿勢やポーズ、ジェスチャーを特定することができる。
行動・意図推定部14は、高速・低解像度処理部12による処理結果と、低速・高解像度処理部13による処理結果とに基づいて、公知の技術であるベイズ分類を用いて、撮像対象となった人間の行動・意図を推定する。
また、知識蓄積部15内の人体部分情報DB151には、人体の各部分毎のIDや画像情報などが蓄積されている。姿勢情報DB152には、人間の姿勢毎の複数の画像情報などが蓄積されている。
図2は、人体部分情報DB151のデータ構成例を示す図である。人体部分情報DB151は、例えば、人体の各部分を一意に特定するID、人体の各部分の名称、人体の各部分の画像情報と、人体の各部分と連結される人体の他の部分を示すリンク情報とから構成される。
図2に示すように、例えば、人体部分情報DB151には、人体の「手」のID「1」と、「手」についての複数の画像情報とが蓄積され、リンク情報として、「手」に連結する「前腕部」のID「2」が蓄積されている。
また、例えば、人体部分情報DB151には、人体の「前腕部」のID「2」と、「前腕部」についての複数の画像情報とが蓄積され、リンク情報として、「前腕部」に連結する「手」のID「1」と、「肘部」のID「3」が蓄積されている。
同様にして、人体部分情報DB151には、人体の他の部分に対応するIDと、その画像情報、リンク情報が蓄積されている。
図3は、姿勢情報DB152のデータ構成例を示す図である。姿勢情報DB152には、例えば、「座る」、「立つ」などの人間の姿勢を表す複数の画像情報が、各姿勢毎に蓄積されている。
低速・高解像度処理部13は、撮像部11が撮像した室内の人間の映像と、人体部分情報DB151に蓄積されている人体の各部の画像とのマッチングを行い、人体の各部分の動作の追跡を行う。
低速・高解像度処理部13は、例えば、撮像部11が撮像した室内の人間の映像中、人体部分情報DB151に蓄積された「手首」の画像にマッチングする部分の動作を追跡する。同様にして、撮像部11が撮像した室内の人間の映像中、人体部分情報DB151に蓄積された他の人体部分の画像にマッチングする部分の動作を追跡する。
また、低速・高解像度処理部13は、撮像部11が撮像した室内の人間の映像と、姿勢情報DB152に蓄積された人間の各姿勢毎の画像とのマッチングを行う。マッチングの結果、例えば、撮像部11が撮像した室内の人間の映像が、姿勢情報DB152に蓄積された「座る」という人間の姿勢の画像の一つと対応する場合、撮像対象となった人間の姿勢は「座る」であると特定する。
上記撮像部11が撮像した室内の人間の映像と、人体部分情報DB151に蓄積されている人体の各部の画像とのマッチングおよび撮像部11が撮像した室内の人間の映像と、姿勢情報DB152に蓄積された人間の各姿勢毎の画像とのマッチングにより、撮像対象となった人間の、例えば、「座って上腕部を上げている」などのジェスチャーを特定することが可能となる。
図4は、行動・意図推定部14の、ベイズ分類を用いた人間の行動・意図推定処理の一例を説明する図である。図4において、例えば、縦軸は室内の人間の位置を示し、横軸は室内の人間の手の高さを示している。
また、エリアAは、「靴を脱ぐ」という行動・意図に分類される領域、エリアBは、「エアコンをつける」という行動・意図に分類される領域、エリアCは、「テレビをつける」という行動・意図に分類される領域を示す。
本発明においては、行動・意図推定部14は、各エリア内に含まれる点(黒丸で示される点)は、各エリアに対応する行動・意図に分類されるということを予め学習し、学習データとして蓄積しておく。
ここで、高速・低解像度処理部12の処理により得られた室内の人間の位置、低速・高解像度処理部13の処理により得られた室内の人間の手の高さにより定まる座標位置の点(図中の白丸で示される点)が、図4のようにエリアC内の点として新たに入力されたとする。
行動・意図推定部14は、上記学習データから、このエリアC内の新たな入力点は「テレビをつける」という行動・意図に分類されることを出力データとして出力する。このようにして、高速・低解像度処理部12による処理結果と、低速・高解像度処理部13による処理結果とに基づいて、撮像対象となった人間の行動・意図が推定される。
なお、図4においては、説明の簡略化のため、入力点の座標が2次元の場合を示したが、入力座標の次元数に制限はなく、例えば、人間の手の高さの他に、腰部の高さ、頭部の傾き等を組み合わせた様々なジェスチャーを座標軸にとって上記ベイズ分類を用いた行動・意図を推定すれば、推定精度が更に向上する。
次に、図5〜図9を用いて、本発明の行動・意図推定処理について説明する。図5は、本発明の行動・意図推定処理フローの一例を示す図である。また、図6〜図9は、本発明の適用例を示す図であり、2は部屋、11は撮像部、20は部屋2内に居る人間、21はテレビ、22はテレビ21のリモコン、23はエアコン、24はエアコン23のリモコンである。部屋2には、本発明の行動意図推定システム1が内蔵されているものとする。
まず、図6または図8に示すように、撮像部11が部屋2内の人間20を撮像する(ステップS1)。撮像部11が撮像した人間20の映像は、高速・低解像度処理部12および低速・高解像度処理部13に送信される。
次に、高速・低解像度処理部12が、撮像部11が撮像した人間の映像に基づいて、人間20の部屋2内における2次元、3次元の位置や方向を特定する(ステップS2)。このステップS2では、一般的な背景差分を用いた動物体抽出技術を用いる。
次に、低速・高解像度処理部13が、撮像部11が撮像した人間の映像に基づいて、知識蓄積部15に蓄積されたデータを用いて、人間20のジェスチャーを特定する(ステップS3)。
例えば、人間20が図6または図8に示すような動作をしている時、上記ステップS1〜ステップS3までの処理の結果、人間20が矢印で示す方向に向かって歩行していることが特定される。
また、例えば、人間20が図7に示すような動作をしている時、人間20が、部屋2の奥の位置において手を上げていることが特定される。また、例えば、人間20が図9に示すような動作をしている時、人間20が、立った姿勢で前腕部を伸ばしていることがわかる。
次に、行動・意図推定部14が、高速・低解像度処理部12による処理結果と、低速・高解像度処理部13による処理結果とに基づいて、撮像対象となった人間20の行動・意図を推定する(ステップS4)。例えば、上述したステップS3において、図7に示す動作をしている人間20のジェスチャーは、「部屋2の奥の位置において手を上げている」と特定されたとすると、行動・意図推定部14に入力される新たな入力点は、例えば図4に示すエリアC内の白丸で示す点となることから、人間20の「テレビをつける」という行動・意図が推定される。
1 行動・意図推定システム
2 部屋
11 撮像部
12 高速・低解像度処理部
13 低速・高解像度処理部
14 行動・意図推定部
15 知識蓄積部
20 人間
21 テレビ
22、24 リモコン
23 エアコン
151 人体部分情報DB
152 姿勢情報DB
2 部屋
11 撮像部
12 高速・低解像度処理部
13 低速・高解像度処理部
14 行動・意図推定部
15 知識蓄積部
20 人間
21 テレビ
22、24 リモコン
23 エアコン
151 人体部分情報DB
152 姿勢情報DB
Claims (4)
- 室内の人間の行動・意図を推定するシステムであって、
前記人間を撮像する撮像手段と、
前記撮像手段が撮像した人間の映像に基づいて、背景差分を用いた動物体の抽出技術を用いて、前記人間の室内における2次元、3次元の位置や方向を特定する高速・低解像度処理手段と、
前記撮像手段が撮像した人間の映像に基づいて、知識蓄積手段に蓄積されたデータを用いて多重解像度解析を行い、前記撮像された人間の姿勢を特定する低速・高解像度処理手段と、
前記高速・低解像度処理手段による処理結果と、前記低速・高解像度処理手段による処理結果とに基づいて、ベイズ分類を用いて前記人間の行動・意図を推定する行動・意図推定手段と、
人体の各部分と人体の各部分を表す複数の画像との対応情報と、人間の姿勢と人間の姿勢を表す複数の画像との対応情報とが蓄積された知識蓄積手段とを備える
ことを特徴とする行動・意図推定システム。 - 室内の人間の行動・意図を推定する方法であって、
前記人間を撮像する撮像ステップと、
前記撮像ステップにおいて撮像した人間の映像に基づいて、背景差分を用いた動物体の抽出技術を用いて、前記人間の室内における2次元、3次元の位置や方向を特定する高速・低解像度処理ステップと、
前記撮像ステップにおいて撮像した人間の映像に基づいて、人体の各部分と人体の各部分を表す複数の画像との対応情報と、人間の姿勢と人間の姿勢を表す複数の画像との対応情報とを用いて多重解像度解析を行い、前記撮像された人間の姿勢を特定する低速・高解像度処理ステップと、
前記高速・低解像度処理ステップによる処理結果と、前記低速・高解像度処理ステップによる処理結果とに基づいて、ベイズ分類を用いて前記人間の行動・意図を推定する行動・意図推定ステップとを有する
ことを特徴とする行動・意図推定方法。 - 室内の人間の行動・意図を推定する方法をコンピュータに実行させるためのプログラムであって、
前記人間を撮像する撮像処理と、
前記撮像処理において撮像した人間の映像に基づいて、背景差分を用いた動物体の抽出技術を用いて、前記人間の室内における2次元、3次元の位置や方向を特定する高速・低解像度処理と、
前記撮像処理において撮像した人間の映像に基づいて、人体の各部分と人体の各部分を表す複数の画像との対応情報と、人間の姿勢と人間の姿勢を表す複数の画像との対応情報とを用いて多重解像度解析を行い、前記撮像された人間の姿勢を特定する低速・高解像度処理と、
前記高速・低解像度処理による処理結果と、前記低速・高解像度処理による処理結果とに基づいて、ベイズ分類を用いて前記人間の行動・意図を推定する行動・意図推定処理とを、コンピュータに実行させる
ことを特徴とする行動・意図推定プログラム。 - 室内の人間の行動・意図を推定する方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記人間を撮像する撮像処理と、
前記撮像処理において撮像した人間の映像に基づいて、背景差分を用いた動物体の抽出技術を用いて、前記人間の室内における2次元、3次元の位置や方向を特定する高速・低解像度処理と、
前記撮像処理において撮像した人間の映像に基づいて、人体の各部分と人体の各部分を表す複数の画像との対応情報と、人間の姿勢と人間の姿勢を表す複数の画像との対応情報とを用いて多重解像度解析を行い、前記撮像された人間の姿勢を特定する低速・高解像度処理と、
前記高速・低解像度処理による処理結果と、前記低速・高解像度処理による処理結果とに基づいて、ベイズ分類を用いて前記人間の行動・意図を推定する行動・意図推定処理とを、コンピュータに実行させる
ことを特徴とする行動・意図推定プログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004052967A JP2005242759A (ja) | 2004-02-27 | 2004-02-27 | 行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004052967A JP2005242759A (ja) | 2004-02-27 | 2004-02-27 | 行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005242759A true JP2005242759A (ja) | 2005-09-08 |
Family
ID=35024419
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004052967A Pending JP2005242759A (ja) | 2004-02-27 | 2004-02-27 | 行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005242759A (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007128307A (ja) * | 2005-11-04 | 2007-05-24 | Advanced Telecommunication Research Institute International | 動作指示装置 |
US7987147B2 (en) | 2006-05-18 | 2011-07-26 | Sony Corporation | Information processing apparatus, information processing method, and program based on operator probability using sensors |
WO2012077287A1 (ja) * | 2010-12-09 | 2012-06-14 | パナソニック株式会社 | 姿勢状態推定装置および姿勢状態推定方法 |
JP2014501415A (ja) * | 2011-01-05 | 2014-01-20 | ソフトキネティック ソフトウェア | 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム |
JP2014507714A (ja) * | 2011-01-19 | 2014-03-27 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | マルチモーダル及びジェスチャー制御のための方法及びシステム |
JP2014515101A (ja) * | 2011-03-31 | 2014-06-26 | クアルコム,インコーポレイテッド | 携帯デバイスの位置を推論するデバイス、方法、および装置 |
WO2015163078A1 (ja) * | 2014-04-24 | 2015-10-29 | 日立オートモティブシステムズ株式会社 | 外界認識装置 |
CN105785782A (zh) * | 2016-03-29 | 2016-07-20 | 北京小米移动软件有限公司 | 智能家居设备控制方法及装置 |
WO2018163555A1 (ja) * | 2017-03-07 | 2018-09-13 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP2019109658A (ja) * | 2017-12-18 | 2019-07-04 | 三菱電機株式会社 | 作業記録システム、作業記録方法及びプログラム |
US10503969B2 (en) | 2016-03-25 | 2019-12-10 | Fuji Xerox Co., Ltd. | Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method |
KR20200050905A (ko) * | 2018-11-02 | 2020-05-12 | 서울대학교산학협력단 | 사용자의 의도 예측 방법 및 이를 수행하기 위한 장치 |
KR20210066681A (ko) * | 2019-11-28 | 2021-06-07 | 숭실대학교산학협력단 | 행렬 인수분해 기법에 기초한 데이터 확대 방법 |
JP2022507399A (ja) * | 2019-07-17 | 2022-01-18 | 上▲海▼商▲湯▼智能科技有限公司 | ロボット画像強調方法及び装置、プロセッサ、機器、媒体及びプログラム |
JP2022058471A (ja) * | 2016-08-02 | 2022-04-12 | アトラス5ディー, インコーポレイテッド | プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 |
WO2024004209A1 (ja) * | 2022-07-01 | 2024-01-04 | 日本電信電話株式会社 | 推定装置、学習装置、方法およびプログラム |
-
2004
- 2004-02-27 JP JP2004052967A patent/JP2005242759A/ja active Pending
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007128307A (ja) * | 2005-11-04 | 2007-05-24 | Advanced Telecommunication Research Institute International | 動作指示装置 |
US7987147B2 (en) | 2006-05-18 | 2011-07-26 | Sony Corporation | Information processing apparatus, information processing method, and program based on operator probability using sensors |
WO2012077287A1 (ja) * | 2010-12-09 | 2012-06-14 | パナソニック株式会社 | 姿勢状態推定装置および姿勢状態推定方法 |
JP5837508B2 (ja) * | 2010-12-09 | 2015-12-24 | パナソニック株式会社 | 姿勢状態推定装置および姿勢状態推定方法 |
US9262674B2 (en) | 2010-12-09 | 2016-02-16 | Panasonic Corporation | Orientation state estimation device and orientation state estimation method |
JP2014501415A (ja) * | 2011-01-05 | 2014-01-20 | ソフトキネティック ソフトウェア | 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム |
JP2014507714A (ja) * | 2011-01-19 | 2014-03-27 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | マルチモーダル及びジェスチャー制御のための方法及びシステム |
US9778747B2 (en) | 2011-01-19 | 2017-10-03 | Hewlett-Packard Development Company, L.P. | Method and system for multimodal and gestural control |
JP2016039999A (ja) * | 2011-03-31 | 2016-03-24 | クアルコム,インコーポレイテッド | 携帯デバイスの位置を推論するデバイス、方法、および装置 |
JP2014515101A (ja) * | 2011-03-31 | 2014-06-26 | クアルコム,インコーポレイテッド | 携帯デバイスの位置を推論するデバイス、方法、および装置 |
WO2015163078A1 (ja) * | 2014-04-24 | 2015-10-29 | 日立オートモティブシステムズ株式会社 | 外界認識装置 |
JP2015210592A (ja) * | 2014-04-24 | 2015-11-24 | 日立オートモティブシステムズ株式会社 | 外界認識装置 |
US10210400B2 (en) | 2014-04-24 | 2019-02-19 | Hitachi Automotive Systems, Ltd. | External-environment-recognizing apparatus |
US10503969B2 (en) | 2016-03-25 | 2019-12-10 | Fuji Xerox Co., Ltd. | Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method |
CN105785782A (zh) * | 2016-03-29 | 2016-07-20 | 北京小米移动软件有限公司 | 智能家居设备控制方法及装置 |
JP2022058471A (ja) * | 2016-08-02 | 2022-04-12 | アトラス5ディー, インコーポレイテッド | プライバシーの保護を伴う人物の識別しおよび/または痛み、疲労、気分、および意図の識別および定量化のためのシステムおよび方法 |
WO2018163555A1 (ja) * | 2017-03-07 | 2018-09-13 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP2019109658A (ja) * | 2017-12-18 | 2019-07-04 | 三菱電機株式会社 | 作業記録システム、作業記録方法及びプログラム |
KR20200050905A (ko) * | 2018-11-02 | 2020-05-12 | 서울대학교산학협력단 | 사용자의 의도 예측 방법 및 이를 수행하기 위한 장치 |
KR102374448B1 (ko) * | 2018-11-02 | 2022-03-15 | 서울대학교산학협력단 | 사용자의 의도 예측 방법 및 이를 수행하기 위한 장치 |
JP2022507399A (ja) * | 2019-07-17 | 2022-01-18 | 上▲海▼商▲湯▼智能科技有限公司 | ロボット画像強調方法及び装置、プロセッサ、機器、媒体及びプログラム |
KR102367181B1 (ko) | 2019-11-28 | 2022-02-25 | 숭실대학교산학협력단 | 행렬 인수분해 기법에 기초한 데이터 확대 방법 |
KR20210066681A (ko) * | 2019-11-28 | 2021-06-07 | 숭실대학교산학협력단 | 행렬 인수분해 기법에 기초한 데이터 확대 방법 |
WO2024004209A1 (ja) * | 2022-07-01 | 2024-01-04 | 日本電信電話株式会社 | 推定装置、学習装置、方法およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005242759A (ja) | 行動・意図推定システム、行動・意図推定方法、行動・意図推定プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
Lao et al. | Automatic video-based human motion analyzer for consumer surveillance system | |
CN102193626B (zh) | 手势识认装置、手势识认装置的控制方法 | |
Jalal et al. | Individual detection-tracking-recognition using depth activity images | |
Jalal et al. | Depth Silhouettes Context: A new robust feature for human tracking and activity recognition based on embedded HMMs | |
JP4643766B1 (ja) | 移動体検出装置及び移動体検出方法 | |
US8897490B2 (en) | Vision-based user interface and related method | |
US20140327784A1 (en) | Computer vision-based object tracking system | |
CN109710071A (zh) | 一种屏幕控制方法和装置 | |
JP2005531844A (ja) | 改良された背景・前景分割のためのオブジェクト分類を採用する拡張背景モデル | |
JP4968929B2 (ja) | 画像処理装置及び画像処理方法 | |
JP2012518236A (ja) | ジェスチャー認識のための方法及びシステム | |
JP4682820B2 (ja) | オブジェクト追跡装置及びオブジェクト追跡方法、並びにプログラム | |
JP2011253292A (ja) | 情報処理装置および方法、並びにプログラム | |
JP2016510144A (ja) | ナチュラルユーザインプットの関与の検出 | |
JP2007052609A (ja) | 手領域検出装置及び手領域検出方法、並びにプログラム | |
Kato et al. | Articulated hand tracking by pca-ica approach | |
Chen et al. | Neuromorphic vision-based fall localization in event streams with temporal–spatial attention weighted network | |
Kolsch et al. | Hand tracking with flocks of features | |
JP6103765B2 (ja) | 行動認識装置、方法及びプログラム並びに認識器構築装置 | |
JP2007199864A (ja) | 画像列生成方法および画像列生成装置 | |
Guzov et al. | Visually plausible human-object interaction capture from wearable sensors | |
JP2007233544A (ja) | 対象物位置追跡方法、装置、およびプログラム | |
Wu et al. | Multipath event-based network for low-power human action recognition | |
US9761009B2 (en) | Motion tracking device control systems and methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061121 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070122 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070227 |