JP4479194B2 - 動作識別装置、及び対象物の姿勢識別装置 - Google Patents

動作識別装置、及び対象物の姿勢識別装置 Download PDF

Info

Publication number
JP4479194B2
JP4479194B2 JP2003306206A JP2003306206A JP4479194B2 JP 4479194 B2 JP4479194 B2 JP 4479194B2 JP 2003306206 A JP2003306206 A JP 2003306206A JP 2003306206 A JP2003306206 A JP 2003306206A JP 4479194 B2 JP4479194 B2 JP 4479194B2
Authority
JP
Japan
Prior art keywords
image
information
person
face
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003306206A
Other languages
English (en)
Other versions
JP2005078257A (ja
Inventor
典司 加藤
仁 池田
正浩 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2003306206A priority Critical patent/JP4479194B2/ja
Priority to US10/927,075 priority patent/US7734062B2/en
Publication of JP2005078257A publication Critical patent/JP2005078257A/ja
Application granted granted Critical
Publication of JP4479194B2 publication Critical patent/JP4479194B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、人物等、対象物の動作や姿勢に関する情報を出力する動作識別装置及び姿勢識別装置に関する。
撮像した画像データから、被写体である人物の姿勢を識別する装置としては、従来から手や肩の相対的位置関係を利用するものなどが開発されている(例えば特許文献1)。ここで手のように変形自由度の大きい対象は、パターン認識による識別が極めて困難であることから、その色を利用して認識を行うことが行われている。
特開平8−320920号公報
しかしながら、色を利用して認識を行う場合、手の近傍に肌色に近い物体が存在する場合に、誤認識が発生しやすくなる。また、対象が人物でなくとも、例えば動物やロボット等、一般の対象物でも同様であって、色のような外観の性状を用いて対象部分を認識する際には、当該性状に類似した物体が撮像されているときには誤認識が発生しやすくなる。
本発明は上記実情に鑑みて為されたもので、外観の性状を利用して対象を認識する場合に、その認識精度を向上できる動作識別装置、及び対象物の姿勢識別装置を提供することを、その目的の一つとする。
上記従来例の問題点を解決するための本発明は、人物の顔を含む少なくとも一部を撮像して生成された画像データを取得し、当該画像データに撮像された人物の動作内容を表す情報を出力する動作識別装置であって、前記画像データから、人物の顔部分を含む第1画像領域を特定する顔部分特定手段と、前記第1画像領域内の画素値から、当該人物に固有の肌色情報を取得する手段と、前記取得された肌色情報に基づき、前記画像データのうち、前記第1画像領域外の部分から、前記人物の身体の一部所定部分を含む第2画像領域を、少なくとも一つ特定する手段と、前記特定された第1画像領域と、第2画像領域との位置関係に基づき、前記人物の動作内容を表す情報を出力する情報出力手段と、を含むことを特徴としている。
ここで人体の3次元モデルを仮想2次元平面に投影して得られるモデル画像を用い、モデル画像内の頭部相当位置及び前記一部所定部分相当位置を表す位置情報に対応づけて動作内容を表す情報を保持する保持手段をさらに含み、前記情報出力手段は、前記保持手段に保持されている位置情報と、前記特定された第1画像領域と、第2画像領域との位置関係を表す情報との比較により、前記位置情報のいずれかに対応付けられた動作内容を表す情報を取得して出力することとしてもよい。
また、前記顔部分特定手段は、前記画像データから人物の顔の表面の3次元的方向を特定する顔面方向情報を出力し、前記情報出力手段は、前記特定された第1画像領域と、第2画像領域との位置関係、並びに、前記顔面方向情報に基づき、前記人物の動作内容を表す情報を出力することとしてもよい。この場合、人体の3次元モデルを仮想2次元平面に投影して得られるモデル画像を用い、モデル画像内の頭部相当位置及び前記一部所定部分相当位置を表す位置情報、並びに前記頭部に関連づけられた所定方向の向きを表す顔面方向情報、に対応づけて動作内容を表す情報を保持する保持手段をさらに含み、前記情報出力手段は、前記保持手段に保持されている位置情報と、前記特定された第1画像領域と、第2画像領域との位置関係を表す情報との比較と、前記顔部分特定手段が出力する顔面方向情報と、前記保持手段に保持されている顔面方向情報との比較と、により、前記位置情報のいずれかに対応付けられた動作内容を表す情報を選択的に出力することとしてもよい。
また、上記従来例の問題点を解決するための本発明は、対象物の少なくとも一部を撮像して生成された画像データを取得する手段と、前記画像データから、対象物の所定特徴部分を含む第1画像領域を特定する第1部分特定手段と、前記第1画像領域内の画素値から、当該対象物の外観に関する性状情報を取得する手段と、前記取得された性状情報に基づき、前記画像データのうち、前記第1画像領域外の部分から、前記対象物の一部が撮像された画像部分、を含む第2画像領域を、少なくとも一つ特定する手段と、前記特定された第1画像領域と、第2画像領域との位置関係に基づき、前記対象物の姿勢に関する情報を出力する情報出力手段と、を含むことを特徴としている。
さらに、上記従来例の問題点を解決するための本発明は、コンピュータを用い、人物の顔を含む少なくとも一部を撮像して生成された画像データを取得し、当該画像データに撮像された人物の動作内容を表す情報を出力する動作識別方法であって、前記画像データから、人物の顔部分を含む第1画像領域を特定する工程と、前記第1画像領域内の画素値から、当該人物に固有の肌色情報を取得する工程と、前記取得された肌色情報に基づき、前記画像データのうち、前記第1画像領域外の部分から、前記人物の身体の一部所定部分を含む第2画像領域を、少なくとも一つ特定する工程と、前記特定された第1画像領域と、第2画像領域との位置関係に基づき、前記人物の動作内容を表す情報を出力する工程と、を含むことを特徴としている。
また、本発明の一態様に係るプログラムは、コンピュータに、人物の顔を含む少なくとも一部を撮像して生成された画像データを取得させ、当該画像データに撮像された人物の動作内容を表す情報を出力させる動作識別プログラムであって、前記画像データから、人物の顔部分を含む第1画像領域を特定する手順と、前記第1画像領域内の画素値から、当該人物に固有の肌色情報を取得する手順と、前記取得された肌色情報に基づき、前記画像データのうち、前記第1画像領域外の部分から、前記人物の身体の一部所定部分を含む第2画像領域を、少なくとも一つ特定する手順と、前記特定された第1画像領域と、第2画像領域との位置関係に基づき、前記人物の動作内容を表す情報を出力する手順と、を前記コンピュータに実行させることを特徴としている。
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る動作識別装置は、図1に示すように、制御部11と、記憶部12と、入出力インタフェース13と、表示部14と、を含んで構成されている。
制御部11は、記憶部12に格納されているプログラムに従って動作しており、外部から取得した画像データから顔の部分の画像を特定する処理(顔特定処理)と、手の部分の画像を特定する処理(手特定処理)と、これらの処理で特定された顔及び手の相対的位置の情報に基づいて被写体となっている人物の動作を識別する動作識別処理とを基本的に実行している。これらの処理の具体的内容については、後に述べる。
記憶部12は、制御部11によって実行されるプログラムを格納する、コンピュータ可読な記録媒体である。またこの記憶部12は、制御部11の処理の過程で必要となる種々のデータを記憶するワークメモリとしても動作する。入出力インタフェース13は、図1に示すように、例えばカメラ装置などの外部装置に接続され、当該外部装置から画像データを取得して制御部11に出力する。またこの入出力インタフェース13は、制御部11から入力される指示に従って、種々のデータを外部装置に出力する。表示部14は、例えばディスプレイ等であり、制御部11から入力される指示に従って情報の表示を行う。
制御部11によって実行されるプログラムは、機能的には図2に示すように、画像変換部21と、顔特定処理部22と、肌色抽出部23と、手候補領域特定部24と、手特定処理部25と、動作識別部26とを含んで構成される。画像変換部21は、入出力インタフェース13を介して取得され、処理対象となる画像データを、グレイスケールの画像データ(グレイスケールデータ)に変換して、顔特定処理部22に出力する。またこの画像変換部21は、上記処理対象となる画像データを、色相画像の画像データ(色相データ)に変換して、肌色抽出部23と手特定処理部25とに出力する。
顔特定処理部22は、画像変換部21から入力されるグレイスケールデータから、顔の部分を特定する処理を行う。この顔特定処理部22は後に説明するように、予め学習獲得されたデータに基づいて画像データ中の顔部分を認識することとすればよい。また、この顔特定処理部22は、顔の位置だけでなく、顔の向き(3次元的向き)や大きさを特定可能なものであってもよい(このような顔特定処理についても後に述べる)。
肌色抽出部23は、画像変換部21から入力される色相データのうち、顔特定処理部22が特定した顔の部分に対応する領域の部分画像を取り出し、当該部分画像の平均色相データを演算して出力する。具体的には、顔特定処理部22が出力する領域情報によって画定される領域に含まれる色相データ中の画素値のヒストグラムを肌色情報として出力する。この肌色情報は、顔特定処理部22によって特定された顔の色(すなわち顔の肌の色)のヒストグラムであり、いわば当該人物に固有の肌色の情報である。本実施の形態の装置は、この対象に固有の肌色を抽出し、それを利用して手の部分を特定する。なお、ここで色相によって比較しているのは、例えば日焼けや照明の状態等で、顔と手との肌色の明度が変化した場合に配慮したものである。
手候補領域特定部24は、顔特定処理部22から入力される顔部分の位置等の情報に基づき、当該人物の手が含まれると推定される領域の候補を少なくとも一つ出力する。具体的に、この手候補領域特定部24は、動作モデルデータベース31を備えており、この動作モデルデータベース31内に格納された動作モデルデータを参照しながら手が含まれると推定される領域を画定する情報(例えば矩形で当該領域を画定する場合、その矩形の対角線上の頂点座標など)を、手候補領域として出力することになる。
ここで動作モデルデータベース31は、人体の3次元モデルを仮想2次元平面に投影して得られるモデル画像を用いて作成できる。例えば図3(a)の下の図に示すように、操作対象物(例えばパーソナルコンピュータ、なお図中では破線で示した)に対して人物が手を伸ばしている場合、ここでの頭部の位置(P1)と、左手及び右手に対応する手候補領域(P2L,P2R)と「パーソナルコンピュータ等の操作」との動作内容を表す情報とを互いに関連づけたエントリが少なくとも一つ生成され、動作モデルデータベース31に格納される。
なお、図3(b)に示すように、人物が図3(a)の姿勢から、当該人物の右手方向に(頭部中心を回転中心として)角度θだけ体を回転すると(図3(a),(b)の上側の図を参照)、図3(b)下に示すように、頭部の位置(P1)に対する手候補領域(P2L,P2R)の相対的位置が変化する。この変化後の位置は、角度θと、頭部中心から手の部分中の所定位置への距離L及び角度α(この距離L及び角度αの絶対値は、右手,左手とも同じであってもよいし、異なってもよい)とを用いて、図3(a)下に示した基本位置からL×sin(α+θ)だけ移動した位置として演算によって定め得る。
なお、ここでは頭部の回転角度に応じて、手の位置が移動するものと仮定している。ここで角度θが顔特定処理部22から得られる場合、距離Lが定まればよいので、当該姿勢との関係における肘関節の伸長度合いから推定されるパラメータとして、この距離Lを上記頭部や手の位置あるいは動作内容を表す情報に関連づけて、各エントリに含めてもよい。
手候補領域特定部24は、この動作モデルデータベース31からエントリを一つ取り出し、顔特定処理部22が出力する顔の向きの情報(角度θ)と、当該エントリに含まれる距離Lと、予め定められたαと、エントリに含まれる基本位置の情報とを用いて、頭部の位置に対する補正手候補領域を生成し、この生成した補正手候補領域を、エントリに含まれている動作内容を表す情報とともに出力する。
すなわち、この手候補領域特定部24は、人体の3次元モデルを仮想2次元平面に投影して得られるモデル画像を用い、モデル画像内の頭部に相当する位置及び補正手候補領域を表す位置情報と、それに対応付けられた動作内容を表す情報とを出力するものである。
手特定処理部25は、顔特定処理部22が出力する顔の位置の情報と、手候補領域特定部24が出力する位置情報とに基づき、画像変換部21から入力される色相データ上で手の探索を開始する領域(探索開始領域)を、手の位置P2L,P2Rのそれぞれについて一つずつ定める。この探索開始領域は例えば、手の位置P2Lについては、P2Lを画定する矩形と重複する部分を有する矩形として定めることができる。そして手特定処理部25は、当該探索開始領域内の各画素の画素値と肌色抽出部23が出力する肌色情報によって示される値とを用いて、色相データのうち探索開始領域に含まれる部分から当該肌色抽出部23が出力した肌色の部分の重心を求め、当該重心を中心として、新たな探索領域を画定する。この探索領域は、探索開始領域と同じサイズ、形状の領域とすればよい。
以下、同様にして新たに画定した探索領域内で、肌色の部分の重心を求める処理と探索領域を移動する処理とを、新たに求めた重心と前回求めた重心との距離が所定値以下になるまで(探索領域が収束するまで)繰り返し行う。なお、予め定めた繰り返し回数内に収束しない場合には、手が検出されなかったと判断して処理の繰り返しを終了してもよい。
探索領域が収束すると、手特定処理部25は、収束した重心の位置が補正手候補領域内にあるか否かを調べ、補正手候補領域内にあれば、手が検出されたと判断する。ここで、重心の位置が、補正手候補領域内にない場合は手が検出されなかったと判断する。
このように、予め定めた繰り返し回数以内に収束しないか、収束の結果得られた重心位置が補正手候補領域内にないなど、手が検出されなかったと判断された場合、手特定処理部25は、次の探索開始座標を提供するよう手候補領域特定部24に求める。そして手候補領域特定部24が、動作モデルデータベース31の次のエントリから頭部に相当する位置及び手に相当する位置を表す位置情報と、それに対応付けられた動作内容を表す情報とを出力するようになる。
また、手特定処理部25は、手が検出されたと判断された場合、その旨を動作識別部26に出力する。なお、手特定処理部25は、手候補領域特定部24が出力する補正手候補領域が左手と右手とに対応して2つある場合は、それぞれの補正手候補領域内から手を検出する処理を行い、すべての補正手候補領域から手が検出されたと判断された場合に、手が検出されたことを表す情報を動作識別部26に出力してもよい。また、いずれか一方の補正手候補領域内で手が検出されなかった場合は、手が検出できなかったと判断して、次の探索開始座標を提供するよう手候補領域特定部24に求めるようにしてもよい。
動作識別部26は、手候補領域特定部24が前回(つまり最後に)出力した、動作内容を表す情報を保持し、手特定処理部25から手が検出されたことを表す情報が入力されると、当該保持している動作内容を表す情報を出力する。
[顔を特定する処理]
ここで、顔を特定する処理について説明する。顔特定処理部22は、例えば人物の顔を学習した第1学習データベースを用い、画像データ中から人物の顔に相当する部分を抽出するものであればよい。この際、顔部分を所定の方法で特定した後、予め正立かつ正面向きの顔の画像(正規画像)と、正規画像から、顔を右向き及び左向きにそれぞれ所定角度だけ回転させた複数の顔画像を用意して、これらを学習した第2学習データベースを用いて、顔部分の画像を正規画像に近接するよう変換し(正規化)、第1学習データベース内の情報とを用いて、当該正規化後の画像データが顔の画像か否かを判断するようにしてもよい。これによると、正規化の処理の過程で回転角が判別できることになるので、正規化の処理により迅速に顔であるか否かが判別できるようになるとともに、当該過程で得られた回転角を出力することで、上述のように顔の向きを利用した処理に供することができるようになる。
[動作]
本発明の実施の形態に係る動作識別装置は、そして、次のように動作する。なお、以下の説明では動作モデルデータベース13内のエントリには、それぞれモデル識別番号が連番で付与されているとする。この動作識別装置は、図4に示すように、まず入力された画像から顔部分を検出する処理を行い(S1)、顔が検出できたか否かを判断する(S2)。ここで顔が検出できていなければ(Noならば)、処理S1に戻って処理を続ける。また、顔が検出できていれば(Yesならば)、当該検出した顔部分から、当該人物に固有の肌色を取り出す(S3)。
この処理は、例えば顔部分の色相成分のヒストグラムを抽出することにより実現できる。そして変数Mを「1」に初期化し(S4)、モデル識別番号が変数Mであるエントリを動作モデルデータベース13から取り出す(S5)。
そして当該エントリに含まれる情報から、手の位置を探索する候補領域と、探索の開始領域(修正手探索領域)とを特定して(S6)、当該領域から手の探索を行う(S7)。この手の探索処理は既に述べたように、処理S3で取り出した肌色の重心を探索領域から探し、当該重心位置に探索領域の中心を移動するという処理を、探索領域の移動が収束するか、所定の繰り返し回数を超えるかするまで繰り返すというものでよい。
そしてこの処理S7によって手が検出できたか否かを調べ(S8)、手が検出できた場合(Yesの場合)、処理S5で取り出したエントリに含まれる動作内容を表す情報を出力して(S9)、処理を終了する。ここで、手が検出できたか否かは、探索領域の移動が収束し、かつ当該収束の結果得られた重心位置が処理S6で定められた候補領域内にあるとの条件によって判断できる。
また、処理S8において手が検出できなかった場合(Noの場合)、変数Mをインクリメントし(S10)、変数Mがモデル識別番号の最大値を超えたか(すべてのモデルについて処理S6からS8の処理を行ったか)を調べ(S11)、超えていれば(Yesならば)、動作の識別に失敗した旨の情報を出力して(S12)、処理を終了する。
一方、処理S11において、変数Mがモデル識別番号の最大値を超えていなければ(Noならば)、処理S5に戻って処理を続ける。
[変形例]
ここまでの説明では、動作モデルデータベース13は、人体の顔や手の位置に関連づけて動作内容を表す情報を格納していることとして説明したが、動作モデルデータベース13の内容としてはこれに限られず、他の人体の露出箇所(例えば裸足になる環境であれば足など)の位置を用いてもよい。さらに、机やコンピュータのキーボードなどの什器や装置などの位置を併せて用いてもよい。これによれば、例えば人体の手がキーボードの近くにある場合にはコンピュータを操作していると判断することができるようになる。
また、ここまでの説明では、人物の姿勢を認識し、その認識の結果に関連づけられた動作の識別情報を出力する場合を例として述べてきたが、本発明の範囲はこれに限られるものではない。すなわち、互いに連関した動作をする同系色の部分が複数あり、そのうちの少なくとも一つが色を用いない方法で認識可能であればよい。さらに色だけでなく、外観に関する一般的な性状の情報(色、模様など)を用いてもよい。具体的には、動物の姿勢(当該個体に固有の斑や色を用いることができる)などを特定することも可能であるし、ロボットや車両など生物以外の姿勢、動きを特定することもできる。
本発明の実施の形態に係る動作識別装置の構成ブロック図である。 本発明の実施の形態に係る動作識別装置の処理の例を表す機能ブロック図である。 動作モデルに設定される情報の例を表す説明図である。 本発明の実施の形態に係る動作識別装置の動作の流れを表すフローチャート図である。
符号の説明
11 制御部、12 記憶部、13 入出力インタフェース、14 表示部、21 画像変換部、22 顔特定処理部、23 肌色抽出部、24 手候補領域特定部、25 手特定処理部、26 動作識別部、31 動作モデルデータベース。

Claims (6)

  1. 人物の顔を含む少なくとも一部を撮像して生成された画像データを取得し、当該画像データに撮像された人物の動作内容を表す情報を出力する動作識別装置であって、
    前記画像データから、人物の顔部分を含む第1画像領域を特定する顔部分特定手段と、
    前記第1画像領域内の画素値から、当該人物に固有の肌色情報を取得する手段と、
    前記取得された肌色情報に基づき、前記画像データのうち、前記第1画像領域外の部分から、前記人物の身体の一部所定部分を含む第2画像領域を、少なくとも一つ特定する手段と、
    前記特定された第1画像領域と、第2画像領域との位置関係に基づき、前記人物の動作内容を表す情報を出力する情報出力手段と、
    を含むことを特徴とする動作識別装置。
  2. 請求項1に記載の動作識別装置において、
    人体の3次元モデルを仮想2次元平面に投影して得られるモデル画像を用い、モデル画像内の頭部相当位置及び前記一部所定部分相当位置を表す位置情報に対応づけて動作内容を表す情報を保持する保持手段をさらに含み、
    前記情報出力手段は、前記保持手段に保持されている位置情報と、前記特定された第1画像領域と、第2画像領域との位置を表す情報との比較により、前記位置情報のいずれかに対応付けられた動作内容を表す情報を取得して出力することを特徴とする動作識別装置。
  3. 請求項1に記載の動作識別装置において、
    前記顔部分特定手段は、前記画像データから人物の顔の表面の3次元的方向を特定する顔面方向情報を出力し、
    前記情報出力手段は、前記特定された第1画像領域と、第2画像領域との位置関係、並びに、前記顔面方向情報に基づき、前記人物の動作内容を表す情報を出力することを特徴とする動作識別装置。
  4. 請求項3に記載の動作識別装置において、
    人体の3次元モデルを仮想2次元平面に投影して得られるモデル画像を用い、モデル画像内の頭部相当位置及び前記一部所定部分相当位置を表す位置関係情報、並びに前記頭部に関連づけられた所定方向の向きを表す顔面方向情報、に対応づけて動作内容を表す情報を保持する保持手段をさらに含み、
    前記情報出力手段は、前記保持手段に保持されている位置情報と、前記特定された第1画像領域と、第2画像領域との位置関係を表す情報との比較と、前記顔部分特定手段が出力する顔面方向情報と、前記保持手段に保持されている顔面方向情報との比較と、により、前記位置情報のいずれかに対応付けられた動作内容を表す情報を選択的に出力することを特徴とする動作識別装置。
  5. コンピュータを用い、人物の顔を含む少なくとも一部を撮像して生成された画像データを取得し、当該画像データに撮像された人物の動作内容を表す情報を出力する動作識別方法であって、
    前記画像データから、人物の顔部分を含む第1画像領域を特定する工程と、
    前記第1画像領域内の画素値から、当該人物に固有の肌色情報を取得する工程と、
    前記取得された肌色情報に基づき、前記画像データのうち、前記第1画像領域外の部分から、前記人物の身体の一部所定部分を含む第2画像領域を、少なくとも一つ特定する工程と、
    前記特定された第1画像領域と、第2画像領域との位置関係に基づき、前記人物の動作内容を表す情報を出力する工程と、
    を含むことを特徴とする動作識別方法。
  6. コンピュータに、人物の顔を含む少なくとも一部を撮像して生成された画像データを取得させ、当該画像データに撮像された人物の動作内容を表す情報を出力させる動作識別プログラムであって、
    前記画像データから、人物の顔部分を含む第1画像領域を特定する手順と、
    前記第1画像領域内の画素値から、当該人物に固有の肌色情報を取得する手順と、
    前記取得された肌色情報に基づき、前記画像データのうち、前記第1画像領域外の部分から、前記人物の身体の一部所定部分を含む第2画像領域を、少なくとも一つ特定する手順と、
    前記特定された第1画像領域と、第2画像領域との位置関係に基づき、前記人物の動作内容を表す情報を出力する手順と、
    を前記コンピュータに実行させることを特徴とする動作識別プログラム。
JP2003306206A 2003-08-29 2003-08-29 動作識別装置、及び対象物の姿勢識別装置 Expired - Fee Related JP4479194B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003306206A JP4479194B2 (ja) 2003-08-29 2003-08-29 動作識別装置、及び対象物の姿勢識別装置
US10/927,075 US7734062B2 (en) 2003-08-29 2004-08-27 Action recognition apparatus and apparatus for recognizing attitude of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003306206A JP4479194B2 (ja) 2003-08-29 2003-08-29 動作識別装置、及び対象物の姿勢識別装置

Publications (2)

Publication Number Publication Date
JP2005078257A JP2005078257A (ja) 2005-03-24
JP4479194B2 true JP4479194B2 (ja) 2010-06-09

Family

ID=34409347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003306206A Expired - Fee Related JP4479194B2 (ja) 2003-08-29 2003-08-29 動作識別装置、及び対象物の姿勢識別装置

Country Status (2)

Country Link
US (1) US7734062B2 (ja)
JP (1) JP4479194B2 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4479194B2 (ja) * 2003-08-29 2010-06-09 富士ゼロックス株式会社 動作識別装置、及び対象物の姿勢識別装置
JP4470434B2 (ja) * 2003-10-06 2010-06-02 富士ゼロックス株式会社 動作識別装置、及び対象物の姿勢識別装置
JP4849303B2 (ja) * 2005-08-25 2012-01-11 株式会社国際電気通信基礎技術研究所 行動指針決定装置及びコンピュータプログラム
JP4659722B2 (ja) * 2006-11-14 2011-03-30 日本電信電話株式会社 人体特定領域抽出・判定装置、人体特定領域抽出・判定方法、人体特定領域抽出・判定プログラム
JP5618549B2 (ja) * 2007-03-15 2014-11-05 ルードヴィッヒ インスティテュート フォー キャンサーリサーチ リミテッド Egfr抗体及びsrc阻害剤を用いる治療方法及び関連製剤
JP4929109B2 (ja) * 2007-09-25 2012-05-09 株式会社東芝 ジェスチャ認識装置及びその方法
US10462409B2 (en) * 2007-12-28 2019-10-29 Google Technology Holdings LLC Method for collecting media associated with a mobile device
US8314838B2 (en) * 2007-12-28 2012-11-20 Motorola Mobility Llc System and method for collecting media associated with a mobile device
JP5004181B2 (ja) * 2008-01-11 2012-08-22 Kddi株式会社 領域識別装置およびコンテンツ識別装置
JP5077956B2 (ja) * 2008-04-23 2012-11-21 Kddi株式会社 情報端末装置
JP4384240B2 (ja) 2008-05-28 2009-12-16 株式会社東芝 画像処理装置、画像処理方法、画像処理プログラム
US8396247B2 (en) * 2008-07-31 2013-03-12 Microsoft Corporation Recognizing actions of animate objects in video
US20100295782A1 (en) * 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
JP4548542B1 (ja) * 2009-06-30 2010-09-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2011046128A1 (ja) * 2009-10-16 2011-04-21 日本電気株式会社 人物服装特徴抽出装置、人物検索装置、及びその処理方法
JP5523054B2 (ja) * 2009-10-19 2014-06-18 キヤノン株式会社 印刷仲介サーバ及び印刷仲介方法
JP2011232894A (ja) * 2010-04-26 2011-11-17 Renesas Electronics Corp インタフェース装置、ジェスチャ認識方法及びジェスチャ認識プログラム
US8639042B2 (en) 2010-06-22 2014-01-28 Microsoft Corporation Hierarchical filtered motion field for action recognition
JP5829390B2 (ja) 2010-09-07 2015-12-09 ソニー株式会社 情報処理装置、および情報処理方法
JP5625643B2 (ja) * 2010-09-07 2014-11-19 ソニー株式会社 情報処理装置、および情報処理方法
JP2012068713A (ja) * 2010-09-21 2012-04-05 Sony Corp 情報処理装置、および情報処理方法
JP5762730B2 (ja) * 2010-12-09 2015-08-12 パナソニック株式会社 人検出装置および人検出方法
US20130106894A1 (en) 2011-10-31 2013-05-02 Elwha LLC, a limited liability company of the State of Delaware Context-sensitive query enrichment
US20130243077A1 (en) * 2012-03-13 2013-09-19 Canon Kabushiki Kaisha Method and apparatus for processing moving image information, and method and apparatus for identifying moving image pattern
JP6153051B2 (ja) * 2012-08-09 2017-06-28 カシオ計算機株式会社 位置検出装置、位置検出方法及びプログラム
CN106909896B (zh) * 2017-02-17 2020-06-30 竹间智能科技(上海)有限公司 基于人物性格与人际关系识别的人机交互系统及工作方法
SG10201802532YA (en) 2018-03-27 2019-10-30 Nec Asia Pacific Pte Ltd Method and system for identifying an individual in a crowd
CN113496143B (zh) * 2020-03-19 2024-07-16 北京市商汤科技开发有限公司 动作识别方法及装置、存储介质

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0792369B2 (ja) 1993-01-14 1995-10-09 株式会社エイ・ティ・アール通信システム研究所 画像計測装置
JPH07282235A (ja) 1994-04-15 1995-10-27 Matsushita Electric Ind Co Ltd 動作認識装置
JPH08320920A (ja) 1995-05-24 1996-12-03 Matsushita Electric Ind Co Ltd 手動作認識装置および方法
US6118888A (en) * 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
US6792135B1 (en) * 1999-10-29 2004-09-14 Microsoft Corporation System and method for face detection through geometric distribution of a non-intensity image property
JP3210649B2 (ja) 1999-11-02 2001-09-17 株式会社エイ・ティ・アール知能映像通信研究所 自律移動ロボット
SG91841A1 (en) * 1999-11-03 2002-10-15 Kent Ridge Digital Labs Face direction estimation using a single gray-level image
JP3979007B2 (ja) 2000-12-22 2007-09-19 富士ゼロックス株式会社 パターン識別方法および装置
US7027621B1 (en) * 2001-03-15 2006-04-11 Mikos, Ltd. Method and apparatus for operator condition monitoring and assessment
US6804396B2 (en) * 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system
JP4611575B2 (ja) 2001-06-20 2011-01-12 セコム株式会社 本人認証用の顔画像照合装置
US7274800B2 (en) * 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
JP3432816B2 (ja) 2001-09-28 2003-08-04 三菱電機株式会社 頭部領域抽出装置およびリアルタイム表情追跡装置
US7239726B2 (en) * 2001-12-12 2007-07-03 Sony Corporation System and method for effectively extracting facial feature information
JP3996015B2 (ja) * 2002-08-09 2007-10-24 本田技研工業株式会社 姿勢認識装置及び自律ロボット
WO2004027685A2 (en) * 2002-09-19 2004-04-01 The Penn State Research Foundation Prosody based audio/visual co-analysis for co-verbal gesture recognition
US7369687B2 (en) * 2002-11-21 2008-05-06 Advanced Telecommunications Research Institute International Method for extracting face position, program for causing computer to execute the method for extracting face position and apparatus for extracting face position
JP2004298988A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd 移動ロボットの画像送信装置
DE602004006190T8 (de) * 2003-03-31 2008-04-10 Honda Motor Co., Ltd. Vorrichtung, Verfahren und Programm zur Gestenerkennung
JP4479194B2 (ja) * 2003-08-29 2010-06-09 富士ゼロックス株式会社 動作識別装置、及び対象物の姿勢識別装置

Also Published As

Publication number Publication date
JP2005078257A (ja) 2005-03-24
US20050084141A1 (en) 2005-04-21
US7734062B2 (en) 2010-06-08

Similar Documents

Publication Publication Date Title
JP4479194B2 (ja) 動作識別装置、及び対象物の姿勢識別装置
JP4792824B2 (ja) 動作分析装置
US7650014B2 (en) Image analysis apparatus
US7460687B2 (en) Watermarking scheme for digital video
JP4332649B2 (ja) 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
JP2003346162A (ja) 手の画像認識による入力システム
CN110288661B (zh) 手术灯的位置调整方法、装置、计算机设备和存储介质
JP6708260B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2004078316A (ja) 姿勢認識装置及び自律ロボット
US20220414291A1 (en) Device for Defining a Sequence of Movements in a Generic Model
WO2013145615A1 (ja) 部位推定装置、部位推定方法、および部位推定プログラム
JP4765075B2 (ja) ステレオ画像を利用した物体の位置および姿勢認識システムならびに物体の位置および姿勢認識方法を実行するプログラム
JP2018119833A (ja) 情報処理装置、システム、推定方法、コンピュータプログラム、及び記憶媒体
JP4938748B2 (ja) 画像認識装置及びプログラム
JP4470434B2 (ja) 動作識別装置、及び対象物の姿勢識別装置
US11478922B2 (en) Robot teaching device and robot system
JP3144400B2 (ja) ジェスチャ認識装置及び方法
JP2009288917A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2005351814A (ja) 検出装置および検出方法
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
JPH103544A (ja) ジェスチャ認識装置
CN111722710A (zh) 开启增强现实ar互动学习模式的方法及电子设备
JP2000268161A (ja) 実時間表情検出装置
JP2009216480A (ja) 三次元位置姿勢計測方法および装置
WO2023273389A1 (zh) 人体躺姿检测方法及使用该方法的移动机器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060724

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071112

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100223

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100308

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4479194

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130326

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140326

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees