JP2012003364A - 人物動作判定装置およびそのプログラム - Google Patents

人物動作判定装置およびそのプログラム Download PDF

Info

Publication number
JP2012003364A
JP2012003364A JP2010135717A JP2010135717A JP2012003364A JP 2012003364 A JP2012003364 A JP 2012003364A JP 2010135717 A JP2010135717 A JP 2010135717A JP 2010135717 A JP2010135717 A JP 2010135717A JP 2012003364 A JP2012003364 A JP 2012003364A
Authority
JP
Japan
Prior art keywords
unit
determination
feature amount
motion
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010135717A
Other languages
English (en)
Other versions
JP5438601B2 (ja
Inventor
Masaki Takahashi
正樹 高橋
Masato Fujii
真人 藤井
Masahide Naemura
昌秀 苗村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2010135717A priority Critical patent/JP5438601B2/ja
Publication of JP2012003364A publication Critical patent/JP2012003364A/ja
Application granted granted Critical
Publication of JP5438601B2 publication Critical patent/JP5438601B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本発明は、高い精度で人物の動作を判定できる人物動作判定装置を提供する。
【解決手段】人物動作判定装置1は、所定の動作を行う人物を撮影した撮影映像と、撮影映像の奥行情報とを用いて、人物の動作を判定して判定結果を出力するものであって、入力された撮影映像から特徴点を抽出して3次元特徴量を算出する特徴点抽出手段11と、3次元特徴量を追跡した4次元軌跡特徴量を算出する動き特徴量算出手段12と、4次元軌跡特徴量を用いて単位追跡時間ごとに動作を判定する動作判定手段13と、単位追跡時間ごとで判定回数が最大となる動作を判定結果として出力する判定平滑化手段14とを備える。
【選択図】図2

Description

本発明は、所定の動作を行う人物を撮影した撮影映像と、人物の奥行情報とを用いて、人物の動作を判定して判定結果を出力する人物動作判定装置およびそのプログラムに関する。
テレビなどの電子機器において、そのマンマシンインターフェースの代表的なものとして、例えば、リモコン(リモートコントローラ)があげられる。近年、これら電子機器は、機能の多様化に伴って、その操作も煩雑化する傾向にある。例えば、テレビのリモコンは、ボタンの数が多くなり、テレビの操作に慣れない高齢者にとって扱いにくいものとなっている。そこで、より直感的なマンマシンインターフェースとして、人物の動作認識によって電子機器の操作を行うことが期待されている。
例えば、特許文献1には、人物の動作を認識して、その動作に対応する信号を出力する入力装置が記載されている。より具体的には、特許文献1に記載の入力装置は、操作者の動作を検出すると共に、電子機器を特定することが可能である。
また、特許文献2には、撮影した手の形状に基づいて、人物の動作を認識する手法が記載されている。また、特許文献3には、互いに直交する位置にある画像センサで計測した人物の動きベクトルに基づいて、人物の動作を自動認識する手法が記載されている。
さらに、非特許文献1には、映像中の特徴点を追跡し、その軌跡から人物の動作を識別する手法が記載されている。より具体的には、非特許文献1に記載の手法では、水平方向、垂直方向および時間方向の3次元軌跡特徴量にBag−of−wordsの手法を適用し、人物の動作を識別している。
特開平9−81309号公報 特開2007−164814号公報 特開平10−334270号公報
Matikainen,P.,Hebert,M. and Sukthankar,R.2009.Trajectons:Action recognition through the motion analysis of tracked features. Workshop on Video Oriented Object and Event Classification(ICCV).(Sep.2009).
しかし、前記した従来技術では、高い精度の動作認識を実現することが難しいという問題がある。特許文献1,2および非特許文献1に記載の発明では、カメラに対して腕を左右に動かした場合、ある程度の精度で動作認識を行うことができるが、カメラに対して腕を前後に動かした場合、空間的情報(奥行値)の欠落により、動作認識の精度が低くなってしまう。
また、特許文献3に記載の発明は、以下のような問題がある。
特許文献3に記載の発明では、短いフレーム間隔から求めた短期的な動きベクトルに基づいて動作認識を行っているため、十分な動作認識の精度を得ることができない。
また、特許文献3に記載の発明では、ステレオ視によって奥行値を算出しているため、マッチングした特徴点の奥行値しか算出できず、撮影映像の全画素の奥行値を得ることができない。この場合、特許文献3に記載の発明では、特徴点の奥行値を内挿(補間)しても、撮影映像の全画素について、実用に耐える精度の奥行値を得ることが困難である。
さらに、特許文献3に記載の発明では、ステレオ視によって特徴点の奥行値を算出しているため、特徴点の奥行値の精度がマッチングの精度に依存するため、特徴点の奥行値に高い精度を期待できない。
そこで、本発明は、高い精度で人物の動作を判定できる人物動作判定装置およびそのプログラムを提供することを目的とする。
前記した課題を解決するため、本願第1発明に係る人物動作判定装置は、所定の動作を行う人物を撮影した撮影映像と、前記人物の奥行情報とを用いて、前記人物の動作を判定して判定結果を出力する人物動作判定装置であって、特徴点抽出手段と、軌跡特徴量算出手段と、動作判定手段と、判定結果出力手段とを備えることを特徴とする。
かかる構成によれば、人物動作判定装置は、特徴点抽出手段によって、前記撮影映像と前記奥行情報とが入力され、入力された当該撮影映像の各画像から特徴点を抽出すると共に、入力された当該奥行情報から前記特徴点の奥行値を取得し、前記特徴点の画像座標および奥行値を3次元特徴量として算出する。つまり、特徴点抽出手段は、撮影映像と別に奥行情報を用いるため、撮影映像の全画素について、高い精度の奥行値を取得できる。そして、特徴点抽出手段は、この高い精度の奥行値を補った3次元特徴量を算出する。
また、人物動作判定装置は、軌跡特徴量算出手段によって、前記撮影映像で前後する画像において特徴点同士のマッチングを行うと共に、1画像時間を単位追跡時間とし、当該単位追跡時間を所定時間連続させた追跡時間だけ、マッチングした前記特徴点の3次元特徴量を追跡した4次元軌跡特徴量を算出する。つまり、軌跡特徴量算出手段は、短期的な動きベクトルより追跡時間が長い4次元軌跡特徴量を算出する。
また、人物動作判定装置は、動作判定手段によって、様々な動作に対応する4次元軌跡特徴量を予め学習した結果を用いて、前記単位追跡時間ごとに、前記軌跡特徴量算出手段が算出した4次元軌跡特徴量から前記動作を判定する。ここで、動作判定手段は、高い精度の奥行値が補われ、追跡時間が長い4次元軌跡特徴量を用いている。このため、動作判定手段は、撮影カメラに対して腕を前後に動かすような、奥行き方向の動作も判定可能とする。
ここで、一連の動作を行っている人物を撮影した撮影映像を用いて、その動作を判定した場合、単位追跡時間ごとの判定結果は、通常、同じ動作となる。しかし、例えば、一連の動作の過程で手の移動速度や移動方向が大きく変わったとき、単位追跡時間ごとの判定結果が異なってしまう場合がある。そこで、人物動作判定装置は、判定結果出力手段によって、予め設定した時間内で、前記動作判定手段によって前記単位追跡時間ごとに判定された回数が最大となる動作を前記判定結果として出力する。
また、本願第2発明に係る人物動作判定装置は、前記特徴点抽出手段が、前記奥行情報として、前記撮影映像の画素ごとの奥行値を示す奥行映像が入力され、入力された当該奥行映像から前記特徴点の奥行値を取得することを特徴とする。
かかる構成によれば、人物動作判定装置は、撮影映像の画素と奥行映像の画素とが一対一で対応するため、座標変換を行うことなく、特徴点の奥行値を取得することができる。
また、本願第3発明に係る人物動作判定装置は、前記判定結果出力手段が、前記動作判定手段によって前記追跡時間単位ごとに判定された回数である判定回数が最大で、かつ、判定率が予め設定された閾値を超えた動作を前記判定結果として出力することを特徴とする。
かかる構成によれば、人物動作判定装置は、判定回数が最大で、かつ、判定率が閾値未満の動作については、その動作を誤判定したとして扱う。
また、前記した課題を解決するため、本願第4発明に係る人物動作判定プログラムは、所定の動作を行う人物を撮影した撮影映像と、前記人物の奥行情報とを用いて、前記人物の動作を判定して判定結果を出力するために、コンピュータを、特徴点抽出手段、軌跡特徴量算出手段、動作判定手段、判定結果出力手段として機能させることを特徴とする。
かかる構成によれば、人物動作判定プログラムは、特徴点抽出手段によって、前記撮影映像と前記奥行情報とが入力され、入力された当該撮影映像の各画像から特徴点を抽出すると共に、入力された当該奥行情報から前記特徴点の奥行値を取得し、前記特徴点の画像座標および奥行値を3次元特徴量として算出する。つまり、特徴点抽出手段は、撮影映像と別に奥行情報を用いるため、撮影映像の全画素について、高い精度の奥行値を取得できる。そして、特徴点抽出手段は、この高い精度の奥行値を補った3次元特徴量を算出する。
また、人物動作判定プログラムは、軌跡特徴量算出手段によって、前記撮影映像で前後する画像において特徴点同士のマッチングを行うと共に、1画像時間を単位追跡時間とし、当該単位追跡時間を所定時間連続させた追跡時間だけ、マッチングした前記特徴点の3次元特徴量を追跡した4次元軌跡特徴量を算出する。つまり、軌跡特徴量算出手段は、短期的な動きベクトルより追跡時間が長い4次元軌跡特徴量を算出する。
また、人物動作判定プログラムは、動作判定手段によって、様々な動作に対応する4次元軌跡特徴量を予め学習した結果を用いて、前記単位追跡時間ごとに、前記軌跡特徴量算出手段が算出した4次元軌跡特徴量から前記動作を判定する。ここで、動作判定手段は、高い精度の奥行値が補われ、追跡時間が長い4次元軌跡特徴量を用いている。このため、動作判定手段は、撮影カメラに対して腕を前後に動かすような、奥行き方向の動作も判定可能とする。
ここで、一連の動作を行っている人物を撮影した撮影映像を用いて、その動作を判定した場合、単位追跡時間ごとの判定結果は、通常、同じ動作となる。しかし、例えば、一連の動作の過程で手の移動速度や移動方向が大きく変わったとき、単位追跡時間ごとの判定結果が異なってしまう場合がある。そこで、人物動作判定プログラムは、判定結果出力手段によって、予め設定した時間内で、前記動作判定手段によって前記単位追跡時間ごとに判定された回数が最大となる動作を前記判定結果として出力する。
本発明は、以下のような優れた効果を奏する。
本願第1,4発明は、高い精度の奥行値が補われて、追跡時間が長い4次元軌跡特徴量を用いるため、撮影カメラに対して腕を前後に動かすような奥行き方向の動作も判定可能とし、高い精度で人物の動作を判定することができる
本願第2発明は、撮影映像の画素と奥行映像の画素とが一対一で対応するため、座標変換を行うことなく、奥行映像から特徴点の奥行値を容易に取得でき、人物動作判定装置の構成を簡易にすることができる。
本願第3発明は、誤判定の可能性が高い動作を判定結果として出力してしまう事態を防止でき、より高い精度で人物の動作を判定することができる。
本発明における映像の一例を示す図であり、(a)は撮影映像の一例であり、(b)は奥行映像の一例である。 本発明の第1実施形態に係る人物動作判定装置の構成を示すブロック図である。 図2の動き特徴量算出手段が算出した4次元軌跡特徴量を説明する図であり、(a)は従来の3次元軌跡特徴量であり、(b)は本発明の4次元軌跡特徴量である。 図2の動き特徴量算出手段が算出した4次元軌跡特徴量を例示する図であり、(a)は4次元軌跡特徴量の第1例であり、(b)は4次元軌跡特徴量の第2例であり、(c)は4次元軌跡特徴量の第3例であり、(d)は4次元軌跡特徴量の第4例である。 図2の人物動作判定装置1においる学習フェーズと判定フェーズとを説明する図である。 図5のヒストグラムを説明する図である。 図2の人物動作判定装置1の動作を示すフローチャートであり、(a)は学習フェーズの動作であり、(b)は判定フェーズの動作である。 本発明の第2実施形態に係る人物動作判定装置を含むテレビシステムの概略図である。 図8の人物動作判定装置の構成を示すブロック図である。 図8の人物動作判定装置による指定領域の算出を説明する図である。
以下、本発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。
(第1実施形態)
[撮影映像,奥行映像]
最初に、図1を参照し、本発明の第1実施形態に係る人物動作判定装置1に入力される撮影映像および奥行映像について説明する。なお、図1では、説明を簡易にするため、人物以外の背景の図示を省略した。
撮影映像は、所定の動作を行う人物を通常の撮影カメラで撮影した映像である。例えば、図1(a)に示すように、撮影映像は、人差し指で撮影カメラの方向を指すという動作を行っている人物を撮影した映像である。
奥行映像(距離画像)は、撮影映像の画素ごとの奥行値を示す映像であり、例えば、Time−of−Flightカメラ(TOFカメラ)で撮影できる。このTOFカメラは、近赤外線を人物に照射してから、その人物で反射された反射光を受光するまでの経過時間により、画素ごとに奥行値(距離)を測定する。このTOFカメラで撮影した奥行映像は、TOFカメラから人物までの距離が近いほど明るく(または、暗く)なる。例えば、図1(b)に示すように、奥行映像は、TOFカメラに最も近い人差し指α1が最も明るくなり(白色で図示)、TOFカメラからやや遠くなる拳α2がやや明るくなる(薄いドットで図示)。また、奥行映像は、例えば、TOFカメラからより遠くなる腕α3がやや暗くなり(濃いドットで図示)、TOFカメラから最も遠くなる頭や体α4が最も暗くなる(黒色で図示)。
ここで、図1(a)および図1(b)に示すように、撮影映像および奥行映像は、同一人物が同時に撮影されている。このとき、撮影映像および奥行映像は、画素同士を一対一で対応させるため、同一画素数で、かつ、同一画角であることが好ましい。例えば、距離画像カメラ(例えば、パナソニック株式会社製、距離画像センサ「D−IMager」)を用いることで、同一画素数、かつ、同一画角で撮影映像および奥行映像を撮影することができる。これによって、後記する特徴点抽出手段11が、座標変換を行うことなく、奥行映像から特徴点の奥行値を容易に取得できる。
[人物動作判定装置の構成]
以下、図2を参照し、本発明の第1実施形態に係る人物動作判定装置1の構成について説明する。図2に示すように、人物動作判定装置1は、所定の動作を行う人物を撮影した撮影映像と、撮影映像の奥行情報とを用いて、人物の動作を判定して判定結果を出力する。このため、人物動作判定装置1は、特徴点抽出手段11と、動き特徴量算出手段(軌跡特徴量算出手段)12と、動作判定手段13と、判定平滑化手段(判定結果出力手段)14とを備える。
特徴点抽出手段11は、撮影映像と奥行情報とが入力され、入力された撮影映像の各フレーム画像から特徴点を抽出すると共に、入力された奥行情報から特徴点の奥行値を取得し、特徴点の画像座標および奥行値を3次元特徴量として算出する。ここで、特徴点抽出手段11は、奥行情報として、前記した奥行映像が入力されることとする。
まず、特徴点抽出手段11は、入力された撮影映像のフレーム画像のそれぞれから、特徴点を抽出する。例えば、特徴点抽出手段11は、Harrisオペレータなどの特徴点抽出手法を用いて、フレーム画像から特徴点を抽出する。このHarrisオペレータは、映像信号の相関性に基づいて特徴点を抽出する手法であって、エッジ、コーナーなどの特徴点において相関出力値が大きくなる。ここで、特徴点抽出手段11は、下記の式(1)に示すように、Harrisオペレータを用いて特徴点を抽出する。
Figure 2012003364
この式(1)では、Aが2次モーメント行列であり、xが水平方向の画像座標であり、yが垂直方向の画像座標であり、I(x,y)が画像座標(x,y)における画素の特徴量(画素値)であり、Nが画像平面であり、Tが転置行列である。
また、式(1)では、detAが行列Aの行列式であり、κが予め設定された定数(例えば、0.04)であり、trAが行列Aのトレースであり、λおよびλが行列Aの固有値であり、Harrisが特徴量(特徴点の画素値)である。
なお、特徴点抽出手段11は、Harrisオペレータの他、SIFT(Scale Invariant Feature Transform)、HOG(Histograms of Oriented Gradients)などの特徴点抽出手法を用いることもできる。
次に、特徴点抽出手段11は、奥行画像から、抽出した特徴点と同じ座標の画素の画素値(奥行値)を取得する。このとき、特徴点抽出手段11は、画像座標(x,y)と単位を揃えるため、この取得した画素値に予め設定した重みwを乗じて、奥行値zとする。このように、特徴点抽出手段11は、特徴点ごとに、2次元の特徴量I(x,y)に奥行値zを加えた3次元特徴量X (x ,y ,z )を算出する。ここで、tはフレーム時間(単位追跡時間)であり、iは特徴点のIDである。その後、特徴点抽出手段11は、入力された撮影映像と、算出した3次元特徴量X とを動き特徴量算出手段12に出力する。
動き特徴量算出手段12は、特徴点抽出手段11から撮影映像と3次元特徴量X とが入力され、撮影映像で前後するフレーム画像において特徴点同士のマッチングを行うと共に、追跡時間Lだけ、マッチングした特徴点の3次元特徴量を追跡した4次元軌跡特徴量を算出する。例えば、動き特徴量算出手段12は、Lucas Kanade法などの追跡手法を用いて特徴点を追跡する。このLucas Kanade法は、同一物体の局所領域内では、オプティカルフローが同一になると仮定した空間的局所最適化法の一種である。ここで、動き特徴量算出手段12は、下記の式(2)に示すように、局所領域のオプティカルフロー(u,v)を算出する。
Figure 2012003364
この式(2)では、Wは重み(例えば、ガウス関数に代表される重み)である。
次に、動き特徴量算出手段12は、マッチングした特徴点の3次元特徴量の差分値X −Xt-1 を算出する。そして、動き特徴量算出手段12は、下記の式(3)に示すように、追跡時間Lだけ差分値を連続させた4次元軌跡特徴量T を算出する。ここで、追跡時間Lは、1フレーム時間を単位追跡時間とし、当該単位追跡時間を所定の時間だけ連続したものとなる。その後、動き特徴量算出手段12は、算出した4次元軌跡特徴量T を動作判定手段13に出力する。
Figure 2012003364
ここで、図3、図4を参照し、動き特徴量算出手段12が算出した4次元軌跡特徴量について説明する(適宜図2参照)。
図3(a)に示すように、画像座標である特徴点を所定の時間追跡すると、その軌跡特徴量は、水平方向(X軸)、垂直方向(Y軸)および時間方向(例えば、t=0〜6)の3次元で表される。つまり、この3次元軌跡特徴量では、空間的情報(奥行値)が不足している。
一方、図3(b)に示すように、4次元軌跡特徴量は、水平方向(X軸)、垂直方向(Y軸)、奥行き方向(Z軸)および時間方向(例えば、t=0〜6)の4次元で表される。つまり、4次元軌跡特徴量は、図3(a)の3次元軌跡特徴量で不足していた空間的情報(奥行値)が補われている。このため、腕を前後に動かすなどの撮影映像上だけでは判定困難な動作であっても、図4(a)〜(d)のように4次元軌跡特徴量を用いることで、これら動作を容易に判定可能とする。
なお、図3(b)の例では、追跡時間Lは、7単位追跡時間となり、7フレーム時間(t=0〜6)に相当する。また、図3(b)の例では、1単位追跡時間は、例えば、t=0〜1,t=1〜2などの1フレーム時間となる。
なお、動き特徴量算出手段12は、Lucas Kanade法の他、Tretiak Pastor法、Mean Shift法などの追跡手法を用いることもできる。
以下、図2に戻り、人物動作判定装置1の構成について説明を続ける。
動作判定手段13は、様々な動作に対応する4次元軌跡特徴量を予め学習した結果を用いて、単位追跡時間ごとに、動き特徴量算出手段12が算出した4次元軌跡特徴量から動作を判定する。
例えば、動作判定手段13は、Bag−of−words法に基づいて学習を行った後、人物の動作を判定する。Bag−of−words法は、例えば、言語処理で用いられる学習法であり、単語を集めたコードブックを作成し、ある文章中の各単語のヒストグラムを算出する。そして、Bag−of−words法は、算出したヒストグラムに基づいて、その文章のカテゴリを分類する。ここで、動作判定手段13は、Bag−of−words法において、1個の4次元軌跡特徴量を単語として扱っている。また、動作判定手段13は、算出したヒストグラム(学習した結果)をSVM分類することで、人物の動作を判定している。その後、動作判定手段13は、単位追跡時間ごとの判定結果を判定平滑化手段14に出力する。なお、人物動作判定装置1における学習および判定の詳細は、後記する。
なお、動作判定手段13は、Bag−of−words法の他、If−Thenルールに基づく手法、サポートベクターマシン(SVM)、または、ニューラルネットワークなどを用いることができる。
判定平滑化手段14は、動作判定手段13から単位追跡時間ごとの判定結果が入力されると共に、単位追跡時間ごとの判定結果を平滑化する。例えば、判定平滑化手段14は、下記の式(4)に示すように、時間T内で、動作判定手段13によって単位追跡時間ごとに判定された回数である判定回数Vが最大で、かつ、判定率V´が閾値thを超える動作pを判定結果Oとして出力する。ここで、判定平滑化手段14は、式(4)を満たす動作がない場合、動作が判定できないことを示す“null”を判定結果Oとして出力する。なお、時間Tは、例えば、追跡時間Lと同じ値で設定される。
Figure 2012003364
この式(4)では、maxが最大値を取得する関数である。また、閾値thは、任意の値で予め設定される(例えば、th=0.5)。さらに、判定率V´は、時間T内において、その動作の判定回数Vを、全動作の判定回数の合計で除算した値となる。
例えば、動き特徴量算出手段12が、追跡時間L=10に渡って4次元軌跡特徴量を追跡したとする。また、例えば、動作判定手段13が、単位追跡時間ごとに、この4次元軌跡特徴量から、腕を左に振るという動作を1回判定し、腕を押すという動作を3回判定し、腕を引くという動作を6回判定したとする(合計10回)。この場合、これら3の動作の判定回数の中で、腕を引くという動作の判定回数V=6が最大であり、かつ、この腕を引くという動作の判定率V´=0.6が閾値th=0.5を超える。従って、判定平滑化手段14は、腕を引くという動作を判定結果として出力する。
なお、追跡時間Lに渡って4次元軌跡特徴量を追跡していることから、一見すると、四次元軌跡特徴量の全体から1回だけ動作を判定し、判定平滑化手段14の平滑化を省略できるとも思われる。しかし、フレーム画像には、ノイズなどの影響により、人物の動作以外の特徴が多数混入することがある。このようなフレーム画像では、動作の誤判定が生じる可能性が高くなる。このため、動作判定手段13が単位追跡時間ごとに動作を判定し、判定平滑化手段14が単位追跡時間ごとの判定結果を平滑化し、このノイズの影響を避けている。
<学習フェーズ>
以下、図5,図6を参照し、人物動作判定装置1において、人物の動作を学習する学習フェーズと、人物の動作を判定する判定フェーズとを順に説明する(適宜図2参照)。
特徴点抽出手段11は、学習対象となる、様々な動作を行う人物の撮影映像および奥行映像が入力される。そして、特徴点抽出手段11は、前記した手順で3次元特徴量を算出する。さらに、動き特徴量算出手段12は、前記した手順で、様々な動作に対応する4次元軌跡特徴量を算出する。その後、動き特徴量算出手段12は、算出した4次元軌跡特徴量を学習データとして動作判定手段13に出力する。
動作判定手段13は、図5に示すように、学習データとして算出された、様々な動作に対応する4次元軌跡特徴量をK−Means法でクラスタリングし、K個のクラスタCLを備えるコードブックCBを作成する。このコードブックCBは、bag−of−keypoints法およびbag−of−features法などにおける視覚辞書に相当する。
ここで、追跡時間L=10(つまり、10フレーム画像)とした場合、4次元軌跡特徴量は、水平方向×垂直方向×奥行き方向×時間方向(10フレーム時間)の30次元特徴量と言える。つまり、この30次元特徴量は、30次元座標上では1点で表される。例えば、フレーム画像(単位追跡時間)ごとに4次元軌跡特徴量が100個現れるとすると、100フレーム画像(単位追跡時間)をシーケンス処理した場合には、特徴量が10000個となる。このため、動作判定手段13は、K−Means法でK個のクラスタにクラスタリングし、これら特徴量を扱いやすくしている。ここで、クラスタ数Kの値は、例えば、100〜10000の範囲内で予め設定される。
なお、図5では、図面を見やすくするために、6個のクラスタCLを備えるコードブックCBを図示したが、クラスタ数Kは、これに制限されない。
また、動作判定手段13は、このコードブックCBを参照して、ヒストグラムH1〜HKを作成する。つまり、動作判定手段13は、4次元軌跡特徴量のそれぞれを、K個の中で最も4次元空間上のユークリッド距離が近いクラスタCLに近似し、K個のヒストグラムH1〜HKを作成する。その後、動作判定手段13は、作成したK個のヒストグラムH1〜HKをメモリ(不図示)に記憶する。
ここで、図6に示すように、それぞれのヒストグラムHは、縦軸が出現頻度となり、横軸がK個のクラスタとなる。このとき、動作判定手段13は、ヒストグラムHにおいて、クラスタごとの出現頻度の合計値を1.0に正規化することが好ましい。より具体的には、動作判定手段13は、下記の式(5)を用いて、出現頻度の合計値を正規化する。このように正規化したヒストグラムHを用いることで、動作判定手段13は、撮影映像中で人物の縮小または拡大された場合でも、高い精度で人物の動作を判定できる。
Figure 2012003364
この式(5)では、h〜hがそれぞれ1個目〜5番目のクラスタの出現頻度であり、hがK個目のクラスタの出現頻度である。
<判定フェーズ>
以下、判定フェーズについて説明する。
特徴点抽出手段11は、判定対象となる動作を行う人物の撮影映像および奥行映像が入力される。そして、特徴点抽出手段11は、前記した手順で3次元特徴量を算出する。さらに、動き特徴量算出手段12は、前記した手順で、判定の対象となる動作を示す4次元軌跡特徴量を算出する。そして、動き特徴量算出手段12は、算出した4次元軌跡特徴量を動作判定手段13に出力する。
動作判定手段13は、学習フェーズと同様の手順で、判定対象となる動作を示す4次元軌跡特徴量から、1個のヒストグラムHを作成する。このとき、動作判定手段13は、この作成したヒストグラムHについても、クラスタごとの出現頻度の合計値を1.0に正規化することが好ましい。
そして、動作判定手段13は、作成した1個のヒストグラムHを、学習フェーズで学習したヒストグラムH1〜HKの中で最も類似するものにSVM分類することで、動作を判定する。その後、動作判定手段13は、この判定した動作を、単位追跡時間ごとの判定結果として判定平滑化手段14に出力する。
[人物動作判定装置の動作:学習フェーズ]
以下、図7を参照し、図2の人物動作判定装置1の動作について、学習フェーズおよび判定フェーズの順に説明する。
図7(a)に示すように、人物動作判定装置1は、特徴点抽出手段11によって、学習対象となる、様々な動作を行う人物の撮影映像および奥行映像が入力される。また、人物動作判定装置1は、特徴点抽出手段11によって、この撮影映像の各フレーム画像から特徴点を抽出すると共に、入力された奥行情報から特徴点の奥行値を取得し、特徴点の画像座標および奥行値を3次元特徴量として算出する(ステップS1)。
また、人物動作判定装置1は、動き特徴量算出手段12によって、学習の対象となる撮影映像で前後するフレーム画像において特徴点同士のマッチングを行う。そして、人物動作判定装置1は、動き特徴量算出手段12によって、追跡時間Lだけ、マッチングした特徴点の3次元特徴量を追跡した4次元軌跡特徴量を算出する(ステップS2)。
また、人物動作判定装置1は、動作判定手段13によって、学習データとして算出された4次元軌跡特徴量の学習を行う。つまり、人物動作判定装置1は、動作判定手段13によって、この4次元軌跡特徴量をK−Means法でクラスタリングし、K個のクラスタを備えるコードブックを作成する。また、人物動作判定装置1は、動作判定手段13によって、このコードブックを参照して、K個のヒストグラムを作成する(ステップS3)。
[人物動作判定装置の動作:判定フェーズ]
図7(b)に示すように、人物動作判定装置1は、特徴点抽出手段11によって、判定対象となる動作を行う人物の撮影映像および奥行映像が入力される。また、人物動作判定装置1は、特徴点抽出手段11によって、この撮影映像の各フレーム画像から特徴点を抽出すると共に、入力された奥行情報から特徴点の奥行値を取得し、特徴点の画像座標および奥行値を3次元特徴量として算出する(ステップS11)。
また、人物動作判定装置1は、動き特徴量算出手段12によって、判定の対象となる撮影映像で前後するフレーム画像において特徴点同士のマッチングを行う。そして、人物動作判定装置1は、動き特徴量算出手段12によって、追跡時間Lだけ、マッチングした特徴点の3次元特徴量を追跡した4次元軌跡特徴量を算出する(ステップS12)。
また、人物動作判定装置1は、動作判定手段13によって、単位追跡時間ごとに、動き特徴量算出手段12が算出した4次元軌跡特徴量から動作を判定する(ステップS13)。そして、人物動作判定装置1は、判定平滑化手段14によって、時間T内で、単位追跡時間ごとの判定回数が最大となる動作を判定結果として出力する(ステップS14)。
以上のように、本発明の第1実施形態に係る人物動作判定装置1は、高い精度の奥行値が補われて、追跡時間が長い4次元軌跡特徴量を算出する。そして、人物動作判定装置1は、この4次元軌跡特徴量を用いるため、撮影カメラに対して手を前後に動かすような奥行き方向の動作も判定可能とし、高い精度で人物の動作を判定することができる。
さらに、人物動作判定装置1は、正規化したヒストグラムを用いることで、撮影映像中で人物の縮小または拡大された場合でも、より高い精度で人物の動作を判定することができる。
さらに、人物動作判定装置1は、前記式(4)を用いて、単位追跡時間ごとの判定結果を平滑化するため、誤判定の可能性が高い動作を判定結果として出力する事態を防止でき、より高い精度で人物の動作を判定することができる。
さらに、人物動作判定装置1は、奥行情報として、撮影映像の画素ごとの奥行値を示す奥行映像を用いるため、座標変換を行うことなく特徴点の奥行値を容易に取得することができる。
なお、第1実施形態では、奥行情報として奥行映像を用いる例を説明したが、本発明は、これに限定されない。例えば、奥行情報として、ステレオカメラで撮影したステレオ画像を用いてもよい。この場合、特徴点抽出手段11は、ステレオ画像において特徴点同士のマッチングを行い、視差量から人物までの距離を奥行値として算出できる。
なお、第1実施形態では、フレーム時間を単位追跡時間として説明したが、これに限定されない。例えば、単位追跡時間は、フィールド時間であってもよい。
(第2実施形態)
[テレビシステムの概略]
以下、図8を参照し、第2実施形態に係る人物動作判定装置1Bを利用したテレビシステム100の概略について説明する。テレビシステム100は、視聴者(人物)の動作を判定すると共に、その視聴者が指で示す指定領域を算出し、動作の判定結果と指定領域との組合せによって、リモコンなどを用いずに視聴者がテレビ30を操作可能とする。このため、図8に示すように、テレビシステム100は、カメラCrと、人物動作判定装置1Bと、テレビ30とを備える。
カメラCrは、例えば、テレビ30の上面に配置された距離画像カメラである。また、カメラCrは、テレビ30に対する指令となる動作を行っている視聴者を撮影する。そして、カメラCrは、この視聴者を撮影した撮影映像および奥行映像を人物動作判定装置1Bに出力する。
人物動作判定装置1Bは、カメラCrから撮影映像および奥行映像が入力されると共に、この撮影映像および奥行映像を用いて、図2の人物動作判定装置1と同様の手順で視聴者の動作を判定する。さらに、人物動作判定装置1Bは、この撮影映像および奥行映像を用いて、テレビ30の表示画面上で視聴者の指が示している指定領域を算出する。その後、人物動作判定装置1Bは、視聴者の動作の判定結果と、算出した指定領域とをテレビ30に出力する。なお、人物動作判定装置1Bの構成については、後記する。
テレビ30は、地上デジタル放送などの放送波を受信して、テレビ番組を表示画面に表示する。また、テレビ30は、人物動作判定装置1Bから判定結果と指定領域とが入力された場合、入力された判定結果と指定領域との組合せに応じて、チャンネルを変更する、ボリュームを上下させる、選択されたメニューに応じたコンテンツを提供するなどの制御を行う。さらに、テレビ30は、表示画面上での指定領域を示すポインタPoを表示する。
このテレビシステム100では、視聴者が、例えば、このポインタPoの位置を視認しながら、ポインタPoをデータ放送の所望のメニューに重ねるように指を動かす。そして、ポインタPoがメニューに重なったら、視聴者が、メニューなどのオブジェクトの選択動作(例えば、指を上下に素早く動かす動作)を行う。すると、テレビ30には、そのメニューを示す指定領域と、選択動作を示す判定結果とが入力される。このため、テレビ30は、入力された判定結果および指定領域から、視聴者がデータ放送のメニューを選択したと判定し、例えば、そのメニューに応じたコンテンツを表示するなどの制御を行う。このように、テレビシステム100では、視聴者が、リモコンを用いることなく、その動作によってテレビ30を操作することができる。
[人物動作判定装置の構成]
以下、図9,図10を参照し、図8の人物動作判定装置1Bの構成について、図2の人物動作判定装置1と異なる点を主に説明する。図9に示すように、人物動作判定装置1Bは、特徴点抽出手段11と、動き特徴量算出手段(軌跡特徴量算出手段)12と、動作判定手段13と、判定平滑化手段(判定結果出力手段)14と、顔領域追跡手段21と、指領域追跡手段23と、指定領域算出手段25とを備える。
なお、特徴点抽出手段11と、動き特徴量算出手段12と、動作判定手段13と、判定平滑化手段14とは、図2の各手段と同様のものであるため、説明を省略する。
顔領域追跡手段21は、図8のカメラCrから撮影映像が入力されると共に、この撮影映像を用いて、視聴者の顔領域を追跡する。このため、顔領域追跡手段21は、顔領域検出手段21aと、平滑化手段21bとを備える。
顔領域検出手段21aは、撮影映像に含まれる視聴者の顔領域を検出する。例えば、顔領域検出手段21aは、Viola Jones法などの検出手法を適用して、撮影映像の各フレーム画像から顔領域を検出(追跡)する。
平滑化手段21bは、顔領域検出手段21aが検出した顔領域に対して、カルマンフィルタなどの平滑化処理を施す。この平滑化処理によって、平滑化手段21bは、フレーム画像間で発生する顔領域の位置誤差を低減できる。そして、平滑化手段21bは、平滑化処理を施した顔領域を指定領域算出手段25に出力する。
指領域追跡手段23は、図8のカメラCrから奥行映像が入力されると共に、この奥行映像を用いて、視聴者の指領域を検出する。このため、指領域追跡手段23は、指領域検出手段23aと、平滑化手段23bとを備える。
指領域検出手段23aは、奥行映像から指領域を検出する。例えば、指領域検出手段23aは、奥行映像で最もカメラCrに距離が近く、かつ、顔領域検出手段21aが検出した顔領域よりも近い領域を指領域として検出する。ここで、指領域検出手段23aは、指領域の面積によるエリアフィルタ、撮影映像から得られる色情報を用いた肌色フィルタなどのフィルタ処理によって、指領域を高い精度で検出できる。
平滑化手段23bは、指領域検出手段23aが検出した指領域に対して、カルマンフィルタなどの平滑化処理を施す。この平滑化処理によって、平滑化手段23bは、フレーム画像間で発生する指領域の位置誤差を低減できる。そして、平滑化手段23bは、平滑化処理を施した指領域を指定領域算出手段25に出力する。
指定領域算出手段25は、顔領域追跡手段21から顔領域と、指領域追跡手段23から指領域とが入力されると共に、図10に示すように、この顔領域β1と指領域β2との相対位置Rに基づいて、指定領域を算出する。例えば、指定領域算出手段25は、下記の式(6)を用いて、顔領域β1と指領域β2との相対位置Rを算出する。
Figure 2012003364
この式(6)では、Fが水平方向における顔領域β1の中心座標であり、Fが垂直方向における顔領域β1の中心座標であり、Hが水平方向における指領域β2の中心座標であり、Hが垂直方向における指領域β2の中心座標である。また、相対位置Rの最大値および最小値は、予め設定しておく。
また、指定領域算出手段25は、最小値から最大値までの区間内における相対位置Rの割合Pを、下記の式(7)を用いて算出する。
Figure 2012003364
そして、指定領域算出手段25は、算出した割合Pにテレビ30の表示画面の幅を乗じると共に、算出した割合Pにテレビ30の表示画面の高さを乗じることで、指定領域の座標を算出する。このように、指定領域算出手段25は、割合Pを0.0〜1.0までの値で標準化(正規化)しているため、様々なテレビやディスプレイに対応できる。
以上のように、本発明の第2実施形態に係る人物動作判定装置1Bは、図2の人物動作判定装置1と同様に、高い精度で視聴者の動作を判定することができる。また、人物動作判定装置1Bは、高い精度で指定領域を算出すると共に、様々なテレビやディスプレイに対応できるため、視聴者の動作をトリガとしたマンマインインターフェースに最適である。
なお、各実施形態では、本発明に係る人物動作判定装置1,1Bを独立した装置として説明したが、本発明では、一般的なコンピュータのハードウェア資源を、前記した各手段として協調動作させる動作判定プログラムによっても実現できる。この動作判定プログラムは、通信回線を介して配布しても良く、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布しても良い。
以下、本発明の実施例として、本発明に係る人物動作判定装置と、従来技術との比較実験の結果について説明する。ここで、本発明の実施例に係る人物動作判定装置を「人物動作判定装置1C」と呼ぶ。また、比較例に係る装置を「3次元軌跡特徴量判定装置」と呼ぶ。
<実施例>
人物動作判定装置1Cは、図2の人物動作判定装置1と同一の構成である。また、人物動作判定装置1Cでは、動き特徴量算出手段12に設定する追跡時間L、および判定平滑化手段14に設定する時間Tを、それぞれ10フレーム時間(≒0.5秒)とした。さらに、人物動作判定装置1Cでは、判定平滑化手段14に設定する閾値thを0.5とした。
また、人物動作判定装置1Cは、学習データとして、下記の10種類の動作を示す4次元軌跡特徴量を学習させた。この学習した10種類の動作は、それぞれ、手首を横に振る(横)、手首を縦に振る(縦)、腕を上に振る(上)、腕を下に振る(下)、腕を左に振る(左)、腕を右に振る(右)、腕を押す(押し)、腕を引く(引き)、何の動作もしない(動作なし)、および、ランダムな動作(ランダム)である。このランダムな動作とは、例えば、席を立つ、首をかしげる、および、両手を上げるなど、大きな動きを伴う判定対象外の動作である。
そして、人物動作判定装置1Cに、被験者が行う8種類の動作を判定させた。この被験者の動作は、それぞれ、手首を横に振る(横)、手首を縦に振る(縦)、腕を上に振る(上)、腕を下に振る(下)、腕を左に振る(左)、腕を右に振る(右)、腕を押す(押し)、および、腕を引く(引き)である。このとき、人物動作判定装置1Cによる判定精度を測定した。その結果を下記の表1に示す。
Figure 2012003364
<比較例>
また、人物動作判定装置1Cの比較例として、従来技術と同様、奥行値が付加されていない3次元軌跡特徴量を用いて、被験者の動作を判定する3次元軌跡特徴量判定装置を準備した。この3次元軌跡特徴量判定装置は、水平方向、垂直方向および時間方向の3次元軌跡特徴量を用いる以外、人物動作判定装置1Cと同一の構成および同一の設定条件とした。
そして、3次元軌跡特徴量判定装置に、人物動作判定装置1Cと同様、被験者の動作を判定させた。このとき、3次元軌跡特徴量判定装置による判定精度を測定した。その結果を下記の表2に示す。
Figure 2012003364
<比較実験の結果>
以下、前記した表1,表2を参照し、比較実験の結果について説明する。
なお、表1,表2では、横軸が学習した動作(10種類)であり、縦軸が被験者の動作(8種類)である。また、表1,表2において、未検出は、“null”と判定された率である。
人物動作判定装置1Cは、表1に示すように、様々な動作を高い精度で判定できることがわかった。特に、人物動作判定装置1Cは、腕を押す、腕を引くなどの奥行き方向の動作についても、高い精度で判定している。また、この表1から全動作の平均適合率を算出すると95%となる。このように、人物動作判定装置1Cが高い精度で被験者の動作を判定していることが伺える。
一方、3次元軌跡特徴量判定装置は、表2に示すように、腕を押す、腕を引くなどの奥行き方向の動作について、判定精度が低くなってしまう。これは、2次元の撮影映像から得られる情報だけでは、奥行き方向の動作を十分に認識できないためと考えられる。また、3次元軌跡特徴量判定装置では、多くの動作の判定率が閾値thを超えずに、未検出と判定されたとも思われる。また、この表2から全動作の平均適合率を算出すると88.33%となり、3次元軌跡特徴量判定装置は、人物動作判定装置1Cに比べて、判定精度が低いことが伺える。
以上のように、本発明の実施例に係る人物動作判定装置1Cは、空間的情報(奥行値)を補った4次元軌跡特徴量を用いることから、従来の3次元軌跡特徴量判定装置に比べて、高い精度で人物の動作を判定することができる。
本発明に係る人物動作判定装置は、例えば、マンマシンインターフェース、セキュリティ、スポーツ映像解析、動作を検索キーとした映像検索に応用できる。また、本発明に係る人物動作判定装置は、例えば、視聴者の動作を判定して視聴者の状況理解を促進できるため、テレビ放送、データ放送、インターネットなどでの映像制作の支援に用いることもできる。
1,1B 人物動作判定装置
11 特徴点抽出手段
12 動き特徴量算出手段(軌跡特徴量算出手段)
13 動作判定手段
14 判定平滑化手段(判定結果出力手段)
21 顔領域追跡手段
21a 顔領域検出手段
21b 平滑化手段
23 指領域追跡手段
23a 指領域検出手段
23b 平滑化手段
25 指定領域算出手段

Claims (4)

  1. 所定の動作を行う人物を撮影した撮影映像と、前記人物の奥行情報とを用いて、前記人物の動作を判定して判定結果を出力する人物動作判定装置であって、
    前記撮影映像と前記奥行情報とが入力され、入力された当該撮影映像の各画像から特徴点を抽出すると共に、入力された当該奥行情報から前記特徴点の奥行値を取得し、前記特徴点の画像座標および奥行値を3次元特徴量として算出する特徴点抽出手段と、
    前記撮影映像で前後する画像において特徴点同士のマッチングを行うと共に、1画像時間を単位追跡時間とし、当該単位追跡時間を所定時間連続させた追跡時間だけ、マッチングした前記特徴点の3次元特徴量を追跡した4次元軌跡特徴量を算出する軌跡特徴量算出手段と、
    様々な動作に対応する4次元軌跡特徴量を予め学習した結果を用いて、前記単位追跡時間ごとに、前記軌跡特徴量算出手段が算出した4次元軌跡特徴量から前記動作を判定する動作判定手段と、
    予め設定した時間内で、前記動作判定手段によって前記単位追跡時間ごとに判定された回数が最大となる動作を前記判定結果として出力する判定結果出力手段と、
    を備えることを特徴とする人物動作判定装置。
  2. 前記特徴点抽出手段は、前記奥行情報として、前記撮影映像の画素ごとの奥行値を示す奥行映像が入力され、入力された当該奥行映像から前記特徴点の奥行値を取得することを特徴とする請求項1に記載の人物動作判定装置。
  3. 前記判定結果出力手段は、前記動作判定手段によって前記追跡時間単位ごとに判定された回数である判定回数が最大で、かつ、判定率が予め設定された閾値を超えた動作を前記判定結果として出力することを特徴とする請求項1または請求項2に記載の人物動作判定装置。
  4. 所定の動作を行う人物を撮影した撮影映像と、前記人物の奥行情報とを用いて、前記人物の動作を判定して判定結果を出力するために、コンピュータを、
    前記撮影映像と前記奥行情報とが入力され、入力された当該撮影映像の各画像から特徴点を抽出すると共に、入力された当該奥行情報から前記特徴点の奥行値を取得し、前記特徴点の画像座標および奥行値を3次元特徴量として算出する特徴点抽出手段、
    前記撮影映像で前後する画像において特徴点同士のマッチングを行うと共に、1画像時間を単位追跡時間とし、当該単位追跡時間を所定時間連続させた追跡時間だけ、マッチングした前記特徴点の3次元特徴量を追跡した4次元軌跡特徴量を算出する軌跡特徴量算出手段、
    様々な動作に対応する4次元軌跡特徴量を予め学習した結果を用いて、前記単位追跡時間ごとに、前記軌跡特徴量算出手段が算出した4次元軌跡特徴量から前記動作を判定する動作判定手段、
    予め設定した時間内で、前記動作判定手段によって前記単位追跡時間ごとに判定された回数が最大となる動作を前記判定結果として出力する判定結果出力手段、
    として機能させるための人物動作判定プログラム。
JP2010135717A 2010-06-15 2010-06-15 人物動作判定装置およびそのプログラム Expired - Fee Related JP5438601B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010135717A JP5438601B2 (ja) 2010-06-15 2010-06-15 人物動作判定装置およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010135717A JP5438601B2 (ja) 2010-06-15 2010-06-15 人物動作判定装置およびそのプログラム

Publications (2)

Publication Number Publication Date
JP2012003364A true JP2012003364A (ja) 2012-01-05
JP5438601B2 JP5438601B2 (ja) 2014-03-12

Family

ID=45535295

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010135717A Expired - Fee Related JP5438601B2 (ja) 2010-06-15 2010-06-15 人物動作判定装置およびそのプログラム

Country Status (1)

Country Link
JP (1) JP5438601B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161406A (ja) * 2012-02-08 2013-08-19 Sharp Corp データ入力装置、表示装置、データ入力方法、及びデータ入力プログラム
JP2013200784A (ja) * 2012-03-26 2013-10-03 Yahoo Japan Corp 操作入力装置、操作入力方法およびプログラム
US9075444B2 (en) 2012-03-27 2015-07-07 Sony Corporation Information input apparatus, information input method, and computer program
KR20170014491A (ko) * 2015-07-30 2017-02-08 삼성전자주식회사 움직임 인식 방법 및 움직임 인식 장치
JP6165959B1 (ja) * 2016-07-29 2017-07-19 深セン市優必選科技有限公司 顔検出追跡方法、顔検出追跡装置、ロボット頭部の回動制御方法及びロボット頭部の回動制御システム
JP2018507448A (ja) * 2015-12-31 2018-03-15 禾視控股(北京)有限公司 スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス
US10474884B2 (en) 2016-11-14 2019-11-12 Aisin Seiki Kabushiki Kaisha Action determination device
CN110517284A (zh) * 2019-08-13 2019-11-29 中山大学 一种基于激光雷达和ptz摄像机的目标追踪方法
JP2020091739A (ja) * 2018-12-06 2020-06-11 株式会社 日立産業制御ソリューションズ 手順検知装置、および手順検知プログラム
JP2021152759A (ja) * 2020-03-24 2021-09-30 大日本印刷株式会社 情報処理システム、情報処理方法及び学習モデルの生成方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303014A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2008537815A (ja) * 2005-03-17 2008-09-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
JP2009211563A (ja) * 2008-03-05 2009-09-17 Tokyo Metropolitan Univ 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004303014A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2008537815A (ja) * 2005-03-17 2008-09-25 本田技研工業株式会社 クリティカルポイント解析に基づくポーズ推定
JP2009211563A (ja) * 2008-03-05 2009-09-17 Tokyo Metropolitan Univ 画像認識装置、画像認識方法、画像認識プログラム、ジェスチャ動作認識システム、ジェスチャ動作認識方法、及びジェスチャ動作認識プログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161406A (ja) * 2012-02-08 2013-08-19 Sharp Corp データ入力装置、表示装置、データ入力方法、及びデータ入力プログラム
JP2013200784A (ja) * 2012-03-26 2013-10-03 Yahoo Japan Corp 操作入力装置、操作入力方法およびプログラム
US9075444B2 (en) 2012-03-27 2015-07-07 Sony Corporation Information input apparatus, information input method, and computer program
KR20170014491A (ko) * 2015-07-30 2017-02-08 삼성전자주식회사 움직임 인식 방법 및 움직임 인식 장치
KR102433931B1 (ko) * 2015-07-30 2022-08-19 삼성전자주식회사 움직임 인식 방법 및 움직임 인식 장치
JP2018507448A (ja) * 2015-12-31 2018-03-15 禾視控股(北京)有限公司 スマートデバイスに基づく体感制御の実現方法、システム及びスマートデバイス
JP2018018489A (ja) * 2016-07-29 2018-02-01 深セン市優必選科技有限公司 顔検出追跡方法、顔検出追跡装置、ロボット頭部の回動制御方法及びロボット頭部の回動制御システム
JP6165959B1 (ja) * 2016-07-29 2017-07-19 深セン市優必選科技有限公司 顔検出追跡方法、顔検出追跡装置、ロボット頭部の回動制御方法及びロボット頭部の回動制御システム
US10474884B2 (en) 2016-11-14 2019-11-12 Aisin Seiki Kabushiki Kaisha Action determination device
JP2020091739A (ja) * 2018-12-06 2020-06-11 株式会社 日立産業制御ソリューションズ 手順検知装置、および手順検知プログラム
CN110517284A (zh) * 2019-08-13 2019-11-29 中山大学 一种基于激光雷达和ptz摄像机的目标追踪方法
CN110517284B (zh) * 2019-08-13 2023-07-14 中山大学 一种基于激光雷达和ptz摄像机的目标追踪方法
JP2021152759A (ja) * 2020-03-24 2021-09-30 大日本印刷株式会社 情報処理システム、情報処理方法及び学習モデルの生成方法
JP7476599B2 (ja) 2020-03-24 2024-05-01 大日本印刷株式会社 情報処理システム、及び情報処理方法

Also Published As

Publication number Publication date
JP5438601B2 (ja) 2014-03-12

Similar Documents

Publication Publication Date Title
JP5438601B2 (ja) 人物動作判定装置およびそのプログラム
US10168794B2 (en) Motion-assisted visual language for human computer interfaces
EP3467707B1 (en) System and method for deep learning based hand gesture recognition in first person view
US9092665B2 (en) Systems and methods for initializing motion tracking of human hands
US8615108B1 (en) Systems and methods for initializing motion tracking of human hands
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US9729865B1 (en) Object detection and tracking
US10027883B1 (en) Primary user selection for head tracking
US9111135B2 (en) Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
US10055013B2 (en) Dynamic object tracking for user interfaces
JP4575829B2 (ja) 表示画面上位置解析装置及び表示画面上位置解析プログラム
US9778748B2 (en) Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
US9256324B2 (en) Interactive operation method of electronic apparatus
US9298974B1 (en) Object identification through stereo association
Sáez et al. Aerial obstacle detection with 3-D mobile devices
WO2019064375A1 (ja) 情報処理装置、制御方法、及びプログラム
JP5703194B2 (ja) ジェスチャ認識装置、その方法、及び、そのプログラム
EP2704056A2 (en) Image processing apparatus, image processing method
EP3136203B1 (en) System and method of real-time interactive operation of user interface
CN105912126B (zh) 一种手势运动映射到界面的增益自适应调整方法
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
JP2006244272A (ja) 手位置追跡方法、装置、およびプログラム
CN111460858A (zh) 图像中指尖点的确定方法、装置、存储介质及电子设备
CN106406507B (zh) 图像处理方法以及电子设备
US10074188B2 (en) Method and apparatus for processing images for use with a three-dimensional hand model database

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131213

R150 Certificate of patent or registration of utility model

Ref document number: 5438601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees