JP5881136B2 - 情報処理装置及び方法、並びにプログラム - Google Patents

情報処理装置及び方法、並びにプログラム Download PDF

Info

Publication number
JP5881136B2
JP5881136B2 JP2010215680A JP2010215680A JP5881136B2 JP 5881136 B2 JP5881136 B2 JP 5881136B2 JP 2010215680 A JP2010215680 A JP 2010215680A JP 2010215680 A JP2010215680 A JP 2010215680A JP 5881136 B2 JP5881136 B2 JP 5881136B2
Authority
JP
Japan
Prior art keywords
joint
input
motion
difference
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010215680A
Other languages
English (en)
Other versions
JP2012066026A (ja
JP2012066026A5 (ja
Inventor
順 横野
順 横野
拓也 成平
拓也 成平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010215680A priority Critical patent/JP5881136B2/ja
Priority to US13/233,351 priority patent/US9031327B2/en
Priority to CN2011102909161A priority patent/CN102542247A/zh
Publication of JP2012066026A publication Critical patent/JP2012066026A/ja
Publication of JP2012066026A5 publication Critical patent/JP2012066026A5/ja
Application granted granted Critical
Publication of JP5881136B2 publication Critical patent/JP5881136B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs

Description

本発明は、情報処理装置及び方法、並びにプログラムに関し、特に、正しい動作や姿勢の支援を行うことができるようにした情報処理装置及び方法、並びにプログラムに関する。
従来より、人の動作や姿勢を評価する技術が、各種提案されている。
例えば、評価者からの評価(外的基準)に基づいて、撮影された動画像から人の動作の評価を行う動作評価装置が開示されている(例えば、特許文献1参照)。
また、ゴルフ場のグリーンのホールに立ったピンをカメラで撮影し、グリーンの傾斜方向と傾斜角度を測定する傾斜センサの検出結果と合わせて、パットの練習を支援する装置が開示されている(例えば、特許文献2参照)。この装置では、傾斜センサにより、傾斜方向と傾斜角度が求められるので、パッティング方向と、その強弱が指示される。
衣類に温度センサ等の多数の特殊なセンサを装着して人の姿勢を判定することで、遠隔地にいる医師がそれをモニタし、アドバイス等を行うことが可能な姿勢モニタシステムが開示されている(例えば、特許文献3参照)。
特開2010−61376号公報 特開2010−88531号公報 特開2009−18158号公報
しかしながら、従来の技術であると、単に撮影された動画像から人の動作や姿勢の評価を行うだけであるか、又は人の動作や姿勢の支援を行うものであっても、ユーザは十分な支援を受けられていないため、正しい動作や姿勢をとることができない場合がある。
本発明はこのような状況に鑑みてなされたものであり、正しい動作や姿勢の支援を行って、確実に正しい動作や姿勢をとらせることができるようにするものである。
本発明の一側面の情報処理装置は、人を含む入力画像から、その人の身体の所定の部位を時系列で認識する認識手段と、時系列で認識された入力部位の動作と、基準となる基準部位の動作との相違を、時系列で認識された前記入力部位に含まれる関節の角度を表す3次元の角度と、前記基準部位に含まれる関節の角度を表す3次元の角度との差分に関する時系列の差分情報を加算して求められた距離で評価する評価手段と、前記入力部位に含まれる関節に対して求められた距離が所定の閾値以上となる関節を含んでいる前記入力部位については、前記基準部位の動作に対する前記入力部位の動作の相違に関する情報を通知する通知手段とを備える。
前記通知手段は前記基準部位に含まれる関節の角度に対する前記入力部位に含まれる関節の角度の相違に関する情報を表示する。
前記通知手段は、前記入力部位に対して、前記基準部位の関節群を結んだガイド線又は前記基準部位の関節群に対応する部位画像を重畳させて表示する。
前記通知手段は、前記基準部位に含まれる関節の角度に対する前記入力部位に含まれる関節の角度の相違に対応するメッセージを表示する。
前記入力画像は、動画像であり、前記評価手段は、時系列で得られる前記入力部位に含まれる関節の角度で特定される入力動作の時間長と、前記基準部位に含まれる関節の角度で特定される基準動作の時間長とを比較して、前記基準動作に対する前記入力動作の速度の相違を評価し、前記通知手段は、評価された前記速度の相違に関する情報を表示する。
本発明の一側面の情報処理方法は、情報処理装置が、人を含む入力画像から、その人の身体の所定の部位を時系列で認識し、時系列で認識された入力部位の動作と、基準となる基準部位の動作との相違を、時系列で認識された前記入力部位に含まれる関節の角度を表す3次元の角度と、前記基準部位に含まれる関節の角度を表す3次元の角度との差分に関する時系列の差分情報を加算して求められた距離で評価し、前記入力部位に含まれる関節に対して求められた距離が所定の閾値以上となる関節を含んでいる前記入力部位については、前記基準部位の動作に対する前記入力部位の動作の相違に関する情報を通知するステップを含む。
本発明の一側面のプログラムは、人を含む入力画像から、その人の身体の所定の部位を時系列で認識する認識手段と、時系列で認識された入力部位の動作と、基準となる基準部位の動作との相違を、時系列で認識された前記入力部位に含まれる関節の角度を表す3次元の角度と、前記基準部位に含まれる関節の角度を表す3次元の角度との差分に関する時系列の差分情報を加算して求められた距離で評価する評価手段と、前記入力部位に含まれる関節に対して求められた距離が所定の閾値以上となる関節を含んでいる前記入力部位については、前記基準部位の動作に対する前記入力部位の動作の相違に関する情報を通知する通知手段として、コンピュータを機能させる。
本発明の一側面の情報処理装置及び方法、並びにプログラムにおいては、人を含む入力画像から、その人の身体の所定の部位が時系列で認識され、時系列で認識された入力部位の動作と、基準となる基準部位の動作との相違が、時系列で認識された入力部位に含まれる関節の角度を表す3次元の角度と、基準部位に含まれる関節の角度を表す3次元の角度との差分に関する時系列の差分情報を加算して求められた距離で評価され、入力部位に含まれる関節に対して求められた距離が所定の閾値以上となる関節を含んでいる入力部位については、基準部位の動作に対する入力部位の動作の相違に関する情報が通知される。
本発明の一側面によれば、確実に正しい動作や姿勢をとらせることができる。
本発明を適用したテレビジョン受像機の一実施の形態の構成を示す図である。 基準動作姿勢データベースの構成の例を示す図である。 表示処理を説明するフローチャートである。 動作姿勢支援処理の詳細を説明するフローチャートである。 動作姿勢認識処理の詳細を説明するフローチャートである。 動作姿勢評価処理の詳細を説明するフローチャートである。 入力動作と基準動作との距離計算の例を示す図である。 評価結果表示処理の詳細を説明するフローチャートである。 動作姿勢支援画面の表示の例を示す図である。 動作姿勢支援画面の表示の例を示す図である。 学習装置の構成の例を示す図である。 学習処理を説明するフローチャートである。 動作姿勢支援システムの構成の例を示す図である。 コンピュータの構成の例を示す図である。
以下、本発明を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.変形例
<1.第1の実施の形態>
[テレビジョン受像機の構成]
図1は、本発明を適用したテレビジョン受像機の一実施の形態の構成を示す図である。
テレビジョン受像機1は、テレビジョン放送の放送電波に対応する放送信号や、接続される再生装置(不図示)により再生された再生信号に対応するコンテンツを視聴するための機器である。
テレビジョン受像機1はまた、ユーザにより行われるジェスチャ(動作や姿勢)を検出して、そのジェスチャに対応する機能を実行する機能を有している。すなわち、テレビジョン受像機1においては、ユーザにより行われる所定のジェスチャが、所定の機能に対応付けられており、ユーザは、リモートコントローラを操作する代わりに、所定のジェスチャを入力して、所定の機能を実現させる。
テレビジョン受像機1は、アンテナ11、チューナ12、制御部13、画像処理部14、表示部15、及び動作姿勢評価支援部16から構成される。また、テレビジョン受像機1には、その前方(表示部15側)に存在するユーザを撮影可能な位置に、カメラ2が取り付けられている。
アンテナ11は、地上波や衛星放送からの電波等のテレビジョン放送の放送電波に対応する放送信号を受信し、チューナ12に供給する。
チューナ12には、制御部13から、ユーザのジェスチャに応じた受信する放送局を指定するための指示信号が供給される。チューナ12は、制御部13からの指示信号に従って、アンテナ11から供給された放送信号を復調し、復調して得られた画像信号を、画像処理部14に供給する。
画像処理部14は、チューナ12から供給される画像信号を、表示部15に表示させるための画像データに変換する。画像処理部14は、制御部13の制御に従って、変換した画像データに対応する画像(コンテンツ)を、表示部15に表示させる。
カメラ2は、例えばテレビジョン受像機1の上部に取り付けられ、その前方に存在するユーザを撮影し、それにより得られる画像データを、動作姿勢評価支援部16に供給する。
動作姿勢評価支援部16は、カメラ2から供給される画像データに基づいて、ユーザの動作や姿勢を検出して評価し、ユーザの動作や姿勢が正しいものとなるように支援する処理を実行する。また、動作姿勢評価支援部16は、その評価結果を制御部13に供給する。
動作姿勢評価支援部16は、画像取得部21、動作姿勢認識部22、動作姿勢評価部23、基準動作姿勢データベース24、及び支援画面生成部25から構成される。
画像取得部21は、カメラ2により撮影された画像データ(以下、入力画像ともいう)を取得し、動作姿勢認識部22及び支援画面生成部25に供給する。
動作姿勢認識部22は、画像取得部21から供給される画像データに基づいて、動作姿勢認識処理を実行し、その認識結果を動作姿勢評価部23に供給する。
この動作姿勢認識処理においては、画像データから得られる人の身体の所定の部位(例えば、ユーザの手足や首などの部位)の関節角が各部位(パーツ)単位で認識されるが、その詳細については後述する。
動作姿勢評価部23には、動作姿勢認識部22から、各部位ごとの関節角が供給される。動作姿勢評価部23は、動作姿勢認識部22から供給される各部位ごとの関節角に対応する動作(以下、入力動作という)に応じて、基準動作姿勢データベース24に格納された動作(以下、基準動作という)に対応する関節角を読み出す。
なお、以下の説明では、上述した関節角を区別するために、カメラ2により撮影された画像データから得られた関節角を、入力動作の関節角と称し、基準動作姿勢データベース24に格納された基準動作に対応付けられた関節角を、基準動作の関節角と称して説明する。
ここで、図2を参照して、基準動作姿勢データベース24の構成の詳細について説明する。
図2に示すように、基準動作姿勢データベース24には、あらかじめ登録された基準動作として、基準動作1,2,・・・,nが格納されており、それらの基準動作には、時系列に並べられた右手首関節角や右ひじ関節角などの関節角群が対応付けられている。なお、図2においては、基準動作1,2が代表して図示されている。
例えば、基準動作姿勢データベース24において、基準動作1の右手首関節角に注目すると、その関節角は、時間の経過とともに、(θ1,φ1,ψ1),(θ2,φ2,ψ2),(θ3,φ3,ψ3),・・・,(θt,φt,ψt)のように遷移する。また、基準動作1の右ひじ関節角は、(α1,β1,γ1),(α2,β2,γ2),(α3,β3,γ3),・・・,(αt,βt,γt)のように遷移し、他の関節角についても同様に、時間の経過とともにその角度が遷移することになる。
すなわち、関節角は、一般的に、3次元の関節角としての3つの回転角度(θ,φ,ψ)や(α,β,γ)により表され、これにより動作や姿勢は一意に決定される。そして、それらの回転角度を、一連の動作として各関節角ごとに時系列に登録しておくことで、それらの各関節角の遷移によって、基準動作1が特定されることになる。
基準動作2乃至nについても、上述した基準動作1と同様に、各関節角ごとに時系列に並べられた3次元の関節角の遷移によって、各基準動作が特定される。
なお、基準動作n(n=1,2,3,・・・,n)と、それらの基準動作に対応する関節角は、複数のサンプル画像を用いた学習によりあらかじめ求められ、登録されるが、その詳細について後述する。
図1に戻り、動作姿勢評価部23は、動作姿勢認識部22からの入力動作の関節角、及び基準動作姿勢データベース24からの基準動作の関節角に基づいて、動作姿勢評価処理を実行し、その評価結果を制御部13及び支援画面生成部25に供給する。
この動作姿勢評価処理においては、入力動作の関節角と基準動作の関節角との相違、すなわち、入力部位と基準部位との相違が評価されるが、その詳細については後述する。
制御部13は、動作姿勢評価部23から供給される評価結果に基づいて、テレビジョン受像機1の各部の動作を制御し、ユーザにより行われる所定のジェスチャにより認識される入力動作に対応する所定の機能を実行する。
支援画面生成部25には、画像取得部21からの画像データと、動作姿勢評価部23からの評価結果が供給される。
支援画面生成部25は、画像取得部21からの画像データに対応する入力画像に対して、動作姿勢評価部23からの評価結果に関する情報を重畳させて、ユーザが正しい動作や姿勢をとるための支援をする画面(以下、動作姿勢支援画面という)を生成し、制御部13に供給する。
制御部13は、支援画面生成部25から供給される動作姿勢支援画面を、表示部15に表示させる。
以上のようにして、テレビジョン受像機1は構成される。
[表示処理]
次に、図3のフローチャートを参照して、図1のテレビジョン受像機1により実行される表示処理について説明する。
ユーザにより所定のジェスチャが行われると、制御部13は、テレビジョン受像機1の各部を制御することで、アンテナ11により受信された放送信号に対応するコンテンツを表示部15に表示させる(ステップS11)。
ステップS12において、制御部13は、動作姿勢評価部23から供給される評価結果に基づいて、ユーザによりジェスチャによる操作が行われたか否かを判定する。なお、先に述べたように、テレビジョン受像機1は、ユーザによる所定のジェスチャに応じて所定の機能を実行するので、例えば、チャンネルの操作が、ユーザの手や腕の動きにより行われる。
ステップS12において、ジェスチャによる操作が行われていないと判定された場合、処理は、ステップS11に戻り、上述したステップS11,S12が繰り返される。すなわち、この場合、表示部15には、受信された放送信号に対応するコンテンツが表示される。
一方、ジェスチャによる操作が行われたと判定された場合(ステップS12の「Yes」)、処理は、ステップS13に進む。
ステップS13において、制御部13及び動作姿勢評価支援部16は、動作姿勢支援処理を実行する。この動作姿勢支援処理では、ユーザが正しいジェスチャを行うことができるように支援する処理が行われるが、その詳細については、図4のフローチャートを参照して後述する。
そして、ユーザにより正しい動作や姿勢でのジェスチャが行われた場合には、制御部13は、テレビジョン受像機1の各部を制御して、例えば、チャンネルの変更など、そのジェスチャに対応する機能を実行する(ステップS14)。
ステップS15において、制御部13は、ジェスチャによる操作が行われて、コンテンツの表示の終了が指示されたか否かを判定する。ステップS15において、コンテンツの表示の終了が指示されていないと判定された場合、ステップS11に戻り、コンテンツの表示の終了が指示されるまで、上述したステップS11乃至S15の処理が繰り返される。
一方、コンテンツの表示の終了が指示されたと判定された場合(ステップS15の「Yes」)、図3の表示処理は終了する。
以上のようにして、テレビジョン受像機1においては、ジェスチャによる操作が行われた場合には、動作姿勢支援処理が実行され、ユーザによって正しいジェスチャ(動作や姿勢)が行われるように支援する。
[動作姿勢支援処理]
次に、図4のフローチャートを参照して、図3ステップS13に対応する動作姿勢支援処理の詳細について説明する。
ステップS31において、画像取得部21は、カメラ2により撮影された画像データを取得し、動作姿勢認識部22に供給する。
ステップS32において、動作姿勢認識部22は、画像取得部21から供給される画像データに基づいて、動作姿勢認識処理を実行する。
ここで、図5のフローチャートを参照して、図4のステップS32に対応する動作姿勢認識処理について説明する。
ステップS51において、動作姿勢認識部22は、画像取得部21から順次入力される画像データから、人が含まれている人領域を検出する。そして、動作姿勢認識部22は、検出された人領域から、その人の向いている方向を推定し(ステップS52)、さらに、例えば手足や首などの人の身体の所定の部位(パーツ)を検出する(ステップS53)。
ステップS54において、動作姿勢認識部22は、推定された人の方向と検出された各部位に基づいて、例えばGPLVM(Gaussian Process Latent Variable Model)を用いた動きの事前情報から、3次元の関節角を推定する。
なお、このような人領域を検出して、関節レベルで姿勢を推定する方法としては、例えば、下記の文献(1)においても開示されている。
文献(1):Monocular 3D pose estimation and tracking by detection Mykhaylo Andriluka, Stefan Roth and Bernt Schiele International Conference on Computer Vision and Pattern Recognition (CVPR2010)
また、人領域を検出する方法や、姿勢を推定する方法としては、例えば、下記の文献(2),(3)においても開示されている。
文献(2):Histograms of Oriented Gradients for Human Detection Navneet Dalal and Bill Triggs CVPR2005
文献(3):Learning to parse images of articulated bodies Deva Ramanan NIPS2006
以上のようにして、動作姿勢認識処理が実行され、画像取得部21から順次入力される画像データから、各部位ごとの関節角が時系列で求められると、処理は、図4のフローチャートに戻り、ステップS33以降の処理が実行される。
ステップS33において、動作姿勢評価部23は、動作姿勢認識部22から供給される各部位ごとの関節角(入力動作の関節角)と、基準動作姿勢データベース24から読み出された各部位ごとの関節角(基準動作の関節角)とを比較することで、動作姿勢評価処理を実行する。
ここで、図6のフローチャートを参照して、図4のステップS33に対応する動作姿勢評価処理の詳細について説明する。
ステップS71において、動作姿勢評価部23は、基準動作姿勢データベース24に格納された基準動作の中から、動作姿勢認識部22により認識された各部位ごとの関節角から推定される入力動作と同一又は類似する基準動作を検索して、対象となる基準動作を特定する。
この基準動作の特定方法としては、例えば、図2の基準動作姿勢データベース24に格納された基準動作1乃至nの関節角の中から、入力動作の関節角の時間的な変化と同一又は類似した変化をする基準動作の関節角を検索して、その基準動作を、対象となる基準動作として特定する。ただし、類似する基準動作が複数存在する場合には、最も類似した基準動作の関節角を、対象となる基準動作として特定すればよい。
ステップS72において、動作姿勢評価部23は、ステップS71の処理により特定された基準動作に対応する関節角を読み出す。
ステップS73において、動作姿勢評価部23は、動作姿勢認識部22により認識された入力動作の関節角の時間的な変化(以下、入力動作の時系列という)と、基準動作姿勢データベース24から読み出された基準動作の関節角の時間的な変化(以下、基準動作の時系列という)とを一致させる。
すなわち、入力動作の開始から終了までの時間長は、ほとんどの場合、基準動作姿勢データベース24にあらかじめ格納されている基準動作の開始から終了までの時間長からずれているので、それらの時間長を合わせる必要がある。そこで、基準動作姿勢データベース24に基準動作を登録するに際して、基準動作ごとに時間長の正規化を行っておいて、入力動作の時系列を、特定された基準動作の時間長に正規化することで、入力動作の時系列と基準動作の時系列とを一致したものとすることができる。
入力動作と基準動作の時系列が一致すると、動作姿勢評価部23は、入力動作と基準動作との相違を評価する(ステップS74)。この評価方法としては、例えば、正規化された入力動作の関節角と、基準動作の関節角とのユークリッド距離を計算することで、入力動作と基準動作の距離がどの程度離れているかを評価することができる。
図7は、入力動作の関節角と基準動作の関節角との距離計算の例を示す図である。
なお、図7では、動作姿勢認識処理(図5)から動作姿勢評価処理(図6)までを一連の処理の流れとして説明する。
上述したように、動作姿勢認識部22によって、画像取得部21により順次取得される入力画像から、各部位の関節角が順次認識されるが、例えば、右手首関節角(θu',φu',ψu')や右ひじ関節角(αu',βu',γu')などが時系列で認識される。そして、右手首関節角(θu',φu',ψu')などの関節角が時系列で得られることで、それらの関節角による入力動作に対応する基準動作が特定される。
また、先に述べたように、基準動作姿勢データベース24には、基準動作1乃至nの関節角として、例えば、右手首関節角(θt,φt,ψt)や右ひじ関節角(αt,βt,γt)などが時系列で登録されている。
そして、例えば、入力動作に対応する動作として、基準動作1が特定された場合、入力動作における右手首関節角(θu',φu',ψu')などの関節角の時系列が線形変換され、基準動作1における右手首関節角(θt,φt,ψt)などの時間長に正規化される。そして、正規化された入力動作の関節角(例えば右手首関節角(θt',φt',ψt')など)と、基準動作の関節角(例えば右手首関節角(θt,φt,ψt)など)とのユークリッド距離が計算され、入力動作と基準動作の距離がどの程度離れているかが評価される。
この距離計算の方法としては、例えば、入力動作と基準動作とについて、全ての部位の関節角のユークリッド距離を求めてから、各部位の関節角のユークリッド距離を求める方法がある。この場合、関節全体の距離と各関節の距離によって、入力動作と基準動作との距離が求められる。
関節全体の距離は、下記の式(1)により算出される。また、各関節の距離は、下記の式(2),(3)により算出される。
関節全体の距離(全体)=|θ1−θ1'|+|φ1−φ1'|+|ψ1−ψ1'|+|θ2−θ2'|+|φ2−φ2'|+|ψ2−ψ2'|+・・・+|θt−θt'|+|φt−φt'|+|ψt−ψt'|+|α1−α1'|+|β1−β1'|+|γ1−γ1'|+|α2−α2'|+|β2−β2'|+|γ2−γ2'|+・・・+|αt−αt'|+|βt−βt'|+|γt−γt'|+・・・
・・・(1)
各関節の距離(右手首関節角)=|θ1−θ1'|+|φ1−φ1'|+|ψ1−ψ1'|+|θ2−θ2'|+|φ2−φ2'|+|ψ2−ψ2'|+・・・+|θt−θt'|+|φt−φt'|+|ψt−ψt'|
・・・(2)
各関節の距離(右ひじ関節角)=|α1−α1'|+|β1−β1'|+|γ1−γ1'|+|α2−α2'|+|β2−β2'|+|γ2−γ2'|+・・・+|αt−αt'|+|βt−βt'|+|γt−γt'|
・・・(3)
なお、各関節の距離の計算例として、右手首関節角の距離を算出する式(2)と、右ひじ関節角の距離を算出する式(3)を記述したが、例えば、左手首関節角や左ひじ関節角、左右の指の関節角などの他の関節の関節角についても同様に計算が行われる。
以上のようにして、動作姿勢評価処理によって、入力動作と基準動作との相違が評価され、その評価結果が、制御部13及び支援画面生成部25に供給される。
また、この評価結果としては、上述した距離計算による評価結果の他、例えば、入力動作の時間長と基準動作の時間長との差(以下、動作時間差という)などを含むようにすることができる。この場合、評価結果としての動作時間差が、支援画面生成部25に供給される。
図6のフローチャートに戻り、ステップS74において入力動作と基準動作との相違の評価が終了すると、処理は、図4のフローチャートに戻り、ステップS34以降の処理が実行される。
ステップS34において、制御部13は、動作姿勢評価部23からの評価結果に基づいて、評価結果を表示する必要があるか否かを判定する。
なお、この判定処理では、例えば、評価結果として計算された関節全体の距離と各関節の距離から得られる距離の値と、あらかじめ定められた所定の閾値とが比較され、距離の値が所定の閾値を超える場合には、その評価結果を表示する必要があると判定される。
例えば、入力動作と基準動作との距離が大きく離れている場合には、それらの動作が大きくずれているので、評価結果を表示する必要があると判定される(ステップS34の「Yes」)。一方、入力動作と基準動作との距離が全く離れていないか、又はそれ程離れていない場合にはそれらの動作が、ずれていたとしても許容範囲内であるので、評価結果を表示する必要がないと判定される(ステップS34の「No」)。
すなわち、表示部15には、基本的にコンテンツが表示されており、所定のジェスチャによる操作が行われ(図3のステップS12の「Yes」)、さらに、そのジェスチャが上手くいかず、その操作が認識されないとき(図4のステップS34の「Yes」)に限り、評価結果表示処理が実行されるようにする。
ステップS34において、評価結果を表示する必要があると判定された場合、ステップS35において、制御部13及び支援画面生成部25は、動作姿勢評価部23からの評価結果に基づいて、評価結果表示処理を実行する。
ここで、図8のフローチャートを参照して、図4のステップS35に対応する評価結果表示処理の詳細について説明する。
支援画面生成部25は、動作姿勢評価部23から、各関節ごとの評価結果を取得し(ステップS91)、各関節の距離が所定の閾値以上となるか否かを判定する(ステップS92)。各関節ごとの評価結果は、先に述べたように、式(2),(3)などにより求められる、右手首関節右ひじ関節などの各関節の距離に相当するものである。
ステップS92において、関節の距離が所定の閾値以上となると判定された場合、ステップS93において、支援画面生成部25は、それらの関節の距離に応じた支援メッセージを生成する。一方、ステップS92において、関節の距離が閾値未満となると判定された場合、ステップS93をスキップして、処理は、ステップS94に進む。
ステップS94において、支援画面生成部25は、全ての関節について関節の距離の閾値判定が終了したか否かを判定する。
ステップS94において、全ての関節についての関節角の比較が終了していないと判定された場合、処理は、ステップS91に戻り、上述したステップS91乃至S94が繰り返される。
そして、ステップS91乃至S94が繰り返されることで、例えば、右手首関節について、その関節の距離が閾値以上となり、その距離が離れていると判定された場合、基準動作の右手首関節の関節角に対する入力動作の右手首関節の関節角の相違に関する支援メッセージが生成される。なお、このとき、関節の距離が閾値未満となると判定されたものについて、正しい動作が行われている旨のメッセージが生成されるようにしてもよい。
これにより、動作姿勢評価部23によって評価された、基準動作に対する入力動作の関節角の相違に対応するメッセージが生成されることになる。
一方、ステップS94において、全ての関節についての関節の距離の閾値判定が終了したと判定された場合、処理は、ステップS95に進む。
そして、支援画面生成部25は、動作姿勢評価部23から、動作時間差(入力動作の時間長と基準動作の時間長との差)の評価結果を取得し(ステップS95)、その動作時間差が所定の範囲内となるか否かを判定する(ステップS96)。
ステップS96において、動作時間差が所定の範囲外となると判定された場合、ステップS97において、支援画面生成部25は、その動作時間差に応じた支援メッセージを生成する。
例えば、先に述べた、入力動作の時系列の正規化を行うに際して、基準動作に比べて入力動作の時間長が短く、それらの時間長の差が所定の範囲外となる場合には、入力動作が速すぎることとなるため、その旨を示す支援メッセージが生成される。また、例えば、基準動作に比べて入力動作の時間長が長く、それらの時間長の差が所定の範囲外となる場合には、動作が遅すぎることとなるため、その旨を示す支援メッセージが生成される。
これにより、動作姿勢評価部23によって評価された、基準動作に対する入力動作の速度や加速度の相違に対応するメッセージが生成されることになる。
一方、ステップS96において、動作時間差が所定の範囲内となると判定された場合、ステップS97をスキップして、処理は、ステップS98に進む。
ステップS98において、支援画面生成部25は、動作姿勢評価部23からの評価結果に応じた支援画像を生成する。
この支援画像は、入力画像に重畳される画像であって、基準動作に対する入力動作の相違を通知して、ユーザに対して自身の動作や姿勢を修正させるための画像である。支援画像としては、例えば、基準動作に対する入力動作の関節角の相違や動作時間差などに応じた画像が生成される。
ステップS99において、支援画面生成部25は、入力画像に対して、ステップS98の処理によって生成された支援画像と、ステップS93,S97の処理によって生成された支援メッセージを重畳させて動作姿勢支援画面を生成する。そして、制御部13は、支援画面生成部25により生成された動作姿勢支援画面を、表示部15に表示させる(ステップS100)。
ステップS101において、支援画面生成部25は、所定のジェスチャにより認識される一連の入力動作が終了したか否かを判定する。
ステップS101において、一連の入力動作が終了していないと判定された場合、処理は、ステップS98に戻り、上述したステップS98乃至S101が繰り返され、次のフレームとなる入力画像に対する支援画像が生成され、支援メッセージとともに入力画像に重畳されて、動作姿勢支援画面が生成される。
なお、先に述べたように、入力動作と基準動作との相違を評価するために、それらの動作の時系列を一致させたが、支援画像を入力画像に重畳させる場合、基準動作の時間長に正規化された時系列では入力画像の時系列と一致していないため、整合がとれない。そこで、支援画面生成部25は、入力画像に順次重畳される支援画像の時系列を、入力動作の時間長に戻してから、入力画像に重畳させることになる。
すなわち、あるジェスチャにより認識される一連の入力動作が終了するまで、ステップS98乃至S101が繰り返されると、例えば、図9又は図10の動作姿勢支援画面が、表示部15に表示される。
図9に示すように、表示部15に表示される動作姿勢支援画面には、テレビジョン受像機1の上部に設置されたカメラ2によって撮影された、その正面に立ってジェスチャを行ったユーザの画像が表示される。図9の例では、ユーザは、ジェスチャによりテレビジョン受像機1を操作しているが、その入力動作が基準動作から外れていると評価されたため(図4のステップS34の「Yes」)、表示部15には、その評価結果に対応する動作姿勢支援画面が表示されている。
図9の動作姿勢支援画面においては、支援画像として、入力画像に対して基準動作1の各部位の関節群を結んだガイド線が重畳されている。図9の例では、ユーザの手の動作を支援するためのガイド線が、正しい動作を示すものとして、首もとから手首までの関節を繋いだ直線により描かれている。これにより、ジェスチャを行っているユーザに対して、認識された入力動作と、基準となる基準動作との相違を直感的に認識させることが可能となる。
また、入力動作と基準動作との距離を評価することにより、それらの動作の距離がどの程度離れているかが求められるのは先に述べた通りであるが、図9の例では、ユーザの左手(例えば左手首関節や左ひじ関節)は、それらの動作の距離がほとんど離れていないため、画面には「左手は大体上がっています。」との支援メッセージが表示される。また、ユーザの右手(右手首関節)は、その入力動作と基準動作との距離が大きく離れているため、画面には、「右手をもう少し上に上げて下さい。」と、「右ひじを上にまげて下さい。」との支援メッセージが表示される。
なお、先に述べた3次元の関節角だけでは、入力動作と基準動作の各部位の位置関係を認識できない場合には、それらの3次元角度を3次元座標に変換することにより、それらの部位の位置関係が認識できるようにすればよい。
以上のように、表示部15には、支援画像としてのガイド線と、支援メッセージとしての「右ひじを上にまげて下さい。」などを入力画像に重畳した動作姿勢支援画面が表示される。なお、動作姿勢支援画面において、支援画像は、入力画像の人の動き(一連の入力動作)を追従して動的に表示され、支援メッセージは、同一位置に、同一内容で静的に表示されることになる。
また、図10の動作姿勢支援画面では、支援画像として、図9のガイド線の代わりに、ユーザ自身の右腕の画像(部位画像)が表示されている。この部位画像は、例えば、入力画像に対して所定の画像処理を施して、入力画像に含まれる右腕の領域を切り取ることで得られる。
また、動作時間差により基準動作に対する入力動作の速度の相違に関する情報が得られるのは先に述べた通りであるが、例えば、基準動作に比べて入力動作の時間長が短ければ、動作が速すぎることとなるため、「もう少しゆっくり動かしてください。」との支援メッセージが表示される。一方、基準動作に比べて入力動作の時間長が長ければ、動作が遅すぎることになるため、「もう少し速く動かしてください。」との支援メッセージが表示される。
図10の例では、ユーザの左手は、入力動作と基準動作との距離がほとんど離れていないため、画面には「左手は大体上がっています。」との支援メッセージが表示される。また、ユーザの右手は、入力動作と基準動作との距離が大きく離れているため、「右手をもう少し上に上げて下さい。」との支援メッセージが表示される。さらに、基準動作に比べて入力動作の時間長が長いため、「肩をもう少し速く上に上げるようにしてください。」との支援メッセージが表示される。
以上のように、表示部15には、動的な支援画像としての部位画像と、静的な支援メッセージとしての「肩をもう少し速く上に上げるようにしてください。」などを入力画像に重畳した動作姿勢支援画面が表示される。
また、図10の動作姿勢支援画面においては、支援画像として部位画像を表示するので、ユーザは、誤った動作の部位と、正しい動作の部位の両方の部位を確認しながら、より直感的に自身の動作を修正することができる。
図8のフローチャートに戻り、図8の表示処理が終了すると、処理は、図4のフローチャートのステップS35に戻る。一方、ステップS35の処理が終了するか、又はステップS34において、評価結果を表示する必要がないと判定された場合、処理は、図3のフローチャートに戻り、ステップS14以降の処理が実行される。
以上のように、テレビジョン受像機1においては、ユーザによりジェスチャによる操作が行われたとき、動作姿勢支援処理が行われ、その入力動作が、基準動作と相違している場合、例えば、図9又は図10の動作姿勢支援画面が表示部15に表示される。
これにより、ユーザは、その画面上の自身に重畳された支援画像や支援メッセージを確認しながら、確実に、正しいジェスチャ(動作や姿勢)を行うことができる。また、動作姿勢支援画面には、関節単位又は部位単位で生成される支援画像や支援メッセージが表示されるので、ユーザは、自身の動作や姿勢を精度よく修正することができる。
[学習装置の構成]
次に、図11及び図12を参照して、基準動作の基準動作姿勢データベース24への登録方法について説明する。
図11は、学習装置の構成の例を示す図である。
図11に示すように、学習装置31は、画像取得部41、学習部42、及び基準動作姿勢データベース24から構成される。なお、基準動作姿勢データベース24は、図1の基準動作姿勢データベース24に対応している。
画像取得部41は、所定のジェスチャを行っている人が含まれるサンプル画像の画像データを取得し、学習部42に供給する。
学習部42は、画像取得部41から供給される画像データに基づいて、動作姿勢認識処理を実行する。この動作姿勢認識処理は、上述した動作姿勢認識部22により実行される動作姿勢認識処理と同様であり、画像データから得られる人の身体の所定の部位(例えば、ユーザの手足など)の関節角が各部位(パーツ)単位で認識される。
学習部42は、ジェスチャに対応する動作を基準動作として、基準動作ごとに、認識された各部位ごとの関節角を対応付けて、基準動作姿勢データベース24に格納する。
[学習処理]
次に、図12のフローチャートを参照して、学習装置31により実行される学習処理について説明する。
ステップS111において、学習部42は、サンプル画像による学習の対象となる基準動作を特定する。この基準動作としては、例えばチャンネル操作が、ユーザにより入力された情報により特定される。
なお、精度の高い基準動作姿勢データベース24を生成するためには、登録されるサンプル数を増やす必要があるので、テレビジョン受像機1が有する所定の機能に対応する所定のジェスチャを行っている同一人物又は別人物のサンプル画像をできるだけ多く用意すると好適である。
ステップS112において、画像取得部41は、サンプル画像の画像データを取得する。
このサンプル画像としては、例えばチャンネル操作などのテレビジョン受像機1が有する所定の機能に対応する所定のジェスチャを行っている人が含まれる画像が取得される。
ステップS113において、学習部42は、画像取得部41により取得された画像データに基づいて、動作姿勢認識処理を実行する。この動作姿勢認識処理は、図5のフローチャートを参照して説明した処理と同様であるため、ここでは、その詳細な説明は省略するが、ジェスチャを行っている人の身体の各部位ごとの関節角が認識される。
このようにして、動作姿勢認識処理が実行され、画像取得部41から入力される画像データから、各部位ごとの関節角が求められると、ステップS114において、学習部42は、所定のジェスチャにより認識される一連の入力動作が終了したか否かを判定する。
ステップS114において、一連の入力動作が終了していないと判定された場合、処理は、ステップS112に戻り、上述したステップS112乃至S114が繰り返され、画像取得部41によって、次のフレームとなる入力画像が順次取得される。続いて、順次取得される入力画像に対して、学習部42による動作姿勢認識処理が実行され、画像取得部41から順次入力される画像データから、各部位ごとの関節角が時系列で求められる。
そして、一連の入力動作が終了したと判定された場合(ステップS114の「Yes」)、処理は、ステップS115に進む。
ステップS115において、学習部42は、登録対象となる基準動作と、一連の入力動作による時系列で得られた各部位ごとの関節角とを対応付けて、基準動作姿勢データベース24に格納し、登録する。
例えば、チャンネル操作などの同一のジェスチャを複数人に行わせ、それにより得られるサンプル画像の画像データに対して、この学習処理を実行することで、登録対象となる基準動作に対して、複数人分の各部位ごとの関節角が時系列で得られることになる。なお、各人について、時系列で得られる関節角の時間長は、各々が個別にジェスチャを行っているため、ほとんどの場合一致せず、それらの時間長を合わせる必要がある。従って、複数人分得られる関節角の時間長を正規化してから、正規後の関節角の平均を時系列で求めて、その平均の関節角を、基準動作に対応付けて登録することになる。
ただし、正規化をせずに、そのまま時間長で、各人の時系列で得られる関節角を、基準動作に対応付けて登録してもよい。この場合、チャンネル操作などの所定のジェスチャに対して、複数の基準動作が存在することになるが、入力動作に最も類似した基準動作が特定されることになる。
これにより、基準動作姿勢データベース24には、チャンネル操作などの基準動作1,2,・・・,nと、時系列に並べられた右手首関節角や右ひじ関節角などの関節角とが対応付けられて格納される。
以上のようにして、学習処理が行われ、基準動作姿勢データベース24に、基準動作が登録される。
<2.第2の実施の形態>
[動作姿勢支援システム]
図13は、テレビジョン受像機1とサーバ51からなる動作姿勢支援システムの構成の例を示す図である。
図13において、図1と同様の箇所には同一の符号が付してあり、その説明は適宜省略する。すなわち、図13のテレビジョン受像機1には、図1のテレビジョン受像機1と比べて、基準動作姿勢データベース24の代わりに、通信部17が設けられている。
動作姿勢評価部23は、基準動作に関する情報が必要となる場合、その情報を取得するための要求(以下、基準動作取得要求という)を、通信部17に供給する。通信部17は、動作姿勢評価部23から供給される基準動作取得要求を、ネットワーク52を介してサーバ51に送信する。
サーバ51は、通信部61、制御部62、及び基準動作姿勢データベース24から構成される。
通信部61は、ネットワーク52を介してテレビジョン受像機1から送信されてくる基準動作取得要求を受信し、制御部62に供給する。制御部62は、通信部61から供給される基準動作取得要求に応じて、基準動作姿勢データベース24に格納された基準動作に関する情報を読み出し、通信部61に供給する。通信部61は、制御部62から供給される基準動作に関する情報を、ネットワーク52を介してテレビジョン受像機1に送信する。
通信部17は、ネットワーク52を介してサーバ51から送信されてくる基準動作に関する情報を受信し、動作姿勢評価部23に供給する。
動作姿勢評価部23は、通信部17から供給される基準動作に関する情報などに基づいて、動作姿勢評価処理を実行し、その評価結果を制御部13及び支援画面生成部25に供給する。
以上のように、基準動作姿勢データベース24を、サーバ51により集中的に管理して、テレビジョン受像機1が必要に応じて基準動作に関する情報を取得できるようにすることで、テレビジョン受像機1の処理負荷を軽減することができる。また、基準動作を追加する際には、サーバ51の基準動作姿勢データベース24に対して、基準動作を登録すればよいので、容易に機能を追加することが可能となる。
<3.変形例>
上述した実施の形態では、ユーザによるジェスチャにより操作されるテレビジョン受像機1を一例に説明したが、本発明は、例えば、携帯電話機、ゲーム機、パーソナルコンピュータ、プロジェクタ、再生装置、記録装置、表示装置などにも適用することができる。例えば、本発明を適用した表示装置が、ゴルフのスイング指導に用いられた場合、スイングしているユーザを撮影した画像から得られる入力動作と、あらかじめ登録された基準動作との相違が評価され、その評価結果が表示装置に表示される。これにより、スイング動作の支援を行って、ユーザに対して、確実に正しいスイングをさせることができる。
上述した実施の形態では、順次入力される画像データから、各部位ごとの関節角が時系列で求められる例を説明したが、本発明は、3次元の関節角の代わりに、所定の基準点から所定の関節までの距離を表す位置情報(例えば3次元座標)を用いてもよい。要は、動作や姿勢を一意に決定できる情報であればよく、その情報として、例えば、角度情報(関節角)や位置情報(位置)などが用いられる。なお、上述した実施の形態で説明した、角度情報を用いると、人ごとに異なる手足の長さなどの影響を受けずに、入力動作と基準動作の評価を行うことができる。
上述した実施の形態では、コンテンツを表示している途中に、所定のジェスチャによる操作が行われ(図3のステップS12の「Yes」)、さらに、評価結果を表示する必要があると判定された場合に(図4のステップS34の「Yes」)、評価結果としての動作姿勢支援画面(図9,図10)が表示される例を説明した。この評価結果の表示のタイミングであるが、ジェスチャによる操作が上手くいかないときに表示するだけでなく、例えば、ジェスチャによる操作が行われたら常に表示したり、コンテンツの終了時などの区切りのよいタイミングで表示したりしてもよい。さらに、コンテンツを表示するメイン画面に対して、サブ画面を設けて、そのサブ画面に評価結果(動作姿勢支援画面)を表示してもよい。なお、サブ画面は、表示しているコンテンツが見えなくならないように、所定の位置に移動させたり、所定のサイズに変更したりすることができる。
上述した実施の形態では、評価結果を通知する方法として、動作姿勢支援画面(図9,図10)を表示する例を説明したが、動作姿勢支援画面としては、例えば、ユーザの右手が下がっているとの評価が得られた場合、その実際の位置から正しい位置に右手が動いている様子を表した画像が表示されるようにしてもよい。また、正しい動作や姿勢をとらせるための対象となる部位を表示する際に、その部位を、点滅させたり、色を変更したり、枠で囲ったりすることで強調して、ユーザに対して直感的に認識させるようにしてもよい。
上述した実施の形態では、評価結果を通知する方法として、動作姿勢支援画面を表示する例を説明したが、ユーザに対して評価結果を通知できればよく、例えば、通知手段として、音声出力部を設けて、「右ひじをもう少し上に上げて、ゆっくり動かしてください。」などの音声を出力するようにしてもよい。また、プロジェクタを用いる場合には、評価結果をユーザに投影してもよい。さらに、上述した実施の形態では、入力画像として動画像が入力される例を説明したが、本発明は、静止画像であっても同様に適用することができる。
上述した実施の形態では、基準動作姿勢データベース24には、あらかじめ登録された基準動作と、その基準動作の関節角群が対応付けられて格納されている例を説明したが、それらの基準動作として、大人用若しくは子供用の基準動作や、男性用若しくは女性用の基準動作を用意して、それらの基準動作の関節角群と対応付けて格納してもよい。これにより、ユーザに応じて使用する基準動作姿勢データベース24を変更することができるので、動作姿勢評価処理の精度を向上させることができる。また、ユーザ個人を識別して、ユーザごとの基準動作姿勢データベース24を用意するようにしてもよい。
また、基準動作姿勢データベース24では、基準動作と、その基準動作の関節角群の他に、例えば、所定のジェスチャに関連する画像を紐付けておき、評価結果に応じてその画像を表示させるようにしてもよい。
上述した実施の形態では、基準動作の特定方法(図6のステップS71)として、基準動作姿勢データベース24に格納された基準動作の関節角の中から、入力動作の関節角の時間的な変化と同一又は類似した変化をする基準動作の関節角を検索して特定する方法を説明したが、他の特定方法によって特定してもよい。このような特定方法としては、例えば、基準動作を特定した後に、特定された基準動作の関節角と入力動作の関節角との距離計算を行うのではなく、基準動作を特定する前に、複数の基準動作1乃至Nの関節角と入力動作の関節角との距離計算を行う方法がある。この特定方法であると、1つの入力動作に対して、N個の基準動作との距離が求められるので、N個の基準動作の中から、その距離が最も近い基準動作を特定することができる。
また、基準動作の特定方法としては、ユーザにより入力された情報に基づいて、対象となる基準動作を特定してもよい。
上述した実施の形態では、カメラ2は、テレビジョン受像機1の上部に取り付けられ、その前方に存在するユーザを撮影する例を説明したが、カメラ2は任意の取り付け位置に設置することができる。例えば複数のカメラを用意して、それらのカメラが、ユーザの正面だけでなく、側面や背面などを撮影可能な位置に設置されるようにしてもよい。
[本発明を適用したコンピュータの説明]
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、又は、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、プログラム記録媒体からインストールされる。
図14は、上述した一連の処理をプログラムにより実行するコンピュータの構成の例を示す図である。
このコンピュータ100において、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107、ハードディスクや不揮発性のメモリなどよりなる記憶部108、ネットワークインタフェースなどよりなる通信部109、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア111を駆動するドライブ110が接続されている。
以上のように構成されるコンピュータ100では、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105及びバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
また、システムとは、複数の装置により構成される装置全体を表すものである。
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
1 テレビジョン受像機, 2 カメラ, 11 アンテナ, 12 チューナ, 13 制御部, 14 画像処理部, 15 表示部, 16 動作姿勢評価支援部, 17 通信部, 21 画像取得部, 22 動作姿勢認識部, 23 動作姿勢評価部, 24 基準動作姿勢データベース, 25 支援画面生成部, 31 学習装置, 41 画像取得部, 42 学習部, 51 サーバ, 52 ネットワーク, 61 通信部, 62 制御部, 100 コンピュータ, 101 CPU

Claims (7)

  1. 人を含む入力画像から、その人の身体の所定の部位を時系列で認識する認識手段と、
    時系列で認識された入力部位の動作と、基準となる基準部位の動作との相違を、時系列で認識された前記入力部位に含まれる関節の角度を表す3次元の角度と、前記基準部位に含まれる関節の角度を表す3次元の角度との差分に関する時系列の差分情報を加算して求められた距離で評価する評価手段と、
    前記入力部位に含まれる関節に対して求められた距離が所定の閾値以上となる関節を含んでいる前記入力部位については、前記基準部位の動作に対する前記入力部位の動作の相違に関する情報を通知する通知手段と
    を備える情報処理装置。
  2. 前記通知手段は前記基準部位に含まれる関節の角度に対する前記入力部位に含まれる関節の角度の相違に関する情報を表示する
    請求項1に記載の情報処理装置。
  3. 前記通知手段は、前記入力部位に対して、前記基準部位の関節群を結んだガイド線又は前記基準部位の関節群に対応する部位画像を重畳させて表示する
    請求項2に記載の情報処理装置。
  4. 前記通知手段は、前記基準部位に含まれる関節の角度に対する前記入力部位に含まれる関節の角度の相違に対応するメッセージを表示する
    請求項2に記載の情報処理装置。
  5. 前記入力画像は、動画像であり、
    前記評価手段は、時系列で得られる前記入力部位に含まれる関節の角度で特定される入力動作の時間長と、前記基準部位に含まれる関節の角度で特定される基準動作の時間長とを比較して、前記基準動作に対する前記入力動作の速度の相違を評価し、
    前記通知手段は、評価された前記速度の相違に関する情報を表示する
    請求項2に記載の情報処理装置。
  6. 情報処理装置が、
    人を含む入力画像から、その人の身体の所定の部位を時系列で認識し、
    時系列で認識された入力部位の動作と、基準となる基準部位の動作との相違を、時系列で認識された前記入力部位に含まれる関節の角度を表す3次元の角度と、前記基準部位に含まれる関節の角度を表す3次元の角度との差分に関する時系列の差分情報を加算して求められた距離で評価し、
    前記入力部位に含まれる関節に対して求められた距離が所定の閾値以上となる関節を含んでいる前記入力部位については、前記基準部位の動作に対する前記入力部位の動作の相違に関する情報を通知する
    ステップを含む情報処理方法。
  7. 人を含む入力画像から、その人の身体の所定の部位を時系列で認識する認識手段と、
    時系列で認識された入力部位の動作と、基準となる基準部位の動作との相違を、時系列で認識された前記入力部位に含まれる関節の角度を表す3次元の角度と、前記基準部位に含まれる関節の角度を表す3次元の角度との差分に関する時系列の差分情報を加算して求められた距離で評価する評価手段と、
    前記入力部位に含まれる関節に対して求められた距離が所定の閾値以上となる関節を含んでいる前記入力部位については、前記基準部位の動作に対する前記入力部位の動作の相違に関する情報を通知する通知手段と
    して、コンピュータを機能させるためのプログラム。
JP2010215680A 2010-09-27 2010-09-27 情報処理装置及び方法、並びにプログラム Active JP5881136B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010215680A JP5881136B2 (ja) 2010-09-27 2010-09-27 情報処理装置及び方法、並びにプログラム
US13/233,351 US9031327B2 (en) 2010-09-27 2011-09-15 Information processing device, method, and program that recognizes a predetermined part of a body
CN2011102909161A CN102542247A (zh) 2010-09-27 2011-09-20 信息处理设备、信息处理方法以及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010215680A JP5881136B2 (ja) 2010-09-27 2010-09-27 情報処理装置及び方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2012066026A JP2012066026A (ja) 2012-04-05
JP2012066026A5 JP2012066026A5 (ja) 2013-09-19
JP5881136B2 true JP5881136B2 (ja) 2016-03-09

Family

ID=45870737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010215680A Active JP5881136B2 (ja) 2010-09-27 2010-09-27 情報処理装置及び方法、並びにプログラム

Country Status (3)

Country Link
US (1) US9031327B2 (ja)
JP (1) JP5881136B2 (ja)
CN (1) CN102542247A (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102025752B1 (ko) * 2012-07-30 2019-11-05 삼성전자주식회사 사용자의 자세에 따라 콘텐트를 제공하는 전자기기 및 콘텐트 제공 방법
KR101459445B1 (ko) * 2012-12-18 2014-11-07 현대자동차 주식회사 차량내 손목각을 이용한 사용자 인터페이스 조작 시스템 및 방법
JP2016506769A (ja) * 2013-01-11 2016-03-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 対象の可動域を評価するシステム及び方法
CN104918543B (zh) * 2013-01-11 2021-07-06 皇家飞利浦有限公司 用于评估对象的运动范围的系统和方法
WO2014112632A1 (ja) * 2013-01-18 2014-07-24 株式会社東芝 動作情報処理装置及び方法
TWI505228B (zh) * 2013-05-20 2015-10-21 Univ Kaohsiung Medical 一種自主復健動作量化評估系統
CN103735268B (zh) * 2013-09-29 2015-11-25 沈阳东软医疗系统有限公司 一种体位检测方法及系统
KR102085180B1 (ko) * 2013-10-08 2020-03-05 삼성전자주식회사 몸 방향 추정 방법, 상기 방법을 기록한 컴퓨터 판독 가능 저장매체 및 몸 방향 추정 장치.
DE102013017425A1 (de) * 2013-10-19 2015-05-07 Drägerwerk AG & Co. KGaA Verfahren für die Erkennung von Gesten eines menschlichen Körpers
KR101394276B1 (ko) * 2013-12-31 2014-05-13 (주) 골프존 뎁스 영상 분석을 통한 사용자의 골프 스윙 자세 분석을 위한 영상 생성 방법과 이를 이용한 골프 스윙 자세 분석 방법 및 장치
KR101543150B1 (ko) * 2014-02-27 2015-08-07 주식회사 에스원 행동 인식 장치 및 그의 행동 인식 방법
KR101515845B1 (ko) 2014-08-07 2015-05-04 스타십벤딩머신 주식회사 동작 인식 방법 및 동작 인식 장치
KR102299364B1 (ko) * 2014-08-25 2021-09-07 삼성전자주식회사 웨어러블 디바이스의 센서가 측정하는 임피던스 값을 보정하는 방법 및 장치
CN105718783B (zh) * 2014-12-03 2020-03-27 阿里巴巴集团控股有限公司 验证码交互方法、装置、客户端和服务器
KR101636171B1 (ko) * 2014-12-19 2016-07-05 동국대학교 경주캠퍼스 산학협력단 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템
JP6664920B2 (ja) * 2015-09-30 2020-03-13 グローリー株式会社 監視カメラシステム及び監視方法
EP3724813A1 (en) * 2017-12-13 2020-10-21 Humanising Autonomy Limited Systems and methods for predicting pedestrian intent
CN109992093A (zh) * 2017-12-29 2019-07-09 博世汽车部件(苏州)有限公司 一种手势比较方法以及手势比较系统
CN108289180B (zh) * 2018-01-30 2020-08-21 广州市百果园信息技术有限公司 根据肢体动作处理视频的方法、介质和终端装置
TWI713053B (zh) * 2018-04-10 2020-12-11 仁寶電腦工業股份有限公司 動作評估系統、其方法及非暫態電腦可讀取記錄媒體
JP6906273B2 (ja) * 2018-06-19 2021-07-21 Kddi株式会社 映像データから人の骨格位置の変位の軌跡を描写するプログラム、装置及び方法
JP7138931B2 (ja) * 2018-09-28 2022-09-20 株式会社Axive 姿勢解析装置、姿勢解析方法、及びプログラム
JP7023004B2 (ja) * 2019-09-04 2022-02-21 ヨクト株式会社 運動解析システム、運動解析プログラム、及び運動解析方法
CN111553229B (zh) * 2020-04-21 2021-04-16 清华大学 基于三维骨骼与lstm的工人动作识别方法及装置
WO2023223880A1 (ja) * 2022-05-19 2023-11-23 パナソニックIpマネジメント株式会社 姿勢評価装置、個室ブース、及び姿勢評価方法
KR102596555B1 (ko) * 2022-08-29 2023-10-31 주식회사 힐링사운드 근골격계 질환 운동 치료 관리 시스템 및 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3565936B2 (ja) * 1995-02-08 2004-09-15 富士通株式会社 運動支援システム及び運動支援方法
JP4021066B2 (ja) * 1998-08-28 2007-12-12 三菱電機株式会社 運動支援装置及び運動支援プログラムが記録された記憶媒体
JP3593929B2 (ja) * 1999-09-03 2004-11-24 日本電気株式会社 動画像符号化方法及び動画像符号化装置
JP2001084375A (ja) * 1999-09-13 2001-03-30 Atr Media Integration & Communications Res Lab 動作検証システムおよび非接触マニピュレーションシステム
US6533675B2 (en) * 2001-06-11 2003-03-18 Conley Jack Funk Interactive method and apparatus for tracking and analyzing a golf swing
DE10226257A1 (de) * 2002-06-13 2003-12-24 Bosch Gmbh Robert Verfahren zur Detektion einer Person in einem Raum
JP4692371B2 (ja) * 2006-04-26 2011-06-01 オムロン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム
JP4267648B2 (ja) * 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
US8351646B2 (en) * 2006-12-21 2013-01-08 Honda Motor Co., Ltd. Human pose estimation and tracking using label assignment
JP2009018158A (ja) 2007-06-14 2009-01-29 Hideo Hirose 姿勢モニタシステムおよび身体モニタシステム
JP5186656B2 (ja) 2008-09-03 2013-04-17 独立行政法人産業技術総合研究所 動作評価装置および動作評価方法
JP5495005B2 (ja) 2008-10-03 2014-05-21 日本電気株式会社 パッティングサポート装置、方法、プログラム及び折り畳み型携帯電話機
US7961910B2 (en) * 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model

Also Published As

Publication number Publication date
US9031327B2 (en) 2015-05-12
US20120076428A1 (en) 2012-03-29
JP2012066026A (ja) 2012-04-05
CN102542247A (zh) 2012-07-04

Similar Documents

Publication Publication Date Title
JP5881136B2 (ja) 情報処理装置及び方法、並びにプログラム
CN104820488B (zh) 用户定向式个人信息助理
US7340100B2 (en) Posture recognition apparatus and autonomous robot
US20120259638A1 (en) Apparatus and method for determining relevance of input speech
US20180342009A1 (en) Image processing apparatus, image processing method, and program
JP5757063B2 (ja) 情報処理装置および方法、並びにプログラム
US9154739B1 (en) Physical training assistant system
JP5203281B2 (ja) 人物検出装置、人物検出方法、及び人物検出プログラム
JP5001930B2 (ja) 動作認識装置及び方法
KR102092931B1 (ko) 시선 추적 방법 및 이를 수행하기 위한 사용자 단말
CN111163906B (zh) 能够移动的电子设备及其操作方法
WO2003092291A1 (fr) Dispositif de detection d'objet, serveur de detection d'objet et procede de detection d'objet
WO2020020134A1 (zh) 拍摄方法及移动终端
KR102594938B1 (ko) 인공신경망을 이용한 스포츠 자세를 비교 및 교정하는 장치 및 방법
JP4435212B2 (ja) 姿勢認識装置及び自律ロボット
JPWO2017047182A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2022043264A (ja) 運動評価システム
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
WO2018220963A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5373128B2 (ja) 人物特定装置、人物特定方法及び人物特定プログラム
US20200226787A1 (en) Information processing apparatus, information processing method, and program
JP2010176588A (ja) 端末装置、画像処理方法及びプログラム
JP5092093B2 (ja) 画像処理装置
JP2021135592A (ja) 個体推定装置、個体推定方法、およびプログラム
CN113342157A (zh) 眼球追踪处理方法及相关装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130809

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140324

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140710

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140917

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140926

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20141114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160128

R150 Certificate of patent or registration of utility model

Ref document number: 5881136

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250