JP2012155391A - 姿勢状態推定装置および姿勢状態推定方法 - Google Patents

姿勢状態推定装置および姿勢状態推定方法 Download PDF

Info

Publication number
JP2012155391A
JP2012155391A JP2011011860A JP2011011860A JP2012155391A JP 2012155391 A JP2012155391 A JP 2012155391A JP 2011011860 A JP2011011860 A JP 2011011860A JP 2011011860 A JP2011011860 A JP 2011011860A JP 2012155391 A JP2012155391 A JP 2012155391A
Authority
JP
Japan
Prior art keywords
candidate
region
posture state
extracted
state estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011011860A
Other languages
English (en)
Other versions
JP5715833B2 (ja
Inventor
Kyoko Kawaguchi
京子 川口
Masaki Tanabiki
雅基 田靡
Kensuke Marutani
健介 丸谷
Yuji Sato
雄二 里
Mitsuko Fujita
光子 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011011860A priority Critical patent/JP5715833B2/ja
Priority to US13/820,206 priority patent/US9646381B2/en
Priority to PCT/JP2012/000090 priority patent/WO2012101962A1/ja
Priority to CN201280001912.XA priority patent/CN102971768B/zh
Publication of JP2012155391A publication Critical patent/JP2012155391A/ja
Application granted granted Critical
Publication of JP5715833B2 publication Critical patent/JP5715833B2/ja
Priority to US15/482,010 priority patent/US10600207B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

【課題】関節を有する物体の姿勢状態を高精度に推定することができる姿勢状態推定装置を提供すること。
【解決手段】姿勢状態推定装置100は、関節により接続された複数の部位を有する物体を撮影した画像データに基づいて物体の姿勢状態の推定を行う装置であって、画像データから、部位の部位候補の抽出を行う部位候補抽出部140と、部位候補抽出部140により部位候補が抽出されなかった未抽出部位の一部が、部位候補抽出部140により部位候補が抽出された既抽出部位の陰になっているものと推定して、画像データから未抽出部位の部位候補の抽出を行う補完部位候補抽出部160と、抽出された部位候補に基づいて、物体の姿勢状態の推定を行う姿勢状態推定部170とを有する。
【選択図】図1

Description

本発明は、関節により接続された複数の部位を有する物体を撮影した画像データに基づいて、その物体の姿勢状態の推定を行う姿勢状態推定装置および姿勢状態推定方法に関する。
近年、撮影された動画像の画像データに基づく人の姿勢推定に関する研究が、盛んに行われている。なぜなら、動画像から人の行動をコンピュータ解析により判定することができれば、各種の分野において行われている行動解析を、人手に頼らずに行うことが可能となるからである。行動解析としては、例えば、街頭での異常行動検知、店舗での購買行動分析、工場における作業効率化支援、およびスポーツにおけるフォーム指導が挙げられる。
そこで、単眼カメラにより撮影された画像データに基づいて、人の姿勢状態を推定する技術が、例えば特許文献1に記載されている。特許文献1に記載の技術(以下「従来技術」という)は、まず、撮影画像に含まれる楕円形状または平行線に基づいて、部位候補を抽出する。次に、従来技術は、複数のサンプル画像から統計的に求めた尤度関数を用いて、部位尤度および部位関係尤度を算出する。そして、従来技術は、これらの尤度に基づいて、最適な部位候補の組み合わせを算出する。このような従来技術を用いることにより、どの部位がどの領域に位置するかを特定することができ、人の位置や向きによらずに人の姿勢状態を推定する事ができる。
特開2005−165923号公報
下坂正倫、佐藤真、森武俊、佐藤知正、「単眼画像からの形状特徴を用いた動作認識法」、全国大会講演論文集 第70回平成20年(5)、社団法人情報処理学会、2008年3月13日、p.5−93、p.5−94、 P. Viola and M. Jones, "Rapid Object Detection Using a Boosted Cascade of Simple Features," in Proc. of CVPR, vol.1, December, 2001, ppp.511-518
しかしながら、従来技術は、姿勢状態によっては、これを高精度に推定することができないという課題を有していた。なぜなら、他の部位の陰となっている部位が存在する場合、画像上の形状が楕円形状でなかったり、2本のエッジの一方が取得されなかったりする等して、その部位の部位候補を抽出することができないからである。例えば、左側を向いている人の右上腕が、手前側に位置する左上腕の陰になっている場合を想定する。この場合、従来技術では、右上腕の部位候補を抽出することができず、その結果、例えば、右上腕が左上腕に隠れている姿勢状態と右上腕が胴体に隠れている姿勢状態とを区別することができない。
また、従来技術は、ロボット等の、関節により接続された複数の部位を有する各種の人以外の物体にも適用することが考えられるが、この場合にも同様の問題が起こり得る。
本発明の目的は、関節を有する物体の姿勢状態を高精度に推定することができる姿勢状態推定装置および姿勢状態推定方法を提供することである。
本発明の姿勢状態推定装置は、関節により接続された複数の部位を有する物体を撮影した画像データに基づいて前記物体の姿勢状態の推定を行う姿勢状態推定装置であって、前記画像データから、前記部位の部位候補の抽出を行う部位候補抽出部と、前記部位候補抽出部により前記部位候補が抽出されなかった未抽出部位の一部が、前記部位候補抽出部により前記部位候補が抽出された既抽出部位の陰になっているものと推定して、前記画像データから前記未抽出部位の部位候補の抽出を行う補完部位候補抽出部と、抽出された前記部位候補に基づいて、前記物体の姿勢状態の推定を行う姿勢状態推定部とを有する。
本発明の姿勢状態推定方法は、関節により接続された複数の部位を有する物体を撮影した画像データに基づいて前記物体の姿勢状態の推定を行う姿勢状態推定方法であって、前記画像データから、前記部位の部位候補の抽出を行うステップと、前記部位候補抽出部により前記部位候補が抽出されなかった未抽出部位の一部が、前記部位候補抽出部により前記部位候補が抽出された既抽出部位の陰になっているものと推定して、前記画像データから前記未抽出部位の部位候補の抽出を行うステップと、抽出された前記部位候補に基づいて、前記物体の姿勢状態の推定を行うステップとを有する。
本発明によれば、関節を有する物体の姿勢状態を高精度に推定することができる。
本発明の実施の形態に係る姿勢状態推定装置の構成の一例を示すブロック図 本実施の形態における画像データを説明するための図 本実施の形態における補完部位候補抽出部の構成の一例を示すブロック図 本実施の形態に係る姿勢状態推定装置の動作の一例を示すフローチャート 本実施の形態におけるオメガ形状を説明するための図 本実施の形態における基準線からオメガ形状までの垂直距離を説明するための図 本実施の形態における距離ヒストグラムの一例を示す図 本実施の形態における2値化後の距離ヒストグラムの一例を示す図 本実施の形態における基準部位を示す各種パラメータを説明するための図 本実施の形態における基準部位対応テーブルの内容の一例を示す図 本実施の形態における部位領域対応テーブルの内容の一例を示す図 本実施の形態における部位領域データの内容の一例を示す図 本実施の形態における推定尤度マップの一例を示す図 本実施の形態における対象画像の一例を示す図 本実施の形態におけるエッジの抽出結果の一例を示す図 本実施の形態における部位候補の抽出結果の一例を示す図 本実施の形態における部位候補補完処理の一例を示すフローチャート 本実施の形態における未抽出部位の可動範囲の一例を示す図 本実施の形態における露出領域の推定の第1の例を示す図 本実施の形態における露出領域の推定の第2の例を示す図 本実施の形態における露出領域の推定の第3の例を示す図 本実施の形態における統合された露出領域の一例を示す図 本実施の形態における補完候補領域の一例を示す図 本実施の形態における2値化後の推定尤度マップの一例を示す図
以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
以下の説明において、「部位」とは、人の身体のうち関節によって分割された部分の一まとまりをいうものとする。すなわち、部位は、例えば、頭、肩、右上腕、右前腕、左上腕、左前腕、右膝上、右膝下、左膝上、および左膝下である。また、「部位領域」とは、画像においてある部位が占め得る領域、つまり、部位の可動範囲であるものとする。
また、「部位軸」とは、部位の長手方向の仮想的な中心軸であり、具体的には、部位を基準部位側の他の第1の部位と接続する第2の関節と、部位を他の第2の部位と接続する第2の関節または部位の端部とを結ぶ線分をいうものとする。部位軸は、例えば、第1の関節の座標情報と、角度情報と、部位長さとの組により定義されても良いし、第1の関節の座標情報と第2の関節もしくは部位の端部の座標情報とにより定義されても良い。例えば、右上腕の部位軸の位置、向き、および長さは、右上腕の骨の中心軸の位置、向き、および長さにほぼ一致する。
また、「部位太さ」とは、部位の部位軸周りの太さである。
また、「部位候補」とは、部位の位置の候補であり、画像データから推定される部位の位置である。
また、「姿勢状態」とは、着目すべき2つ以上の部位の姿勢(位置およびまたは角度)の組み合わせの種別をいうものとし、例えば、「右腕が曲がっている」、「直立状態である」等である。ここで、「姿勢」とは、2次元座標系または3次元座標系における、部位を接続する関節の位置、または、関連する各部位の長さおよび部位間の角度等の情報によって表現されるものとする。したがって、「姿勢状態推定」とは、これらの情報を推定することにより、姿勢状態を推定することをいう。なお、上述の位置、長さ、および角度は、人の所定の身体部位を基準とした相対値により表現されても良いし、2次元座標系または3次元座標系における絶対値により表現されて良い。
なお、本実施の形態では画素を単位として説明するが、姿勢状態推定装置100は、所定のサイズに相当する複数の画素の一まとまりを、それぞれ一つの画素とみなして、同様の処理を行っても良い。これにより、姿勢状態推定装置は、処理を高速に行うことができる。複数の画素をひとつの画素とみなす場合、複数の画素の重心となる画素の値をその複数の画素の値として用いても良いし、複数の画素の値の平均値を、その複数の画素の値として用いても良い。
図1は、本発明の実施の形態に係る姿勢状態推定装置の構成を示すブロック図である。説明の簡便化のため、姿勢状態推定装置の周辺機器についても併せて図示する。
図1において、姿勢状態推定装置100は、身体制約情報格納部110、画像データ取得部120、部位領域推定部130、部位候補抽出部140、部位候補判断部150、補完部位候補抽出部160、および姿勢状態推定部170を有する。
身体制約情報格納部110は、人の体格や姿勢に関する制約条件(以下「身体制約情報」という)を、予め格納する。身体制約情報は、後述の部位領域の推定や部位候補の抽出に用いられる情報である。身体制約情報の具体的な内容は、部位領域の推定手法や部位候補の抽出手法により異なるため、後述する。
画像データ取得部120は、所定の3次元座標空間に設置された単眼カメラ200によって撮像された画像の画像データを、有線通信または無線通信により取得し、部位領域推定部130へ出力する。なお、本実施の形態では、単眼カメラ200はビデオカメラであるものとする。画像データ取得部120は、単眼カメラ200において連続的にリアルタイムで撮影された動画像データを入力し、動画像データを構成する各静止画像データを、順次、部位領域推定部130へ出力する。以下の説明では、画像データは、一人のみの画像を含むものとして説明するが、この限りではなく、複数人の画像を含んでも良いし、人の画像を含んでいなくても良い。
図2は、画像データを説明するための図である。
図2に示すように、例えば、単眼カメラ200の位置を地面に投射した位置を原点Oとする3次元の座標系410を設定する。座標系410は、例えば、垂直方向をY軸とし、Y軸および単眼カメラ200の光軸411と直交する方向をX軸とし、X軸およびY軸に直交する方向をZ軸とする。
単眼カメラ200の設置角度は、例えば、Y軸と光軸411との間の角度θにより表される。そして、単眼カメラ200は、単眼カメラ200の画角φの範囲に含まれるある平面412に焦点(フォーカス)を合わせて撮像を行う。このように撮影された画像の画像データは、姿勢状態推定装置100へ送信される。
図1の部位領域推定部130は、画像データ取得部120から入力された画像データに基づいて、各部位の部位領域を推定する。具体的には、部位領域推定部130は、画像データから、人の基準部位の位置および向きを推定する。「基準部位」とは、他の部位より前にその位置および向きの推定が行われ、その推定結果が他の部位の位置および向きの推定に影響を与える部位である。画像取得空間において、安定して映像が得られる部位とすることが望ましい。そして、部位領域推定部130は、推定した基準部位の位置および向きを基準として、各部位の部位領域を推定する。
本実施の形態では、基準部位は、人の頭部および肩部とする。また、基準部位の向きは、肩部の向きとし、肩部の向きは、右肩部と左肩部とを結ぶ直線の方向とする。そして、部位領域推定部130は、画像データと、部位毎の部位領域を示す情報(以下「部位領域データ」という)とを、部位候補抽出部140へ出力する。本実施の形態では、図2に示すように上から画像を取得するようにしている。このため、基準部位を人の頭部および肩部とすることにより、最も安定して推定を行うことができる。
部位候補抽出部140は、入力された画像データから、入力された部位領域データに基づいて、各部位候補を抽出する。そして、部位候補抽出部140は、画像データと、抽出した部位候補を示す情報(以下「部位候補情報」という)とを、部位候補判断部150へ出力する。なお、本実施の形態では、部位候補は、画像上の位置、つまり、画像の2次元座標系により表現されるものとし、部位候補情報は、各部位が位置することの尤もらしさの分布を示す尤度マップであるものとする。
すなわち、本実施の形態では、部位候補抽出部140は、部位領域推定部130から入力された部位領域データが示す部位領域以外の領域については、その部位領域に対応する指定部位が位置することの尤もらしさを低くした尤度マップを生成する。以下、画像データに基づいて生成された尤度マップは、「推定尤度マップ」という。
部位候補判断部150は、姿勢状態推定に用いられるべき部位のうち、どの部位が既抽出部位であり、どの部位が未検出部位であるかを判断する。ここで、「既抽出部位」とは、部位候補抽出部140により部位候補が抽出された部位である。また、「未抽出部位」とは、部位候補抽出部140により部位候補が抽出されなかった部位である。そして、部位候補判断部150は、画像データおよび部位候補情報と共に、既抽出部位を示す既抽出部位識別子と、未抽出部位を示す未抽出部位識別子とを、補完部位候補抽出部160へ出力する。
補完部位候補抽出部160は、未抽出部位の一部が、既抽出部位の陰になっているものと推定して、画像データから未抽出部位の部位候補の抽出を行う。そして、補完部位候補抽出部160は、抽出結果を部位候補情報(推定尤度マップ)に反映させて部位候補情報を補完し、補完後の部位候補情報を姿勢状態推定部170へ出力する。
図3は、補完部位候補抽出部160の構成の一例を示すブロック図である。
図3に示すように、補完部位候補抽出部160は、前景部位推定部161、露出領域推定部162、露出領域統合部163、エッジ抽出領域決定部164、エッジ抽出部165、補完候補領域決定部166、および部位候補情報修正部167を有する。なお、補完部位候補抽出部160の各部は、画像データ、部位候補情報、既抽出部位識別子、未抽出部位識別子、および身体制約情報を、それぞれ取得可能であるものとする。
前景部位推定部161は、入力される既抽出部位識別子および未抽出部位識別子に基づいて、未抽出部位毎に前景部位を推定する。ここで、「前景部位」とは、画面上で未抽出部位と重なり、その陰に未抽出部位の一部が隠れ得る既抽出部位である。具体的には、前景部位推定部161は、各既抽出部位の部位軸を推定し、未抽出部位の可動範囲とその部位軸とが重なる既抽出部位を、前景部位として特定する。そして、前景部位推定部161は、各既抽出部位の部位軸を露出領域推定部162へ出力すると共に、各前景部位を未抽出部位の未抽出部位識別子と対応付けて露出領域推定部162へ出力する。
露出領域推定部162は、未抽出部位毎および前景部位毎に、その露出領域を推定する。ここで、「露出領域」とは、未抽出部位の一部が前景部位の陰になっている場合に、その未抽出部位が露出し得る領域である。具体的には、露出領域推定部162は、前景部位の部位軸とその前景部位の部位太さとから、前景部位のエッジを推定する。また、露出領域推定部162は、前景部位のエッジと、未抽出部位の部位太さとから、未抽出部位のエッジの範囲を推定し、この範囲を露出領域とする。そして、露出領域推定部162は、推定した露出領域を、未抽出部位の未抽出部位識別子および前景部位を示す前景部位識別子と対応付けて、露出領域統合部163へ出力する。
露出領域統合部163は、未抽出部位毎に、全ての前景部位の露出領域を統合した露出領域を生成する。具体的には、露出領域統合部163は、全ての前景部位の露出領域の総和(論理和)から、全ての既抽出部位の部位候補を除外した領域を、統合された露出領域とする。そして、露出領域統合部163は、統合された露出領域を、エッジ抽出領域決定部164へ出力する。
エッジ抽出領域決定部164は、未抽出部位毎に、入力された露出領域と、未抽出部位の可動範囲とから、エッジ抽出の対象となるエッジ抽出領域を決定する。具体的には、エッジ抽出領域決定部164は、未抽出部位の露出領域と可動範囲とが重なる領域(論理積)を、エッジ抽出領域とする。そして、エッジ抽出領域決定部164は、決定したエッジ抽出領域を、エッジ抽出部165へ出力する。
エッジ抽出部165は、未抽出部位毎に、エッジ抽出領域において、エッジの抽出を行う。具体的には、エッジ抽出部165は、身体制約情報から、エッジの角度を推定し、推定した角度の直線成分を画像データのエッジ抽出領域から抽出する。そして、エッジ抽出部165は、抽出された直線成分からエッジを抽出し、抽出したエッジと、未抽出部位がエッジのどちら側に位置するかを示す位置情報とを、補完候補領域決定部166へ出力する。
補完候補領域決定部166は、未抽出部位毎に、入力されたエッジおよび位置情報に基づいて、未抽出部位の一部が露出していると推定される領域を、補完候補領域として決定する。具体的には、補完候補領域決定部166は、エッジを1辺とし、位置情報が示す側に、その未抽出部位の部位太さの幅を有する矩形領域を、補完候補領域として算出する。すなわち、補完候補領域は、既抽出部位にその一部が隠れて未抽出領域が位置することの尤もらしさが高い領域である。そして、補完候補領域決定部166は、決定した補完候補領域を、未抽出部位の識別情報と対応付けて、部位候補情報修正部167へ出力する。
部位候補情報修正部167は、未抽出部位毎に、その未抽出部位が対応する補完候補領域に位置することの尤もらしさが高くなるように、部位候補情報(推定尤度マップ)を修正する。具体的には、部位候補情報修正部167は、部位候補判断部150から入力された推定尤度マップのうち、補完候補領域の尤度値を増加させる。
図1の姿勢状態推定部170は、部位候補抽出部140から入力された部位候補情報に基づいて、画像データに含まれる人(以下「被写体」という)の姿勢状態の推定を行う。具体的には、姿勢状態推定部170は、姿勢状態毎に、その姿勢状態にある基準モデルから学習された尤度マップ(以下「学習尤度マップ」という)を、予め保持している。そして、姿勢状態推定部170は、推定尤度マップといずれかの学習尤度マップとの一致度が高いとき、該当する学習尤度マップに対応する姿勢状態を、被写体の姿勢状態として推定する。そして、姿勢状態推定部170は、ディスプレイ装置等の情報出力装置300に対して、有線通信または無線通信により情報を送信し、ユーザに対して推定結果を通知する。なお、姿勢状態推定部170は、姿勢状態だけでなく、被写体の向き(例えば、右に向いて座っているか、左に向いて座っているか)を併せて推定しても良い。
姿勢状態推定装置100は、CPU(central processing unit)およびRAM(random access memory)等の記憶媒体等を含むコンピュータである。すなわち、姿勢状態推定装置100は、記憶する制御プログラムをCPUが実行することによって動作する。
このような姿勢状態推定装置100は、未抽出部位の一部が、既抽出部位の陰になっている場合に、その旨を推定して、画像データからその未抽出部位の部位候補を抽出することができる。したがって、姿勢状態推定装置100は、画像上の形状が楕円形状でない場合や、2本のエッジの一方が取得されない場合でも、その部位の部位候補を抽出することができる。これにより、姿勢状態推定装置100は、姿勢状態を、従来技術よりも高精度に推定することが可能となる。
次に、姿勢状態推定装置100の動作について説明する。
図4は、姿勢状態推定装置100の動作の一例を示すフローチャートである。
まず、ステップS1100において、部位領域推定部130は、画像データ取得部120を介して、単眼カメラ200から、静止画像1枚分の画像データを取得する。
そして、ステップS1200において、部位領域推定部130は、基準部位の位置および向きを推定する処理(以下「基準部位推定処理」という)を行う。
ここで、基準部位推定処理の詳細の例について説明する。基準部位推定処理は、大きく分けて、人の肩関節位置を推定する第1の処理と、人の胴体の向きを推定する第2の処理とから成る。
まず、人の肩関節位置を推定する第1の処理について説明する。
部位領域推定部130は、画像データから、オメガ形状を検出し、オメガ形状に基づいて肩関節位置を推定する。
図5は、オメガ形状を説明するための図である。
オメガ(Ω)形状は、人の頭部および肩部を含む領域の特徴的なエッジ形状であり、人の身体のうち、監視カメラ等を用いた場合に最も安定して撮影される確率が高い形状である。また、頭部および肩部は、人の胴体との相対位置の変化が少ない。したがって、部位領域推定部130は、オメガ形状をまず検出して人の頭部および肩部の位置を検出し、これらを基準として他の部位の部位領域を推定することにより、部位領域を高精度に推定する。
オメガ形状は、例えば、充分な数のサンプル画像を用いてReal AdaBoost等により作成された検出器を用いて、検出することができる。検出器に用いられる特徴量としては、例えば、HoG(histogram of gradient)特徴量、Sparse特徴量、Haar特徴量等を用いることができる。また、学習方法としては、例えば、Boosting手法のほか、SVM(サポートベクタマシン)、ニューラルネットワークなどを利用することも可能である。
部位領域推定部130は、画像データの画像420から、まず、オメガ形状421を検出する。ここで、オメガ領域422の画素のうち、オメガ形状421を構成する画素(エッジ部分の画素)はデジタル信号「1」であり、他の画素はデジタル信号「0」であるものとする。そして、オメガ形状421を包含する比較的小さい矩形領域を、オメガ領域422として決定する。ここで、オメガ領域422の下の辺を基準線423という。
部位領域推定部130は、オメガ領域422に含まれるノイズを取り除く。具体的には、部位領域推定部130は、オメガ領域422の画素のうち、オメガ形状421に囲まれた領域に存在するデジタル信号「1」を、ノイズとして、これをデジタル信号「0」に修正する。この修正は、例えば、いわゆるクロージング処理を行うことにより可能である。クロージング処理とは、所定の画素分または所定の割合で、画像領域を拡大また縮小する処理である。この修正により、後述の距離ヒストグラムの精度を向上させることができる。
そして、部位領域推定部130は、基準線423からオメガ形状421までの垂直距離を、基準線423の各位置について取得する。
図6は、基準線423からオメガ形状421までの垂直距離を説明するための図である。
図6に示すように、部位領域推定部130は、基準線423の方向をX軸とし、基準線423の垂直方向をY軸として扱う。部位領域推定部130は、例えば、基準線423の左端からの画素数を、X座標値とする。そして、部位領域推定部130は、基準線423からオメガ形状421を構成する画素までのY軸方向の画素数、つまり、オメガ形状421までの垂直距離を、垂直距離d(X)として取得する。オメガ形状421を構成する画素とは、例えば、デジタル信号「1」の画素のうち、基準線423から直近のものである。
そして、部位領域推定部130は、n個(nは正の整数)の垂直距離d(X)のデータをX座標に対応付けた距離ヒストグラムを生成する。
図7は、部位領域推定部130が図5に示すオメガ領域422に基づいて生成する距離ヒストグラムの一例を示す図である。
図7に示すように、部位領域推定部130は、XY座標系に、垂直距離d(X)をY軸の値として、垂直距離d(X)の分布を示す距離ヒストグラム430を生成する。距離ヒストグラム430は、肩部に対応する形状で盛り上がり、そのうち、頭部の中心部に対応する範囲で突出した形状となる。
そして、部位領域推定部130は、生成した距離ヒストグラム430に対して、所定の閾値Thを適用して、2値化処理を行う。具体的には、部位領域推定部130は、垂直距離d(X)が閾値Th以上となっているX座標のY座標値を、「1」に置き換え、垂直距離d(X)が閾値Th未満となっているX座標のY座標値を、「0」に置き換える。閾値Thは、オメガ領域422において、高い確率で、肩部上端の垂直距離d(X)よりも大きく、頭部上端の垂直距離d(X)よりも小さくなる値が設定される。なお、2値化処理はこれに限定されるものではなく、例えば、いわゆる大津の2値化(大津の手法)等、他の手法としても良い。
図8は、図7に示す距離ヒストグラム430を2値化処理した結果の一例である。
図8に示すように、「1」となる範囲441は、頭部の中央部分の画像領域(以下「頭領域」という)のX座標の範囲を示すことになる。また、「1」となる範囲441を含む全体の範囲442は、肩部の画像領域(以下「肩領域」という)のX座標の範囲を示すことになる。したがって、部位領域推定部130は、画像データの画像420のうち、オメガ領域422のX軸方向範囲を、肩領域のX軸方向範囲として抽出し、「1」となる範囲441のX軸方向範囲を、頭領域のX軸方向範囲として抽出する。
そして、部位領域推定部130は、抽出した肩領域および頭領域に基づいて、基準部位の位置および向きを示す各種パラメータを算出する。
図9は、基準部位を示す各種パラメータを説明するための図である。
ここで、部位領域推定部130は、図9に示すように、基準部位の位置を示す記号(括弧内はXY座標系におけるパラメータ)として、H(xh,yh)、RSE(x_rse)、RD(x_rd)、RS(x_rs,y_rs)、RSU(y_rsu)、およびLSを用いるものとする。Hは、頭部の重心位置である。RSEは、右肩の端部の位置である。RDは、頭部の重心から右肩の端部までのX軸方向の距離である。RSは、右肩の関節の位置(以下「右肩位置」という)である。RSUは、右肩の頂部の位置である。LSは、左肩の関節の位置(以下「左肩位置」という)である。
部位領域推定部130は、例えば、以下のようにして各パラメータの値を算出する。
まず、部位領域推定部130は、2値化処理の結果に基づいて抽出した肩領域から、人(の胴体)が単眼カメラ200側に向いているか否かに基づいて、右肩領域を決定する。部位領域推定部130は、頭領域の色情報の肌色成分が所定の閾値以上となっているか否かに基づいて、人が単眼カメラ200側に向いているか否かを判断する。ここでは、人は単眼カメラ200側に向いており、画像に向かって左側の肩領域が、右肩領域に決定されたものとする。
次に、部位領域推定部130は、右肩領域の重心位置を、右肩位置RS(x_rs,y_rs)として算出する。また、部位領域推定部130は、頭部の重心位置H(xh,yh)を算出し、重心位置H(xh,yh)と基のオメガ形状421とのY軸方向の距離(以下「頭部高さΔh」という)用いて、右肩位置RS(x_rs,y_rs)を算出しても良い。具体的には、部位領域推定部130は、例えば、頭部高さΔhに対して予め定められた比となる値を、頭部の重心位置Hから右肩位置RSまでのX軸方向の距離(xh−x_rs)とすれば良い。また、部位領域推定部130は、例えば、肩の高さから頭部高さΔhの半分の値Δh/2だけ低い位置を、右肩位置RSのY座標y_rsとしても良い。
更に、部位領域推定部130は、オメガ形状421のエッジの傾き(つまり距離ヒストグラムの変化率)が閾値を越えた点を、右肩の端部の位置RSE(x_rse)として算出する。そして、部位領域推定部130は、頭部の重心位置Hと右肩の端部の位置RSEとのX軸方向の距離RD(x_rd)を算出する。
最後に、部位領域推定部130は、頭部の重心位置HからX軸方向において距離RDの80%の位置に、右肩位置RSがあるものと推定する。すなわち、部位領域推定部130は、右肩位置RSのX座標x_rsを、 x_rs=x_rse+0.2×RD により算出する。また、部位領域推定部130は、右肩位置RSを通り垂直な直線(Y軸に並行な直線)とオメガ形状421のエッジとの交点を、右肩の頂部の位置RSU(y_rsu)として算出する。そして、部位領域推定部130は、右肩位置RSのY座標y_rsを、 y_rs=y_rsu−0.2×RD により算出する。
また、部位領域推定部130は、同様にして、左肩位置LSについても算出する。
なお、各パラメータの算出手法は、上述の例に限定されるものではない。例えば、肩幅(例えば右肩位置RSと左肩位置LSとの距離)等の部位長が、身体制約情報の1つとして身体制約情報格納部110に格納されている場合、部位領域推定部130は、その身体制約情報を用いて各パラメータを算出しても良い。
次に、人の胴体の向きを推定する第2の処理について説明する。
本実施の形態では、部位領域推定部130は、身体制約情報格納部110に身体制約情報の1つとして予め保持された基準部位対応テーブルを参照して、第2の処理を行うものとする。
基準部位対応テーブルは、頭部の重心位置Hと、右肩位置RSと、左肩位置LSとの組み合わせ(以下「基準部位の位置」という)と、その基準部位の位置から推定される身体の向き(以下「基準部位の向き」という)とを対応付けて記述したテーブルである。すなわち、基準部位テーブルは、各部位の相対的な位置関係を記述したテーブルである。なお、基準部位とは、上述の通り、人の頭部および肩部を示すオメガ形状の部分である。したがって、基準部位の向きとは、人の身体(胴体)の向きである。
部位領域推定部130は、画像データから算出した基準部位の位置に対応する基準部位の向きを、基準部位対応テーブルから導出する。
なお、保持された基準部位対応テーブルに記述される基準部位の位置、および、部位領域推定部130が画像データから算出する基準部位の位置は、人の画面上の大きさによらない正規化された値であることが望ましい。具体的には、部位領域推定部130は、例えば、頭部の重心位置Hを原点とし、頭部の重心位置Hと右肩位置RSまたは左肩位置LSとの間の長さが1となるように正規化した値を用いて、準部位の向きを導出する。
また、基準部位対応テーブルには、右肩位置RSおよび左肩位置LSが記述されていても良い。また、基準部位対応テーブルには、頭部の重心位置Hと右肩位置RSまたは左肩位置LSとを通る線と、頭部の重心位置Hを通る垂直な直線(以下「頭部垂直線」という)とが成す角が記述されていても良い。また、基準部位対応テーブルには、頭部の重心位置Hと右肩位置RSとの間の距離を1としたときの頭部の重心位置Hと左肩位置LSとの間の距離が記述されていても良い。部位領域推定部130は、基準部位対応テーブルに記述されたパラメータに対応するパラメータを算出することにより、基準部位の向きを導出する。
図10は、基準部位対応テーブルの内容の一例を示す図である。
図10に示すように、基準部位対応テーブル450は、識別子451に対応付けて、射影角度452、左肩位置LSの座標453、頭部の重心位置Hの座標454、および基準部位の向き455を記述する。各座標は、例えば、右肩位置RSを原点とし、画面の2次元座標系に平行な所定の2次元座標系を用いて表現される。射影角度452は、例えば、図2で説明した3次元座標系410のXZ平面に対する、この所定の2次元座標系の角度(つまり図2に示す設置角度θ)である。また、基準部位の向き455は、例えば、図2で説明した3次元座標系410のXYZ軸のそれぞれに対する回転角度で表される。なお、各座標は、腕の部位長や身長等の他の長さを1とする座標系を用いて表現されても良い。
このようにして、部位領域推定部130は、身体制約情報を用いて、基準部位の位置および向きを推定する。以上で基準部位推定処理の説明を終える。
次に、図4のステップS1300において、部位領域推定部130は、推定した基準部位の位置および向きに基づいて、部位毎に部位領域を推定する処理(以下「部位領域推定処理」という)を行う。
ここで、部位領域推定処理の詳細の例について説明する。
本実施の形態では、部位領域推定部130は、身体制約情報格納部110に身体制約情報の1つとして予め保持された部位領域対応テーブルを参照して、部位領域推定処理を行うものとする。
部位領域対応テーブルは、基準部位の位置と向きと、他の部位の部位領域とを対応付けて記述したテーブルである。
部位領域推定部130は、画像データから推定した基準部位の位置および向きに対応する部位領域を、部位領域対応テーブルから導出する。
部位領域は、例えば、画像データの画像の画素位置により定義される。したがって、部位領域推定部130は、画像データの画像全体の全ての画素について、各画素がいずれかの部位の部位領域に属する画素であるかを判断する。
図11は、部位領域対応テーブルの内容の一例を示す図である。
図11に示すように、部位領域対応テーブル460は、識別子461に対応付けて、射影角度462、頭肩領域(基準部位)の位置463、頭肩領域(基準部位)の向き464、および各部位の領域465を記述する。
各位置および領域は、例えば、画像の2次元座標系の値で表される。射影角度462は、例えば、図2で説明した3次元座標系410のXZ平面に対する、この所定の2次元座標系の角度(つまり図2に示す設置角度θ)である。頭肩領域の位置463は、例えば、右肩位置RSである。頭肩領域の向き464は、例えば、図2で説明した3次元座標系410のXYZ軸のそれぞれに対する回転角度で表される。各部位の領域465は、例えば、領域が円で近似される場合における、その円の中心座標と半径とにより表される。半径は、つまり、部位長である。
なお、識別子461が基準部位対応テーブル450の識別子451と共通である場合には、頭肩領域の向き464は、必ずしも部位領域対応テーブル460に記述されていなくても良い。
なお、部位領域を推定する際には、他の種類の身体制約情報を用いることもできる。また、身体制約情報は、上述の構成以外の構成を取ることもできる。
ここで、部位領域の推定に用いられ得る他の身体制約情報について説明する。
身体制約情報は、例えば、所定の部位の長さ、および関節の角度のうち少なくとも一方を基準として、所定の部位に接続する部位が存在し得る領域(つまり部位領域)を制限する。この場合、身体制約情報は、例えば、ある部位と他の部位との間の長さの比および関節の可動角度のうち少なくとも一方を含む。例えば、身体制約情報は、肩幅を1とした場合に上腕の長さが0.6となる旨を規定する。
例えば、身体制約情報は、部位毎に、部位長比と、胴体に近い側の関節を基点としたときの運動の自由度を3方向(X軸方向、Y軸方向、Z軸方向)について記述する情報とを含む。
また、身体制約情報は、例えば、右上腕の部位IDが「3」で、右上腕の部位長の肩部の部位長に対する比が「0.8」である場合、以下のような記述のファイルまたはプログラムソースにより、右上腕の部位長を規定することができる。
Begin
部位ID:3
長さの比:0.8
End
また、身体制約情報は、例えば、右上腕の部位IDが「3」で、肩部の部位長に対する右上腕の太さの比が「0.2」である場合、以下のような記述のファイルまたはプログラムソースにより、右上腕の部位太さを規定することができる。
Begin
部位ID:3
太さの比:0.2
End
また、例えば、右肩の関節IDが「100」で、肩部の部位IDが「1」で、右上腕の部位IDが「3」であるものとする。また、右上腕の可動方向が、X軸について(−60.0,90.0)、Y軸について(−90.0,90.0)、Z軸について(−90.0,90.0)であるものとする。この場合、身体制約情報は、例えば、以下のような記述のファイルまたはプログラムソースにより、右上腕の右肩の関節に対する自由度を規定することができる。
Begin
関節ID:100
部位ID:1
部位ID:3
可動方向:rx,ry,rz
角度:(−60.0,90.0)、(−90.0,90.0)、(−90.0,90.0)
End
なお、これらの場合において、関節IDと部位IDによって示される関節と部位との接続関係を示す情報と、各関節の可動方向および角度を示す情報とは、別のファイルに記述されても良い。
また、身体制約情報は、各位置を2次元座標系に射影した情報により記述したものであっても良い。この場合、3次元では一意である位置情報であっても、射影角度によってその値は異なり得る。また、可動方向や角度は2次元の値となる。したがって、身体制約情報格納部110は、このような値を身体制約情報として保持する場合には、併せて、射影角度に関する情報を保持しておく必要がある。
以上で、部位領域の推定に用いられる他の身体制約情報の例についての説明を終える。
部位領域推定部130は、部位領域の推定を完了すると、画像データの画像全体の全ての画素について、画素毎に部位の部位領域であるか否かを示す情報を、部位領域データとして部位候補抽出部140へ出力する。
部位領域データは、例えば、画像データの全ての画素位置(i,j)について、いずれかの部位の部位領域に該当するか否かを示す画素情報Kijを並べた構造を有し得る。画素情報Kijの各要素は、例えば、対応する部位の部位領域に属する場合には「1」を取り、属しない場合には「0」を取る。画素情報Kijは、例えば、Kij=[k1,k2]というように、部位の数と同数の次元を有する。ここでは、k1は右上腕の部位領域に対応し、k2は右前腕の部位領域に対応するものとする。
例えば、部位領域推定部130は、ある画素位置Kabが、右上腕の部位領域に含まれるが右前腕の部位領域には含まれないと判定した場合、Kab=[1,0]という画素情報を生成する。部位領域推定部130は、このように生成した各画素の画素情報の集合を、部位領域データとして生成する。
なお、部位領域データによる部位領域の表し方は、上述の例に限定されるものではない。例えば、部位領域データは、画像に予め設定された部分領域毎に、いずれの部位の部位領域に該当するかを示しても良いし、部位毎に部位領域の外縁の座標を示しても良い。
なお、基準部位の位置を正規化した位置が基準部位推定処理において用いられる場合には、部位領域対応テーブルには、正規化された基準部位に対応する部位領域が記述されていることが望ましい。また、部位領域データには、上述の基準部位対応テーブルの場合と同様に、右肩位置RSおよび左肩位置LS等の他の情報が記述されていても良い。部位領域推定部130は、部位領域対応テーブルに記述されたパラメータに対応するパラメータを算出することにより、各部位の部位領域を導出する。
図12は、部位領域データの内容の一例を示す図である。ここでは、説明の簡便化のため、直立状態にある場合の各部位の位置を併せて図示する。
図12に示すように、部位領域データは、画像データの画像420において、右上腕の部位領域471と、右前腕の部位領域472とを示す。これらの部位領域471、472は、上述の通り、先に推定された基準部位473の位置および向きを基準として推定されたものである。
このようにして、部位領域推定部130は、身体制約情報を用いて、各部位の部位領域を推定する。以上で部位領域推定処理の説明を終える。
次に、図4のステップS1400において、部位候補抽出部140は、部位毎に部位領域について部位候補の抽出を行って、抽出された部位候補を示す部位候補情報を生成する。
ここで、部位候補情報として推定尤度マップを生成する処理(以下「推定尤度マップ生成処理」という)の詳細の第1の例について説明する。
まず、部位候補抽出部140は、画像データから、各部位の部位領域内の画素毎に、その部位の位置および向きの状態を表すのに適した画像特徴量を判別して部位が位置することの尤もらしさを示す尤度値を算出する。そして、部位候補抽出部140は、画像データから算出された尤度値を用いて、各画素の尤度値の分布を示す推定尤度マップを生成する。尤度値は、0〜1の範囲となるように正規化した値であっても良いし、正の整数や負の数を含む実数であっても良い。
画像から注目対象を認識する手法としては、例えば、矩形情報を基にした複数の弱識別器の総和をAdaBoostにより統合して強識別器を作成し、強識別器をカスケード接続させて、画像中の注目対象として顔を認識する技術を、採用することができる。また、画像特徴量としては、例えば、SIFT(scale-invariant feature transform)特徴量を採用することができる(例えば、非特許文献1および非特許文献2参照)。SIFT特徴量は、128次元のベクトルにより構成されており、画素毎に計算される値である。SIFT特徴量は、検出の対象となる物体のスケール変化、回転、および平行移動に影響を受けないため、特に、腕のように、様々な方向に回転し得る部位の検出に有効である。すなわち、SIFT特徴量は、姿勢状態を2つ以上の部位の相対的な関節の位置および角度によって定義する本実施の形態に好適である。
SIFT特徴量を用いた手法を本実施の形態に適用した場合、強識別器Hk(k=1,2)は、右上腕(k=1)、右前腕(k=2)等、部位領域毎に、予め機械学習により生成され、部位候補抽出部140に保持される。識別器Hkは、AdaBoostアルゴリズムにより生成される。すなわち、強識別器Hkは、予め部位毎に用意されている複数の学習画像に対して、右上腕であるか否か、および、右前腕であるか否かが、所望の精度で判定できるまで学習が繰り返され、複数の弱識別器がカスケード接続されることによって生成される。
部位候補抽出部140は、部位毎および画素毎に画像特徴量を算出すると、その画像特徴量を強識別器Hkに入力し、その強識別器Hkを構成する各弱識別器の出力に対して弱識別器毎に予め得られた信頼度αを乗算した値の総和を算出する。そして、部位候補抽出部140は、算出した総和から所定の閾値Thを減算して、部位毎および画素毎の尤度値ckを算出する。ここでは、c1は右上腕の尤度値を示し、c2は右前腕の尤度値を示す。
部位候補抽出部140は、各部位の尤度値を統合した画素毎の尤度値Cijを、Cij=[c1,c2]とする。そして、部位候補抽出部140は、画像全体の全ての画素の尤度値Cijを、推定尤度マップとして、姿勢状態推定部170へ出力する。
部位候補抽出部140は、各画素について、その画素がいずれかの部位領域に含まれるか否かを判断し、含まれればその部位の識別器を用いて尤度値を算出し、含まなければその部位の尤度値を0としても良い。換言すると、部位候補抽出部140は、部位領域推定部130から出力された画素情報の行列式(Kij)と、部位領域とは無関係に算出した各画素の尤度値の行列式(Cij)とを積算した結果を、最終的な推定尤度マップとしても良い。
図13は、推定尤度マップの一例を示す図である。ここでは、推定尤度マップのうち1つの部位(例えば右上腕)の尤度値のみを表し、尤度値がより高い画素ほどより濃い網掛けを付している。図13に示すように、推定尤度マップ478は、部位が位置することの尤もらしさの分布を表す。
尤度マップの画素毎の情報は、例えば、部位kの尤度値をckと表し、部位がn個存在する場合には、尤度ベクトルCij=[c1,c2,…,ck,…,cn]というデータ構造となる。
このようにして、部位候補抽出部140は、推定尤度マップを生成する。以上で推定尤度マップ生成処理の詳細の第1の例についての説明を終える。
次いで、推定尤度マップ生成処理の詳細の第2の例について説明する。
部位候補抽出部140は、例えば、特許文献1記載の技術のように、画像データに含まれるエッジから平行線を抽出することにより、推定尤度マップを生成する。
この場合、部位候補抽出部140は、例えば、身体制約情報格納部110に身体制約情報の1つとして予め保持された、肩関節の長さと各部位の標準的な太さの値とを対応付けた対応テーブルを参照して、平行線の抽出を行う。部位候補抽出部140は、部位領域内に、その部位の標準的な太さに相当する距離で離隔する平行線の組を、判定する方向を360度回転させながら検索する。そして、部位候補抽出部140は、該当する平行線の組が存在する場合に、それらの平行線によって囲まれた領域の各画素に対して投票を行う処理を繰り返し、最終的な各画素の投票数に基づいて推定尤度マップを生成する。
このような手法の場合、推定尤度マップおよび学習尤度マップは、画素毎および部位毎に、平行線の方向と投票数(以下「方向の尤度値」という)とを含むことになる。例えば、平行線の角度を8つに分類した場合、画素毎および部位毎の尤度値は、8方向に対応した8次元の値となる。更に、例えば、平行線の幅を2つに分類した場合、画素毎および部位毎の尤度値は、2×8=16次元の値となる。なお、投票の対象となる平行線の距離や角度は、部位毎に異なっていても良い。平行線の幅を複数求めて、そのうちの尤度値が尤も高くなる幅の尤度値を用いることにより、体型や服装の違いを吸収して、尤度を求めることができる。
そして、部位候補抽出部140は、例えば、部位毎に、方向の尤度値が最も高い方向を、その部位の主要なエッジ方向と判定する。このとき、姿勢状態推定部170は、方向毎に全画素の尤度値の合計値を取り、その合計値が最も高い方向を、方向の尤度値が最も高い方向であると判定しても良い。
このようにして、部位候補抽出部140は、身体制約情報を用いて、推定尤度マップを生成する。以上で推定尤度マップ生成処理の詳細の第2の例についての説明を終える。
次に、ステップS1500において、部位候補判断部150は、既抽出部位と未検出部位とを特定する。具体的には、部位候補判断部150は、所定の条件を満たしている部位を既抽出部位と判断し、所定の条件を満たしていない部位を未抽出部位と判断する。所定の条件は、例えば、推定尤度マップの場合、値の平均値が所定の閾値を超えていることや、所定の閾値を超えている画素の数が所定の閾値を超えていることである。
以下の説明では、図14に示すような、人の頭部511、胴体512、左上腕513、および左前腕514と、左腕の陰になっている右上腕515および右前腕516とを含む対象画像510が、入力されたものとする。また、部位候補抽出部140は、特許文献1記載の技術のように、平行線を抽出することによって、部位候補の抽出を行うものとする。
この場合、図15に示すように、右上腕515および右前腕516からは、1本ずつのエッジ525、526しか抽出することができない。したがって、図16に示すように、頭部511、胴体512、左上腕513、および左前腕514は、部位候補531〜534が抽出されるが、右上腕515および右前腕516は、部位候補535、535が抽出されない。したがって、部位候補判断部150は、頭部511、胴体512、左上腕513、および左前腕514を既抽出部位とし、右上腕515および右前腕516を未抽出部位とする。
そして、ステップS1600において、補完部位候補抽出部160は、未抽出部位の部位候補の抽出を行って部位候補情報を補完する処理(以下「部位候補補完処理」という)を行う。
図17は、部位候補補完処理の一例を示すフローチャートである。また、図18〜図23は、部位候補補完処理により部位候補情報が補完される様子を示す模式図である。図17〜図23を参照しながら、部位候補補完処理についての説明を行う。
まず、ステップS1601において、前景部位推定部161は、各既抽出部位の部位軸を推定する。具体的には、前景部位推定部161は、例えば、既抽出部位の部位候補が示す部位の外形が楕円に近似することができる場合、その楕円の長軸を部位軸とする。また、前景部位推定部161は、その領域の各画素の尤度値の平均値が所定の閾値を超えるような領域を楕円に近似し、その楕円の長軸を部位軸としても良い。また、前景部位推定部161は、部位候補が方向成分を含む場合、部位候補内で最も多い平行成分を部位の軸方向として採用し、軸方向の尤度の値が所定の閾値以上となる画素を含む領域の重心を通る直線を部位軸としても良い。
そして、ステップS1602において、前景部位推定部161は、未抽出部位を1つ選択し、その未抽出部位の可動範囲および部位太さを取得する。未抽出部位の可動範囲は、例えば、既抽出部位の部位軸が示す各関節位置と、未抽出部位の各関節に対する可動範囲を示す身体制約情報とから、推定することができる。未抽出部位の部位太さは、例えば、身体制約情報から取得することができる。
そして、ステップS1603において、前景部位推定部161は、選択中の未抽出部位の可動範囲にその部位軸が重なる既抽出部位を、前景部位として特定する。
未抽出部位のうち右上腕が選択された場合、図18に示すように、右上腕の可動範囲545に、頭部、胴体、および左上腕の部位軸541〜543が含まれている。したがって、前景部位推定部161は、頭部、胴体、および左上腕を、前景部位として特定する。
なお、部位候補情報が推定尤度マップである場合には、前景部位推定部161は、未抽出部位の可動範囲に、所定の閾値を超える画素の数が所定の閾値以上となっている既抽出部位を、前景部位として特定しても良い。この場合には、部位軸の取得は、前景部位推定部161ではなく、後段の露出領域推定部162で行うようにしても良い。
そして、ステップS1604において、露出領域推定部162は、前景部位を1つ選択し、その部位太さを取得する。前景部位の部位太さは、例えば、身体制約情報から取得することができる。
そして、ステップS1605において、露出領域推定部162は、既抽出部位の部位軸および部位太さから、選択中の既抽出部位のエッジを推定する。具体的には、露出領域推定部162は、例えば、図19に示すように、部位軸から部位太さの半分の距離にある2本の線分を対辺とする矩形563を、既抽出部位のエッジとする。
そして、ステップS1606において、露出領域推定部162は、既抽出部位のエッジおよび未抽出部位の部位太さから、選択中の既抽出部位についての選択中の未抽出部位の露出領域を推定する。具体的には、露出領域推定部162は、例えば、図19に示すように、まず、既抽出部位の部位軸543に平行かつ1.2倍の長さであって、既抽出部位のエッジ(矩形563からの距離)が未抽出部位の部位太さとなる2本の線分を対辺とする矩形565を取得する。そして、露出領域推定部162は、この矩形565を、未抽出部位のエッジの最大範囲とする。そして、露出領域推定部162は、既抽出部位のエッジである矩形563と未抽出部位のエッジの最大範囲である矩形565との間の領域を、選択中の未抽出部位の露出領域573とする。
なお、露出領域推定部162は、未抽出部位のエッジの最大範囲である矩形565を、既抽出部位の部位太さの1.2倍の太さとする等、既抽出部位の部位太さや部位軸の長さに基づいて決定しても良い。この場合、未抽出部位の部位太さは、前景部位推定部161ではなく、後段の補完候補領域決定部166で取得しても良い。
そして、ステップS1607において、露出領域推定部162は、露出領域の推定の処理をまだ行っていない前景部位が存在するか否かを判断する。露出領域推定部162は、未処理の前景部位が存在する場合は(S1607:YES)、ステップS1604へ戻り、次の前景部位を選択する。
ステップS1604〜S1607の処理を繰り返すことにより、露出領域推定部162は、図19〜図21に示すように、頭部、胴体、および左上腕の部位軸541〜543に対応して、露出領域571〜573を推定する。
そして、露出領域推定部162は、未処理の前景部位が存在しなくなると(S1607:NO)、ステップS1608へ進む。
ステップS1608において、露出領域統合部163は、選択中の未抽出部位について推定された全ての露出領域の総和を求める。
そして、ステップS1609において、露出領域統合部163は、露出領域の総和から、全ての既抽出部位の部位候補を除外した領域を、統合された露出領域とする。既抽出部位の部位候補は、上述のように部位太さからエッジを求め、求めたエッジに囲まれた領域としても良いし、推定尤度マップの値が所定の閾値以上となる領域としても良い。
図19〜図21に示す場合では、露出領域統合部163は、図22に示すように、頭部、胴体、および左上腕の露出領域571〜573の総和から、頭部、胴体、左上腕、および左前腕の部位候補531〜534を除いた領域を取得する。
そして、ステップS1610において、エッジ抽出領域決定部164は、統合された露出領域と、選択中の未抽出部位の可動範囲545(図18参照)とが重なる領域を、エッジ抽出領域に決定する。
そして、ステップS1611において、エッジ抽出部165は、身体制約情報から、選択中の未抽出部位のエッジの角度を推定し、画像データのエッジ抽出領域に対して、推定した角度の直線成分の抽出を行う。ここで、エッジの角度は、例えば、基準部位側の関節を中心とした3度刻みの角度とすることができる。そして、エッジ抽出部165は、抽出された直線成分から、エッジの抽出を行うと共に、未抽出部位がエッジのどちら側に位置するかを判断する。未抽出部位がエッジのどちら側に位置するかは、基の露出領域に対応する既抽出部位がエッジのどちら側にあるかに基づいて判断することができる。
図15に示す例で右上腕が選択されている場合、エッジ抽出部165は、右上腕の上側のエッジ525を抽出し、右上腕はエッジ525の下側に位置すると判断する。
そして、ステップS1612において、補完候補領域決定部166は、選択中の未抽出部位のエッジが抽出されたか否かを判断する。補完候補領域決定部166は、エッジが抽出された場合には(S1612:YES)、ステップS1613へ進む。また、補完候補領域決定部166は、エッジが抽出されなかった場合には(S1612:NO)、後述のステップS1615へ進む。
ステップS1613において、補完候補領域決定部166は、抽出されたエッジを基準として、選択中の未抽出部位が位置する側に、選択中の未抽出部位の部位軸の長さかつ部位太さの幅の矩形領域を設定する。そして、補完候補領域決定部166は、この矩形領域を、補完候補領域として決定する。
図15示す例で右上腕が選択されている場合、補完候補領域決定部166は、図23に示すように、右上腕の上側のエッジ525を上側の長辺とし、右上腕の部位太さを幅とする矩形領域を、補完候補領域583として決定する。なお、補完候補領域は、矩形に限定されず、未抽出部位のエッジとエッジに対して位置する側とを基準にした、楕円等の他の形状とすることができる。
そして、ステップS1614において、部位候補情報修正部167は、選択中の未抽出部位が決定された補完候補領域に位置することの尤もらしさが高くなるように、部位候補情報を修正する。
ここで、部位候補情報修正部167は、推定尤度マップのうち、補完候補領域の値を増加させ、補完候補領域に対して重み付けを行う。すなわち、部位候補情報修正部167は、補完候補領域において未抽出部位が抽出され易くなるように、推定尤度マップを修正する。
そして、ステップS1615において、前景部位推定部161は、部位候補情報の修正の処理をまだ行っていない未抽出部位が存在するか否かを判断する。前景部位推定部161は、未処理の未抽出部位が存在する場合は(S1615:YES)、ステップS1602へ戻り、次の未抽出部位を選択する。また、前景部位推定部161は、未処理の未抽出部位が存在しない場合は(S1615:NO)、図4の処理へ戻る。
ステップS1601〜S1615の処理を繰り返すことにより、補完部位候補抽出部160は、右上腕および右前腕の部位候補を抽出し、部位候補情報を補完することができる。
次に、図4のステップS1700において、姿勢状態推定部170は、適宜補完が行われた部位候補情報に基づいて、判定の対象として予め設定された姿勢状態のいずれかに、被写体の姿勢状態が該当するか否かを判断する。
姿勢状態推定部170は、この判断を、いずれかの学習尤度マップと推定尤度マップとが一致するか否かに基づいて行う。この場合、姿勢状態推定部170は、例えば、学習尤度マップと推定尤度マップとが一致するか否かを、その一致度が所定のレベル以上であるか否かに基づいて判断する、一致度判定処理を行う。
ここで、一致度判定処理の詳細の例について説明する。まず、上述の推定尤度マップ生成処理の第1の例が採用されている場合に対応する、一致度判定処理の詳細の第1の例について説明する。
姿勢状態推定部170は、まず、推定尤度マップおよび各学習尤度マップをそれぞれ所定の閾値を用いて2値化する。具体的には、姿勢状態推定部170は、画素毎および部位毎の尤度値を、所定の閾値以上である場合はデジタル信号「0」に、所定の閾値未満である場合にはデジタル信号「1」に変換する。
図24は、図13に示す推定尤度マップを2値化した後の状態の一例を示す図である。ここでは、デジタル信号「1」の画素は灰色、デジタル信号「0」の画素は白色で表している。図24に示すように、2値化後の推定尤度マップ479は、部位が位置することの尤もらしさが高い部分の分布を表す。
そして、姿勢状態推定部170は、学習尤度マップ毎に、推定尤度マップと学習尤度マップとの間で、画素毎および部位毎に2値化された尤度値の積を取り、全ての画素および全ての部位についての値の和を、評価値とする。具体的には、姿勢状態推定部170は、推定尤度マップと学習尤度マップとを所定の位置関係で重ね、画素毎に2値化後の尤度値情報を掛け算し、掛け算した値の全ての画素および部位についての和を求める。
姿勢状態推定部170は、推定尤度マップと学習尤度マップとの重ね合わせの位置関係を、移動および回転によりずらしていき、各位置関係について上述の演算処理を行う。そして、姿勢状態推定部170は、求めた評価値のうちの最大値を、学習尤度マップとの一致度を表す最終的な評価値として取得する。そして、姿勢状態推定部170は、この評価値が所定の閾値以上となる学習尤度マップが存在するとき、その学習尤度マップと推定尤度マップとが一致すると判断する。閾値は、予め、学習等により適切な値が設定される。
なお、姿勢状態推定部170は、必ずしも推定尤度マップおよび学習尤度マップを2値化しなくても良い。この場合には、姿勢状態推定部170は、学習尤度マップと推定尤度マップとの一致度をより精度良く判定することができる。また、2値化した場合には、姿勢状態推定部170は、高速に一致度の判定を行うことができる。
このようにして、姿勢状態推定部170は、推定尤度マップと学習尤度マップとの一致度を判定する。以上で一致度判定処理の第1の例についての説明を終える。
次いで、上述の推定尤度マップ生成処理の第2の例が採用されている場合に対応する、一致度判定処理の詳細の第2の例について説明する。
姿勢状態推定部170は、部位毎に、それぞれの主要なエッジ方向が一致するように推定尤度マップと学習尤度マップとを重ね合わせて、一致度を算出する。以降の処理は、上述の第1の例と同様である。
このように、エッジの方向を考慮した手法は、推定尤度マップと学習尤度マップとの重ね合わせの位置関係に制約を加えることができるので、処理負荷を軽減することができる。
なお、姿勢状態推定部170は、推定尤度マップと学習尤度マップとの一致度を算出する際に、エッジ方向の情報のみを用いても良い。この場合、例えば、姿勢状態推定部170は、複数の指定部位間で各指定部位のエッジ方向が成す角の一致度を、推定尤度マップと学習尤度マップとの一致度を表す評価値とする。そして、姿勢状態推定部170は、評価値が所定の範囲内であるとき、被写体の姿勢が、該当する学習尤度マップに対応する姿勢状態にあると判定する。エッジ方向は、部位軸の方向に対応する。したがって、このような姿勢状態推定は、画像データから各部位軸の方向および各関節の角度を推定し、推定した部位軸方向および関節角度の、各姿勢状態における基準モデルとの間の一致度を評価することに相当する。
このように、エッジ方向のみを用いて一致度を判定する手法は、画像を回転させながら複数の評価値を繰り返し算出する処理を不要とすることができるため、処理負荷を更に低減することができる。以上で一致度判定処理の第2の例についての説明を終える。
姿勢状態推定部170は、いずれかの学習尤度マップと推定尤度マップとが一致する場合(S1700:YES)、ステップS1800へ進む。また、姿勢状態推定部170は、学習尤度マップと推定尤度マップとが一致しない場合(S1700:NO)、ステップS1900へ進む。
ステップS1800において、姿勢状態推定部170は、推定尤度マップと一致する学習尤度マップに対応する姿勢状態を、情報出力装置300を介してユーザに通知して、ステップS1900へ進む。
ステップS1900において、部位領域推定部130は、ユーザ操作等により処理終了の指示があったか否かを判断する。部位領域推定部130は、処理終了の指示がない場合(S1900:NO)、ステップS1100へ戻り、次の静止画像に対する処理へ移る。また、部位領域推定部130は、処理終了の指示があった場合には(S1900:YES)、一連の処理を終了する。
このような動作により、姿勢状態推定装置100は、抽出部位の一部が、既抽出部位の陰になっている場合に、その旨を推定して、画像データからその未抽出部位の部位候補を抽出することができる。
以上のように、本実施の形態に係る姿勢状態推定装置100は、未抽出部位の一部が、既抽出部位の陰になっている場合に、その旨を推定して画像データからその未抽出部位の部位候補を抽出する。したがって、姿勢状態推定装置100は、例えば、左側を向いている人の右上腕の一部が、手前側に位置する左上腕の陰になっている場合に、右上腕の部位候補を抽出することができる。そして、姿勢状態推定装置100は、右上腕の部位候補を用いて、姿勢状態の推定を行うことができる。すなわち、姿勢状態推定装置100は、人等の関節を有する物体の姿勢状態を、従来技術に比べて、より高精度に推定することができる。
また、姿勢状態推定装置100は、部位毎の尤度の分布を示す尤度マップを用いるので、例えば、画像上で胴体の外形に右腕が収まっている場合でも、「右腕が曲がっている」という姿勢状態にあるか否かを判定することができる。
また、姿勢状態推定装置100は、指定部位の可動領域である部位領域を推定し、部位領域以外の領域については尤度値を低くするので、尤度マップの精度を向上させることができる。
なお、姿勢状態推定装置100は、具体的に指定されたある姿勢状態のみについて推定を行い、指定された姿勢状態に該当するか否かを推定結果として出力するようにしても良い。
また、物体検出に用いられる画像データは、ステレオカメラまたは複数のカメラによって撮影された画像のデータであっても良い。ステレオカメラの画像データを用いる場合には、姿勢状態推定装置100は、片方のカメラによって撮像された画像データと、ステレオカメラの設置パラメータから得られる被写体の位置情報とを用いても良い。また、複数のカメラの画像データを用いる場合には、姿勢状態推定装置100は、それらのうち一台のカメラによって撮像された画像データと、各カメラの設置パラメータから得られる被写体の位置情報とを用いても良い。
また、部位領域推定部130は、基準部位の位置および向きが既知である場合や指定される場合には、上述の基準部位推定処理を行わなくても良い。また、部位領域推定部130は、例えば人の歩行する方向が決まっており、基準部位の向きがほぼ一定である場合には、身体の向き情報を保持しておいても良い。
また、部位領域推定部130が行う部位領域の推定の手法は、上述の例に限定されない。例えば、部位領域推定部130は、画像データから画像のエッジ部分(以下、単に「エッジ」という)を抽出し、エッジにより囲まれた領域のY座標の値の範囲に基づいて、各部位領域を推定しても良い。具体的には、例えば、部位領域推定部130は、エッジにより囲まれた領域において、Y座標の値が最も高い位置から20%までの領域を頭部の部位領域というように推定する。同様に、例えば、部位領域推定部130は、15%から65%までの領域を胴の部位領域、55%から85%までの領域を膝上の部位領域、75%から100%までの領域を膝下の部位領域というように推定する。この場合には、各領域のパーセンテージに対応する値が、身体制約情報となる。
また、部位領域推定部130は、基の動画像データにおける画像間で背景差分を取ることにより動体を抽出し、抽出した領域を含む領域全体を、各部位の部位領域の候補としても良い。これにより、部位領域を推定する際の処理の高速化を図ることができる。
また、姿勢状態推定装置100は、基準部位から近い順に1つずつ部位の位置を推定し、推定した位置に基づいて次の部位の部位領域を推定するという処理を繰り返すことにより、各着目部位の部位領域を推定するようにしても良い。
また、姿勢状態推定装置100は、必ずしも部位領域推定を行わなくても良い。この場合には、部位候補抽出部140は、画像の全ての領域に対して均一に、尤度値の算出を行うことになる。
また、姿勢状態推定部170は、学習尤度マップに、その学習尤度マップの基となった画像の光軸方向に関する情報が対応付けられている場合には、単眼カメラ200の設置角度θに対応する学習尤度マップを比較対象とするようにしても良い。
また、姿勢状態推定装置100は、被写体を無線タグ等により識別可能である場合には、被写体毎に身体制約情報を保持し、姿勢状態推定を行うようにしても良い。
また、姿勢状態推定装置100は、特許文献1記載の技術のように、部位候補情報として、部位候補を示す領域を用いても良い。この場合、補完部位候補抽出部160は、例えば、抽出した補完部位候補のマップ上で、決定した補完領域583(図23参照)と同じサイズの矩形を移動させる。そして、補完部位候補抽出部160は、その矩形内に含まれる画素の尤度値の総和がもっとも大きくなるときの位置(例えば矩形の3つの頂点の座標)を抽出する。このようにすることにより、特許文献1に記載の姿勢状態推定手法にも本発明を適用することができる。
また、姿勢状態推定部170が行う姿勢状態の推定の手法は、上述の例に限定されない。例えば、姿勢状態推定部170は、人の基準モデルに関する情報(以下「基準モデル情報」という)を用いて、姿勢状態の推定を行っても良い。基準モデル情報は、例えば、ある姿勢状態をある視点から見たときの画像上の状態(以下「画像姿勢状態」という)毎の、各関節の画像上の関節角度および位置を示す情報(例えば、各部位の画像上の部位長および可動範囲)を含む。言い換えると、基準モデル情報は、基準モデルの体格や姿勢に関する制約条件である。
基準モデル情報を用いた姿勢状態推定の手法の一例としては、例えば、被写体の関節位置を用いる手法が挙げられる。この場合、基準モデル情報は、例えば、姿勢状態毎に、関節位置等をカメラ視点から見たときの関節位置等を示す情報とする。そして、姿勢状態推定部170は、例えば、被写体と関節位置が最も一致する姿勢状態を、基準モデル情報から検索することにより、姿勢状態の推定を行う。
本発明は、関節を有する物体の姿勢状態を高精度に推定することができる姿勢状態推定装置および姿勢状態推定方法として有用である。
100 姿勢状態推定装置
110 身体制約情報格納部
120 画像データ取得部
130 部位領域推定部
140 部位候補抽出部
150 部位候補判断部
160 補完部位候補抽出部
161 前景部位推定部
162 露出領域推定部
163 露出領域統合部
164 エッジ抽出領域決定部
165 エッジ抽出部
166 補完候補領域決定部
167 部位候補情報修正部
170 姿勢状態推定部
200 単眼カメラ
300 情報出力装置

Claims (10)

  1. 関節により接続された複数の部位を有する物体を撮影した画像データに基づいて前記物体の姿勢状態の推定を行う姿勢状態推定装置であって、
    前記画像データから、前記部位の部位候補の抽出を行う部位候補抽出部と、
    前記部位候補抽出部により前記部位候補が抽出されなかった未抽出部位の一部が、前記部位候補抽出部により前記部位候補が抽出された既抽出部位の陰になっているものと推定して、前記画像データから前記未抽出部位の部位候補の抽出を行う補完部位候補抽出部と、
    抽出された前記部位候補に基づいて、前記物体の姿勢状態の推定を行う姿勢状態推定部と、を有する、
    姿勢状態推定装置。
  2. 前記補完部位候補抽出部は、
    前記既抽出部位の部位候補に基づいて、前記未抽出部位の一部が露出していると推定される領域を補完候補領域として決定し、決定した補完候補領域に絞って前記未抽出部位の部位候補の抽出を行う、
    請求項1記載の姿勢状態推定装置。
  3. 前記補完部位候補抽出部は、
    前記既抽出部位の部位候補に基づいて前記既抽出部位の部位軸を推定し、推定した前記部位軸に基づいて前記補完候補領域を決定する、
    請求項2記載の姿勢状態推定装置。
  4. 前記補完部位候補抽出部は、
    前記既抽出部位の部位候補に基づいて前記既抽出部位の部位太さを推定し、推定した前記部位太さに基づいて前記補完候補領域を決定する、
    請求項2記載の姿勢状態推定装置。
  5. 前記補完部位候補抽出部は、
    前記既抽出部位の部位候補に基づいて前記未抽出部位の可動範囲を推定し、推定した前記可動範囲に基づいて前記補完候補領域を決定する、
    請求項2記載の姿勢状態推定装置。
  6. 前記補完部位候補抽出部は、
    前記既抽出部位の部位候補に基づいて前記未抽出部位のエッジの角度を推定し、推定した前記角度の直線成分を前記画像データから抽出し、抽出した前記直線成分に基づいて前記補完候補領域を決定する、
    請求項2記載の姿勢状態推定装置。
  7. 前記補完部位候補抽出部は、
    前記既抽出部位が複数存在するとき、全ての前記既抽出部位の前記部位候補を前記補完候補領域から除外する、
    請求項2記載の姿勢状態推定装置。
  8. 前記姿勢状態推定部は、
    前記画像データから推定される、各部位軸の方向に対応する情報に基づいて、前記物体の姿勢状態の推定を行う、
    請求項1記載の姿勢状態推定装置。
  9. 前記物体は、人である、
    請求項1記載の姿勢状態推定装置。
  10. 関節により接続された複数の部位を有する物体を撮影した画像データに基づいて前記物体の姿勢状態の推定を行う姿勢状態推定方法であって、
    前記画像データから、前記部位の部位候補の抽出を行うステップと、
    前記部位候補抽出部により前記部位候補が抽出されなかった未抽出部位の一部が、前記部位候補抽出部により前記部位候補が抽出された既抽出部位の陰になっているものと推定して、前記画像データから前記未抽出部位の部位候補の抽出を行うステップと、
    抽出された前記部位候補に基づいて、前記物体の姿勢状態の推定を行うステップと、を有する、
    姿勢状態推定方法。
JP2011011860A 2011-01-24 2011-01-24 姿勢状態推定装置および姿勢状態推定方法 Expired - Fee Related JP5715833B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011011860A JP5715833B2 (ja) 2011-01-24 2011-01-24 姿勢状態推定装置および姿勢状態推定方法
US13/820,206 US9646381B2 (en) 2011-01-24 2012-01-10 State-of-posture estimation device and state-of-posture estimation method
PCT/JP2012/000090 WO2012101962A1 (ja) 2011-01-24 2012-01-10 姿勢状態推定装置および姿勢状態推定方法
CN201280001912.XA CN102971768B (zh) 2011-01-24 2012-01-10 姿势状态估计装置及姿势状态估计方法
US15/482,010 US10600207B2 (en) 2011-01-24 2017-04-07 Posture state estimation apparatus and posture state estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011011860A JP5715833B2 (ja) 2011-01-24 2011-01-24 姿勢状態推定装置および姿勢状態推定方法

Publications (2)

Publication Number Publication Date
JP2012155391A true JP2012155391A (ja) 2012-08-16
JP5715833B2 JP5715833B2 (ja) 2015-05-13

Family

ID=46580543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011011860A Expired - Fee Related JP5715833B2 (ja) 2011-01-24 2011-01-24 姿勢状態推定装置および姿勢状態推定方法

Country Status (4)

Country Link
US (2) US9646381B2 (ja)
JP (1) JP5715833B2 (ja)
CN (1) CN102971768B (ja)
WO (1) WO2012101962A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013602B2 (en) 2015-02-27 2018-07-03 Kabushiki Kaisha Toshiba Feature vector extraction device based on cell positioning
US10063843B2 (en) 2015-09-15 2018-08-28 Canon Kabushiki Kaisha Image processing apparatus and image processing method for estimating three-dimensional position of object in image
JP2019091437A (ja) * 2017-11-10 2019-06-13 株式会社リコー 対象検出システム、対象検出方法、プログラム
JP2019096212A (ja) * 2017-11-27 2019-06-20 富士通株式会社 手位置検出方法、手位置検出装置、及び手位置検出プログラム
JP2020135551A (ja) * 2019-02-21 2020-08-31 セコム株式会社 対象物認識装置、対象物認識方法、及び対象物認識プログラム
WO2020217812A1 (ja) * 2019-04-22 2020-10-29 キヤノン株式会社 被写体の状態を認識する画像処理装置及びその方法
WO2021070611A1 (ja) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 画像処理装置、および非一時的なコンピュータ可読媒体
JP2021060817A (ja) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
JP7401246B2 (ja) 2019-10-08 2023-12-19 キヤノン株式会社 撮像装置、撮像装置の制御方法、及びプログラム

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9412010B2 (en) * 2011-07-15 2016-08-09 Panasonic Corporation Posture estimation device, posture estimation method, and posture estimation program
JP2014090841A (ja) * 2012-11-02 2014-05-19 Sony Corp 情報処理装置および情報処理方法、並びにプログラム
JP6155785B2 (ja) * 2013-04-15 2017-07-05 オムロン株式会社 画像処理装置、画像処理装置の制御方法、画像処理プログラムおよびその記録媒体
JP6474396B2 (ja) 2014-06-03 2019-02-27 住友重機械工業株式会社 人検知システム及びショベル
US9650039B2 (en) * 2015-03-20 2017-05-16 Ford Global Technologies, Llc Vehicle location accuracy
US11841920B1 (en) 2016-02-17 2023-12-12 Ultrahaptics IP Two Limited Machine learning based gesture recognition
US11854308B1 (en) * 2016-02-17 2023-12-26 Ultrahaptics IP Two Limited Hand initialization for machine learning based gesture recognition
US11714880B1 (en) 2016-02-17 2023-08-01 Ultrahaptics IP Two Limited Hand pose estimation for machine learning based gesture recognition
US9870622B1 (en) * 2016-07-18 2018-01-16 Dyaco International, Inc. Systems and methods for analyzing a motion based on images
US20180121729A1 (en) * 2016-11-02 2018-05-03 Umbo Cv Inc. Segmentation-based display highlighting subject of interest
CN110826495A (zh) * 2019-11-07 2020-02-21 济南大学 基于面部朝向的身体左右肢体一致性跟踪判别方法及系统
TWI790152B (zh) * 2022-03-31 2023-01-11 博晶醫電股份有限公司 動作判定方法、動作判定裝置及電腦可讀儲存媒體

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007010893A1 (ja) * 2005-07-19 2007-01-25 Nec Corporation 関節物体位置姿勢推定装置及びその方法ならびにプログラム
JP2007310707A (ja) * 2006-05-19 2007-11-29 Toshiba Corp 姿勢推定装置及びその方法
JP2010211705A (ja) * 2009-03-12 2010-09-24 Denso Corp 乗員姿勢推定装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4419543B2 (ja) * 2003-12-05 2010-02-24 コニカミノルタホールディングス株式会社 検出装置および検出方法
US9165199B2 (en) * 2007-12-21 2015-10-20 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
US8963829B2 (en) * 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007010893A1 (ja) * 2005-07-19 2007-01-25 Nec Corporation 関節物体位置姿勢推定装置及びその方法ならびにプログラム
JP2007310707A (ja) * 2006-05-19 2007-11-29 Toshiba Corp 姿勢推定装置及びその方法
JP2010211705A (ja) * 2009-03-12 2010-09-24 Denso Corp 乗員姿勢推定装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
村上智基 外4名: "自己オクルージョンを含む人物姿勢の距離画像による推定", 第65回(平成15年)全国大会講演論文集(2) 人工知能と認知科学, JPN6014035765, 25 March 2003 (2003-03-25), JP, pages 2 - 361, ISSN: 0002883653 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013602B2 (en) 2015-02-27 2018-07-03 Kabushiki Kaisha Toshiba Feature vector extraction device based on cell positioning
US10063843B2 (en) 2015-09-15 2018-08-28 Canon Kabushiki Kaisha Image processing apparatus and image processing method for estimating three-dimensional position of object in image
JP2019091437A (ja) * 2017-11-10 2019-06-13 株式会社リコー 対象検出システム、対象検出方法、プログラム
JP2019096212A (ja) * 2017-11-27 2019-06-20 富士通株式会社 手位置検出方法、手位置検出装置、及び手位置検出プログラム
JP2020135551A (ja) * 2019-02-21 2020-08-31 セコム株式会社 対象物認識装置、対象物認識方法、及び対象物認識プログラム
JP2020177557A (ja) * 2019-04-22 2020-10-29 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2020217812A1 (ja) * 2019-04-22 2020-10-29 キヤノン株式会社 被写体の状態を認識する画像処理装置及びその方法
JP7263094B2 (ja) 2019-04-22 2023-04-24 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
WO2021070611A1 (ja) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 画像処理装置、および非一時的なコンピュータ可読媒体
JP2021060815A (ja) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
JP2021060817A (ja) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
WO2021070612A1 (ja) * 2019-10-07 2021-04-15 株式会社東海理化電機製作所 画像処理装置、および非一時的なコンピュータ可読媒体
JP7312079B2 (ja) 2019-10-07 2023-07-20 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
JP7350602B2 (ja) 2019-10-07 2023-09-26 株式会社東海理化電機製作所 画像処理装置、およびコンピュータプログラム
JP7401246B2 (ja) 2019-10-08 2023-12-19 キヤノン株式会社 撮像装置、撮像装置の制御方法、及びプログラム

Also Published As

Publication number Publication date
WO2012101962A1 (ja) 2012-08-02
JP5715833B2 (ja) 2015-05-13
CN102971768B (zh) 2016-07-06
US20170213360A1 (en) 2017-07-27
CN102971768A (zh) 2013-03-13
US20130259391A1 (en) 2013-10-03
US10600207B2 (en) 2020-03-24
US9646381B2 (en) 2017-05-09

Similar Documents

Publication Publication Date Title
JP5715833B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
JP5771413B2 (ja) 姿勢推定装置、姿勢推定システム、および姿勢推定方法
JP5873442B2 (ja) 物体検出装置および物体検出方法
US9262674B2 (en) Orientation state estimation device and orientation state estimation method
US9330307B2 (en) Learning based estimation of hand and finger pose
US9305206B2 (en) Method for enhancing depth maps
Medioni et al. Identifying noncooperative subjects at a distance using face images and inferred three-dimensional face models
WO2012046392A1 (ja) 姿勢推定装置及び姿勢推定方法
US10043279B1 (en) Robust detection and classification of body parts in a depth map
JP2012022411A (ja) 情報処理装置及びその制御方法、プログラム
Unzueta et al. Efficient generic face model fitting to images and videos
CN110543817A (zh) 基于姿势指导特征学习的行人再识别方法
JP5503510B2 (ja) 姿勢推定装置および姿勢推定プログラム
JP2015184054A (ja) 同定装置、方法及びプログラム
CN108694348B (zh) 一种基于自然特征的跟踪注册方法及装置
Kerdvibulvech Hybrid model of human hand motion for cybernetics application
Wang et al. Mining discriminative 3D Poselet for cross-view action recognition
Nebaba et al. Methods of Automatic Face Angle Recognition for Life Support and Safety Systems
Kang et al. Patch classifier of face shape outline using gray-value variance with bilinear interpolation
Zaeri 3D Face Recognition
Stamou et al. A monocular system for person tracking: Implementation and testing
CN111652019A (zh) 一种人脸活体检测方法及装置
Chen et al. Robust facial feature detection and tracking for head pose estimation in a novel multimodal interface for social skills learning
Wu et al. Detection and tracking of facial features based on stereo video
Bertók et al. Gesture Recognition-Control of a Computer with Natural Head Movements.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140826

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150316

R151 Written notification of patent or utility model registration

Ref document number: 5715833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees