JP2018195166A - 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法 - Google Patents

姿勢判定プログラム、姿勢判定装置及び姿勢判定方法 Download PDF

Info

Publication number
JP2018195166A
JP2018195166A JP2017099792A JP2017099792A JP2018195166A JP 2018195166 A JP2018195166 A JP 2018195166A JP 2017099792 A JP2017099792 A JP 2017099792A JP 2017099792 A JP2017099792 A JP 2017099792A JP 2018195166 A JP2018195166 A JP 2018195166A
Authority
JP
Japan
Prior art keywords
posture
person
posture determination
detected
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017099792A
Other languages
English (en)
Other versions
JP6922410B2 (ja
Inventor
珊珊 于
Shanshan Yu
珊珊 于
典弘 覚幸
Norihiro Kakuko
典弘 覚幸
猛 大谷
Takeshi Otani
猛 大谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017099792A priority Critical patent/JP6922410B2/ja
Priority to EP18172602.7A priority patent/EP3404513A1/en
Priority to US15/980,835 priority patent/US10853636B2/en
Publication of JP2018195166A publication Critical patent/JP2018195166A/ja
Application granted granted Critical
Publication of JP6922410B2 publication Critical patent/JP6922410B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】撮像画像から人の姿勢を判定する。【解決手段】姿勢判定プログラムであって、複数の撮像画像それぞれから検出された人の体に対応する画像領域内において同一または類似の動きパターンの特徴点を検出し、検出した該特徴点の撮像画像間での移動軌跡に基づき、該移動軌跡を各弧とする円の中心部分を特定し、特定した前記中心部分の位置に基づいて、前記人の姿勢を判定する、処理をコンピュータに実行させることを特徴とする。【選択図】図8

Description

本発明は、姿勢判定プログラム、姿勢判定装置及び姿勢判定方法に関する。
従来より、撮像画像から人の体に対応する画像領域を検出し、当該人の姿勢(前傾姿勢、直立姿勢等)を判定する姿勢判定技術が知られている。例えば、下記特許文献1には、車両に搭載された撮像装置により撮像された撮像画像から歩行者を検出し、検出した歩行者の体幹軸の傾きを算出することで歩行者が前傾姿勢にあるのか否かを判定し、判定結果を車両の運転者に提供する技術が開示されている。
特開2007−257459号公報
しかしながら、上記姿勢判定技術の場合、検出した画像領域のうち、最下点(例えば、人のかかと部分)を通る直線に基づいて体幹軸の傾きを算出している。このため、体全体が前傾している場合には人の姿勢を判定できるが、例えば、上半身のみが前傾している場合には、人の姿勢を精度よく判定することが難しく、他の利用シーンへの適用が限られてくるといった問題があった。
例えば、店舗等において、商品に関心を示すことで顧客が前傾した場合や、店員がお辞儀をした場合等の姿勢を判定するようなシーンに、上記姿勢判定技術を適用することは難しい。
一つの側面では、撮像画像から人の姿勢を判定できるようにすることを目的としている。
一態様によれば、姿勢判定プログラムは、
複数の撮像画像それぞれから検出された人の体に対応する画像領域内において同一または類似の動きパターンの特徴点を検出し、検出した該特徴点の撮像画像間での移動軌跡に基づき、該移動軌跡を各弧とする円の中心部分を特定し、
特定した前記中心部分の位置に基づいて、前記人の姿勢を判定する、処理をコンピュータに実行させることを特徴とする。
撮像画像から人の姿勢を判定することができる。
姿勢判定システムのシステム構成の一例を示す第1の図である。 情報処理装置のハードウェア構成の一例を示す図である。 判定結果情報の一例を示す図である。 姿勢判定部が特徴点の軌跡を算出するまでの処理の具体例を示す図である。 姿勢判定部が円を算出するまでの処理の具体例を示す図である。 姿勢判定部が回転中心を特定するまでの処理の具体例を示す図である。 姿勢判定部が姿勢を判定するまでの処理の具体例を示す図である。 姿勢判定部の機能構成の一例を示す第1の図である。 上半身姿勢判定処理の第1のフローチャートである。 姿勢判定部の機能構成の一例を示す第2の図である。 上半身姿勢判定処理の第2のフローチャートである。 姿勢判定部が人物の状態を判定する処理の具体例を示す図である。 姿勢判定部の機能構成の一例を示す第3の図である。 上半身状態判定処理のフローチャートである。 姿勢判定システムのシステム構成の一例を示す第2の図である。
以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。
[第1の実施形態]
<姿勢判定システムのシステム構成>
はじめに、撮像した動画像から被写体の人物を検出し、該人物の姿勢を判定する姿勢判定システムのシステム構成について説明する。図1は、姿勢判定システムのシステム構成の一例を示す図である。
図1に示すように、姿勢判定システムは、撮像装置110と、動画像記憶装置130と、情報処理装置120とを有する。
撮像装置110は、被写体の人物140を撮像する。撮像装置110は動画像記憶装置と接続されており、撮像した動画像を動画像記憶装置130に送信する。動画像記憶装置130は、撮像装置110より送信された動画像を記憶する。
情報処理装置120は、姿勢判定装置の一例であり、動画像記憶装置130と接続される。情報処理装置120には、姿勢判定プログラムがインストールされており、当該プログラムが実行されることで、情報処理装置120は、姿勢判定部121として機能する。
姿勢判定部121は、動画像記憶装置130より動画像を読み出し、動画像の各フレームの撮像画像(以下、画像データと称す)に含まれる人物140を検出する。また、姿勢判定部121は、検出した人物140の姿勢(例えば、前傾姿勢、後傾姿勢、直立姿勢)を判定し、姿勢判定結果を判定結果データベース(以下、DBと略す)122に格納する。
<情報処理装置のハードウェア構成>
次に、情報処理装置120のハードウェア構成について説明する。図2は、情報処理装置のハードウェア構成の一例を示す図である。
図2に示すように、情報処理装置120は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203を有する。CPU201、ROM202、RAM203は、いわゆるコンピュータを形成する。また、情報処理装置120は、補助記憶部204、表示部205、操作部206、通信部207、ドライブ部208を有する。なお、情報処理装置120の各部は、バス209を介して相互に接続されている。
CPU201は、補助記憶部204にインストールされた各種プログラム(例えば、姿勢判定プログラム等)を実行する。
ROM202は、不揮発性メモリである。ROM202は、補助記憶部204にインストールされた各種プログラムをCPU201が実行するために必要な各種プログラム、データ等を記憶する、主記憶デバイスとして機能する。具体的には、ROM202はBIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を記憶する。
RAM203は、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等の揮発性メモリである。RAM203は、補助記憶部204にインストールされた各種プログラムがCPU201によって実行される際に展開される作業領域を提供する、主記憶デバイスとして機能する。
補助記憶部204は、情報処理装置120にインストールされた各種プログラムや、各種プログラムを実行することで生成されるデータ等を記憶する補助記憶デバイスである。なお、判定結果DB122は、補助記憶部204において実現される。
表示部205は、情報処理装置120の内部状態を表示する表示デバイスである。操作部206は、姿勢判定システム100の管理者が情報処理装置120に対して各種指示を入力する際に用いる操作デバイスである。通信部207は、情報処理装置120が、動画像記憶装置130と通信を行うための通信デバイスである。
ドライブ部208は記録媒体210をセットするためのデバイスである。ここでいう記録媒体210には、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。あるいは、記録媒体210には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。
なお、補助記憶部204に格納される各種プログラムは、例えば、配布された記録媒体210がドライブ部208にセットされ、該記録媒体210に記録された各種プログラムがドライブ部208により読み出されることでインストールされる。あるいは、補助記憶部204に格納される各種プログラムは、通信部207を介してネットワークからダウンロードされることでインストールされてもよい。
<判定結果DB>
次に、判定結果DB122に格納される判定結果情報について説明する。図3は、判定結果情報の一例を示す図である。
図3に示すように、判定結果情報300は、情報の項目として、“時刻”、“フレーム番号”、“被写体有無”、“姿勢判定結果”が含まれる。
“時刻”には、動画像の各フレームの画像データを撮像した際の撮像時刻が格納される(例えば、t〜t)。“フレーム番号”には、動画像の各フレームの画像データに付された識別子が格納される(例えば、f〜f)。“被写体有無”には、対応するフレームの画像データから、被写体の人物が検出されたか否かを示す検出結果(有りまたは無)が格納される。なお、“被写体有無”には、デフォルトとして“無”が格納されているものとする。
“姿勢判定結果”には、対応するフレームの画像データから検出された被写体の人物の姿勢についての判定結果(直立、前傾、後傾のいずれか)が格納される。
なお、姿勢判定部121が人物の姿勢を判定する際の判定順序は、各フレームの画像データが撮像された撮像順序に限られない。例えば、姿勢判定部121は、検出した人物の姿勢を「前傾」と判定した後に、姿勢を判定したフレームの前後のフレームの画像データについて、人物の姿勢を判定するものとする。
<姿勢判定部の処理の具体例>
次に、姿勢判定部121が実行する処理の具体例について説明する。
(1)姿勢判定部が特徴点の移動軌跡を算出するまでの処理の具体例
はじめに、姿勢判定部121が、人物140の体に対応する画像領域より特徴点を検出し、各フレームの画像データ間における該特徴点の移動軌跡(以下、単に軌跡と称す)を算出するまでの処理の具体例について説明する。図4は、姿勢判定部が特徴点の軌跡を算出するまでの処理の具体例を示す図である。
図4において、各フレームの画像データ400〜406は、動画像記憶装置130から読み出された動画像に含まれる各フレームのうち、時刻t〜時刻tに撮像されたフレームの画像データである。なお、図4の例は、時刻tにおいて、被写体である人物140が、撮像範囲外にいたことを示している。また、図4の例は、時刻tにおいて、被写体である人物140が撮像範囲内に移動し、時刻t〜時刻tの間、画像データから検出されたことを示している。更に、図4の例は、時刻tにおいて、被写体である人物140が、再び、撮像範囲外に移動しことを示している。
また、図4において、体領域画像411〜415は、各フレームの画像データ400〜406のうち、人物140が含まれるフレームの画像データ401〜405から検出した、人物140の体に対応する画像領域を示している。
また、図4において、特徴点画像421〜425は、体領域画像411〜415それぞれより検出された特徴点C11〜C15、特徴点C21〜C25、・・・特徴点C51〜C55を、体領域画像411〜415それぞれに重ね合わせることで生成した画像である。なお、特徴点C11〜C15、特徴点C21〜C25、・・・特徴点C51〜C55は、体領域画像411〜415それぞれより検出された、同一または類似の動きパターンの特徴点である。
更に、図4において、特徴点画像421〜425に示す軌跡データV21、V22、・・・V53は、各フレームの画像データ間における各特徴点の軌跡を示している。例えば、軌跡データV21は、画像データ401〜画像データ402の間で、特徴点C11が特徴点C21に移動した軌跡を示している。このように、各フレームの画像データ間で特徴点を対応付けることで、各特徴点の各フレームの画像データ間での軌跡を示す軌跡データを算出することができる。
(2)姿勢判定部が円を算出するまでの処理の具体例
次に、姿勢判定部121が、各フレームの画像データ間の各特徴点の軌跡に基づいて、各軌跡を各弧とする円を算出するまでの処理の具体例について説明する。図5は、姿勢判定部が円を算出するまでの処理の具体例を示す図である。
このうち、図5(a)は、画像データ内の各位置の座標を特定するために、横軸をX軸、縦軸をY軸とした2次元空間を定義し、該2次元空間に特徴点画像421〜425を重ね合わせて表示した様子を示している。時刻t〜時刻tの間に、人物140が上半身を前傾させた場合、図5(a)のように、対応する特徴点同士の軌跡は、いずれも、人物140の腰部近傍を中心とする円を描くことになる。
ここで、対応する特徴点C11、C21、C31、C41、C51の軌跡(軌跡データV21、V22、・・・V53)を各弧とする円の中心座標を(a,b)、円の半径をrとする。この場合、各特徴点C11、C21、C31、C41、C51の各座標(xij,yij)は、それぞれ、式1を満たすことになる。
Figure 2018195166
上記の式1を展開し行列式で表わすと、式2のようになる。
Figure 2018195166
なお、上記の式2において、A、B、Cは、下記の式3を満たすことになる。
Figure 2018195166
この結果、図5(c)に示すように、特徴点C11、C21、C31、C41、C51の軌跡(軌跡データV21、V31、V41、V51)を各弧とする円として、半径rの円501を算出することができる。また、同様の処理を行うことで特徴点C12、C22、C32、C42、C52の軌跡(軌跡データV22、V32、V42、V52)を各弧とする円として、半径rの円502を算出することができる。更に、特徴点C13、C23、C33、C43、C53の軌跡(軌跡データV23、V33、V43、V53)を各弧とする円として、半径rの円503を算出することができる。
このように、各フレームの画像データ間での各特徴点の軌跡を各弧とする円を算出することで、人物140の前傾姿勢または後傾姿勢が、人物140のどの部位を回転中心としているのかを特定することができる。
なお、特徴点C41、C42、C43、C44、C45は、時刻t〜時刻tの間でほとんど移動していないため、円が算出されることはない。同様に、特徴点C51、C52、C53、C54、C55も、時刻t〜時刻tの間ではほとんど移動していないため、円が算出されることはない。
(3)姿勢判定部が回転中心を特定するまでの処理の具体例
次に、姿勢判定部121が、算出した円に基づいて、人物140の前傾姿勢または後傾姿勢における回転中心を特定するまでの処理の具体例について説明する。
図6は、姿勢判定部が回転中心を特定するまでの処理の具体例を示す図である。このうち、図6(a)は、横軸をX軸、縦軸をY軸とした2次元空間に、特徴点画像421〜425を重ね合わせて表示し、更に、円501〜円503及び円501〜円503それぞれの円心601〜603を重ね合わせて表示した様子を示している。
図6(a)に示すように、円心601〜603は、通常、互いに完全には一致しない。そこで、姿勢判定部121は、人物140の前傾姿勢または後傾姿勢における回転中心として、各円心601〜603の重心位置を算出する。
図6(b)は、円心601〜603の重心位置を算出することで、回転中心610を特定した様子を示している。このように、複数の円心が算出され、それらが互いに一致しない場合、姿勢判定部121は、重心位置を算出することで、人物140の前傾姿勢または後傾姿勢における回転中心を一意に特定する。
(4)姿勢判定部が姿勢を判定するまでの処理の具体例
次に、姿勢判定部121が、特定した回転中心に基づいて、人物140の姿勢(前傾姿勢、後傾姿勢、直立姿勢)を判定するまでの処理の具体例について説明する。図7は、姿勢判定部が姿勢を判定するまでの処理の具体例を示す図である。
このうち、図7(a)は、横軸をX軸、縦軸をY軸とした2次元空間に、時刻t〜tまでの体領域画像411等を配置することで、人物140の姿勢の判定に用いるパラメータ(体幹軸と垂直軸との間の傾き角度)を算出する様子を示している。
図7(a)に示すように、姿勢判定部121は、時刻tの体領域画像411(または時刻tの体領域画像415)において、体軸点701〜706を抽出する。体軸点701〜706は、回転中心610よりも上側に位置し、体領域画像411(または体領域画像415)の中央に位置する点(体領域画像の厚み方向の中央位置を示す点)である。姿勢判定部121は、回転中心610を通り、体軸点701〜706に近似する直線700を体幹軸として算出する。つまり、体幹軸は、体領域画像のうち回転中心よりも上側に位置する領域の体軸点を近似することで得られる、人物140の重心線を近似したものといえる。
同様に、姿勢判定部121は、時刻tの体領域画像412(または時刻tの体領域画像414)において、体軸点711〜716を抽出する。また、姿勢判定部121は、回転中心610を通り、体軸点711〜716に近似する直線710を体幹軸として算出する。
同様に、姿勢判定部121は、時刻tの体領域画像413において、体軸点721〜726を抽出する。また、姿勢判定部121は、回転中心610を通り、体軸点721〜726に近似する直線720を体幹軸として算出する。
図7(b)は、人物140の姿勢を判定するための判定方法を示す図であり、横軸をX軸、縦軸をY軸とした2次元空間を示している。図7(b)に示すように、人物140の姿勢を判定するための判定方法を示す図は、回転中心610を通る一点鎖線730(垂直軸)を0°とし、回転中心610周りにおいて、時計回り方向を+、反時計回り方向を−と定義している。また、−θ〜+θの範囲を直立姿勢、+θ〜+θの範囲を前傾姿勢、−θ〜−θの範囲を後傾姿勢と定義している。
図7(a)の直線700(体幹軸)と一点鎖線730(垂直軸)との間の傾き角度は、−θ〜+θの範囲に含まれるため、姿勢判定部121は、時刻t(または時刻t)における人物140の姿勢を、直立姿勢と判定する。同様に、図7(a)において直線710(体幹軸)と一点鎖線730(垂直軸)との間の傾き角度は、−θ〜+θの範囲に含まれるため、姿勢判定部121は、時刻t(または時刻t)における人物140の姿勢を、直立姿勢と判定する。
一方、図7(a)の直線720(体幹軸)と一点鎖線730(垂直軸)との間の傾き角度は、+θ〜+θの範囲に含まれるため、姿勢判定部121は、時刻tにおける人物140の姿勢を、前傾姿勢と判定する。
このように、特定した回転中心を用いて人物140の体幹軸の傾き角度を算出することで、人物140の上半身のみが前傾または後傾している場合でも、人物140の姿勢を精度よく判定することができる。
<姿勢判定部の機能構成>
次に、姿勢判定部121の機能構成の詳細について説明する。図8は、姿勢判定部の機能構成の一例を示す第1の図である。図8に示すように、姿勢判定部121は、画像読み出し部801と、体領域検出部802と、特徴点検出部803と、軌跡算出部804と、回転中心特定部805と、体幹軸算出部806と、上半身姿勢判定部807とを有する。
画像読み出し部801は、動画像記憶装置130に記憶された動画像を読み出し、各フレームの画像データを体領域検出部802に通知する。
体領域検出部802は、画像読み出し部801より通知された画像データから、人物140の体領域画像を検出し、検出した体領域画像を特徴点検出部803に通知する。また、体領域検出部802は、体領域画像を一旦、体領域画像記憶部810に記憶する。
ここで、処理対象の体領域画像が、時刻tのフレームの画像データから検出された体領域画像であったとする。この場合、体領域画像記憶部810には、例えば、時刻tn−2から時刻tn+2までの間の各フレームの画像データから検出された体領域画像が記憶されるものとする。
特徴点検出部803は、体領域検出部802より通知された処理対象の体領域画像において、特徴点を検出し、体領域画像に重ね合わせることで、特徴点画像を生成する。特徴点検出部803は、処理対象の体領域画像に基づいて生成した特徴点画像を一旦、特徴点記憶部820に記憶する。特徴点記憶部820には、体領域画像記憶部810に記憶された各体領域画像に基づいて生成した各特徴点画像が記憶されるものとする。
軌跡算出部804は、特徴点記憶部820に記憶された各特徴点画像を読み出し、各特徴点の軌跡を算出する。軌跡算出部804は、例えば、時刻tn−2のフレームの画像データに基づいて生成された特徴点画像と時刻tn−1のフレームの画像データに基づいて生成された特徴点画像とを用いて、両フレームの画像データ間における特徴点の軌跡を算出する。以下、同様に、時刻tn−1と時刻t、時刻tと時刻tn+1、時刻tn+1と時刻tn+2との間で、それぞれ特徴点の軌跡を算出する。このように、軌跡算出部804は、各フレームの画像データ間における特徴点の軌跡を算出し、軌跡データとして、回転中心特定部805に通知する。
回転中心特定部805は特定部の一例である。回転中心特定部805は、軌跡算出部804より通知された軌跡データに基づいて、各軌跡を各弧とする円の円心を算出する。各軌跡を各弧とする円が一つの場合、回転中心特定部805は、算出した円の円心を回転中心として特定して、体幹軸算出部806に通知する。一方、各軌跡を各弧とする円が複数の場合、回転中心特定部805は、算出した複数の円それぞれの円心から重心位置を算出し、算出した重心位置を回転中心として特定して、体幹軸算出部806に通知する。
体幹軸算出部806は、体領域画像記憶部810より処理対象の体領域画像を読み出し、複数の体軸点を抽出する。体幹軸算出部806は、体領域画像のうち、回転中心特定部805より通知された回転中心よりも上側に位置する領域を対象として、複数の体軸点を抽出する。
また、体幹軸算出部806は、回転中心特定部805より通知された回転中心を通り、抽出した体軸点に近似する直線を、体幹軸として算出する。体幹軸算出部806は、算出した体幹軸を示す情報(体幹軸情報)を、上半身姿勢判定部807に通知する。
上半身姿勢判定部807は判定部の一例であり、体幹軸算出部806より通知された体幹軸情報に基づいて、人物140の時刻tにおける姿勢を判定し、姿勢判定結果を判定結果DB122に格納する。このとき、上半身姿勢判定部807は、被写体有無=“有り”をあわせて判定結果DB122に格納する。
なお、上半身姿勢判定部807は、
・人物140の時刻tにおける姿勢を、前傾姿勢または後傾姿勢と判定した場合、かつ、
・人物140の時刻tn−2、時刻tn−1、時刻tn+1、時刻tn+2におけるそれぞれの姿勢が判定されていない場合、
姿勢判定結果を体幹軸算出部806に通知する。この場合、体幹軸算出部806は、回転中心特定部805より通知された回転中心と、時刻tn−2、時刻tn−1、時刻tn+1、時刻tn+2のフレームそれぞれの画像データより検出された体領域画像とを用いて体幹軸をそれぞれ算出する。また、体幹軸算出部806は、算出した各体幹軸を各体幹軸情報として、上半身姿勢判定部807に通知する。これにより、上半身姿勢判定部807は、体幹軸算出部806より通知された各体幹軸情報に基づいて、人物140の時刻tn−2、時刻tn−1、時刻tn+1、時刻tn+2におけるそれぞれの姿勢を判定する。この結果、上半身姿勢判定部807は、人物140の時刻tn−2、時刻tn−1、時刻tn+1、時刻tn+2におけるそれぞれの姿勢の姿勢判定結果を被写体有無とともに、姿勢判定結果を判定結果DB122に格納することができる。
より具体的に説明する。例えば、人物140の姿勢が直立であった場合、回転中心特定部805では、軌跡を各弧とする円を算出することができない(つまり、回転中心を特定することができない)。一方で、人物140の姿勢が前傾姿勢または後傾姿勢であった場合、回転中心特定部805では、軌跡を各弧とする円を算出することが可能となる(つまり、回転中心を特定することができる)。
したがって、上半身姿勢判定部807は、人物140の姿勢が前傾姿勢又は後傾姿勢であると判定した場合に、姿勢判定結果を体幹軸算出部806に通知する。そして、体幹軸算出部806は、前後の時刻のフレームの画像データから検出された体領域画像について、前後の時刻における人物140の体幹軸を算出する。これにより、上半身姿勢判定部807は、前後の時刻における人物140の姿勢を判定することが可能となる。
<上半身姿勢判定処理の流れ>
次に、上半身姿勢判定部807による上半身姿勢判定処理の流れについて説明する。図9は、上半身姿勢判定処理の第1のフローチャートである。体幹軸算出部806より体幹軸情報(例えば、時刻tに対応する体幹軸情報)が通知されると、図9に示す上半身姿勢判定処理が開始される。
ステップS901において、上半身姿勢判定部807は時刻tに対応する体幹軸情報を取得する。ステップS902において、上半身姿勢判定部807は、体幹軸情報により特定される体幹軸と、垂直軸との間の傾き角度を算出する。
ステップS903において、上半身姿勢判定部807は、算出した傾き角度が、閾値(+θ)より大きいか否かを判定する。ステップS903において、閾値(+θ)より大きいと判定された場合(ステップS903においてYesの場合)、ステップS904に進む。
ステップS904において、上半身姿勢判定部807は、人物140の姿勢を前傾姿勢と判定し、姿勢判定結果を被写体有無とともに判定結果DB122に格納する。
ステップS905において、上半身姿勢判定部807は、時刻tn−2、tn−1、tn+1、tn+2の姿勢判定結果が、判定結果DB122に格納されていない場合、時刻tの姿勢判定結果を体幹軸算出部806に通知する。
これにより、体幹軸算出部806は、時刻tn−2、tn−1、tn+1、tn+2の体領域画像に基づいて、それぞれの体幹軸を算出し、体幹軸情報を上半身姿勢判定部807に通知することが可能となる。この結果、図9に示す上半身姿勢判定処理が再度実行され、時刻tn−2、tn−1、tn+1、tn+2における人物140の姿勢が判定されることとなる。
一方、ステップS903において、傾き角度が閾値(+θ)以下であると判定された場合(ステップS903においてNoの場合)には、ステップS906に進む。
ステップS906において、上半身姿勢判定部807は、傾き角度が閾値(−θ)より大きいか否かを判定する。ステップS906において、傾き角度が閾値(−θ)より大きいと判定された場合(ステップS906においてYesの場合)、ステップS907に進む。
ステップS907において、上半身姿勢判定部807は、人物140の姿勢を直立姿勢と判定し、姿勢判定結果を被写体有無とともに判定結果DB122に格納する。
一方、ステップS906において、傾き角度が閾値(−θ)以下であると判定された場合(ステップS906においてNoの場合)には、ステップS908に進む。
ステップS908において、上半身姿勢判定部807は、人物140の姿勢を後傾姿勢と判定し、姿勢判定結果を被写体有無とともに判定結果DB122に格納する。
ステップS909において、上半身姿勢判定部807は、時刻tn−2、tn−1、tn+1、tn+2の姿勢判定結果が、判定結果DB122に格納されていない場合、時刻tの姿勢判定結果を体幹軸算出部806に通知する。
これにより、体幹軸算出部806は、時刻tn−2、tn−1、tn+1、tn+2の体領域画像に基づいて、それぞれの体幹軸を算出し、体幹軸情報として上半身姿勢判定部807に通知することができる。この結果、図9に示す上半身姿勢判定処理が再度実行され、時刻tn−2、tn−1、tn+1、tn+2における人物140の姿勢が判定されることになる。
以上の説明から明らかなように、第1の実施形態における情報処理装置120は、撮像した動画像に含まれる各フレームの画像データから、人物の体に対応する体領域画像を検出するとともに、特徴点を検出し、特徴点画像を生成する。また、第1の実施形態における情報処理装置120は、処理対象の特徴点画像の前後の複数の特徴点画像に基づいて、特徴点の画像データ間の軌跡を各弧とする円の円心を算出する。更に、第1の実施形態における情報処理装置120は、算出した円心に基づいて、人物140の回転中心を特定し、特定した回転中心を用いて、人物140の体幹軸の傾き角度を算出することで、人物140の姿勢を判定する。
このように、第1の実施形態では、各フレームの画像データ間での各特徴点の軌跡に基づいて回転中心を特定してから、人物140の姿勢を判定する。このため、第1の実施形態によれば、上半身のみが前傾または後傾している場合でも、人物の前傾姿勢または後傾姿勢を精度よく判定することができる。
[第2の実施形態]
上記第1の実施形態において上半身姿勢判定部807は、人物140が撮像装置110から見て右向きに立つことを前提として、人物140の姿勢を判定した。しかしながら、人物140の向きはこれに限定されず、撮像装置110から見て右向きの場合と左向きの場合とがある。
そこで、第2の実施形態では、人物140が撮像装置110から見て、いずれの向きに立つかに応じて、人物140の姿勢の判定方法を切り替える場合について説明する。なお、以下では、上記第1の実施形態との相違点を中心に説明する。
<姿勢判定部の機能構成>
図10は、姿勢判定部の機能構成の一例を示す第2の図である。上記第1の実施形態において、図8を用いて説明した機能構成との相違点は、姿勢判定部1000が向き判定部1001を有する点である。向き判定部1001は、体領域検出部802より体領域画像の通知を受けると、右向きの所定の画像パターンと、左向きの所定の画像パターンとのマッチング処理をそれぞれ行い、マッチング度に基づいて、人物140の体の向きを判定する。また、向き判定部1001は、判定した人物140の体の向きを、向き判定結果として、上半身姿勢判定部807に通知する。
上半身姿勢判定部807では、向き判定部1001より通知された向き判定結果に基づいて、判定方法を切り替えて、人物140の姿勢を判定する。
<上半身姿勢判定処理の流れ>
次に、上半身姿勢判定部807による上半身姿勢判定処理の流れについて説明する。図11は、上半身姿勢判定処理の第2のフローチャートである。上記第1の実施形態において、図9を用いて説明したフローチャートとの相違点は、ステップS1101〜S1108である。
ステップS1101において、上半身姿勢判定部807は、向き判定部1001より通知された向き判定結果に基づいて、人物140の体の向きを判定する。ステップS1101において、人物140の体の向きが左向きであると判定された場合には、ステップS1102に進む。
ステップS1102において、上半身姿勢判定部807は、算出した傾き角度が、閾値(−θ)より小さいか否かを判定する。ステップS1102において、閾値(−θ)より小さいと判定された場合(ステップS1102においてYesの場合)、ステップS1103に進む。
ステップS1103において、上半身姿勢判定部807は、人物140の姿勢を前傾姿勢と判定し、姿勢判定結果を被写体有無とともに判定結果DB122に格納する。
ステップS1104において、上半身姿勢判定部807は、時刻tn−2、tn−1、tn+1、tn+2の姿勢判定結果が、判定結果DB122に格納されていない場合、時刻tの姿勢判定結果を体幹軸算出部806に通知する。
これにより、体幹軸算出部806は、時刻tn−2、tn−1、tn+1、tn+2の体領域画像に基づいて、それぞれの体幹軸を算出し、体幹軸情報を上半身姿勢判定部807に通知することができる。この結果、図11に示す上半身姿勢判定処理が再度実行され、時刻tn−2、tn−1、tn+1、tn+2における人物140の姿勢が判定されることになる。
一方、ステップS1102において、傾き角度が閾値(−θ)以上であると判定された場合(ステップS1102においてNoの場合)には、ステップS1105に進む。
ステップS1105において、上半身姿勢判定部807は、傾き角度が閾値(+θ)より小さいか否かを判定する。ステップS1105において、傾き角度が閾値(+θ)より小さいと判定された場合(ステップS1105においてYesの場合)、ステップS1106に進む。
ステップS1106において、上半身姿勢判定部807は、人物140の姿勢を直立姿勢と判定し、姿勢判定結果を被写体有無とともに判定結果DB122に格納する。
一方、ステップS1105において、傾き角度が閾値(+θ)以上であると判定された場合(ステップS1105においてNoの場合)には、ステップS1107に進む。
ステップS1107において、上半身姿勢判定部807は、人物140の姿勢を後傾姿勢と判定し、姿勢判定結果を被写体有無とともに判定結果DB122に格納する。
ステップS1108において、上半身姿勢判定部807は、時刻tn−2、tn−1、tn+1、tn+2の姿勢判定結果が、判定結果DB122に格納されていない場合、時刻tの姿勢判定結果を体幹軸算出部806に通知する。
これにより、体幹軸算出部806は、時刻tn−2、tn−1、tn+1、tn+2の体領域画像に基づいて、それぞれの体幹軸を算出し、体幹軸情報を上半身姿勢判定部807に通知することができる。この結果、図11に示す上半身姿勢判定処理が開始され、時刻tn−2、tn−1、tn+1、tn+2における人物140の姿勢が判定されることになる。
以上の説明から明らかなように、第2の実施形態における情報処理装置120は、人物140の向きを判定し、人物140の姿勢を判定する際の判定方法を切り替える。この結果、第2の実施形態によれば、上半身のみが前傾または後傾している場合であっても、更には、人物140の向きが右向きであっても左向きであっても、前傾姿勢または後傾姿勢を精度よく判定することができる。
[第3の実施形態]
上記第1及び第2の実施形態では、体幹軸算出部806が体幹軸を算出する際、回転中心を通る直線により、体軸点を近似するものとして説明した。これに対して、第3の実施形態では、回転中心を通る曲線により体軸点を近似した方が、回転中心を通る直線により体軸点を近似するよりも、誤差(例えば、最小二乗誤差)が小さい場合に、回転中心を通る曲線により、体軸点を近似する。更に、第3の実施形態では、近似した曲線の曲率を算出することで、人物140の状態(猫背か正常か)を判定する。以下、第3の実施形態について、第1及び第2の実施形態との相違点を中心に説明する。
<姿勢判定部による処理の具体例>
はじめに、姿勢判定部121が、人物140の姿勢を判定した後に、人物140の状態を判定する処理の具体例について説明する。図12は、姿勢判定部が人物の状態を判定する処理の具体例を示す図である。
このうち、図12(a)は、横軸をX軸、縦軸をY軸とした2次元空間に、時刻tn−2における様々なケースの体領域画像1210、1220、1230を配置し、人物140の状態を判定するためのパラメータ(曲率)を算出する様子を示している。
時刻tのフレームに基づいて特定された回転中心610に対して、時刻tn−2のフレームの画像データに基づいて検出された体領域画像1210から、体軸点1211〜1216が抽出されたとする。この場合、姿勢判定部121では、回転中心610を通り、体軸点1211〜1216を近似する直線1241を、誤差(例えば、最小二乗誤差)が最も小さい近似直線として算出する。
一方、時刻tのフレームに基づいて特定された回転中心610に対して、時刻tn−2のフレームの画像データに基づいて検出された体領域画像1220から、体軸点1221〜1226が抽出されたとする。この場合、姿勢判定部121では、回転中心610を通り、体軸点1221〜1226を近似する曲線1251を、誤差(例えば、最小二乗誤差)が最も小さい近似曲線として算出する。
更に、時刻tのフレームに基づいて特定された回転中心610に対して、時刻tn−2のフレームの画像データに基づいて検出された体領域画像1230から、体軸点1231〜1236が抽出されたとする。この場合、姿勢判定部121では、回転中心610を通り、体軸点1231〜1236を近似する曲線1261を、誤差(最小二乗誤差)が最も小さい近似曲線として算出する。
図12(b)は、算出した近似曲線に基づいて、人物140の状態を判定するための判定方法を示す図である。図12(b)に示すように、人物140の状態の判定は、回転中心610が、人物140の腰部に位置していることを条件に、近似曲線が算出された場合の該近似曲線の曲率と、曲率閾値Rとの対比に基づいて行われる。具体的には、算出した近似曲線の曲率が曲率閾値R未満である場合、姿勢判定部121は、人物140の状態が正常であると判定する。一方、算出した近似曲線の曲率が曲率閾値R以上である場合、姿勢判定部121は、人物140の状態が猫背であると判定する。なお、近似直線が算出された場合には、曲率を算出するまでもなく、人物140の状態が正常であると判定する。
なお、近似曲線をf(x)とした場合、該近似曲線f(x)の曲率kは、下記の式4により算出される。
Figure 2018195166
図12(a)の例では、直線1241及び曲線1251が算出された場合、姿勢判定部121は、人物140の状態が正常であると判定する。一方、曲線1261が算出された場合、姿勢判定部121は、人物140の状態が猫背であると判定する。
<姿勢判定部の機能構成>
図13は、姿勢判定部の機能構成の一例を示す第3の図である。上記第1の実施形態において、図8を用いて説明した機能構成との相違点は、姿勢判定部1300が、体幹軸算出部1301、体幹軸曲率算出部1302、上半身状態判定部1303を有する点である。
体幹軸算出部1301は、図8の体幹軸算出部806と同様の機能を有することに加えて、時刻tn−2のフレームの画像データから検出された体領域画像を用いて体軸点を抽出する。また、体幹軸算出部1301は、回転中心を通り、抽出した体軸点を近似する近似曲線を算出し、体幹軸曲率算出部1302に通知する。
体幹軸曲率算出部1302は、体幹軸算出部1301より通知された近似曲線の曲率を算出し、曲率情報として上半身状態判定部1303に通知する。
上半身状態判定部1303は、体幹軸曲率算出部1302より曲率情報の通知を受けると、曲率閾値Rと対比することで、人物140の状態が、正常な状態であるのか、猫背の状態であるのかを判定する。また、上半身状態判定部1303は、状態判定結果を判定結果DB122に格納する。
<上半身状態判定処理の流れ>
次に、体幹軸算出部1301、体幹軸曲率算出部1302、上半身状態判定部1303による上半身状態判定処理の流れについて説明する。図14は、上半身状態判定処理のフローチャートである。時刻tの回転中心を特定した後に、上半身姿勢判定部807より、姿勢判定結果(前傾姿勢または後傾姿勢)が体幹軸算出部1301に通知されると、図14に示す上半身状態判定処理が開始される。
ステップS1401において、体幹軸算出部1301は、時刻tn−2のフレームの画像データから検出された体領域画像を、体領域画像記憶部810より読み出す。
ステップS1402において、体幹軸算出部1301は、読み出した体領域画像より、体軸点を抽出する。
ステップS1403において、体幹軸算出部1301は、特定した回転中心を通り、体軸点を近似する近似曲線を算出する。
ステップS1404において、体幹軸曲率算出部1302は、ステップS1403において算出された近似曲線の曲率を算出する。
ステップS1405において、上半身状態判定部1303は、ステップS1404において算出された曲率が、曲率閾値R未満か否かを判定する。ステップS1405において、曲率閾値R未満であると判定された場合(ステップS1405においてYesの場合)には、ステップS1406に進む。
ステップS1406において、上半身状態判定部1303は、人物140が正常な状態であると判定する。
一方、ステップS1405において、曲率閾値R以上であると判定された場合(ステップS1405においてNoの場合)には、ステップS1407に進む。
ステップS1407において、上半身状態判定部1303は、人物140が猫背の状態であると判定する。
以上の説明から明らかなように、第3の実施形態における情報処理装置120は、人物140の姿勢が前傾または後傾であった場合に、その前後のいずれかの体領域画像を読み出す。また、第3の実施形態における情報処理装置120は、読み出した体領域画像について、回転中心を通り、体軸点を近似する近似曲線の曲率を算出することで、人物140の状態(猫背の状態か正常な状態か)を判定する。これにより、第3の実施形態によれば、人物140の姿勢に加えて、人物の状態を判定することができる。
[第4の実施形態]
上記第1乃至第3の実施形態では、人物140の姿勢(及び状態)を判定し、姿勢判定結果(及び状態判定結果)を判定結果DBに格納するまでの処理について説明した。これに対して、第4の実施形態では、判定結果DBに格納された姿勢判定結果(及び状態判定結果)を解析し、解析結果を出力する処理について説明する。以下、第4の実施形態について、上記第1乃至第3の実施形態との相違点を中心に説明する。
図15は、姿勢判定システムのシステム構成の一例を示す第2の図である。図1に示す姿勢判定システム100との相違点は、解析装置1520が、ネットワーク1510を介して情報処理装置120に接続されている点である。なお、第4の実施形態において、撮像装置110、情報処理装置120、動画像記憶装置130は、例えば、所定の店舗に設置されているものとする。
解析装置1520は、判定結果DB122にアクセスし、姿勢判定結果(及び状態判定結果)を含む判定結果情報300を読み出す。また、解析装置1520は、読み出した判定結果情報300を解析し、解析結果を出力する。
第4の実施形態において、解析装置1520により出力される解析結果には、例えば、接客支援に関する情報、マーケティングに関する情報、健康管理に関する情報等が含まれるものとする。
接客支援に関する情報とは、撮像装置110が撮像する人物140が、来店した顧客である場合において、顧客が特定の商品に関心を示したことで前傾姿勢になった場合に、これを判定することで得られる、顧客が関心を示した商品を把握するための情報である。このように、解析装置1520が接客支援に関する情報を出力することで、店員は、店舗内のいずれの顧客がいずれの商品に関心を示しているのかを把握することができる。
マーケティングに関する情報とは、撮像装置110が撮像する人物140が、来店した顧客である場合において、顧客が特定の商品に関心を示したことで前傾姿勢になった場合に、これを判定することで得られる、顧客が関心をもった商品を集計した情報である。複数の店舗に撮像装置110を設置し、解析装置1520が、全ての店舗における姿勢判定結果を集計してマーケティングに関する情報として出力することで、商品開発者は顧客が関心をもった商品の傾向を把握し、商品開発に活用することができる。
健康管理に関する情報とは、撮像装置110が撮像する人物140が、店舗の従業員である場合において、疲労により従業員が猫背の状態になった場合に、これを判定することで得られる、従業員の疲労状態を把握するための情報である。このように、健康管理に関する情報を出力することで、従業員の管理者は、従業員の疲労状態を把握し、従業員の勤務体制を見直すなどの健康管理上の対策をとることができる。
[その他の実施形態]
上記第1及び第2の実施形態では、回転中心610を通る一点鎖線730の算出方法について特に言及しなかったが、例えば、一点鎖線730は、画像データの縦の画素を基準として算出してもよい。あるいは、画像データに含まれる被写体のうち、特定の被写体(人工物)を基準として算出してもよい。あるいは、画像データに含まれる人物140の脚部の体軸を基準として算出してもよい。いずれにしても、人物140が立つ面における垂直方向を、画像データ上において特定し、特定した垂直方向を基準として一点鎖線730を算出するものとする。
また、上記第1及び第2の実施形態では、体領域画像全体を対象として特徴点を検出する場合について説明した。しかしながら、特徴点の検出対象は、体領域画像全体に限られず、例えば、体領域画像のうちの特定の部位に対応する部分領域であってもよい。ここでいう特定の部位には、例えば、肩部、腰部等が含まれる。
また、上記第1及び第2の実施形態では、各フレームの画像データから人物140を抽出することで体領域画像を検出する場合について説明したが、各フレームの画像データから、背景画像を削除することで体領域画像を検出してもよい。ここでいう背景画像とは、人物140が撮像範囲に含まれる前に撮像された画像データを指す。
なお、開示の技術では、以下に記載する付記のような形態が考えられる。
(付記1)
複数の撮像画像それぞれから検出された人の体に対応する画像領域内において同一または類似の動きパターンの特徴点を検出し、検出した該特徴点の撮像画像間での移動軌跡に基づき、該移動軌跡を各弧とする円の中心部分を特定し、
特定した前記中心部分の位置に基づいて、前記人の姿勢を判定する、
処理をコンピュータに実行させることを特徴とする姿勢判定プログラム。
(付記2)
前記画像領域のうち、前記中心部分よりも上側に位置する画像領域の傾きであって、前記人が立つ面における垂直方向に対する傾きに基づいて、前記人の姿勢を判定することを特徴とする付記1に記載の姿勢判定プログラム。
(付記3)
前記中心部分よりも上側に位置する画像領域に基づいて算出した、前記人の重心線を近似する直線の、前記垂直方向に対する傾きに基づいて、前記人の姿勢を判定することを特徴とする付記2に記載の姿勢判定プログラム。
(付記4)
前記傾きに基づいて、前記人が前傾姿勢か、後傾姿勢か、直立姿勢かを判定することを特徴とする付記3に記載の姿勢判定プログラム。
(付記5)
前記人の体の向きを判定し、判定した向きに応じて、前記人の姿勢を判定する際の判定方法を切り替えることを特徴とする付記1乃至4のいずれかの付記に記載の姿勢判定プログラム。
(付記6)
前記画像領域の前記人の体の所定の部位に対応する部分領域より、前記特徴点を検出することを特徴とする付記1に記載の姿勢判定プログラム。
(付記7)
前記中心部分よりも上側に位置する画像領域に基づいて前記人の重心線を近似する曲線を算出し、算出した曲線の曲率に基づいて、前記人の状態を判定することを特徴とする付記1に記載の姿勢判定プログラム。
(付記8)
複数の撮像画像それぞれから検出された人の体に対応する画像領域内において同一または類似の動きパターンの特徴点を検出し、検出した該特徴点の撮像画像間での移動軌跡に基づき、該移動軌跡を各弧とする円の中心部分を特定する特定部と、
特定した前記中心部分の位置に基づいて、前記人の姿勢を判定する判定部と
を有することを特徴とする姿勢判定装置。
(付記9)
複数の撮像画像それぞれから検出された人の体に対応する画像領域内において同一または類似の動きパターンの特徴点を検出し、検出した該特徴点の撮像画像間での移動軌跡に基づき、該移動軌跡を各弧とする円の中心部分を特定し、
特定した前記中心部分の位置に基づいて、前記人の姿勢を判定する、
処理をコンピュータが実行することを特徴とする姿勢判定方法。
なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。
100 :姿勢判定システム
110 :撮像装置
120 :情報処理装置
121 :姿勢判定部
130 :動画像記憶装置
300 :判定結果情報
400〜406 :画像データ
411〜415 :体領域画像
421〜425 :特徴点画像
501〜503 :円
601〜603 :円心
610 :回転中心
701〜726 :体軸点
730 :一点鎖線
801 :画像読み出し部
802 :体領域検出部
803 :特徴点検出部
804 :軌跡算出部
805 :回転中心特定部
806 :体幹軸算出部
807 :上半身姿勢判定部
1001 :向き判定部
1301 :体幹軸算出部
1302 :体幹軸曲率算出部
1303 :上半身状態判定部
1520 :解析装置

Claims (9)

  1. 複数の撮像画像それぞれから検出された人の体に対応する画像領域内において同一または類似の動きパターンの特徴点を検出し、検出した該特徴点の撮像画像間での移動軌跡に基づき、該移動軌跡を各弧とする円の中心部分を特定し、
    特定した前記中心部分の位置に基づいて、前記人の姿勢を判定する、
    処理をコンピュータに実行させることを特徴とする姿勢判定プログラム。
  2. 前記画像領域のうち、前記中心部分よりも上側に位置する画像領域の傾きであって、前記人が立つ面における垂直方向に対する傾きに基づいて、前記人の姿勢を判定することを特徴とする請求項1に記載の姿勢判定プログラム。
  3. 前記中心部分よりも上側に位置する画像領域に基づいて算出した、前記人の重心線を近似する直線の、前記垂直方向に対する傾きに基づいて、前記人の姿勢を判定することを特徴とする請求項2に記載の姿勢判定プログラム。
  4. 前記傾きに基づいて、前記人が前傾姿勢か、後傾姿勢か、直立姿勢かを判定することを特徴とする請求項3に記載の姿勢判定プログラム。
  5. 前記人の体の向きを判定し、判定した向きに応じて、前記人の姿勢を判定する際の判定方法を切り替えることを特徴とする請求項1乃至4のいずれか1項に記載の姿勢判定プログラム。
  6. 前記画像領域の前記人の体の所定の部位に対応する部分領域より、前記特徴点を検出することを特徴とする請求項1に記載の姿勢判定プログラム。
  7. 前記中心部分よりも上側に位置する画像領域に基づいて前記人の重心線を近似する曲線を算出し、算出した曲線の曲率に基づいて、前記人の状態を判定することを特徴とする請求項1に記載の姿勢判定プログラム。
  8. 複数の撮像画像それぞれから検出された人の体に対応する画像領域内において同一または類似の動きパターンの特徴点を検出し、検出した該特徴点の撮像画像間での移動軌跡に基づき、該移動軌跡を各弧とする円の中心部分を特定する特定部と、
    特定した前記中心部分の位置に基づいて、前記人の姿勢を判定する判定部と
    を有することを特徴とする姿勢判定装置。
  9. 複数の撮像画像それぞれから検出された人の体に対応する画像領域内において同一または類似の動きパターンの特徴点を検出し、検出した該特徴点の撮像画像間での移動軌跡に基づき、該移動軌跡を各弧とする円の中心部分を特定し、
    特定した前記中心部分の位置に基づいて、前記人の姿勢を判定する、
    処理をコンピュータが実行することを特徴とする姿勢判定方法。
JP2017099792A 2017-05-19 2017-05-19 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法 Active JP6922410B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017099792A JP6922410B2 (ja) 2017-05-19 2017-05-19 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法
EP18172602.7A EP3404513A1 (en) 2017-05-19 2018-05-16 Information processing apparatus, method, and program
US15/980,835 US10853636B2 (en) 2017-05-19 2018-05-16 Information processing apparatus, method, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017099792A JP6922410B2 (ja) 2017-05-19 2017-05-19 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法

Publications (2)

Publication Number Publication Date
JP2018195166A true JP2018195166A (ja) 2018-12-06
JP6922410B2 JP6922410B2 (ja) 2021-08-18

Family

ID=62495543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017099792A Active JP6922410B2 (ja) 2017-05-19 2017-05-19 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法

Country Status (3)

Country Link
US (1) US10853636B2 (ja)
EP (1) EP3404513A1 (ja)
JP (1) JP6922410B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177303A (ja) * 2019-04-15 2020-10-29 パナソニックIpマネジメント株式会社 監視システム、移動体、監視方法及びプログラム
WO2021166154A1 (ja) * 2020-02-20 2021-08-26 日本電信電話株式会社 行動分類装置、行動分類方法及びプログラム
JP2021170391A (ja) * 2020-11-23 2021-10-28 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 商品案内方法、装置、デバイス、記憶媒体、及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6922410B2 (ja) * 2017-05-19 2021-08-18 富士通株式会社 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法
JP2020129018A (ja) * 2019-02-07 2020-08-27 株式会社日立製作所 動作評価システムおよび方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003228458A (ja) * 2002-02-05 2003-08-15 Takenaka Komuten Co Ltd 指示動作認識装置及び方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000180162A (ja) 1998-12-11 2000-06-30 Hitachi Plant Eng & Constr Co Ltd 作業分析装置
JP3996015B2 (ja) * 2002-08-09 2007-10-24 本田技研工業株式会社 姿勢認識装置及び自律ロボット
JP4035610B2 (ja) * 2002-12-18 2008-01-23 独立行政法人産業技術総合研究所 インタフェース装置
US8135209B2 (en) * 2005-07-19 2012-03-13 Nec Corporation Articulated object position and posture estimation device, method and program
JP4476957B2 (ja) 2006-03-24 2010-06-09 本田技研工業株式会社 姿勢判別装置
US8726194B2 (en) * 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
JP2010226558A (ja) * 2009-03-25 2010-10-07 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
US20110317871A1 (en) 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
US8615136B2 (en) * 2010-10-08 2013-12-24 Industrial Technology Research Institute Computing device and method for motion detection
JP5579014B2 (ja) * 2010-10-12 2014-08-27 キヤノン株式会社 映像情報処理装置および方法
US9142034B2 (en) 2013-03-14 2015-09-22 Microsoft Technology Licensing, Llc Center of mass state vector for analyzing user motion in 3D images
WO2015133159A1 (ja) * 2014-03-05 2015-09-11 コニカミノルタ株式会社 画像処理装置、画像処理方法、および、画像処理プログラム
JP2016004354A (ja) 2014-06-16 2016-01-12 株式会社システムディ 身体の姿勢の判定方法
DE102015222388A1 (de) * 2015-11-13 2017-05-18 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zum Steuern einer Anzeigeeinrichtung in einem Kraftfahrzeug
US9870622B1 (en) * 2016-07-18 2018-01-16 Dyaco International, Inc. Systems and methods for analyzing a motion based on images
JP6922410B2 (ja) * 2017-05-19 2021-08-18 富士通株式会社 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003228458A (ja) * 2002-02-05 2003-08-15 Takenaka Komuten Co Ltd 指示動作認識装置及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
梶原祐輔: "人の輪郭と局所特徴量を用いた立礼教育システムにおける屈体角度の推定", 電気学会論文誌C, vol. 第135巻、第12号, JPN6021012141, 1 December 2015 (2015-12-01), JP, ISSN: 0004484657 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020177303A (ja) * 2019-04-15 2020-10-29 パナソニックIpマネジメント株式会社 監視システム、移動体、監視方法及びプログラム
JP7281733B2 (ja) 2019-04-15 2023-05-26 パナソニックIpマネジメント株式会社 監視システム、移動体、監視方法及びプログラム
WO2021166154A1 (ja) * 2020-02-20 2021-08-26 日本電信電話株式会社 行動分類装置、行動分類方法及びプログラム
JPWO2021166154A1 (ja) * 2020-02-20 2021-08-26
JP7323845B2 (ja) 2020-02-20 2023-08-09 日本電信電話株式会社 行動分類装置、行動分類方法及びプログラム
JP2021170391A (ja) * 2020-11-23 2021-10-28 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド 商品案内方法、装置、デバイス、記憶媒体、及びプログラム
JP7168837B2 (ja) 2020-11-23 2022-11-10 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 商品案内方法、装置、デバイス、記憶媒体、及びプログラム

Also Published As

Publication number Publication date
JP6922410B2 (ja) 2021-08-18
US10853636B2 (en) 2020-12-01
US20180336403A1 (en) 2018-11-22
EP3404513A1 (en) 2018-11-21

Similar Documents

Publication Publication Date Title
JP6922410B2 (ja) 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法
KR102307941B1 (ko) 눈 추적 시스템들을 위한 개선된 교정
TWI715117B (zh) 醫療影像處理方法及裝置、電子設備及儲存介質
JP5657113B2 (ja) 映像内のオブジェクトの意味解析
US11087493B2 (en) Depth-image processing device, depth-image processing system, depth-image processing method, and recording medium
CN111862296A (zh) 三维重建方法及装置、系统、模型训练方法、存储介质
JP2007042072A (ja) 追跡装置
JP6744747B2 (ja) 情報処理装置およびその制御方法
JP2014240753A (ja) 距離測定装置、距離測定方法、およびプログラム
CN111932492B (zh) 一种医学图像处理方法、装置及计算机可读存储介质
JPWO2018154709A1 (ja) 動作学習装置、技能判別装置および技能判別システム
CN113362441A (zh) 三维重建方法、装置、计算机设备和存储介质
JP6844230B2 (ja) 画像処理プログラム、画像処理装置および画像処理方法
JP4821355B2 (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
JP2015011526A (ja) 行動認識装置、方法及びプログラム並びに認識器構築装置
JP5448952B2 (ja) 同一人判定装置、同一人判定方法および同一人判定プログラム
CN111539327A (zh) 基于步态信息的轻度认知障碍识别方法及设备
CN111882601B (zh) 定位方法、装置及设备
JP2014203133A (ja) 画像処理装置、画像処理方法
KR20220098314A (ko) 뉴럴 네트워크의 트레이닝 방법과 장치 및 관련 대상 검출 방법과 장치
JP2021144359A (ja) 学習装置、推定装置、学習方法、及びプログラム
JP7041046B2 (ja) グループ推定装置及びグループ推定方法
JP6132996B1 (ja) 画像処理装置,画像処理方法,画像処理プログラム
JP2020149565A (ja) 画像処理装置、画像処理方法およびプログラム
JP6723822B2 (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210712

R150 Certificate of patent or registration of utility model

Ref document number: 6922410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150