JP2019219836A - 映像データから人の骨格位置の変位の軌跡を描写するプログラム、装置及び方法 - Google Patents

映像データから人の骨格位置の変位の軌跡を描写するプログラム、装置及び方法 Download PDF

Info

Publication number
JP2019219836A
JP2019219836A JP2018115828A JP2018115828A JP2019219836A JP 2019219836 A JP2019219836 A JP 2019219836A JP 2018115828 A JP2018115828 A JP 2018115828A JP 2018115828 A JP2018115828 A JP 2018115828A JP 2019219836 A JP2019219836 A JP 2019219836A
Authority
JP
Japan
Prior art keywords
skeleton
displacement
predetermined period
person
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018115828A
Other languages
English (en)
Other versions
JP6906273B2 (ja
Inventor
和之 田坂
Kazuyuki Tasaka
和之 田坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018115828A priority Critical patent/JP6906273B2/ja
Publication of JP2019219836A publication Critical patent/JP2019219836A/ja
Application granted granted Critical
Publication of JP6906273B2 publication Critical patent/JP6906273B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】映像データから人物の行動を推定し、当該行動に応じた骨格位置の変位の軌跡を描写するプログラム、装置及び方法を提供する。【解決手段】人物の行動毎に、軌跡を描写すべき1つ以上の骨格を予め対応付けた骨格設定テーブルと、映像データから、複数の骨格位置を時系列に抽出する骨格認識手段と、第1の所定期間の時系列の骨格位置の変位量から、人物の行動を推定する行動推定手段と、骨格設定テーブルを用いて、行動推定手段によって認識された行動に対応する1つ以上の骨格を特定する骨格特定手段と、骨格特定手段によって特定された骨格について、骨格認識手段によって抽出された、第2の所定期間の時系列の骨格位置の変位を軌跡として描写する骨格変位描写手段としてコンピュータを機能させる。【選択図】図1

Description

本発明は、映像データから、人物の行動を推定する技術に関する。
従来、人物間のオクルージョン中であるか否かにかかわらず、頑健かつ高精度な人物追跡を実現する画像処理の技術がある(例えば特許文献1参照)。この技術によれば、過去フレームの追跡結果と人物領域の検出結果とのマッチングの際に、単一人物の領域として比較する類似度基準とは別に、人物間オクルージョン状態の領域として比較する類似度基準を用いることによって、人物間オクルージョンが発生している場合でも頑強にマッチングできる。
また、映像中の人物が密集している集団領域と、それ以外の個人領域とに区分して、映像中の人物を追跡する技術もある(例えば特許文献2参照)。この技術によれば、人物の追跡処理は、個人領域のみで実行され、集団領域では実行されない。即ち、ある人物が、個人領域から集団領域に吸収された際に、追跡処理を中止し、集団領域から個人領域へ分離した際に再度、追跡処理を開始する。特に、個人領域における人物の座標と着衣に記載の数字とに基づいて、その人物の集団領域における座標の軌跡を決定する。
更に、人物とは異なって、物体の移動を追跡する技術もある(例えば特許文献3参照)。この技術によれば、時系列に連続した画像をニューラルネットワークに入力し、入力された画像それぞれの特徴量と、ニューラルネットワークに抽出させた特徴量とを比較して類似性を照合する。そして、前時点の画像に映る追跡候補となる1以上の物体に一致する、後の画像に映る1以上の物体の識別情報及び位置情報を、識別結果として出力する。これにより、物体の追跡をディスプレイ上に表示する。
更に、人の各骨格の軌跡を表示する技術もある(例えば非特許文献1、特許文献4参照)。また、特定の部位として指先の軌跡を仮想空間上に表示する技術もある(例えば非特許文献2参照)。これらの技術によれば、抽出した骨格点の移動軌跡を表示することができる。
特開2017−182295号公報 再表2016−139906号公報 特開2018−026108号公報 特開2015−061579号公報
Zhe Cao etc.「Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields」、Carnegie Mellon University、[online]、[平成30年6月16日検索]、インターネット<URL:https://arxiv.org/pdf/1611.08050.pdf> 田中雄規,河野 恭之、「カメラ画像とセンサからの頭部位置・姿勢追跡による指先軌跡の空中描画システム」、関西学院大学、情報処理学会研究報告、Vol.2015-HCI-162 No.7、[online]、[平成30年6月16日検索]、インターネット<URL:https://ipsj.ixsq.nii.ac.jp/ej/?action=repository_uri&item_id=141307&file_id=1&file_no=1> 「動画や写真からボーンが検出できる OpenPoseを試してみた」、[online]、[平成30年6月16日検索]、インターネット<URL:http://hackist.jp/?p=8285>
前述した非特許文献1及び2並びに特許文献4に記載の技術によれば、全ての骨格の移動軌跡を表示することができる。
しかしながら、人物の行動によっては(例えば激しい動きの場合)、骨格同士の軌跡の重なりが多く、表示された移動軌跡は、ユーザにとって視覚的に見づらいものとなる。
これに対し、本願の発明者は、人物の行動に応じて、ユーザが注目したい骨格の移動軌跡は異なるのではないか、と考えた。
そこで、本発明は、映像データから人物の行動を推定し、当該行動に応じた骨格位置の変位の軌跡を描写するプログラム、装置及び方法を提供することを目的とする。
本発明によれば、映像データから人物の骨格位置の変位の軌跡を描写するようにコンピュータを機能させるプログラムであって、
人物の行動毎に、軌跡を描写すべき1つ以上の骨格を予め対応付けた骨格設定テーブルと、
映像データから、複数の骨格位置を時系列に抽出する骨格認識手段と、
第1の所定期間の時系列の骨格位置の変位量から、人物の行動を推定する行動推定手段と、
骨格設定テーブルを用いて、行動推定手段によって認識された行動に対応する1つ以上の骨格を特定する骨格特定手段と、
骨格特定手段によって特定された骨格について、骨格認識手段によって抽出された、第2の所定期間の時系列の骨格位置の変位を軌跡として描写する骨格変位描写手段と
してコンピュータを機能させることを特徴とする。
本発明のプログラムにおける他の実施形態によれば、
骨格変位描写手段は、映像データに、第2の所定期間の時系列の骨格位置の変位を軌跡として重畳的に描写する
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
行動推定手段の第1の所定期間は、推定前時点t-n〜推定時点tであり、
骨格変位描写手段の第2の所定期間は、
推定後時点t+1〜t+kであるか、又は、
推定前時点t-m〜推定時点t〜推定後時点t+kである
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
人物の行動毎に、第1の所定期間における各骨格位置の変位量を時系列に並べた第1の骨格変位テーブルを更に有し、
行動推定手段は、行動毎の第1の骨格変位テーブルを用いて、第1の所定期間の時系列の骨格変位に類似する行動を検索する
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
人物の行動毎に、第2の所定期間における各骨格位置の変位量を時系列に並べた第2の骨格変位テーブルを更に有し、
骨格設定テーブルは、推定された当該行動における第2の骨格変位テーブルを用いて、所定ルールに基づく時系列の変位量となる骨格を設定する
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
骨格設定テーブルの所定ルールは、ユーザによって予め設定されたものである
ようにコンピュータを機能させることも好ましい。
本発明のプログラムにおける他の実施形態によれば、
骨格設定テーブルの所定ルールは、所定期間の変位量が所定条件よりも大きい骨格、又は、所定期間の変位量が所定条件よりも小さい骨格を設定する
ようにコンピュータを機能させることも好ましい。
本発明によれば、映像データから人物の骨格位置の変位の軌跡を描写する装置であって、
人物の行動毎に、軌跡を描写すべき1つ以上の骨格を予め対応付けた骨格設定テーブルと、
映像データから、複数の骨格位置を時系列に抽出する骨格認識手段と、
第1の所定期間の時系列の骨格位置の変位量から、人物の行動を推定する行動推定手段と、
骨格設定テーブルを用いて、行動推定手段によって認識された行動に対応する1つ以上の骨格を特定する骨格特定手段と、
骨格特定手段によって特定された骨格について、骨格認識手段によって抽出された、第2の所定期間の時系列の骨格位置の変位を軌跡として描写する骨格変位描写手段と
を有することを特徴とする。
本発明によれば、映像データから人物の骨格位置の変位の軌跡を描写する装置の骨格軌跡描写方法であって、
装置は、人物の行動毎に、軌跡を描写すべき1つ以上の骨格を予め対応付けた骨格設定テーブルを有し、
装置は、
映像データから、複数の骨格位置を時系列に抽出する第1のステップと、
第1の所定期間の時系列の骨格位置の変位量から、人物の行動を推定する第2のステップと、
骨格設定テーブルを用いて、第2のステップによって認識された行動に対応する1つ以上の骨格を特定する第3のステップと、
第3のステップによって特定された骨格について、第1のステップによって抽出された、第2の所定期間の時系列の骨格位置の変位を軌跡として描写する第4のステップと
を実行することを特徴とする。
本発明のプログラム、装置及び方法によれば、映像データから人物の行動を推定し、当該行動に応じた骨格位置の変位の軌跡を描写することができる。
本発明における認識装置の機能構成図である。 骨格認識部によって認識された骨格位置を表す説明図である。 本発明における骨格認識部及び行動推定部の第1の実施形態を表す説明図である。 本発明における骨格認識部及び行動推定部の第2の実施形態を表す説明図である。 本発明における骨格位置の時系列の変位を表す説明図である。 骨格設定テーブルを決定する第1の実施形態を表す説明図である。 骨格設定テーブルを決定する第2の実施形態を表す説明図である。
以下、本発明の実施の形態について、図面を用いて詳細に説明する。
図1は、本発明における認識装置の機能構成図である。
図1によれば、本発明の認識装置1は、映像データから人物の骨格位置の変位の軌跡を描写することができる。
認識装置1は、カメラを搭載したスマートフォンや携帯端末であってもよく、人物を撮影した映像データを入力する。また、認識装置1は、携帯電話網又は無線LANのようなアクセスネットワークを介して映像データを受信するものであってもよい。
勿論、認識装置1は、スマートフォン等に限られず、例えば固定設置されたWebカメラであってもよい。また、Webカメラによって撮影された映像データがSDカードに記録され、その記録された映像データを認識装置1へ入力するものであってもよい。
尚、以下では、認識装置1は、カメラを搭載するスマートフォンとして説明するが、例えばインターネットに接続されたサーバとして機能するものであってもよい。
図1によれば、認識装置1は、骨格設定テーブル10と、骨格認識部11と、行動推定部12と、骨格特定部13と、骨格変位描写部14とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現できる。また、これら機能構成部の処理の流れは、装置の骨格軌跡描写方法としても理解できる。
[骨格認識部11]
骨格認識部11は、映像データから、人物の複数の骨格位置を時系列に抽出する。骨格を抽出する映像データは、2次元に基づくものであって、一般的なWebカメラで撮影したものであってもよい。抽出された骨格位置は、行動推定部12へ出力される。
図2は、骨格認識部によって認識された骨格位置を表す説明図である。
骨格認識部11は、具体的にはOpenPose(登録商標)のようなスケルトンモデルを用いて、人の骨格の特徴点を抽出する(例えば非特許文献3参照)。OpenPoseとは、画像から複数の人間の体/手/顔のキーポイントをリアルタイムに検出可能なソフトウェアであって、GitHubによって公開されている。撮影映像に映る人の身体全体であれば、例えば18点のキーポイントを検出できる。
図2によれば、映像データに1人の人物が映り込んでいる。OpenPoseの場合、18個の各骨格位置(Nose, Neck, RShoulder, RElbow,・・・)の2次元座標点及び信頼度が、各フレームで結び付けられている。
[行動推定部12]
行動推定部12は、第1の所定期間の時系列の骨格位置の変位量から、人物の行動を推定する。具体的には、行動推定部12は、映像データの時系列の骨格位置の変位量に「行動」を対応付けた教師データに基づいて、深層学習の学習モデルを予め構築したものである。
そして、行動推定部12は、学習モデルを用いて、映像データの時系列の骨格位置から、「行動」を認識する。行動推定部12は、例えば「蹴る」「座る」「踊る」のような人物の行動を、人物の時系列の骨格位置から認識する。
図3は、本発明における骨格認識部及び行動推定部の第1の実施形態を表す説明図である。
図3によれば、骨格認識部11及び行動推定部12の両方とも、例えばOpenPoseによって構成されたものであってもよい。OpenPoseの場合、クラス分類によって、行動毎にスコアが算出される。即ち、「映像データ」を入力することによって、最も高いスコアとなる「行動」を推定することができる。
図4は、本発明における骨格認識部及び行動推定部の第2の実施形態を表す説明図である。
図4によれば、骨格認識部11のみ、例えばOpenPoseによって複数の骨格位置が認識される。また、行動推定部12には、第1の骨格変位テーブル121が対応付けられている。
[第1の骨格変位テーブル121]
第1の骨格変位テーブル121は、人物の「行動」毎に、当該行動を特定可能な第1の所定期間における各骨格位置の変位量を時系列に並べたものである。図4によれば、例えば3次元(x,y,z)座標における前時刻からの変位量が表されている。
図4によれば、第1の所定期間は、推定前時点t-n〜推定時点tである([t-n]は、推定時点tよりも任意のn時間前の時点)。
行動推定部12は、映像データにおける推定時点tまでの行動毎の各骨格位置の変位量の変化から、第1の骨格変位テーブル121を用いて、第1の所定期間の時系列の骨格変位に類似する最も類似する「行動」を選択する。勿論、1つの行動に限られず、類似度が高い順に複数の行動が選択されてもよい。
図4の第1の骨格変位テーブルによれば、行動「蹴る」の場合、骨格10「右足首(RAnkle)」の位置の変位量が最も大きいことが理解できる。
行動「座る」の場合、全体の骨格位置の変位量が比較的小さいことが理解できる。
行動「踊る」の場合、骨格8「右ヒップ(Hip)」の位置の変位量が比較的大きいことが理解できる。
[骨格設定テーブル10]
骨格設定テーブル10は、人物の行動毎に、軌跡を描写すべき1つ以上の骨格を予め対応付けたものである。
前述した図1によれば、骨格設定テーブル10には、人物の行動毎に、以下のように、骨格番号が対応付けられている。
行動「蹴る」−>骨格番号10「右足首」
行動「座る」−>骨格番号4 「右手首」
行動「踊る」−>骨格番号0 「鼻」
[骨格特定部13]
骨格特定部13は、骨格設定テーブル10を用いて、行動推定部12によって認識された行動に対応する1つ以上の骨格を特定する。
例えば行動推定部12によって行動「蹴る」と推定された場合、骨格設定テーブル10を用いて、骨格番号10「右足首」が選択される。
[骨格変位描写部14]
骨格変位描写部14は、骨格特定部13によって特定された骨格について、骨格認識部11によって抽出された、第2の所定期間の時系列の骨格位置の変位を軌跡として描写する。
また、骨格変位描写部14は、映像データに、骨格位置の時系列の変位を軌跡として重畳的に描写する。
ここで、第2の所定期間は、以下のいずれであってもよい。
(1)推定後時点t+1〜t+k ([t+k]は、推定時点tよりも任意のk時間後の時点)
この場合、推定前時点t-n〜推定時点tで「行動」を推定し、その行動から特定される骨格番号について、推定後時点t+1〜時点t+kでその骨格位置の変位の軌跡を描写する。即ち、行動が推定された後段階から骨格位置の変位を描写する。
(2)推定前時点t-m〜推定時点t〜推定後時点t+k
この場合、推定前時点t-n〜推定時点tで「行動」を推定し、その行動から特定される骨格番号について、過去に遡った推定前時点t-m〜推定後時点t+kでその骨格位置の変位の軌跡を描写する。即ち、行動が推定される前段階から骨格位置の変位を描写する([t-m]は、推定時点tよりも任意のm時間前の時点)。
図5は、本発明における骨格位置の時系列の変位を表す説明図である。
(1)推定前時点t-2〜推定時点tの間で、骨格位置の変位量から行動「蹴る」の推定スコアが徐々に高くなり、時点tで推定閾値を超えて、行動「蹴る」が出力される。このとき、骨格設定テーブル10を用いて、行動「蹴る」に対応する骨格10「右足首」が特定される。
(2)推定後時点t+1〜t+3の間で、骨格10「右足首」の位置の軌跡が記録されていく。骨格10「右足首」の軌跡の描写は、徐々に更新されるものであってもよいし、任意の時点t+4で表示されるものであってもよい。
図5によれば、骨格位置の変位は、2次元画像で描写されているが、勿論、3次元画像であってもよい。
<骨格設定テーブル10への骨格の設定>
骨格設定テーブル10は、特定された当該行動における第2の骨格変位テーブル101を用いて、所定ルールに基づく時系列の変位量となる骨格を設定する
図6は、骨格設定テーブルを決定する第1の実施形態を表す説明図である。
図6によれば、骨格設定テーブル10を決定するために、第2の骨格変位テーブル101と、所定ルールとが表されている。
[第2の骨格変位テーブル101]
第2の骨格変位テーブル101は、人物の行動毎に、第2の所定期間における各骨格位置の変位量を時系列に並べたものである。
第2の骨格変位テーブル101は、過去の統計データであって、行動毎に、経過時間に応じて各骨格位置の変位量を表したものである。図6によれば、行動「蹴る」「座る」「踊る」それぞれについて、経過時間に応じて、その人物の各骨格位置の変位量が記録されている。
[所定ルール]
所定ルールは、所定期間の変位量が所定条件よりも大きい骨格、又は、所定期間の変位量が所定条件よりも小さい骨格を設定する。
図6によれば、所定ルールとして、例えば「所定期間内の変位量が最も大きい骨格」と定義されているとする。
この場合、骨格設定テーブル10には、行動毎に、所定期間内の変位量が最も大きい骨格が登録される。
行動「蹴る」の場合、所定期間内の変位量が最も大きい骨格10「右足首」が登録される。
行動「座る」の場合、所定期間内の変位量が最も大きい骨格4「右手首」が登録される。
行動「踊る」の場合、所定期間内の変位量が最も大きい骨格0「鼻」が登録される。
このように、所定ルールに応じて骨格設定テーブル10が登録される。
ここで、所定ルールを対応付けて判定する「所定期間」は、任意である。
例えば行動の推定時点t以降となる推定後時点t+1〜t+2であってもよい。
例えば行動の推定前時点t-1〜t+2であってもよい。
即ち、第2の骨格変位テーブル101における推定前時点t-n〜推定時点tの各骨格位置の変位量の数値は、第1の骨格変位テーブルと全く同じものであってもよい。
図7は、骨格設定テーブルを決定する第2の実施形態を表す説明図である。
図7によれば、図6と比較して、骨格設定テーブル10の所定ルールは、ユーザによって予め設定されたものである。即ち、ユーザ毎に、異なるルールで、骨格設定テーブル10が登録される。
尚、第2の骨格変位テーブル101は、図6と同様である。
図7のユーザ毎の所定ルールによれば、以下のように設定している。
(ユーザA)
「蹴る」:第1の所定期間の変位量が最も大きい骨格
「座る」:第1の所定期間の変位量が最も小さい骨格
「踊る」:第2の所定期間の変位量が最も大きい骨格
(ユーザB)
「蹴る」:第1の所定期間の変位量が最も小さい骨格
「座る」:第1の所定期間の変位量が最も大きい骨格
「踊る」:第2の所定期間の変位量が最も大きい骨格
尚、所定期間も任意に設定することができる。これによって、短い時間内で激しい行動や静かな行動に基づく骨格番号を検出するだけでなく、長い時間で激しい行動や静かな行動に基づく骨格番号を検出することもできる。
ユーザAによれば、行動「蹴る」が推定された場合、第1の所定期間の変位量が最も大きい骨格10「右足首」が選択される。この場合、骨格10「右足首」の変位の軌跡が描写される。
また、ユーザBによれば、行動「蹴る」が推定された場合、第1の所定期間の変位量が最も小さい骨格1「首」が選択される。この場合、骨格1「首」の変位の軌跡が描写される。
以上、詳細に説明したように、本発明のプログラム、装置及び方法によれば、映像データから人物の行動を推定し、当該行動に応じた骨格位置の変位の軌跡を描写することができる。
また、本発明によれば、推定された行動に応じた骨格位置を、所定ルールに基づいて自動的に特定することができる。即ち、ユーザが注目すべき骨格位置の変位の軌跡を、所定ルールに応じて描写することができる。
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。
1 認識装置
10 骨格設定テーブル
101 第2の骨格変位テーブル
11 骨格認識部
12 行動推定部
121 第1の骨格変位テーブル
13 骨格特定部
14 骨格変位描写部

Claims (9)

  1. 映像データから人物の骨格位置の変位の軌跡を描写するようにコンピュータを機能させるプログラムであって、
    人物の行動毎に、軌跡を描写すべき1つ以上の骨格を予め対応付けた骨格設定テーブルと、
    前記映像データから、複数の骨格位置を時系列に抽出する骨格認識手段と、
    第1の所定期間の時系列の骨格位置の変位量から、人物の行動を推定する行動推定手段と、
    前記骨格設定テーブルを用いて、前記行動推定手段によって認識された行動に対応する1つ以上の骨格を特定する骨格特定手段と、
    前記骨格特定手段によって特定された骨格について、前記骨格認識手段によって抽出された、第2の所定期間の時系列の骨格位置の変位を軌跡として描写する骨格変位描写手段と
    してコンピュータを機能させることを特徴とするプログラム。
  2. 前記骨格変位描写手段は、前記映像データに、第2の所定期間の時系列の骨格位置の変位を軌跡として重畳的に描写する
    ようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。
  3. 前記行動推定手段の第1の所定期間は、推定前時点t-n〜推定時点tであり、
    前記骨格変位描写手段の第2の所定期間は、
    推定後時点t+1〜t+kであるか、又は、
    推定前時点t-m〜推定時点t〜推定後時点t+kである
    ようにコンピュータを機能させることを特徴とする請求項1又は2に記載のプログラム。
  4. 人物の行動毎に、第1の所定期間における各骨格位置の変位量を時系列に並べた第1の骨格変位テーブルを更に有し、
    前記行動推定手段は、行動毎の第1の骨格変位テーブルを用いて、第1の所定期間の時系列の骨格変位に類似する行動を検索する
    ようにコンピュータを機能させることを特徴とする請求項3に記載のプログラム。
  5. 人物の行動毎に、第2の所定期間における各骨格位置の変位量を時系列に並べた第2の骨格変位テーブルを更に有し、
    前記骨格設定テーブルは、推定された当該行動における第2の骨格変位テーブルを用いて、所定ルールに基づく時系列の変位量となる骨格を設定する
    ようにコンピュータを機能させることを特徴とする請求項3又は4に記載のプログラム。
  6. 前記骨格設定テーブルの前記所定ルールは、ユーザによって予め設定されたものである
    ようにコンピュータを機能させることを特徴とする請求項5に記載のプログラム。
  7. 前記骨格設定テーブルの前記所定ルールは、所定期間の変位量が所定条件よりも大きい骨格、又は、所定期間の変位量が所定条件よりも小さい骨格を設定する
    ようにコンピュータを機能させることを特徴とする請求項6に記載のプログラム。
  8. 映像データから人物の骨格位置の変位の軌跡を描写する装置であって、
    人物の行動毎に、軌跡を描写すべき1つ以上の骨格を予め対応付けた骨格設定テーブルと、
    前記映像データから、複数の骨格位置を時系列に抽出する骨格認識手段と、
    第1の所定期間の時系列の骨格位置の変位量から、人物の行動を推定する行動推定手段と、
    前記骨格設定テーブルを用いて、前記行動推定手段によって認識された行動に対応する1つ以上の骨格を特定する骨格特定手段と、
    前記骨格特定手段によって特定された骨格について、前記骨格認識手段によって抽出された、第2の所定期間の時系列の骨格位置の変位を軌跡として描写する骨格変位描写手段と
    を有することを特徴とする装置。
  9. 映像データから人物の骨格位置の変位の軌跡を描写する装置の骨格軌跡描写方法であって、
    前記装置は、人物の行動毎に、軌跡を描写すべき1つ以上の骨格を予め対応付けた骨格設定テーブルを有し、
    前記装置は、
    前記映像データから、複数の骨格位置を時系列に抽出する第1のステップと、
    第1の所定期間の時系列の骨格位置の変位量から、人物の行動を推定する第2のステップと、
    前記骨格設定テーブルを用いて、第2のステップによって認識された行動に対応する1つ以上の骨格を特定する第3のステップと、
    第3のステップによって特定された骨格について、第1のステップによって抽出された、第2の所定期間の時系列の骨格位置の変位を軌跡として描写する第4のステップと
    を実行することを特徴とする装置の骨格軌跡描写方法。

JP2018115828A 2018-06-19 2018-06-19 映像データから人の骨格位置の変位の軌跡を描写するプログラム、装置及び方法 Active JP6906273B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018115828A JP6906273B2 (ja) 2018-06-19 2018-06-19 映像データから人の骨格位置の変位の軌跡を描写するプログラム、装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018115828A JP6906273B2 (ja) 2018-06-19 2018-06-19 映像データから人の骨格位置の変位の軌跡を描写するプログラム、装置及び方法

Publications (2)

Publication Number Publication Date
JP2019219836A true JP2019219836A (ja) 2019-12-26
JP6906273B2 JP6906273B2 (ja) 2021-07-21

Family

ID=69096588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018115828A Active JP6906273B2 (ja) 2018-06-19 2018-06-19 映像データから人の骨格位置の変位の軌跡を描写するプログラム、装置及び方法

Country Status (1)

Country Link
JP (1) JP6906273B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183317A (zh) * 2020-09-27 2021-01-05 武汉大学 一种基于时空图卷积神经网络的带电作业现场违章行为检测方法
WO2021130978A1 (ja) * 2019-12-26 2021-07-01 三菱電機株式会社 動作分析システムおよび動作分析プログラム
WO2023079783A1 (ja) * 2021-11-05 2023-05-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 行動認識方法、行動認識装置、及び行動認識プログラム
WO2023089691A1 (ja) * 2021-11-17 2023-05-25 日本電気株式会社 行動分類装置、行動分類方法、およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012066026A (ja) * 2010-09-27 2012-04-05 Sony Corp 情報処理装置及び方法、並びにプログラム
JP2014155693A (ja) * 2012-12-28 2014-08-28 Toshiba Corp 動作情報処理装置及びプログラム
WO2018087853A1 (ja) * 2016-11-09 2018-05-17 株式会社システムフレンド 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012066026A (ja) * 2010-09-27 2012-04-05 Sony Corp 情報処理装置及び方法、並びにプログラム
JP2014155693A (ja) * 2012-12-28 2014-08-28 Toshiba Corp 動作情報処理装置及びプログラム
WO2018087853A1 (ja) * 2016-11-09 2018-05-17 株式会社システムフレンド 立体画像生成システム、立体画像生成方法及び立体画像生成プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021130978A1 (ja) * 2019-12-26 2021-07-01 三菱電機株式会社 動作分析システムおよび動作分析プログラム
CN112183317A (zh) * 2020-09-27 2021-01-05 武汉大学 一种基于时空图卷积神经网络的带电作业现场违章行为检测方法
WO2023079783A1 (ja) * 2021-11-05 2023-05-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 行動認識方法、行動認識装置、及び行動認識プログラム
WO2023089691A1 (ja) * 2021-11-17 2023-05-25 日本電気株式会社 行動分類装置、行動分類方法、およびプログラム

Also Published As

Publication number Publication date
JP6906273B2 (ja) 2021-07-21

Similar Documents

Publication Publication Date Title
JP6906273B2 (ja) 映像データから人の骨格位置の変位の軌跡を描写するプログラム、装置及び方法
Raheja et al. Robust gesture recognition using Kinect: A comparison between DTW and HMM
Guyon et al. Chalearn gesture challenge: Design and first results
US20190392587A1 (en) System for predicting articulated object feature location
García-Bautista et al. Mexican sign language recognition using kinect and data time warping algorithm
Tivatansakul et al. Emotional healthcare system: Emotion detection by facial expressions using Japanese database
CN110688929B (zh) 一种人体骨架关节点定位方法及装置
Zhao A concise tutorial on human motion tracking and recognition with Microsoft Kinect
Turabzadeh et al. Real-time emotional state detection from facial expression on embedded devices
KR102371127B1 (ko) 골격의 길이 정보를 이용한 제스쳐 인식 방법 및 처리 시스템
Pham et al. Human action recognition using dynamic time warping and voting algorithm
Bhuyan et al. Trajectory guided recognition of hand gestures having only global motions
Narasimhaswamy et al. Whose hands are these? hand detection and hand-body association in the wild
Amaliya et al. Study on hand keypoint framework for sign language recognition
Tiwari et al. Sign language recognition through kinect based depth images and neural network
Alugupally et al. Analysis of landmarks in recognition of face expressions
Chowdhury et al. Bengali sign language to text conversion using artificial neural network and support vector machine
JP7438690B2 (ja) 情報処理装置、画像認識方法及び学習モデル生成方法
Sugimoto et al. Robust rule-based method for human activity recognition
CN112005197A (zh) 信息处理装置、信息处理方法和程序
JP2017097549A (ja) 画像処理装置、方法、及びプログラム
Desai Segmentation and recognition of fingers using Microsoft Kinect
Shah et al. Eyeris: a virtual eye to aid the visually impaired
Saykol et al. Posture labeling based gesture classification for Turkish sign language using depth values
KR20180082825A (ko) 모션 인식에 따른 그래픽 효과 발생 방법 및 그 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210628

R150 Certificate of patent or registration of utility model

Ref document number: 6906273

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150