JP2022532772A - ポーズ類似度判別モデル生成方法及びポーズ類似度判別モデル生成装置 - Google Patents

ポーズ類似度判別モデル生成方法及びポーズ類似度判別モデル生成装置 Download PDF

Info

Publication number
JP2022532772A
JP2022532772A JP2021568548A JP2021568548A JP2022532772A JP 2022532772 A JP2022532772 A JP 2022532772A JP 2021568548 A JP2021568548 A JP 2021568548A JP 2021568548 A JP2021568548 A JP 2021568548A JP 2022532772 A JP2022532772 A JP 2022532772A
Authority
JP
Japan
Prior art keywords
pose
image
similarity
sample
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021568548A
Other languages
English (en)
Other versions
JP7373589B2 (ja
Inventor
ウィ,ドンユン
カン,ミョング
オ,クァンジン
パク,ジンヨン
ペ,スンミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Corp
Original Assignee
Naver Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Corp filed Critical Naver Corp
Publication of JP2022532772A publication Critical patent/JP2022532772A/ja
Application granted granted Critical
Publication of JP7373589B2 publication Critical patent/JP7373589B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本出願は、ポーズ類似度判別モデル生成方法及びポーズ類似度判別モデル生成装置に関し、本発明の一実施例に係るポーズ類似度判別モデル生成方法は、収集した複数のサンプル映像を同期化させる段階;前記サンプル映像からそれぞれのフレームイメージを抽出し、前記フレームイメージ内に表された客体のポーズ(pose)に対応するポーズイメージを生成する段階;前記ポーズイメージの類似又は非類似をそれぞれ設定し、三重対(triplet)の学習データセット(training dataset)を生成する段階;及び、前記学習データセットで機械学習(machine learning)を行い、映像中の客体が取るポーズの類似度を判別するポーズ類似度判別モデルを生成する段階を含むことができる。【選択図】 図1

Description

本出願は、異なる映像内に含まれているユーザのポーズ(pose)に対する類似度を演算することができるポーズ類似度判別モデルの生成方法及び生成装置に関する。
顔や手などの身体の一部を検出するために、特徴又はテンプレートや色相などの信号成分を用いてターゲット部位を検出する技術が映像認識分野において様々に開発され、用いられている。例えば、SIFT(Scale Invariant Feature Transform)ベースの特徴を用いた検出器やアダブーストなどの分類器を用いて顔を検出したり、マスクテンプレートなどを用いて顔を検出したりするなど、様々な身体のターゲット部位を検出する技術が開発され、用いられている。
一方、近年、ディープラーニングモデル(Deep Learning Model)は、コンピュータビジョン(Vision)の様々な分野において目覚ましい性能向上を見せ、研究パラダイムを変えている。既存のコンピュータビジョン研究がSIFT、HOG(Histogram of Oriented Gradient)のように人の知識に基づいて有用な特徴を設計するのに集中したとすれば、ディープラーニングは、多層人工ニューラルネットワークを用いて有用な特徴をデータから直接学習する方法を取る。
このような学習ベースの方法は、人がまだ気づかない有用な特徴をデータから直接探し出すことができるため、より大きい性能向上に特徴がある。そこで、映像内でユーザのポーズなどを認識するために、ディープラーニングなどの機械学習を活用する方案などが提示されている。
本出願は、ユーザの体型やカメラの角度の変化に堅牢なポーズ類似度判別モデルを生成することができる、ポーズ類似度判別モデル生成方法及びポーズ類似度判別モデル生成装置を提供しようとする。
本出願は、少ない数のサンプル映像を用いて効率的に学習データセットを形成することができるポーズ類似度判別モデル生成方法及びポーズ類似度判別モデル生成装置を提供しようとする。
本発明の一実施例に係るポーズ類似度判別モデル生成方法は、収集した複数のサンプル映像を同期化させる段階;前記サンプル映像からそれぞれのフレームイメージを抽出し、前記フレームイメージ内に表された客体のポーズ(pose)に対応するポーズイメージを生成する段階;前記ポーズイメージの類似又は非類似をそれぞれ設定し、三重対(triplet)の学習データセット(training dataset)を生成する段階;及び、前記学習データセットで機械学習(machine learning)を行い、映像中の客体が取るポーズの類似度を判別するポーズ類似度判別モデルを生成する段階を含むことができる。
本発明の一実施例に係るポーズ類似度判別モデル生成装置は、収集した複数のサンプル映像を前処理して前記サンプル映像を同期化させる前処理部;前記サンプル映像からそれぞれのフレームイメージを抽出し、前記フレームイメージ内に表された客体のポーズ(pose)に対応するポーズイメージを生成するポーズイメージ生成部;前記ポーズイメージの類似又は非類似をそれぞれ設定し、三重対(triplet)の学習データセット(training dataset)を生成する学習データセット生成部;及び、前記学習データセットで機械学習(machine learning)を行い、映像中の客体が取るポーズの類似度を判別するポーズ類似度判別モデルを生成するモデルトレーニング部を含むことができる。
本発明の一実施例に係るポーズ類似度判別方法は、ユーザの動作を撮影した対象映像を受信すると、前記対象映像を前処理して基準映像と同期化させる段階;前記対象映像からそれぞれのフレームイメージを抽出し、前記フレームイメージ内に表されたユーザのポーズに対応するユーザポーズイメージを生成する段階;及び、前記ユーザポーズイメージをポーズ類似度判別モデルに適用して前記ユーザポーズイメージと基準映像に対応する基準ポーズイメージを比較し、それぞれのユーザポーズイメージと基準ポーズイメージ間の類似度を演算する段階を含むことができる。
なお、上述の課題を解決するための手段は、本発明の特徴を全て列挙したものではない。本発明の様々な特徴とそれによる長所及び効果は、以下の具体的な実施形態を参照してより詳細に理解されるであろう。
本発明の一実施例に係るポーズ類似度判別モデル生成方法及びポーズ類似度判別モデル生成装置によれば、サンプル映像のフレームイメージの替わりにポーズイメージを生成して活用するので、ユーザの体型やカメラの角度の変化に堅牢なポーズ類似度判別モデルを生成することが可能である。
本発明の一実施例に係るポーズ類似度判別モデル生成方法及びポーズ類似度判別モデル生成装置によれば、少ない数のサンプル映像を用いて効率的に学習データセットを形成することが可能である。
ただし、本発明の実施例に係るポーズ類似度判別モデル生成方法及びポーズ類似度判別モデル生成装置が達成できる効果は、以上で言及したものに制限されず、言及していない別の効果は、以下の記載から、本発明の属する技術の分野における通常の知識を有する者に明確に理解されるであろう。
本発明の一実施例に係るポーズ類似度判別モデル生成装置を示すブロック図である。 本発明の一実施例に係るポーズイメージ生成を示す概略図である。 本発明の一実施例に係る学習データセット生成を示す概略図である。 本発明の一実施例に係る学習データセット生成を示す概略図である。 本発明の一実施例に係るメトリックラーニングを示す概略図である。 本発明の一実施例に係るポーズ類似度判別モデル生成方法を示すフローチャートである。 本発明の一実施例に係るポーズ類似度判別モデル生成方法を示すフローチャートである。 本発明の一実施例に係るポーズ類似度判別装置を示す概略図である。 本発明の一実施例に係るポーズ類似度判別方法を示すフローチャートである。
以下、添付の図面を参照して、本明細書に開示の実施例を詳細に説明するが、図面に関係なく同一又は類似の構成要素には同一の参照番号を付し、それに関する重複説明は省略するものとする。以下の説明で使われる構成要素に対する接尾辞“モジュール”及び“部”は、明細書作成上の容易さだけを考慮して付与又は混用されるもので、それ自体で互いに区別される意味又は役割を有するものではない。すなわち、本発明で使われる‘部’という用語は、ソフトウェア、FPGA又はASICのようなハードウェア構成要素を意味し、‘部’はいずれかの役割を担う。しかし、‘部’がソフトウェア又はハードウェアに限定される意味ではない。‘部’は、アドレシングできる記憶媒体に含まれるように構成されてもよく、一つ又はそれ以上のプロセッサを再生させるように構成されてもよい。したがって、例えば、‘部’は、ソフトウェア構成要素、客体指向ソフトウェア構成要素、クラス構成要素及びタスク構成要素のような構成要素と、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバー、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ及び変数を含む。構成要素と‘部’内で提供される機能は、より少ない数の構成要素及び‘部’に結合してもよく、追加の構成要素と‘部’に分離されてもよい。
また、本明細書に開示の実施例を説明するに当たって、関連する公知技術に関する具体的な説明が本明細書に開示の実施例の要旨を曖昧にさせ得ると判断される場合、その詳細な説明を省略する。また、添付の図面は、単に、本明細書に開示の実施例を容易に理解させるためのものであり、添付の図面によって本明細書に開示の技術的思想は制限されず、本発明の思想及び技術範囲に含まれるあらゆる変更、均等物又は代替物を含むものとして理解されるべきである。
図1は、本発明の一実施例に係るポーズ類似度判別モデル生成装置を示すブロック図である。
図1を参照すると、本発明の一実施例に係るポーズ類似度判別モデル生成装置は、前処理部110、ポーズイメージ生成部120、学習データセット生成部130及びモデルトレーニング部140を含むことができる。
以下、図1を参照して、本発明の一実施例に係るポーズ類似度判別モデル生成装置を説明する。
前処理部110は、サンプル映像video_1,video_2,...,video_nに対する前処理(preprocessing)を行うことができる。複数のサンプル映像は、あらかじめ収集されていてよく、前処理部110は、サンプル映像を活用するための前処理を行うことができる。前処理部110は、本発明の実施例に係るポーズ類似度判別モデル生成装置の性能を高めるための様々な方法を含むことができる。本発明の実施例によれば、前処理部110は、サンプル映像が同一時点に同一又は類似のポーズを表すように同期化させる作業を行うことができる。
具体的に、前処理部110は、サンプル映像のFPS(frame per second)を調節するか、或いは基準映像とのオフセットタイム(offset time)などを計算してサンプル映像を同期化させることができ、この時、あらかじめ設定された基準映像又は予め設定された規則に基づき、それぞれのサンプル映像に対する同期化を行うことができる。
例えば、それぞれの人々が同一音楽に対して同一振りつけの踊りを踊る複数個の映像に対して、それらの映像は、同一の音楽部分で同一のポーズを取っていると仮定することができる。したがって、当該映像の音源を分析して基準映像とのオフセットを計算することにより、映像間の同一時点で同一ポーズを表すように同期化をさせることができる。具体的に、オーディオの波形を分析し、基準映像と対象映像とのオーディオ波形間の差が最も小さいオフセットを同期化オフセットとして設定できる。
追加的に、人々の動作の拍子ずれによる誤差が発生することもあるので、設定区間内で映像間の動作類似性を比較して追加補正オフセットを計算してもよい。この場合、同期化の正確度をさらに高めることができる。
また、映像内に一つ以上の客体が含まれている場合、客体検出及びトラッキングアルゴリズムを用いて複数個の客体に分離した後、それぞれに対する動作類似度を計算することができる。
ここで、ポーズ類似度判別モデルは、ユーザが取るポーズ(pose)に類似するポーズを探したり、ユーザの取ったポーズが特定ポーズとどれくらい類似しているかを演算するためのものであり、複数のサンプル映像を学習させる方式で生成することができる。したがって、ポーズ類似度判別モデルを用いて判別しようとするユーザのポーズの種類によって、異なるサンプル映像を選択することができる。
実施例によっては、人物が特定の踊りを踊るダンス映像などをサンプル映像として選択でき、このとき、それぞれのサンプル映像を撮影したカメラの角度又は踊っている人物の体型などは互いに異なってよい。すなわち、異なる体型やカメラ角度で撮影した様々なサンプル映像を用いるので、体型やカメラ角度の変化に堅牢なポーズ類似度判別モデルを生成することが可能である。
また、サンプル映像は、ダンス映像の他にも、ゴルフスイング姿勢などのように運動種目における特定姿勢を撮影した映像などであってもよく、人体のポーズを含むものであれば、いずれもサンプル映像として活用できる。さらに、人体のポーズの他、動物や車両、ロボットなどの動作やポーズをサンプル映像として活用することも可能である。
ポーズイメージ生成部120は、サンプル映像からそれぞれのフレームイメージを抽出し、フレームイメージ内に表された客体のポーズ(pose)に対応するポーズイメージを生成することができる。サンプル映像は複数のフレームイメージを含むことができ、図2に示すように、それぞれのフレームイメージf1,f2には客体のポーズ(pose)が表されていてよい。
ここで、ポーズイメージ生成部120は、フレームイメージから客体のポーズを認識でき、認識した客体のポーズをポーズイメージとして示すことができる。すなわち、図2に示すように、フレームイメージf1,f2に表された客体のポーズを、関節などの特徴点と、それぞれの特徴点間の連結関係で表示し、ポーズイメージpose1,pose2を生成することができる。
ポーズイメージpose1,pose2は、客体のポーズを、特徴点と、各特徴点間の連結関係で単純化して表示するので、体型の異なる客体であっても、特徴点の位置と連結関係などを用いて同一のポーズに当該するか否かが判別しやすくなる。ここで、フレームイメージからポーズイメージに変換する際には、公知のポーズ推定モデルなどを用いることができる。
学習データセット生成部130は、ポーズイメージ間の類似又は非類似をそれぞれ設定し、三重対(triplet)の学習データセット(training dataset)を生成することができる。
例えば、アンカー(anchor)として設定した任意のポーズイメージに対して、アンカーと類似するポーズイメージは類似サンプル(positive example)に、非類似するポーズイメージは非類似サンプル(negative example)にそれぞれ設定して学習データセットを生成することができる。ここで、一つのアンカーに対して類似サンプルと非類似サンプルがそれぞれ関連付けられるので、学習データセット生成部130は、三重対の形態で学習データセットを具現することができる。また、三重対形態の学習データセットでは、それぞれのアンカーイメージとそれに対する類似・非類似が設定されているので、以降の機械学習時に教師あり学習(supervised learning)を行うことが可能である。
一方、学習データセット生成部130は、実施例によって様々な方式で学習データセットを生成することができる。
まず、第1実施例によれば、学習データセット生成部130は、複数のサンプル映像の時点を用いて学習データセットを生成することができる。
具体的に、図3に示すように、前処理された複数のサンプル映像video_1,video_2,...,video_nが存在してよく、それぞれのサンプル映像は同期化されていてよい。ここで、サンプル映像は、同一音楽に対してそれぞれ異なるユーザが踊るダンス映像であってよく、それぞれのサンプル映像は同期化されているので、同一時点では、サンプル映像内に含まれている客体は同一又は類似のポーズを取っていると見なすことができる。すなわち、各サンプル映像ごとに客体の体型やカメラ角度などは互いに異なっても、いずれも同一又は類似のポーズに当該すると判別できる。一方、同一サンプル映像における異なる時点では踊りの動作が互いに異なるので、同一サンプル映像であっても異なる時点T+1,T+2,T+3では異なるポーズを取ると判別できる。
したがって、図3に示すように、学習データセット生成部130は、まず、複数のサンプル映像のうち、video_1を選択映像として設定でき、選択映像のT時点に対応するポーズイメージをアンカーaとして設定できる。その後、選択映像以外のサンプル映像video_2,video_3,...,video_nの同一時点(t=T)に対応するポーズイメージを、アンカーaに対する類似サンプルp1,p2,...,pnとして設定できる。一方、選択映像のうち、T時点以外の時点T+1,T+2,T+3に対応するポーズイメージは、アンカーと異なるポーズを含むものであるから、それぞれのポーズイメージをアンカーaに対する非類似サンプルn1,n2,n3として設定できる。この場合、アンカーに対する類似サンプルは、サンプル映像の個数であるn個分だけ生成でき、非類似サンプルは、選択映像内に含まれているフレームイメージの個数分だけ生成することができる。さらに、学習の効率性のために、非類似サンプルは、できるだけアンカーaと類似するポーズが選択されないようにすることが好ましい。そのために、アンカーaの時点Tから遠く離れたポーズイメージを選択するか、或いは背景音楽などの付加要素をさらに考慮して選択することができる。例えば、サンプル映像中の背景音楽の雰囲気やテンポが異なる部分を選択することができる。また、非類似サンプルn1,n2,n3間に多様性を保つために、それぞれの非類似サンプルを選択する時点間の時間間隔を一定期間以上に設定することが好ましい。
その後、学習データセット生成部130は、時点を、選択映像video_1の開始時点から終了時点まで順次に又は任意に変更してアンカーaを設定することができ、設定されたアンカーaを用いて、選択映像video_1に含まれている全体又は一部のポーズイメージに対応する学習データセットを生成することができる。
また、一つの選択映像に対する学習データセットの生成を完了した後には、選択映像を変更し、変更された選択映像に同一の方式を適用して学習データセットを生成することができる。この時、複数のサンプル映像全体を順次に選択映像として選択して学習データセットを生成するか、或いは、実施例によっては、設定個数分だけのサンプル映像を選択映像として選択して学習データセットを生成することができる。
一方、第2実施例では、学習データセット生成部130が、客体のポーズに対する3次元ポーズ座標を用いて学習データセットを生成することができる。具体的に、図4(a)に示すように、一つの選択映像video_1の各フレームイメージf1,f2,f3,f4に対して、当該フレームイメージ内の客体に対する3次元ポーズ座標を生成することができる。すなわち、図4(b)に示すように、2次元のポーズイメージから3次元のポーズを生成することができる。この時、2次元から3次元ポーズ座標への変換は、公知の変換モデルなどを用いて容易に行うことができる。
その後、図4(c)に示すように、選択映像video_1のT時点に対応する3次元ポーズ座標を設定角度で投影(projection)して2次元イメージを生成でき、この時に生成した2次元イメージをアンカーaとして設定できる。また、図4(c)に示すように、T時点に対応する3次元ポーズ座標を設定角度以外の複数の角度で投影して2次元イメージをさらに生成でき、この時に生成された2次元イメージをそれぞれ類似サンプルp1,p2,p3として設定できる。すなわち、同一の3次元ポーズ座標に対して投影する角度のみを変更させるので、それぞれの2次元イメージは実質的に同じポーズを表すものに当該する。したがって、3次元ポーズ座標を異なる複数の角度で投影した2次元イメージを、類似サンプルp1,p2,p3として設定できる。
一方、T時点以外の時点T+1,T+2,T+3に対応するフレームイメージは、アンカーとは異なるポーズを表すものと判別できる。したがって、学習データセット生成部130は、それぞれのフレームイメージに対する3次元ポーズ座標を設定角度で投影して生成した2次元イメージに対しては、非類似サンプルとして設定できる。
ここで、学習データセット生成部130は、時点を選択映像の開始時点から終了時点まで変更しながら学習データセットを生成することができる。また、一つの選択映像に対する学習データセットの生成が完了すると、複数のサンプル映像を順次に選択映像として選択し、それぞれの選択映像に対応する学習データを生成することができる。
第3実施例によれば、学習データセット生成部130は、複数のサンプル映像の時点、及び3次元ポーズ座標を同時に用いて学習データセットを生成することができる。
具体的に、学習データセット生成部130は、サンプル映像のいずれか一つを選択映像として設定し、選択映像の特定時点Tに対応するポーズイメージをアンカーとして設定できる。
その後、選択映像以外のサンプル映像のT時点に対応するポーズイメージを、まず、アンカーに対する類似サンプルとして設定できる。また、T時点に対応するポーズイメージに対する3次元ポーズ座標を生成でき、3次元ポーズ座標を複数の角度で投影する方式により、類似サンプルをさらに追加することができる。
一方、非類似サンプルは、選択映像のうち、T時点以外の時点に対応するポーズイメージを、アンカーに対する非類似サンプルとして設定でき、その後、それぞれのポーズイメージの3次元ポーズ座標を生成した後、それを複数の角度で投影する方式により、非類似サンプルを追加することができる。
モデルトレーニング部140は、学習データセットで機械学習(Machine learning)を行い、映像間の客体が取るポーズの類似度を判別するポーズ類似度判別モデルを生成することができる。具体的に、モデルトレーニング部140は、学習データセットを、メトリックラーニングモデル(metric learning model)で機械学習でき、学習データセットに含まれているそれぞれのポーズイメージの類似度を特徴マップ(feature map)上の距離を用いて示すことができる。
このとき、モデルトレーニング部140は、三重対損失関数(triplet loss function)を用いることができる。具体的に、三重対損失関数は、
Figure 2022532772000002

であり、ここで、f(*)は特徴マップ関数、δはマージン(margin)、xaiはアンカー、x+iは類似サンプル、x-iは非類似サンプルに当該する。
三重対損失関数を用いて、特徴マップ上で類似サンプルとアンカー間の距離は近づき、非類似サンプルとアンカー間の距離は遠ざかるように学習させることができる。すなわち、図5(a)に示すように、初期特徴マップ(feature map)上に位置するアンカーa、類似サンプルp及び非類似サンプルnは、以降、図5(b)に示すように、類似サンプルpはアンカーaに近づくように移動し、非類似サンプルnはアンカーから遠ざかるように学習されてよい。これにより、それぞれのポーズイメージ間の距離からイメージの類似度を判別することが可能である。
モデルトレーニング部140では、学習されたCNN(Convolutional Neural Network)を用いてポーズイメージを受信して特徴を抽出でき、それぞれのポーズイメージに対応するアンカー、類似サンプル、非類似サンプルを特徴マップ上に位置させることができる。
図6及び図7は、本発明の一実施例に係るポーズ類似度判別モデル生成方法を示すフローチャートである。
図6及び図7を参照すると、本発明の一実施例に係るポーズ類似度判別モデル生成方法は、前処理段階(S110)、ポーズイメージ生成段階(S120)、学習データセット生成段階(S130)、及びポーズ類似度判別モデル生成段階(S140)を含むことができる。ここで、各段階はポーズ類似度判別モデル生成装置によって行われてよい。
以下、図6及び図7を参照して、本発明の一実施例に係るポーズ類似度判別モデル生成方法を説明する。
ポーズ類似度判別モデルは、ユーザの取るポーズ(pose)と類似するポーズを探したり、或いはユーザの取るポーズが特定ポーズとどれくらい類似しているかを判別するためのものであり、サンプル映像には、特定客体が一定のポーズを取る場面が含まれていてよい。例えば、サンプル映像は、人物が特定の踊りを踊るダンス映像であるか、ゴルフのスイング姿勢などのように運動種目における特定姿勢を撮影した映像などであってよい。
前処理段階(S110)では、収集した複数のサンプル映像を前処理することができる。前処理段階(S110)では、類似度判別モデル生成の効率を上げるための種々の方法を行うことができる。本発明の実施例によれば、前処理段階(S110)においてサンプル映像が同一時点に同一又は類似のポーズを表すように同期化させる作業を含むことができる。具体的に、基準映像と比較してサンプル映像のFPS(frame per second)を調節するか、基準映像とのオフセットタイム(offset time)などを計算する方式により、サンプル映像を同期化させることができる。実施例によっては、サンプル映像に共通に含まれる音楽や場面などを用いることができる。
ポーズイメージ生成段階(S120)では、サンプル映像からそれぞれのフレームイメージを抽出し、フレームイメージ内に表された客体のポーズ(pose)に対応するポーズイメージを生成することができる。ここで、ポーズイメージは、フレームイメージに表された客体のポーズを、客体に含まれている特徴点、及び特徴点間の連結関係により単純化して生成したものであってよい。例えば、人の関節を示す部分が特徴点になってよく、ポーズイメージは、このような特徴点及び特徴点間の連結を1と、それ以外の部分を0と示したバイナリイメージ形態になってよい。又は、特徴点やその連結部分がどこであるかを確認するために、各連結部分によってラベリングされた値を使用するイメージであってもよい。
ここで、フレームイメージそのままではなく、ポーズのみを示すポーズイメージを使用することによって、映像における照明やノイズなどの歪みに対して堅牢になり得る効果があり、イメージ形態のデータで学習を進行するので、体型が互いに異なる客体や角度などに対して堅牢な学習が可能である。
一方、フレームイメージを用いてポーズイメージに変換する際には、公知のポーズ推定モデルなどを用いることができる。
学習データセット生成段階(S130)では、ポーズイメージの類似又は非類似をそれぞれ設定し、三重対(triplet)の学習データセット(training dataset)を生成することができる。すなわち、任意のポーズイメージをアンカー(anchor)として設定した後、アンカーと類似するポーズイメージは類似サンプル(positive example)、非類似するポーズイメージは非類似サンプル(negative example)としてそれぞれ設定し、学習データセットを生成することができる。また、学習データセットは、それぞれのポーズイメージに対して、アンカーとの類似、非類似を決定し、類似サンプルと非類似サンプルとに区分されているので、学習データセットを用いて教師あり学習(supervised learning)を行うことが可能である。
一方、学習データセットは、実施例によって種々の方法で生成可能である。
図7(a)を参照すると、複数のサンプル映像のいずれか一つを選択映像として設定でき、選択映像のT時点に対応するポーズイメージをアンカーとして設定できる(S131a)。その後、選択映像以外のサンプル映像のT時点に対応するポーズイメージを、アンカーに対する類似サンプルとして設定できる(S132a)。一方、選択映像のうち、T時点以外の時点に対応するポーズイメージは、アンカーと異なるポーズを含むものであるから、それぞれのポーズイメージを非類似サンプルとして設定できる(S133a)。
その後、T時点を選択映像の開始時点から終了時点まで順次に変更し、選択映像に含まれている全体ポーズイメージに対応する学習データセットを生成したり、或いは、予め定められた個数分だけ、任意に選択した時点に対する学習データセットを生成することができる。
また、一つの選択映像に対する学習データセットの生成を完了した後には、選択映像を変更し、変更された選択映像に同じ方式を適用して学習データセットを生成することができる。この時、複数のサンプル映像全体を順次に選択映像として選択して学習データセットを生成するか、或いは、実施例によっては、設定個数分だけのサンプル映像を選択映像として選択して学習データセットを生成することができる。また、選択映像1個ずつ学習データセットを生成するのではなく、複数の選択映像から並列に学習データセットを生成することも可能である。
図7(b)を参照すると、複数のサンプル映像のいずれか一つを選択映像として設定でき、選択映像のポーズイメージに対してそれぞれの3次元ポーズ座標を生成することができる(S131b)。すなわち、2次元のポーズイメージから3次元ポーズ座標を生成することが可能であり、この時、3次元ポーズ座標への変換は、公知の変換モデルを用いて容易に行うことができる。
その後、選択映像のT時点に対応する3次元ポーズ座標を設定角度で投影(projection)して2次元イメージを生成でき、この時に生成した2次元イメージをアンカーとして設定できる(S132b)。また、T時点に対応する3次元ポーズ座標を設定角度以外の複数の角度で投影して2次元イメージをさらに生成でき、この時に生成された2次元イメージをそれぞれ類似サンプルとして設定できる(S133b)。
一方、T時点以外の時点に対応する3次元ポーズ座標の場合、それぞれ異なるポーズを表すものと判別できる。したがって、それぞれの3次元ポーズ座標を設定角度で投影して生成した2次元イメージは非類似サンプルとして設定できる(S134b)。
ここで、T時点を選択映像の開始時点から終了時点まで変更しながら学習データセットを生成することができる。また、一つの選択映像に対する学習データセットの生成が完了すると、複数のサンプル映像を順次に選択映像として選択し、それぞれの選択映像に対応する学習データを生成することができる。
図示しないが、複数のサンプル映像のポーズイメージ出力時点と3次元ポーズ座標を同時に用いて学習データセットを生成することも可能である。
この場合、まず、サンプル映像のいずれか一つを選択映像として設定し、選択映像のT時点に対応するポーズイメージをアンカーとして設定できる。
その後、選択映像以外のサンプル映像のT時点に対応するポーズイメージを、アンカーに対する類似サンプルとして設定できる。また、T時点に対応するポーズイメージに対する3次元ポーズ座標を生成し、3次元ポーズ座標を複数の角度で投影する方式により類似サンプルをさらに追加することができる。
非類似サンプルの場合、選択映像のうち、T時点以外の時点に対応するポーズイメージを、アンカーに対する非類似サンプルとして設定でき、その後、それぞれのポーズイメージの3次元ポーズ座標を生成し、これを複数の角度で投影する方式により非類似サンプルを追加することができる。
ポーズ類似度判別モデル生成段階(S140)では、学習データセットで機械学習(machine learning)を行い、映像中の客体が取るポーズの類似度を判別するポーズ類似度判別モデルを生成することができる。すなわち、学習データセットをメトリックラーニングモデル(metric learning model)で機械学習でき、学習データセットに含まれているそれぞれのポーズイメージの類似度を、特徴マップ(feature map)上の距離を用いて示すことができる。
このとき、三重対損失関数(triplet loss function)を用いて機械学習を行うことができる。具体的に、三重対損失関数は、
Figure 2022532772000003

であり、ここで、f(*)は特徴マップ関数、δはマージン(margin)、xaiはアンカー、x+iは類似サンプル、x-iは非類似サンプルである。
すなわち、三重対損失関数を用いて、特徴マップ上で類似サンプルとアンカー間の距離は近づき、非類似サンプルとアンカー間の距離は遠ざかるように学習させることができる。これにより、それぞれのポーズイメージ間の特徴マップにおける距離からイメージの類似度を判別することができる。
図8は、本発明の一実施例に係るポーズ類似度判別装置を示すブロック図である。
図8を参照すると、本発明の一実施例に係るポーズ類似度判別装置200は、前処理部210、ポーズイメージ生成部220及び演算部230を含むことができる。
以下、図8を参照して本発明の一実施例に係るポーズ類似度判別装置を説明する。
前処理部210は、ユーザuの動作を撮影した対象映像を受信することができ、受信した対象映像を前処理して基準映像と同期化させることができる。実施例によっては、ポーズ類似度判別装置200にカメラなどの撮影装置cがさらに含まれてよく、撮影装置cを用いてユーザuの動作を撮影した対象映像を生成することができる。ここで、対象映像は、ユーザuのゴルフスイング姿勢を撮影した映像でよいが、これに限定されるものではなく、実施例によって、ユーザの様々なポーズを含むことができる。
一方、対象映像がダンス映像である場合には、前処理部210が、ダンス映像に含まれている音楽の開始時点を基準にして同期化でき、対象映像がゴルフスイング姿勢である場合には、最初準備姿勢などを基準にして同期化させることができる。ただし、これに限定されず、様々な方式を用いて対象映像と基準映像を同期化させることができる。
ポーズイメージ生成部220は、対象映像からそれぞれのフレームイメージを抽出し、フレームイメージ内に表されたユーザのポーズに対応するユーザポーズイメージを生成することができる。対象映像は、複数のフレームイメージを含むことができ、それぞれのフレームイメージにはユーザuのポーズ(pose)が表されていてよい。
ここで、ポーズイメージ生成部220は、フレームイメージからユーザuのポーズを認識してユーザポーズイメージを生成することができる。すなわち、フレームイメージに表されたユーザのポーズを、関節などの特徴点と、それぞれの特徴点間の連結関係で表示するユーザポーズイメージを生成することができる。
さらに、実施例によっては、対象映像のフレームイメージ内に複数のユーザが存在する場合があり得る。この場合、ポーズイメージ生成部220は、それぞれのユーザを区別でき、それぞれのユーザに対応するユーザポーズイメージを個別に生成することができる。その後、外部の入力によって、複数のユーザのいずれか一つに対するポーズ類似度判別結果を提供することも可能である。
また、実施例によっては、対象映像のフレームイメージ内に含まれているユーザの身体部位別に区別してユーザポーズイメージを生成することも可能である。例えば、ユーザの頭、腕、脚、胴などをそれぞれ分離し、それぞれに対するユーザポーズイメージを生成することができる。
演算部230は、ユーザポーズイメージをポーズ類似度判別モデルに適用して、類似度を演算することができる。すなわち、ポーズ類似度判別モデルを用いて、ユーザポーズイメージと基準映像に対応する基準ポーズイメージを比較でき、それぞれのユーザポーズイメージと基準ポーズイメージ間の類似度を演算することができる。
ここで、基準映像は、ユーザが比較するために選択したものであってよい。例えば、対象映像がゴルフスイング姿勢を撮影したものであれば、ユーザが習おうとする有名ゴルファーのゴルフスイング姿勢などであってよい。ここで、ユーザは、複数の有名ゴルファーのうち、自身が所望するゴルファーのゴルフスイング姿勢を基準映像として選択できる。その後、自身のゴルフスイング姿勢と有名ゴルファーのゴルフスイング姿勢間の類似度を確認する方式により、自身の姿勢を矯正することができる。実施例によっては、それぞれのフレームイメージ別に類似度を提供したり、或いは、ユーザの身体部位別に類似度を提供することも可能である。ここで、ユーザの身体部位別類似度を提供する場合には、ユーザポーズイメージ生成時に、それぞれの身体部位別に区別して別途のポーズイメージを生成することができる。
図9は、本発明の一実施例に係るポーズ類似度判別方法を示すフローチャートである。
図9を参照すると、本発明の一実施例に係るポーズ類似度判別方法は、前処理段階(S210)、ポーズイメージ生成段階(S220)及び演算段階(S230)を含むことができる。
以下、図9を参照して本発明の一実施例に係るポーズ類似度判別方法を説明する。
前処理段階(S210)では、ユーザの動作を撮影した対象映像を受信することができ、受信した対象映像を基準映像と同期化させることができる。例えば、対象映像は、ユーザのダンス又はゴルフスイング姿勢などを撮影した映像であってよい。
ポーズイメージ生成段階(S220)では、対象映像からそれぞれのフレームイメージを抽出し、フレームイメージ内に表されたユーザのポーズに対応するユーザポーズイメージを生成することができる。対象映像は、複数のフレームイメージを含むことができ、それぞれのフレームイメージには、ユーザのポーズが表されていてよい。したがって、フレームイメージからユーザのポーズを認識してユーザポーズイメージを生成することが可能である。具体的に、フレームイメージに表されたユーザのポーズを、関節などの特徴点と、それぞれの特徴点間の連結関係で表示してユーザポーズイメージを生成することができる。
さらに、実施例によっては、対象映像のフレームイメージ内に複数のユーザが存在する場合があり得る。この場合、それぞれのユーザを区別してユーザ別ユーザポーズイメージを生成することができる。その後、外部の入力によって、複数のユーザのいずれか一つに対するポーズ類似度判別結果を提供することができる。
演算段階(S230)では、ユーザポーズイメージをポーズ類似度判別モデルに適用して類似度を演算することができる。すなわち、ポーズ類似度判別モデルを用いて、ユーザポーズイメージと基準映像に対応する基準ポーズイメージとを比較でき、それぞれのユーザポーズイメージと基準ポーズイメージ間の類似度を演算することができる。
ここで、基準映像は、ユーザが自身の対象映像と比較するために選択したものであり、対象映像がゴルフスイング姿勢を撮影したものである場合、基準映像は、ユーザが習おうとする有名ゴルファーのゴルフスイング姿勢であってよい。ユーザは、有名ゴルファーのうち、自身が所望するゴルファーのゴルフスイング姿勢を基準映像として選択でき、自身のゴルフスイング姿勢と有名ゴルファーのゴルフスイング姿勢間の類似度を確認する方式で自身の姿勢を矯正することができる。また、本発明の一実施例によれば、現在の姿勢から、基準映像の姿勢とより類似となる方向にポーズの動きを提案してガイドするUI(User Interface)をさらに提供することができる。
実施例によっては、対象映像のフレームイメージ別に基準映像との類似度を提供することができ、対象映像に含まれているユーザの身体部位別に類似度を提供することも可能である。
前述した本発明は、プログラムの記録された媒体にコンピュータ可読コードとして具現することが可能である。コンピュータ可読媒体は、コンピュータで実行可能なプログラムを継続保存するか、実行又はダウンロードのために臨時保存するものであってよい。また、媒体は、単一又は数個のハードウェアが結合した形態の様々な記録手段又は保存手段であり得るが、あるコンピュータシステムに直接接続される媒体に限定されず、ネットワーク上に分散して存在するものであってもよい。媒体の例示は、ハードディスク、フロッピーディスク及び磁気テープのような磁気媒体、CD-ROM及びDVDのような光記録媒体、フロプティカルディスク(floptical disk)のような磁気-光媒体(magneto-optical medium)、及びROM、RAM、フラッシュメモリーなどを含め、プログラム命令語が保存されるように構成されたものであってよい。また、他の媒体の例示として、アプリケーションを流通するアプリケーションストアやその他様々なソフトウェアを供給又は流通するサイト、サーバーなどで管理する記録媒体又は保存媒体も挙げることができる。したがって、上述の詳細な説明はいずれの面においても制限的に解釈されてはならず、例示的なものとして考慮されるべきである。本発明の範囲は、添付する請求項の合理的解析によって決定されるべきであり、本発明の等価的範囲内における変更はいずれも本発明の範囲に含まれる。
本発明は、前述の実施例及び添付の図面によって限定されるものではない。本発明の属する技術の分野における通常の知識を有する者にとって、本発明の技術的思想から逸脱しない範囲内で、本発明に係る構成要素を置換、変形及び変更できるということは明らかであろう。

Claims (14)

  1. ポーズ類似度判別モデルを生成する装置によって実行される方法であって、
    前記装置の前処理部が、収集した複数のサンプル映像を同期化させる段階;
    前記装置のポーズイメージ生成部が、前記サンプル映像からそれぞれのフレームイメージを抽出し、前記フレームイメージ内に表された客体のポーズに対応するポーズイメージを生成する段階;
    前記装置の学習データセット生成部が、前記ポーズイメージの類似又は非類似をそれぞれ設定し、三重対の学習データセットを生成する段階;及び
    前記装置のモデルトレーニング部が、前記学習データセットで機械学習を行い、映像中の客体が取るポーズの類似度を判別するポーズ類似度判別モデルを生成する段階を含む、ポーズ類似度判別モデル生成方法。
  2. 前記同期化させる段階は、
    基準映像と比較し、前記サンプル映像のFPSを調節するか、前記基準映像とのオフセットタイムを計算することを特徴とする、請求項1に記載のポーズ類似度判別モデル生成方法。
  3. 前記ポーズイメージを生成する段階は、
    前記フレームイメージに表された前記客体のポーズを、前記客体に含まれている特徴点及び前記特徴点間の連結関係で単純化して前記ポーズイメージを生成することを特徴とする、請求項1に記載のポーズ類似度判別モデル生成方法。
  4. 前記学習データセットを生成する段階は、
    前記サンプル映像のいずれか一つを選択映像として設定し、前記選択映像のT時点に対応するポーズイメージをアンカーとして設定する段階;
    前記選択映像以外のサンプル映像のT時点に対応するポーズイメージを、前記アンカーに対する類似サンプルとして設定する段階;及び
    前記選択映像のうち、前記T時点以外の時点に対応するポーズイメージを、前記アンカーに対する非類似サンプルとして設定する段階をさらに含むことを特徴とする、請求項1に記載のポーズ類似度判別モデル生成方法。
  5. 前記学習データセットを生成する段階は、
    前記T時点を前記選択映像の開始時点から終了時点まで順次に変更し、前記選択映像に含まれている全体ポーズイメージに対応する学習データセットを生成することを特徴とする、請求項4に記載のポーズ類似度判別モデル生成方法。
  6. 前記学習データセットを生成する段階は、
    前記複数のサンプル映像のうち少なくとも設定個数以上のサンプル映像を前記選択映像として選択して前記学習データセットを生成することを特徴とする、請求項4に記載のポーズ類似度判別モデル生成方法。
  7. 前記学習データセットを生成する段階は、
    前記複数のサンプル映像のいずれか一つを選択映像として設定し、前記選択映像のポーズイメージに対応するそれぞれの3次元ポーズ座標を生成する段階;
    前記選択映像のT時点に対応する3次元ポーズ座標を設定角度で投影して2次元イメージを生成し、生成した2次元イメージをアンカーとして設定する段階;
    前記T時点における3次元ポーズ座標を前記設定角度以外の複数の角度で投影して2次元イメージを生成し、生成した2次元イメージを前記アンカーに対する類似サンプルとして設定する段階;及び
    前記T時点以外の時点に対応する3次元ポーズ座標を前記設定角度で投影して2次元イメージを生成し、生成した2次元イメージを前記アンカーに対する非類似サンプルとして設定する段階をさらに含むことを特徴とする、請求項1に記載のポーズ類似度判別モデル生成方法。
  8. 前記類似サンプルとして設定する段階は、
    前記選択映像以外のサンプル映像のT時点に対応するポーズイメージを抽出し、前記抽出したポーズイメージに対する3次元ポーズ座標を生成する段階;及び
    前記3次元ポーズ座標を複数の角度で投影して2次元イメージを生成し、前記生成した2次元イメージを前記類似サンプルとして追加する段階をさらに含むことを特徴とする、請求項4に記載のポーズ類似度判別モデル生成方法。
  9. 前記非類似サンプルとして設定する段階は、
    前記選択映像のうち、前記T時点以外の時点に対応するポーズイメージを抽出し、前記ポーズイメージに対する3次元ポーズ座標を生成する段階;及び
    前記3次元イメージを複数の角度で投影して2次元イメージを生成し、前記生成した2次元イメージを前記非類似サンプルとして追加する段階をさらに含むことを特徴とする、請求項4に記載のポーズ類似度判別モデル生成方法。
  10. 前記ポーズ類似度判別モデルを生成する段階は、
    前記学習データセットをメトリックラーニングモデルで機械学習して前記ポーズ類似度判別モデルを生成し、前記ポーズ類似度判別モデルは、前記ポーズイメージ間の類似度を特徴マップ上の距離を用いて示すことを特徴とする、請求項1に記載のポーズ類似度判別モデル生成方法。
  11. ハードウェアと結合し、請求項1~10のいずれか一項に記載のポーズ類似度測定モデル生成方法を実行させるために媒体に保存されたコンピュータプログラム。
  12. 収集した複数のサンプル映像を前処理し、前記サンプル映像を同期化させる前処理部;
    前記サンプル映像からそれぞれのフレームイメージを抽出し、前記フレームイメージ内に表された客体のポーズに対応するポーズイメージを生成するポーズイメージ生成部;
    前記ポーズイメージの類似又は非類似をそれぞれ設定し、三重対の学習データセットを生成する学習データセット生成部;及び
    前記学習データセットで機械学習を行い、映像中の客体が取るポーズの類似度を判別するポーズ類似度判別モデルを生成するモデルトレーニング部を含む、ポーズ類似度判別モデル生成装置。
  13. ポーズ類似度を判別する装置によって実行される方法であって、
    前記装置の前処理部が、ユーザの動作を撮影した対象映像を受信すると、前記対象映像を基準映像と同期化させる段階;
    前記装置の学習データセット生成部が、前記対象映像からそれぞれのフレームイメージを抽出し、前記フレームイメージ内に表されたユーザのポーズに対応するユーザポーズイメージを生成する段階;及び
    前記装置の演算部が、前記ユーザポーズイメージをポーズ類似度判別モデルに適用して前記ユーザポーズイメージと基準映像に対応する基準ポーズイメージとを比較し、それぞれのユーザポーズイメージと基準ポーズイメージ間の類似度を演算する段階を含むポーズ類似度判別方法。
  14. 前記ユーザポーズイメージを生成する段階は、前記対象映像のフレームイメージ内に複数のユーザが存在する場合、それぞれのユーザ別に前記ユーザポーズイメージを生成することを特徴とする、請求項11に記載のポーズ類似度判別方法。
JP2021568548A 2019-05-17 2020-03-31 ポーズ類似度判別モデル生成方法及びポーズ類似度判別モデル生成装置 Active JP7373589B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2019-0058052 2019-05-17
KR1020190058052A KR102194282B1 (ko) 2019-05-17 2019-05-17 포즈 유사도 판별 모델 생성방법 및 포즈 유사도 판별 모델 생성장치
PCT/KR2020/004390 WO2020235804A1 (ko) 2019-05-17 2020-03-31 포즈 유사도 판별 모델 생성방법 및 포즈 유사도 판별 모델 생성장치

Publications (2)

Publication Number Publication Date
JP2022532772A true JP2022532772A (ja) 2022-07-19
JP7373589B2 JP7373589B2 (ja) 2023-11-02

Family

ID=73458126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021568548A Active JP7373589B2 (ja) 2019-05-17 2020-03-31 ポーズ類似度判別モデル生成方法及びポーズ類似度判別モデル生成装置

Country Status (3)

Country Link
JP (1) JP7373589B2 (ja)
KR (1) KR102194282B1 (ja)
WO (1) WO2020235804A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102306319B1 (ko) * 2020-12-01 2021-09-30 주식회사 진원온원 포즈 추정 매핑 데이터를 생성하는 방법, 프로그램 및 컴퓨팅 장치
CN112907663B (zh) * 2021-02-03 2024-08-13 阿里巴巴集团控股有限公司 定位方法、计算机程序产品、装置及系统
KR102501300B1 (ko) * 2021-05-03 2023-02-21 (주)릴리어스 동작 평가 방법
CN113989405B (zh) * 2021-12-27 2022-04-08 浙江大学 一种基于小样本持续学习的图像生成方法
KR20230108409A (ko) 2022-01-11 2023-07-18 울산과학기술원 가시성 지표를 활용한 3차원 포즈 추정 시스템 및 방법
JP7249444B1 (ja) * 2022-02-14 2023-03-30 日鉄ソリューションズ株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120051588A1 (en) * 2009-12-21 2012-03-01 Microsoft Corporation Depth projector system with integrated vcsel array
JP2013120556A (ja) * 2011-12-08 2013-06-17 Kddi Corp 被写体姿勢推定装置および映像描画装置
JP2013529801A (ja) * 2010-06-12 2013-07-22 トヨタ モーター ヨーロッパ ナームロゼ フェンノートシャップ/ソシエテ アノニム 単眼3次元ポーズ推定および検出による追跡
JP2014038566A (ja) * 2012-08-20 2014-02-27 Kddi Corp 画像処理装置
US20140072175A1 (en) * 2011-05-16 2014-03-13 ETH Eidgenössische Technische Hochschule Zürich Fast articulated motion tracking
JP2015501115A (ja) * 2011-12-21 2015-01-08 トムソン ライセンシングThomson Licensing 時間的同期不整合を検出するためのビデオ処理装置および方法
US20150294143A1 (en) * 2014-04-10 2015-10-15 GM Global Technology Operations LLC Vision based monitoring system for activity sequency validation
KR20170053069A (ko) * 2015-11-05 2017-05-15 수원대학교산학협력단 포즈 추정 기반 포즈변화에 강인한 얼굴 인식 방법
US20180114055A1 (en) * 2016-10-25 2018-04-26 VMAXX. Inc. Point to Set Similarity Comparison and Deep Feature Learning for Visual Recognition
CN109522850A (zh) * 2018-11-22 2019-03-26 中山大学 一种基于小样本学习的动作相似度评估方法
WO2019060632A1 (en) * 2017-09-20 2019-03-28 Google Llc OPTIMIZING POLICY CONTROL DEVICES FOR ROBOTIC AGENTS USING IMAGE INTEGRATIONS

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7519201B2 (en) * 2005-10-28 2009-04-14 Honda Motor Co., Ltd. Detecting humans via their pose
KR101090356B1 (ko) * 2009-12-28 2011-12-13 주식회사 더블유코퍼레이션 오디오 신호 및 비디오 신호의 동기화 오차 보정 방법 및 장치
KR101558547B1 (ko) * 2014-01-27 2015-10-19 주식회사 에스원 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
KR101848019B1 (ko) * 2016-12-27 2018-04-11 아주대학교산학협력단 차량 영역 검출을 통한 차량 번호판 검출 방법 및 장치

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120051588A1 (en) * 2009-12-21 2012-03-01 Microsoft Corporation Depth projector system with integrated vcsel array
JP2013529801A (ja) * 2010-06-12 2013-07-22 トヨタ モーター ヨーロッパ ナームロゼ フェンノートシャップ/ソシエテ アノニム 単眼3次元ポーズ推定および検出による追跡
US20140072175A1 (en) * 2011-05-16 2014-03-13 ETH Eidgenössische Technische Hochschule Zürich Fast articulated motion tracking
JP2013120556A (ja) * 2011-12-08 2013-06-17 Kddi Corp 被写体姿勢推定装置および映像描画装置
JP2015501115A (ja) * 2011-12-21 2015-01-08 トムソン ライセンシングThomson Licensing 時間的同期不整合を検出するためのビデオ処理装置および方法
JP2014038566A (ja) * 2012-08-20 2014-02-27 Kddi Corp 画像処理装置
US20150294143A1 (en) * 2014-04-10 2015-10-15 GM Global Technology Operations LLC Vision based monitoring system for activity sequency validation
KR20170053069A (ko) * 2015-11-05 2017-05-15 수원대학교산학협력단 포즈 추정 기반 포즈변화에 강인한 얼굴 인식 방법
US20180114055A1 (en) * 2016-10-25 2018-04-26 VMAXX. Inc. Point to Set Similarity Comparison and Deep Feature Learning for Visual Recognition
WO2019060632A1 (en) * 2017-09-20 2019-03-28 Google Llc OPTIMIZING POLICY CONTROL DEVICES FOR ROBOTIC AGENTS USING IMAGE INTEGRATIONS
CN109522850A (zh) * 2018-11-22 2019-03-26 中山大学 一种基于小样本学习的动作相似度评估方法

Also Published As

Publication number Publication date
KR20200132469A (ko) 2020-11-25
WO2020235804A1 (ko) 2020-11-26
JP7373589B2 (ja) 2023-11-02
KR102194282B1 (ko) 2020-12-23

Similar Documents

Publication Publication Date Title
JP2022532772A (ja) ポーズ類似度判別モデル生成方法及びポーズ類似度判別モデル生成装置
Andriluka et al. 2d human pose estimation: New benchmark and state of the art analysis
CN101673346B (zh) 对图像进行处理的方法、设备和系统
JP7452016B2 (ja) 学習データ生成プログラム、及び学習データ生成方法
Fani et al. Hockey action recognition via integrated stacked hourglass network
US20160296795A1 (en) Apparatus and method for analyzing golf motion
CN110544301A (zh) 一种三维人体动作重建系统、方法和动作训练系统
CN104732203A (zh) 一种基于视频信息的情绪识别与跟踪方法
Müller et al. Emotion recognition from embedded bodily expressions and speech during dyadic interactions
Świtoński et al. Human identification based on gait paths
Lu et al. A robust technique for motion-based video sequences temporal alignment
KR20200022788A (ko) 동작분석 장치 및 방법
KR101762010B1 (ko) 스켈레톤 자세 데이터세트를 이용한 비디오 기반 상호 활동 모델링 방법
KR102258128B1 (ko) 인공지능 기반의 영상 인식을 이용한 댄스 트레이닝을 위한 사용자 모션 분석 방법
Emad et al. ikarate: Karate kata guidance system
Kico et al. Comparison of trajectories and quaternions of folk dance movements using dynamic time warping
KR20220029946A (ko) 영상에 포함된 객체를 추적하는 장치, 방법 및 컴퓨터 프로그램
Bazin et al. Actionsnapping: Motion-based video synchronization
KR20200045884A (ko) 볼류메트릭 비디오 생성 방법, 장치 및 컴퓨터 판독가능 매체
Wannous et al. Place recognition via 3d modeling for personal activity lifelog using wearable camera
Anshu et al. View invariant gait feature extraction using temporal pyramid pooling with 3D convolutional neural network
WO2024024055A1 (ja) 情報処理方法、装置、及びプログラム
Castro et al. Empirical study of audio-visual features fusion for gait recognition
Farris Take the Lead: Toward a Virtual Video Dance Partner
Husseini et al. A 3D-Assisted Framework to Evaluate the Quality of Head Motion Replication by Reenactment DEEPFAKE Generators

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R150 Certificate of patent or registration of utility model

Ref document number: 7373589

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150