JP2017531226A - 動作認識方法及び動作認識装置 - Google Patents

動作認識方法及び動作認識装置 Download PDF

Info

Publication number
JP2017531226A
JP2017531226A JP2017505558A JP2017505558A JP2017531226A JP 2017531226 A JP2017531226 A JP 2017531226A JP 2017505558 A JP2017505558 A JP 2017505558A JP 2017505558 A JP2017505558 A JP 2017505558A JP 2017531226 A JP2017531226 A JP 2017531226A
Authority
JP
Japan
Prior art keywords
motion
function
condition
user
condition function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017505558A
Other languages
English (en)
Inventor
クォン,ジ−ヨン
Original Assignee
スターシップ ベンディング−マシーン コーポレーション
スターシップ ベンディング−マシーン コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スターシップ ベンディング−マシーン コーポレーション, スターシップ ベンディング−マシーン コーポレーション filed Critical スターシップ ベンディング−マシーン コーポレーション
Publication of JP2017531226A publication Critical patent/JP2017531226A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、動作認識方法及び動作認識装置に関するものであって、ユーザーの動作情報を獲得し、前記動作情報と既設定された比較対象情報との間の動的タイムワーピングを実行することにより、ユーザーの実際動作を認識することができる方法を提供する。それにより、正確且つ迅速にユーザーの動作を認識することができる。【選択図】図1

Description

本発明は、動作認識方法及び動作認識装置に関し、より詳細には、ユーザーの動作と対応する比較対象情報を迅速に決定することにより、ユーザーの動作を正確且つ効率的に認識する方法及びその装置に関する。
最近は、テキストなどの入力方式ではないユーザーの音声や動作などでコンピュータに命令を入力するNUI装置が開発され、普及している。
但し、現在普及しているNUI装置は、ユーザーの動作に応じる関節の位置を追跡することによってユーザーの動作を識別するのに止まるだけなので、更に、NUI装置を介して入力されたユーザーの音声またはユーザーの動きを解釈しようとする努力がある。
このような努力の一環として、動的タイムワーピング(Dynamic Time−Warping)技法が提案されている。つまり、任意の動作がどのような命令を意味するのかを知るためには、該当命令のために予め定義されている動作と、ユーザーが取った現在動作とが一致するか否かを検証する技術が必要であるが、このための技術として、動的タイムワーピング技法が提案されている。
動的タイムワーピング技法によれば、2つのシーケンスがM及びNとして与えられたとき、通常的にO(MN)だけの演算を実行するべきである。更に、Jが全関節の個数であるとすれば、O(MNJ)だけの演算を実行するべきであり、現在のユーザーが取った動作と比較するべきであると定義された動作がK個あると仮定すれば、O(MNJK)だけの演算を実行するべきであるが、このような高度な計算の複雑さは、多くのコンピューティング資源と時間を要求する問題点を有する。
また、動的タイムワーピング技法によれば、入力されたユーザーの動作を、予め定義された動作と比較するためにスケーリングをするべきであるのに、ユーザー別に身体の大きさが異なるか、動作の細かさの程度が異なるしかないので、ユーザーの動作が全く異なる動作として認識される問題点もある。
関連して、先行技術文献である特許文献1では、複数個のモーションを認識するモーション認識部、及び前記モーション認識部で認識されたモーションに応じて前記デジタルデバイスを制御する制御部を含み、前記制御部は、前記モーション認識部が前記複数個のモーションなどのうち、第1のモーションを認識する場合、前記モーション認識部で認識されたモーションに応じた前記デジタルデバイスの制御を停止し、以後前記複数個のモーションなどのうち、第2のモーションが認識された場合、前記モーション認識部で認識されたモーションに応じた前記デジタルデバイスの制御を実行することを特徴とする制御装置が記載されている。つまり、先行技術文献では、モーションを認識し、認識されたモーションに応じた制御を決定する内容に関して説明しているが、前記モーションを効果的に認識する方法に関しては言及していないところ、依然として前述された問題点を解決していない。
従って、前述された問題点を解決するための技術が必要になった。
一方、前述した背景技術は、発明者が本発明の導出のために保有していたとか、本発明の導出過程で習得した技術情報であって、必ず本発明の出願前に一般公衆に公開された公知技術とはいえない。
韓国公開特許第10−2012−0000807号公報
本発明の一実施例は、ユーザーの動作を正確に認識することに目的がある。
また、本発明の一実施例は、NUI機器を介して入力されたユーザーの動作をバイナリーベクトルで表現することにより、ユーザー動作の意味を決定するための演算時間を最小化させることに目的がある。
前述した技術的課題を達成するための手段として、本発明の第1の側面によれば、ユーザーの動作を認識するための方法において、ユーザーの動作情報を獲得するステップと、前記動作情報と既設定された比較対象情報との間の動的タイムワーピング(dynamic time warping)を実行するステップと、を含むことができる。
本発明の第2の側面によれば、NUI装置を介して受信されるユーザーの動作を認識するための動作認識装置であって、ユーザーの動作情報を獲得するように構成される動作情報獲得部と、前記動作情報と既設定された比較対象情報との間の動的タイムワーピング(dynamic time warping)を実行するように構成される動作決定部と、を含むことができる。
前述した技術的課題を達成するための技術的手段として、本発明の第3の側面によれば、ユーザーの動作情報を獲得するステップと、前記動作情報及び既設定された比較対象情報間の動的タイムワーピング(dynamic time warping)を実行するステップと、を含む方法を実行するプログラムが記録されたコンピュータ読み取り可能な記録媒体が提供され得る。
前述した技術的課題を達成するための技術的手段として、本発明の第4の側面によれば、コンピュータにとって、ユーザーの動作情報を獲得するステップと、前記動作情報及び既設定された比較対象情報間の動的タイムワーピング(dynamic time warping)を実行するステップと、を含む方法を実行させるコンピュータプログラムコードを含むコンピュータプログラムが提供され得る。
前述した本発明の課題解決手段のうち、いずれかによれば、本発明の一実施例は、ユーザーの動作を正確に認識することができる。特に、ユーザー別に異なる身体の大きさや動作の微細な差異点がユーザーが意図したところに応じた動作を正確に決定するのに障害にならない。
また、本発明の課題解決手段のうち、いずれかによれば、NUI機器を介して入力されたユーザーの動作をバイナリーベクトルで表現することにより、ユーザー動作の意味を決定するための演算時間を最小化させることができる。併せて、ユーザーの動作をバイナリーベクトルで表現するようになれば、連続した2つのポーズに対して、バイナリーベクトルのシーケンスは、同じ値を有することができるので、同じ長さのアニメーションをより少ないポーズに変換することができる。
本発明において得られる効果は、以上で言及した効果などに制限されず、言及していないまた他の効果などは、以下の記載から本発明が属する技術分野で通常の知識を有する者に明確に理解され得るだろう。
本発明の一実施例によるNUI装置を介してユーザーの動作を認識するためのシステムの構成図である。 本発明の一実施例による動作認識装置を示したブロック図である。 本発明の一実施例による動作情報獲得部を示したブロック図である。 本発明の一実施例による動作認識方法を説明するためのフローチャートである。
以下では、添付した図面を参照して本発明が属する技術分野で通常の知識を有する者が容易に実施できるように、本発明の実施例を詳細に説明する。しかし、本発明は、様々な異なる形態で具現されることができ、ここで説明する実施例に限定されない。そして、図面において、本発明を明確に説明するために、説明と関係ない部分は省略しており、明細書の全体にわたって類似した部分に対しては、類似の図面符号を付けた。
明細書の全体において、ある部分が他の部分と“連結”されているというとき、これは“直接的に連結”されている場合だけではなく、その中間に他の要素を間に置いて“電気的に連結”されている場合も含む。また、ある部分がある構成要素を“含む”というとき、これは特に反対される記載がない限り、他の構成要素を除外するのではなく、他の構成要素を更に含むことができることを意味する。
以下、添付された図面を参考して本発明を詳細に説明することにする。図1を参照すると、本発明の一実施例によるシステム10は、NUI装置100及び動作認識装置200を含む。
本発明において、NUI装置100は、イメージセンサー、深さ感知センサー、動作認識センサー及び音声認識センサーのうち、少なくとも1つを利用して、ユーザーの動作または音声を認識できるソフトウェアプログラムやアプリケーションの命令に利用することができる全ての装置を意味する。NUI装置100は、例えば、タッチスクリーンが搭載されたタブレットPC、スマートフォン、カラーカメラ(RGB camera)またはデプスカメラ(depth camera)、キネクト(Kinect)などから具現され得る。本発明によるNUI装置100は、例えば、デプスカメラで具現されたら、ユーザーの動作を撮影し、撮影されたイメージフレームを送信するとか、撮影されたイメージフレームから前記ユーザーの関節の3次元位置などから構成されるポーズ情報を抽出し、抽出されたポーズ情報を送信することができる。
つまり、NUI装置100は、ユーザーの身体全体または一部分を撮影して、ユーザーの身体部位を判別するとか、関節の3次元位置、または前記関節の動きなどを追跡することにより、ユーザーの関節の3次元位置などから構成されるポーズ情報を含むフレームを獲得することができる。また、NUI装置100は、前記のように獲得されたポーズ情報、またはフレームを動作認識装置200に有/無線通信手段を介して送信することができる。
一方、動作認識装置200は、NUI装置100から受信したポーズ情報を分析(または受信したイメージフレームからポーズ情報を抽出し、前記抽出されたポーズ情報を分析)して、ユーザーの動作情報を獲得し、前記動作情報と既設定された比較対象情報とを比較して、現実世界におけるユーザーの動作を正確に認識し、ひいては、ユーザーの動作に対応する命令を決定することができる。
ここで、‘動作情報’とは、ユーザーのポーズを時間の順に並べたときのシーケンス情報を意味し、‘比較対象情報’は、ユーザーの動作の意味(または命令)を定義した情報として、動作認識装置200に既格納され得る。
このような動作認識装置200は、NUI装置100が実行する機能の一部を実行することができる。例えば、NUI装置100が動作認識装置200に含まれるか、または動作認識装置200にNUI装置100が含まれることにより、動作認識装置200がNUI装置100の機能の少なくとも一部を実行することができる。以下では、説明の便宜のために、NUI装置100が実行する機能の少なくとも一部を動作認識装置200が実行するものとして説明し、このような動作認識装置200のより詳細な構成は、図2を参照して後述する。
一方、本発明の一実施例によるシステム10は、命令処理装置300を更に含むことができる。
従って、動作認識装置200によって現実世界におけるユーザー動作の意味が決定され、前記意味に対応する命令が存在したら、前記命令は、有/無線通信手段を介して命令処理装置300に送信され、前記命令に符合するプロセスを進行することができる。
従って、例えば、命令処理装置300が電子機器の画面上のカーソルを表示してくれる装置であり、比較対象情報として、特定の関節の動作が前記カーソルの動きとして定義されたら、ユーザーが前記特定の関節を動かしたとき、前記動きをポーズ情報としてNUI装置100が獲得することができ、動作認識装置200が前記ポーズ情報に基づいて獲得した動作情報と比較対象情報との間の動的タイムワーピングを実行し、その結果、ユーザーの動作に対応する命令を決定することができ、命令処理装置300が前記命令に対応するプロセス、つまり、画面上のカーソルを画面上で移動させることができる。
このような命令処理装置300は、説明の便宜上、図1で動作認識装置200とは別に存在するものとして示されたが、動作認識装置200に含まれるか、または動作認識装置200を含むことができる。
以下、図2を参照して、本発明の一実施例による動作認識装置200の構成に対して具体的に説明する。
図2に示されたように、動作認識装置200は、情報受信部210、動作情報獲得部220及び動作決定部230を含む。
情報受信部210は、NUI装置100によって撮影されたイメージフレームを受信するとか、またはイメージフレームから抽出されたポーズ情報を受信することができる。
関連して、ユーザーがNUI装置100に対して現実世界における一連の動作を実行したとき、説明の便宜上、前記一連の動作をユーザーの‘実際動作’と定義する。NUI装置100は、ユーザーの実際動作を毎秒ごとに撮影し、実際動作を構成するポーズ情報を含むイメージフレームを獲得して動作認識装置200に送信することができ、またはイメージフレームからポーズ情報を抽出して前記ポーズ情報を動作認識装置200に送信することができる。
従って、情報受信部210は、イメージフレームまたはポーズ情報を受信することができ、情報受信部210がイメージフレームを受信すると、前記イメージフレームからポーズ情報を抽出することができる。前述されたところによるポーズ情報は、ユーザー関節の3次元位置などから構成されることができ、より詳細には、次のように定義することができる。
一方、動作情報獲得部220は、ユーザーの動作情報を獲得する。
つまり、動作情報獲得部220は、前記ユーザーの実際動作に対応する一連のポーズ情報のそれぞれをバイナリーベクトルに変換し、前記変換されたバイナリーベクトルを前記ユーザーの動作情報として設定することができる。
このような動作情報獲得部220は、条件設定部221及びベクトル変換部222を含むことができる。
条件設定部221は、ユーザーの実際動作に対応する一連のポーズ情報のそれぞれを因子にする条件式を生成する。
このために、条件設定部221は、1つ以上のメタ条件関数を設定することができ、メタ条件関数を構成する要素などのうち、少なくとも1つを決定することに応じて条件式を生成することができる。つまり、前記メタ条件関数は、1つ以上の変数及び定数で構成されることができ、条件設定部221は、前記定数のうち、少なくとも1つの定数を決定することに応じて条件式を生成することができる。
関連して、条件設定部221は、所定関節の位置を、2つ以上の関節に基づいて生成される平面を基準として判断する関数である平面条件関数をメタ条件関数として設定することができ、平面条件関数は、次の数式2または数式3のように表現され得る。
数式2及び数式3によれば、左手あるいは右手が右側肩、左側肩及び骨盤として表現される胴体平面の前にあるか否か、左手が右側肩から左側肩に出るベクトルを法線としながら、左側肩を通る平面を基準にして、身体の内側にあるか否か、あるいは外側にあるか否かなどが知ることができる条件式を生成することができる。
また、条件設定部221は、次の数式4のような関数、つまり、4つの関節の作り出す角度が特定の範囲にあるか否かを判断する条件式を生成することができる角度条件関数を、メタ条件関数として設定することができる。
また、条件設定部221は、メタ条件関数として、数式5のような接近条件関数を設定することができ、接近条件関数は、2つの関節間の距離が特定の範囲にあるか否かを判断する条件式を生成することができる。つまり、条件設定部221は、条件の対象となる関節2つと共に条件の基準となる関節2つ、及び倍率定数値を入力とする条件式を生成することができ、接近条件関数は、次のように数式5で表現され得る。
一方、条件設定部221は、速度条件に関する条件式を生成できるメタ条件関数を設定することができる。つまり、条件設定部221は、次の数式6のような速度方向条件関数、及び数式7のような速度大きさ条件関数のそれぞれをメタ条件関数として設定することができる。
数式6は、任意の関節の速度と、指定した2つの基準関節を連結したベクトルが作り出す角度が指定した範囲にあることを判断できる条件式を生成することができる速度方向条件関数を示す数式である。
数式6の速度方向条件関数に応じて、条件設定部221は、右手が上下あるいは左右に動いているか否か、足が垂直あるいは方向に動いているか否がなど様々な条件式を生成することができる。
一方、数式7は、任意の関節の速度の大きさが指定した2つの基準関節を連結したベクトルの大きさと比較したとき、どれだけ大きいかを探り出す条件式を生成することができる速度大きさ条件関数である。
数式6による関数は、速度の大きさと関係なく作動するので、エラーを作り出す可能性があるが、数式7による速度大きさ条件関数と共に使用すると、基準値以上の速度に対してのみ条件式が意味を有するように設定することができる。
このように、メタ条件関数を利用することにより、条件設定部221は、様々な条件式を生成することができる。
ベクトル変換部222は、条件設定部221によって生成された条件式に基づいて、ユーザーの動作をバイナリーベクトルに変換することにより、動作情報を獲得することができる。
つまり、ベクトル変換部222は、前記ユーザーの動作情報に対応するポーズ集合に含まれるポーズ情報のそれぞれを前記条件式の因子として入力して、各ポーズ情報に対応するバイナリー値を獲得することができ、これに前記一連のポーズ情報で構成される動作に対するバイナリーベクトルを生成することができ、前記バイナリーベクトルを動作情報として獲得することができる。
一方、動作決定部230は、動作情報及び比較対象情報を比較することにより、ユーザーの実際動作とマッチングされる比較対象情報を決定することができる。
このような比較対象情報を格納するための格納部(図示せず)を動作決定部230は、含むことができ、または外部に位置する格納装置(図示せず)、例えば、データベースと通信することができる。
つまり、比較対象情報は、1つ以上存在し、前記比較対象情報のそれぞれと、動作情報間に動的タイムワーピング(dynamic time warping)を実行することにより、前記1つ以上の比較対象情報のうち、ユーザーの実際動作と最も近い比較対象情報を決定することができる。
また、前記決定された比較対象情報に対応する命令が存在したら、動作決定部230は、ユーザーの実際動作に対応する命令が入力されたことを感知することができる。
一方、図4に示された実施例による動作認識方法は、図2及び図3に示された動作認識装置200で時系列的に処理されるステップなどを含む。従って、以下で省略された内容であるといっても、図2及び図3のそれぞれで示された動作認識装置200に関して以上で記述した内容は、図4に示された実施例による動作認識方法にも適用され得る。
先ず、動作認識装置200は、ユーザーの実際動作を受信することができる(S4000)。このとき、動作認識装置200は、NUI装置100を介して、ユーザーの実際動作に対応する一連のイメージフレームを受信することができ、イメージフレームを受信したら、動作認識装置200は、前記イメージフレームのそれぞれからポーズ情報を抽出することにより、動作認識装置200は、ユーザーの動作を受信することもできる。また、前記のようなポーズ情報抽出プロセスがNUI装置100によって実行され、動作認識装置200は、前記ポーズ情報を受信することにより、ユーザーの動作を受信することもできる。
また、ユーザー関節の3次元位置などから構成されるポーズ情報に基づいて、動作認識装置200は、ユーザーの動作をバイナリーベクトルに変換することにより、動作情報を獲得することができる(S4001)。
このために、動作認識装置200は、メタ条件関数を利用して、ユーザーの動作に対応するバイナリーベクトルを生成するための様々な条件式を生成することができる。
例えば、動作認識装置200は、数式2に基づいて、“左手が身体の前にあるか否か”、または“右手が身体の前にあるか否か”を決定できる条件式を生成することができる。
また、例えば、動作認識装置200は、数式3に基づいて“左手が身体の外側にあるか否か”、“右手が身体の外側にあるか否か”、“左手が身体の内側にあるか否か”、“右手が身体の内側にあるか否か”、“左手が胴体よりも高くあるか否か”、“右手が胴体よりも高くあるか否か”、“左手が頭よりも高くあるか否か”または“右手が頭よりも高くあるか否か”を決定できる条件式を生成することができる。
また、例えば、動作認識装置200は、数式4に基づいて、“左腕の肘が作る角が(0゜、60゜)の間にあるか否か”、“左腕の肘が作る角が(60゜、120゜)の間にあるか否か”、“左腕の肘が作る角が(120゜、180゜)の間にあるか否か”、“右腕の肘が作る角が(0゜、60゜)の間にあるか否か”、“右腕の肘が作る角が(60゜、120゜)の間にあるか否か”、“右腕の肘が作る角が(120゜、180゜)の間にあるか否か”、“左膝が作る角が(0゜、60゜)の間にあるか否か”、“左膝が作る角が(60゜、120゜)の間にあるか否か”、“左膝が作る角が(120゜、180゜)の間にあるか否か”、“右膝が作る角が(0゜、60゜)の間にあるか否か”、“右膝が作る角が(60゜、120゜)の間にあるか否か”、“右膝が作る角が(120゜、180゜)の間にあるか否か”、“両腕が作る角が(0゜、60゜)の間にあるか否か”、“両腕が作る角が(60゜、120゜)の間にあるか否か”または“両腕が作る角が(120゜、180゜)の間にあるか否か”を決定できる条件式を生成することができる。
また、例えば、動作認識装置200は、数式5に基づいて、“両手が互いに近くにあるか否か”、“左手が頭の近くにあるか否か”または“右手が頭の近くにあるか否か”を決定できる条件式を生成することができる。
また、例えば、動作認識装置200は、数式6に基づいて、“左手の速度方向が垂直方向であるか否か”、“右手の速度方向が垂直方向であるか否か”、“左手の速度方向が水平方向であるか否か”または“右手の速度方向が水平方向であるか否か”を決定することができる条件式を生成することができる。
併せて、例えば、動作認識装置200は、数式7に基づいて、“左手の速度が1秒ぶりに両肩を通る水準であるか否か”、または“右手の速度が1秒ぶりに両肩を通る水準であるか否か”を決定できる条件式を生成することができる。
前述されたところによる条件式は、図4の各ステップであるS4000〜S4002が実行される以前または以後に生成されることができ、または、前記各ステップが進行される途中にも生成され得る。
このように生成された様々な条件式にユーザーの動作に応じるポーズ情報を代入することができ、これにより、ユーザーの動作に対応するバイナリーベクトルを生成することができる。例えば、動作認識装置200は、30個以上の条件式を設定しておいて、ユーザー動作に対応する30次元以上のバイナリーベクトルを生成することができる。
そし、前記のように生成されたバイナリーベクトルは、動作情報として設定されることができ、動作認識装置200は、前記のような動作情報と比較対象情報との間の動作タイムワーピングを実行することができる(S4002)。動的タイムワーピングを実行するとき、バイナリーベクトルに変換された動作情報と比較対象情報との間の差の計算は、両バイナリーベクトル間の論理演算で簡単に実行され得る。
動的タイムワーピングによって決定された動作に対応する命令が存在すると、動作認識装置200は、命令処理装置300に前記命令を処理するようにすることができる。
図4を介して説明された実施例による動作認識方法は、コンピュータによって実行されるプログラムモジュールのようなコンピュータによって実行可能な命令語を含む記録媒体の形態でも具現され得る。コンピュータ読み取り可能な媒体は、コンピュータによってアクセスされ得る任意の可用媒体であることができ、揮発性及び非揮発性媒体、分離型及び非分離型媒体をいずれも含む。また、コンピュータ読み取り可能な媒体は、コンピュータ格納媒体及び通信媒体をいずれも含むことができる。コンピュータ格納媒体は、コンピュータ読み取り可能な命令語、データ構造、プログラムモジュールまたはその他のデータのような情報の格納のための任意の方法または技術で具現された揮発性及び非揮発性、分離型及び非分離型媒体をいずれも含む。通信媒体は、典型的に、コンピュータ読み取り可能な命令語、データ構造、プログラムモジュール、または搬送波のような変調されたデータ信号のその他のデータ、またはその他の送信メカニズムを含み、任意の情報伝達媒体を含む。
また、本発明の一実施例による動作認識方法は、コンピュータによって実行可能な命令語を含むコンピュータプログラム(またはコンピュータプログラム製品)で具現されることもできる。コンピュータプログラムは、プロセッサによって処理されるプログラミング可能な機械命令語を含み、高レベルのプログラミング言語(High−level Programming Language)、客体指向プログラミング言語(Object−oriented Programming Language)、アセンブリ言語または機械言語などから具現され得る。また、コンピュータプログラムは、類型のコンピュータ読み取り可能な記録媒体(例えば、メモリ、ハードディスク、磁気/光学媒体またはSSD(Solid−State Drive)など)に記録され得る。
従って、本発明の一実施例による動作認識方法は、前述したようなコンピュータプログラムがコンピューティング装置によって実行されることによって具現され得る。コンピューティング装置は、プロセッサと、メモリと、格納装置と、メモリ及び高速拡張ポートに接続している高速インタフェースと、低速バスと格納装置に接続している低速インタフェースのうち、少なくとも一部を含むことができる。このような成分などのそれぞれは、様々なバスを利用して互いに接続されており、共通マザーボードに搭載されるか、他の適切な方式で装着され得る。
ここで、プロセッサは、コンピューティング装置内で命令語を処理することができるが、このような命令語では、例えば、高速インタフェースに接続されたディスプレイのように外部入力、出力装置上にGUI(Graphic User Interface)を提供するためのグラフィック情報を表示するために、メモリや格納装置に格納された命令語を挙げることができる。他の実施例として、多数のプロセッサ及び(または)多数のバスが適切に多数のメモリ及びメモリ形態と共に利用され得る。また、プロセッサは、独立的な多数のアナログ及び(または)デジタルプロセッサを含むチップなどがなすチップセットで具現され得る。
また、メモリは、コンピューティング装置内で情報を格納する。一例として、メモリは、揮発性メモリユニットまたはそれらの集合で構成され得る。他の例として、メモリは、非揮発性メモリユニットまたはそれらの集合で構成され得る。また、メモリは、例えば、磁気あるいは光ディスクのように他の形態のコンピュータ読み取り可能な媒体であることもできる。
そして、格納装置は、コンピューティング装置に大容量の格納空間を提供することができる。格納装置は、コンピュータ読み取り可能な媒体であるとか、このような媒体を含む構成であることができ、例えば、SAN(Storage Area Network)内の装置などや他の構成も含むことができ、フロッピーディスク装置、ハードディスク装置、光ディスク装置、あるいはテープ装置、フラッシュメモリ、それと類似した他の半導体メモリ装置あるいは装置アレイであり得る。
前述した本発明の説明は、例示のためのものであり、本発明が属する技術分野の通常の知識を有する者は、本発明の技術的思想や必須の特徴を変更せずに、他の具体的な形態で容易に変形が可能であることを理解することができるだろう。従って、以上で記述した実施例などは、すべての面において例示的なものであり、限定的ではないものとして理解すべきである。例えば、単一型で説明されている各構成要素は、分散されて実施されることもでき、同様に分散されたものとして説明されている構成要素なども結合された形態で実施され得る。
本発明の範囲は、前記詳細な説明よりも後述する特許請求の範囲によって示され、特許請求の範囲の意味及び範囲、そして、その均等概念から導出されるすべての変更または変形された形態が本発明の範囲に含まれるものとして解釈されるべきである。

Claims (18)

  1. 動作認識装置によって実行される、NUI装置を介して受信されるユーザーの動作を認識するための方法において、
    (a)ユーザーの動作情報を獲得するステップと、
    (b)前記動作情報と既設定された比較対象情報との間の動的タイムワーピング(dynamic time warping)を実行するステップと、を含み、
    前記(a)ステップは、
    (a−1)前記ユーザーの動作を構成するが、前記ユーザー関節の3次元位置などから構成される1つ以上のポーズ情報に基づいて、前記ユーザーの動作をバイナリーベクトルに変換するステップと、
    (a−2)前記変換されたバイナリーベクトルを前記ユーザーの動作情報として設定するステップと、を含む、動作認識方法。
  2. 前記(a−1)ステップは、
    メタ条件関数を設定するステップと、
    前記メタ条件関数を構成する1つ以上の要素のうち、少なくとも1つを決定することによって条件式を生成するステップと、
    前記条件式に基づいて、前記ユーザーの動作をバイナリーベクトルに変換するステップと、を含む、請求項1に記載の動作認識方法。
  3. 前記条件式に基づいてバイナリーベクトルに変換するステップは、
    前記ユーザーの動作を構成する1つ以上のポーズ情報のそれぞれを前記条件式に基づいてバイナリーベクトルに変換するが、前記変換されたバイナリーベクトルの集合を動作情報として設定するステップを含む、請求項2に記載の動作認識方法。
  4. 前記メタ条件関数を設定するステップは、
    前記メタ条件関数として平面条件関数を設定するステップを含み、
    前記平面条件関数は、所定関節の位置を、2つ以上の関節に基づいて生成される平面を基準として判断する関数である、請求項2に記載の動作認識方法。
  5. 前記メタ条件関数を設定するステップは、
    前記メタ条件関数として角度条件関数を設定するステップを含み、
    前記角度条件関数は、2つ以上の関節が連結されたベクトルが複数個存在すると、前記複数個のベクトルの角度が所定の範囲以内であるか否かを判断する関数である、請求項2に記載の動作認識方法。
  6. 前記メタ条件関数を設定するステップは、
    前記メタ条件関数として接近条件関数を設定するステップを含み、
    前記接近条件関数は、2つ以上の関節間の距離が所定の範囲以内であるか否かを判断する関数である、請求項2に記載の動作認識方法。
  7. 前記メタ条件関数を設定するステップは、
    前記メタ条件関数として速度方向条件関数を設定するステップを含み、
    前記の速度方向条件関数は、所定関節の速度及び2つ以上の関節が連結されたベクトルが所定の範囲以内であるか否かを判断する関数である、請求項2に記載の動作認識方法。
  8. 前記メタ条件関数を設定するステップは、
    前記メタ条件関数として速度大きさ条件関数を設定するステップを含み、
    前記の速度大きさ条件関数は、2つ以上の関節が連結されたベクトルの速度と所定関節の速度との間の差が所定の範囲以内であるか否かを判断する関数である、請求項2に記載の動作認識方法。
  9. NUI装置を介して受信されるユーザーの動作を認識するための動作認識装置であって、
    ユーザーの動作情報を獲得するように構成される動作情報獲得部と、
    前記動作情報と既設定された比較対象情報との間の動的タイムワーピング(dynamic time warping)を実行するように構成される動作決定部と、を含み、
    前記動作情報獲得部は、
    前記ユーザーの動作を構成するが、前記ユーザー関節の3次元位置などから構成される1つ以上のポーズ情報に基づいて、前記ユーザーの動作をバイナリーベクトルに変換し、前記変換されたバイナリーベクトルを前記ユーザーの動作情報として設定するように構成されるベクトル変換部を含む、動作認識装置。
  10. 前記動作情報獲得部は、
    メタ条件関数を設定し、前記メタ条件関数を構成する1つ以上の要素などのうち、少なくとも1つを決定することにより、条件式を生成するように構成される条件設定部を更に含み、
    前記ベクトル変換部は、
    前記条件設定部によって生成された条件式に基づいて、前記ユーザーの動作をバイナリーベクトルに変換する、請求項9に記載の動作認識装置。
  11. 前記ベクトル変換部は、更に、
    前記ユーザーの動作を構成する1つ以上のポーズ情報のそれぞれを前記条件式に基づいてバイナリーベクトルに変換するが、前記変換されたバイナリーベクトルの集合を動作情報として設定するように構成される、請求項10に記載の動作認識装置。
  12. 前記条件設定部は、更に、
    前記メタ条件関数として平面条件関数を設定するように構成され、
    前記平面条件関数は、所定関節の位置を、2つ以上の関節に基づいて生成される平面を基準として判断する関数である、請求項10に記載の動作認識装置。
  13. 前記条件設定部は、更に、
    前記メタ条件関数として角度条件関数を設定するように構成され、
    前記角度条件関数は、2つ以上の関節が連結されたベクトルが複数個存在すると、前記複数個のベクトルの角度が所定の範囲以内であるか否かを判断する関数である、請求項10に記載の動作認識装置。
  14. 前記条件設定部は、更に、
    前記メタ条件関数として接近条件関数を設定するように構成され、
    前記接近条件関数は、2つ以上の関節間の距離が所定の範囲以内であるか否かを判断する関数である、請求項10に記載の動作認識装置。
  15. 前記条件設定部は、更に、
    前記メタ条件関数として速度方向条件関数を設定するように構成され、
    前記速度方向条件関数は、所定関節の速度及び2つ以上の関節が連結されたベクトルが所定の範囲以内であるか否かを判断する関数である、請求項10に記載の動作認識装置。
  16. 前記条件設定部は、更に、
    前記メタ条件関数として速度大きさ条件関数を設定するように構成され、
    前記速度大きさ条件関数は、2つ以上の関節が連結されたベクトルの速度と任意の関節の速度との間の差が所定の範囲以内であるか否かを判断する関数である、請求項10に記載の動作認識装置。
  17. 請求項1乃至請求項8のいずれか一項に記載の方法を実行するプログラムが記録されたコンピュータ読み取り可能な記録媒体。
  18. コンピュータ装置と結合され、
    請求項1乃至請求項8のいずれか一項に記載の方法を実行させるために、媒体に格納されたコンピュータプログラム。
JP2017505558A 2014-08-07 2015-06-25 動作認識方法及び動作認識装置 Pending JP2017531226A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020140101620A KR101515845B1 (ko) 2014-08-07 2014-08-07 동작 인식 방법 및 동작 인식 장치
KR10-2014-0101620 2014-08-07
PCT/KR2015/006475 WO2016021829A1 (ko) 2014-08-07 2015-06-25 동작 인식 방법 및 동작 인식 장치

Publications (1)

Publication Number Publication Date
JP2017531226A true JP2017531226A (ja) 2017-10-19

Family

ID=53393302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017505558A Pending JP2017531226A (ja) 2014-08-07 2015-06-25 動作認識方法及び動作認識装置

Country Status (5)

Country Link
US (1) US10713479B2 (ja)
JP (1) JP2017531226A (ja)
KR (1) KR101515845B1 (ja)
CN (1) CN106662927A (ja)
WO (1) WO2016021829A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105320937B (zh) * 2015-09-25 2018-08-14 北京理工大学 基于Kinect的交警手势识别方法
US10764281B1 (en) * 2017-01-09 2020-09-01 United Services Automobile Association (Usaa) Systems and methods for authenticating a user using an image capture device
US11532958B2 (en) 2021-02-18 2022-12-20 Google Llc Predictive wireless charging of electronic devices

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033163A (ja) * 2008-07-25 2010-02-12 Kddi Corp 動きデータ検索装置及びコンピュータプログラム
JP2011003136A (ja) * 2009-06-22 2011-01-06 Sony Corp 操作制御装置および操作制御方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4775989B2 (ja) * 2001-08-23 2011-09-21 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体
KR100507780B1 (ko) * 2002-12-20 2005-08-17 한국전자통신연구원 고속 마커프리 모션 캡쳐 장치 및 방법
CN101114449A (zh) * 2006-07-26 2008-01-30 大连三曦智能科技有限公司 非特定人孤立词的模型训练方法、识别系统及识别方法
KR101483713B1 (ko) * 2008-06-30 2015-01-16 삼성전자 주식회사 모션 캡쳐 장치 및 모션 캡쳐 방법
KR101072858B1 (ko) 2009-10-30 2011-10-17 화영시스템즈주식회사 Nui를 위한 제스쳐 인식 장치 및 방법
KR20120000807A (ko) 2010-06-28 2012-01-04 주식회사 셀런 모션 인식을 이용한 디지털 디바이스 제어 장치 및 제어 방법
US20110317871A1 (en) 2010-06-29 2011-12-29 Microsoft Corporation Skeletal joint recognition and tracking system
JP5881136B2 (ja) * 2010-09-27 2016-03-09 ソニー株式会社 情報処理装置及び方法、並びにプログラム
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
CN102319130B (zh) * 2011-07-21 2014-03-26 山东科技大学 用脚趾触发上假肢多自由度运动的控制系统和控制方法
US9448636B2 (en) * 2012-04-18 2016-09-20 Arb Labs Inc. Identifying gestures using gesture data compressed by PCA, principal joint variable analysis, and compressed feature matrices
JP5837860B2 (ja) * 2012-06-11 2015-12-24 Kddi株式会社 動き類似度算出装置、動き類似度算出方法およびコンピュータプログラム
US20140134586A1 (en) * 2012-11-09 2014-05-15 Orthosensor Inc Orthopedic tool position and trajectory gui
CN103345627B (zh) * 2013-07-23 2016-03-30 清华大学 动作识别方法和装置
CN103941869B (zh) * 2014-04-21 2017-07-14 云南电网公司普洱供电局 一种基于动作元的体感姿势识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010033163A (ja) * 2008-07-25 2010-02-12 Kddi Corp 動きデータ検索装置及びコンピュータプログラム
JP2011003136A (ja) * 2009-06-22 2011-01-06 Sony Corp 操作制御装置および操作制御方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MULLER, M.; RODER, T.; CLAUSEN, M.: "Efficient Content-Based Retrieval of Motion Capture Data", ACM TRANSACTIONS ON GRAPHICS (TOG) [ONLINE], vol. Volume 24, Issue 3, JPN7018001827, July 2005 (2005-07-01), pages 677 - 685, XP058335255, ISSN: 0003984037, DOI: 10.1145/1186822.1073247 *

Also Published As

Publication number Publication date
CN106662927A (zh) 2017-05-10
US10713479B2 (en) 2020-07-14
KR101515845B1 (ko) 2015-05-04
US20170147873A1 (en) 2017-05-25
WO2016021829A1 (ko) 2016-02-11

Similar Documents

Publication Publication Date Title
US10664060B2 (en) Multimodal input-based interaction method and device
US20220236787A1 (en) Augmentation modification based on user interaction with augmented reality scene
JP6680841B2 (ja) 反応型映像生成方法及び生成プログラム
US20180088663A1 (en) Method and system for gesture-based interactions
CN107251096B (zh) 图像捕获装置和方法
WO2020078017A1 (zh) 用于识别空中手写的方法、装置、设备以及计算机可读存储介质
CN109614983A (zh) 训练数据的生成方法、装置及系统
US10162737B2 (en) Emulating a user performing spatial gestures
JP2007034525A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP7031685B2 (ja) モデル学習装置、モデル学習方法及びコンピュータプログラム
JP2017531226A (ja) 動作認識方法及び動作認識装置
US11205066B2 (en) Pose recognition method and device
JP2016099643A (ja) 画像処理装置、画像処理方法および画像処理プログラム
KR101868520B1 (ko) 손 제스처 인식 방법 및 그 장치
Siam et al. Human computer interaction using marker based hand gesture recognition
JP2015184743A (ja) 画像処理装置および物体認識方法
JP2019159470A (ja) 推定装置、推定方法、及び推定プログラム
KR101685138B1 (ko) 실공간 사용자 인터페이스 장치 및 그 방법
CN105493101B (zh) 包括在辅助对象定位中使用加速数据的图像帧处理
KR102563522B1 (ko) 사용자의 얼굴을 인식하는 장치, 방법 및 컴퓨터 프로그램
Leite et al. A system to interact with CAVE applications using hand gesture recognition from depth data
Kansal et al. Volume Control feature for gesture recognition in Augmented and Virtual reality applications
KR102357763B1 (ko) 제스처 인식을 통한 디바이스 제어 방법 및 장치
Hussein et al. Real-Time Hand Gesture Recognition for Home Automation: A YOLOv8-Based Approach with Identity Verification and Low-Resource Hardware Implementation
KR20220040148A (ko) 동작 흐름 데이터 생성 방법, 상기 동작 흐름 데이터를 이용한 동작 유사 판단 방법, 동작 흐름 데이터 처리 장치 및 시스템

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180612

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180912

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190305