JP2021043930A - 人間行動理解システム及び方法 - Google Patents

人間行動理解システム及び方法 Download PDF

Info

Publication number
JP2021043930A
JP2021043930A JP2019222442A JP2019222442A JP2021043930A JP 2021043930 A JP2021043930 A JP 2021043930A JP 2019222442 A JP2019222442 A JP 2019222442A JP 2019222442 A JP2019222442 A JP 2019222442A JP 2021043930 A JP2021043930 A JP 2021043930A
Authority
JP
Japan
Prior art keywords
motion
basic
behavior
human body
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019222442A
Other languages
English (en)
Inventor
毅剛 謝
Yi Gang Xie
毅剛 謝
靖▲にん▼ 黄
Ching-Ning Huang
靖▲にん▼ 黄
堅致 許
Chien-Chih Hsu
堅致 許
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XRspace Co Ltd
Original Assignee
XRspace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/565,512 external-priority patent/US20200089940A1/en
Application filed by XRspace Co Ltd filed Critical XRspace Co Ltd
Publication of JP2021043930A publication Critical patent/JP2021043930A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】間行動理解システム及び人間行動理解方法を提供する。【解決手段】行動理解システムは、センサと、プロセッサと、を備える。センサは、一定時間、人体部分の動作を感知し、一連の動作感知データを取得する。一定時間内の少なくとも2つの時点にそれぞれ対応する少なくとも2つの比較結果は、動作感知データによって生成される。比較結果は、動作感知データと基本動作データとを比較することによって生成される。基本動作データは、複数の基本動作に関連する。人体部分の行動情報を、比較結果によって判定する。行動情報は、少なくとも1つの基本動作によって形成される行動に関連する。従って、行動理解の正確性は向上され、実施の形態は、行動を素早く予測できる。【選択図】図3

Description

本開示は、概して、行動を予測するための方法に関し、具体的には、行動理解システム及び行動理解方法に関する。
人間の動作を分析すること及び行動理解の問題は、長年にわたって存在しており、その大きな潜在的適用性は、多数の研究者を引き付けている。
しかしながら、人間の行動を理解する作業は、人間の動作の複雑性が原因で未だ難しい。この作業は、実行速度、並びに対象の大きさ、その現場における位置、及びそのセンサに対する配置等の幾何学的な変化に左右されない必要があるために、より複雑となっている。さらに、いくつかの状況では、人間の行動は、オブジェクトと相互に影響を与えることを含む。そのような相互作用は、人間の似たような行動を区別することを補助し得るが、同時に、人体部分を隠してしまう等の課題をもたらす。
従来のアプリケーションでは、ユーザの動作を検出する1つ以上のセンサが提供され、ユーザの行動は、センサの検出結果に基づいて予測される。しかしながら、人間の行動は大量にあり、ユーザの行動を正確に予測することは困難である。従って、本開示は、人間行動理解システム及び人間行動理解方法を対象とする。
1つの例示的な実施の形態において、行動理解方法は、以下の、一連の動作感知データを取得するステップであって、動作感知データは、一定時間、人体部分の動作を感知することによって生成される、取得するステップと、少なくとも2つの時点にそれぞれ対応する少なくとも2つの比較結果を生成するステップであって、少なくとも2つの比較結果は、動作感知データと基本動作データとを比較することによって生成され、基本動作データは、複数の基本動作に関連する、生成するステップと、人体部分の行動情報を、比較結果によって判定するステップであって、行動情報は、少なくとも1つの基本動作によって形成される行動に関連する、判定するステップと、を備えるが、これに限定されない。
1つの例示的な実施の形態において、行動理解システムは、センサと、プロセッサと、を備えるが、これに限定されない。センサは、一定時間、人体部分の動作を感知することに使用される。プロセッサは、以下の:少なくとも2つの時点にそれぞれ対応する少なくとも2つの比較結果を生成するステップであって、時点は、一定時間内にあり、少なくとも2つの比較結果は、動作感知データと基本動作データとを比較することによって生成され、基本動作データは、複数の基本動作に関連する、生成するステップと、人体部分の行動情報を、比較結果によって判定するステップであって、行動情報は、少なくとも1つの基本動作によって形成される行動に関連する、判定するステップと、を備えるが、これに限定されない。
上述を鑑みて、1つ以上の実施の形態において提供される行動理解システム及び行動理解方法によれば、異なる時点で取得された動作感知データは、所定の基本動作と比較される。各所定の行動は、1つ以上の特定の基本動作と関連付けられている。複数の時点における動作感知データに対応する基本動作が所定の行動と合致しているかが確認され、現在の人体部分の行動情報が判定される。それにより、行動理解の正確性が改善され、実施の形態は、行動情報を素早く予測できる。
本概要は、本開示の全ての様態及び実施の形態を含むわけではなく、いかなる意味においても限定的又は制限的ではなく、本明細書に開示される発明は、その明らかな改良及び変更を含むことが当業者によって理解される点が理解されるべきである。
付される図面は、本開示に対するさらなる理解を提供するために含まれ、本明細書に組み込まれ、その一部を構成する。図面は、本開示の実施の形態を示し、説明と共に、本開示の原理を説明するために供される。
図1は、本開示の1つの例示的な実施の形態に係る、行動理解システムを示すブロック図である。
図2は、本開示の1つの例示的な実施の形態に係る、行動理解システムを示す概要図である。
図3は、本開示の1つの例示的な実施の形態に係る、行動理解方法を示すフローチャートである。
図4は、本開示の1つの例示的な実施の形態に係る、動作検出方法を示すフローチャートである。
図5は、本開示の1つの例示的な実施の形態に係る、異なる時点における行動理解を示す概要図である。
図6A及び6Bは、本開示の1つの例示的な実施の形態に係る、2つの行動を示す概要図である。
本開示の好ましい実施の形態についての説明がここに提供され、その例は付される図面に示される。可能な限り、同じ参照番号は、図面及び説明において同じ又は同様の部分を参照するために使用される。
図1は、本開示の1つの例示的な実施の形態に係る、行動理解システムを示すブロック図である。図1を参照すると、行動理解システム100は、1つ以上のセンサ110と、メモリ130と、プロセッサ150と、を備えるが、これに限定されない。行動理解システム100は、VR、AR、MR、XR、及びその他の仮想現実関連技術に適用可能である。
センサ110は、加速度計、ジャイロスコープ、磁力計、レーザーセンサ、慣性計測装置(IMU)、赤外線(IR)センサ、画像センサ、深度カメラ、又はそれらのセンサの任意の組み合わせであってよい。本開示の実施の形態において、センサ110は、一定時間、1つ以上の人体部分の動作を感知するために使用される。人体部分は、手、頭、足首、足、腰、又は別の部分であってよい。センサ110は、対応する人体部分の動作を感知可能であり、一定時間内の複数の時点におけるセンサ110(例えば、カメラ画像、感知強度値等)の感知結果から一連の動作感知データを生成する。1つ例では、動作感知データは、3自由度(3−DoF)データを含み、3自由度データは、上下、前後、左右の揺れの加速等の三次元(3D)空間における人体部分の回転データに関連する。別の例では、動作感知データは、2D/3D空間における人体部分の相対位置及び/又は変位を含む。センサ110は、ウェアラブルコントローラ、スマートウォッチ、足首センサ、ヘッドマウントディスプレイ(HMD)、その他等の携帯コントローラ又はウェアラブル装置に埋め込まれてよいことが理解される。
メモリ130は、固定又は携帯ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、フラッシュメモリ、若しくは同様の装置の任意の種類、又はそれらの組み合わせであってよい。メモリ130は、プログラムコード、装置構成、バッファデータ、又は保存データ(動作感知データ、比較結果、基本動作に関連する情報等)を保存することに使用可能であり、これらのデータは後に説明する。
プロセッサ150は、メモリ130に接続され、メモリ130に保存されたプログラムコードをロードするように構成され、本開示の例示的な実施の形態の手順を実行する。プロセッサ150の機能は、中央演算処理装置(CPU)、マイクロプロセッサ、マイクロコントローラ、デジタル信号処理(DSP)チップ、フィールドプログラマブルゲートアレイ(FPGA)、その他等を使用して実装されてよい。プロセッサ150の機能は、また、独立した電子装置又は集積回路(IC)によって実装されてよく、プロセッサ150の動作は、ソフトウェアによって実装されてもよい。
プロセッサ150は、センサ110と同じ装置に配置されてよく、されていなくてもよい。しかしながら、センサ110を装備する各装置、及びプロセッサ150は、さらに、Bluetooth(登録商標)、Wi−Fi、又は物理通信線等の相互通信技術を備える通信送受信機を備えてよい。
図2は、本開示の1つの例示的な実施の形態に係る、行動理解システム200を示す概要図である。図2を参照すると、行動理解システム200は、HMD120と、2つの足首センサ140と、2つの携帯コントローラ160と、を備える。IMU111及び113(例えば、センサ110)は、足首センサ140及び携帯コントローラ160に埋め込まれており、動作感知データの第1の部分を取得する。ステレオカメラ115(例えば、センサ110)及びプロセッサ150は、HMD120に埋め込まれており、ステレオカメラ115は、動作感知データの第2の部分を判定するために、1つ以上の人体部分B1−B4に向かってカメラ画像を取得するように構成されてよい。
いくつかの実施の形態において、一連の動作感知データは、同じ人体部分の動作感知データの第1の部分及び動作感知データの第2の部分を組み合わせることで生成されてよい。例えば、1つの動作感知データは、1つ以上の時点における動作感知データの第1の部分に基づいて判定され、別の動作感知データは、1つ以上の時点における動作感知データの第2の部分に基づいて判定される。別の例では、1つに時点における動作感知データの第1の部分及び動作感知データの第2の部分は、第1の部分及び第2の部分の重量関係によって結合されてよく、1つの一連の動作感知データが判定される。
いくつかの実施の形態において、一連の動作感知データは、動作感知データの第1の部分又は動作感知データの第2の部分のみに基づいて生成されてよい。例えば、動作感知データの第1の部分及び動作感知データの第2の部分は、一連の動作感知データを判定するために選択され、選択されなかった動作感知データは、省かれる。
いくつかの実施の形態において、HMD120は、さらに、別のIMU(不図示)を備えてよく、人体部分B5(例えば、頭)の回転情報を取得する。HMD120、足首センサ140、及び携帯コントローラ160は、相互通信技術を介して互いに通信してよい。
行動理解システム200は、単に、センサ110及びプロセッサ150の配置及び通信手段を示す例であることが理解される。しかしながら、行動理解システム100の別の実装例がさらに存在してよく、本開示はこれに限定されない。
本開示の1つ以上の実施の形態において提供される動作プロセスをより良く理解するために、いくつかの実施の形態が以下において例示され、行動理解システム100又は200の動作プロセスを説明する。行動理解システム100又は200の装置及びモジュールは、本明細書の制御方法を説明するために、以下の実施の形態において適用される。制御方法の各ステップは、実際の実装状況によって調整可能であり、本明細書の説明に限定されるものではない。
本開示の実施の形態における用語「行動」は、人間の仕草、人間の行為、人間の活動の3つの種類によって定義される。行動の各種類は、動作複雑性の特定度数、人間−オブジェクト相互性の特定度数、及び行動の特定期間によって特徴付けられる。例えば、仕草行動は、低い複雑性及び短い期間を有し、行為行動は、中間の複雑性及び中間の期間を有し、活動行動は、高い複雑性及び高い期間を有する。仕草行動は別のオブジェクトと相互に影響を与えないが、行為行動及び活動行動は別のオブジェクトと相互に影響を与える可能性がある。1つの仕草行動は、人体部分(しばしば、腕)の一部分のみの動作によって特徴付けられてよい。1つの行為行動は、複数の仕草の組み合わせを含む若干複雑な動きによって特徴付けられてよく、複数の人体部分の動作によって特徴付けられてもよい。また、活動行動は、複数の動き又は行為が連続して実行されるような高レベルの動作複雑性によって特徴付けられてよい。
図3は、本開示の1つの例示的な実施の形態に係る、行動理解方法を示すフローチャートである。図3を参照すると、動作感知データは、センサ110を介して取得される(ステップS310)。センサ110の異なる種類について、2D/3D空間における対応する人間部分の動作の加速度、回転、磁力、方向、距離、及び/又は位置(以後、感知結果と称する)が取得されてよく、センサ110の1つ以上の感知結果は、身体部部の動作感知データとなる。
行動理解システム200を例にとると、人体部分B1の6−DoF情報が判定され得る。図4は、本開示の1つの例示的な実施の形態に係る、動作検出方法を示すフローチャートである。図2から4を参照すると、足首センサ140は、加速度計、ジャイロスコープ、磁力計の機能を備えるIMU111を備え、人体部分B1の加速度A、回転G(方向及び角速度を含んでよい)、及び磁場Mが取得される(ステップS401)。人体部分B1の姿勢は、人体部分B1で感知される加速度A、回転G、及び磁場Mによって推測され(ステップS402)、所定の座標系における人体部分B1の回転情報が判定されてよい。例えば、姿勢は、上に回転する、左に旋回する、その他であってよい。
一方、ステレオカメラ115は、人体部分B1に向かうモノ画像m、mをキャプチャする(ステップS403)。プロセッサ150は、モノ画像m、mに対して魚眼デワーピング処理を実行してよく、平坦処理されたモノ画像m、mが生成される(ステップS404)。平坦処理されたモノ画像m、m中の人体部分B1は、機械学習技術(ディープラーニング、人工ニューラルネットワーク(ANN)、又はサポートベクターマシン(SVM)等)によって識別される。その後、人体部分B1に対応する感知強度及びピクセル位置が、人体部分B1の深度情報(例えば、HMD120との距離)を推測するために使用されてよく(ステップS405)、ステレオカメラ115と平行な平面における人体部分B1の2D位置を推測するために使用されてよい(ステップS406)。プロセッサ150は、ステップS405及びS406において推測された人体部分B1の距離及び2D位置によって、所定の座標系における3D位置を生成してよい(ステップS407)。その後、所定の座標系における人体部分B1の回転及び3D位置は結合され(ステップS408)、動作感知データとされる6−DoF情報が出力されてよい(ステップS409)。
別の実施の形態において、人体部分B1の3D位置は、人体部分B5の3位置及び人体部分B1の回転情報によって判定されてよい。具体的には、6−DoFセンサが身体部部B5に装備されてよく、それにより、人体部分B5の位置及び回転情報が取得される。一方、人体部分B1の回転情報は、ステップ402で説明されたように取得できる。その後、人体部分B1の変位は、3つの軸における人体部分B1の検出された加速度を二重積分することによって推測されてよい。しかしながら、ユーザが歩いた場合、ユーザの人体部分B1の推測された変位の誤差が蓄積される可能性があり、人体部分B1の推測された変位は正確ではなくなってしまう。推測された位置の正確性を向上させるために、人体部分B5の位置は、ユーザの基準点として考慮することができ、人体部分B1の推測された位置は、基準点によって修正されてよい。歩行又走行中、人体部分B5の変位は、足を上げる、足をのばす、歩行または走行中の任意の別の姿勢等の特定の姿勢の人体部分B1の変位に対応する。特定の姿勢の人体部分B1の位置は、リセット位置として考慮でき、リセット位置は、基準点に対応した特定の相対位置を有する。プロセッサ150が人体部分B1の変位によってユーザが歩行又は走行していると判定した場合、人体部分B1の推測された位置は、基準点に対応する特定の相対位置によるリセット位置に修正されてよく、それにより、IMU111により生成された推測の誤差を除去する。
動作感知データを取得するための多数の別の実施の形態がさらに存在することが理解される。例えば、6−DoFセンサが人体部分B1に装備されてよく、それにより、6−DoF情報が動作感知データとなる。別の例では、深度カメラが人体部分B1に装備されてよく、それにより、検出された深度情報が動作感知データとなる。
図3を参照すると、プロセッサ150は、それぞれ、少なくとも2つの時点に対応する少なくとも2つの比較結果を生成してよい(ステップS330)。具体的には、各比較結果は、動作感知データを、基本動作データと比較することにより生成される。基本動作データは、複数の基本動作に関連し、基本動作データは、各基本動作についての特定の動作感知データを含んでよい。人体部分B1又はB2を例にとると、基本動作は、リフティング、ポインティング、蹴り、ステップ、又はジャンプであってよい。リフティング基本動作は、動作感知データの特定の姿勢に関連していてよい。1つ以上の基本動作は、連続的に実行され、行動を形成する。これは、各行動は、時系列の1つ以上の基本動作に関連付けられていることを意味する。時系列は、複数の時点を含む。1つの行動は、複数の時点における1つ以上の基本動作に分割できる。例えば、人体部分B1の蹴り行動は、2つの時点における連続的なリフティング及び蹴り基本動作を含む。2つの隣接する時点の間の期間は、実際の要求に基づいて固定又は変更されてよい。
いくつかの実施の形態において、各時点における動作感知データは、基本動作データの複数の所定の基本動作と比較され、比較結果が生成される。各所定の基本動作は、3D空間における特定の位置及び特定の方向等の特定の動作感知データに関連付けられている。また、複数の基本動作の順番が1つの行動の形成に必要なため、異なる時点おける比較結果は、その後の使用のためにメモリ130に保存される。本実施の形態において説明さえる順番は、基本動作はそれが起こった時点順であることに関連することが理解される。
いくつかの実施の形態において、複数の基本動作の特定の動作感知データは、機械学習技術に基づいた分類器又はニューラルネットワークモデルを訓練するための訓練サンプルであってよい。分類器又はニューラルネットワークモデルは、どの基本動作がステップS310において取得された動作感知データに対応するか識別、又は検出された人体部分の動作が基本動作の1つである可能性を判定することに使用されてよい。
いくつかの実施の形態において、比較結果は、それぞれ、異なる基本動作に対応する最も似ている1つ以上の基本動作又は可能性であってよい。
いくつかの実施の形態において、可能性を数値化するために、動作感知データ及び基本動作データの合致度が、検出された人体部分の動作は特定の基本動作である1つの可能性を表すことに使用されてよい。合致度は、0〜100%の値であってよく、人体部分の動作が特定の基本動作である可能性を示し、全ての所定の基本動作に対応する合致度の合計は、例えば、100%であってよい。例えば、時点における比較結果は、リフティング基本動作を10%、ポインティング基本動作を0%、蹴り基本動作を75%、ステップ基本動作を3%、及びジャンプ基本動作を22%含む。
いくつかの実施の形態において、1つ以上の基本動作は、各時点におけるすべての基本動作に対応する合致度による比較結果の代表として選択されてよい。例えば、最も高い合致度の1つ以上の基本動作が、比較結果の代表であってよい。別の例では、閾値(例えば60、75、又は80%)より高い合致度の1つ以上の基本動作が、比較結果の代表であってよい。
比較結果は、上記の実施の形態における全ての所定の基本動作に対応する複数の合致度を含むことが理解される。しかしながら、比較結果を判定する別の実装例がさらに存在してよい。例えば、比較結果は、ステップS310において取得された動作感知データ、及び基本動作の特定の動作感知データの間の差を含んでよく、差が少ない1つ以上の基本動作が比較結果の代表となってよい。また、基本動作は、身体の幾何学的な構造の制限と動作感知データとを比較するために選択されてよい。例えば、人間のほとんどは、胸に対して特定の角度以上に腕を水平に後ろ向きに伸ばすことはできない。
いくつかの実施の形態において、所定の基本動作に加えて、基本動作中の所定の基本動作とは異なる非所定の基本動作が、一連の動作感知データ及び機械学習アルゴリズムを使用して訓練されてよい。例えば、閾値よりも高い合致度の所定の基本動作が存在しない場合、現在の時点における動作感知データは、分類器又はニューラルネットワークモデルに新規の基本動作を訓練させる訓練サンプルとなる。
図3を参照すると、プロセッサ150は、少なくとも2つの比較結果によって人体部分の行動情報を判定してよい(ステップS350)。上記の通り、1つ以上の基本動作は、連続的に実行されて1つの行動を形成する。行動情報は、基本動作の少なくとも1つによって形成される行動に関連する。異なる時点における比較結果は、それらの順番に基づいて結合され、どの所定の基本動作が比較結果の組み合わせに合致しているかを判定する。各所定の行動は、1つ以上の特定の基本動作が順番に関連付けられている。1つの実施の形態において、ステップS330において判定された比較結果の連続性が判定される。これらの判定された基本動作(例えば、比較結果の代表)の連続性は、基本動作が実行された順番に関連する。例えば、第2の時点における別の基本動作の後に、第3の時点における基本動作は実行される。人体部分の行動は、連続性によって判定される。プロセッサ150は、以前の時点における動作感知データに対応する判定された基本動作を含む1つ以上の所定の行動を選択してよく、選択された所定の行動は、その後の時点における別の判定された基本動作をさらに含むかを確認する。あるいは、1つの組み合わせ中の複数の比較結果は、所定の行動と同時に比較され、プロセッサ150は、組み合わせによって結果を直接出力してよい。結果は、組み合わせが1つの所定の行動と合致しているかに関連する。行動情報は、判定された行動、判定された行動を形成する複数の基本動作、及び対応する一連の動作感知データを含んでよいが、これに限定されない。
図5は、本開示の1つの例示的な実施の形態に係る、異なる時点における行動理解を示す概要図である。図6A及び6Bは、本開示の1つの例示的な実施の形態に係る、2つの行動を示す概要図である。図5及び図6Aを参照すると、人体部分B1について、例えば、リフティング基本動作が第1の時点t1における動作感知データによって判定され、ポインティング基本動作が第2の時点t2における動作感知データによって判定される。時間ウィンドウW1内の2つの判定された基本動作は、1つの組み合わせとして結合される。本実施の形態の時間ウィンドウは、1つの組み合わせ中の比較結果の数に関連する。その後、プロセッサ150は、組み合わせ(すなわち、リフティング基本動作及びキック基本動作)によって、ステップ行動が実行されたと判定してよい。この連続性は、リフティング基本動作の後に、ポインティング基本動作が実行されたことに関連する。
図5及び図6Bを参照すると、人体部分B1及びB2について、例えば、ディープスクワット基本動作が第3の時点t3における動作感知データによって判定され、ジャンプ基本動作が第4の時点t4における動作感知データによって判定される。時間ウィンドウW3内の2つの判定された基本動作は、1つの組み合わせとして結合される。その後、プロセッサ150は、組み合わせ(すなわち、ディープスクワット基本動作及びジャンプ基本動作)によって、ジャンプ行動が実行されたと判定してよい。この連続性は、ディープスクワット基本動作の後に、ジャンプ基本動作が実行されたことに関連する。
従って、1つの行動は、その後の時点における更なる動作感知データを取得せずに、正しく予測できる。
時間ウィンドウは、変更可能であることが理解される。比較結果がいかなる所定の行動とも合致しないことに応答して、時間ウィンドウは、組み合わせ中のより多くの比較結果を含むように拡大できる。例えば、図5を参照すると、時間ウィンドウW1は、拡大されて時間ウィンドウW2となり、時間ウィンドウW2内の組み合わせは、3つの時点における3つの比較結果を含む。時間ウィンドウW2内の組み合わせは、任意の所定の行動に合致しているかが判定される。
一方、比較結果が1つ所定の行動と合致したことに応答して、時間ウィンドウは、縮小又は維持される。例えば、図5を参照すると、時間ウィンドウW2内の組み合わせが1つの所定の行動と合致した後、時間ウィンドウW2は、縮小されて時間ウィンドウW3となる。時間ウィンドウW3内の別の組み合わせは、2つ時点t3及びt4における2つの比較結果を含む。その後、プロセッサ150は、時間ウィンドウW3内の組み合わせは、任意の所定の行動に合致しているかが判定される。
合致度の値は、比較結果が正しいという信頼に関連していてよいことが理解される。1つの実施の形態において、各時点における比較結果の代表の合致度は、閾値を比較されてよい。閾値は、50、70、又は80%であってよい。代表の合致度が閾値よりも高いことに応答して、代表は、人体部分の行動を判定するために使用されてよい。例えば、閾値が60であると、75%のジャンプ基本動作は、行動の判定の基準として使用できる。
代表の合致度が閾値よりも低いことに応答して、代表は、人体部分の行動を判定するために使用されない。代表は、放棄されるか、優先度が低いと価値づけられる。例えば、閾値が80であると、65%のジャンプ基本動作は、放棄され、蹴り基本動作は、行動の判定の基準として使用されない。別の例では、閾値が60であり、第1の時点において65%のポインティング基本動作、第2の時点において55%のリフティング基本動作、第3の時点において80%の蹴り基本動作である。プロセッサ150は、蹴り基本動作が3つの基本動作によって実行されたとは考えない。
また、1つの行動は、複数の人体部分の基本動作に関連していてよい。例えば、図2を参照すると、ユーザの行動は走行であると推定される。1つに時点において、人体部分B1の動作は、リフティング基本動作に対応し、人体部分B2の動作は、ポインティング基本動作に対応する。1つの実施の形態において、別の人体部分の動作の感知によって生成された第2の動作感知データが取得され、少なくとも2つの時点にそれぞれ対応する少なくとも2つの比較結果が、第2の動作感知データによって判定され、人体部分の行動が、ステップS330において判定された少なくとも2つの比較結果及び少なくとも2つの第2の比較結果によって判定される。第2の動作感知データを取得する方法及び第2の比較結果を判定する方法は、それぞれ、ステップS310及びS330と同一又は同様であってよく、関連する説明は省略される。上記の実施の形態との違いは、本実施の形態においては、1つの人体部分のいくつかの所定の行動は、複数の人体部分の複数の特定の基本動作に関連付けられていることである。プロセッサ150は、2つ以上の人体部分の判定された基本動作が1つの所定の行動と合致しているかを確認する。
例えば、リフティング基本動作は、第1の時点t1における人体部分B1の動作感知データによって判定され、ポインティング基本動作は、第2の時点t2における人体部分B1の動作感知データによって判定される。また、ポインティング基本動作は、第1の時点t1における人体部分B2の動作感知データによって判定され、リフティング基本動作は、第2の時点t2における人体部分B2の動作感知データによって判定され、その後、プロセッサ150は、人体部分B1及びB2の判定された基本動作の組み合わせによって、走行行動が実行されたと安定してよい。
1つの異なる設計要求に基づいて、別の実施の形態において、1つ以上の所定の行動は、3つ以上の人体部分の複数の基本動作に関連付けられていてよい。プロセッサ150は、これらの人体部分の比較結果が任意の所定の行動と合致しているかを確認する。
人体部分の行動情報が判定された後、ディスプレイ上に表示されたアバター又は画像の動作は、判定された高度によって調整されてよい。例えば、脚部の行動が走行であると、アバターは走ってよい。別の例では、頭の行動が見上げることであると、ディスプレイ上の画像には空は表示される。
総括すると、上記で説明した例示的な実施の形態は、行動理解システム及び行動理解方法を示す。特定の人体部分の動作は、各時点における1つ以上の基本動作と合致しているかが判定される。2つ以上の判定された基本動作は、複数の所定の行動と比較され、1つの合致した行動を判定する。連続性及び合致度は、行動を推測するための状態であるとみなされる。従って、行動理解の正確性は向上され、実施の形態は、行動を素早く予測できる。
本開示の構造に対して、様々な変形及び変更を、本開示の範囲及び精神から逸脱することなく行うことができる点が当業者にとって明らかである。上述を鑑みて、本開示は、以下の特許請求の範囲及びその同等の範囲内にある変形例及び変更例をその範囲に含む。
本発明の行動理解システム及び行動理解方法は、人間行動の推測に適用される。
100、200 行動理解システム
110 センサ
111、113 IMU
115 ステレオカメラ
120 HMD
130 メモリ
140 足首センサ
150 プロセッサ
160 携帯コントローラ
B1、B2、B3、B4、B5 人体部分
S310〜S350、S401〜S408 ステップ
t1〜t4 時点
W1〜W3 時間ウィンドウ

Claims (18)

  1. 一連の動作感知データを取得することであって、前記動作感知データは、一定時間、人体部分の動作を感知することによって生成される、取得することと、
    少なくとも2つの時点にそれぞれ対応する少なくとも2つの比較結果を生成することであって、前記少なくとも2つの時点は、一定時間内にあり、前記少なくとも2つの比較結果は、前記動作感知データと基本動作データとを比較することによって生成され、前記基本動作データは、複数の基本動作に関連する、生成することと、
    前記人体部分の行動情報を、前記比較結果によって判定することであって、前記行動情報は、少なくとも1つの基本動作によって形成される行動に関連する、判定することと、
    を備える、
    人間行動理解方法。
  2. 前記少なくとも2つの時点にそれぞれ対応する少なくとも2つの比較結果を生成することは、
    前記動作感知データ及び前記基本動作の合致度を判定することであって、前記各比較結果は、前記合致度を含み、前記合致度は、前記動作感知データが前記基本動作の1つである可能性に関連する、判定すること、を備える、
    請求項1の人間行動理解方法。
  3. 前記各時点における前記動作感知データによって、前記基本動作にそれぞれ対応する合致度を判定することは、
    前記各時点における前記合致度によって、前記基本動作の1つを、前記比較結果の1つの代表として選択すること、を備える、
    請求項2の人間行動理解方法。
  4. 前記少なくとも2つの比較結果によって前記人体部分の行動情報を判定することは、
    前記代表の合致度を、閾値と比較することと、
    前記代表の前記合致度が前記閾値よりも高いことに応答して、前記人体部分の前記行動情報を判定することと、
    前記代表の前記合致度が前記閾値よりも低いことに応答して、前記人体部分の前記行動情報を判定しないことと、
    を備える、
    請求項3の人間行動理解方法。
  5. 前記少なくとも2つの比較結果によって前記人体部分の行動情報を判定することは、
    前記少なくとも2つの比較結果の連続を判定することであって、前記連続性は、少なくとも2つの前記基本動作が実行された順番に関連する、判定することと、
    前記連続性によって、前記人体部分の行動を判定することと、
    を備える、
    請求項1の人間行動理解方法。
  6. 前記一連の動作感知データを取得することは、
    複数のカメラ画像を取得することと、
    前記カメラ画像から前記一連の動作感知データを判定することと、
    を備える、
    請求項1の人間行動理解方法。
  7. 前記一連の動作感知データを取得することは、
    慣性計測装置(IMU)から前記一連の動作感知データを取得すること、を備える、請求項1の人間行動理解方法。
  8. 前記一連の動作感知データを取得することは、
    複数のカメラ画像を取得することと、
    前記カメラ画像、及びIMUからの感知結果によって、前記一連の動作感知データを判定することと、
    を備える、
    請求項1の人間行動理解方法。
  9. 前記一連の動作感知データ及び機械学習アルゴリズムを使用して、前記基本動作とは異なる非所定の基本動作を、前記基本動作データに加えること、をさらに備える、請求項1の人間行動理解方法。
  10. 一定時間、人体部分の動作を感知するセンサと、
    前記センサの一連の動作感知データを取得し、
    少なくとも2つの時点にそれぞれ対応する少なくとも2つの比較結果を生成することであって、前記少なくとも2つの時点は、一定時間内にあり、前記少なくとも2つの比較結果は、前記動作感知データと基本動作データとを比較することによって生成され、前記基本動作データは、複数の基本動作に関連する、生成をし、
    前記人体部分の行動情報を、前記比較結果によって判定することであって、前記行動情報は、少なくとも1つの基本動作によって形成される行動に関連する、判定をするように構成されるプロセッサと、
    を備える、
    人間行動理解システム。
  11. 前記プロセッサは、
    前記動作感知データ及び前記基本動作の合致度を判定することであって、前記各比較結果は、前記合致度を含み、前記合致度は、前記動作感知データが前記基本動作の1つである可能性に関連する、判定をするように構成される、
    請求項10の人間行動理解システム。
  12. 前記プロセッサは、
    前記各時点における前記合致度によって、前記基本動作の1つを、前記比較結果の1つの代表として選択するように構成される、
    請求項11の人間行動理解方法。
  13. 前記プロセッサは、
    前記代表の合致度を、閾値と比較し、
    前記代表の前記合致度が前記閾値よりも高いことに応答して、前記人体部分の前記行動情報を判定し、
    前記代表の前記合致度が前記閾値よりも低いことに応答して、前記人体部分の前記行動情報を判定しないように構成される、
    請求項12の人間行動理解システム。
  14. 前記プロセッサは、
    前記少なくとも2つの比較結果の連続を判定することであって、前記連続性は、少なくとも2つの前記基本動作が実行された順番に関連する、判定をし、
    前記連続性によって、前記人体部分の行動を判定するように構成される、
    請求項10の人間行動理解システム。
  15. 前記一連の動作感知データを取得することは、
    前記センサは、複数のカメラ画像を取得し、
    前記プロセッサは、さらに、
    前記カメラ画像から前記一連の動作感知データを判定するように構成される、
    請求項10の人間行動理解システム。
  16. 前記センサは、慣性計測装置(IMU)であり、
    前記プロセッサは、さらに、
    前記IMUから前記一連の動作感知データを取得するように構成される、
    請求項10の人間行動理解システム。
  17. 前記センサは、複数のカメラ画像を取得し、
    IMUである第2のセンサをさらに備え、
    前記プロセッサは、さらに、
    前記カメラ画像、及びIMUからの感知結果によって、前記一連の動作感知データを判定するように構成される、
    請求項10の人間行動理解システム。
  18. 前記プロセッサは、
    前記一連の動作感知データ及び機械学習アルゴリズムを使用して、前記基本動作とは異なる非所定の基本動作を、前記基本動作データに加えるように構成される、請求項10の人間行動理解システム。

JP2019222442A 2019-09-10 2019-12-09 人間行動理解システム及び方法 Pending JP2021043930A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/565,512 2019-09-10
US16/565,512 US20200089940A1 (en) 2018-09-19 2019-09-10 Human behavior understanding system and method

Publications (1)

Publication Number Publication Date
JP2021043930A true JP2021043930A (ja) 2021-03-18

Family

ID=68470288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019222442A Pending JP2021043930A (ja) 2019-09-10 2019-12-09 人間行動理解システム及び方法

Country Status (4)

Country Link
EP (1) EP3792817A1 (ja)
JP (1) JP2021043930A (ja)
CN (1) CN112560565A (ja)
TW (1) TW202111487A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014182585A (ja) * 2013-03-19 2014-09-29 Sumitomo Electric Ind Ltd 画像解析装置、画像解析方法および画像解析プログラム
US20160091965A1 (en) * 2014-09-30 2016-03-31 Microsoft Corporation Natural motion-based control via wearable and mobile devices
JP2016514298A (ja) * 2013-02-14 2016-05-19 クアルコム,インコーポレイテッド Hmdのための人体ジェスチャーベースの領域および体積の選択
JP2019128804A (ja) * 2018-01-24 2019-08-01 株式会社日立製作所 特定システムおよび特定方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10152136B2 (en) * 2013-10-16 2018-12-11 Leap Motion, Inc. Velocity field interaction for free space gesture interface and control
US9497592B2 (en) * 2014-07-03 2016-11-15 Qualcomm Incorporated Techniques for determining movements based on sensor measurements from a plurality of mobile devices co-located with a person
US9946354B2 (en) * 2014-08-29 2018-04-17 Microsoft Technology Licensing, Llc Gesture processing using a domain-specific gesture language
US10588547B2 (en) * 2014-10-06 2020-03-17 Inmotion, Llc Systems, devices and methods relating to motion data
US10073516B2 (en) * 2014-12-29 2018-09-11 Sony Interactive Entertainment Inc. Methods and systems for user interaction within virtual reality scene using head mounted display
CN107346172B (zh) * 2016-05-05 2022-08-30 富泰华工业(深圳)有限公司 一种动作感应方法及装置
US10012517B2 (en) * 2016-08-01 2018-07-03 Infinity Augmented Reality Israel Ltd. Method and system for calibrating components of an inertial measurement unit (IMU) using scene-captured data
US10588560B2 (en) * 2016-09-21 2020-03-17 Cm Hk Limited Systems and methods for facilitating exercise monitoring with real-time heart rate monitoring and motion analysis
JP2019016316A (ja) * 2017-07-11 2019-01-31 株式会社日立エルジーデータストレージ 表示システム、及び表示システムの表示制御方法
CN111433831B (zh) * 2017-12-27 2022-05-17 索尼公司 信息处理装置、信息处理方法和计算机可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016514298A (ja) * 2013-02-14 2016-05-19 クアルコム,インコーポレイテッド Hmdのための人体ジェスチャーベースの領域および体積の選択
JP2014182585A (ja) * 2013-03-19 2014-09-29 Sumitomo Electric Ind Ltd 画像解析装置、画像解析方法および画像解析プログラム
US20160091965A1 (en) * 2014-09-30 2016-03-31 Microsoft Corporation Natural motion-based control via wearable and mobile devices
JP2019128804A (ja) * 2018-01-24 2019-08-01 株式会社日立製作所 特定システムおよび特定方法

Also Published As

Publication number Publication date
TW202111487A (zh) 2021-03-16
EP3792817A1 (en) 2021-03-17
CN112560565A (zh) 2021-03-26

Similar Documents

Publication Publication Date Title
US11083950B2 (en) Information processing apparatus and information processing method
KR102235003B1 (ko) 충돌 검출, 추정 및 회피
CN106604804B (zh) 碰撞检测
US11029753B2 (en) Human computer interaction system and human computer interaction method
KR101941604B1 (ko) 웨어러블 장치의 위치를 추정하는 방법 및 이를 이용하는 장치
JP2021043930A (ja) 人間行動理解システム及び方法
US20180051989A1 (en) Portable device with improved sensor position change detection
JP2021144359A (ja) 学習装置、推定装置、学習方法、及びプログラム
KR20200069232A (ko) 센서 방식 모션 캡쳐 시스템 기반 모션 캡쳐 장치 및 그 방법
CN113111678A (zh) 一种用户的肢体节点的位置确定方法、装置、介质及系统
US20200089940A1 (en) Human behavior understanding system and method
TWI748299B (zh) 動作感測資料產生方法和動作感測資料產生系統
TWI737068B (zh) 動作追蹤系統和方法
JP2021089693A (ja) 行動ベースの構成方法及び行動ベースの構成システム
JP2021068405A (ja) 仮想物体操作システム及び仮想物体操作方法
JP2021089692A (ja) 動作感知データ生成方法及び動作感知データ生成システム
TW202122970A (zh) 基於行為的配置方法和基於行為的配置系統
JP7334337B2 (ja) モーション決定装置、学習装置、モーション決定方法、学習方法及びプログラム
WO2022269985A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP6956993B1 (ja) 行動推定システム
EP3832434A1 (en) Behavior-based configuration method and behavior-based configuration system
JP2022096723A (ja) モーション追跡に関係するシステム及び方法
JP2021089691A (ja) 動作追跡システム及び動作追跡方法
CN113031753A (zh) 运动传感数据产生方法和运动传感数据产生系统
JP2022096724A (ja) データ融合に関係するシステム及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210921