JP2021043930A - 人間行動理解システム及び方法 - Google Patents
人間行動理解システム及び方法 Download PDFInfo
- Publication number
- JP2021043930A JP2021043930A JP2019222442A JP2019222442A JP2021043930A JP 2021043930 A JP2021043930 A JP 2021043930A JP 2019222442 A JP2019222442 A JP 2019222442A JP 2019222442 A JP2019222442 A JP 2019222442A JP 2021043930 A JP2021043930 A JP 2021043930A
- Authority
- JP
- Japan
- Prior art keywords
- motion
- basic
- behavior
- human body
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
110 センサ
111、113 IMU
115 ステレオカメラ
120 HMD
130 メモリ
140 足首センサ
150 プロセッサ
160 携帯コントローラ
B1、B2、B3、B4、B5 人体部分
S310〜S350、S401〜S408 ステップ
t1〜t4 時点
W1〜W3 時間ウィンドウ
Claims (18)
- 一連の動作感知データを取得することであって、前記動作感知データは、一定時間、人体部分の動作を感知することによって生成される、取得することと、
少なくとも2つの時点にそれぞれ対応する少なくとも2つの比較結果を生成することであって、前記少なくとも2つの時点は、一定時間内にあり、前記少なくとも2つの比較結果は、前記動作感知データと基本動作データとを比較することによって生成され、前記基本動作データは、複数の基本動作に関連する、生成することと、
前記人体部分の行動情報を、前記比較結果によって判定することであって、前記行動情報は、少なくとも1つの基本動作によって形成される行動に関連する、判定することと、
を備える、
人間行動理解方法。 - 前記少なくとも2つの時点にそれぞれ対応する少なくとも2つの比較結果を生成することは、
前記動作感知データ及び前記基本動作の合致度を判定することであって、前記各比較結果は、前記合致度を含み、前記合致度は、前記動作感知データが前記基本動作の1つである可能性に関連する、判定すること、を備える、
請求項1の人間行動理解方法。 - 前記各時点における前記動作感知データによって、前記基本動作にそれぞれ対応する合致度を判定することは、
前記各時点における前記合致度によって、前記基本動作の1つを、前記比較結果の1つの代表として選択すること、を備える、
請求項2の人間行動理解方法。 - 前記少なくとも2つの比較結果によって前記人体部分の行動情報を判定することは、
前記代表の合致度を、閾値と比較することと、
前記代表の前記合致度が前記閾値よりも高いことに応答して、前記人体部分の前記行動情報を判定することと、
前記代表の前記合致度が前記閾値よりも低いことに応答して、前記人体部分の前記行動情報を判定しないことと、
を備える、
請求項3の人間行動理解方法。 - 前記少なくとも2つの比較結果によって前記人体部分の行動情報を判定することは、
前記少なくとも2つの比較結果の連続を判定することであって、前記連続性は、少なくとも2つの前記基本動作が実行された順番に関連する、判定することと、
前記連続性によって、前記人体部分の行動を判定することと、
を備える、
請求項1の人間行動理解方法。 - 前記一連の動作感知データを取得することは、
複数のカメラ画像を取得することと、
前記カメラ画像から前記一連の動作感知データを判定することと、
を備える、
請求項1の人間行動理解方法。 - 前記一連の動作感知データを取得することは、
慣性計測装置(IMU)から前記一連の動作感知データを取得すること、を備える、請求項1の人間行動理解方法。 - 前記一連の動作感知データを取得することは、
複数のカメラ画像を取得することと、
前記カメラ画像、及びIMUからの感知結果によって、前記一連の動作感知データを判定することと、
を備える、
請求項1の人間行動理解方法。 - 前記一連の動作感知データ及び機械学習アルゴリズムを使用して、前記基本動作とは異なる非所定の基本動作を、前記基本動作データに加えること、をさらに備える、請求項1の人間行動理解方法。
- 一定時間、人体部分の動作を感知するセンサと、
前記センサの一連の動作感知データを取得し、
少なくとも2つの時点にそれぞれ対応する少なくとも2つの比較結果を生成することであって、前記少なくとも2つの時点は、一定時間内にあり、前記少なくとも2つの比較結果は、前記動作感知データと基本動作データとを比較することによって生成され、前記基本動作データは、複数の基本動作に関連する、生成をし、
前記人体部分の行動情報を、前記比較結果によって判定することであって、前記行動情報は、少なくとも1つの基本動作によって形成される行動に関連する、判定をするように構成されるプロセッサと、
を備える、
人間行動理解システム。 - 前記プロセッサは、
前記動作感知データ及び前記基本動作の合致度を判定することであって、前記各比較結果は、前記合致度を含み、前記合致度は、前記動作感知データが前記基本動作の1つである可能性に関連する、判定をするように構成される、
請求項10の人間行動理解システム。 - 前記プロセッサは、
前記各時点における前記合致度によって、前記基本動作の1つを、前記比較結果の1つの代表として選択するように構成される、
請求項11の人間行動理解方法。 - 前記プロセッサは、
前記代表の合致度を、閾値と比較し、
前記代表の前記合致度が前記閾値よりも高いことに応答して、前記人体部分の前記行動情報を判定し、
前記代表の前記合致度が前記閾値よりも低いことに応答して、前記人体部分の前記行動情報を判定しないように構成される、
請求項12の人間行動理解システム。 - 前記プロセッサは、
前記少なくとも2つの比較結果の連続を判定することであって、前記連続性は、少なくとも2つの前記基本動作が実行された順番に関連する、判定をし、
前記連続性によって、前記人体部分の行動を判定するように構成される、
請求項10の人間行動理解システム。 - 前記一連の動作感知データを取得することは、
前記センサは、複数のカメラ画像を取得し、
前記プロセッサは、さらに、
前記カメラ画像から前記一連の動作感知データを判定するように構成される、
請求項10の人間行動理解システム。 - 前記センサは、慣性計測装置(IMU)であり、
前記プロセッサは、さらに、
前記IMUから前記一連の動作感知データを取得するように構成される、
請求項10の人間行動理解システム。 - 前記センサは、複数のカメラ画像を取得し、
IMUである第2のセンサをさらに備え、
前記プロセッサは、さらに、
前記カメラ画像、及びIMUからの感知結果によって、前記一連の動作感知データを判定するように構成される、
請求項10の人間行動理解システム。 - 前記プロセッサは、
前記一連の動作感知データ及び機械学習アルゴリズムを使用して、前記基本動作とは異なる非所定の基本動作を、前記基本動作データに加えるように構成される、請求項10の人間行動理解システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/565,512 | 2019-09-10 | ||
US16/565,512 US20200089940A1 (en) | 2018-09-19 | 2019-09-10 | Human behavior understanding system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021043930A true JP2021043930A (ja) | 2021-03-18 |
Family
ID=68470288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019222442A Pending JP2021043930A (ja) | 2019-09-10 | 2019-12-09 | 人間行動理解システム及び方法 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP3792817A1 (ja) |
JP (1) | JP2021043930A (ja) |
CN (1) | CN112560565A (ja) |
TW (1) | TW202111487A (ja) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014182585A (ja) * | 2013-03-19 | 2014-09-29 | Sumitomo Electric Ind Ltd | 画像解析装置、画像解析方法および画像解析プログラム |
US20160091965A1 (en) * | 2014-09-30 | 2016-03-31 | Microsoft Corporation | Natural motion-based control via wearable and mobile devices |
JP2016514298A (ja) * | 2013-02-14 | 2016-05-19 | クアルコム,インコーポレイテッド | Hmdのための人体ジェスチャーベースの領域および体積の選択 |
JP2019128804A (ja) * | 2018-01-24 | 2019-08-01 | 株式会社日立製作所 | 特定システムおよび特定方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10152136B2 (en) * | 2013-10-16 | 2018-12-11 | Leap Motion, Inc. | Velocity field interaction for free space gesture interface and control |
US9497592B2 (en) * | 2014-07-03 | 2016-11-15 | Qualcomm Incorporated | Techniques for determining movements based on sensor measurements from a plurality of mobile devices co-located with a person |
US9946354B2 (en) * | 2014-08-29 | 2018-04-17 | Microsoft Technology Licensing, Llc | Gesture processing using a domain-specific gesture language |
US10588547B2 (en) * | 2014-10-06 | 2020-03-17 | Inmotion, Llc | Systems, devices and methods relating to motion data |
US10073516B2 (en) * | 2014-12-29 | 2018-09-11 | Sony Interactive Entertainment Inc. | Methods and systems for user interaction within virtual reality scene using head mounted display |
CN107346172B (zh) * | 2016-05-05 | 2022-08-30 | 富泰华工业(深圳)有限公司 | 一种动作感应方法及装置 |
US10012517B2 (en) * | 2016-08-01 | 2018-07-03 | Infinity Augmented Reality Israel Ltd. | Method and system for calibrating components of an inertial measurement unit (IMU) using scene-captured data |
US10588560B2 (en) * | 2016-09-21 | 2020-03-17 | Cm Hk Limited | Systems and methods for facilitating exercise monitoring with real-time heart rate monitoring and motion analysis |
JP2019016316A (ja) * | 2017-07-11 | 2019-01-31 | 株式会社日立エルジーデータストレージ | 表示システム、及び表示システムの表示制御方法 |
CN111433831B (zh) * | 2017-12-27 | 2022-05-17 | 索尼公司 | 信息处理装置、信息处理方法和计算机可读存储介质 |
-
2019
- 2019-11-05 EP EP19207306.2A patent/EP3792817A1/en not_active Withdrawn
- 2019-12-09 JP JP2019222442A patent/JP2021043930A/ja active Pending
- 2019-12-09 TW TW108144985A patent/TW202111487A/zh unknown
- 2019-12-10 CN CN201911258553.6A patent/CN112560565A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016514298A (ja) * | 2013-02-14 | 2016-05-19 | クアルコム,インコーポレイテッド | Hmdのための人体ジェスチャーベースの領域および体積の選択 |
JP2014182585A (ja) * | 2013-03-19 | 2014-09-29 | Sumitomo Electric Ind Ltd | 画像解析装置、画像解析方法および画像解析プログラム |
US20160091965A1 (en) * | 2014-09-30 | 2016-03-31 | Microsoft Corporation | Natural motion-based control via wearable and mobile devices |
JP2019128804A (ja) * | 2018-01-24 | 2019-08-01 | 株式会社日立製作所 | 特定システムおよび特定方法 |
Also Published As
Publication number | Publication date |
---|---|
TW202111487A (zh) | 2021-03-16 |
EP3792817A1 (en) | 2021-03-17 |
CN112560565A (zh) | 2021-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11083950B2 (en) | Information processing apparatus and information processing method | |
KR102235003B1 (ko) | 충돌 검출, 추정 및 회피 | |
CN106604804B (zh) | 碰撞检测 | |
US11029753B2 (en) | Human computer interaction system and human computer interaction method | |
KR101941604B1 (ko) | 웨어러블 장치의 위치를 추정하는 방법 및 이를 이용하는 장치 | |
JP2021043930A (ja) | 人間行動理解システム及び方法 | |
US20180051989A1 (en) | Portable device with improved sensor position change detection | |
JP2021144359A (ja) | 学習装置、推定装置、学習方法、及びプログラム | |
KR20200069232A (ko) | 센서 방식 모션 캡쳐 시스템 기반 모션 캡쳐 장치 및 그 방법 | |
CN113111678A (zh) | 一种用户的肢体节点的位置确定方法、装置、介质及系统 | |
US20200089940A1 (en) | Human behavior understanding system and method | |
TWI748299B (zh) | 動作感測資料產生方法和動作感測資料產生系統 | |
TWI737068B (zh) | 動作追蹤系統和方法 | |
JP2021089693A (ja) | 行動ベースの構成方法及び行動ベースの構成システム | |
JP2021068405A (ja) | 仮想物体操作システム及び仮想物体操作方法 | |
JP2021089692A (ja) | 動作感知データ生成方法及び動作感知データ生成システム | |
TW202122970A (zh) | 基於行為的配置方法和基於行為的配置系統 | |
JP7334337B2 (ja) | モーション決定装置、学習装置、モーション決定方法、学習方法及びプログラム | |
WO2022269985A1 (ja) | 情報処理装置、および情報処理方法、並びにプログラム | |
JP6956993B1 (ja) | 行動推定システム | |
EP3832434A1 (en) | Behavior-based configuration method and behavior-based configuration system | |
JP2022096723A (ja) | モーション追跡に関係するシステム及び方法 | |
JP2021089691A (ja) | 動作追跡システム及び動作追跡方法 | |
CN113031753A (zh) | 运动传感数据产生方法和运动传感数据产生系统 | |
JP2022096724A (ja) | データ融合に関係するシステム及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210202 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210921 |