JP6532525B2 - ジェスチャー解析のための時間的セグメンテーションの方法及びシステム - Google Patents
ジェスチャー解析のための時間的セグメンテーションの方法及びシステム Download PDFInfo
- Publication number
- JP6532525B2 JP6532525B2 JP2017511692A JP2017511692A JP6532525B2 JP 6532525 B2 JP6532525 B2 JP 6532525B2 JP 2017511692 A JP2017511692 A JP 2017511692A JP 2017511692 A JP2017511692 A JP 2017511692A JP 6532525 B2 JP6532525 B2 JP 6532525B2
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- cut
- cuts
- time series
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Description
本出願は、2014年8月29日に出願された米国特許出願番号14/473,679の利益を伴い、参照することによりその内容全体を本明細書の一部となす。
を用いて定義することができる。これらは、それぞれ、スライディングウィンドウのサイズ、スライディングウィンドウを動かす際のステップ長(step length)と称される2つのパラメータである。
及び
が成り立つような任意のtについて、フレームtにおける左のスライディングウィンドウ、右のスライディングウィンドウについて、それぞれ、
が成立しているものとする。
ここでkは
として定義することができるバンド幅
のガウス核である。この量又は結果は、時間についてのカット326の位置を大まかに見出すためにKKTCモジュール324で用いることができる。
・時刻tにおける身体の大域的カーネル化速度
計算された速度は、アルゴリズム内で直接用いられないが、次の2つの量を記述するのに用いられる。TV=2がよい値でありうる。
・時刻tにおける身体の大域的カーネル化加速度
a(t)=v(t+Ta)−v(t−Ta)
物理的には、これは、時間についての速度の変化率を指定している。Ta=1がよい値でありうる。一例としての実施形態によれば、これは、どのセグメントがジェスチャーを含んでいるか見出すためにCtSモジュール328により用いることができる。
・時刻tにおける身体の大域的カーネル化ジャーク
j(t)=v(t−Tj)−2v(t)+v(t+Tj)
物理的には、身体の大域的カーネル化ジャークは、時間に関する加速度の変化率を指定している。Tj=4がよい値でありうる。一例としての実施形態によれば、加速度の変化率(すなわち、身体の大域的カーネル化ジャーク)を時間についてのカット326の比較的正確な位置を見出す又は特定するためにKKTCモジュール324において用いることができる。
D(t)=Ly(t)+Ry(t)
Claims (18)
- 被写体についての少なくとも1つのデータの3次元(3D)ビデオストリームを撮像するステップと、
前記少なくとも1つのデータの3Dビデオストリームからスケルトンデータの時系列を抽出するステップと、
内容が突然変化する複数の点を探索し、前記内容が突然変化する複数の点の各々を時間についてのカットとして特定するステップであり、ここで、複数の時間についてのカットが、前記スケルトンデータの時系列を区分する重複のない隣接するセグメントの組を規定するものであり、
前記複数の時間についてのカットの各々を、加速度の変化率の局所的な極大値により与えられるカットのいずれかに精緻化するステップと、
前記精緻化されたカットのうち、正の加速度を有するカットを特定するステップと、
前記正の加速度を有する前記1つ若しくは複数の連続するカットの対の各々をジェスチャーバウンダリとして分類するステップとを備えることを特徴とするジェスチャーを認識する方法。 - 前記スケルトンデータの時系列内で最大平均差異(MMD)の推定値を算出するステップと、
前記MMDの推定値に基づいて、前記スケルトンデータの時系列のうちで時間についてのカットの推定を発生させるステップとを備えることを特徴とする請求項1に記載の方法。 - ある時刻(t)における左手のジョイント及び右手のジョイントの上下方向位置の和の関数であるハンズアップ判定関数の値を用いて、手が上がっているならばジェスチャーとして分類するステップを備えることを特徴とする請求項1又は2に記載の方法。
- 前記精緻化されたカットのうち正の加速度を有するカットを前記ジェスチャーの開始として分類するステップと、
前記精緻化されたカットのうち負の加速度を有するカットを前記ジェスチャーの終了として分類するステップとを備えることを特徴とする請求項1から3のいずれか一項に記載の方法。 - 前記データの少なくとも1つの3Dビデオストリームからの前記スケルトンデータの時系列及び前記ジェスチャーバウンダリをジェスチャー認識モジュールに入力するステップと、
前記ジェスチャーバウンダリをジェスチャーの種類として認識するステップとを備えることを特徴とする請求項1から4のいずれか一項に記載の方法。 - 被写体の少なくとも1つのデータの3次元(3D)ビデオストリームを撮像するためのビデオカメラと、
前記少なくとも1つのデータの3Dビデオストリームからスケルトンデータの時系列を抽出するためのモジュールと、
処理部とを備え、前記処理部は、
内容が突然変化する複数の点を探索し、前記内容が突然変化する複数の点の各々を時間についてのカットとして特定するステップであり、ここで、複数の時間についてのカットが、前記スケルトンデータの時系列を区分する重複のない隣接するセグメントの組を規定するものであり、
前記複数の時間についてのカットの各々を、加速度の変化率の局所的な極大値により与えられるカットのいずれかに精緻化するステップと、
前記精緻化されたカットのうち、正の加速度を有するカットを特定するステップと、
前記正の加速度を有する前記1つ若しくは複数の連続するカットの対の各々をジェスチャーバウンダリとして分類するステップとを行うように構成されていることを特徴とするジェスチャーを認識するためのシステム。 - 前記処理部により生成された結果を表示するための表示部であって、前記スケルトンデータの時系列から1つ若しくは複数のジェスチャーバウンダリを視覚的なフォーマットで表示する表示部を備えることを特徴とする請求項6に記載のシステム。
- 前記処理部が、
前記スケルトンデータの時系列内で最大平均差異(MMD)の推定値を算出するステップと、
前記MMDの推定値に基づいて、前記スケルトンデータの時系列のうちで時間についてのカットの推定を発生させるステップとを行うように構成されていることを特徴とする請求項6又は7に記載のシステム。 - 前記処理部が、
ある時刻(t)における左手のジョイント及び右手のジョイントの上下方向位置の和の関数であるハンズアップ判定関数の値を用いて、手が上がっているならばジェスチャーとして分類するステップを行うように構成されていることを特徴とする請求項6から8のいずれか一項に記載のシステム。 - 前記処理部が、
前記精緻化されたカットのうち正の加速度を有するカットを前記ジェスチャーの開始として分類するステップと、
前記精緻化されたカットのうち負の加速度を有するカットを前記ジェスチャーの終了として分類するステップとを行うように構成されていることを特徴とする請求項6から9のいずれか一項に記載のシステム。 - 前記データの少なくとも1つの3Dビデオストリームからの前記スケルトンデータの時系列及び前記ジェスチャーバウンダリが入力され、前記ジェスチャーバウンダリをジェスチャーの種類として認識するように構成されたジェスチャー認識モジュールを備えることを特徴とする請求項6から10のいずれか一項に記載のシステム。
- 前記ビデオカメラは、RGB−Dカメラであり、前記RGB−Dカメラは、RGBフレームと奥行きフレームの時系列を生成することを特徴とする請求項6から11のいずれか一項に記載のシステム。
- 前記少なくとも1つのデータの3Dビデオストリームからスケルトンデータの時系列を抽出するためのモジュール及び前記処理部は、スタンドアロンのコンピュータ内にあることを特徴とする請求項6から12のいずれか一項に記載のシステム。
- ジェスチャーを認識するためのコンピュータ読取可能なコードを含むコンピュータプログラムであって、前記コンピュータプログラムは、コンピュータにより実行可能であり、前記コンピュータに、
被写体についての少なくとも1つのデータの3次元(3D)ビデオストリームを撮像するステップと、
前記少なくとも1つのデータの3Dビデオストリームからスケルトンデータの時系列を抽出するステップと、
内容が突然変化する複数の点を探索し、前記内容が突然変化する複数の点の各々を時間についてのカットとして特定するステップであり、ここで、複数の時間についてのカットが、前記スケルトンデータの時系列を区分する重複のない隣接するセグメントの組を規定するものであり、
前記複数の時間についてのカットの各々を、加速度の変化率の局所的な極大値により与えられるカットのいずれかに精緻化するステップと、
前記精緻化されたカットのうち、正の加速度を有するカットを特定するステップと、
前記正の加速度を有する前記1つ若しくは複数の連続するカットの対の各々をジェスチャーバウンダリとして分類するステップとを含むプロセスを実行させることを特徴とするコンピュータプログラム。 - 前記コンピュータに、
前記スケルトンデータの時系列内で最大平均差異(MMD)の推定値を算出するステップと、
前記MMDの推定値に基づいて、前記スケルトンデータの時系列のうちで時間についてのカットの推定を発生させるステップとを含むプロセスを実行させることを特徴とする請求項14に記載のコンピュータプログラム。 - 前記コンピュータに、
ある時刻(t)における左手のジョイント及び右手のジョイントの上下方向位置の和の関数であるハンズアップ判定関数の値を用いて、手が上がっているならばジェスチャーとして分類するステップを含むプロセスを実行させることを特徴とする請求項14又は15に記載のコンピュータプログラム。 - 前記コンピュータに、
前記精緻化されたカットのうち正の加速度を有するカットを前記ジェスチャーの開始として分類するステップと、
前記精緻化されたカットのうち負の加速度を有するカットを前記ジェスチャーの終了として分類するステップとを含むプロセスを実行させることを特徴とする請求項14から16のいずれか一項に記載のコンピュータプログラム。 - 前記コンピュータに、
前記データの少なくとも1つの3Dビデオストリームからの前記スケルトンデータの時系列及び前記ジェスチャーバウンダリをジェスチャー認識モジュールに入力するステップと、
前記ジェスチャーバウンダリをジェスチャーの種類として認識するステップとを含むプロセスを実行させることを特徴とする請求項14から17のいずれか一項に記載のコンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/473,679 | 2014-08-29 | ||
US14/473,679 US20160078287A1 (en) | 2014-08-29 | 2014-08-29 | Method and system of temporal segmentation for gesture analysis |
PCT/US2015/047095 WO2016033279A1 (en) | 2014-08-29 | 2015-08-27 | Method and system of temporal segmentation for gesture analysis |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017535830A JP2017535830A (ja) | 2017-11-30 |
JP6532525B2 true JP6532525B2 (ja) | 2019-06-19 |
Family
ID=55400546
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017511692A Active JP6532525B2 (ja) | 2014-08-29 | 2015-08-27 | ジェスチャー解析のための時間的セグメンテーションの方法及びシステム |
Country Status (3)
Country | Link |
---|---|
US (2) | US20160078287A1 (ja) |
JP (1) | JP6532525B2 (ja) |
WO (1) | WO2016033279A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10726560B2 (en) * | 2014-10-31 | 2020-07-28 | Fyusion, Inc. | Real-time mobile device capture and generation of art-styled AR/VR content |
US10719939B2 (en) * | 2014-10-31 | 2020-07-21 | Fyusion, Inc. | Real-time mobile device capture and generation of AR/VR content |
US10242474B2 (en) | 2015-07-15 | 2019-03-26 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US10222932B2 (en) | 2015-07-15 | 2019-03-05 | Fyusion, Inc. | Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations |
US10147211B2 (en) | 2015-07-15 | 2018-12-04 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US11095869B2 (en) | 2015-09-22 | 2021-08-17 | Fyusion, Inc. | System and method for generating combined embedded multi-view interactive digital media representations |
US11006095B2 (en) | 2015-07-15 | 2021-05-11 | Fyusion, Inc. | Drone based capture of a multi-view interactive digital media |
US11783864B2 (en) | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
CN106296736B (zh) * | 2016-08-08 | 2019-03-29 | 河海大学 | 一种仿记忆引导的模式识别方法 |
US11202017B2 (en) | 2016-10-06 | 2021-12-14 | Fyusion, Inc. | Live style transfer on a mobile device |
US10437879B2 (en) | 2017-01-18 | 2019-10-08 | Fyusion, Inc. | Visual search using multi-view interactive digital media representations |
US10313651B2 (en) | 2017-05-22 | 2019-06-04 | Fyusion, Inc. | Snapshots at predefined intervals or angles |
US11069147B2 (en) | 2017-06-26 | 2021-07-20 | Fyusion, Inc. | Modification of multi-view interactive digital media representation |
US11660526B2 (en) | 2018-03-01 | 2023-05-30 | Sony Interactive Entertainment Inc. | Estimation apparatus, estimation method, and program |
US10592747B2 (en) | 2018-04-26 | 2020-03-17 | Fyusion, Inc. | Method and apparatus for 3-D auto tagging |
CN109523526B (zh) * | 2018-11-08 | 2021-10-22 | 腾讯科技(深圳)有限公司 | 组织结节检测及其模型训练方法、装置、设备和系统 |
US11532094B2 (en) * | 2018-12-05 | 2022-12-20 | Qualcomm Technologies, Inc. | Systems and methods for three-dimensional pose determination |
CN114303142A (zh) * | 2019-08-29 | 2022-04-08 | 西铁城时计株式会社 | 影像生成装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0991011B1 (en) | 1998-09-28 | 2007-07-25 | Matsushita Electric Industrial Co., Ltd. | Method and device for segmenting hand gestures |
JP2000315259A (ja) * | 1999-05-06 | 2000-11-14 | Sharp Corp | データベース作成装置及びデータベース作成プログラムを記録した記録媒体 |
JP4257421B2 (ja) * | 2003-11-28 | 2009-04-22 | 独立行政法人産業技術総合研究所 | 動作体運動データ分節処理装置。 |
WO2008007471A1 (fr) | 2006-07-10 | 2008-01-17 | Kyoto University | Procédé de suivi d'un marcheur et dispositif de suivi d'un marcheur |
JP5238602B2 (ja) * | 2009-05-14 | 2013-07-17 | Kddi株式会社 | 映像コンテンツ生成装置及びコンピュータプログラム |
US8538570B2 (en) * | 2009-09-11 | 2013-09-17 | University Of Delaware | Process and system for manufacturing a customized orthosis |
US9981193B2 (en) | 2009-10-27 | 2018-05-29 | Harmonix Music Systems, Inc. | Movement based recognition and evaluation |
US8334842B2 (en) * | 2010-01-15 | 2012-12-18 | Microsoft Corporation | Recognizing user intent in motion capture system |
JP5320332B2 (ja) * | 2010-03-19 | 2013-10-23 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム装置の制御方法、及びプログラム |
US20110289455A1 (en) | 2010-05-18 | 2011-11-24 | Microsoft Corporation | Gestures And Gesture Recognition For Manipulating A User-Interface |
US20110292036A1 (en) | 2010-05-31 | 2011-12-01 | Primesense Ltd. | Depth sensor with application interface |
CN103415825B (zh) | 2010-12-29 | 2016-06-01 | 汤姆逊许可公司 | 用于手势识别的系统和方法 |
JP5701714B2 (ja) | 2011-08-05 | 2015-04-15 | 株式会社東芝 | ジェスチャ認識装置、ジェスチャ認識方法およびジェスチャ認識プログラム |
CN103926999B (zh) * | 2013-01-16 | 2017-03-01 | 株式会社理光 | 手掌开合手势识别方法和装置、人机交互方法和设备 |
US9142034B2 (en) | 2013-03-14 | 2015-09-22 | Microsoft Technology Licensing, Llc | Center of mass state vector for analyzing user motion in 3D images |
-
2014
- 2014-08-29 US US14/473,679 patent/US20160078287A1/en not_active Abandoned
-
2015
- 2015-08-27 JP JP2017511692A patent/JP6532525B2/ja active Active
- 2015-08-27 WO PCT/US2015/047095 patent/WO2016033279A1/en active Application Filing
- 2015-08-27 US US15/507,735 patent/US9953215B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017535830A (ja) | 2017-11-30 |
US9953215B2 (en) | 2018-04-24 |
US20170286760A1 (en) | 2017-10-05 |
WO2016033279A1 (en) | 2016-03-03 |
US20160078287A1 (en) | 2016-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6532525B2 (ja) | ジェスチャー解析のための時間的セグメンテーションの方法及びシステム | |
CN105590312B (zh) | 前景图像分割方法和装置 | |
US20170161555A1 (en) | System and method for improved virtual reality user interaction utilizing deep-learning | |
Keskin et al. | Hand pose estimation and hand shape classification using multi-layered randomized decision forests | |
JP6030617B2 (ja) | 画像処理装置および画像処理方法 | |
US8879789B1 (en) | Object analysis using motion history | |
KR20130066438A (ko) | 영상 처리 장치 및 영상 처리 방법 | |
JP5598751B2 (ja) | 動作認識装置 | |
JP2016085742A (ja) | 前景画像分割方法及び前景画像分割装置 | |
JP6236154B2 (ja) | 動画コンテンツに現れる物体を表す動画タグクラウドを生成する方法 | |
Gong et al. | Foreground segmentation of live videos using locally competing 1SVMs | |
CN108596157B (zh) | 一种基于运动检测的人群惊扰场景检测方法及系统 | |
JP6331761B2 (ja) | 判定装置、判定方法及び判定プログラム | |
Stillittano et al. | Lip contour segmentation and tracking compliant with lip-reading application constraints | |
KR101959436B1 (ko) | 배경인식을 이용한 물체 추적시스템 | |
JP2010057105A (ja) | オブジェクトの3次元追跡方法およびシステム | |
CN114241379A (zh) | 一种乘客异常行为识别方法、装置、设备及乘客监控系统 | |
CN105354549A (zh) | 基于似物性估计的快速行人检测方法 | |
JP2016081252A (ja) | 画像処理装置および画像処理方法 | |
Lowhur et al. | Dense optical flow based emotion recognition classifier | |
Dey et al. | Anomaly detection in crowded scene by pedestrians behaviour extraction using long short term method: a comprehensive study | |
Aitpayev et al. | Semi-automatic annotation tool for sign languages | |
Collazos et al. | Abandoned object detection on controlled scenes using kinect | |
Wang et al. | Improving 3-D Zebrafish Tracking With Multiview Data Fusion and Global Association | |
Hatimi et al. | New approach for detecting and tracking a moving object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170921 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190514 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190521 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6532525 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |