JP7404125B2 - 物体追跡方法及びプログラム - Google Patents
物体追跡方法及びプログラム Download PDFInfo
- Publication number
- JP7404125B2 JP7404125B2 JP2020052978A JP2020052978A JP7404125B2 JP 7404125 B2 JP7404125 B2 JP 7404125B2 JP 2020052978 A JP2020052978 A JP 2020052978A JP 2020052978 A JP2020052978 A JP 2020052978A JP 7404125 B2 JP7404125 B2 JP 7404125B2
- Authority
- JP
- Japan
- Prior art keywords
- posture
- predicted
- objects
- distribution
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 72
- 230000036544 posture Effects 0.000 claims description 223
- 238000009826 distribution Methods 0.000 claims description 109
- 238000013528 artificial neural network Methods 0.000 claims description 83
- 230000000306 recurrent effect Effects 0.000 claims description 11
- 230000000415 inactivating effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 29
- 238000012545 processing Methods 0.000 description 27
- 239000002245 particle Substances 0.000 description 21
- 230000000052 comparative effect Effects 0.000 description 14
- 238000004590 computer program Methods 0.000 description 14
- 241001239379 Calophysus macropterus Species 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 239000000470 constituent Substances 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000009849 deactivation Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Description
以下、実施の形態における物体追跡装置10の物体追跡方法等の説明を行う。
図1は、本実施の形態における物体追跡装置10を示す図である。
次に、本実施の形態おける物体追跡装置10のハードウェア構成について、図2を用いて説明する。図2は、実施の形態おける物体追跡装置10の機能をソフトウェアにより実現するコンピュータ1000のハードウェア構成の一例を示す図である。
続いて、本実施の形態おける物体追跡装置10の構成について説明する。
姿勢予測器11は、第1ニューラルネットワークを含むアーキテクチャからなり、不確実性を考慮した姿勢予測を行う。アーキテクチャの詳細については後述する。
姿勢推定部12は、現在フレームが入力されると、現在フレームに映る0以上の第2物体それぞれの位置の集合を推定する。なお、姿勢推定部12は、物体が映っていない場合には、出力がないすなわち推定を行わないとしてもよい。
マッチング部13は、姿勢推定部12が推定した1以上の第2物体それぞれの位置の集合と、姿勢予測器11が予測した予測分布とをマッチングする。マッチング部13は、マッチングすることにより、1以上の第2物体それぞれが1以上の第1物体のいずれかに該当するかを示す識別情報、及び、1以上の第2物体それぞれの姿勢を示す座標である位置情報を取得して出力する。より具体的には、マッチング部13は、マッチングすることにより、マッチングスコアが所定値以上の予測分布と位置の集合とからなる組を算出し、算出した組に基づいて識別情報と位置情報を取得して出力する。マッチング部13は、姿勢推定部12が推定した1以上の第2物体それぞれの位置の集合と、姿勢予測器11が予測した予測分布とを二部マッチングすることにより、当該組を算出してもよい。
出力部14は、マッチング部13から出力された位置情報と識別情報とを現在フレームに反映して、追跡結果として出力する。また、出力部14は、マッチング部13から出力された位置情報と識別情報とをデータ更新部15に出力する。
データ更新部15は、取得した識別情報及び位置情報に基づいて、姿勢予測器11において予測された予測分布から得られる1以上の第1物体それぞれの姿勢を示す座標を含むデータを姿勢の時系列データに追加することで、姿勢の時系列データを更新する。
続いて、姿勢予測器11の詳細構成について説明する。
入力処理部111は、姿勢予測器11に入力された姿勢の時系列データから、例えば10フレーム分など所定の時間に含まれる過去フレームに映る1以上の人物それぞれの姿勢を示す座標と、当該座標が過去フレームにおいて見えているか否かを示すビジブルフラグとを抽出して、出力する。
第1ニューラルネットワーク112は、不確実性を考慮するための1以上のモデルを用いて、1以上のモデルそれぞれに、姿勢の時系列データから、現在フレームにおける1以上の第1物体の予測姿勢位置を予測させることで、予測分布を予測する。第1ニューラルネットワーク112は、リカレントニューラルネットワークと、1以上のモデルを形成する所定のニューラルネットワークとを有する。ここで、1以上のモデルは、所定のニューラルネットワークにドロップアウトを適用し、所定のニューラルネットワークを構成する1以上のノードを不活性化させることにより形成される。
出力処理部115は、第1ニューラルネットワーク112から出力される分布(上記の予測分布)を元に、さらに、複数の仮説(予測した複数の姿勢)を生成する。そして、第1ニューラルネットワーク112から出力される分布と生成した複数の仮説とを含む分布を、姿勢予測器11が出力する予測分布として、マッチング部13及びデータ更新部15に出力する。
実施例1では、図5に示す姿勢予測器11を用いて現在フレームの予測分布を予測して姿勢予測結果を得た場合と、比較例として、非特許文献1で開示されている姿勢追跡技術を用いて現在フレームの姿勢を推定して姿勢推定結果を得た場合とについて説明する。ここで、非特許文献1で開示されている姿勢追跡技術を以下では、オプティカルフローベースの姿勢推定とも称する。
次に、以上のように構成される物体追跡装置10の動作等について説明する。
実施例2では、2つの不確実性を考慮して現在フレームの予測分布を予測する姿勢予測器11と、パーティクルフィルタとを活用した物体追跡装置10との物体追跡方法について説明する。実施例2では、物体は人物であるとして以下説明する。
実施例3では、Pose-Track2018 Data setを用いて行った物体追跡装置10の性能評価実験の結果について説明する。なお、Pose-Track2018 Data setでは、ビデオ内の複数の人物に対して、17のボディキーポイントの場所と一意のtrack IDとを含むアノテーションが付与されている。実施例3でも、物体は人物であるとして以下説明する。
以上のように、本開示における物体追跡装置10によれば、予測結果の不確実性を考慮した姿勢予測を行う姿勢予測器11を利用して、映像に映る人物の姿勢追跡を行うことで、追跡ミスを抑制することができる。本実施の形態では、2種類の不確実性を組み込んで姿勢予測を行う姿勢予測器11と、パーティクルフィルタとを利用して映像に映る人物の姿勢追跡を行う。ここで、姿勢予測器11では、Epistemic Uncertainty及びHeteroscedastic Aleatoric Uncertaintyといった2種類の不確実性がモデル化されて組み込まれている。これにより、姿勢予測器11は、多様で尤もらしい仮説(つまり、予測姿勢位置)を現在フレームに映る人物の姿勢の予測分布(つまり、キーポイントの位置の分布)で予測することができる。また、姿勢予測器11に、リカレントニューラルネットワークを導入することで、長い時間のコンテキスト情報を活用できるので、映像に映る人物にオクルージョンが発生しても、追跡ミスを抑制することができる。
以上、実施の形態において本開示の物体追跡方法について説明したが、各処理が実施される主体や装置に関しては特に限定しない。ローカルに配置された特定の装置内に組み込まれたプロセッサーなど(以下に説明)によって処理されてもよい。またローカルの装置と異なる場所に配置されているクラウドサーバなどによって処理されてもよい。
11 姿勢予測器
12 姿勢推定部
13 マッチング部
14 出力部
15 データ更新部
111 入力処理部
112 第1ニューラルネットワーク
113 リカレントNN
114 全結合NN
115 出力処理部
Claims (8)
- コンピュータが行う映像の物体追跡方法であって、
時系列に連続した2以上の過去フレームに映る1以上の物体それぞれの姿勢を示す座標を含む姿勢の時系列データを、第1ニューラルネットワークを含み不確実性を考慮した姿勢予測を行う姿勢予測器に入力することで、前記姿勢予測器に、現在フレームにおける1以上の第1物体の予測姿勢位置それぞれの分布である予測分布を予測させる予測ステップと、
前記現在フレームを、第2ニューラルネットワークに入力することで、前記第2ニューラルネットワークに、前記現在フレームに映る1以上の第2物体それぞれの位置の集合を推定させる推定ステップと、
前記1以上の第2物体それぞれの位置の集合と、前記予測分布とをマッチングすることにより、前記1以上の第2物体それぞれが前記1以上の第1物体のいずれかに該当するかを示す識別情報、及び、前記1以上の第2物体それぞれの姿勢を示す位置である位置情報を取得して出力する出力ステップと、
前記出力ステップにおいて取得された前記識別情報及び前記位置情報に基づいて、前記予測ステップにおいて予測させた前記予測分布から得られる前記1以上の第1物体それぞれの姿勢を示す座標を含むデータを前記姿勢の時系列データに追加することで前記姿勢の時系列データを更新する更新ステップと、を含む、
物体追跡方法。 - 前記出力ステップでは、
前記1以上の第2物体それぞれの位置の集合と、前記予測分布とをマッチングすることにより、マッチングスコアが所定値以上の前記予測分布と前記位置の集合とからなる組を算出し、算出した前記組に基づいて前記識別情報と前記位置情報を取得して出力する、
請求項1に記載の物体追跡方法。 - 前記出力ステップでは、
前記1以上の第2物体それぞれの位置の集合と、前記予測分布とを二部マッチングすることにより、マッチングスコアが所定値以上の前記予測分布と前記位置の集合とからなる前記組を算出する、
請求項2に記載の物体追跡方法。 - 前記予測ステップでは、
前記第1ニューラルネットワークは、前記不確実性を考慮するための1以上のモデルを用いて、前記1以上のモデルそれぞれに、前記姿勢の時系列データから、前記現在フレームにおける1以上の前記第1物体の予測姿勢位置を予測させることで、前記予測分布を予測する、
請求項1~3のいずれか1項に記載の物体追跡方法。 - 前記予測分布は、前記不確実性を考慮した分布であって、予測された前記予測姿勢位置を含み、ガウス分布での分散で表現された分布である、
請求項4に記載の物体追跡方法。 - 前記第1ニューラルネットワークは、リカレントニューラルネットワークと、前記1以上のモデルを形成する所定のニューラルネットワークとを有する、
請求項4または5に記載の物体追跡方法。 - 前記1以上のモデルは、前記所定のニューラルネットワークにドロップアウトを適用し、前記所定のニューラルネットワークを構成する1以上のノードを不活性化させることにより形成される、
請求項6に記載の物体追跡方法。 - 時系列に連続した2以上の過去画像に映る1以上の物体それぞれの姿勢を示す座標を含む姿勢の時系列データを、第1ニューラルネットワークを含み不確実性を考慮した姿勢予測を行う姿勢予測器に入力することで、前記姿勢予測器に、現在フレームにおける1以上の第1物体の予測姿勢位置それぞれの分布である予測分布を予測させる予測ステップと、
前記現在フレームを、第2ニューラルネットワークに入力することで、前記第2ニューラルネットワークに、前記現在フレームに映る1以上の第2物体それぞれの位置の集合を推定させる推定ステップと、
前記1以上の第2物体それぞれの位置の集合と、前記予測分布とをマッチングすることにより、前記1以上の第2物体それぞれが前記1以上の第1物体のいずれかに該当するかを示す識別情報、及び、前記1以上の第2物体それぞれの姿勢を示す位置である位置情報を取得して出力する出力ステップと、
前記出力ステップにおいて取得された前記識別情報及び前記位置情報に基づいて、前記予測ステップにおいて予測させた前記予測分布から得られる前記1以上の第1物体それぞれの姿勢を示す座標含むデータを前記姿勢の時系列データに追加することで前記姿勢の時系列データを更新するステップと、を、
コンピュータに実行させるプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010841605.9A CN112509015A (zh) | 2019-09-13 | 2020-08-20 | 物体跟踪方法和记录介质 |
US17/003,473 US11282215B2 (en) | 2019-09-13 | 2020-08-26 | Object tracking method and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962899818P | 2019-09-13 | 2019-09-13 | |
US62/899,818 | 2019-09-13 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043940A JP2021043940A (ja) | 2021-03-18 |
JP7404125B2 true JP7404125B2 (ja) | 2023-12-25 |
Family
ID=74863227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020052978A Active JP7404125B2 (ja) | 2019-09-13 | 2020-03-24 | 物体追跡方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11282215B2 (ja) |
JP (1) | JP7404125B2 (ja) |
CN (1) | CN112509015A (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11657268B1 (en) * | 2019-09-27 | 2023-05-23 | Waymo Llc | Training neural networks to assign scores |
US12067806B2 (en) * | 2021-02-16 | 2024-08-20 | Amazon Technologies, Inc. | System for correcting user movement |
DE102021202933A1 (de) * | 2021-03-25 | 2022-09-29 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfolgung mehrerer Objekte in Zusammenarbeit mehrerer neuronaler Netzwerke |
CN113221776B (zh) * | 2021-05-19 | 2024-05-28 | 彭东乔 | 一种基于人工智能对反刍动物一般行为识别的方法 |
US11651501B2 (en) * | 2021-05-27 | 2023-05-16 | Disney Enterprises, Inc. | Synergistic object tracking and pattern recognition for event representation |
US20230418881A1 (en) * | 2022-06-28 | 2023-12-28 | Adobe Inc. | Systems and methods for document generation |
CN116343341B (zh) * | 2023-05-12 | 2023-08-15 | 天津志听医疗科技有限公司 | 一种基于姿态识别的动作预测分析方法和系统 |
CN117523661A (zh) * | 2023-11-07 | 2024-02-06 | 中山大学·深圳 | 多特征融合的人体姿态估计方法、装置和存储介质 |
CN118314631A (zh) * | 2024-06-06 | 2024-07-09 | 河北科曼信息技术有限公司 | 基于坐姿识别的专注力分析方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018026108A (ja) | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
JP2019109691A (ja) | 2017-12-18 | 2019-07-04 | 日立オートモティブシステムズ株式会社 | 移動体挙動予測装置および移動体挙動予測方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11126179B2 (en) * | 2019-02-21 | 2021-09-21 | Zoox, Inc. | Motion prediction based on appearance |
GB201916371D0 (en) * | 2019-11-11 | 2019-12-25 | Five Ai Ltd | 3D object detection |
US11036989B1 (en) * | 2019-12-11 | 2021-06-15 | Snap Inc. | Skeletal tracking using previous frames |
-
2020
- 2020-03-24 JP JP2020052978A patent/JP7404125B2/ja active Active
- 2020-08-20 CN CN202010841605.9A patent/CN112509015A/zh active Pending
- 2020-08-26 US US17/003,473 patent/US11282215B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018026108A (ja) | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
JP2019109691A (ja) | 2017-12-18 | 2019-07-04 | 日立オートモティブシステムズ株式会社 | 移動体挙動予測装置および移動体挙動予測方法 |
Also Published As
Publication number | Publication date |
---|---|
US11282215B2 (en) | 2022-03-22 |
JP2021043940A (ja) | 2021-03-18 |
CN112509015A (zh) | 2021-03-16 |
US20210082128A1 (en) | 2021-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7404125B2 (ja) | 物体追跡方法及びプログラム | |
Ondruska et al. | Deep tracking: Seeing beyond seeing using recurrent neural networks | |
Islam et al. | Multi-gat: A graphical attention-based hierarchical multimodal representation learning approach for human activity recognition | |
Luo et al. | Multisensor fusion and integration: A review on approaches and its applications in mechatronics | |
KR101986002B1 (ko) | 행동-인식 연결 학습 기반 의도 이해 장치, 방법 및 그 방법을 수행하기 위한 기록 매체 | |
Aristidou et al. | Real-time marker prediction and CoR estimation in optical motion capture | |
Van-Horenbeke et al. | Activity, plan, and goal recognition: A review | |
JP2022500725A (ja) | 自己意識的な視覚的−テキスト的共グラウンディング・ナビゲーションエージェント | |
JP5525407B2 (ja) | 動作モデル学習装置、3次元姿勢推定装置、動作モデル学習方法、3次元姿勢推定方法およびプログラム | |
Faria et al. | Probabilistic human daily activity recognition towards robot-assisted living | |
Reily et al. | Skeleton-based bio-inspired human activity prediction for real-time human–robot interaction | |
Rosales et al. | Combining generative and discriminative models in a framework for articulated pose estimation | |
Martín-Martín et al. | Coupled recursive estimation for online interactive perception of articulated objects | |
Kelestemur et al. | Tactile pose estimation and policy learning for unknown object manipulation | |
Nyolt et al. | Marginal filtering in large state spaces | |
CN110738650A (zh) | 一种传染病感染识别方法、终端设备及存储介质 | |
Hardegger et al. | Enhancing action recognition through simultaneous semantic mapping from body-worn motion sensors | |
CN113326726A (zh) | 行为识别方法、行为识别设备和计算机可读记录介质 | |
Wei et al. | A vision-based measure of environmental effects on inferring human intention during human robot interaction | |
Malviya et al. | Trajectory prediction and tracking using a multi-behaviour social particle filter | |
Lee et al. | Human tracking with an infrared camera using a curve matching framework | |
Taheri et al. | GRIP: Generating interaction poses using spatial cues and latent consistency | |
Toyama et al. | If at first you don't succeed... | |
Felip et al. | Multi-sensor and prediction fusion for contact detection and localization | |
Pavllo et al. | Real-time marker-based finger tracking with neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230106 |
|
TRDD | Decision of grant or rejection written | ||
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231114 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7404125 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |