JP2022503776A - 視覚ディスプレイの補完的なデータを生成するためのシステム及び方法 - Google Patents
視覚ディスプレイの補完的なデータを生成するためのシステム及び方法 Download PDFInfo
- Publication number
- JP2022503776A JP2022503776A JP2021516382A JP2021516382A JP2022503776A JP 2022503776 A JP2022503776 A JP 2022503776A JP 2021516382 A JP2021516382 A JP 2021516382A JP 2021516382 A JP2021516382 A JP 2021516382A JP 2022503776 A JP2022503776 A JP 2022503776A
- Authority
- JP
- Japan
- Prior art keywords
- tracking data
- data
- complementary
- tracking
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000295 complement effect Effects 0.000 title claims abstract description 117
- 230000000007 visual effect Effects 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 title claims description 70
- 230000033001 locomotion Effects 0.000 claims abstract description 253
- 238000004422 calculation algorithm Methods 0.000 claims description 80
- 210000000707 wrist Anatomy 0.000 claims description 72
- 210000003811 finger Anatomy 0.000 claims description 52
- 210000003414 extremity Anatomy 0.000 claims description 38
- 210000002683 foot Anatomy 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 24
- 239000012636 effector Substances 0.000 claims description 20
- 210000004247 hand Anatomy 0.000 claims description 20
- 210000003371 toe Anatomy 0.000 claims description 19
- 230000005057 finger movement Effects 0.000 claims description 18
- 239000000203 mixture Substances 0.000 claims description 18
- 230000003287 optical effect Effects 0.000 claims description 16
- 230000003252 repetitive effect Effects 0.000 claims description 15
- 238000004458 analytical method Methods 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 238000002156 mixing Methods 0.000 claims description 3
- 210000000689 upper leg Anatomy 0.000 claims description 3
- 230000008878 coupling Effects 0.000 claims description 2
- 238000010168 coupling process Methods 0.000 claims description 2
- 238000005859 coupling reaction Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract 1
- 210000003127 knee Anatomy 0.000 description 27
- 210000001624 hip Anatomy 0.000 description 20
- 238000013459 approach Methods 0.000 description 16
- 210000000245 forearm Anatomy 0.000 description 16
- 210000000988 bone and bone Anatomy 0.000 description 15
- 239000013598 vector Substances 0.000 description 13
- 238000009877 rendering Methods 0.000 description 12
- 238000012549 training Methods 0.000 description 12
- 238000010801 machine learning Methods 0.000 description 10
- 230000007935 neutral effect Effects 0.000 description 10
- 210000003423 ankle Anatomy 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 8
- 238000009499 grossing Methods 0.000 description 7
- 210000002414 leg Anatomy 0.000 description 7
- 208000004983 Phantom Limb Diseases 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 210000003813 thumb Anatomy 0.000 description 6
- 230000005484 gravity Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 206010056238 Phantom pain Diseases 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 4
- 210000004932 little finger Anatomy 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 210000001513 elbow Anatomy 0.000 description 3
- 230000005672 electromagnetic field Effects 0.000 description 3
- 238000007654 immersion Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003278 mimic effect Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000007480 spreading Effects 0.000 description 3
- 238000003892 spreading Methods 0.000 description 3
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 210000003484 anatomy Anatomy 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 229910000859 α-Fe Inorganic materials 0.000 description 2
- 240000001436 Antirrhinum majus Species 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 208000030984 MIRAGE syndrome Diseases 0.000 description 1
- 208000002193 Pain Diseases 0.000 description 1
- 241000269799 Perca fluviatilis Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000002266 amputation Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 244000309466 calf Species 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000000556 factor analysis Methods 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 210000004905 finger nail Anatomy 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 230000005389 magnetism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 230000003183 myoelectrical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000012628 principal component regression Methods 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- TVLSRXXIMLFWEO-UHFFFAOYSA-N prochloraz Chemical compound C1=CN=CN1C(=O)N(CCC)CCOC1=C(Cl)C=C(Cl)C=C1Cl TVLSRXXIMLFWEO-UHFFFAOYSA-N 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000012109 statistical procedure Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1123—Discriminating type of movement, e.g. walking or running
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/744—Displaying an avatar, e.g. an animated cartoon character
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pathology (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Human Computer Interaction (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
Abstract
Description
本特許出願は、2018年9月21日に出願された、米国仮特許出願第62/734,824に基づく優先権を主張するものであり、その全体が参照により本明細書に組み込まれるものとする。
いくつかの実施形態では、この比較は、主要なポーズライブラリ中の2つ以上の主要なポーズ同士の空間を具備し、この補完的なデータは、これらの空間をブレンドするために生成される。
(参照による組み込み)
(パート1:アバターアニメーションのテクニック)
(コンピューティング環境)
(センサ)
式1 X = Nt B(r)
X ・・・ 3×3のSigmat行列(RX座標で検出)
N ・・・ 3×3の正規直交方向(TX座標において)送信機からセンサへの回転行列(IMUから受信した6つの値)
r ・・・ 3×1の位置ベクトル(TX座標において)(送信機からセンサへの動径ベクトル)
B ・・・ 3×3の行列(TX座標において)の列としての3つの磁場
式2 X = Nt (B(r) + E(r))
歪みフィールド:E(r)=v・P
v ・・・ 歪みフィールドの3×1の方向(3つの周波数すべてで同じ)
P ・・・ 周波数ごとの歪みフィールドの3×1ゲイン(スカラー)
式3 X = Nt (B(r) + v・P)
重力方程式: N・Grx=Gtx
式4 X = Nt B(r) + Grx・P
θ ・・・ Nのロール角
r ・・・ 3D位置ベクトル
P ・・・ 歪みゲイン
式5(ソルバ1) F(θ, r, P) = ||N(θ)tB(r) + Grx・P - X||2
式6 Ex = (||XPnO-XMeasured ||)/(||XMeasured ||)
式7(ソルバ2) X = Nt B(r) + v・P
ここで、N=Nfusionである。
(電磁座標系と光学座標系の併合)
(プロセッサ)
(視覚ディスプレイ)
(システム例)
(オーケストレーション)
(自動同期プロトコル)
(ボディトラッキングにおける限られた動きのデータ)
(手と指のアニメーションをサポートするための限られたデータ)
(ひじ、ひざ、足、つま先の追跡に関する限られたデータ)
(切断された手足の追跡をサポートするデータ)
(プレーヤーの表現を実時間でアニメートする)
(アバターの構造)
(特殊メッシュ)
(骨格アニメーション)
(頂点アニメーション)
(特別なポーズとジェスチャ)
Claims (57)
- 補完的な追跡データを生成するためのシステムであって、前記システムは、
オブジェクトに配置されるように構成された1つ以上のウェアラブルセンサであって、前記ウェアラブルセンサは追跡データを収集及び送信するように構成される、ウェアラブルセンサと、
プロセッサで実行可能な命令を含むメモリと通信するプロセッサと、を具備し、前記命令を実行することにより、前記システムに
(a)前記1つ以上の前記ウェアラブルセンサから追跡データを受信させ、
(b)前記追跡データを3Dモデルにマッピングさせ、ここで前記3Dモデルは、前記オブジェクトの範囲と動きの仮想表現であることを特徴とし、
(c)前記3Dモデルの不完全な部分を特定させ、前記不完全な部分は、前記追跡データにマッピングされていないモデルの部分を含むことを特徴とし、
(d)前記不完全な部分の少なくとも一部を置き換えるための補完的な追跡データを生成させ、
(e)3Dモデルに補完的な追跡データを含めさせる、
ことを特徴とするシステム。 - 前記補完的なデータは、利用可能な追跡データを主要なポーズライブラリと比較することによって生成されることを特徴とする請求項1に記載のシステム。
- 追跡データは、前記主要なポーズライブラリ内の2つ以上の主要なポーズ同士の間のブレンドスペースと比較されることを特徴とする請求項2に記載のシステム。
- 追跡データは、最も強い一致の決定を行うために、主要なポーズの前記ライブラリの主要なポーズと比較されることを特徴とする請求項3に記載のシステム。
- 前記一致の決定は、前記不完全な部分から離れた関節及び身体部分よりも、前記不完全な部分に最も近い関節及び身体部分での類似性に重きを置くことを特徴とする請求項4に記載のシステム。
- 前記メモリは、前記システムに1つ又は一連の以前の3Dモデルにアクセスさせるプロセッサ実行可能命令を含み、前記以前の3Dモデルは、表示のために前もって伝達されていることを特徴とする請求項1に記載のシステム。
- 前記補完的な追跡データは、一連の以前の3Dモデルの間での反復的な追跡データのクラスタを識別し、追跡データを前記クラスタに一致させ、前記クラスタの一致部分と同様の補完的なデータを生成することによって生成されることを特徴とする請求項6に記載のシステム。
- 前記補完的な追跡データは、一連の以前の3Dモデルの中から反復的な追跡データのクラスタを識別し、利用可能な追跡データが反復的な追跡データの前記クラスタのどこに最も適合するかを決定し、追跡データの前記クラスタを模倣する補完的な追跡データを生成することによって生成されることを特徴とする請求項6に記載のシステム。
- 前記プロセッサは、ジェスチャトリガーについて前記1つ又は一連の以前の3Dモデルを分析するように構成され、ジェスチャトリガーを識別することで、システムに、事前に記録されたジェスチャアニメーションと少なくとも部分的にブレンドされた一連の更新された3Dモデルを伝達させることを特徴とする請求項6に記載のシステム。
- 補完的な追跡データは、エンドエフェクタの追跡データが利用可能な場合のFABRIKソルバ、及びエンドエフェクタの追跡データが利用できない場合のクラスタ機能又は主要なポーズの一致と共に生成されることを特徴とする請求項1に記載のシステム。
- 前記メモリには、前記システムが追跡データを受信した前記3Dモデルの部分について、前記システムに補完的な追跡データを生成させる、プロセッサで実行可能な命令を含むことを特徴とする請求項1に記載のシステム。
- 前記3Dモデルは、前記補完的な追跡データと前記追跡データとをブレンドすることによって更新されることを特徴とする請求項11に記載のシステム。
- 前記1つ以上のウェアラブルセンサは、電磁受信機及びエミッタ、1つ以上の光学要素、赤外線エミッタ、加速度計、磁力計、ジャイロスコープ、又はこれらの組み合わせで構成されることを特徴とする請求項1に記載のシステム。
- 前記プロセッサは、電磁センサと1つ以上のカメラの両方から追跡データを受信することを特徴とする請求項1に記載のシステム。
- 前記ウェアラブルセンサは無線であり、ラジオ周波数で通信することを特徴とする請求項1に記載のシステム。
- ユーザが着用可能な1つ以上のストラップをさらに含み、前記1つ以上のウェアラブルセンサは、前記1つ以上のストラップの中又はこれらの上に配置されるように構成されることを特徴とする請求項1に記載のシステム。
- 前記ディスプレイは、前記更新された3Dモデルを物理的に、仮想現実で、又は複合現実で表示するように構成されることを特徴とする請求項1に記載のシステム。
- 前記追跡データには、前記3Dモデルの指の補完的な追跡データを決定するために使用される手首又は掌部の追跡データが含まれることを特徴とする請求項1に記載のシステム。
- 前記追跡データは、前記ユーザの少なくとも1つの関節によって前記補完的な追跡データから分離されていることを特徴とする請求項1に記載のシステム。
- 前記プロセッサは、ユーザの「n」の身体部分の追跡データを受け取り、そして前記プロセッサは、「n+1」の身体部分を有する更新された3Dモデルを表示するために通信することを特徴とする請求項1に記載のシステム。
- 補完的な追跡データを生成するためのシステムであって、前記システムは、プロセッサで実行可能な命令を含むメモリと通信するプロセッサを具備し、前記命令は、
追跡データのセットであって、前記追跡データは、ユーザの1つ以上の部分の位置又は動きに関連する、追跡データのセットと
3Dモデルであって、前記3Dモデルは、ユーザの範囲及びユーザの動きの仮想表現である、3Dモデルと、
ライブラリであって、前記ライブラリは、ポーズ、ジェスチャ、又はこれらの両方のセットで構成される、ライブラリと、
補完的な追跡データのセットであって、前記補完的な追跡データのセットは、前記ライブラリから選択された少なくとも1つのポーズ又はジェスチャの少なくとも一部を具備する、補完的な追跡データのセットと、
結合モデルであって、前記結合モデルは前記追跡データのセットと前記補完データのセットと、
を具備することを特徴とするシステム。 - 前記補完的なデータには、前記追跡データのセットに存在しない手足、付属器官、関節、又は指が含まれることを特徴とする請求項21に記載のシステム。
- 前記補完的なデータには、前記追跡データのセットに存在しない運動の期間が含まれることを特徴とする請求項21に記載のシステム。
- 前記ライブラリと前記追跡データのセットとの比較を使用して、前記ライブラリから前記ポーズ又はジェスチャを選択することを特徴とする請求項21に記載のシステム。
- 前記命令には、学習アルゴリズムがさらに含まれ、前記補完的なデータのセットは、前記学習アルゴリズムによって生成されることを特徴とする請求項21に記載のシステム。
- 前記命令には、学習アルゴリズムがさらに含まれ、前記ポーズ又はジェスチャは、前記学習アルゴリズムによって選択されることを特徴とする請求項21に記載のシステム。
- 前記補完的なデータは、前記追跡データのセットを主要なポーズライブラリとの比較によって生成されることを特徴とする請求項21に記載のシステム。
- 前記比較は、前記主要なポーズライブラリ中の2つ以上の主要なポーズ同士の空間を具備し、前記補完的なデータは、これらの空間をブレンドするために生成されることを特徴とする請求項27に記載のシステム。
- 前記追跡データのセットは、一致度を決定するために、前記追跡データを主要なポーズのライブラリ内の主要なポーズのセットと比較することによって3Dモデルにマッピングされることを特徴とする請求項21に記載のシステム。
- 前記一致度は、不完全な部分から離れた関節及び身体部分よりも、前記不完全な部分に最も近い関節及び身体部分の類似性をより重く重み付けすることによって決定されることを特徴とする請求項29に記載のシステム。
- 前記命令は、ユーザの1つの動き又は一連の動きについての以前のポーズ、ジェスチャ、又はこれら両方を具備することを特徴とする請求項21に記載のシステム。
- 前記補完的な追跡データは、一連の以前のポーズ、ジェスチャ、又はこれらの両方の間で反復的な追跡データのクラスタを識別し、前記追跡データのセットを前記クラスタに一致させ、前記クラスタに一致した部分に類似する補完的なデータを生成することによって生成されることを特徴とする請求項31に記載のシステム。
- 前記補完的な追跡データは、前記一連の以前のポーズ、ジェスチャ、又はこれらの両方の間で反復的な追跡データのクラスタを識別し、利用可能な追跡データが反復的な追跡データの前記クラスタのどこに適合するかを決定し、反復的な追跡データのクラスタを模倣する補完的な追跡データを生成することによって生成されることを特徴とする請求項31に記載のシステム。
- 前記命令は、ジェスチャトリガーのための一連の以前のポーズ、ジェスチャ、又はこれらの両方の少なくとも一部の分析を含み、ジェスチャの前記識別により、システムは、少なくとも部分的にあらかじめ記憶していたジェスチャアニメーションとブレンドされた一連の更新された融合データのセットを通信することを特徴とする請求項31に記載のシステム。
- 補完的な追跡データは、エンドエフェクタの追跡データが利用可能である場合はFABRIKソルバで生成され、エンドエフェクタの追跡データが利用できない場合はクラスタ機能又は主要なポーズの一致部分により生成されることを特徴とする請求項21に記載のシステム。
- 前記追跡データのセットには、3Dモデルの指の補完的な追跡データを決定するために使用される手首又は掌部の追跡データが含まれることを特徴とする請求項21に記載のシステム。
- 前記追跡データのセットは、少なくとも1つの関節によって前記補完的な追跡データから分離されていることを特徴とする請求項21に記載のシステム。
- 前記追跡データのセットは、「n」の身体部分の追跡データを含み、前記補完データは、前記3Dモデルにマッピングされて、「n+1」の身体部分との結合モデルを形成することを特徴とする請求項21に記載のシステム。
- 前記結合モデルは、ほぼ実時間で生成され、少なくとも部分的な表示のために前記ユーザに伝達されることを特徴とする請求項21に記載のシステム。
- 視覚ディスプレイのための補完的なデータを生成するためのシステムであって、前記システムは、
(a)1つ以上の追跡された身体部分に選択的に配置されるように構成された1つ以上の電磁エミッタ及び1つ以上の電磁センサと、
(b)前記視覚ディスプレイ、前記1つ以上の電磁エミッタ、及び前記1つ以上の電磁センサと通信し、前記1つ以上の電磁エミッタ及び前記1つ以上の電磁センサから追跡データを受信するように構成され、前記追跡データ内にない投影された動きを具備し、潜在的な動きのライブラリに基づく、補完的な表示データを生成する少なくとも1つのプロセッサと、
を具備することを特徴とするシステム。 - 前記プロセッサは、前記追跡データを使用して前記視覚ディスプレイ上に前記1つ以上の追跡された身体部分の動き及び位置を表示するようにさらに構成されることを特徴とする請求項40に記載のシステム。
- ユーザが着用可能な1つ以上のストラップをさらに具備し、前記1つ以上のエミッタ及び前記1つ以上のセンサは、前記1つ以上のストラップの中又はこれらの上に配置されるように構成されることを特徴とする請求項40に記載のシステム。
- 1つ以上の光学要素をさらに含み、前記光学要素は、ユーザが着用可能であり、前記1つ以上の光学要素は、赤外線エミッタ、加速度計、磁力計、ジャイロスコープ、又はこれらの組み合わせを具備することを特徴とする請求項40に記載のシステム。
- 前記プロセッサは、(1)人形の骨格リグアニメーション技術、(2)頂点アニメーションソリューション、又は(3)これらの両方の組み合わせを使用して、(4)前記補完的な表示データを生成するために、3Dグラフィックスを処理するよう構成されることを特徴とする請求項40に記載のシステム。
- 前記プロセッサは、前記追跡データと前記補完的な表示データとを3Dグラフィックスで組み合わせるようにさらに構成され、前記3Dグラフィックスは、アバター又は人工装具のどちらかのモデルを具備し、前記モデルは、処理された動作データとして前記プロセッサから転送されることを特徴とする請求項44に記載のシステム。
- 前記ディスプレイは、前記補完的な表示データを物理的に、仮想現実で、又は複合現実で表示するように構成されることを特徴とする請求項40に記載のシステム。
- 前記プロセッサは、1つ以上の追跡された身体部分の補完的な表示データを生成するようにさらに構成されることを特徴とする請求項40に記載のシステム。
- 前記追跡データには手首追跡データが含まれ、前記補完的な表示データには指の動きデータが含まれ、一連の1つ以上の手首又は掌部の位置及び動きを分析して1つ以上の指の補完的な動きを決定することを特徴とする請求項40に記載のシステム。
- 前記プロセッサは、前記1つ以上の追跡された身体部分、1つ以上の追跡されていない身体部分、又はこれらの両方の3Dグラフィックスを生成するように構成され、前記1つ以上の追跡された又は追跡されていない身体部分は、指、手、肘、肩、頭、胴体、腰、太もも、すね、足、つま先を具備し、1つ以上の追跡された身体部分からの追跡データが処理されて、2番目の1つ以上の追跡された身体部分、追跡されていない身体部分、又はこれらの両方の組み合わせを生成することを特徴とする請求項40に記載のシステム。
- 前記プロセッサは、プレーヤーの手首又は掌部からの追跡データを分析することによって、手首、手、及び指の3Dグラフィックスを生成するように構成されることを特徴とする請求項40に記載のシステム。
- 前記プロセッサは、(i)ある期間にわたって手首からの追跡データを分析すること、(ii)前記手首の所定の動作パターンが実行されたかどうかを判断すること、(iii)前記所定の動作パターンの前記識別に基づいて、前記手首、手、及び指の主なジェスチャを生成すること、前記主なジェスチャは、手を振ること、指さすこと、又は手のひらを開くことを含むことを特徴とし、(iv)前記主なジェスチャを含む前記ディスプレイ上に3Dグラフィックスまたは一連の3Dグラフィックスを生成すること、を行うよう構成されることを特徴とする請求項40に記載のシステム。
- オブジェクトの動きを追跡し、アバターを表示するための方法であって、前記方法は、
(a)1つ以上の電磁エミッタ及び1つ以上の電磁センサを用いて、オブジェクトの1つ以上の追跡された身体部分の動きを追跡するステップと、
(b)前記1つ以上の電磁エミッタ及び前記1つ以上の電磁センサから前記1つ以上の追跡された身体部分の追跡された動きデータを受信するステップと、
(c)追跡された動きデータを分析して、1つ以上の追跡された身体部分の近く又はこれらに隣接する前記1つ以上の身体部分の補完的な動きデータを決定するステップと、
(d)追跡された動きのデータと補完的な動きのデータをアバターにアニメートするステップと、
を具備することを特徴とする方法。 - アバターをアニメートするための方法であって、前記方法は、
(a)1つ以上の追跡された身体部分の位置、動き、又はこれらの両方を含む追跡された動きデータを受け取るステップと、
(b)前記追跡された動きデータの分析を通じて、前記1つ以上の追跡された身体部分の近く又はこれら隣接する1つ以上の身体部分の補完的な動きデータを決定するステップと、
(c)追跡された動きデータと補完的な動きデータをアバターにアニメートするステップと、
を具備することを特徴とする方法。 - 前記補完的な動きのデータは、少なくとも1つの関節によって追跡された動きデータから分離されていることを特徴とする請求項53に記載の方法。
- 前記追跡された運動データには、手首又は掌部が含まれ、前記補完的な運動データには、手、1つ以上の指、又はこれらの両方が含まれることを特徴とする請求項53に記載の方法。
- 前記1つ以上の追跡された身体部分の動きを追跡するステップは、いくつかの身体部分「n」を追跡することを具備し、前記身体部分をアニメートするステップは、いくつかの身体部分「n+1」をアニメートするステップを具備することを特徴とする請求項53に記載の方法。
- 前記補完的な動きデータを決定するために追跡された動きデータを分析するステップは、前記1つ以上の身体部分に近い2番目の1つ以上の身体部分を分析し、追跡された動きデータと補完的な動きデータの組み合わせをアバターにアニメートするステップをさらに具備することを特徴とする請求項53に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862734824P | 2018-09-21 | 2018-09-21 | |
US62/734,824 | 2018-09-21 | ||
PCT/US2019/042857 WO2020060666A1 (en) | 2018-09-21 | 2019-07-22 | Systems and methods for generating complementary data for visual display |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022503776A true JP2022503776A (ja) | 2022-01-12 |
Family
ID=69887698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021516382A Pending JP2022503776A (ja) | 2018-09-21 | 2019-07-22 | 視覚ディスプレイの補完的なデータを生成するためのシステム及び方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11586276B2 (ja) |
EP (1) | EP3827373A4 (ja) |
JP (1) | JP2022503776A (ja) |
KR (1) | KR20210058958A (ja) |
CN (1) | CN112930553A (ja) |
CA (2) | CA3237053A1 (ja) |
WO (1) | WO2020060666A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020070812A1 (ja) * | 2018-10-03 | 2020-04-09 | 株式会社ソニー・インタラクティブエンタテインメント | スケルトンモデル更新装置、スケルトンモデル更新方法及びプログラム |
US20210142342A1 (en) * | 2019-11-10 | 2021-05-13 | Zhiqing Cheng | Methods and systems for provisioning digital data to an individual |
WO2021226128A1 (en) * | 2020-05-04 | 2021-11-11 | Rct Studio Inc. | Methods and systems for 3d character pose prediction based on phase-functioned neural networks |
WO2022034771A1 (ja) * | 2020-08-11 | 2022-02-17 | 株式会社三菱ケミカルホールディングス | プログラム、方法、情報処理装置 |
US11589782B2 (en) * | 2020-08-17 | 2023-02-28 | The Trustees of the California State University | Movement analysis and feedback systems, applications, devices, and methods of production thereof |
US11507179B2 (en) * | 2020-09-17 | 2022-11-22 | Meta Platforms Technologies, Llc | Systems and methods for predicting lower body poses |
US11651625B2 (en) | 2020-09-17 | 2023-05-16 | Meta Platforms Technologies, Llc | Systems and methods for predicting elbow joint poses |
US20240031532A1 (en) * | 2021-04-01 | 2024-01-25 | A1A Software Llc | Experiential Virtual Reality Event Host Delivery Dais |
US20240096033A1 (en) * | 2021-10-11 | 2024-03-21 | Meta Platforms Technologies, Llc | Technology for creating, replicating and/or controlling avatars in extended reality |
EP4190236A1 (en) * | 2021-12-02 | 2023-06-07 | ETH Zürich | Method and apparatus for determining a spatial configuration of a wireless inductive network and for pose detection |
CN114385831B (zh) * | 2022-01-14 | 2024-06-18 | 重庆邮电大学 | 一种基于特征提取的知识图谱关系预测方法 |
US20230267668A1 (en) * | 2022-02-23 | 2023-08-24 | Electronic Arts Inc. | Joint twist generation for animation |
WO2023167718A1 (en) * | 2022-03-04 | 2023-09-07 | Microsoft Technology Licensing, Llc | Pose prediction for articulated object |
WO2023191996A1 (en) * | 2022-04-01 | 2023-10-05 | Gridraster, Inc. | Digital twin sub-millimeter alignment using multimodal 3d deep learning fusion system and method |
US11762000B1 (en) * | 2022-06-16 | 2023-09-19 | Penumbra, Inc. | Distortion/interference measurement device for virtual reality environments |
EP4321970A1 (en) * | 2022-08-11 | 2024-02-14 | Hitachi, Ltd. | Method and apparatus for estimating human poses |
US11687152B1 (en) * | 2022-09-08 | 2023-06-27 | International Business Machines Corporation | Directional recommendations based on movement tracking while performing an activity |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011095935A (ja) * | 2009-10-28 | 2011-05-12 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
WO2011142084A1 (ja) * | 2010-05-10 | 2011-11-17 | 株式会社スクウェア・エニックス | 画像処理装置、画像処理方法、および画像処理プログラム |
US20180070864A1 (en) * | 2016-06-02 | 2018-03-15 | Matthew Schuster | Methods and devices for assessing a captured motion |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110317871A1 (en) * | 2010-06-29 | 2011-12-29 | Microsoft Corporation | Skeletal joint recognition and tracking system |
US8786680B2 (en) * | 2011-06-21 | 2014-07-22 | Disney Enterprises, Inc. | Motion capture from body mounted cameras |
US9367959B2 (en) | 2012-06-05 | 2016-06-14 | Apple Inc. | Mapping application with 3D presentation |
US9582035B2 (en) * | 2014-02-25 | 2017-02-28 | Medibotics Llc | Wearable computing devices and methods for the wrist and/or forearm |
US20170025026A1 (en) | 2013-12-20 | 2017-01-26 | Integrum Ab | System and method for neuromuscular rehabilitation comprising predicting aggregated motions |
US9600999B2 (en) | 2014-05-21 | 2017-03-21 | Universal City Studios Llc | Amusement park element tracking system |
US9589362B2 (en) | 2014-07-01 | 2017-03-07 | Qualcomm Incorporated | System and method of three-dimensional model generation |
NZ735465A (en) * | 2015-03-05 | 2021-07-30 | Magic Leap Inc | Systems and methods for augmented reality |
GB2555605B (en) * | 2016-11-03 | 2020-10-21 | Naturalmotion Ltd | Animating a virtual object in a virtual world |
US11132533B2 (en) | 2017-06-07 | 2021-09-28 | David Scott Dreessen | Systems and methods for creating target motion, capturing motion, analyzing motion, and improving motion |
-
2019
- 2019-07-22 CN CN201980061619.4A patent/CN112930553A/zh active Pending
- 2019-07-22 WO PCT/US2019/042857 patent/WO2020060666A1/en unknown
- 2019-07-22 EP EP19861715.1A patent/EP3827373A4/en active Pending
- 2019-07-22 KR KR1020217011775A patent/KR20210058958A/ko not_active Application Discontinuation
- 2019-07-22 JP JP2021516382A patent/JP2022503776A/ja active Pending
- 2019-07-22 US US17/276,548 patent/US11586276B2/en active Active
- 2019-07-22 CA CA3237053A patent/CA3237053A1/en active Pending
- 2019-07-22 CA CA3111430A patent/CA3111430A1/en active Granted
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011095935A (ja) * | 2009-10-28 | 2011-05-12 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
WO2011142084A1 (ja) * | 2010-05-10 | 2011-11-17 | 株式会社スクウェア・エニックス | 画像処理装置、画像処理方法、および画像処理プログラム |
US20180070864A1 (en) * | 2016-06-02 | 2018-03-15 | Matthew Schuster | Methods and devices for assessing a captured motion |
Non-Patent Citations (1)
Title |
---|
""ぷちコン受賞者に聞くUE4ゲーム開発のヒント"", MACPEOPLE, vol. 第20巻第10号, JPN6022031215, 2014, pages 38 - 41, ISSN: 0005007146 * |
Also Published As
Publication number | Publication date |
---|---|
CA3111430A1 (en) | 2020-03-26 |
US20220035443A1 (en) | 2022-02-03 |
WO2020060666A1 (en) | 2020-03-26 |
US11586276B2 (en) | 2023-02-21 |
EP3827373A4 (en) | 2022-05-04 |
CA3237053A1 (en) | 2020-03-26 |
KR20210058958A (ko) | 2021-05-24 |
CN112930553A (zh) | 2021-06-08 |
EP3827373A1 (en) | 2021-06-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11586276B2 (en) | Systems and methods for generating complementary data for visual display | |
JP7061694B2 (ja) | 画像処理方法および装置、画像機器、ならびに記憶媒体 | |
US11308673B2 (en) | Using three-dimensional scans of a physical subject to determine positions and/or orientations of skeletal joints in the rigging for a virtual character | |
US10885692B2 (en) | Skeletal systems for animating virtual avatars | |
JP6938542B2 (ja) | 組込みセンサと外界センサとを組み合わせる多関節トラッキングのための方法およびプログラム製品 | |
JP5865357B2 (ja) | アバター・ジェスチャーの表示制限 | |
US20210349529A1 (en) | Avatar tracking and rendering in virtual reality | |
Avola et al. | An interactive and low-cost full body rehabilitation framework based on 3D immersive serious games | |
CN102331840B (zh) | 基于回环运动的用户选择和导航 | |
CN104685551B (zh) | 混合现实仿真方法和系统 | |
EP0959444A1 (en) | Method for following and imaging a subject's three-dimensional position and orientation, method for presenting a virtual space to a subject, and systems for implementing said methods | |
CN108431736A (zh) | 用于身体上姿势接口以及投影显示的系统和方法 | |
JP2021529380A (ja) | 異種入力の補間のための方法およびシステム | |
Obdržálek et al. | Real-time human pose detection and tracking for tele-rehabilitation in virtual reality | |
RU2107328C1 (ru) | Способ отслеживания и отображения положения и ориентации пользователя в пространстве и система для осуществления способа | |
JP2022501732A (ja) | 画像処理方法及び装置、画像デバイス並びに記憶媒体 | |
CA3111430C (en) | Systems and methods for generating complementary data for visual display | |
RU2106695C1 (ru) | Способ представления виртуального пространства пользователю и система для осуществления способа | |
KR102589194B1 (ko) | 서로 다른 캐릭터 사이의 애니메이션 데이터를 호환 가능하게 연결하는 모션 커버 방법, 장치 및 시스템 | |
Goulao | Kinematic data filtering with unscented kalman filter | |
Chung | Home-based Lower Limb Immersive Serious Game for Phantom Pain Management | |
Zafer | Research on Current Sectoral Uses of Motion Capture (MoCap) Systems | |
Qi | Interactive experience of singing learning and perception using gesture robots based on artificial intelligence games | |
Oore | DIGITAL MARIONETTE: augmenting kinematics with physics for multi-track desktop performance animation | |
CN117101138A (zh) | 虚拟角色的控制方法、装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210524 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210524 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20211015 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220603 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221024 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230307 |