JP2022544353A - 裸の身体の形状を身体の隠れているスキャン像から推定する方法 - Google Patents
裸の身体の形状を身体の隠れているスキャン像から推定する方法 Download PDFInfo
- Publication number
- JP2022544353A JP2022544353A JP2022502059A JP2022502059A JP2022544353A JP 2022544353 A JP2022544353 A JP 2022544353A JP 2022502059 A JP2022502059 A JP 2022502059A JP 2022502059 A JP2022502059 A JP 2022502059A JP 2022544353 A JP2022544353 A JP 2022544353A
- Authority
- JP
- Japan
- Prior art keywords
- shapes
- data set
- neural network
- simulated
- hidden
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 75
- 230000037237 body shape Effects 0.000 title claims abstract description 65
- 238000013528 artificial neural network Methods 0.000 claims abstract description 50
- 238000012549 training Methods 0.000 claims abstract description 44
- 241000282414 Homo sapiens Species 0.000 claims description 33
- 241001465754 Metazoa Species 0.000 claims description 5
- 239000010410 layer Substances 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 claims description 2
- 239000002356 single layer Substances 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 13
- 238000003909 pattern recognition Methods 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000004088 simulation Methods 0.000 description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 239000002365 multiple layer Substances 0.000 description 3
- 230000036544 posture Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000035515 penetration Effects 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 238000007373 indentation Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000007430 reference method Methods 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/16—Cloth
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
B=d(e(D))
式中、eは、エンコーダを示し、dは、デコーダを示し、Dは、きれいな場合またはノイズが多い場合がある着衣した人間の点群であり、Bは、身体の推定された点群である。これは、身体の形状および姿勢の推定が、Dを所与としてBを予測するように定義され得ることを意味している。この定式化の下では、DとBとの間の明確な対応関係は存在しないことに留意されたい。DからBへのマッピングは、上述のデータセットに基づいてトレーニングされるニューラルネットワークにより行われる。
およびD. Tianの「Foldingnet: Point cloud auto-encoder via deep grid deformation」に記載の折畳みモジュールが実装され得る。デコーダは、オプションで、精緻化された粗い身体の点を非正規化する非正規化モジュールを含み、密な身体の点を得ることができる。精緻化ステップ105は、オプションで、点群/身体メッシュの元のスケールおよび向きを回復するために非正規化ステップ106を含む。
上記の方法は、テスト済みである。48100個のモデルのトレーニングデータセットを上述の手順を用いて得た。スキャニングシミュレーションを、構造化光カメラ(structured-light camera)用に設計されているノイズモデルを有するKinect v1ブレンダのシミュレーションにより行った。データセットを、90%、5%、および5%ずつ、それぞれ、トレーニングデータセット、検証データセット、およびテスト用データセットに分割した。トレーニングは、Kingma, D.P.、およびBa, J.のAdam: A Method for Stochastic Optimization、arXiv preprint arXiv:1412.6980 (2014)に記載のAdamオプティマイザを使用して行った。TensorFlow(OSDI、265~283、(2016)におけるAbadi, M.、Barham, P.、Chen, J.、Chen, Z.、Davis, A.、Dean, J.、Devin, M、Ghemawat, S.、Irving, G.、Isard, M.、およびKudlur, M.のTensorflow: a System for Large-scale Machine Learning)に基づいて、デスクトップPC(Intel(R) Xeon(R) Silver 4112 CPU @ 2.60GHz 64GB RAM GPU GeForce GTX 1080Ti)における50個のエポックおよびバッチサイズ16について、初期学習率0.0001を使用した。学習率は、50K反復ごとに0.7ずつ低下させる。エンコーダにおける入力点群、エンコーダにおける特徴ベクトル、デコーダにおける疎らな出力、およびデコーダにおける密な出力のサイズは、それぞれ6144、1024、2048、および16384であった。デコーダによって予測される疎らな身体の点群は、CD損失値とEMD損失値との和によって評価し、一方、折畳み型デコーダによって予測される密な身体の点群は、CD損失関数によって評価した。
注記: FHDは、前方ハウスドルフ距離(forward Hausdorff distance)、すなわち、GTの全点から、推定された身体上の点までの距離の全点からの最小距離を推定された身体の全点について平均化したものである。RHDは、逆ハウスドルフ距離(reverse Hausdorff distance)、すなわち、推定された身体の全点からGTにおける点までの最小距離をすべてのBについて平均化したものである。AVGは、FHDとRHDとの平均である。
100,000人の男性モデルおよび100,000人の女性モデルのトレーニングデータセットを上述の手順を用いて生成した。3つのタイプの衣服を各々に着せ、したがって、600,000個の着衣したスキャン像と、対応する200,000個のグラウンドトゥルースの身体の形状が得られた。このデータセットは、本明細書において以降、BUGデータセットと呼ぶ。トレーニング段階においては、データセットを、97%、2%、および1%ずつ、それぞれ、トレーニング、検証、およびテスト用に分割した。トレーニングは、実験1のようにAdamオプティマイザを使用して行った。学習率は、50K反復ごとに0.7ずつ低下させた。等式(5)による損失関数を使用した。等式(5)に定義された各項の重みを、αOL=1、αinitial=1、αcoarse=1、およびαCD=1に設定した。広く使用されている評価距離尺度Chamfer Distance (CD)を使用した。CD誤差は、再構成された身体のメッシュとグラウンドトゥルースの身体のメッシュとの間の平均ユークリッド距離である。測定単位は、mmである。CD誤差を以下のように定義した。
センサノイズおよび欠測データに対する本発明の方法のロバスト性をテストした。[4]Multi-Kinectスキャニング(2015 International Conference on 3D Vision、IEEE、2015、pp. 318~325におけるM. Kowalski、J. Naruniec、およびM. Danilukの「Livescan3d: A fast and inexpensive 3d data acquisition system for multiple kinect v2 sensors」、[5]Microsoft Kinect Version 2およびターンテーブルスキャニングシステム(P. Hu, T. Komura、D. Holden、およびY. Zhong、「Scanning and animating characters dressed in multiple-layer garments」、The Visual Computer、33巻、第6~8号、pp. 961~969、2017)、ならびに[6]PhotoScan (https://www.agisoft.com/)と呼ばれる写真測量スキャニングシステムを含む3つの一般的なスキャニングシステムを使用して、3人の被験者を捕捉し、非着衣の身体の形状を、本発明の方法[INV]を使用するスキャン像から推定し、方法[1]~[3]と比較した。図10は、視覚的比較を示している。結果[1]は、極度の浸透問題を有し、結果[2]は、形状および姿勢の観点から不正確であり、結果[3]は、より太って、不自然に変形している。それとは反対に、本発明による方法の結果は、もっともらしく信頼できる。推定された身体(明るく色付けされた領域)は、衣類(暗く色付けされた領域)のほぼ内側にある。[4]からのスキャン像は、非常にノイズが多く、不完全であり、不正確に位置合わせされている。[5]からのスキャン像は、頭の領域に欠測データを有するが、きれいなメッシュである。[6]からのスキャン像は、腕および股の領域にノイズを有する。[1]の性能は、予期せぬノイズに起因して低下する。[2]の誤差は大きい。[3]の性能は、維持されるように思われるが、推定された身体は、やはり、現実と比較してサイズが大き過ぎる。本発明の方法の結果は、従来技術の方法の結果と最良に比較されるような結果となった。これにより、非着衣の身体の形状を着衣した身体スキャン像から推定する本発明の方法が、異なるスキャナによって捕捉されたスキャン像に関して使用可能であり、大きいノイズレベルおよび欠測データに対してロバストであることを可能にすることが証明される。
11 エンコーダ
12 デコーダ
13 正規化モジュール
14 バーチャルスキャナ
100 方法
200 システム
201 コンピューティングデバイス
202 三次元(3D)身体スキャニングデバイス
203 カメラ
204 ユーザアプリケーション
Claims (20)
- ニューラルネットワークをトレーニングするための、身体の隠れている形状と、対応する覆いが取り去られている形状とからなるトレーニングデータセットを生成する方法であって、
コンピューティング手段により、複数の身体の複数の裸の形状を表す複数の第1の表面表現を含む第1のデータセットを生成するステップと、
前記複数の身体の複数のシミュレートされた隠れている形状を得るために、コンピュータ実施プログラムを用いて、前記複数の裸の形状を仮想的に隠すステップと、
前記複数のシミュレートされた隠れている形状をスキャニングシミュレータに適用するステップであって、前記スキャニングシミュレータが、前記複数のシミュレートされた隠れている形状を表す複数の第2の表面表現を含む第2のデータセットを生成する、ステップと
を含む方法。 - 前記第1の表面表現が、複数のポーズをとる複数の裸の形状を表す、請求項1に記載の方法。
- 前記シミュレートされた隠れている形状が、多層表面を含む、請求項1または2に記載の方法。
- 前記スキャニングシミュレータが、前記多層表面を含む前記シミュレートされた隠れている形状を、単一層表面を表す前記第2の表面表現に変換する、請求項3に記載の方法。
- 前記スキャニングシミュレータが、写真測量法ベースのシミュレータである、請求項1から4のいずれか一項に記載の方法。
- 前記スキャニングシミュレータが、ノイズモデルを含み、前記ノイズモデルが、シミュレートされたノイズを前記複数の第2の表面表現に追加する、請求項1から5のいずれか一項に記載の方法。
- 前記スキャニングシミュレータが、多角形の隅に配置されている複数のカメラシミュレータを含み、前記シミュレートされた隠れている形状が、前記多角形の中心に配置され、前記複数のカメラシミュレータが、異なる視野角から前記シミュレートされた隠れている形状を撮像する、請求項1から6のいずれか一項に記載の方法。
- 前記複数の第2の表面表現の節点に関連する信頼度値を生成するステップを含む、請求項1から7のいずれか一項に記載の方法。
- 前記第1の表面表現が第1の点群であり、および/または、前記第2の表面表現が第2の点群である、請求項1から8のいずれか一項に記載の方法。
- 前記第2の点群の点に関連する信頼度値を生成するステップを含む、請求項9に記載の方法。
- 前記複数の裸の形状が、複数の人間または動物の身体の複数の非着衣の形状を表し、仮想的に隠す前記ステップが、前記複数の非着衣の形状を仮想的に着衣させるステップを含み、前記複数のシミュレートされた隠れている形状が、前記複数の人間または動物の身体の複数のシミュレートされた着衣した形状である、請求項1から10のいずれか一項に記載の方法。
- 前記複数のシミュレートされた着衣した形状が、有利にはタイトフィットの服飾およびルーズフィットの服飾を含む、複数の服飾スタイルにおいてシミュレートされた着衣した形状を含む、請求項11に記載の方法。
- ニューラルネットワークをトレーニングする方法であって、
請求項1から12のいずれか一項に記載の方法により、隠れている形状と、対応する裸の形状とからなるトレーニングデータセットを生成するステップと、
前記第1のデータセットおよび前記第2のデータセットを前記ニューラルネットワークに適用するステップであって、前記第1のデータセットが、グラウンドトゥルースデータセットとみなされる、ステップと
を含む方法。 - 前記複数の第2の表面表現が、請求項8または10に記載の方法により得られる関連する信頼度値とともに節点を含み、前記信頼度値が、入力として前記ニューラルネットワークに与えられる、請求項13に記載の方法。
- 裸の形状を身体の物理的に隠れている形状から推定する方法であって、
請求項13または14に記載の方法により、ニューラルネットワークをトレーニングするステップと、
三次元カメラデバイスにより、前記物理的に隠れている形状をスキャンし、前記物理的に隠れている形状を表す第3の表面表現を生成するステップと、
前記第3の表面表現を前記ニューラルネットワークに適用するステップであって、前記ニューラルネットワークが、前記身体の推定された裸の形状を表す第4の表面表現を出力する、ステップと
を含む方法。 - 前記ノイズモデルが、前記三次元カメラデバイスに関連するノイズシグネチャを表す、請求項6を引用する請求項15に記載の方法。
- 前記ニューラルネットワークが、前記第3の表面表現のポーズと実質的に同じポーズで前記第4の表面表現を出力する、請求項2を引用する請求項15または16に記載の方法。
- コンピュータにおいて実行されると、請求項1から17のいずれか一項に記載の方法を行うように構成されている、コンピュータプログラムコード。
- 請求項13または14に記載の方法によりトレーニングされるニューラルネットワークを備えたコンピュータと、前記ニューラルネットワークに動作可能に接続される三次元カメラデバイスとを備え、前記コンピュータが、請求項15から17のいずれか一項に記載の方法を行うように構成されている、システム。
- ニューラルネットワークをトレーニングするためのトレーニングデータセットであって、複数の身体の複数の裸の形状を表す複数の第1の表面表現を含む第1のデータセットと、前記複数の身体の隠れている形状を表す複数の第2の表面表現を含む第2のデータセットとを含み、前記第1のデータセットおよび前記第2のデータセットが、請求項1から12のいずれか一項に記載の方法により得られる、トレーニングデータセット。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19186137 | 2019-07-12 | ||
EP19186137.6 | 2019-07-12 | ||
PCT/EP2020/069611 WO2021009062A1 (en) | 2019-07-12 | 2020-07-10 | Methods of estimating a bare body shape from a concealed scan of the body |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022544353A true JP2022544353A (ja) | 2022-10-18 |
Family
ID=67296982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022502059A Pending JP2022544353A (ja) | 2019-07-12 | 2020-07-10 | 裸の身体の形状を身体の隠れているスキャン像から推定する方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11922593B2 (ja) |
EP (1) | EP3997670A1 (ja) |
JP (1) | JP2022544353A (ja) |
CN (1) | CN114375463A (ja) |
WO (1) | WO2021009062A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115298708A (zh) * | 2020-03-30 | 2022-11-04 | 上海科技大学 | 多视角神经人体渲染 |
CN113205104A (zh) * | 2021-04-23 | 2021-08-03 | 广西大学 | 一种基于深度学习的点云补全方法 |
US11823346B2 (en) * | 2022-01-17 | 2023-11-21 | Snap Inc. | AR body part tracking system |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2580708A4 (en) * | 2010-06-10 | 2016-11-16 | Univ Brown | PARAMETRIZED 2D HUMAN MODEL WITH RACES |
US10460158B2 (en) * | 2014-06-19 | 2019-10-29 | Kabushiki Kaisha Toshiba | Methods and systems for generating a three dimensional representation of a human body shape |
US10282914B1 (en) * | 2015-07-17 | 2019-05-07 | Bao Tran | Systems and methods for computer assisted operation |
US10163003B2 (en) * | 2016-12-28 | 2018-12-25 | Adobe Systems Incorporated | Recognizing combinations of body shape, pose, and clothing in three-dimensional input images |
US11158121B1 (en) * | 2018-05-11 | 2021-10-26 | Facebook Technologies, Llc | Systems and methods for generating accurate and realistic clothing models with wrinkles |
-
2020
- 2020-07-10 CN CN202080053677.5A patent/CN114375463A/zh active Pending
- 2020-07-10 WO PCT/EP2020/069611 patent/WO2021009062A1/en unknown
- 2020-07-10 JP JP2022502059A patent/JP2022544353A/ja active Pending
- 2020-07-10 EP EP20739363.8A patent/EP3997670A1/en active Pending
- 2020-07-10 US US17/626,793 patent/US11922593B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US11922593B2 (en) | 2024-03-05 |
US20220245911A1 (en) | 2022-08-04 |
CN114375463A (zh) | 2022-04-19 |
WO2021009062A1 (en) | 2021-01-21 |
EP3997670A1 (en) | 2022-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | Physics-inspired garment recovery from a single-view image | |
US10546433B2 (en) | Methods, systems, and computer readable media for modeling garments using single view images | |
Alldieck et al. | imghum: Implicit generative models of 3d human shape and articulated pose | |
Chen et al. | Tensor-based human body modeling | |
Endo et al. | Dhaiba: development of virtual ergonomic assessment system with human models | |
Yang et al. | Detailed garment recovery from a single-view image | |
US11922593B2 (en) | Methods of estimating a bare body shape from a concealed scan of the body | |
KR20180069786A (ko) | 3d 신체 모델에 대한 3d 의복 모델의 이미지 파일을 생성하기 위한 방법 및 시스템 | |
Hu et al. | Learning to estimate the body shape under clothing from a single 3-D scan | |
CN110310285B (zh) | 一种精确的基于三维人体重建的烧伤面积计算方法 | |
Ballester et al. | Data-driven three-dimensional reconstruction of human bodies using a mobile phone app | |
Hu et al. | 3DBodyNet: fast reconstruction of 3D animatable human body shape from a single commodity depth camera | |
Koo et al. | Example-based statistical framework for parametric modeling of human body shapes | |
Buxton et al. | Reconstruction and interpretation of 3D whole body surface images | |
Li et al. | Animated 3D human avatars from a single image with GAN-based texture inference | |
Bang et al. | Estimating garment patterns from static scan data | |
Yan et al. | Learning anthropometry from rendered humans | |
Chen et al. | Parametric 3D modeling of a symmetric human body | |
CN116310066A (zh) | 一种单图像三维人体形态估计方法及应用 | |
Xu et al. | Building high-fidelity human body models from user-generated data | |
EP3801201A1 (en) | Measuring surface distances on human bodies | |
Hu et al. | Predicting high-fidelity human body models from impaired point clouds | |
Alemany et al. | Three-dimensional body shape modeling and posturography | |
Jiang et al. | Observation-oriented silhouette-aware fast full body tracking with Kinect | |
Chen et al. | Optimizing human model reconstruction from RGB-D images based on skin detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220314 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220915 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230710 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240422 |