JP7488435B2 - 位置合わせされたcadモデルを使用するar対応ラベル付け - Google Patents
位置合わせされたcadモデルを使用するar対応ラベル付け Download PDFInfo
- Publication number
- JP7488435B2 JP7488435B2 JP2019192525A JP2019192525A JP7488435B2 JP 7488435 B2 JP7488435 B2 JP 7488435B2 JP 2019192525 A JP2019192525 A JP 2019192525A JP 2019192525 A JP2019192525 A JP 2019192525A JP 7488435 B2 JP7488435 B2 JP 7488435B2
- Authority
- JP
- Japan
- Prior art keywords
- physical
- image
- camera
- physical object
- pose
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000002372 labelling Methods 0.000 title description 24
- 238000012549 training Methods 0.000 claims description 65
- 238000011960 computer-aided design Methods 0.000 claims description 41
- 238000000034 method Methods 0.000 claims description 33
- 238000001514 detection method Methods 0.000 claims description 17
- 238000013473 artificial intelligence Methods 0.000 claims description 14
- 230000003190 augmentative effect Effects 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 239000004984 smart glass Substances 0.000 claims description 4
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 9
- 238000013459 approach Methods 0.000 description 8
- 238000013480 data collection Methods 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 8
- 230000033001 locomotion Effects 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000003973 paint Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000000586 desensitisation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/046—Forward inferencing; Production systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computer Graphics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Geometry (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Processing Or Creating Images (AREA)
- Architecture (AREA)
Description
Claims (18)
- 画像検出人工知能(AI)エンジンを訓練するための訓練データの効率的な収集を容易にするためのコンピュータ実装方法であって、
シーン内に配置された物理的物体の設計または製造時に生成された既存のコンピュータ支援設計(CAD)モデルである3次元(3D)モデルを取得することと、
前記3Dモデルに基づいて、前記物理的物体に対応する仮想物体を生成することと、
拡張現実(AR)カメラを構成することであって、
前記ARカメラの視野内で、前記物理的物体の上に前記仮想物体を自動的に重ね合わせ、
前記シーン内の前記物理的物体を含む物理的画像、及び前記物理的物体上に重ね合わせられた前記仮想物体を含む対応するAR画像を捕捉し、
前記AR画像に基づいて前記物理的画像のアノテーションを自動的に作成する、
ように前記ARカメラを構成することと、を含む、コンピュータ実装方法。 - 前記物理的画像の前記アノテーションを作成することが、前記物理的画像の画素レベルのラベルを作成することを含む、請求項1に記載のコンピュータ実装方法。
- 前記物理的画像の前記アノテーションが、前記AR画像内の画素のラベルを前記物理的画像内の画素にリンクさせる画素マスクを含み、前記AR画像内の前記画素の前記ラベルが、前記3Dモデルに基づいて作成される、請求項2に記載のコンピュータ実装方法。
- 前記ARカメラが、前記ARカメラの前記視野内で、前記仮想物体を前記物理的物体に自動的に位置合わせするように、特徴分析技術を適用することで、前記仮想物体を前記物理的物体上に自動的に重ね合わせるように構成される、請求項1に記載のコンピュータ実装方法。
- 撮像条件を変更して、更新されたARカメラ視野を作成することと、
前記更新されたARカメラ視野内で、前記仮想物体を前記物理的物体に再位置合わせすることと、
追加の物理的画像及び追加の対応するAR画像を捕捉することと、
前記AR画像に基づいて前記追加の物理的画像にアノテーションすることと、を更に含む、請求項1に記載のコンピュータ実装方法。 - 前記仮想物体を前記物理的物体に再位置合わせすることが、
前記ARカメラの姿勢を追跡することと、
前記ARカメラの前記追跡された姿勢に基づいて、前記更新されたカメラ視野内の前記物理的物体の姿勢を計算することと、
前記更新されたカメラ視野内の前記物理的物体の前記計算された姿勢に基づいて前記仮想物体の姿勢を調整することと、を含む、請求項5に記載のコンピュータ実装方法。 - 前記撮像条件を変更することが、
前記ARカメラと前記物理的物体との間の距離を変更することと、
前記ARカメラの角度を変更することと、
照明条件を変更することと、
前記シーン内の背景を変更することと、
前記物理的物体の表面的外観を変更することと、
前記物理的物体の姿勢を変更することと、
前記物理的物体内の2つの構成要素間の相対位置を変更することと、
閉塞物体を追加又は除去することと、のうちの1つ以上を含む、請求項5に記載のコンピュータ実装方法。 - 訓練データ集に、前記物理的画像及び前記対応するアノテーションを記憶することと、
前記訓練データ集に基づいて、前記物理的物体を識別するように畳み込みニューラルネットワークを訓練することと、を更に含む、請求項1に記載のコンピュータ実装方法。 - 前記ARカメラが、スマートグラスの一部である、請求項1に記載のコンピュータ実装方法。
- 画像検出人工知能(AI)エンジンを訓練するための訓練データの効率的な収集を容易にするためのコンピュータシステムであって、
プロセッサと、
前記プロセッサによって実行されると、前記プロセッサに方法を実行させる命令を記憶する記憶デバイスと、を含み、前記方法が、
シーン内に配置された物理的物体の設計または製造時に生成された既存のコンピュータ支援設計(CAD)モデルである3次元(3D)モデルを取得することと、
前記3Dモデルに基づいて、前記物理的物体に対応する仮想物体を生成することと、
拡張現実(AR)カメラを構成することであって、
前記ARカメラの視野内で、前記物理的物体の上に前記仮想物体を自動的に重ね合わせ、
前記シーン内の前記物理的物体を含む物理的画像、及び前記物理的物体上に重ね合わせられた前記仮想物体を含む対応するAR画像を捕捉し、
前記AR画像に基づいて前記物理的画像のアノテーションを自動的に作成する、
ように前記ARカメラを構成することと、を含む、コンピュータシステム。 - 前記物理的画像の前記アノテーションを作成することが、前記物理的画像の画素レベルのラベルを作成することを含む、請求項10に記載のコンピュータシステム。
- 前記物理的画像の前記アノテーションが、前記AR画像内の画素のラベルを前記物理的画像内の画素にリンクさせる画素マスクを含み、前記AR画像内の前記画素の前記ラベルが、前記3Dモデルに基づいて作成される、請求項11に記載のコンピュータシステム。
- 前記ARカメラが、前記ARカメラの前記視野内で、前記仮想物体を前記物理的物体に自動的に位置合わせするように、特徴分析技術を適用することで、前記仮想物体を前記物理的物体上に自動的に重ね合わせるように構成される、請求項10に記載のコンピュータシステム。
- 前記方法が、
撮像条件を変更して、更新されたARカメラ視野を作成することと、
前記更新されたARカメラ視野内で、前記仮想物体を前記物理的物体に再位置合わせすることと、
追加の物理的画像及び追加の対応するAR画像を捕捉することと、
前記AR画像に基づいて前記追加の物理的画像にアノテーションすることと、を更に含む、請求項10に記載のコンピュータシステム。 - 前記仮想物体を前記物理的物体に再位置合わせすることが、
前記ARカメラの姿勢を追跡することと、
前記ARカメラの前記追跡された姿勢に基づいて、前記更新されたカメラ視野内の前記物理的物体の姿勢を計算することと、
前記更新されたカメラ視野内の前記物理的物体の前記計算された姿勢に基づいて前記仮想物体の姿勢を調整することと、を含む、請求項14に記載のコンピュータシステム。 - 前記撮像条件を変更することが、
前記ARカメラと前記物理的物体との間の距離を変更することと、
前記ARカメラの角度を変更することと、
照明条件を変更することと、
前記シーン内の背景を変更することと、
前記物理的物体の表面的外観を変更することと、
前記物理的物体の姿勢を変更することと、
前記物理的物体内の2つの構成要素間の相対位置を変更することと、
閉塞物体を追加又は除去することと、のうちの1つ以上を含む、請求項14に記載のコンピュータシステム。 - 前記方法が、
訓練データ集に、前記物理的画像及び前記対応するアノテーションを記憶することと、
前記訓練データ集に基づいて、前記物理的物体を識別するように畳み込みニューラルネットワークを訓練することと、を更に含む、請求項10に記載のコンピュータシステム。 - 前記ARカメラが、スマートグラスの一部である、請求項10に記載のコンピュータシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/192,634 | 2018-11-15 | ||
US16/192,634 US10854006B2 (en) | 2018-11-15 | 2018-11-15 | AR-enabled labeling using aligned CAD models |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020087440A JP2020087440A (ja) | 2020-06-04 |
JP2020087440A5 JP2020087440A5 (ja) | 2022-10-27 |
JP7488435B2 true JP7488435B2 (ja) | 2024-05-22 |
Family
ID=68470291
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019192525A Active JP7488435B2 (ja) | 2018-11-15 | 2019-10-23 | 位置合わせされたcadモデルを使用するar対応ラベル付け |
Country Status (3)
Country | Link |
---|---|
US (1) | US10854006B2 (ja) |
EP (1) | EP3678101A3 (ja) |
JP (1) | JP7488435B2 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019081350A1 (en) * | 2017-10-23 | 2019-05-02 | Koninklijke Philips N.V. | SERVICE INSTRUCTION LIBRARY BASED ON SELF-EXPANSION ENHANCED REALITY |
US11448850B2 (en) * | 2018-01-25 | 2022-09-20 | Tdk Taiwan Corp. | Optical member driving mechanism |
EP3827359B1 (en) | 2018-07-24 | 2024-04-03 | Magic Leap, Inc. | Application sharing using scenegraphs |
US11151782B1 (en) * | 2018-12-18 | 2021-10-19 | B+T Group Holdings, Inc. | System and process of generating digital images of a site having a structure with superimposed intersecting grid lines and annotations |
US10950104B2 (en) * | 2019-01-16 | 2021-03-16 | PANASONIC l-PRO SENSING SOLUTIONS CO., LTD. | Monitoring camera and detection method |
US10699124B1 (en) * | 2019-09-09 | 2020-06-30 | Ar, Llc | Augmented reality content selection and display based on printed objects having security features |
US11961294B2 (en) | 2019-09-09 | 2024-04-16 | Techinvest Company Limited | Augmented, virtual and mixed-reality content selection and display |
WO2021163224A1 (en) * | 2020-02-10 | 2021-08-19 | Magic Leap, Inc. | Dynamic colocation of virtual content |
WO2021163626A1 (en) | 2020-02-14 | 2021-08-19 | Magic Leap, Inc. | Session manager |
JP2023513747A (ja) | 2020-02-14 | 2023-04-03 | マジック リープ, インコーポレイテッド | 3dオブジェクト注釈 |
CN118276683A (zh) | 2020-02-14 | 2024-07-02 | 奇跃公司 | 工具桥 |
US20220005273A1 (en) * | 2020-07-01 | 2022-01-06 | Wacom Co., Ltd. | Dynamic three-dimensional surface sketching |
WO2022036261A1 (en) * | 2020-08-13 | 2022-02-17 | Opsis Health, Inc. | Object-recognition training |
CN112509153B (zh) * | 2020-12-22 | 2023-11-10 | 上海影谱科技有限公司 | 基于移动设备定位的ar模型显示处理方法及装置 |
US11514648B2 (en) * | 2020-12-23 | 2022-11-29 | Microsoft Technology Licensing, Llc | Aligning input image data with model input data to generate image annotations |
CN113516778A (zh) * | 2021-04-14 | 2021-10-19 | 武汉联影智融医疗科技有限公司 | 模型训练数据获取方法、装置、计算机设备和存储介质 |
US12002265B2 (en) | 2021-06-24 | 2024-06-04 | Xerox Corporation | Characterizing liquid reflective surfaces in 3D liquid metal printing |
US11958112B2 (en) * | 2021-06-24 | 2024-04-16 | Xerox Corporation | Characterizing liquid reflective surfaces in 3D liquid metal printing |
DE102021207086A1 (de) * | 2021-07-06 | 2023-01-12 | Kuka Deutschland Gmbh | Verfahren und System zum Durchführen einer Industrie-, insbesondere Roboterapplikation |
US11783551B2 (en) * | 2021-10-28 | 2023-10-10 | Ncr Corporation | Augmented reality (AR) device support |
US11947336B2 (en) | 2022-03-08 | 2024-04-02 | Proto Labs, Inc. | Apparatus and methods for superimposing two-dimensional prints onto three-dimensional models of a part for manufacture |
US20230343042A1 (en) * | 2022-04-20 | 2023-10-26 | The United States Of America, As Represented By The Secretary Of The Navy | Methods and systems using mixed-reality for the creation of insitu cad models |
EP4280157A1 (en) * | 2022-05-17 | 2023-11-22 | Holo-Light GmbH | Extended reality (xr) object alignment method and xr projection system |
CN115294488B (zh) * | 2022-10-10 | 2023-01-24 | 江西财经大学 | 一种ar快速实物匹配显示方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018170512A1 (en) | 2017-03-17 | 2018-09-20 | Neurala, Inc. | Online, incremental real-time learning for tagging and labeling data streams for deep neural networks and neural network applications |
JP2020535509A (ja) | 2017-09-29 | 2020-12-03 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9031317B2 (en) * | 2012-09-18 | 2015-05-12 | Seiko Epson Corporation | Method and apparatus for improved training of object detecting system |
JP7002536B2 (ja) * | 2016-08-22 | 2022-01-20 | マジック リープ, インコーポレイテッド | 深層学習センサを有する拡張現実ディスプレイデバイス |
-
2018
- 2018-11-15 US US16/192,634 patent/US10854006B2/en active Active
-
2019
- 2019-10-23 JP JP2019192525A patent/JP7488435B2/ja active Active
- 2019-11-05 EP EP19207313.8A patent/EP3678101A3/en not_active Withdrawn
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018170512A1 (en) | 2017-03-17 | 2018-09-20 | Neurala, Inc. | Online, incremental real-time learning for tagging and labeling data streams for deep neural networks and neural network applications |
JP2020535509A (ja) | 2017-09-29 | 2020-12-03 | アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited | イメージ内のターゲットオブジェクトに自動的にアノテーションするための方法、装置およびシステム |
Non-Patent Citations (1)
Title |
---|
ALDOMA, Aitor et al.,Automation of "ground truth" annotation for multi-view RGB-D object instance recognition datasets,2014 IEEE/RSJ International Conference on Intelligent Robots and Systems,IEEE,2014年11月06日,pp.5016-5023,<URL:https://ieeexplore.ieee.org/document/6943275> |
Also Published As
Publication number | Publication date |
---|---|
EP3678101A3 (en) | 2020-10-07 |
JP2020087440A (ja) | 2020-06-04 |
EP3678101A2 (en) | 2020-07-08 |
US20200160601A1 (en) | 2020-05-21 |
US10854006B2 (en) | 2020-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7488435B2 (ja) | 位置合わせされたcadモデルを使用するar対応ラベル付け | |
Sahu et al. | Artificial intelligence (AI) in augmented reality (AR)-assisted manufacturing applications: a review | |
US11978243B2 (en) | System and method using augmented reality for efficient collection of training data for machine learning | |
CN109643368B (zh) | 检测视频数据中的对象 | |
US20210383096A1 (en) | Techniques for training machine learning | |
TWI700668B (zh) | 電腦實施的三維模型分析方法、電子裝置及非暫態電腦可讀取記錄媒體 | |
US10650609B2 (en) | Virtual prototyping and assembly validation | |
US11436755B2 (en) | Real-time pose estimation for unseen objects | |
Riegler et al. | Connecting the dots: Learning representations for active monocular depth estimation | |
US20230085384A1 (en) | Characterizing and improving of image processing | |
Elhayek et al. | Fully automatic multi-person human motion capture for vr applications | |
CA3240186A1 (en) | Interactive visualizations for industrial inspections | |
Hu et al. | AR-based deep learning for real-time inspection of cable brackets in aircraft | |
Park et al. | Self-training based augmented reality for robust 3D object registration and task assistance | |
Wientapper et al. | Composing the feature map retrieval process for robust and ready-to-use monocular tracking | |
CA2634933C (en) | Group tracking in motion capture | |
CN118071968B (zh) | 一种基于ar技术的智能交互深展示方法及系统 | |
US20200285247A1 (en) | Systems and methods for autonomous robot navigation | |
Vysocky et al. | Generating synthetic depth image dataset for industrial applications of hand localization | |
Fischer et al. | Evaluation of camera pose estimation using human head pose estimation | |
Funke et al. | A framework for evaluating visual slam | |
Okamoto et al. | Assembly assisted by augmented reality (A 3 R) | |
Szczuko | Simple gait parameterization and 3D animation for anonymous visual monitoring based on augmented reality | |
Károly et al. | Automatic generation and annotation of object segmentation datasets using robotic arm | |
Szczuko | Augmented reality for privacy-sensitive visual monitoring |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191030 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20191101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221019 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221019 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230911 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7488435 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |