JP7166459B2 - カメラ自己校正ネットワーク - Google Patents
カメラ自己校正ネットワーク Download PDFInfo
- Publication number
- JP7166459B2 JP7166459B2 JP2021530272A JP2021530272A JP7166459B2 JP 7166459 B2 JP7166459 B2 JP 7166459B2 JP 2021530272 A JP2021530272 A JP 2021530272A JP 2021530272 A JP2021530272 A JP 2021530272A JP 7166459 B2 JP7166459 B2 JP 7166459B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- image
- training
- calibration
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 claims description 44
- 238000000034 method Methods 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 10
- 230000002301 combined effect Effects 0.000 claims description 5
- 230000004807 localization Effects 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 5
- 238000012986 modification Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 claims 1
- 238000013527 convolutional neural network Methods 0.000 description 27
- 210000002569 neuron Anatomy 0.000 description 24
- 238000013528 artificial neural network Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 15
- 230000015654 memory Effects 0.000 description 12
- 210000002364 input neuron Anatomy 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 210000004205 output neuron Anatomy 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000035939 shock Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000007876 drug discovery Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/64—Analysis of geometric attributes of convexity or concavity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Description
本出願は、2019年1月18日に出願された米国仮特許出願第62/793,948号、2019年7月26日に出願された米国仮特許出願第62/878,819号、および2020年1月7日に出願された米国実用特許出願第16/736,451号の優先権を主張し、その全体が参照により本明細書に組み込まれる。
Claims (20)
- 少なくとも1つの実際の未校正画像を受信することと、
カメラ自己校正ネットワークを使用して、前記少なくとも1つの実際の未校正画像に対応する複数の予測カメラパラメータを推定することと、
前記少なくとも1つの実際の未校正画像および前記複数の予測カメラパラメータの少なくとも1つを使用して、少なくとも1つの校正画像を決定することと、
トレーニング段階中に、前記複数の予測カメラパラメータ間の依存順序を活用するための深層教師(deep supervision)を実施して、前記依存順序に従って複数の層にわたってカメラパラメータを予測し、該カメラパラメータが前記カメラ自己校正ネットワークをトレーニングするための教師信号として使用されることと、
を含む、カメラ自己校正のための方法。 - トレーニング段階中に、少なくとも1つのトレーニング校正画像と、前記少なくとも1つのトレーニング校正画像に対応する少なくとも1つのトレーニングカメラパラメータとを受信することと、
前記少なくとも1つのトレーニング校正画像と前記少なくとも1つのトレーニングカメラパラメータとを使用して、少なくとも1つの合成されたカメラパラメータと、前記少なくとも1つの合成されたカメラパラメータに対応する少なくとも1つの合成された未校正画像とを生成することと、をさらに含む、請求項1に記載の方法。 - 前記少なくとも1つの合成された未校正画像を入力データとして、前記少なくとも1つの合成されたカメラパラメータを監視信号として使用して、前記カメラ自己校正ネットワークをトレーニングすることを、さらに含む、請求項2に記載の方法。
- 前記少なくとも1つの予測カメラパラメータを推定することは、主点推定、焦点距離推定、および半径方向歪み推定の少なくとも1つを行うこと、を含む、請求項1に記載の方法。
- 前記深層教師を実施することは、
半径方向歪み推定と焦点距離推定との中間タスクとして主点推定に基づいて深層教師を実施すること、をさらに含み、主点推定のための学習された特徴が、半径方向歪み推定に使用され、画像外観が、半径方向歪みと焦点距離の合成効果に基づいて決定される、請求項1に記載の方法。 - 前記少なくとも1つの校正画像に基づいて校正されたビデオを決定することと、SLAM(simultaneous localization and mapping)に基づいて、前記校正されたビデオにおいて観察される、カメラの軌跡およびシーン構造を推定することと、をさらに含む、請求項1に記載の方法。
- 前記少なくとも1つの校正画像に基づいてSFM(structure from motion)を使用して、少なくとも1つのカメラポーズとシーン構造を推定すること、をさらに含む、請求項1に記載の方法。
- 前記少なくとも1つの実際の未校正画像および前記少なくとも1つの予測カメラパラメータを使用して前記少なくとも1つの校正画像を決定することは、
修正プロセスを介して前記少なくとも1つの実際の未校正画像と前記少なくとも1つの予測カメラパラメータとを処理して、前記少なくとも1つの校正画像を決定すること、をさらに含む、請求項1に記載の方法。 - 残差ネットワークをベースとし使用し、少なくとも1つの畳み込み層、および少なくとも1つのバッチ正規化層を追加して、前記カメラ自己校正ネットワークを実装すること、をさらに含む、請求項1に記載の方法。
- メモリデバイスに動作可能に結合されたプロセッサデバイスを有し、該プロセッサデバイスは、
少なくとも1つの実際の未校正画像を受信し、
カメラ自己校正ネットワークを使用して、前記少なくとも1つの実際の未校正画像に対応する複数の予測カメラパラメータを推定し、
前記少なくとも1つの実際の未校正画像と少なくとも1つの予測カメラパラメータを使用して、少なくとも1つの校正画像を決定し、
トレーニング段階中に、前記複数の予測カメラパラメータ間の依存順序を活用するための深層教師(deep supervision)を実施して、前記依存順序に従って複数の層にわたってカメラパラメータを予測し、該カメラパラメータが前記カメラ自己校正ネットワークをトレーニングするための教師信号として使用されるように構成されている、カメラ自己校正のためのコンピュータシステム。 - 前記プロセッサデバイスは、
トレーニング段階中に、少なくとも1つのトレーニング校正画像と、前記少なくとも1つのトレーニング校正画像に対応する少なくとも1つのトレーニングカメラパラメータとを受信し、
前記少なくとも1つのトレーニング校正画像と前記少なくとも1つのトレーニングカメラパラメータとを使用して、少なくとも1つの合成されたカメラパラメータと、前記少なくとも1つの合成されたカメラパラメータに対応する少なくとも1つの合成された未校正画像とを生成するように、さらに構成されている、請求項10に記載のシステム。 - 前記プロセッサデバイスは、前記少なくとも1つの合成された未校正画像を入力データとして、前記少なくとも1つの合成されたカメラパラメータを教師信号として使用して、前記カメラ自己校正ネットワークをトレーニングするようにさらに構成されている、請求項11に記載のシステムシステム。
- 前記少なくとも1つの予測カメラパラメータを推定する場合、前記プロセッサデバイスは、主点推定、焦点距離推定、半径方向歪み推定の少なくとも一つを行うように、さらに構成されている、請求項10に記載のシステム。
- 前記深層教師を実施する場合、前記プロセッサデバイスは、半径方向歪み推定と焦点距離推定との中間タスクとして主点推定に基づいて深層教師を実施するようにさらに構成され、主点推定のための学習された特徴が、半径方向歪み推定に使用され、画像外観が、半径方向歪みと焦点距離の合成効果に基づいて決定される、請求項10に記載のシステム。
- 前記プロセッサデバイスは、
前記少なくとも1つの校正画像に基づいて校正されたビデオを決定し、
SLAM(simultaneous localization and mapping)に基づいて、前記校正されたビデオにおいて観察される、カメラの軌跡およびシーン構造を推定するように、さらに構成されている、請求項10に記載のシステム。 - 前記プロセッサデバイスは、前記少なくとも1つの校正画像に基づいてSFM(structure from motion)を使用して、少なくとも1つのカメラポーズとシーン構造を推定するように、さらに構成されている、請求項10に記載のシステム。
- 前記少なくとも1つの実際の未校正画像および前記少なくとも1つの予測カメラパラメータを使用して前記少なくとも1つの校正画像を決定する場合、前記プロセッサデバイスは、修正プロセスを介して前記少なくとも1つの実際の未校正画像と前記少なくとも1つの予測カメラパラメータとを処理して、前記少なくとも1つの校正画像を決定するように、さらに構成されている、請求項10に記載のシステム。
- 前記プロセッサデバイスは、残差ネットワークをベースとして使用し、少なくとも1つの畳み込み層、および少なくとも1つのバッチ正規化層を追加して、前記カメラ自己校正ネットワークを実施するように、さらに構成されている、請求項10に記載のシステム。
- カメラ自己校正を実施するための方法をコンピューティングデバイスに実行させるためのプログラムであって、前記方法は、
少なくとも1つの実際の未校正画像を受信することと、
カメラ自己校正ネットワークを使用して、前記少なくとも1つの実際の未校正画像に対応する複数の予測カメラパラメータを推定することと、
前記少なくとも1つの実際の未校正画像および前記複数の予測カメラパラメータの少なくとも1つを使用して、少なくとも1つの校正画像を決定することと、
トレーニング段階中に、前記複数の予測カメラパラメータ間の依存順序を活用するための深層教師(deep supervision)を実施して、前記依存順序に従って複数の層にわたってカメラパラメータを予測し、該カメラパラメータが前記カメラ自己校正ネットワークをトレーニングするための教師信号として使用されることと、
を含むプログラム。 - 前記方法は、
トレーニング段階中に、少なくとも1つのトレーニング校正画像と、前記少なくとも1つのトレーニング校正画像に対応する少なくとも1つのトレーニングカメラパラメータとを受信することと、
前記少なくとも1つのトレーニング校正画像と前記少なくとも1つのトレーニングカメラパラメータとを使用して、少なくとも1つの合成されたカメラパラメータと、前記少なくとも1つの合成されたカメラパラメータに対応する少なくとも1つの合成された未校正画像とを生成することと、をさらに含む、請求項19に記載のプログラム。
Applications Claiming Priority (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962793948P | 2019-01-18 | 2019-01-18 | |
US62/793,948 | 2019-01-18 | ||
US201962878819P | 2019-07-26 | 2019-07-26 | |
US62/878,819 | 2019-07-26 | ||
US16/736,451 US20200234467A1 (en) | 2019-01-18 | 2020-01-07 | Camera self-calibration network |
US16/736,451 | 2020-01-07 | ||
PCT/US2020/013012 WO2020150077A1 (en) | 2019-01-18 | 2020-01-10 | Camera self-calibration network |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022510237A JP2022510237A (ja) | 2022-01-26 |
JP7166459B2 true JP7166459B2 (ja) | 2022-11-07 |
Family
ID=71609002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021530272A Active JP7166459B2 (ja) | 2019-01-18 | 2020-01-10 | カメラ自己校正ネットワーク |
Country Status (4)
Country | Link |
---|---|
US (1) | US20200234467A1 (ja) |
JP (1) | JP7166459B2 (ja) |
DE (1) | DE112020000448T5 (ja) |
WO (1) | WO2020150077A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102227583B1 (ko) * | 2018-08-03 | 2021-03-15 | 한국과학기술원 | 딥 러닝 기반의 카메라 캘리브레이션 방법 및 장치 |
CN112153357A (zh) * | 2019-06-28 | 2020-12-29 | 中强光电股份有限公司 | 投影系统及其投影方法 |
CN111507924B (zh) * | 2020-04-27 | 2023-09-29 | 北京百度网讯科技有限公司 | 视频帧的处理方法和装置 |
US20220408011A1 (en) * | 2021-06-18 | 2022-12-22 | Hewlett-Packard Development Company, L.P. | User characteristic-based display presentation |
KR20230092801A (ko) | 2021-12-17 | 2023-06-26 | 한국기계연구원 | 광학식 시차 생성을 이용한 단일 카메라 스테레오 비전의 3차원 형상 측정 방법 및 장치 |
US11562504B1 (en) | 2022-01-26 | 2023-01-24 | Goodsize Inc. | System, apparatus and method for predicting lens attribute |
CN114708507A (zh) * | 2022-04-13 | 2022-07-05 | 中国农业大学 | 一种动物热红外图像的处理方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014529389A (ja) | 2011-07-25 | 2014-11-06 | ウニベルシダデ デ コインブラ | 1つまたは複数のチェッカーボードパターンの画像を用いた自動カメラキャリブレーションの方法および装置 |
JP2017112602A (ja) | 2015-11-06 | 2017-06-22 | トッパノ カンパニ, リミテッド.Toppano Co., Ltd. | パノラマ魚眼カメラの画像較正、スティッチ、および深さ再構成方法、ならびにそのシステム |
US20180330521A1 (en) | 2017-05-09 | 2018-11-15 | Microsoft Technology Licensing, Llc | Calibration of stereo cameras and handheld object |
US20180336704A1 (en) | 2016-02-03 | 2018-11-22 | Sportlogiq Inc. | Systems and Methods for Automated Camera Calibration |
JP2018191275A (ja) | 2017-04-28 | 2018-11-29 | パナソニックIpマネジメント株式会社 | カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6599685B2 (ja) * | 2015-08-19 | 2019-10-30 | シャープ株式会社 | 画像処理装置および誤差判定方法 |
-
2020
- 2020-01-07 US US16/736,451 patent/US20200234467A1/en not_active Abandoned
- 2020-01-10 JP JP2021530272A patent/JP7166459B2/ja active Active
- 2020-01-10 WO PCT/US2020/013012 patent/WO2020150077A1/en active Application Filing
- 2020-01-10 DE DE112020000448.1T patent/DE112020000448T5/de active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014529389A (ja) | 2011-07-25 | 2014-11-06 | ウニベルシダデ デ コインブラ | 1つまたは複数のチェッカーボードパターンの画像を用いた自動カメラキャリブレーションの方法および装置 |
JP2017112602A (ja) | 2015-11-06 | 2017-06-22 | トッパノ カンパニ, リミテッド.Toppano Co., Ltd. | パノラマ魚眼カメラの画像較正、スティッチ、および深さ再構成方法、ならびにそのシステム |
US20180336704A1 (en) | 2016-02-03 | 2018-11-22 | Sportlogiq Inc. | Systems and Methods for Automated Camera Calibration |
JP2018191275A (ja) | 2017-04-28 | 2018-11-29 | パナソニックIpマネジメント株式会社 | カメラパラメタセット算出方法、カメラパラメタセット算出プログラム及びカメラパラメタセット算出装置 |
US20180330521A1 (en) | 2017-05-09 | 2018-11-15 | Microsoft Technology Licensing, Llc | Calibration of stereo cameras and handheld object |
Also Published As
Publication number | Publication date |
---|---|
JP2022510237A (ja) | 2022-01-26 |
US20200234467A1 (en) | 2020-07-23 |
WO2020150077A1 (en) | 2020-07-23 |
DE112020000448T5 (de) | 2021-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7166459B2 (ja) | カメラ自己校正ネットワーク | |
CN110033003B (zh) | 图像分割方法和图像处理装置 | |
US11645835B2 (en) | Hypercomplex deep learning methods, architectures, and apparatus for multimodal small, medium, and large-scale data representation, analysis, and applications | |
CN112446270B (zh) | 行人再识别网络的训练方法、行人再识别方法和装置 | |
Reed et al. | Deep visual analogy-making | |
KR20160034814A (ko) | 뉴럴 네트워크를 수반한 클라이언트 장치 및 그것을 포함하는 시스템 | |
Liu et al. | Learning steering kernels for guided depth completion | |
CN112529146B (zh) | 神经网络模型训练的方法和装置 | |
US11574198B2 (en) | Apparatus and method with neural network implementation of domain adaptation | |
CN113807183A (zh) | 模型训练方法及相关设备 | |
EP3945497A1 (en) | Method and apparatus with image depth estimation | |
CN114925320A (zh) | 一种数据处理方法及相关装置 | |
Cap et al. | Super-resolution for practical automated plant disease diagnosis system | |
CN116486233A (zh) | 一种多光谱双流网络的目标检测方法 | |
KR102236582B1 (ko) | 영상 처리 장치 및 그 동작방법 | |
CN110188621B (zh) | 一种基于ssf-il-cnn的三维人脸表情识别方法 | |
Ghosh et al. | Transsounder: A hybrid transunet-transfuse architectural framework for semantic segmentation of radar sounder data | |
US20230053618A1 (en) | Recurrent unit for generating or processing a sequence of images | |
CN114626500A (zh) | 一种神经网络计算方法及相关设备 | |
Deck et al. | Easing color shifts in score-based diffusion models | |
Hamamoto et al. | 3D Plant Growth Prediction via Image-to-Image Translation. | |
EP4083874A1 (en) | Image processing device and operating method therefor | |
US20230196651A1 (en) | Method and apparatus with rendering | |
CN113516670B (zh) | 一种反馈注意力增强的非模式图像分割方法及装置 | |
US20220058484A1 (en) | Method for training a neural network to deliver the viewpoints of objects using unlabeled pairs of images, and the corresponding system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210527 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221025 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7166459 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |