JP7389116B2 - 深層ニューラルネットワーク姿勢推定システム - Google Patents
深層ニューラルネットワーク姿勢推定システム Download PDFInfo
- Publication number
- JP7389116B2 JP7389116B2 JP2021525097A JP2021525097A JP7389116B2 JP 7389116 B2 JP7389116 B2 JP 7389116B2 JP 2021525097 A JP2021525097 A JP 2021525097A JP 2021525097 A JP2021525097 A JP 2021525097A JP 7389116 B2 JP7389116 B2 JP 7389116B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pose
- marker
- sub
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 49
- 238000000034 method Methods 0.000 claims description 110
- 239000003550 marker Substances 0.000 claims description 104
- 238000003384 imaging method Methods 0.000 claims description 40
- 230000003190 augmentative effect Effects 0.000 claims description 30
- 238000013527 convolutional neural network Methods 0.000 claims description 28
- 238000004422 calculation algorithm Methods 0.000 claims description 27
- 238000012549 training Methods 0.000 claims description 27
- 238000011176 pooling Methods 0.000 claims description 22
- 239000000758 substrate Substances 0.000 claims description 21
- 239000002131 composite material Substances 0.000 claims description 14
- 230000000694 effects Effects 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 description 33
- 238000012545 processing Methods 0.000 description 24
- 238000012360 testing method Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 17
- 210000003128 head Anatomy 0.000 description 14
- 238000011156 evaluation Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 238000010606 normalization Methods 0.000 description 11
- 238000005286 illumination Methods 0.000 description 9
- 230000009471 action Effects 0.000 description 7
- 230000004807 localization Effects 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000001994 activation Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4046—Scaling the whole image or part thereof using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/002—Image coding using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/17—Image acquisition using hand-held instruments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
- G06T2207/30208—Marker matrix
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Description
本願は、参照することによってその全体として本明細書に組み込まれる、2018年11月15日に出願され、「MARK DETECTION IN VARIABLE LIGHTING」と題された、米国特許出願第62/767,902号の優先権の利益を主張する。
(項目1)
システムであって、
ウェアラブルヘッドセットおよびハンドヘルドコントローラを含む複合現実デバイスと、
ハードウェアコンピュータプロセッサと、
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、その上に記憶されたソフトウェア命令を有しており、前記ソフトウェア命令は、前記システムに動作を実施させるように、前記ハードウェアコンピュータプロセッサによって実行可能であり、前記動作は、
結像デバイスから、基板上に複数の基準マーカを含む画像にアクセスすることと、
多段階のエンコーディングを前記画像に適用し、低減された次元を伴うエンコーディングされた画像を生成することと、
第1のニューラルネットワークを前記エンコーディングされた画像に適用し、前記エンコーディングされた画像内の基準マーカの2次元場所を決定することと、
第2のニューラルネットワークを前記エンコーディングされた画像に適用し、前記エンコーディングされた画像内で検出された個別の基準マーカと関連付けられる識別子を決定することと、
少なくとも、前記基準マーカの決定された2次元場所および前記基準マーカの決定された識別子に基づいて、前記結像デバイスの姿勢を決定することと
を含む、非一過性コンピュータ可読媒体と
を備える、システム。
(項目2)
前記結像デバイスの姿勢は、n点透視アルゴリズムの適用に基づいて決定される、項目1に記載のシステム。
(項目3)
前記姿勢はさらに、前記結像デバイスの1つ以上の固有のパラメータに基づいて決定される、項目1に記載のシステム。
(項目4)
前記動作はさらに、
前記第1のニューラルネットワークから、前記エンコーディングされた画像の第1の複数の画像パッチを出力することと、
前記第1の複数の画像の各々に対し、サブピクセル位置特定アルゴリズムの適用に基づいて、対応する複数のサブピクセルコーナーを決定することと
を含む、項目1に記載のシステム。
(項目5)
前記サブピクセルコーナーは、前記エンコーディングされた画像の分解能の倍数における場所を示す、項目4に記載のシステム。
(項目6)
前記結像デバイスの姿勢を決定することはさらに、前記決定されたサブピクセルコーナーに基づく、項目4に記載のシステム。
(項目7)
前記基準マーカは、ChArUcoマーカである、項目1に記載のシステム。
(項目8)
前記多段階のエンコーディングは、1つ以上の最大プーリング層を含む、項目1に記載のシステム。
(項目9)
前記画像の空間次元は、前記エンコーディングされた画像内で8分の1に低減される、項目8に記載のシステム。
(項目10)
画像パッチの量は、前記画像内の基準マーカの最大量に基づく、項目1に記載のシステム。
(項目11)
前記結像デバイスは、ウェアラブル拡張現実ヘッドセットのカメラを備える、項目1に記載のシステム。
(項目12)
前記ウェアラブル拡張現実ヘッドセットによって表示される仮想コンテンツは、少なくとも部分的に、前記結像デバイスの決定された姿勢に基づいて決定される、項目11に記載のシステム。
(項目13)
前記エンコーディングされた画像内の基準マーカの2次元場所は、前記基板上の複数の基準マーカ場所の各々に対し、複数の基準マーカの各々が前記基準マーカ場所にある確率を含む、項目1に記載のシステム。
(項目14)
前記複数の基準マーカ場所の各々は、各々が前記基板と関連付けられるエンコーディングされた画像の異なる部分である、項目13に記載のシステム。
(項目15)
前記エンコーディングされた画像内の基準マーカと関連付けられる決定された識別子は、前記基板上の複数の基準マーカ場所の各々に対し、複数の識別子の各々が前記基準マーカ場所においてエンコーディングされる確率を含む、項目1に記載のシステム。
(項目16)
カメラの決定された姿勢のためのシステムであって、前記システムは、
エンコーダであって、前記エンコーダは、拡張現実ヘッドセットから入手された画像の空間ダウンサンプリングを実施するように構成される、エンコーダと、
2ヘッド畳み込みニューラルネットワークであって、
第1のヘッドであって、前記第1のヘッドは、前記ダウンサンプリングされた画像内の基準ボードの2次元場所を検出するように構成される、第1のヘッドと、
第2のヘッドであって、前記第2のヘッドは、前記ダウンサンプリングされた画像内の基準ボードの検出された2次元場所においてエンコーディングされた識別子を決定するように構成される、第2のヘッドと
を含む、2ヘッド畳み込みニューラルネットワークと、
サブピクセル精緻化コンポーネントであって、前記サブピクセル精緻化コンポーネントは、入力として、前記ダウンサンプリングされた画像の画像パッチをとり、各画像パッチに対し、サブピクセルコーナー場所を出力するように構成される、サブピクセル精緻化コンポーネントと、
姿勢推定コンポーネントであって、前記姿勢推定コンポーネントは、少なくとも前記検出された2次元場所および前記サブピクセルコーナー場所に基づいて、拡張現実ヘッドセットの姿勢を決定するように構成される、姿勢推定コンポーネントと
を備える、システム。
(項目17)
前記空間ダウンサンプリングは、1つ以上のプーリング層を含む、項目16に記載のシステム。
(項目18)
複数のビデオシーケンスに基づいて、前記2ヘッド畳み込みニューラルネットワークを訓練するように構成される訓練コンポーネントをさらに備え、前記ビデオシーケンスの各フレームは、合成歪曲を受ける、項目16に記載のシステム。
(項目19)
前記合成歪曲は、ランダムに選択され、複数の合成歪曲の各々の所望の割合を達成する、項目18に記載のシステム。
(項目20)
前記合成歪曲は、
追加ガウス雑音、
モーションブラー、
ガウスぼかし、
スペックル雑音、
明度再スケーリング、
陰影またはスポットライト効果、または
ホモグラフィ変換
のうちの1つ以上のものを含む、項目19に記載のシステム。
(項目21)
前記訓練コンポーネントはさらに、各々が中心部分内に1つのグラウンドトゥルースコーナーを伴う複数の画像に基づいて、前記姿勢推定コンポーネントを訓練するように構成される、項目18に記載のシステム。
(項目22)
前記画像の中心部分は、前記画像のピクセルの50パーセント未満である、項目21に記載のシステム。
(項目23)
コンピュータ化された方法であって、前記コンピュータ化された方法は、コンピューティングシステムによって実施され、前記コンピューティングシステムは、1つ以上のハードウェアコンピュータプロセッサと、1つ以上の非一過性コンピュータ可読記憶デバイスとを有し、前記1つ以上の非一過性コンピュータ可読記憶デバイスは、前記コンピュータ化された方法を実施するためにコンピューティングシステムによって実行可能なソフトウェア命令を記憶しており、前記コンピュータ化された方法は、
結像デバイスから、基板上に複数の基準マーカを含む画像にアクセスすることと、
多段階のエンコーディングを前記画像に適用し、低減された次元を伴うエンコーディングされた画像を生成することと、
第1のニューラルネットワークを前記エンコーディングされた画像に適用し、前記エンコーディングされた画像内の基準マーカの2次元場所を決定することと、
第2のニューラルネットワークを前記エンコーディングされた画像に適用し、前記エンコーディングされた画像内で検出された個別の基準マーカと関連付けられる識別子を決定することと、
少なくとも、前記基準マーカの決定された2次元場所および前記基準マーカの決定された識別子に基づいて、前記結像デバイスの姿勢を決定することと
を含む、方法。
(項目24)
前記結像デバイスの姿勢は、n点透視アルゴリズムの適用に基づいて決定される、項目23に記載の方法。
(項目25)
前記姿勢はさらに、前記結像デバイスの1つ以上の固有のパラメータに基づいて決定される、項目23に記載の方法。
(項目26)
前記第1のニューラルネットワークから、前記エンコーディングされた画像の第1の複数の画像パッチを出力することと、
前記第1の複数の画像の各々に対し、サブピクセル位置特定アルゴリズムの適用に基づいて、対応する複数のサブピクセルコーナーを決定することと
をさらに含む、項目23に記載の方法。
(項目27)
前記サブピクセルコーナーは、前記エンコーディングされた画像の分解能の倍数における場所を示す、項目26に記載の方法。
(項目28)
前記結像デバイスの姿勢を決定することはさらに、前記決定されたサブピクセルコーナーに基づく、項目23に記載の方法。
(項目29)
前記基準マーカは、ChArUcoマーカである、項目23に記載の方法。
(項目30)
前記多段階のエンコーディングは、1つ以上の最大プーリング層を含む、項目23に記載の方法。
(項目31)
前記画像の空間次元は、前記エンコーディングされた画像内で8分の1に低減される、項目30に記載の方法。
(項目32)
画像パッチの量は、前記画像内の基準マーカの最大量に基づく、項目23に記載の方法。
(項目33)
前記結像デバイスは、ウェアラブル拡張現実ヘッドセットのカメラを備える、項目23に記載の方法。
(項目34)
前記ウェアラブル拡張現実ヘッドセットによって表示される仮想コンテンツは、少なくとも部分的に、前記結像デバイスの決定された姿勢に基づいて決定される、項目33に記載の方法。
(項目35)
前記エンコーディングされた画像内の基準マーカの2次元場所は、前記基板上の複数の基準マーカ場所の各々に対し、複数の基準マーカの各々が前記基準マーカ場所にある確率を含む、項目23に記載の方法。
(項目36)
前記複数の基準マーカ場所の各々は、各々が前記基板と関連付けられるエンコーディングされた画像の異なる部分である、項目35に記載の方法。
(項目37)
前記エンコーディングされた画像内の基準マーカと関連付けられる決定された識別子は、前記基板上の複数の基準マーカ場所の各々に対し、複数の識別子の各々が前記基準マーカ場所においてエンコーディングされる確率を含む、項目23に記載の方法。
(項目38)
コンピュータ化された方法であって、前記コンピュータ化された方法は、コンピューティングシステムによって実施され、前記コンピューティングシステムは、1つ以上のハードウェアコンピュータプロセッサと、1つ以上の非一過性コンピュータ可読記憶デバイスとを有し、前記1つ以上の非一過性コンピュータ可読記憶デバイスは、前記コンピュータ化された方法を実施するためにコンピューティングシステムによって実行可能なソフトウェア命令を記憶しており、前記コンピュータ化された方法は、
拡張現実ヘッドセットから入手された画像の空間ダウンサンプリングを実施することと、
前記ダウンサンプリングされた画像内の基準ボードの2次元場所を検出することと、
前記ダウンサンプリングされた画像内の基準ボードの検出された2次元場所においてエンコーディングされた識別子を決定することと、
入力として、前記ダウンサンプリングされた画像の画像パッチをとり、各画像パッチに対し、サブピクセルコーナー場所を出力することと、
少なくとも、前記検出された2次元場所および前記サブピクセルコーナー場所に基づいて、前記拡張現実ヘッドセットの姿勢を決定することと
を含む、方法。
(項目39)
前記空間ダウンサンプリングは、1つ以上のプーリング層を含む、項目38に記載の方法。
(項目40)
複数のビデオシーケンスに基づいて、2ヘッド畳み込みニューラルネットワークを訓練することをさらに含み、前記ビデオシーケンスの各フレームは、合成歪曲を受ける、項目38に記載の方法。
(項目41)
前記合成歪曲は、ランダムに選択され、複数の合成歪曲の各々の所望の割合を達成する、項目40に記載の方法。
(項目42)
前記合成歪曲は、
追加ガウス雑音、
モーションブラー、
ガウスぼかし、
スペックル雑音、
明度再スケーリング、
陰影またはスポットライト効果、または
ホモグラフィ変換
のうちの1つ以上のものを含む、項目41に記載の方法。
(項目43)
各々が中心部分内に1つのグラウンドトゥルースコーナーを伴う複数の画像に基づいて、前記姿勢推定コンポーネントを訓練することをさらに含む、項目40に記載の方法。
(項目44)
前記画像の中心部分は、前記画像のピクセルの50パーセント未満である、項目43に記載の方法。
本明細書に説明される主題の1つ以上の実装の詳細が、付随の図面および以下の説明に記載される。他の特徴、側面、および利点は、説明、図面、および請求項から明白となるであろう。本概要または以下の詳細な説明のいずれも、本発明の主題の範囲を定義または限定することを主張するものではない。
ChArUcoボード等の光学基準は、コンピュータビジョンおよび拡張現実におけるカメラ較正、姿勢推定、および照合のために使用される。本明細書に説明されるものは、画像内の光学基準の姿勢推定を提供する、n点透視(PnP)アルゴリズムと組み合わせられる、2ヘッド深層ニューラルネットワークを含む、リアルタイム姿勢推定システムである。第1のニューラルネットワークは、畳み込みエンコーダと、ID特有の分類子および2D点場所を出力する、2ヘッドマーカ特有畳み込みニューラルネットワーク(CNN)とを含む。サブピクセル精緻化が、次いで、2D点場所をサブピクセル座標に精緻化する。最後に、姿勢推定システムアルゴリズムが、入力画像内のマーカ姿勢を決定する。有利なこととして、深層ニューラルネットワークは、低光量、高運動、および/または高ぼけシナリオにおいて良好に機能する。
(用語)
(例示的ニューラルネットワーク)
(例示的実施形態の概要)
・例えば、極限照明および運動条件下でのChArUcoパターン検出のロバスト性および正確度を改良する、リアルタイムマーカ検出器。
・例えば、点ID分類(例えば、2HCNN102)およびサブピクセル精緻化(例えば、サブピクセル精緻化103)のための2つのニューラルネットワークアーキテクチャ。
・例えば、自動標識化画像および合成データ生成を伴う、訓練データセット収集レシピ。
(オブジェクト検出のための深層ネットワーク)
(特徴点推定のための深層ネットワーク)
(特徴点検出のための例示的深層ネットワーク)
(例示的深層ニューラルネットワーク(「深層ChArUco」):ChArUco検出および姿勢推定のためのシステム)
(例示的2ヘッドニューラルネットワークアーキテクチャ)
(例示的サブピクセル精緻化ネットワークアーキテクチャ)
(例示的姿勢推定)
(例示的訓練データセット)
(例示的訓練データ)
(例示的データ拡張)
(例示的評価データ)
・照明明度(10個の異なる照明構成を伴う20個のビデオ)
・陰影/スポットライト(3つのビデオ)
・モーションブラー(3つのビデオ)
(例示的評価および結果)
(例示的コーナー検出正確度(場所およびID分類子の組み合わせられた正確度))
(実際のシーケンス上での例示的評価)
(例示的DNNタイミング実験)
・2HCNN+サブピクセル精緻化(例えば、RefineNet):本構成は、モーションブラー、低光量、および大結像雑音のような困難な条件下、改良された正確度を提供し得るが、最長後処理時間を伴う。
・2HCNN+cornerSubPix(例えば、コーナーのサブピクセル単位の正確な場所を微細化する、OpenCV関数):殆ど結像雑音を伴わない良好な照明環境における同等の正確度のために、本構成は、中程度の後処理時間を伴って推奨される。
・2HCNN+精緻化なし:本構成は、ChArUcoパターンの大まかな姿勢のみが、要求されるとき、特に、cornerSubPixが失敗するであろう、非常に雑音の多い環境において好ましい。処理時間は、したがって、画像が1つの2HCNNのみを通して通過するため、最短である。
(例示的AR実装)
(例示的実装)
(付加的考慮点)
Claims (44)
- システムであって、
ウェアラブルヘッドセットおよびハンドヘルドコントローラを含む複合現実デバイスと、
ハードウェアコンピュータプロセッサと、
非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、その上に記憶されたソフトウェア命令を有しており、前記ソフトウェア命令は、前記システムに動作を実施させるように、前記ハードウェアコンピュータプロセッサによって実行可能であり、前記動作は、
結像デバイスから、基板上に複数の基準マーカを含む画像にアクセスすることと、
多段階のエンコーディングを前記画像に適用し、低減された次元を伴うエンコーディングされた画像を生成することと、
第1のニューラルネットワークを前記エンコーディングされた画像に適用し、前記エンコーディングされた画像内の基準マーカの2次元場所を決定することと、
第2のニューラルネットワークを前記エンコーディングされた画像に適用し、前記エンコーディングされた画像内で検出された個別の基準マーカと関連付けられる識別子を決定することと、
少なくとも、前記基準マーカの決定された2次元場所および前記基準マーカの決定された識別子に基づいて、前記結像デバイスの姿勢を決定することと
を含む、非一過性コンピュータ可読媒体と
を備える、システム。 - 前記結像デバイスの姿勢は、n点透視アルゴリズムの適用に基づいて決定される、請求項1に記載のシステム。
- 前記姿勢はさらに、前記結像デバイスの1つ以上の固有のパラメータに基づいて決定される、請求項1に記載のシステム。
- 前記動作はさらに、
前記第1のニューラルネットワークから、前記エンコーディングされた画像の第1の複数の画像パッチを出力することと、
前記第1の複数の画像パッチの各々に対し、サブピクセル位置特定アルゴリズムの適用に基づいて、対応する複数のサブピクセルコーナーを決定することと
を含む、請求項1に記載のシステム。 - 前記サブピクセルコーナーは、前記エンコーディングされた画像の分解能の倍数における場所を示す、請求項4に記載のシステム。
- 前記結像デバイスの姿勢を決定することはさらに、前記決定されたサブピクセルコーナーに基づく、請求項4に記載のシステム。
- 前記基準マーカは、ChArUcoマーカである、請求項1に記載のシステム。
- 前記多段階のエンコーディングは、1つ以上の最大プーリング層を含む、請求項1に記載のシステム。
- 前記画像の空間次元は、前記エンコーディングされた画像内で8分の1に低減される、請求項8に記載のシステム。
- 画像パッチの量は、前記画像内の基準マーカの最大量に基づく、請求項1に記載のシステム。
- 前記結像デバイスは、ウェアラブル拡張現実ヘッドセットのカメラを備える、請求項1に記載のシステム。
- 前記ウェアラブル拡張現実ヘッドセットによって表示される仮想コンテンツは、少なくとも部分的に、前記結像デバイスの決定された姿勢に基づいて決定される、請求項11に記載のシステム。
- 前記エンコーディングされた画像内の基準マーカの2次元場所は、前記基板上の複数の基準マーカ場所の各々に対し、複数の基準マーカの各々が前記基準マーカ場所にある確率を含む、請求項1に記載のシステム。
- 前記複数の基準マーカ場所の各々は、各々が前記基板と関連付けられるエンコーディングされた画像の異なる部分である、請求項13に記載のシステム。
- 前記エンコーディングされた画像内の基準マーカと関連付けられる決定された識別子は、前記基板上の複数の基準マーカ場所の各々に対し、複数の識別子の各々が前記基準マーカ場所においてエンコーディングされる確率を含む、請求項1に記載のシステム。
- カメラの決定された姿勢のためのシステムであって、前記システムは、
エンコーダであって、前記エンコーダは、拡張現実ヘッドセットから入手された画像の空間ダウンサンプリングを実施するように構成される、エンコーダと、
2ヘッド畳み込みニューラルネットワークであって、
第1のヘッドであって、前記第1のヘッドは、前記ダウンサンプリングされた画像内の基準ボードの2次元場所を検出するように構成される、第1のヘッドと、
第2のヘッドであって、前記第2のヘッドは、前記ダウンサンプリングされた画像内の基準ボードの検出された2次元場所においてエンコーディングされた識別子を決定するように構成される、第2のヘッドと
を含む、2ヘッド畳み込みニューラルネットワークと、
サブピクセル精緻化コンポーネントであって、前記サブピクセル精緻化コンポーネントは、入力として、前記ダウンサンプリングされた画像の画像パッチをとり、各画像パッチに対し、サブピクセルコーナー場所を出力するように構成される、サブピクセル精緻化コンポーネントと、
姿勢推定コンポーネントであって、前記姿勢推定コンポーネントは、少なくとも前記検出された2次元場所および前記サブピクセルコーナー場所に基づいて、前記拡張現実ヘッドセットの姿勢を決定するように構成される、姿勢推定コンポーネントと
を備える、システム。 - 前記空間ダウンサンプリングは、1つ以上のプーリング層を含む、請求項16に記載のシステム。
- 複数のビデオシーケンスに基づいて、前記2ヘッド畳み込みニューラルネットワークを訓練するように構成される訓練コンポーネントをさらに備え、前記ビデオシーケンスの各フレームは、合成歪曲を受ける、請求項16に記載のシステム。
- 前記合成歪曲は、ランダムに選択され、複数の合成歪曲の各々の所望の割合を達成する、請求項18に記載のシステム。
- 前記合成歪曲は、
追加ガウス雑音、
モーションブラー、
ガウスぼかし、
スペックル雑音、
明度再スケーリング、
陰影またはスポットライト効果、または
ホモグラフィ変換
のうちの1つ以上のものを含む、請求項19に記載のシステム。 - 前記訓練コンポーネントはさらに、各々が中心部分内に1つのグラウンドトゥルースコーナーを伴う複数の画像に基づいて、前記姿勢推定コンポーネントを訓練するように構成される、請求項18に記載のシステム。
- 前記画像の中心部分は、前記画像のピクセルの50パーセント未満である、請求項21に記載のシステム。
- コンピュータ化された方法であって、前記コンピュータ化された方法は、コンピューティングシステムによって実施され、前記コンピューティングシステムは、1つ以上のハードウェアコンピュータプロセッサと、1つ以上の非一過性コンピュータ可読記憶デバイスとを有し、前記1つ以上の非一過性コンピュータ可読記憶デバイスは、前記コンピュータ化された方法を実施するために前記コンピューティングシステムによって実行可能なソフトウェア命令を記憶しており、前記コンピュータ化された方法は、
結像デバイスから、基板上に複数の基準マーカを含む画像にアクセスすることと、
多段階のエンコーディングを前記画像に適用し、低減された次元を伴うエンコーディングされた画像を生成することと、
第1のニューラルネットワークを前記エンコーディングされた画像に適用し、前記エンコーディングされた画像内の基準マーカの2次元場所を決定することと、
第2のニューラルネットワークを前記エンコーディングされた画像に適用し、前記エンコーディングされた画像内で検出された個別の基準マーカと関連付けられる識別子を決定することと、
少なくとも、前記基準マーカの決定された2次元場所および前記基準マーカの決定された識別子に基づいて、前記結像デバイスの姿勢を決定することと
を含む、方法。 - 前記結像デバイスの姿勢は、n点透視アルゴリズムの適用に基づいて決定される、請求項23に記載の方法。
- 前記姿勢はさらに、前記結像デバイスの1つ以上の固有のパラメータに基づいて決定される、請求項23に記載の方法。
- 前記第1のニューラルネットワークから、前記エンコーディングされた画像の第1の複数の画像パッチを出力することと、
前記第1の複数の画像パッチの各々に対し、サブピクセル位置特定アルゴリズムの適用に基づいて、対応する複数のサブピクセルコーナーを決定することと
をさらに含む、請求項23に記載の方法。 - 前記サブピクセルコーナーは、前記エンコーディングされた画像の分解能の倍数における場所を示す、請求項26に記載の方法。
- 前記結像デバイスの姿勢を決定することはさらに、前記決定されたサブピクセルコーナーに基づく、請求項26に記載の方法。
- 前記基準マーカは、ChArUcoマーカである、請求項23に記載の方法。
- 前記多段階のエンコーディングは、1つ以上の最大プーリング層を含む、請求項23に記載の方法。
- 前記画像の空間次元は、前記エンコーディングされた画像内で8分の1に低減される、請求項30に記載の方法。
- 画像パッチの量は、前記画像内の基準マーカの最大量に基づく、請求項23に記載の方法。
- 前記結像デバイスは、ウェアラブル拡張現実ヘッドセットのカメラを備える、請求項23に記載の方法。
- 前記ウェアラブル拡張現実ヘッドセットによって表示される仮想コンテンツは、少なくとも部分的に、前記結像デバイスの決定された姿勢に基づいて決定される、請求項33に記載の方法。
- 前記エンコーディングされた画像内の基準マーカの2次元場所は、前記基板上の複数の基準マーカ場所の各々に対し、複数の基準マーカの各々が前記基準マーカ場所にある確率を含む、請求項23に記載の方法。
- 前記複数の基準マーカ場所の各々は、各々が前記基板と関連付けられるエンコーディングされた画像の異なる部分である、請求項35に記載の方法。
- 前記エンコーディングされた画像内の基準マーカと関連付けられる決定された識別子は、前記基板上の複数の基準マーカ場所の各々に対し、複数の識別子の各々が前記基準マーカ場所においてエンコーディングされる確率を含む、請求項23に記載の方法。
- コンピュータ化された方法であって、前記コンピュータ化された方法は、コンピューティングシステムによって実施され、前記コンピューティングシステムは、1つ以上のハードウェアコンピュータプロセッサと、1つ以上の非一過性コンピュータ可読記憶デバイスとを有し、前記1つ以上の非一過性コンピュータ可読記憶デバイスは、前記コンピュータ化された方法を実施するために前記コンピューティングシステムによって実行可能なソフトウェア命令を記憶しており、前記コンピュータ化された方法は、
拡張現実ヘッドセットから入手された画像の空間ダウンサンプリングを実施することと、
前記ダウンサンプリングされた画像内の基準ボードの2次元場所を検出することと、
前記ダウンサンプリングされた画像内の基準ボードの検出された2次元場所においてエンコーディングされた識別子を決定することと、
入力として、前記ダウンサンプリングされた画像の画像パッチをとり、各画像パッチに対し、サブピクセルコーナー場所を出力することと、
少なくとも、前記検出された2次元場所および前記サブピクセルコーナー場所に基づいて、前記拡張現実ヘッドセットの姿勢を決定することと
を含む、方法。 - 前記空間ダウンサンプリングは、1つ以上のプーリング層を含む、請求項38に記載の方法。
- 複数のビデオシーケンスに基づいて、2ヘッド畳み込みニューラルネットワークを訓練することをさらに含み、前記ビデオシーケンスの各フレームは、合成歪曲を受ける、請求項38に記載の方法。
- 前記合成歪曲は、ランダムに選択され、複数の合成歪曲の各々の所望の割合を達成する、請求項40に記載の方法。
- 前記合成歪曲は、
追加ガウス雑音、
モーションブラー、
ガウスぼかし、
スペックル雑音、
明度再スケーリング、
陰影またはスポットライト効果、または
ホモグラフィ変換
のうちの1つ以上のものを含む、請求項41に記載の方法。 - 前記拡張現実ヘッドセットの姿勢を決定することは、姿勢推定コンポーネントによって実施され、前記方法は、
各々が中心部分内に1つのグラウンドトゥルースコーナーを伴う複数の画像に基づいて、前記姿勢推定コンポーネントを訓練することをさらに含む、請求項40に記載の方法。 - 前記画像の中心部分は、前記画像のピクセルの50パーセント未満である、請求項43に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862767902P | 2018-11-15 | 2018-11-15 | |
US62/767,902 | 2018-11-15 | ||
PCT/US2019/061502 WO2020102554A1 (en) | 2018-11-15 | 2019-11-14 | Deep neural network pose estimation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022508072A JP2022508072A (ja) | 2022-01-19 |
JP7389116B2 true JP7389116B2 (ja) | 2023-11-29 |
Family
ID=70730654
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021525097A Active JP7389116B2 (ja) | 2018-11-15 | 2019-11-14 | 深層ニューラルネットワーク姿勢推定システム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11893789B2 (ja) |
EP (1) | EP3881232A4 (ja) |
JP (1) | JP7389116B2 (ja) |
CN (1) | CN113272821A (ja) |
WO (1) | WO2020102554A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020102554A1 (en) | 2018-11-15 | 2020-05-22 | Magic Leap, Inc. | Deep neural network pose estimation system |
US20210398314A1 (en) * | 2020-06-17 | 2021-12-23 | Qualcomm Incorporated | Low power visual tracking systems |
CN111714080B (zh) * | 2020-06-30 | 2021-03-23 | 重庆大学 | 一种基于眼动信息的疾病分类系统 |
CN111970535B (zh) * | 2020-09-25 | 2021-08-31 | 魔珐(上海)信息科技有限公司 | 虚拟直播方法、装置、系统及存储介质 |
US11600015B2 (en) * | 2021-01-29 | 2023-03-07 | Microsoft Technology Licensing, Llc | Fiducial web for computer vision |
CN113343355B (zh) * | 2021-06-08 | 2022-10-18 | 四川大学 | 基于深度学习的飞机蒙皮型面检测路径规划方法 |
CN117036663A (zh) * | 2022-04-18 | 2023-11-10 | 荣耀终端有限公司 | 视觉定位方法、设备和存储介质 |
CN115661247A (zh) * | 2022-10-28 | 2023-01-31 | 南方电网电力科技股份有限公司 | 一种实时6DoF算法精度测量方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005293141A (ja) | 2004-03-31 | 2005-10-20 | Canon Inc | マーカ検出方法及び装置並びに位置姿勢推定方法 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
JP6185844B2 (ja) | 2010-12-24 | 2017-08-30 | マジック リープ, インコーポレイテッド | 人間工学的ヘッドマウントディスプレイデバイスおよび光学システム |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
CN103635891B (zh) | 2011-05-06 | 2017-10-27 | 奇跃公司 | 大量同时远程数字呈现世界 |
EP2760363A4 (en) | 2011-09-29 | 2015-06-24 | Magic Leap Inc | TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION |
BR112014010230A8 (pt) | 2011-10-28 | 2017-06-20 | Magic Leap Inc | sistema e método para realidade virtual e aumentada |
WO2013152205A1 (en) | 2012-04-05 | 2013-10-10 | Augmented Vision Inc. | Wide-field of view (fov) imaging devices with active foveation capability |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
EP2895910A4 (en) | 2012-09-11 | 2016-04-20 | Magic Leap Inc | ERGONOMIC HEAD-MOUNTED DISPLAY DEVICE AND OPTICAL SYSTEM |
NZ751602A (en) | 2013-03-15 | 2020-01-31 | Magic Leap Inc | Display system and method |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10533850B2 (en) | 2013-07-12 | 2020-01-14 | Magic Leap, Inc. | Method and system for inserting recognized object data into a virtual world |
EP3058418B1 (en) | 2013-10-16 | 2023-10-04 | Magic Leap, Inc. | Virtual or augmented reality headsets having adjustable interpupillary distance |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
KR102268462B1 (ko) | 2013-11-27 | 2021-06-22 | 매직 립, 인코포레이티드 | 가상 및 증강 현실 시스템들 및 방법들 |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US20150324568A1 (en) | 2014-05-09 | 2015-11-12 | Eyefluence, Inc. | Systems and methods for using eye signals with secure mobile communications |
US20210186355A1 (en) * | 2014-11-30 | 2021-06-24 | Elbit Systems Ltd. | Model registration system and method |
US10504230B1 (en) * | 2014-12-19 | 2019-12-10 | Amazon Technologies, Inc. | Machine vision calibration system with marker |
US10303977B2 (en) | 2016-06-28 | 2019-05-28 | Conduent Business Services, Llc | System and method for expanding and training convolutional neural networks for large size input images |
CN109416744B (zh) | 2016-06-28 | 2023-12-15 | 奇跃公司 | 改进的相机校准系统、目标和过程 |
JP6854344B2 (ja) | 2016-11-15 | 2021-04-07 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 直方体検出のための深層機械学習システム |
CN112088070A (zh) * | 2017-07-25 | 2020-12-15 | M·奥利尼克 | 用于操作机器人系统并执行机器人交互的系统及方法 |
US10521927B2 (en) * | 2017-08-15 | 2019-12-31 | Siemens Healthcare Gmbh | Internal body marker prediction from surface data in medical imaging |
US10593101B1 (en) * | 2017-11-01 | 2020-03-17 | Facebook Technologies, Llc | Marker based tracking |
EP3509013A1 (en) * | 2018-01-04 | 2019-07-10 | Holo Surgical Inc. | Identification of a predefined object in a set of images from a medical image scanner during a surgical procedure |
US11707955B2 (en) * | 2018-02-21 | 2023-07-25 | Outrider Technologies, Inc. | Systems and methods for automated operation and handling of autonomous trucks and trailers hauled thereby |
JP2021514695A (ja) * | 2018-02-27 | 2021-06-17 | バタフライ ネットワーク,インコーポレイテッド | 遠隔医療のための方法及び装置 |
WO2019169455A1 (en) * | 2018-03-08 | 2019-09-12 | Nguyen Doan Trang | Method and system for guided radiation therapy |
US10719953B1 (en) * | 2018-03-27 | 2020-07-21 | Facebook Technologies, Llc | Passive object tracking using camera |
US11136022B2 (en) * | 2018-05-29 | 2021-10-05 | Hitachi Automotive Systems, Ltd. | Road marker detection method |
WO2020102554A1 (en) | 2018-11-15 | 2020-05-22 | Magic Leap, Inc. | Deep neural network pose estimation system |
-
2019
- 2019-11-14 WO PCT/US2019/061502 patent/WO2020102554A1/en unknown
- 2019-11-14 EP EP19883465.7A patent/EP3881232A4/en active Pending
- 2019-11-14 JP JP2021525097A patent/JP7389116B2/ja active Active
- 2019-11-14 US US17/288,877 patent/US11893789B2/en active Active
- 2019-11-14 CN CN201980087309.XA patent/CN113272821A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005293141A (ja) | 2004-03-31 | 2005-10-20 | Canon Inc | マーカ検出方法及び装置並びに位置姿勢推定方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3881232A1 (en) | 2021-09-22 |
US11893789B2 (en) | 2024-02-06 |
JP2022508072A (ja) | 2022-01-19 |
EP3881232A4 (en) | 2022-08-10 |
WO2020102554A1 (en) | 2020-05-22 |
US20210350566A1 (en) | 2021-11-11 |
CN113272821A (zh) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7389116B2 (ja) | 深層ニューラルネットワーク姿勢推定システム | |
Jung et al. | Unsupervised deep image fusion with structure tensor representations | |
US20210350168A1 (en) | Image segmentation method and image processing apparatus | |
Hu et al. | Deep charuco: Dark charuco marker pose estimation | |
CN110998659B (zh) | 图像处理系统、图像处理方法、及程序 | |
JP2023082038A (ja) | 畳み込み画像変換を使用して同時位置特定およびマッピングを実施する方法およびシステム | |
Lee et al. | Simultaneous localization, mapping and deblurring | |
KR20210139450A (ko) | 이미지 디스플레이 방법 및 디바이스 | |
CN108960045A (zh) | 眼球追踪方法、电子装置及非暂态电脑可读取记录媒体 | |
CN107851193B (zh) | 混合机器学习系统 | |
KR20210015695A (ko) | 포즈 추정 방법, 포즈 추정 장치, 및 포즈 추정을 위한 트레이닝 방법 | |
Shajkofci et al. | Semi-blind spatially-variant deconvolution in optical microscopy with local point spread function estimation by use of convolutional neural networks | |
Kang et al. | Crowd counting by adapting convolutional neural networks with side information | |
Fan et al. | Multiscale cross-connected dehazing network with scene depth fusion | |
Chang et al. | A single image deblurring algorithm for nonuniform motion blur using uniform defocus map estimation | |
Gultekin et al. | Feature detection performance based benchmarking of motion deblurring methods: applications to vision for legged robots | |
Bonetto et al. | Image processing issues in a social assistive system for the blind | |
Fiore et al. | Towards achieving robust video selfavatars under flexible environment conditions | |
Yoon et al. | GAN-based shadow removal using context information | |
Jian et al. | Realistic face animation generation from videos | |
Mai et al. | Pose Estimation for Event Camera Using Charuco Board Based on Image Reconstruction | |
Pan et al. | Self-Supervised Motion Magnification by Backpropagating Through Optical Flow | |
Ardö et al. | Height Normalizing Image Transform for Efficient Scene Specific Pedestrian Detection | |
Bellamine et al. | Motion detection using color structure-texture image decomposition | |
Niu et al. | Compass rose: A rotational robust signature for optical flow computation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220905 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230713 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231013 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231027 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7389116 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |