JP2022051700A - 画像補完用のシステム - Google Patents
画像補完用のシステム Download PDFInfo
- Publication number
- JP2022051700A JP2022051700A JP2021151473A JP2021151473A JP2022051700A JP 2022051700 A JP2022051700 A JP 2022051700A JP 2021151473 A JP2021151473 A JP 2021151473A JP 2021151473 A JP2021151473 A JP 2021151473A JP 2022051700 A JP2022051700 A JP 2022051700A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- past
- module
- map
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000295 complement effect Effects 0.000 title abstract description 4
- 230000010354 integration Effects 0.000 claims abstract description 58
- 239000013598 vector Substances 0.000 claims description 18
- 208000004547 Hallucinations Diseases 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 13
- 238000010606 normalization Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims 2
- 230000006870 function Effects 0.000 description 19
- 230000007246 mechanism Effects 0.000 description 12
- 238000012549 training Methods 0.000 description 12
- 238000004590 computer program Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000013213 extrapolation Methods 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 5
- 238000006073 displacement reaction Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000000644 propagated effect Effects 0.000 description 3
- 230000004154 complement system Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000003400 hallucinatory effect Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/77—Retouching; Inpainting; Scratch removal
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/18—Image warping, e.g. rearranging pixels individually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4023—Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
第1過去フレーム及び第1現在フレームを受け取るように、且つ、受け取られた第1過去フレーム及び第1現在フレームのそれぞれごとに1つずつ、座標マップの組を生成するように、構成された座標生成モジュールであって、第1過去フレーム及び第1現在フレームは、第1視野(FoV)を有し、第1過去フレームに対応する座標マップは、第1現在フレームの座標系に対する第1過去フレームの空間マッピングを提供している、モジュールと、
入力として、第1過去フレーム、第1現在フレーム、及び座標マップを受け取るように、且つ、前記入力に基づいて第2FoVを有する第2現在フレームを合成するように、構成されたフレーム統合モジュールと、
を含む。
第1過去フレームを受け取るように、且つ、受け取られた第1過去フレームのそれぞれごとに深さマップを生成するように、構成された深さネットワークと、
受け取られた第1過去フレーム及び第1現在フレームから形成された時間隣接フレームのフレームペアを受け取るように、且つ、受け取られたフレームペアのそれぞれごとに相対カメラポーズを生成するように、構成されたポーズネットワークと、
深さネットワーク及びポーズネットワークの出力に基づいて座標マップの組を生成するように構成された座標計算モジュールと、
を含む。
第1過去フレーム及び第1現在フレームのそれぞれに基づいて複数の特徴マップを生成するように構成されたエンコーダと、
第1過去フレーム及び第1現在フレームのそれぞれごとに、前記それぞれのフレームごとに複数のワーピングされた特徴マップを生成するべく、前記それぞれのフレームと関連する個々の座標マップを使用することにより、前記それぞれのフレームと関連する複数の特徴マップをワーピングするように構成されたワーピングモジュールと、
統合された特徴マップの組を生成するべく、第1過去フレーム及び第1現在フレームのすべてにわたって、生成されたワーピング済みの特徴マップを統合するように構成されたアテンションに基づいた特徴統合(AFA:Attention-based Feature Aggregation)モジュールと、
を含む。
前記それぞれのフレームと関連するワーピングされた特徴マップのそれぞれごとに、個々のフレームの観点における空間アテンションマップ(attention map)を生成するように、且つ、
個々の特徴マップを生成するべく、前記それぞれのフレームと関連するワーピングされた特徴マップのそれぞれを個々の空間アテンションマップによって乗算するように、
構成することができる。
統合された特徴マップの組を受け取るように、且つ、第1現在フレームの視野の外側に含まれる第2現在フレームの領域をアウトペインティングするように、構成されたコンテキスト正規化サブモジュールと、
コンテキスト正規化サブモジュールによって出力された特徴マップを受け取るように、且つ、第1現在フレームの視野内に含まれる遮蔽された又は観察されていない(第1過去及び/又は第1現在フレーム内の)領域をインペインティングするべくコンテキスト正規化サブモジュールによって出力された前記特徴マップを処理するように、構成されたデコーダサブモジュールと、
デコーダサブモジュールによって出力された特徴マップを受け取るように、且つ、デコーダサブモジュールによって出力された前記特徴マップを空間的に統合するように、構成されたゲート付き自己アテンション(GSA:Gated Self-Attention)サブモジュールと、
を含むことができる。
Claims (15)
- 画像補完用のシステムであって、
第1過去フレーム及び第1現在フレームを受け取るように、且つ、前記受け取られた第1過去フレームのそれぞれごとに1つずつ、座標マップの組を生成するように、構成された座標生成モジュールであって、前記第1過去フレーム及び前記第1現在フレームは、第1視野を有し、第1過去フレームに対応する前記座標マップは、前記第1現在フレームの座標系に対する前記第1過去フレームの空間的なマッピングを提供している、座標生成モジュールと、
入力として、前記第1過去フレーム、前記第1現在フレーム、及び前記座標マップを受け取るように、且つ、前記入力に基づいて、第2視野を有する第2現在フレームを合成するように、構成されたフレーム統合モジュールと、
を有する、システム。 - 前記座標生成モジュールは、
前記第1過去フレームを受け取るように、且つ、前記受け取られた第1過去フレームのそれぞれごとに深さマップを生成するように、構成された深さネットワークと、
前記受け取られた第1過去フレーム及び前記第1現在フレームから形成された時間隣接フレームのフレームペアを受け取るように、且つ、前記受け取られたフレームペアのそれぞれごとに相対的カメラポーズを生成するように、構成されたポーズネットワークと、
前記深さネットワーク及び前記ポーズネットワークの出力に基づいて前記座標マップの組を生成するように構成された座標計算モジュールと、
を有する、請求項1に記載のシステム。 - 前記フレーム統合モジュールは、前記座標生成モジュールによって生成された前記座標マップの組を使用することにより、前記受け取られた第1過去フレーム内に含まれている情報を前記第1現在フレームの前記座標系に伝播させるように構成されている、請求項1又は2に記載のシステム。
- 前記フレーム統合モジュールは、
前記第1過去フレーム及び前記第1現在フレームのそれぞれのフレームに基づいて複数の特徴マップを生成するように構成されたエンコーダと、
前記第1過去フレーム及び前記第1現在フレームのそれぞれのフレームごとに、前記それぞれのフレームの複数のワーピングされた特徴マップを生成するべく、前記それぞれのフレームと関連する個々の座標マップを使用することにより、前記それぞれのフレームと関連する前記複数の特徴マップをワーピングさせるように構成されたワーピングモジュールと、
前記第1過去フレーム及び前記第1現在フレームのすべてにわたって、統合された特徴マップの組を生成するべく、前記生成されたワーピングされた特徴マップを統合するように構成されたアテンションに基づいた特徴統合モジュールと、
を有する、請求項1から3のいずれか1項に記載のシステム。 - 前記アテンションに基づいた特徴統合モジュールは、前記統合において、前記第1過去フレーム及び前記第1現在フレームのそれぞれのフレームごとに、前記第1現在フレームとの関係における前記フレームのタイミングに基づいて、前記フレームの領域固有の特徴を強調するように構成されている、請求項4に記載のシステム。
- 前記アテンションに基づいた特徴統合モジュールは、前記第1過去フレーム及び前記第1現在フレームのそれぞれのフレームごとに、
前記それぞれのフレームと関連する前記ワーピングされた特徴マップのそれぞれごとに、個々のフレームの観点における空間的なアテンションマップを生成するように、且つ、
個々の特徴マップを生成するべく、前記それぞれのフレームと関連する前記ワーピングされた特徴マップのそれぞれを前記個々の空間的なアテンションマップによって乗算するように、
構成されている、請求項4又は5に記載のシステム。 - 前記アテンションに基づいた特徴統合モジュールは、前記統合された特徴マップの組を生成するべく、前記第1過去フレーム及び前記第1現在フレームのすべてにわたって、前記生成された個々の特徴マップを合計するように更に構成されている、請求項6に記載のシステム。
- 前記フレーム統合モジュールは、前記統合された特徴マップの組に基づいて前記第2現在フレームを生成するように構成されたUネットモジュールを更に有し、前記Uネットモジュールは、
前記統合された特徴マップの組を受け取るように、且つ、前記第1現在フレームの視野の外側に含まれる前記第2現在フレームの領域をアウトペインティングするように、構成されたコンテキスト正規化サブモジュールと、
前記コンテキスト正規化サブモジュールによって出力された特徴マップを受け取るように、且つ、前記第1現在フレームの視野内に含まれる遮蔽された又は観察されていない領域をインペインティングするべく前記コンテキスト正規化サブモジュールによって出力された前記特徴マップを処理するように、構成されたデコーダサブモジュールと、
前記デコーダサブモジュールによって出力された特徴マップを受け取るように、且つ、前記デコーダサブモジュールによって出力された前記特徴マップを空間的に統合するように、構成されたゲート付き自己アテンションサブモジュールと、
を有する、請求項4から7のいずれか1項に記載のシステム。 - 前記ゲート付き自己アテンションサブモジュールは、特徴ベクトルの空間的な場所に基づいて特徴ベクトル当たりに動的に生成された重みに基づいて前記デコーダサブモジュールによって出力された前記特徴マップを空間的に統合するように構成されている、請求項8に記載のシステム。
- 前記第2現在フレームと関連する不確定性マップを生成するように構成された幻視化不確定性モジュールを有する、請求項1から9のいずれか1項に記載のシステム。
- 前記幻視化不確定性モジュールは、幻視化不確定性を組み込んだ損失関数を極小化するべく前記不確定性マップを生成するように構成されている、請求項10に記載のシステム。
- 前記幻視化不確定性モジュールは、高い幻視化不確定性を有することになる前記第2現在フレームの領域及び低い幻視化不確定性を有することになるものの予測に基づいて前記不確定性マップを生成するように構成されている、請求項10に記載のシステム。
- 深さネットワーク及び前記フレーム統合モジュールによって受け取られた前記第1過去フレームの一部分は、前記フレーム統合モジュールによって生成された前記第2視野を有する、且つ、前記第1過去フレームの部分に対応する、第2過去フレームによって置換されている、請求項1から12のいずれか1項に記載のシステム。
- 前記第2過去フレームは、それぞれ、前記第2過去フレームを前記フレーム統合モジュールに提供する前に、幻視化不確定性モジュールによって生成された個々の不確定性マップと連結されている、請求項13に記載のシステム。
- 前記第2視野は、前記第1視野と等しいか又はこれを上回っている、請求項1から14のいずれか1項に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20197574.5 | 2020-09-22 | ||
EP20197574.5A EP3971821A1 (en) | 2020-09-22 | 2020-09-22 | Image completion using self-attention and uncertainty |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022051700A true JP2022051700A (ja) | 2022-04-01 |
JP7281754B2 JP7281754B2 (ja) | 2023-05-26 |
Family
ID=72615647
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021151473A Active JP7281754B2 (ja) | 2020-09-22 | 2021-09-16 | 画像補完用のシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220092746A1 (ja) |
EP (1) | EP3971821A1 (ja) |
JP (1) | JP7281754B2 (ja) |
CN (1) | CN114257759B (ja) |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006004043A1 (ja) * | 2004-07-07 | 2006-01-12 | Nec Corporation | 広視野画像入力方法及び装置 |
IL214894A (en) * | 2011-08-30 | 2016-09-29 | Rafael Advanced Defense Systems Ltd | A combination of narrow field of view images and wide field of view |
US20150373269A1 (en) * | 2014-06-20 | 2015-12-24 | Qualcomm Incorporated | Parallax free thin multi-camera system capable of capturing full wide field of view images |
WO2016003416A1 (en) * | 2014-06-30 | 2016-01-07 | Hewlett-Packard Development Company, L.P. | Piecewise smooth regularization of data |
US10257494B2 (en) * | 2014-09-22 | 2019-04-09 | Samsung Electronics Co., Ltd. | Reconstruction of three-dimensional video |
JP6672305B2 (ja) * | 2014-12-22 | 2020-03-25 | インターデジタル シーイー パテント ホールディングス | オブジェクト検出に基づき外挿画像を生成する方法及び装置 |
US10241520B2 (en) * | 2016-12-22 | 2019-03-26 | TCL Research America Inc. | System and method for vision-based flight self-stabilization by deep gated recurrent Q-networks |
US10692262B2 (en) * | 2017-01-12 | 2020-06-23 | Electronics And Telecommunications Research Institute | Apparatus and method for processing information of multiple cameras |
US11049218B2 (en) * | 2017-08-11 | 2021-06-29 | Samsung Electronics Company, Ltd. | Seamless image stitching |
TW201915940A (zh) * | 2017-10-06 | 2019-04-16 | 廣達電腦股份有限公司 | 雙鏡頭影像處理裝置及方法 |
CN108564527B (zh) * | 2018-04-04 | 2022-09-20 | 百度在线网络技术(北京)有限公司 | 基于神经网络的全景图内容补全和修复的方法及装置 |
US10922793B2 (en) * | 2018-05-16 | 2021-02-16 | Nvidia Corporation | Guided hallucination for missing image content using a neural network |
US11538143B2 (en) * | 2018-10-26 | 2022-12-27 | Nec Corporation | Fully convolutional transformer based generative adversarial networks |
CN111292278B (zh) * | 2019-07-30 | 2023-04-07 | 展讯通信(上海)有限公司 | 图像融合方法及装置、存储介质、终端 |
US20210327026A1 (en) * | 2020-04-17 | 2021-10-21 | Gopro, Inc. | Methods and apparatus for blending unknown pixels in overlapping images |
US11398015B2 (en) * | 2020-04-29 | 2022-07-26 | Adobe Inc. | Iterative image inpainting with confidence feedback |
CN111553869B (zh) * | 2020-05-13 | 2021-04-06 | 北京航空航天大学 | 一种空基视角下的生成对抗网络图像补全方法 |
US11523055B1 (en) * | 2020-05-29 | 2022-12-06 | Humane, Inc. | Super resolution/super field of view (FOV) digital photography |
EP4176373A1 (en) * | 2020-07-01 | 2023-05-10 | Harman International Industries, Incorporated | Systems and methods for detecting projection attacks on object identification systems |
US20220053124A1 (en) * | 2020-08-13 | 2022-02-17 | Denso International America, Inc. | System and method for processing information from a rotatable camera |
-
2020
- 2020-09-22 EP EP20197574.5A patent/EP3971821A1/en active Pending
-
2021
- 2021-09-16 JP JP2021151473A patent/JP7281754B2/ja active Active
- 2021-09-17 US US17/478,837 patent/US20220092746A1/en active Pending
- 2021-09-18 CN CN202111109973.5A patent/CN114257759B/zh active Active
Non-Patent Citations (1)
Title |
---|
LEE, SANGWOO ET AL.: "Video Extrapolation using Neighboring Frames", ACM TRANSACTIONS ON GRAPHICS, vol. Vol. 38, No. 3, Article 20, JPN7022004401, 8 April 2019 (2019-04-08), pages 1 - 13, ISSN: 0004873595 * |
Also Published As
Publication number | Publication date |
---|---|
EP3971821A1 (en) | 2022-03-23 |
JP7281754B2 (ja) | 2023-05-26 |
CN114257759B (zh) | 2024-05-10 |
US20220092746A1 (en) | 2022-03-24 |
CN114257759A (zh) | 2022-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shivakumar et al. | Dfusenet: Deep fusion of rgb and sparse depth information for image guided dense depth completion | |
Luo et al. | Single view stereo matching | |
Zhou et al. | Cips-3d: A 3d-aware generator of gans based on conditionally-independent pixel synthesis | |
US9100537B2 (en) | Object tracking using graphics engine derived vectors in a motion estimation system | |
JP7177062B2 (ja) | 統計モデルを用いた画像データからの深度予測 | |
US10991145B2 (en) | Pose-variant 3D facial attribute generation | |
KR20210036244A (ko) | 경계 인식 시맨틱 세그먼테이션을 위한 방법 및 시스템 | |
Zhu et al. | View extrapolation of human body from a single image | |
EP3448032B1 (en) | Enhancing motion pictures with accurate motion information | |
CN109509248B (zh) | 一种基于神经网络的光子映射渲染方法和系统 | |
CN115187638B (zh) | 一种基于光流遮罩的无监督单目深度估计方法 | |
Li et al. | A real-time high-quality complete system for depth image-based rendering on FPGA | |
US11570418B2 (en) | Techniques for generating light field data by combining multiple synthesized viewpoints | |
CN113269689B (zh) | 一种基于法向量和高斯权重约束的深度图像补全方法及系统 | |
Periyasamy et al. | Refining 6D object pose predictions using abstract render-and-compare | |
Zhou et al. | PADENet: An efficient and robust panoramic monocular depth estimation network for outdoor scenes | |
Matsuki et al. | Newton: Neural view-centric mapping for on-the-fly large-scale slam | |
Mehl et al. | M-fuse: Multi-frame fusion for scene flow estimation | |
Ye et al. | Underwater depth estimation via stereo adaptation networks | |
JP2022051700A (ja) | 画像補完用のシステム | |
Shi et al. | Deep residual architecture using pixel and feature cues for view synthesis and temporal interpolation | |
Lu et al. | Self-supervised depth estimation from spectral consistency and novel view synthesis | |
KR101785857B1 (ko) | 단일 영상 기반의 외각 시점 합성 방법 및 영상 처리 장치 | |
US11908070B2 (en) | Dynamic three-dimensional imaging method | |
Olszewski | Hashcc: Lightweight method to improve the quality of the camera-less nerf scene generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210916 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230428 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7281754 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |