JP2022008187A - オブジェクト認識ニューラルネットワークの訓練 - Google Patents
オブジェクト認識ニューラルネットワークの訓練 Download PDFInfo
- Publication number
- JP2022008187A JP2022008187A JP2021101368A JP2021101368A JP2022008187A JP 2022008187 A JP2022008187 A JP 2022008187A JP 2021101368 A JP2021101368 A JP 2021101368A JP 2021101368 A JP2021101368 A JP 2021101368A JP 2022008187 A JP2022008187 A JP 2022008187A
- Authority
- JP
- Japan
- Prior art keywords
- object recognition
- neural network
- recognition
- image
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 89
- 238000012549 training Methods 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 claims abstract description 61
- 238000013526 transfer learning Methods 0.000 claims description 31
- 238000001514 detection method Methods 0.000 claims description 23
- 238000009434 installation Methods 0.000 claims description 12
- 230000002596 correlated effect Effects 0.000 claims description 11
- 238000012544 monitoring process Methods 0.000 claims description 8
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 5
- 230000007704 transition Effects 0.000 abstract description 4
- 238000001914 filtration Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 230000007246 mechanism Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000000875 corresponding effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008521 reorganization Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】方法は、画像フレームのセットを取得することと、オブジェクト認識ニューラルネットワークを実装する第1のオブジェクト認識アルゴリズムによって、画像フレームのセット内で複数のオブジェクト認識を決定することと、第1と異なる第2のオブジェクト認識アルゴリズムによって複数の前向きな結果を有するオブジェクト認識を評価することと、検証済みオブジェクト認識に関連する画像フレームを含むアノテーション付き画像の訓練用セットを形成することと、アノテーション付き画像の訓練用セットに基づいてオブジェクト認識ニューラルネットワークの転移学習を実施することと、を含む。
【選択図】図1
Description
・画像フレームのセットを取得する行為、
・オブジェクト認識ニューラルネットワークを実装する第1のオブジェクト認識アルゴリズムによって、画像フレームのセット内で複数のオブジェクト認識を決定する行為であって、各オブジェクト認識は、関連する画像フレーム内の被認識オブジェクトの場所データを含む、決定する行為、
・第1と異なる第2のオブジェクト認識アルゴリズムによって複数のオブジェクト認識を評価することによって、検証済みオブジェクト認識を決定する行為であって、上記評価において前向きな結果を有するオブジェクト認識は検証済みオブジェクト認識を形成する、決定する行為、
・検証済みオブジェクト認識に関連する画像フレームを含むアノテーション付き画像の訓練用セットを形成する行為、
・アノテーション付き画像の訓練用セットに基づいてオブジェクト認識ニューラルネットワークの転移学習を実施する行為
を含む。
・第1の態様または第1の態様の実施形態の方法を実施することを含む設置フェーズ(installation phase)を実行すること、
・運用フェーズ(operation phase)において、取得される画像フレームを解析することによって、シーンの全体外観(visual appearance)をモニターすること、および、
・全体外観が変化したことを検出すると、設置フェーズを再び実行すること
を含む。
・画像フレームのセットを取得するように配置され、
・第1のオブジェクト認識器によって、画像フレームのセット内で複数のオブジェクト認識を決定するように配置され、各オブジェクト認識は、関連する画像フレーム内の被認識オブジェクトの座標を含み、
・複数のオブジェクト認識および関連する画像フレームをリモートサーバーに送信するように配置される。
・第2のオブジェクト認識器内の第1と異なる第2のオブジェクト認識アルゴリズムによって複数のオブジェクト認識を評価することによって、検証済みオブジェクト認識を決定するように配置され、前向きな結果を有するオブジェクト認識は検証済みオブジェクト認識を形成し、
・検証済みオブジェクト認識に関連する画像フレームを含むアノテーション付き画像の訓練用セットを形成するように配置される。
Claims (15)
- オブジェクト認識ニューラルネットワークの転移学習のための画像の訓練用セットを形成する方法であって、
画像取り込みデバイスによってモニターされるシーンの画像フレームのセットを取得すること、
オブジェクト認識ニューラルネットワークを実装する第1のオブジェクト認識アルゴリズムによって、画像フレームの前記セット内で複数のオブジェクト認識を決定することであって、各オブジェクト認識は、関連する画像フレーム内の被認識オブジェクトの場所データを含む、複数のオブジェクト認識を決定すること、
前記第1のオブジェクト認識アルゴリズムと異なる第2のオブジェクト認識アルゴリズムによって前記複数のオブジェクト認識を評価することによって、検証済みオブジェクト認識を決定することであって、前記評価において前向きな結果を有するオブジェクト認識は検証済みオブジェクト認識を形成する、検証済みオブジェクト認識を決定すること、
前記検証済みオブジェクト認識に関連する画像フレームを含むアノテーション付き画像の訓練用セットを形成すること、
アノテーション付き画像の前記訓練用セットに基づいて前記オブジェクト認識ニューラルネットワークの転移学習を実施すること、および、
前記シーンをモニターする画像取り込みデバイスによって実施されるオブジェクト認識のために前記オブジェクト認識ニューラルネットワークを利用すること
を含む、方法。 - 前記オブジェクト認識は、以下のオブジェクト認識タイプ:オブジェクト位置特定、オブジェクト検出、オブジェクトセグメンテーション、および姿勢推定のうちの1つである、請求項1に記載の方法。
- 前記第2のオブジェクト認識アルゴリズムは、オブジェクト運動特性に基づいてオブジェクトを決定する、請求項1または2に記載の方法。
- 検証済みオブジェクト認識を決定する前記ステップは、画像フレーム間の相関したオブジェクト認識の運動が所定の運動条件を満たすか否かを判定することを含む、請求項3に記載の方法。
- 各オブジェクト認識は、前記被認識オブジェクトのオブジェクトクラスを含み、前記所定の運動条件は、評価される前記オブジェクト認識の前記オブジェクトクラスに対して特有である、請求項4に記載の方法。
- 前記第2のオブジェクト認識アルゴリズムは、オブジェクト場所に基づいてオブジェクトを決定する、請求項1または2に記載の方法。
- 検証済みオブジェクト認識を決定する前記ステップは、前記オブジェクト認識が所定の画像エリア内に位置するか否かを判定することを含む、請求項6に記載の方法。
- 各オブジェクト認識は、前記被認識オブジェクトのオブジェクトクラスを含み、前記所定の画像エリアは、評価される前記オブジェクト認識の前記オブジェクトクラスに対して特有である、請求項7に記載の方法。
- 前記オブジェクト認識ニューラルネットワークの1つまたは複数の閾値は、オブジェクトの過検出が達成されるように構成され、前記複数のオブジェクト認識は、真陽性認識と偽陽性認識の両方を含む、請求項1から8のいずれか一項に記載の方法。
- 前記第1のオブジェクト認識アルゴリズムは画像取り込みデバイス内に実装される、請求項1から9のいずれか一項に記載の方法。
- 前記第2のオブジェクト認識アルゴリズムはリモートサーバー内に実装される、請求項10に記載の方法。
- シーンをモニターする画像取り込みデバイスにおいてオブジェクト認識ニューラルネットワークを訓練する方法であって、
請求項1から11のいずれか一項に記載の方法を実施することを含む設置フェーズを実行すること、
運用フェーズにおいて、取得される画像フレームを解析することによって、前記シーンの全体外観をモニターすること、および、
前記全体外観が変化したことを検出すると、前記設置フェーズを再び実行すること
を含む、方法。 - 前記全体外観は、天候または季節による光条件または外観である、請求項12に記載の方法。
- オブジェクト認識ニューラルネットワークを実装する第1のオブジェクト認識器および第2のオブジェクト認識器を含むリモートサーバーを備える画像取り込みデバイスを備えるシステムであって、前記画像取り込みデバイスは、
モニターされるシーンの画像フレームのセットを取得するように配置され、
前記第1のオブジェクト認識器によって、画像フレームの前記セット内で複数のオブジェクト認識を決定するように配置され、各オブジェクト認識は、関連する画像フレーム内の被認識オブジェクトの座標を含み、
前記複数のオブジェクト認識および関連する画像フレームを前記リモートサーバーに送信するように配置され、
前記リモートサーバーは、第2のオブジェクト認識器内の前記第1と異なる第2のオブジェクト認識アルゴリズムによって前記複数のオブジェクト認識を評価することによって、検証済みオブジェクト認識を決定するように配置され、前向きな結果を有するオブジェクト認識は検証済みオブジェクト認識を形成し、
前記検証済みオブジェクト認識に関連する画像フレームを含むアノテーション付き画像の訓練用セットを形成するように配置される、システム。 - 前記リモートサーバーは、前記アノテーション付き画像の前記訓練用セットに基づいて前記オブジェクト認識ニューラルネットワークの転移学習を始動するようにさらに配置される、請求項14に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20182135.2A EP3929801A1 (en) | 2020-06-25 | 2020-06-25 | Training of an object recognition neural network |
EP20182135 | 2020-06-25 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022008187A true JP2022008187A (ja) | 2022-01-13 |
JP2022008187A5 JP2022008187A5 (ja) | 2023-10-27 |
JP7492490B2 JP7492490B2 (ja) | 2024-05-29 |
Family
ID=71143620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021101368A Active JP7492490B2 (ja) | 2020-06-25 | 2021-06-18 | オブジェクト認識ニューラルネットワークの訓練 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11756303B2 (ja) |
EP (1) | EP3929801A1 (ja) |
JP (1) | JP7492490B2 (ja) |
CN (1) | CN113935395A (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6806107B2 (ja) * | 2018-03-20 | 2021-01-06 | 日本電気株式会社 | 障害物認識支援装置、障害物認識支援方法、プログラム |
US11350059B1 (en) * | 2021-01-26 | 2022-05-31 | Dell Products, Lp | System and method for intelligent appearance monitoring management system for videoconferencing applications |
US20230004760A1 (en) * | 2021-06-28 | 2023-01-05 | Nvidia Corporation | Training object detection systems with generated images |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8625897B2 (en) * | 2010-05-28 | 2014-01-07 | Microsoft Corporation | Foreground and background image segmentation |
WO2014112632A1 (ja) * | 2013-01-18 | 2014-07-24 | 株式会社東芝 | 動作情報処理装置及び方法 |
US11144761B2 (en) | 2016-04-04 | 2021-10-12 | Xerox Corporation | Deep data association for online multi-class multi-object tracking |
CN105976397B (zh) | 2016-04-28 | 2019-03-26 | 西安电子科技大学 | 一种目标跟踪方法 |
CN106127815B (zh) | 2016-07-21 | 2019-04-09 | 广东工业大学 | 一种融合卷积神经网络的跟踪方法及系统 |
JP2018046501A (ja) * | 2016-09-16 | 2018-03-22 | 株式会社東芝 | 情報処理装置、検出システムおよび情報処理方法 |
GB2554435B (en) * | 2016-09-27 | 2019-10-23 | Univ Leicester | Image processing |
US10630962B2 (en) * | 2017-01-04 | 2020-04-21 | Qualcomm Incorporated | Systems and methods for object location |
CN106982359B (zh) * | 2017-04-26 | 2019-11-05 | 深圳先进技术研究院 | 一种双目视频监控方法、系统和计算机可读存储介质 |
EP3495992A1 (en) * | 2017-12-07 | 2019-06-12 | IMRA Europe SAS | Danger ranking using end to end deep neural network |
CN111587436A (zh) * | 2018-01-17 | 2020-08-25 | 昕诺飞控股有限公司 | 用于使用神经网络进行对象辨识的系统和方法 |
US10977827B2 (en) | 2018-03-27 | 2021-04-13 | J. William Mauchly | Multiview estimation of 6D pose |
CN108920995A (zh) * | 2018-04-08 | 2018-11-30 | 华中科技大学 | 智能安防视频监控方法及其系统及监控终端 |
JP7002009B2 (ja) * | 2018-05-22 | 2022-01-20 | パナソニックIpマネジメント株式会社 | 監視パラメータ更新システム、監視パラメータ更新方法およびプログラム |
CN109919009A (zh) * | 2019-01-24 | 2019-06-21 | 北京明略软件系统有限公司 | 目标对象的监控方法、装置及系统 |
CN109961034B (zh) | 2019-03-18 | 2022-12-06 | 西安电子科技大学 | 基于卷积门控循环神经单元的视频目标检测方法 |
-
2020
- 2020-06-25 EP EP20182135.2A patent/EP3929801A1/en active Pending
-
2021
- 2021-04-23 US US17/238,272 patent/US11756303B2/en active Active
- 2021-06-18 JP JP2021101368A patent/JP7492490B2/ja active Active
- 2021-06-18 CN CN202110678459.7A patent/CN113935395A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
EP3929801A1 (en) | 2021-12-29 |
CN113935395A (zh) | 2022-01-14 |
US20210406604A1 (en) | 2021-12-30 |
US11756303B2 (en) | 2023-09-12 |
JP7492490B2 (ja) | 2024-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7492490B2 (ja) | オブジェクト認識ニューラルネットワークの訓練 | |
US10769480B2 (en) | Object detection method and system | |
CN108629791B (zh) | 行人跟踪方法和装置及跨摄像头行人跟踪方法和装置 | |
WO2020252974A1 (zh) | 一种针对运动状态下的多目标对象追踪方法和装置 | |
CN111163259A (zh) | 一种图像抓拍方法、监控相机及监控系统 | |
JP6407493B1 (ja) | 画像処理装置および画像処理方法 | |
CN110796074B (zh) | 一种基于时空数据融合的行人再识别方法 | |
WO2021139049A1 (zh) | 检测方法、检测装置、监控设备和计算机可读存储介质 | |
GB2528330A (en) | A method of video analysis | |
Chen et al. | Integrating social grouping for multitarget tracking across cameras in a crf model | |
CN107786848A (zh) | 运动目标检测与动作识别的方法、装置、终端及存储介质 | |
US20190096066A1 (en) | System and Method for Segmenting Out Multiple Body Parts | |
CN114625251A (zh) | 基于vr的交互方法、装置、计算机设备及存储介质 | |
CN111444758A (zh) | 一种基于时空信息的行人重识别方法及装置 | |
CN113298045A (zh) | 一种违章车辆的识别方法、系统及装置 | |
JP6829412B1 (ja) | 画像処理装置、画像処理システム、画像処理方法、及び画像処理プログラム | |
CN111160115B (zh) | 一种基于孪生双流3d卷积神经网络的视频行人再识别方法 | |
US20230386185A1 (en) | Statistical model-based false detection removal algorithm from images | |
US8670598B2 (en) | Device for creating and/or processing an object signature, monitoring device, method and computer program | |
Seidenari et al. | Non-parametric anomaly detection exploiting space-time features | |
US20190096045A1 (en) | System and Method for Realizing Increased Granularity in Images of a Dataset | |
US20240005665A1 (en) | System and device for counting people in side view image | |
US20230360360A1 (en) | Object re-identification in video streams | |
Vakhniuk et al. | STAC: Leveraging Spatio-Temporal Data Associations For Efficient Cross-Camera Streaming and Analytics | |
Ramamoorthy et al. | Intelligent video surveillance system using background subtraction technique and its analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231019 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231019 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231121 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240423 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240517 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7492490 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |