JP7311310B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP7311310B2 JP7311310B2 JP2019092489A JP2019092489A JP7311310B2 JP 7311310 B2 JP7311310 B2 JP 7311310B2 JP 2019092489 A JP2019092489 A JP 2019092489A JP 2019092489 A JP2019092489 A JP 2019092489A JP 7311310 B2 JP7311310 B2 JP 7311310B2
- Authority
- JP
- Japan
- Prior art keywords
- class
- likelihood
- candidate
- determination
- classified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/84—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using probabilistic graphical models from image or video features, e.g. Markov models or Bayesian networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Description
以下、従来の物体検出方法について説明する。図1は、物体検出方法の一例を説明するための図である。物体検出方法に用いられる畳み込みネットワーク(CNN:Convolutional Neural Network)は、例えば、SSD(The Single Shot Detector)である(非特許文献1を参照)。図1の(a)は、CNNへの入力画像の一例を示す図である。図1の(a)に示される破線で囲まれた領域は、物体領域を示す。物体領域は、物体が撮像された領域である。また、図1の(b)は、入力画像をCNNに入力して得られた8×8特徴マップを示す図である。図1の(c)は、4×4特徴マップを示す図である。図1の(b)及び(c)に示される一点破線で囲まれた領域は、候補枠を示す。また、図1の(d)は、CNNの一例を示す図である。
[1.概要]
まず、実施の形態に係る情報処理装置の概要について説明する。情報処理装置は、画像内の物体を検出するための装置である。例えば、情報処理装置は、自動車、バイク、自転車、及び、電車などの車両、ドローンなどの飛行体、又は、飛行機など移動体に搭載されるカメラシステムの一構成であってもよく、防犯カメラシステムの一構成であってもよい。
続いて、情報処理装置の機能構成の一例について、図4を用いて説明する。図4は、実施の形態に係る情報処理装置100の機能構成の一例を示すブロック図である。
続いて、情報処理装置100の実装例について説明する。図5は、実施の形態に係る情報処理装置100の実装例を示すブロック図である。情報処理装置100は、プロセッサ10と、メモリ20と、を備える。例えば、図4に示される情報処理装置100の複数の構成要素は、図5に示されるプロセッサ10及びメモリ20によって実現される。
[4-1.各候補枠の分類処理]
続いて、情報処理装置100の動作について説明する。図6は、実施の形態に係る情報処理装置100の動作の一例を示すフローチャートである。
続いて、情報処理装置100が実行する第1クラス(ここでは、背景クラス)の尤度閾値である第1閾値の決定処理フローの一例について説明する。図7は、実施の形態における機械学習モデルのオフライン処理の一例を示すフローチャートである。
続いて、情報処理装置100は、図7に示される処理によって決定された第1閾値を用いて、入力画像における全候補枠に対して第1判定を実行し、第1閾値が適切であるか否かを判定し、判定結果に基づいて、第1閾値の値を調整する。
続いて、変形例に係る情報処理装置について説明する。ここでは、実施の形態に係る情報処理装置100と異なる点を中心に説明する。
以上、1つ又は複数の態様に係る情報処理装置及び情報処理方法について、実施の形態に基づいて説明したが、本開示は、これらの実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したもの、及び、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の範囲に含まれる。
11 入力部
12 分類尤度算出部
13 第1抽出部
14 第2抽出部
15 統合部
16 出力部
20 メモリ
100 情報処理装置
Claims (6)
- プロセッサを備える情報処理装置であって、
前記プロセッサは、
分類尤度算出処理を実行する機械学習モデルを学習し、
入力画像を取得し、
学習済みの前記機械学習モデルに前記入力画像を入力して前記入力画像における各物体候補の複数のクラスそれぞれに対する尤度を取得し、
前記各物体候補について、前記複数のクラスにおける第1クラスに対する尤度であって、他のクラスに対する尤度と負の相関関係を有する尤度を用いて、前記第1クラスに分類されるか否かの第1判定を実行し、
前記第1判定において前記第1クラスに分類されないと判定された物体候補それぞれについて、前記他のクラスに分類されるか否かの第2判定を実行し、
前記第2判定の結果を用いて前記入力画像に映る物体の分類結果を出力し、
前記第1判定では、前記各物体候補の前記第1クラスに対する尤度が第1閾値以上か否かを判定し、前記第1クラスに対する尤度が前記第1閾値以上である物体候補が前記第1クラスに分類されると判定され、
前記機械学習モデルの学習は、
前記機械学習モデルに訓練用入力画像を入力して、前記訓練用入力画像における前記各物体候補の複数のクラスそれぞれに対する尤度を取得し、
前記訓練用入力画像における前記各物体候補について、前記他のクラスに分類されるか否かの第3判定を実行し、
前記第3判定により前記他のクラスに分類されると判定された物体候補のそれぞれの前記第1クラスに対する尤度より大きい値を前記第1閾値として決定する、
処理をオフラインで行う、
情報処理装置。 - 前記プロセッサは、
複数の前記訓練用入力画像の前記各物体候補について前記第3判定を実行し、
複数の前記訓練用入力画像の前記各物体候補についての前記第3判定により前記他のクラスに分類されると判定された物体候補の前記第1クラスに対する尤度の全てより大きい値を前記第1閾値として決定する
請求項1に記載の情報処理装置。 - 前記第1クラスは、背景クラスである、
請求項1又は2に記載の情報処理装置。 - 前記プロセッサは、
前記機械学習モデルから、さらに、前記各物体候補の候補枠を取得し、
取得された前記候補枠のそれぞれのサイズを判定し、
前記第2判定では、前記第1クラスに分類されないと判定された物体候補それぞれについて、前記他のクラスに対する尤度が前記候補枠のサイズに応じた前記他のクラスに対応する複数の閾値のうち第2閾値以上か否かを判定し、
前記複数の閾値のそれぞれは、前記候補枠のそれぞれのサイズに対応付けられ、
前記第2閾値は、取得された前記候補枠のそれぞれについて判定されたサイズに応じて適用される、
請求項3に記載の情報処理装置。 - プロセッサに実行させる方法であって、
分類尤度算出処理を実行する機械学習モデルを学習し、
入力画像を取得し、
学習済みの前記機械学習モデルに前記入力画像を入力して前記入力画像における各物体候補の複数のクラスそれぞれに対する尤度を取得し、
前記各物体候補について、前記複数のクラスにおける第1クラスに対する尤度であって、他のクラスに対する尤度と負の相関関係を有する尤度を用いて、前記第1クラスに分類されるか否かの第1判定を実行し、
前記第1判定において前記第1クラスに分類されないと判定された物体候補それぞれについて、前記他のクラスに分類されるか否かの第2判定を実行し、
前記第2判定の結果を用いて前記入力画像に映る物体の分類結果を出力し、
前記第1判定では、前記各物体候補の前記第1クラスに対する尤度が第1閾値以上か否かを判定し、前記第1クラスに対する尤度が前記第1閾値以上である物体候補が前記第1クラスに分類されると判定され、
前記機械学習モデルの学習は、
前記機械学習モデルに訓練用入力画像を入力して、前記訓練用入力画像における前記各物体候補の複数のクラスそれぞれに対する尤度を取得し、
前記訓練用入力画像における前記各物体候補について、前記他のクラスに分類されるか否かの第3判定を実行し、
前記第3判定により前記他のクラスに分類されると判定された物体候補のそれぞれの前記第1クラスに対する尤度より大きい値を前記第1閾値として決定する、
処理をオフラインで行う、
情報処理方法。 - 請求項5に記載の情報処理方法をコンピュータに実行させるための、
プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/031587 WO2020079933A1 (ja) | 2018-10-18 | 2019-08-09 | 情報処理装置、情報処理方法及びプログラム |
EP19872900.6A EP3869450A4 (en) | 2018-10-18 | 2019-08-09 | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM |
CN201980005337.2A CN111417960A (zh) | 2018-10-18 | 2019-08-09 | 信息处理装置、信息处理方法及程序 |
US16/859,264 US11526708B2 (en) | 2018-10-18 | 2020-04-27 | Information processing device, information processing method, and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862747276P | 2018-10-18 | 2018-10-18 | |
US62/747,276 | 2018-10-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020064604A JP2020064604A (ja) | 2020-04-23 |
JP7311310B2 true JP7311310B2 (ja) | 2023-07-19 |
Family
ID=70388335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019092489A Active JP7311310B2 (ja) | 2018-10-18 | 2019-05-15 | 情報処理装置、情報処理方法及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11526708B2 (ja) |
EP (1) | EP3869450A4 (ja) |
JP (1) | JP7311310B2 (ja) |
CN (1) | CN111417960A (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021103347A (ja) * | 2019-12-24 | 2021-07-15 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN111860376B (zh) * | 2020-07-24 | 2023-10-31 | 北京博维航空设施管理有限公司 | 一种舱门的轮廓拟合方法及装置 |
CN111931727A (zh) * | 2020-09-23 | 2020-11-13 | 深圳市商汤科技有限公司 | 点云数据标注方法、装置、电子设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007108407A (ja) | 2005-10-13 | 2007-04-26 | Nec Corp | 音声認識システムと音声認識方法およびプログラム |
JP2014515128A (ja) | 2011-03-04 | 2014-06-26 | エルビーティー イノベーションズ リミテッド | 明細書微生物増殖を分析する方法およびソフトウェア |
JP2016177046A (ja) | 2015-03-19 | 2016-10-06 | 株式会社レイトロン | 音声認識装置および音声認識プログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7648460B2 (en) * | 2005-08-31 | 2010-01-19 | Siemens Medical Solutions Usa, Inc. | Medical diagnostic imaging optimization based on anatomy recognition |
US9355337B2 (en) * | 2009-08-25 | 2016-05-31 | Xerox Corporation | Consistent hierarchical labeling of image and image regions |
US9235781B2 (en) * | 2013-08-09 | 2016-01-12 | Kabushiki Kaisha Toshiba | Method of, and apparatus for, landmark location |
CN104331715B (zh) * | 2014-10-08 | 2018-08-28 | 清华大学 | 基于模板学习的指纹姿态矫正方法及系统 |
JP2016151805A (ja) | 2015-02-16 | 2016-08-22 | 大日本印刷株式会社 | オブジェクト検出装置、オブジェクト検出方法、及びプログラム |
US9946951B2 (en) * | 2015-08-12 | 2018-04-17 | International Business Machines Corporation | Self-optimized object detection using online detector selection |
JP2017084006A (ja) * | 2015-10-26 | 2017-05-18 | キヤノン株式会社 | 画像処理装置およびその方法 |
JP2018005520A (ja) * | 2016-06-30 | 2018-01-11 | クラリオン株式会社 | 物体検出装置及び物体検出方法 |
US10657364B2 (en) * | 2016-09-23 | 2020-05-19 | Samsung Electronics Co., Ltd | System and method for deep network fusion for fast and robust object detection |
JP6964234B2 (ja) * | 2016-11-09 | 2021-11-10 | パナソニックIpマネジメント株式会社 | 情報処理方法、情報処理装置およびプログラム |
US20180268292A1 (en) * | 2017-03-17 | 2018-09-20 | Nec Laboratories America, Inc. | Learning efficient object detection models with knowledge distillation |
CN108664844A (zh) * | 2017-03-28 | 2018-10-16 | 爱唯秀股份有限公司 | 卷积深度神经网络的图像目标语义识别及追踪 |
US10242294B2 (en) * | 2017-05-01 | 2019-03-26 | Intel Corporation | Target object classification using three-dimensional geometric filtering |
JP7015001B2 (ja) * | 2018-03-14 | 2022-02-02 | オムロン株式会社 | 欠陥検査装置、欠陥検査方法、及びそのプログラム |
US11809998B2 (en) * | 2020-05-20 | 2023-11-07 | Qualcomm Incorporated | Maintaining fixed sizes for target objects in frames |
-
2019
- 2019-05-15 JP JP2019092489A patent/JP7311310B2/ja active Active
- 2019-08-09 CN CN201980005337.2A patent/CN111417960A/zh active Pending
- 2019-08-09 EP EP19872900.6A patent/EP3869450A4/en active Pending
-
2020
- 2020-04-27 US US16/859,264 patent/US11526708B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007108407A (ja) | 2005-10-13 | 2007-04-26 | Nec Corp | 音声認識システムと音声認識方法およびプログラム |
JP2014515128A (ja) | 2011-03-04 | 2014-06-26 | エルビーティー イノベーションズ リミテッド | 明細書微生物増殖を分析する方法およびソフトウェア |
JP2016177046A (ja) | 2015-03-19 | 2016-10-06 | 株式会社レイトロン | 音声認識装置および音声認識プログラム |
Non-Patent Citations (4)
Title |
---|
Jingyan Wang, et al.,"The more you look, the more you see: towards general object understanding through recursive refinement",Proceedings of 2018 IEEE Winter Conference on Applications of Computer Vision,IEEE,2018年03月15日,Pages 1794-1803,ISBN: 978-1-5386-4886-5, <DOI: DOI: 10.1109/WACV.2018.00199>. |
山下 隆義,「イラストで学ぶ ディープラーニング」,日本,株式会社 講談社,2016年02月22日,第18~30,36~41頁,ISBN: 978-4-06-153825-2. |
岡谷 貴之,「ディープラーニングと画像認識 - 基礎と最近の動向 -」,オペレーションズ・リサーチ,日本,公益社団法人 日本オペレーションズ・リサーチ学会,2015年04月01日,Vol.60, No.4,第198~204頁,ISSN: 0030-3674. |
高木 俊平(外2名),「SIMDアレイ型FPGAを用いたMulti-Stream TrackingにおけるDCNNによる物体識別」,情報処理学会第78回(平成28年)全国大会講演論文集(1),日本,一般社団法人 情報処理学会,2016年03月10日,第1-157頁及び第1-158頁. |
Also Published As
Publication number | Publication date |
---|---|
JP2020064604A (ja) | 2020-04-23 |
US11526708B2 (en) | 2022-12-13 |
CN111417960A (zh) | 2020-07-14 |
US20200364517A1 (en) | 2020-11-19 |
EP3869450A4 (en) | 2021-12-08 |
EP3869450A1 (en) | 2021-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vennelakanti et al. | Traffic sign detection and recognition using a CNN ensemble | |
CN108960266B (zh) | 图像目标检测方法及装置 | |
CN108268869B (zh) | 目标检测方法、装置及系统 | |
JP6897335B2 (ja) | 学習プログラム、学習方法および物体検知装置 | |
CN107169421B (zh) | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 | |
KR101848019B1 (ko) | 차량 영역 검출을 통한 차량 번호판 검출 방법 및 장치 | |
Bautista et al. | Convolutional neural network for vehicle detection in low resolution traffic videos | |
CN107851318B (zh) | 用于对象跟踪的系统和方法 | |
JP6514192B2 (ja) | ライダに基づいたオブジェクト移動の分類 | |
CN108388879B (zh) | 目标的检测方法、装置和存储介质 | |
JP7311310B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2019051941A1 (zh) | 车型识别方法、装置、设备及计算机可读存储介质 | |
Walha et al. | Video stabilization with moving object detecting and tracking for aerial video surveillance | |
WO2017059576A1 (en) | Apparatus and method for pedestrian detection | |
US10964033B2 (en) | Decoupled motion models for object tracking | |
WO2014174932A1 (ja) | 画像処理装置、プログラム及び画像処理方法 | |
KR20160096460A (ko) | 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법 | |
KR101780676B1 (ko) | 트레이닝 이미지를 이용하여 분류 트리를 구성함으로써 rejector를 학습하고 상기 rejector를 이용하여 테스트 이미지 상의 객체를 검출하는 방법 | |
KR20170140214A (ko) | 신경망을 위한 훈련 기준으로서의 필터 특이성 | |
CN110097050B (zh) | 行人检测方法、装置、计算机设备及存储介质 | |
KR102476022B1 (ko) | 얼굴검출 방법 및 그 장치 | |
JP2019061505A (ja) | 情報処理システム、制御システム、及び学習方法 | |
KR101753097B1 (ko) | 차량검출방법, 차량검출을 위한 데이터베이스의 구조, 및 차량검출을 위한 데이터베이스 구축방법 | |
Baldwin et al. | Inceptive event time-surfaces for object classification using neuromorphic cameras | |
CN112926461B (zh) | 神经网络训练、行驶控制方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230706 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7311310 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |