JP6992099B2 - 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 - Google Patents
情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 Download PDFInfo
- Publication number
- JP6992099B2 JP6992099B2 JP2020005391A JP2020005391A JP6992099B2 JP 6992099 B2 JP6992099 B2 JP 6992099B2 JP 2020005391 A JP2020005391 A JP 2020005391A JP 2020005391 A JP2020005391 A JP 2020005391A JP 6992099 B2 JP6992099 B2 JP 6992099B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing
- information processing
- predetermined image
- actual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—Two-dimensional [2D] image generation
- G06T11/10—Texturing; Colouring; Generation of textures or colours
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Electromagnetism (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
撮像手段によって撮像された実画像に所定の画像処理を施す処理手段と、
前記所定の画像処理の施された画像を用いて、前記撮像された画像内の物標を認識する認識手段と、を有し、
前記処理手段は、前記実画像の階調に、同一のシーンを表すコンピュータグラフィックスで表されたCG画像の階調との差を低減させる前記所定の画像処理を施す、ことを特徴とする情報処理装置が提供される。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでするものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴うち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。また、以下の例では、制御部200が車両100に組み込まれている制御手段である場合を例に説明するが、制御部200は車両100に搭載された情報処理装置であってよい。すなわち、車両100は、制御部200に含まれるCPU210やCG化処理部213などの構成を備える情報処理装置を搭載した車両であってもよい。
まず、図1を参照して、本実施形態に係る車両100の機能構成例について説明する。なお、以降の図を参照して説明する機能ブロックの各々は、統合されまたは分離されてもよく、また説明する機能が別のブロックで実現されてもよい。また、ハードウェアとして説明するものがソフトウェアで実現されてもよく、その逆であってもよい。
次に、図2を参照して、車両100の走行制御のための主な構成について説明する。センサ部101が、例えば車両100の前方を撮影し、撮影した実画像を毎秒所定の枚数で出力する。制御部200のCG化処理部213は、センサ部101から出力された実画像に後述するCG化処理を適用して、CG化した画像を制御部200のモデル処理部214に出力する。CG化処理部213を通過した実画像は、CG画像に類似の特性を有するように、画像信号の特性が変換される。
次に、図3を参照して、物体認識処理に係るCG化処理部とモデル処理部のニューラルネットワークの構成例について説明する。図3は、CG化処理部213とモデル処理部214のそれぞれが実施するニューラルネットワークの構成例を模式的に示している。
次に、図5を参照して、CG化処理部とモデル処理部における学習段階における一連の動作について説明する。なお、本処理は、制御部200のCPU210がROM212に記憶されたプログラムをRAM211に展開、実行することにより実現される。また、本処理は、予めCG化処理部213のニューラルネットワークが学習済みの状態(すなわちニューロン間の重み付けが決定されている)であるものとする。他方、モデル処理部214のニューラルネットワークは学習済みでなく、本処理により学習済みの状態となる。また、車両100の記憶部107には、外部装置から転送された学習データが一時的に記憶されており、制御部200は、当該学習データのうちの所定の学習データを本処理における学習に用いるものとする。
次に、図6を参照して、CG化処理部213における学習段階における一連の動作について説明する。なお、本処理は、制御部200のCPU211がROM212に記憶されたプログラムをRAM211に展開、実行することにより実現される。また、本処理では、CG化処理部213のニューラルネットワークは学習済みではなく、本処理により学習済みの状態となる。また、車両100の記憶部107には、外部装置から転送されたCG化用学習データが一時的に記憶されており、制御部200は、当該CG化用学習データのうちの所定の学習データを本処理における学習に用いるものとする。
次に、図7を参照して、モデル処理部124における推定段階の一連の動作について説明する。本処理は、車両100において、実際に撮影された実画像に対して、物体認識処理を行って、対象物体の種類や物体の位置等を推定する処理である。なお、本処理は、制御部200のCPU211がROM212に記憶されたプログラムをRAM211に展開、実行することにより実現される。また、本処理は、予めCG化処理部213のニューラルネットワークとモデル処理部214のニューラルネットワークとが、学習済みの状態(すなわちニューロン間の重み付けが決定されている)である。
次に、本発明の実施形態2について説明する。上述の実施形態では、ニューラルネットワークを用いて実装されたCG化処理部213を用いて、CG化処理を行った。これに対し、本実施形態では、ルールベースによるCG化処理を実行する例について説明する。従って、本実施形態は、上述の実施形態1とはCG化処理部の内部構成のみが異なる。従って、上述の実施形態と実質的に同一である構成については同一の参照番号を付してその説明は省略する。
図8を参照して、本実施形態に係るCG化処理部とモデル処理部の構成例について説明する。なお、図8では、モデル処理部214は実施形態1と同様であるため、同一の符号を付して同一の構成を示している。一方、CG化処理部801は、ルールベースの処理により実現される。
上述のCG化処理部801の構成において、制御部200は、図5及び図7に示した学習段階での画像認識処理(S501~S507)及び推定段階での画像認識処理(S701~S703)を、実施形態1と同様に行うことができる。
上述の実施形態では、車両100において画像認識処理を実行する場合を例に説明した。しかし、本実施形態は、画像認識を車両において実行する場合に限らず、情報処理サーバにおいて実行する場合にも適用可能である。すなわち、車両100において取得された実画像を情報処理サーバが受信して、受信した実画像に対して画像認識処理を実行し、その認識結果を車両100の送信するようにしてもよい。以下、このような実施形態における情報処理サーバの機能構成例について説明する。
次に、情報処理サーバの機能構成例について、図10を参照して説明する。なお、以降の図を参照して説明する機能ブロックの各々は、統合されまたは分離されてもよく、また説明する機能が別のブロックで実現されてもよい。また、ハードウェアとして説明するものがソフトウェアで実現されてもよく、その逆であってもよい。
なお、上述の実施形態では、制御部200或いは制御部1004がCG画像及び実画像を用いて学習したうえで、実画像を用いて物体認識処理を実行する場合を例に説明した。しかし、上述の実施形態は、画像認識処理に係る他の処理を実施する場合にも適用可能である。すなわち、本実施形態は、例えば、走路認識、シーン理解、交通参加者行動予測などの画像に基づく認識処理にも適用することができる。例えば、モデル処理部1014がシーン理解のために上述の処理を行ってもよい。
1.上記実施形態の情報処理装置(例えば、車両100に含まれる情報処理装置)は、
撮像手段によって撮像された実画像に所定の画像処理を施す処理手段(例えば、213)と、
所定の画像処理の施された画像を用いて、撮像された画像内の物標を認識する認識手段(例えば、214)と、を有し、
処理手段は、実画像の階調に、同一のシーンを表すコンピュータグラフィックスで表されたCG画像の階調との差を低減させる所定の画像処理を施す。
認識手段は第1の学習モデル(例えば、320、321、322、323)を含み、
第1の学習モデルを学習させるための学習データは、実画像とCG画像とを含む。
処理手段は、更に学習データに所定の画像処理を施すことが可能であり、
処理手段は、所定の画像処理を施そうとする画像がCG画像であると判定した場合には、該画像に所定の画像処理を施さない。
認識手段は、更に、所定の画像処理が施されていないCG画像を用いて、CG画像内の物標を認識する。
処理手段は、画像におけるエッジ成分を保持しながら、ランダムノイズを除去する特性を有する所定の画像処理を施す(例えば、S502)。
処理手段は、εフィルタを用いて所定の画像処理を施す(例えば、S502)。
処理手段は、第2の学習モデルによって所定の画像処理を施すように構成され、第2の学習モデルは、実画像と、当該実画像をCG化した正解データとの組み合わせを学習データとして用いて学習される。
処理手段は、実画像に特定の物標が存在する場合、特定の物標の領域と他の領域とに対する所定の画像処理を異ならせる。
Claims (13)
- 撮像手段によって撮像された実画像に所定の画像処理を施す処理手段と、
前記所定の画像処理の施された画像を用いて、前記撮像された画像内の物標を認識する認識手段と、を有し、
前記処理手段は、前記実画像の階調に、同一のシーンを表すコンピュータグラフィックスで表されたCG画像の階調との差を低減させる前記所定の画像処理を施す、ことを特徴とする情報処理装置。 - 前記認識手段は第1の学習モデルを含み、
前記第1の学習モデルを学習させるための学習データは、前記実画像と前記CG画像とを含む、ことを特徴とする請求項1に記載の情報処理装置。 - 前記処理手段は、更に前記学習データに前記所定の画像処理を施すことが可能であり、
前記処理手段は、前記所定の画像処理を施そうとする画像が前記CG画像であると判定した場合には、該画像に前記所定の画像処理を施さない、ことを特徴とする請求項2に記載の情報処理装置。 - 前記認識手段は、更に、前記所定の画像処理が施されていない前記CG画像を用いて、前記CG画像内の物標を認識する、ことを特徴とする請求項3に記載の情報処理装置。
- 前記処理手段は、前記画像におけるエッジ成分を保持しながら、ランダムノイズを除去する特性を有する前記所定の画像処理を施す、ことを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
- 前記処理手段は、εフィルタを用いて前記所定の画像処理を施す、ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
- 前記処理手段は、第2の学習モデルによって前記所定の画像処理を施すように構成され、前記第2の学習モデルは、前記実画像と、当該実画像をCG化した正解データとの組み合わせを学習データとして用いて学習される、ことを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。
- 前記処理手段は、前記実画像に特定の物標が存在する場合、前記特定の物標の領域と他の領域とに対する前記所定の画像処理を異ならせる、ことを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。
- 請求項1から8のいずれか1項に記載の情報処理装置を備える、ことを特徴とする車両。
- 情報処理装置の制御方法であって、
撮像手段によって撮像された実画像に所定の画像処理を施す処理工程と、
前記所定の画像処理の施された画像を用いて、前記撮像された画像内の物標を認識する認識工程と、を有し、
前記処理工程では、前記実画像の階調に、同一のシーンを表すコンピュータグラフィックスで表されたCG画像の階調との差を低減させる前記所定の画像処理を施す、ことを特徴とする情報処理装置の制御方法。 - コンピュータを、請求項1から8のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
- 情報処理サーバであって、
撮像手段によって撮像された実画像に所定の画像処理を施す処理手段と、
前記所定の画像処理の施された画像を用いて、前記撮像された画像内の物標を認識する認識手段と、を有し、
前記処理手段は、前記実画像の階調に、同一のシーンを表すコンピュータグラフィックスで表されたCG画像の階調との差を低減させる前記所定の画像処理を施す、ことを特徴とする情報処理サーバ。 - 情報処理サーバによって実行される情報処理方法であって、
撮像手段によって撮像された実画像に所定の画像処理を施す処理工程と、
前記所定の画像処理の施された画像を用いて、前記撮像された画像内の物標を認識する認識工程と、を有し、
前記処理工程では、前記実画像の階調に、同一のシーンを表すコンピュータグラフィックスで表されたCG画像の階調との差を低減させる前記所定の画像処理を施す、ことを特徴とする情報処理方法。
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020005391A JP6992099B2 (ja) | 2020-01-16 | 2020-01-16 | 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 |
| CN202011589363.5A CN113139567B (zh) | 2020-01-16 | 2020-12-29 | 信息处理装置及其控制方法、车辆、记录介质、信息处理服务器、信息处理方法 |
| US17/143,521 US11860627B2 (en) | 2020-01-16 | 2021-01-07 | Image processing apparatus, vehicle, control method for information processing apparatus, storage medium, information processing server, and information processing method for recognizing a target within a captured image |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2020005391A JP6992099B2 (ja) | 2020-01-16 | 2020-01-16 | 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021114048A JP2021114048A (ja) | 2021-08-05 |
| JP6992099B2 true JP6992099B2 (ja) | 2022-01-13 |
Family
ID=76809816
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2020005391A Active JP6992099B2 (ja) | 2020-01-16 | 2020-01-16 | 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 |
Country Status (3)
| Country | Link |
|---|---|
| US (1) | US11860627B2 (ja) |
| JP (1) | JP6992099B2 (ja) |
| CN (1) | CN113139567B (ja) |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR102159052B1 (ko) * | 2020-05-12 | 2020-09-23 | 주식회사 폴라리스쓰리디 | 영상 분류 방법 및 장치 |
| CN119947870A (zh) * | 2022-09-29 | 2025-05-06 | 株式会社尼康 | 运算装置、运算系统、机器人系统、运算方法及计算机程序 |
| JPWO2025027797A1 (ja) * | 2023-08-01 | 2025-02-06 |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014137756A (ja) | 2013-01-17 | 2014-07-28 | Canon Inc | 画像処理装置および画像処理方法 |
| JP2014229115A (ja) | 2013-05-23 | 2014-12-08 | キヤノン株式会社 | 情報処理装置および方法、プログラム、記憶媒体 |
| JP2018060512A (ja) | 2016-10-06 | 2018-04-12 | 株式会社アドバンスド・データ・コントロールズ | 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 |
| JP2018163444A (ja) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| WO2018198233A1 (ja) | 2017-04-26 | 2018-11-01 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、画像認識装置、学習方法及びプログラム |
Family Cites Families (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2000201298A (ja) * | 1999-01-07 | 2000-07-18 | Sony Corp | 画像処理装置および画像処理方法、並びに提供媒体 |
| JP4152340B2 (ja) * | 2004-03-26 | 2008-09-17 | 富士フイルム株式会社 | 画像処理システムおよびその方法 |
| JP2005332054A (ja) * | 2004-05-18 | 2005-12-02 | Konica Minolta Photo Imaging Inc | 画像処理方法、画像処理装置、画像記録装置及び画像処理プログラム |
| JP6316074B2 (ja) * | 2013-10-22 | 2018-04-25 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
| JP2018527660A (ja) | 2015-07-29 | 2018-09-20 | ノキア テクノロジーズ オーユー | ニューラルネットワークによるオブジェクト検出 |
-
2020
- 2020-01-16 JP JP2020005391A patent/JP6992099B2/ja active Active
- 2020-12-29 CN CN202011589363.5A patent/CN113139567B/zh active Active
-
2021
- 2021-01-07 US US17/143,521 patent/US11860627B2/en active Active
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014137756A (ja) | 2013-01-17 | 2014-07-28 | Canon Inc | 画像処理装置および画像処理方法 |
| JP2014229115A (ja) | 2013-05-23 | 2014-12-08 | キヤノン株式会社 | 情報処理装置および方法、プログラム、記憶媒体 |
| JP2018060512A (ja) | 2016-10-06 | 2018-04-12 | 株式会社アドバンスド・データ・コントロールズ | 画像生成システム、プログラム及び方法並びにシミュレーションシステム、プログラム及び方法 |
| JP2018163444A (ja) | 2017-03-24 | 2018-10-18 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
| WO2018198233A1 (ja) | 2017-04-26 | 2018-11-01 | 株式会社ソニー・インタラクティブエンタテインメント | 学習装置、画像認識装置、学習方法及びプログラム |
Also Published As
| Publication number | Publication date |
|---|---|
| US20210224554A1 (en) | 2021-07-22 |
| CN113139567A (zh) | 2021-07-20 |
| US11860627B2 (en) | 2024-01-02 |
| CN113139567B (zh) | 2024-09-06 |
| JP2021114048A (ja) | 2021-08-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7666530B2 (ja) | 3dバウンディングボックスからの単眼深度管理 | |
| WO2019230339A1 (ja) | 物体識別装置、移動体用システム、物体識別方法、物体識別モデルの学習方法及び物体識別モデルの学習装置 | |
| KR20210025942A (ko) | 종단간 컨볼루셔널 뉴럴 네트워크를 이용한 스테레오 매칭 방법 | |
| US12288348B2 (en) | Depth estimation based on ego-motion estimation and residual flow estimation | |
| CN114418030A (zh) | 图像分类方法、图像分类模型的训练方法及装置 | |
| CN111696196B (zh) | 一种三维人脸模型重建方法及装置 | |
| CN113496194B (zh) | 信息处理装置、信息处理方法、车辆、信息处理服务器和记录介质 | |
| JP6992099B2 (ja) | 情報処理装置、車両、車両の制御方法、プログラム、情報処理サーバ、情報処理方法 | |
| US12423842B2 (en) | Information processing method and storage medium for estimating camera pose using machine learning model | |
| WO2018168539A1 (ja) | 学習方法およびプログラム | |
| US12307695B2 (en) | System and method for self-supervised monocular ground-plane extraction | |
| US11915487B2 (en) | System and method for self-supervised depth and ego-motion overfitting | |
| US12450920B2 (en) | Method of detecting at least one traffic lane marking and/or road marking in at least one digital image representation | |
| US12131493B2 (en) | Apparatus and method for generating depth map using monocular image | |
| CN117274347A (zh) | 自编码器训练方法、系统及深度影像生成方法 | |
| US12243262B2 (en) | Apparatus and method for estimating distance and non-transitory computer-readable medium containing computer program for estimating distance | |
| CN115019116B (zh) | 学习装置以及学习方法 | |
| CN118629001A (zh) | 生成周围环境的表示的方法 | |
| CN120236215B (zh) | 一种基于图像处理的无人机避障方法及设备 | |
| CN119399714A (zh) | 一种3d车道线估计方法、装置、计算机可读存储介质、计算机设备及车辆 | |
| CN121191109A (zh) | 一种车道线检测方法、装置、电子设备及计算机程序产品 | |
| WO2026009555A1 (ja) | 物体検出aiの検証・再学習システム、物体検出aiの検証・再学習方法 | |
| CN119540569A (zh) | 一种目标检测方法、装置、车辆以及计算设备集群 | |
| CN119273977A (zh) | 三维目标检测方法、装置、计算机设备、存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200929 |
|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20210103 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210125 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211112 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211208 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6992099 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |