JP6971934B2 - 画像処理装置 - Google Patents
画像処理装置 Download PDFInfo
- Publication number
- JP6971934B2 JP6971934B2 JP2018151247A JP2018151247A JP6971934B2 JP 6971934 B2 JP6971934 B2 JP 6971934B2 JP 2018151247 A JP2018151247 A JP 2018151247A JP 2018151247 A JP2018151247 A JP 2018151247A JP 6971934 B2 JP6971934 B2 JP 6971934B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- distance
- information
- statistical model
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
- G06T7/596—Depth or shape recovery from multiple images from stereo images from three or more stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Robotics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Measurement Of Optical Distance (AREA)
- Image Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Processing (AREA)
Description
まず、図1を参照して、一実施形態に係る画像処理装置を適用する測距装置の構成を説明する。この測距装置1は、画像を撮像し、撮像された画像を用いて撮像地点から被写体までの距離(奥行きとも称する)を推定する。
たとえば図2に示したフィルタ21がカメラの開口部に配置されることにより、開口部が二色で二分割された構造開口であるカラー開口が構成される。このカラー開口を透過する光線に基づいて、イメージセンサ23は画像を生成する。イメージセンサ23に入射する光の光路上において、フィルタ21とイメージセンサ23との間にレンズ22が配置されてもよい。イメージセンサ23に入射する光の光路上において、レンズ22とイメージセンサ23との間にフィルタ21が配置されてもよい。レンズ22が複数設けられる場合、フィルタ21は、2つのレンズ22の間に配置されてもよい。
被写体210が合焦距離dfよりも奥にある場合(d>df)、イメージセンサ23によって撮像された画像にはぼけが発生する。この画像のぼけの形状は、R画像、G画像およびB画像でそれぞれ異なっている。例えば、R画像のぼけの形状(201R)は左側に偏り、G画像のぼけの形状(201G)は偏りがなく、B画像のぼけの形状(201B)は右側に偏っている。また、被写体210が合焦距離dfから奥に離れる程、ぼけのサイズは大きくなる。ぼけは、隣接する画素との画素値の差分(勾配)を用いて検出することができる。
測距装置1は、互いに異なる波長帯域の光を透過する複数のフィルタ領域を含むフィルタ21を備える撮像部11によって、ぼけが互いに異なる形状で発生する複数の画像を生成する(撮影画像a1)。画像処理部12は、この複数の画像の情報を、事前に学習された統計モデル122Aに入力し、統計モデル122Aによって、被写体までの距離を取得する(距離情報a2)。
図7を参照して説明した通り、この画像処理装置1の撮像部11によって生成される複数の画像(撮影画像a1)上のぼけ(ぼけ情報b1)は、被写体210までの距離に関する物理的な手がかりとなる。具体的には、ぼけの色(形状)やサイズが、被写体210までの距離に関する手がかりとなる。画像処理装置1の画像処理部12、より詳しくは、距離取得部122は、当該物理的な手がかりである撮影画像a1中のぼけ情報b1を統計モデル122Aで分析し、被写体210までの距離(距離情報a2)を推定する。
第1例においては、距離取得部122は、撮影画像a1から局所領域(画像パッチa11)を抽出し、当該局所領域ごとに、撮影画像a1の情報を統計モデル122Aへ入力して距離情報a2を推定する。局所領域の抽出は、例えば、撮影画像a1の全領域をマトリックス状に分割し、分割後の部分領域を順次抽出することであってもよいし、撮影画像a1を認識して、被写体像が検出された領域を網羅するように、複数の局所領域を抽出することであってもよい。また、局所領域は、他の局所領域との間で一部がオーバーラップしていてもよい。
撮影画像a1から局所領域(画像パッチa11)を抽出する距離取得部122は、R画像、G画像およびB画像のそれぞれについて、当該局所領域の勾配データΔa1(Δa1−R,Δa1−G,Δa1−B)を生成して、この勾配データΔa1を統計モデル122Aに入力する。勾配データΔa1は、各画素の隣接する画素との画素値の差分を示す。例えば、局所領域が、n画素(X軸方向)×m画素(Y軸方向)の矩形領域として抽出される場合、局所領域内の各画素について算出した例えば右隣の画素との差分値をn行×m列のマトリックス状に配置した勾配データΔa1が生成されて、統計モデル122Aに入力される。統計モデル122Aは、R画像の勾配データΔa1−Rと、G画像の勾配データΔa1−Gと、B画像の勾配データΔa1−Bとを使って、ぼけから距離情報を抽出する。なお、原理的には、R画像の勾配データΔa1−RとG画像の勾配データΔa1−Gとのペア、G画像の勾配データΔa1−GとB画像の勾配データΔa1−Bとのペア、または、B画像の勾配データΔa1−BとR画像の勾配データΔa1−Rとのペア、のいずれかが入力されれば、ペアの偏り具合から距離を判断できるので、ぼけから距離情報を抽出する条件は成立する。
第2例においては、撮影画像a1の情報として、第1例における局所領域(画像パッチa11)ごとの勾配データΔa1の入力に加え、当該局所領域の撮影画像a1上における位置情報a12をさらに統計モデル122Aへ入力する。位置情報a12は、例えば、局所領域の中心点に対応するものであってもよいし、例えば左上辺などの予め定められた一辺に対応するものであってもよいし、画像パッチa11に含まれる画素それぞれの撮影画像a1上での位置情報を用いてもよい。
例えば、n画素(X軸方向)×m画素(Y軸方向)の矩形領域を局所領域として抽出する場合、距離取得部122は、当該局所領域の例えば中心点に対応する撮影画像a1上のX座標値を、n×m個、n行×m列のマトリックス状に配置したX座標データa12−1と、当該局所領域の例えば中心点に対応する撮影画像a1上のY座標値を、n×m個、n行×m列のマトリックス状に配置したY座標データa12−2とを生成して、勾配データΔa1(Δa1−R,Δa1−G,Δa1−B)とともに、統計モデル122Aに入力する。
第3例においては、距離取得部122は、第1例や第2例のような、撮影画像a1からの局所領域(画像パッチa11)の抽出は行わず、撮影画像a1の全領域について、撮影画像a1の情報(勾配データΔa1(Δa1−R,Δa1−G,Δa1−B))を統計モデル122Aに入力する。
図9を参照して説明した第1例、図11を参照して説明した第2例、図13を参照して説明した第3例のいずれの方式が適用される場合においても、統計モデル122Aの学習方法は、基本的に、撮影画像a1の情報を統計モデル122Aに入力し、統計モデル122Aによって推定された距離情報a2と正解値c1との誤差を統計モデル122Aにフィードバックするというものである。フィードバックとは、誤差が減少するように統計モデル122Aのパラメータを更新することである。
まず、撮影画像a1の情報、より詳しくは、ぼけの形状が左側または右側に偏るR画像およびB画像の勾配データ(Δa1−R,Δa1−B)を少なくとも含む2種類以上の勾配データΔa1を統計モデル122Aへ入力する(ステップA1)。撮影画像a1の情報を、撮影画像a1から抽出した局所領域(画像パッチa11)ごとに入力する場合、当該局所領域の撮影画像a1上における位置情報a12をさらに統計モデル122Aへ入力してもよい。
画像処理装置1は、互いに異なる波長帯域の光を透過する2以上のフィルタ領域(第1フィルタ領域211、第2フィルタ領域212)を含むフィルタ21を開口部に備えたカメラ(撮像部11)で画像(撮影画像a1)を撮影する(ステップB1)。
図18に示すように、この変形例では、統計モデル122Aが、撮影画像a1の情報から距離情報a2を推定する際、その推定の不確実性の度合いを画素ごとに算出して、その値を不確実性情報a3として距離情報a2とともに出力する。統計モデル122Aによる推定の不確実性の度合いの算出方法は、特定の方法に限定されず、既知の様々な方法を適用することができる。
図19は、この変形例における統計モデル122Aの学習方法の一例を示す図である。
図19に示すように、統計モデル122Aが不確実性情報a3を出力する本変形例においても、基本的には、撮影画像a1の情報を統計モデル122Aに入力し、統計モデル122Aによって推定された距離情報a2と正解値c1との誤差を統計モデル122Aにフィードバックする。不確実性を学習する際には、距離情報と正解値との誤差を不確実性の二乗で割り算した誤差を用いることで学習時の偏りを減少させることができる。ただしそのままでは不確実性を無限大とすることで誤差をゼロにできてしまうため、不確実性の二乗をペナルティとして誤差に加算する。つまり、推定された距離情報a2と正解値c1との誤差を不確実性で補正した値が減少するように統計モデル122Aのパラメータを更新する。さらに、この変形例では、不確実性情報a3を用いて、学習の偏りをなくすことができる。例えば、推定された距離情報a2と正解値c1との誤差が無い一方で、不確実性情報a3で示される推定の不確実性の度合いが高い場合、その距離情報a2は偶然に推定された可能性があり、その距離の学習が不足していることを認識することができる。
先に説明した図16のフローチャートとの違いを説明すると、まず、ステップB3において、統計モデル122Aによって、推定された距離(距離情報a2)の不確実性情報a3が出力される。
(応用例)
以下、前述のような構成を有する測距装置1が適用される応用例についていくつか説明する。
図22に示すように、移動体9が自動車9Aである場合、撮像部11は、前方を撮像するいわゆるフロントカメラとして設置され得るほか、バック時に後方を撮像するいわゆるリアカメラとしても設置され得る。もちろん、これら両方が設置されてもよい。また、撮像部11は、いわゆるドライブレコーダーとしての機能を兼ねて設置されるものであってもよい。すなわち、撮像部11は録画機器であってもよい。
また、本実施形態に記載された様々な機能の各々は、回路(処理回路)によって実現されてもよい。処理回路の例には、中央処理装置(CPU)のような、プログラムされたプロセッサが含まれる。このプロセッサは、メモリに格納されたコンピュータプログラム(命令群)を実行することによって、記載された機能それぞれを実行する。このプロセッサは、電気回路を含むマイクロプロセッサであってもよい。処理回路の例には、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、マイクロコントローラ、コントローラ、他の電気回路部品も含まれる。本実施形態に記載されたCPU以外の他のコンポーネントの各々もまた処理回路によって実現されてもよい。
Claims (10)
- 単一の結像光学系による一度の撮像によって得られる、非対称の第1形状のぼけを含む被写体の第1画像と、非対称の第2形状のぼけを含む前記被写体の第2画像とを取得する画像取得部と、
前記第1画像および前記第2画像を入力し、事前に学習された統計モデルによって、前記被写体までの距離情報を取得する距離取得部と、
を具備する画像処理装置。 - 前記結像光学系は、第1波長帯域の光を透過し、第2波長帯域の光を遮蔽する第1フィルタ領域と、前記第1波長帯域の光を遮蔽し、前記第2波長帯域の光を透過する第2フィルタ領域とを有するフィルタを被写体光の光路上に備え、
前記第1画像は、前記第1波長帯域の光を受光して被写体像を結像する第1イメージセンサによって撮像され、
前記第2画像は、前記第1フィルタ領域および前記第2フィルタ領域を透過する第3波長帯域の光を受光して被写体像を結像する第2イメージセンサまたは前記第2波長帯域の光を受光して被写体像を結像する第3イメージセンサによって撮像される、
請求項1に記載の画像処理装置。 - 前記統計モデルは、ニューラルネットワークまたはランダムフォレストである請求項1または2に記載の画像処理装置。
- 前記距離取得部は、前記第1画像および前記第2画像から局所領域を抽出し、前記局所領域の前記第1画像および前記第2画像の情報を前記統計モデルに入力して、前記局所領域内の距離情報を取得する請求項1乃至3のいずれか1項に記載の画像処理装置。
- 前記統計モデルに入力される前記第1画像および前記第2画像の情報は、各画素の隣接する画素との画素値の差分を示す情報である請求項4に記載の画像処理装置。
- 前記距離取得部は、前記第1画像および前記第2画像の情報とともに、前記局所領域の位置情報を前記統計モデルに入力する請求項4または5に記載の画像処理装置。
- 前記位置情報は、前記第1画像上および前記第2画像上における前記局所領域の中心点の座標を示す情報である請求項6に記載の画像処理装置。
- 前記統計モデルは、前記第1画像および前記第2画像の少なくとも1画素以上について前記被写体までの距離を推定して前記距離情報を出力し、かつ、前記推定した距離の不確実性情報を出力する請求項1乃至7のいずれか1項に記載の画像処理装置。
- 前記距離取得部は、閾値以上の不確実性を示す前記不確実性情報とともに前記統計モデルから出力された距離情報を破棄する請求項8に記載の画像処理装置。
- 前記距離取得部は、閾値以上の不確実性を示す前記不確実性情報とともに前記統計モデルから出力された距離情報を、前記閾値未満の不確実性を示す前記不確実性情報とともに前記統計モデルから出力された前記第1画像上および前記第2画像上における周辺の距離情報を用いて補正する請求項8に記載の画像処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018151247A JP6971934B2 (ja) | 2018-08-10 | 2018-08-10 | 画像処理装置 |
US16/295,323 US11100662B2 (en) | 2018-08-10 | 2019-03-07 | Image processing apparatus, ranging apparatus and processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018151247A JP6971934B2 (ja) | 2018-08-10 | 2018-08-10 | 画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020026990A JP2020026990A (ja) | 2020-02-20 |
JP6971934B2 true JP6971934B2 (ja) | 2021-11-24 |
Family
ID=69406070
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018151247A Active JP6971934B2 (ja) | 2018-08-10 | 2018-08-10 | 画像処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11100662B2 (ja) |
JP (1) | JP6971934B2 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6991700B2 (ja) * | 2016-04-28 | 2022-01-12 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP6989466B2 (ja) * | 2018-09-13 | 2022-01-05 | 株式会社東芝 | 光学フィルタ、撮像装置および測距装置 |
JP7051740B2 (ja) | 2019-03-11 | 2022-04-11 | 株式会社東芝 | 画像処理装置、測距装置、方法及びプログラム |
JP7204586B2 (ja) | 2019-06-17 | 2023-01-16 | 株式会社東芝 | 学習方法、プログラム及び画像処理装置 |
JP7170609B2 (ja) | 2019-09-12 | 2022-11-14 | 株式会社東芝 | 画像処理装置、測距装置、方法及びプログラム |
JP7123884B2 (ja) | 2019-09-12 | 2022-08-23 | 株式会社東芝 | 撮像装置、方法及びプログラム |
JP7370922B2 (ja) * | 2020-04-07 | 2023-10-30 | 株式会社東芝 | 学習方法、プログラム及び画像処理装置 |
JP7446985B2 (ja) | 2020-12-15 | 2024-03-11 | 株式会社東芝 | 学習方法、プログラム及び画像処理装置 |
JP7482070B2 (ja) | 2021-03-16 | 2024-05-13 | 株式会社東芝 | 学習方法、プログラム及び画像処理装置 |
JP7447042B2 (ja) | 2021-03-17 | 2024-03-11 | 株式会社東芝 | 画像処理装置、方法及びプログラム |
JP2023065092A (ja) | 2021-10-27 | 2023-05-12 | 株式会社東芝 | 測距装置、画像処理装置、方法及びプログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0843055A (ja) | 1994-07-29 | 1996-02-16 | Canon Inc | 3次元物体形状認識方法及び装置 |
US6118475A (en) | 1994-06-02 | 2000-09-12 | Canon Kabushiki Kaisha | Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape |
KR101488655B1 (ko) * | 2007-09-14 | 2015-02-03 | 삼성전자 주식회사 | 자동 초점 조절 장치 및 방법 |
JP5045801B2 (ja) * | 2009-09-09 | 2012-10-10 | 株式会社ニコン | 焦点検出装置、撮影レンズユニット、撮像装置およびカメラシステム |
US9626766B2 (en) * | 2014-02-28 | 2017-04-18 | Microsoft Technology Licensing, Llc | Depth sensing using an RGB camera |
JP2016102733A (ja) | 2014-11-28 | 2016-06-02 | 株式会社東芝 | レンズ及び撮影装置 |
US10148864B2 (en) * | 2015-07-02 | 2018-12-04 | Pixart Imaging Inc. | Imaging device having phase detection pixels and regular pixels, and operating method thereof |
US10382684B2 (en) | 2015-08-20 | 2019-08-13 | Kabushiki Kaisha Toshiba | Image processing apparatus and image capturing apparatus |
JP6608763B2 (ja) | 2015-08-20 | 2019-11-20 | 株式会社東芝 | 画像処理装置及び撮影装置 |
JP6585006B2 (ja) | 2016-06-07 | 2019-10-02 | 株式会社東芝 | 撮影装置および車両 |
US11210799B2 (en) * | 2017-10-04 | 2021-12-28 | Google Llc | Estimating depth using a single camera |
US11503201B2 (en) | 2017-10-13 | 2022-11-15 | Sony Corporation | Focus detection device and method |
US10748247B2 (en) * | 2017-12-26 | 2020-08-18 | Facebook, Inc. | Computing high-resolution depth images using machine learning techniques |
US11080590B2 (en) * | 2018-03-21 | 2021-08-03 | Nvidia Corporation | Stereo depth estimation using deep neural networks |
CN108932734B (zh) * | 2018-05-23 | 2021-03-09 | 浙江商汤科技开发有限公司 | 单目图像的深度恢复方法及装置、计算机设备 |
-
2018
- 2018-08-10 JP JP2018151247A patent/JP6971934B2/ja active Active
-
2019
- 2019-03-07 US US16/295,323 patent/US11100662B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020026990A (ja) | 2020-02-20 |
US20200051264A1 (en) | 2020-02-13 |
US11100662B2 (en) | 2021-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6971934B2 (ja) | 画像処理装置 | |
JP6878219B2 (ja) | 画像処理装置および測距装置 | |
JP7051740B2 (ja) | 画像処理装置、測距装置、方法及びプログラム | |
US11748898B2 (en) | Methods and system for infrared tracking | |
EP3107790B1 (en) | Autonomous driving system and method for same | |
KR101579098B1 (ko) | 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량 | |
JP7123884B2 (ja) | 撮像装置、方法及びプログラム | |
JP6971933B2 (ja) | 画像処理装置及び撮像装置 | |
CN112484691B (zh) | 图像处理装置、测距装置、测距方法及记录介质 | |
JP2019011971A (ja) | 推定システムおよび自動車 | |
CN108076263B (zh) | 摄像装置及自动控制系统 | |
US20220270222A1 (en) | Image processing device, ranging device, and method | |
KR20220023989A (ko) | 시스템, 정보 처리 장치, 정보 처리 방법 및 프로그램 | |
JP6847891B2 (ja) | 画像処理装置、撮像装置及び方法 | |
JP2023065092A (ja) | 測距装置、画像処理装置、方法及びプログラム | |
US20230141542A1 (en) | Image processing device, method, and storage medium | |
JP7447042B2 (ja) | 画像処理装置、方法及びプログラム | |
JP2022040134A (ja) | 推定システムおよび自動車 | |
CN116503822A (zh) | 图像识别方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210316 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211102 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6971934 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |