JP2023531350A - サンプル画像を増分する方法、画像検出モデルの訓練方法及び画像検出方法 - Google Patents

サンプル画像を増分する方法、画像検出モデルの訓練方法及び画像検出方法 Download PDF

Info

Publication number
JP2023531350A
JP2023531350A JP2022552961A JP2022552961A JP2023531350A JP 2023531350 A JP2023531350 A JP 2023531350A JP 2022552961 A JP2022552961 A JP 2022552961A JP 2022552961 A JP2022552961 A JP 2022552961A JP 2023531350 A JP2023531350 A JP 2023531350A
Authority
JP
Japan
Prior art keywords
image
candidate region
interest
region
loss value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022552961A
Other languages
English (en)
Inventor
ワン,ユンハオ
ジャン,ビン
シン,イン
ファン,ユアン
ハン,シュミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2023531350A publication Critical patent/JP2023531350A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本開示はサンプル画像を増分する方法、画像検出モデルの訓練方法、画像検出方法、及び対応する装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム製品を提供しており、コンピュータ視覚及び深層学習などの人工知能分野に関し、スマートクラウド及び工業品質検査のシーンに適用することができる。一実施形態では、元のサンプル画像の第1の畳み込み特徴を取得するステップと、領域提案ネットワーク及び第1の畳み込み特徴に基づいて、候補領域と、候補領域に目標対象物が存在する第1の確率とを決定するステップと、第1の確率に基づいて、候補領域において注目候補領域を決定し、注目候補領域を元のサンプル画像にマッピングして、中間画像を得るステップと、中間画像内の注目候補領域に対応する部分に対して画像強調処理を行い、および/または、中間画像内の注目候補領域以外の領域に対応する部分に対して画像ぼかし処理を行って、増分サンプル画像を得るステップと、を含む。この実施形態により生成される増分サンプル画像は、より高い利用可能性を有する。【選択図】図1

Description

<関連出願の相互参照>
本出願は、2021年4月7日に提出された、出願番号が202110371342.4で、発明の名称が「サンプル画像を増分する方法、画像検出モデルの訓練方法及び画像検出方法」である中国特許出願に基づく優先権を主張し、当該出願の全文を引用により本出願に組み込む。
本開示は人工知能分野に関し、具体的には、コンピュータ視覚及び深層学習技術に関し、インテリジェントクラウド及び製造業の品質検査のシーンに適用することができ、特に、サンプル画像を増分する方法、画像検出モデルの訓練方法、画像検出方法、並びに対応する装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム製品に関する。
対象物検出の分野では、訓練済みモデルを用いて、実物のサンプルに対して対象物検出を行うために、機械学習アルゴリズムは、一般に、大量のアノテーションされた訓練サンプルを学習する必要がある。
幾つかの技術分野では、対象物が疎らで、又は、対象物の取得が極めて難しいため、訓練サンプルを十分に収集することが困難であり、訓練済みモデルの認識能力が確保できない。
従来技術では、通常に、サンプル画像を回転するなどの変換手段や、敵対的生成ネットワーク(Generative adversarial network)または遷移学習に基づく手段により、小さなサンプルに対するサンプルの増分を達成する。
本開示の実施形態は、サンプル画像を増分する方法、画像検出モデルの訓練方法、画像検出方法、並びに対応する装置、電子機器、コンピュータ可読記憶媒体、およびコンピュータプログラム製品を提供する。
第1の態様では、本開示の実施形態は、サンプル画像を増分する方法であって、元のサンプル画像の第1の畳み込み特徴を取得するステップと、領域提案ネットワーク及び第1の畳み込み特徴に基づいて、候補領域と、候補領域に目標対象物が存在する第1の確率とを決定するステップと、第1の確率に基づいて、候補領域において注目候補領域を決定し、注目候補領域を元のサンプル画像にマッピングして、中間画像を得るステップと、中間画像内の注目候補領域に対応する部分に対して画像強調処理を行い、および/または、中間画像内の注目候補領域以外の領域に対応する部分に対して画像ぼかし処理を行って、増分サンプル画像を得るステップと、を含む方法を提供する。
第2の態様では、本開示の実施形態は、サンプル画像を増分する装置であって、元のサンプル画像の第1の畳み込み特徴を取得するように構成される第1の畳み込み特徴量取得ユニットと、領域提案ネットワーク及び第1の畳み込み特徴に基づいて、候補領域と候補領域に目標対象物が存在することの第1の確率とを決定するように構成される候補領域・確率決定ユニットと、第1の確率に基づいて、候補領域において注目候補領域を決定し、注目候補領域を元のサンプル画像にマッピングして、中間画像を得るように構成される注目候補領域決定・マッピングユニットと、中間画像内の注目候補領域に対応する部分に対して画像強調処理を行い、および/または、中間画像内の注目候補領域以外の領域に対応する部分に対して画像ぼかし処理を行って、増分サンプル画像を得るように構成される中間画像処理ユニットと、を備える装置を提供する。
第3の態様では、本開示の実施形態は、画像検出モデルの訓練方法であって、増分サンプル画像の第2の畳み込み特徴を取得するステップであって、増分サンプル画像は第1の態様のいずれかの実施形態により取得された増分サンプル画像であるステップと、領域提案ネットワーク及び第2の畳み込み特徴に基づいて、新しい候補領域と、新しい候補領域に目標対象物が存在することの第2の確率とを決定するステップと、第1の確率に対応する第1の損失値、及び前記第2の確率に対応する第2の損失値を取得するステップと、重み付け後の第1の損失値と第2の損失値に基づいて、統合損失値を決定するステップと、統合損失値が予め設定された要求を満たすことにより、訓練済み画像検出モデルを得るステップと、を含む方法を提供する。
第4の態様では、本開示の実施形態は、画像検出モデルの訓練装置であって、増分サンプル画像の第2の畳み込み特徴を取得するように構成される第2の畳み込み特徴量取得ユニットであって、増分サンプル画像は第2の態様のいずれかの実施形態より取得された増分サンプル画像であるユニットと、領域提案ネットワーク及び第2の畳み込み特徴に基づいて、新しい候補領域と、新しい候補領域に目標対象物が存在することの第2の確率とを決定するように構成される新候補領域・確率決定ユニットと、第1の確率に対応する第1の損失値、及び第2の確率に対応する第2の損失値を取得するように構成される損失値取得ユニットと、重み付け後の第1の損失値と第2の損失値に基づいて、統合損失値を決定するように構成される統合損失値決定ユニットと、統合損失値が予め設定された要求を満たすことにより、訓練済み画像検出モデルを得るように構成される画像検出モデル訓練ユニットと、を備える装置を提供する。
第5の態様では、本開示の実施形態は、画像検出方法であって、検出待ちの画像を受信するステップと、画像検出モデルを呼び出して、検出待ちの画像を検出するステップであって、画像検出モデルは、第3の態様のいずれかの実施形態により得られた画像検出モデルであるステップと、を含む方法を提供する。
第6の態様では、本開示の実施形態は、画像検出装置であって、検出待ちの画像を受信するように構成される検出待ち画像受信ユニットと、画像検出モデルを呼び出して、検出待ちの画像を検出するように構成される画像検出ユニットであって、画像検出モデルは、第3の態様のいずれかの画像検出モデルの訓練方法により得られた画像検出モデルであるユニットと、を備える画像検出装置を提供する。
第7の態様では、本開示の実施形態は、電子機器であって、少なくとも1つのプロセッサと、少なくとも1つのプロセッサに通信可能に接続され、少なくとも1つのプロセッサによって実行可能な指令が格納されたメモリと、を備え、当該指令は、少なくとも1つのプロセッサによって実行されると、少なくとも1つのプロセッサに、第1の態様のいずれか1つの実施形態に記載のサンプル画像を増分する方法、および/または、第3の態様のいずれか1つの実施形態に記載の画像検出モデルの訓練方法、および/または、第5の態様のいずれか1つの実施形態に記載の画像検出方法を実行させる電子機器を提供する。
第8の態様では、本開示の実施形態は、コンピュータ指令を記憶した非一時的なコンピュータ可読記憶媒体であって、当該コンピュータ指令は、第1の態様のいずれか1つの実施形態に記載のサンプル画像を増分する方法および/または第3の態様のいずれか1つの実施形態に記載の画像検出モデルの訓練方法および/または第5の態様のいずれか1つの実施形態に記載のの画像検出方法を前記コンピュータに実行させる非一時的なコンピュータ可読記憶媒体を提供する。
第9の態様では、本開示の実施形態は、コンピュータプログラムを含むコンピュータプログラム製品であって、当該コンピュータプログラムは、プロセッサによって実行されると、第1の態様のいずれか1つの実施形態に記載のサンプル画像を増分する方法、および/または、第3の態様のいずれか1つの実施形態に記載の画像検出モデルの訓練方法、および/または、第5の態様のいずれか1つの実施形態に記載の画像検出方法を実現するコンピュータプログラム製品を提供する。
本開示の実施形態によるサンプル画像を増分する方法、画像検出モデルの訓練方法、画像検出方法、及び対応する装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム製品は、まず、元のサンプル画像の第1の畳み込み特徴を取得し、それから、領域提案ネットワーク及び第1の畳み込み特徴に基づいて、候補領域と、候補領域に目標対象物が存在する第1の確率とを決定し、その後、第1の確率に基づいて、候補領域において注目候補領域を決定し、注目候補領域を元のサンプル画像にマッピングして、中間画像を得、最後に、中間画像内の注目候補領域に対応する部分に対して画像強調処理を行い、および/または、中間画像内の注目候補領域以外の領域に対応する部分に対して画像ぼかし処理を行って、増分サンプル画像を得る。
本開示による技術的解決手段は、領域提案ネットワークを用いて対象物が存在する疑いのある候補領域を決定し、その後、候補領域から、存在する可能性の高い候補領域を注目候補領域とし、その注目候補領域を元の画像にマッピングして、元の画像の内の注目候補領域に対応する部分に対して鮮明化処理を行い、および/または、非注目候補領域に対応する部分に対して不鮮明化処理を行うことにより、目標対象物を可能な限り強調した増分サンプル画像を得る、サンプル画像を増分する方法を提供する。当該技術的解決手段によれば、元のサンプル画像のかなめの部分を損なうことなく、高い可用性の増分サンプル画像を生成することができる。
なお、発明の概要に記載の内容は、本出願の実施形態のかなめとなる特徴または重要な特徴を限定することを意図するものではなく、本出願の範囲を限定するものでもない。本出願の他の特徴は、以下の説明によって容易に理解される。
本出願の他の特徴、目的及び利点は、以下の図面を参照してなされる非限定的な実施形態に関する詳細な説明により、より明らかになる。
本開示を適用可能な例示的なシステムアーキテクチャである。 本開示の実施形態によるサンプル画像を増分する方法のフローチャートである。 本開示の実施形態による別のサンプル画像を増分する方法のフローチャートである。 本開示の実施形態による画像検出モデルの訓練方法のフローチャートである。 本開示の実施形態による適用シーンにおけるサンプル画像を増分する方法のフローを示す概要図である。 本開示の実施形態によるサンプル画像を増分する装置の構成を示すブロック図である。 本開示の実施形態による画像検出モデルの訓練装置の構成を示すブロック図である。 本開示の実施形態による画像検出装置の構成を示すブロック図である。 本開示の実施形態による、サンプル画像を増分する方法および/または画像検出モデルの訓練方法および/または画像検出方法を実行するのに適用する電子機器の構成を示す概略図である。
以下は、図面を参照して本開示の例示的な実施形態を説明し、ここでは理解に役立つため、本出願の実施形態の様々な詳細が記載されるが、これらは単なる例示的なものに過ぎないと理解すべきである。従って、本出願の範囲および要旨を逸脱しない限り、当業者が本明細書の実施形態に対して様々な変更や修正を行うことができることは、従業者にとって自明である。なお、以下の説明では、明確化および簡略化のため、公知の機能および構成については説明を省略する。
本開示の技術的解決手段において、関係するユーザ個人情報の取得、記憶及び使用等は、関連する法律及び法規の規定に合致するように、必要な機密保持措置が講じられており、且つ、公序良俗に反するものではない。
まず、図1は、本開示のサンプル画像を増分する方法、画像検出モデルの訓練方法、画像検出方法、並びに対応する装置、電子機器、及びコンピュータ可読記憶媒体を適用可能な実施形態の例示的なシステムアーキテクチャ100を示す。
図1に示すように、システムアーキテクチャ100は、端末機器101、102、103、ネットワーク104、及びサーバ105を含むようにしてもよい。ネットワーク104は、端末機器101、102、103とサーバ105との間の通信リンクを提供するために使用される媒体である。ネットワーク104には、有線又は無線通信リンク、または光ファイバケーブルなどの様々な接続手段が利用されてもよい。
ユーザは、端末機器101、102、103を用いて、ネットワーク104を介して、サーバ105と対話して、メッセージなどを受送信することができる。端末機器101、102、103及びサーバ105には、例えば、画像伝送用のアプリケーション、サンプル画像を増分する用のアプリケーション、対象物検出モデルの訓練用のアプリケーション等、端末機器及びサーバの間で情報の通信を行うための様々なアプリケーションがインストールされていてもよい。
端末機器101、102、103及びサーバ105は、ハードウェアであってもよく、ソフトウェアであってもよい。端末機器101、102、103がハードウェアである場合、表示画面を有する様々な電子機器であってもよく、スマートフォン、タブレット、ラップトップコンピュータ、デスクトップコンピュータなどが挙げられるが、これらに限定されない。端末機器101、102、103がソフトウェアである場合、上述の電子機器にインストールされ、複数のソフトウェアまたはソフトウェアモジュールとして実装されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実装されてもよいが、これらに限定されない。サーバ105がハードウェアである場合、複数のサーバから構成される分散型サーバクラスタとして実装されてもよく、単一のサーバとして実装されてもよい。サーバがソフトウェアである場合、複数のソフトウェアまたはソフトウェアモジュールとして実装されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実装されてもよい。
サーバ105は、それに内蔵された各種のアプリケーションにより様々なサービスを提供することができる。サンプル画像を増分するサービスを提供可能な画像の増分用のアプリケーションを例にすると、サーバ105は、当該画像の増分用のアプリケーションを実行すると、以下の効果を奏することができる。まず、ネットワーク104を介して、端末機器101、102、103から元のサンプル画像を受信し、次に、通常の特徴抽出ネットワークによってその第1の畳み込み特徴を抽出し、その後、領域提案ネットワーク(Region Proposal Network)と第1の畳み込み特徴とに基づいて、候補領域と、当該候補領域に目標対象物が存在することの第1の確率とを決定し、それから、第1の確率に基づいて、候補領域において注目候補領域を決定し、注目候補領域を元のサンプル画像にマッピングして、中間画像を得、最後に、中間画像内の、注目候補領域に対応する部分に対して画像の強調処理を行い、および/または、中間画像内の、非注目候補領域に対応する部分に対して画像のぼかし処理を行って、増分サンプル画像を得る。
さらに、サーバ105は、生成した増分サンプル画像を利用して、対応する画像検出モデルを訓練することができる。例えば、サーバ105は、モデル訓練用のアプリケーションを実行すると、以下の効果を実現することができる。増分サンプル画像の第2の畳み込み特徴を取得し、領域提案ネットワークと第2の畳み込み特徴とに基づいて、新たな候補領域と、当該新たな候補領域に目標対象物が存在することの第2の確率とを決定し、第1の確率に対応する第1の損失値、及び第2の確率に対応する第2の損失値を取得し、重み付け後の第1の損失値及び第2の損失値に基づいて、統合損失値を決定し、統合損失値が予め設定された要求を満たしたことにより、訓練済み画像検出モデルを得る。
さらに、サーバ105は、上述の訓練方法による訓練済み画像検出モデルを得た後、画像検出モデルに基づく画像検出サービスを外部に提供するようにしてもよい。即ち、当該画像検出モデルを呼び出すことにより検査待ちの画像を検査し、検査した結果を返すようにしてもよい。
なお、元のサンプル画像は、端末機器101、102、103によりネットワーク104を介して取得してもよく、様々な手段でサーバ105にローカルに格納しておいてもよい。よって、サーバ105は、ローカルにこれらのデータ(例えば、処理を開始する前に残っている処理待ちのサンプル画像を増分するのタスク)が格納されていることを検出すると、データをローカルから直接取得するようにしてもよい。この場合、例示的なシステムアーキテクチャ100は、端末機器101、102、103およびネットワーク104を有しなくてもよい。さらに、元のサンプル画像の第1の畳み込み特徴を、特徴抽出ネットワークにより事前抽出しておき、その後、事前抽出したものを直接取得して使用するようにしてもよい。
画像の増分には、多くの演算リソースと強い演算力が必要となるため、本開示の後述の各実施形態によるサンプル画像を増分する方法は、一般に、強い演算力と多くの演算リソースを持つサーバ105に実行される。それに対応して、サンプル画像を増分する装置は、一般にサーバ105に配置される。ただし、留意されたいのは、端末機器101、102、103が、要求を満たす演算能力と演算リソースを持っている場合に、端末機器101、102、103は、それらにインストールされた画像の増分用のアプリケーションにより、上述の本サーバ105による各演算を実行してもよく、これにより、サーバ105と同様の結果を出力することができる。特に、異なる演算力を持つ複数の端末機器が同時に存在する場合でも、画像の増分用のアプリケーションにより、所在する端末機器が強い演算力を持ち、且つ、多くの演算リソースが残っているとの判断がなされた場合には、サーバ105の演算負荷を適切に軽減するために、上記の演算を端末機器に実行させるようにしてもよい。それに対応じて、サンプル画像を増分する装置は、端末機器101、102、103に配置されるようにしてもよい。この場合、例示的なシステムアーキテクチャ100は、サーバ105およびネットワーク104を含まなくてもよい。
なお、図1における端末機器、ネットワーク、及びサーバの数はただ例示的である。実装の必要に応じて、端末機器、ネットワーク、及びサーバは、任意の数備えられてもよい。
図2を参照する。図2は、本開示の実施形態によるサンプル画像を増分する方法のフローチャートであり、ここで、フロー200は、以下のステップ201~204を含む。
ステップ201:元のサンプル画像の第1の畳み込み特徴を取得する。
本ステップは、サンプル画像を増分する方法の実行主体(例えば、図1に示すサーバ105)が、元のサンプル画像の第1の畳み込み特徴を取得することを旨とする。
ここで、特徴抽出ネットワークによって元のサンプル画像から第1の畳み込み特徴を抽出するようにしてもよい。特徴抽出ネットワークのタイプは、特に限定されない。元のサンプル画像は、目標対象物を含む画像であり、目標対象物は、実際の必要によって異なり、顕微鏡による観察での金属材料の割れ目や、ある運動状態にある微生物等のような、小さなサンプルのシーンの様々な物体であり得る。
ステップ202:領域提案ネットワーク及び第1の畳み込み特徴に基づいて、候補領域と、候補領域に目標対象物が存在する第1の確率とを決定する。
本ステップは、ステップ201の上で、上述の実行主体が、第1の畳み込み特徴を領域提案ネットワークに入力することにより、領域提案ネットワークを使用して、目標対象物が存在する疑いのある候補領域、および各候補領域内に目標対象物が存在することの第1の確率を決定することを旨とする。具体的には、この第1の確率は、属する候補領域に実に対象物体が存在する可能性を記述するために用いられ、さらに、確率スコアとして数値化されてもよい。候補領域は、畳み込み特徴(グラフ)に基づいて領域提案ネットワークによって決定され、目標対象物が存在し得る領域である。即ち、領域提案ネットワークは、目標対象物の畳み込み特徴を識別する機能を有すべきである。
ステップ203:第1の確率に基づいて、候補領域において、注目候補領域を決定し、注目候補領域を元のサンプル画像にマッピングして、中間画像を得る。
本ステップは、ステップ202の上で、上述の実行主体が、候補領域に与えられた第1の確率に基づいて、候補領域から、目標対象物が存在する確率が比較的に高い候補領域を注目候補領域として決定し、そして、注目候補領域を元のサンプル画像にマッピングして、存在する疑いのある目標対象物がフレーミング(framing)された中間画像を得ることを旨とする。枠付け
なお、候補領域は、元のサンプル画像から抽出された畳み込み特徴(マップ)に基づいて決定されるので、元のサンプル画像上の領域ではなく、畳み込み特徴マップ上の領域であるが、畳み込み特徴と元のサンプル画像との間の対応関係により、注目候補領域を元のサンプル画像にマッピングし返すことにより、元のサンプル画像上で、目標対象物をフレーミングすることにより、目標対象物の存在する境界を特定することができる。ただし、目標対象物の境界の特定が正確か否かは、領域提案ネットワークによる候補領域の抽出及び第1の確率の決定の実行精度に依存することは理解されるべきである。
ステップ204:中間画像内の注目候補領域に対応する部分に対して画像強調処理を行い、および/または、中間画像内の非注目候補領域に対応する部分に対して画像ぼかし処理を行って、増分サンプル画像を得る。
本ステップは、ステップ203の上で、上述の実行主体が、中間画像においてフレーミングされた目標対象物の存在する部分、および/または、目標対象物が存在しない部分に対して、異なる画像処理手段を採用し、さらに処理後の増分サンプル画像を得ることを旨とする。
本ステップは、具体的に以下の3つの実施態様を含む。
第1の実施態様において、中間画像内の注目候補領域に対応する部分に対する画像強調処理しかを行わないようにし、画像強調処理後の中間画像を増分サンプル画像とする。
第2の実施態様において、中間画像内の非注目候補領域に対応する部分に対する画像ぼかし処理しか行わないようにし、画像ぼかし処理後の中間画像を増分サンプル画像とする。
第3の実施態様において、中間画像内の注目候補領域に対応する部分に対する画像強調処理と、非注目候補領域に対応する部分に対する画像ぼかし処理との両方を行うようにし、画像強調処理及び画像ぼかし処理を行った後の中間画像を増分サンプル画像とする。
上記のいずれの実施態様でも、できる限り目標対象物が存在する一部の領域を強調することを目的としている。
なお、画像強調処理は、画像の鮮明さを向上させるための画像処理手段であり、ぼかし処理は、画像の鮮明さを低下させるための画像処理手段であり、画像が鮮明になるほど、目標対象物が存在するか否かを正確に認識することが容易になる。
本開示の実施形態は、領域提案ネットワークを用いて対象物が存在する疑いのある候補領域を決定し、その後、候補領域から、存在する可能性の高い候補領域を注目候補領域とし、その注目候補領域を元の画像にマッピングし、元の画像の内の注目候補領域に対応する部分に対して鮮明化処理を行い、および/または、非注目候補領域に対応する部分に対して不鮮明化処理を行うことにより、目標対象物を可能な限り強調した増分サンプル画像を得る、サンプル画像を増分する方法を提供する。当該技術的解決手段によれば、元のサンプル画像のかなめの部分を損なうことなく、高い可用性の増分サンプル画像を生成することができる。
図3を参照する。図3は、本開示の実施形態による別のサンプル画像を増分する方法のフローチャートであり、ここで、フロー300は、以下のステップ301~307を含む。
ステップ301:元のサンプル画像の第1の畳み込み特徴を取得する。
ステップ302:領域提案ネットワーク及び第1の畳み込み特徴に基づいて、候補領域と、候補領域に目標対象物が存在する第1の確率とを決定する。
上記ステップ301~302は、図2に示すステップ201~202と同じであり、同一の部分については、前の実施形態の対応する部分を参照されたいが、ここでは記述を省略する。
ステップ303:第1の確率が予め設定された確率より大きい候補領域を注目候補領域として決定し、注目候補領域を元のサンプル画像にマッピングして、中間画像を得る。
ステップ203の上で、本実施形態は、本ステップによれば、注目候補領域を選び出すための具体的な実施態様を提供する。即ち、高確率と低確率とを区別するための確率値を(例えば、70%)予め設定することです。これにより、目標対象物が存在する確率の高い注目候補領域を選び出すには、各候補領域の第1の確率を予め設定された確率と比較するとよい。
ステップ303による予め設定された確率に基づいて注目候補領域を決定する態様に加えて、第1の確率の大きさの上位数(上位Nは、確率値が大きいN個を意味する)の候補領域を注目候補領域として決定する態様を採用してもよく、又は、上位パーセントなどに基づいて、注目候補領域を選び出すようにしてもよい。即ち、いずれの態様も、目標対象物の存在する確率がなるべく高い候補領域を注目候補領域として決定し、注目候補領域を元のサンプル画像にマッピングし返した後に、元のサンプル画像の内の目標対象物をなるべく正確にフレーミングすることを目的とする。
ステップ304:中間画像内の非注目候補領域に対応する部分に対してガウスぼかし処理を行う。
本ステップは、ステップ303の上で、上述の実行主体が、中間画像内の非注目候補領域に対応する部分にガウスぼかし処理を行うことを旨とする。
ガウス平滑化とも呼ばれるガウスぼかしは、通常、画像ノイズの低減や、ディテールレベルの低減に使用される。このような暈し技術によって生成された画像は、磨りガラスを通して見た画像のような視覚的効果を有する。それは、レンズの焦点外結像によるぼかした画像や、一般的な照明の影の効果とは明らかに異なる。ガウス平滑化は、コンピュータ視覚アルゴリズムの前処理段階にも使用されて、異なるスケール・サイズで画像の画像効果を向上させる。数学的な見方では、画像のがオシアン暈しのプロセスは、画像を正規分布で畳み込むことである。正規分布はガウス分布とも呼ばれるので、この技術はガウスぼかしと呼ばれる。画像を円形のボックスぼかし(Box blur)で畳み込むと、より精確な焦点外結像効果が得られる。ガウス関数のフーリエ変換は別のガウス関数となるので、ガウスぼかしは、画像の低域通過フィルタである。
ステップ305:中間画像内の第1の注目領域に対して第1の画像強調処理を行う。
ステップ306:中間画像内の第2の注目領域に対して第2の画像強調処理を行う。
ステップ303の上で、ステップ305およびステップ306は、異なる注目領域の画像強調効果を区別するように、中間画像における第1の注目領域および第2の注目領域に対して、それぞれ異なる画像強調の強度で画像強調処理を行うようにする。
ここで、第1の注目領域は、少なくとも2つの注目候補領域を元のサンプル画像にマッピングした重複部分であり、第1の注目領域とは区別さる第2の注目領域は、単一の注目候補領域を元のサンプル画像にマッピングした部分である。なお、元のサンプル画像の同じ位置にマッピングされた注目候補領域が多いほど、当該位置に目標対象物が存在するとの判定の正確さを高める一方、逆は、元の判定の正確さを維持するしかないことが理解すべきである。そこで、本実施形態では、ステップ305およびステップ306により、目標対象物が存在する可能性の高い一部の領域に対しては、画像強調の強度が高い画像強調手段を採用する一方、目標対象物が存在する可能性が普通な一部の領域に対しては、画像強調の強度が普通な画像強調手段を採用する。
ステップ307:処理後の画像を増分サンプル画像とする。
前の実施形態による技術的解決手段の上で、本実施形態は、ステップ303によれば、第1の確率に基づいて注目候補領域を決定する具体的な方法を提供しており、ステップ304によれば、中間画像内の非注目候補領域に対応する部分に対して具体的にガウスぼかしを採用する画像ぼかし処理の態様を提供しており、ステップ305及びステップ306によれば、中間画像内の非注目候補領域に対応する部分に対して、複数の注目候補領域が重複したものであるか否かに応じて、異なる画像強調の強度の画像強調処理を採用することで、目標対象物を可能な限り強調する。
なお、ステップ303、ステップ304、ステップ305及びステップ306のいずれの具体的な実施態様も、フロー200に示される実施形態と別個に組み合わせて、異なる実施形態を形成することができ、それぞれの間に因果関係や依存関係がない。したがって、本実施形態は、実際には、3つの具体的な態様を共に実施した好ましい実施形態にすぎない。
上記の任意の実施形態は、異なるサンプル画像を増分する方法を提供し、さらに、上記の増分サンプル画像を生成する技術的手段に関連して、訓練して対象物検出モデルを得するためのモデル訓練方法を提供する。一実施態様では、図4に示されるフローチャート図を参照すると、そのフロー400は、以下のステップ401~405を含むようにしもよいが、これに限らない。
ステップ401:増分サンプル画像の第2の畳み込み特徴を取得する。
第2の畳み込み特徴は、強調サンプル画像から抽出される。第2の畳み込み特徴の抽出は、元のサンプル画像から第1の畳み込み特徴を抽出すると同じように行ってもよく、例えば、同じ特徴抽出ネットワークを使用してもよい。
ステップ402:領域提案ネットワーク及び第2の畳み込み特徴に基づいて新しい候補領域と、新しい候補領域に前記目標対象物が存在する第2の確率とを決定する。
新しい候補領域及び関連する第2の確率に対応するのは、増分サンプル画像であるのに対し、候補領域及び関連する第1の確率に対応するのは、元のサンプル画像であるという区別点を除き、新しい候補領域及び関連する第2の確率は、候補領域および関連する第1の確率と同様である。
ステップ403:第1の確率に対応する第1の損失値、及び第2の確率に対応する第2の損失値を取得する。
本ステップは、ステップ402の上で、モデル訓練を指導するための損失値をそれぞれ取得することを旨とする。元のサンプル画像および増分サンプル画像が存在するので、第1の確率および第2の確率に基づいて、それぞれ対応する損失値を決定するようにする。
ステップ404:重み付け後の第1の損失値と第2の損失値に基づいて、統合損失値を決定する。
本ステップは、ステップ403の上で、重み付け後の第1および第2の損失値を統合して、より合理的な統合損失値を決定することを旨とする。ここで、第1の損失値に付ける重みと、第2の損失値に付ける重みとを、同一にしもよく、実装の必要に応じて柔軟に調整してもよい。
一実施態様では、重み付け後の第1の損失値と重み付け後の第2の損失値との和を、統合損失値とするようにしてもよいが、これに限らない。
ステップ405:統合損失値が予め設定された要求を満たすことにより、訓練済み画像検出モデルを得る。
本ステップは、ステップ404の上で、上述の実行主体が、統合損失値が予め設定された要件を満たすことにより、訓練済み画像検出モデルを得ることを旨とする。
一実施態様では、統合損失値が、予め設定された回数で訓練を繰り返して得た最小値となることに応答して、訓練済み画像検出モデルを出力するようにしてもよいが、これに限らない。このようにして、統合損失値を最小に制御することを訓練目標としており、統合損失値が小さいほど、モデルの検出精度が高くなることが分かる。
図4に示される実施形態は、前の各実施形態の上で、さらに、増分したサンプル画像を用いて、対象物検出モデルを訓練し、その後、訓練済み対象物検出モデルを直接使用して、検出待ちの画像内に対象物が存在するか否かを正確かつ効率的に検出することができる。
画像検出方法は以下のとおりである。
まず、検出待ちの画像を受信し、その後、検出待ちの画像を検出するために画像検出モデルを呼び出す。その後、得られた検出結果を返すこともできる。
よりよく理解されるように、本開示は、具体的な適用シーンにより、図5に示されるフロチャートを参照しながら、具体的な実施態様を更に提供する。
サンプル画像数が少ない現実の対象物検出のシーンに対して、本実施形態は、領域領域選定に基づいて強調する対象物検出方法を提供しており、当該方法は、候補領域の選定によるデータ強調を行い、既存の様々なサンプル増分技術をも利用することで、多方面にわたって増分サンプルの可用性を総合的に向上させ、最後に増分後のサンプルセットに基づいて検出効果がよりよい対象物検出モデルを訓練することを旨とする。対象物検出方法は、以下の通りである。
1)元の画像Aに対して畳み込みニューラルネットワークにより畳み込み特徴を抽出する。
2)領域提案ネットワークにより、抽出した畳み込み特徴に対して、対象物が存在する可能性のある候補領域と、各候補領域に対象物が存在することの確率スコアを決定する。
3)ステップ2)で得た候補領域と、ステップ1)で抽出した畳み込み特徴に対して、通常のROI(region of interest、関心領域)プーリングを行ってから、二つの全結合層に入力して、数千の分類確率を得ており、それぞれの分類確率はその対応する回帰の決定境界を有し、それらを分類確率a1及び回帰の決定境界a2と記す。
4)ステップ2)で得た候補領域を確率スコアの高い順にソートし、上位N個の候補領域を選び出して元の画像にマッピングして(Nの値は50であり、該パラメータは具体的なタスクに応じて調整可能である)、N個の検出枠が付けられた中間画像を得ることができる。
5)ステップ4)で得た中間画像内の検出枠外の領域を背景領域とし、当該背景領域に対してガウスぼかしを行い、検出枠内の前景領域に対して画像強調を行って鮮明さを向上させて画像Bを得る。
6)画像Bを畳み込み特徴抽出ネットワークに入力すると、最終に、分類確率b1及び回帰の決定境界b2を得ることができる。
7)分類確率a1と分類確率a2とを重み付けて合計して最終的な分類確率を求め、所定の閾値に応じて、分類確率に対応する回帰の決定境界(b1およびb2)を、検出待ちの元の画像にマッピングして、最終の検出結果を得る。
処理中に、候補領域がマッピングされた画像に対して、背景のぼかしをするので、候補領域が画像内のすべての検出すべき対象物を含む場合に限り、候補領域がマッピングされた画像では、訓練中の損失値がより収束する。
上記の方法は、領域提案ネットワークに基づく既存の方法に活用することもでき、さらに実用性を高めるために、他の小さなサンプルの検出技術と協力することで検出効果を高めることもできる。
本開示は、上記各図に示される方法の実装として、それぞれに対する装置の実施形態を提供する。即ち、図2に示されるサンプル画像を増分する方法に対応するサンプル画像を増分する装置、図4に示される画像検出モデルの訓練方法に対応する画像検出モデルの訓練装置、画像検出方法に対応する画像検出装置を提供する。それぞれの装置は、各種の電子機器に具体化することができる。
図6に示すように、本実施形態のサンプル画像を増分する装置600は、第1の畳み込み特徴量取得ユニット601と、候補領域・確率決定ユニット602と、注目候補領域決定・マッピングユニット603と、中間画像処理ユニット604とを備えるようにしてもよい。そのうち、第1の畳み込み特徴取得ユニット601は、元のサンプル画像の第1の畳み込み特徴を取得するように構成され、候補領域・確率決定ユニット602は、領域提案ネットワーク及び第1の畳み込み特徴に基づいて候補領域と、候補領域に目標対象物が存在することの第1の確率とを決定するように構成され、注目候補領域決定・マッピングユニット603は、第1の確率に基づいて、候補領域において注目候補領域を決定し、注目候補領域を元のサンプル画像にマッピングして中間画像を得るように構成され、中間画像処理ユニット604は、中間画像内の注目候補領域に対応する部分に対して画像強調処理を行い、および/または、中間画像内の非注目候補領域に対応する部分に対して画像ぼかし処理を行って、増分サンプル画像を得るように構成される。
本実施形態では、サンプル画像を増分する装置600において、第1の畳み込み特徴量取得ユニット601、候補領域・確率決定ユニット602、注目候補領域決定・マッピングユニット603、中間画像処理ユニット604の具体的な処理、及びそれらによる技術的効果については、それぞれ図2の対応する実施形態におけるステップ201~204に関連する説明を参照できるので、ここでは説明を省略する。
本実施形態のいくつかの代替的な実施形態では、中間画像処理ユニット604は、中間画像内の非注目候補領域に対応する部分に対して画像ぼかし処理を行うぼかし処理サブユニットを備えるようにしてもよい。ぼかし処理サブユニットは、さらに、中間画像内の非注目候補領域に対応する部分に対してガウスぼかし処理を行うように構成される。
本実施形態のいくつかの代替的な実装形態では、注目候補領域決定・マッピングユニット603は、第1の確率に基づいて、候補領域において注目候補領域を決定するように構成される注目候補領域決定サブユニットを備えるようにしてもよい。注目候補領域決定サブユニットは、さらに、第1確率が予め設定された確率よりも大きい候補領域を、注目候補領域として決定するように構成される。
本実施形態のいくつかの代替的な実装形態では、中間画像処理ユニット604は、中間画像内の注目候補領域に対する部分に対して画像強調処理を行う強調処理サブユニットを備えてもよい。強調処理サブユニットは、中間画像内の第1の注目領域に対して第1の画像強調処理を行い、中間画像内の第2の注目領域に対して第2の画像強調処理を行うように構成され、第1の注目領域は、少なくとも2つの注目候補領域を元のサンプル画像にマッピングした重複部分であり、第2の注目領域は、単一の注目候補領域を元のサンプル画像にマッピングした部分であり、第1の画像強調処理の画像強調の強度は、第2の画像強調処理の画像強調の強度よりも大きい。
図7に示すように、本実施形態の画像検出モデル訓練装置700は、第2の畳み込み特徴量取得ユニット701と、新候補領域・確率決定ユニット702と、損失値取得ユニット703と、統合損失値決定ユニット704と、画像検出モデル訓練ユニット705とを備えるようにしてもよい。そのうち、第2の畳み込み特徴取得ユニット701は、増分サンプル画像の第2の畳み込み特徴を取得するように構成される。そのうち、増分サンプル画像は、図6に示されるサンプル画像を増分する装置によって取得される。新しい候補領域・確率決定ユニット702は、領域提案ネットワーク及び第2の畳み込み特徴に基づいて、新しい候補領域と、新しい候補領域に目標対象物が存在することの第2の確率とを決定するように構成あれる。損失値取得ユニット703は、第1の確率に対応する第1の損失値と、第2の確率に対応する第2の損失値とを取得するように構成される。統合損失値決定ユニット704は、重み付け後の第1の損失値及び第2の損失値に基づいて、統合損失値を決定するように構成される。画像検出モデル訓練ユニット705は、統合損失値が予め設定された要件を満たすことにより、訓練済み画像検出モデルを得るように構成される。
本実施例のいくつかの代替的な実装形態では、統合損失値決定ユニットは、さらに、重み付け後の第1の損失値と重み付け後の第2の損失値との和を統合損失値とするように構成される。
本実施例のいくつかの代替的な実装形態では、画像検出モデル訓練ユニットは、さらに統合損失値が予め設定された回数で繰り返し訓練をして得た最小値となることに応答して、訓練済み画像検出モデルを出力する。
図8に示すように、本実施形態の画像検出装置800は、検出待ち画像受信ユニット801と、画像検出ユニット802とを備えるようにしてもよい。そのうち、検出待ち画像受信ユニット801は、検出待ちの画像を受信するように構成され、画像検出ユニット802は、図7に示すような画像検出モデル訓練装置によって得られた画像検出モデルを呼び出して検出待ちの画像を検出するように構成されている。
本実施形態は、上述の方法の実施形態に対応する装置の実施形態として存在する。本開示の実施形態によるサンプル画像を増分する装置は、領域提案ネットワークを用いて対象物が存在する疑いのある候補領域を決定し、その後、候補領域から、存在する可能性の高い候補領域を注目候補領域とし、その注目候補領域を元の画像にマッピングして、元の画像の内の注目候補領域に対応する部分に対して鮮明化処理を行い、および/または、非注目候補領域に対応する部分に対して不鮮明化処理を行うことにより、目標対象物を可能な限り強調した増分サンプル画像を得る、サンプル画像を増分する方法を提供する。当該技術的解決手段によれば、元のサンプル画像のかなめの部分を損なうことなく、高い可用性の増分サンプル画像を生成することができる。
本発明の実施形態によれば、本開示は、電子機器、読み取り可能な記憶媒体、及びコンピュータプログラム製品をさらに提供する。
図9は、本開示の実施形態を実施するために使用できる例示的な電子機器900の概略ブロック図を示している。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレード型サーバ、メインフレームコンピュータおよびその他の適切なコンピュータ等の様々な形態のデジタルコンピュータを表す。また、電子機器は、個人デジタル処理、携帯電話、スマートフォン、ウェアラブル機器およびその他の類似する計算装置等の様々な形態のモバイルデバイスを表すことができる。なお、ここで示したコンポーネント、それらの接続関係、およびそれらの機能はあくまでも例示であり、ここで記述および/または要求した本開示の実施形態を限定することを意図するものではない。
図9に示すように、電子機器900は、読み出し専用メモリ(ROM)902に記憶されているコンピュータプログラムまたは記憶ユニット908からランダムアクセスメモリ(RAM)903にロードされたコンピュータプログラムによって様々な適当な動作および処理を実行することができる計算ユニット901を備える。RAM903には、電子機器900の動作に必要な様々なプログラムおよびデータが更に格納されてもよい。計算ユニット901、ROM902およびRAM903は、バス904を介して互いに接続されている。入/出力(I/O)インターフェース905もバス904に接続されている。
電子機器900において、キーボード、マウスなどの入力ユニット906と、様々なタイプのディスプレイ、スピーカなどの出力ユニット907と、磁気ディスク、光ディスクなどの記憶ユニット908と、ネットワークカード、モデム、無線通信送受信機などの通信ユニット909とを備える複数のコンポーネントは、I/Oインターフェース905に接続されている。通信ユニット909は、機器900がインターネットなどのコンピュータネットワークおよび/または様々な電気通信ネットワークを介して他の装置と情報またはデータのやりとりを可能にする。
計算ユニット901は、処理および計算機能を有する様々な汎用および/または専用処理コンポーネントであってもよい。計算ユニット901のいくつかの例示としては、中央処理装置(CPU)、グラフィックス処理ユニット(GPU)、様々な専用人工知能(AI)計算チップ、機械学習モデルアルゴリズムを実行する様々な計算ユニット、デジタル信号プロセッサ(DSP)、および任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。計算ユニット901は、上述したサンプル画像を増分する方法のような様々な方法および処理を実行する。例えば、いくつかの実施形態では、サンプル画像を増分する方法は、記憶ユニット908などの機械可読媒体に有形に含まれるコンピュータソフトウェアプログラムとして実現されてもよい。いくつかの実施形態では、コンピュータプログラムの一部または全部は、ROM902および/または通信ユニット909を介して電子機器900にロードおよび/またはインストールされてもよい。コンピュータプログラムがRAM903にロードされ、計算ユニット901によって実行されると、上述のサンプル画像を増分する方法の1つまたは複数のステップを実行可能である。あるいは、他の実施形態において、計算ユニット901は、他の任意の適切な方式によって(例えば、ファームウェアを介して)サンプル画像を増分する方法を実行するように構成されていてもよい。
ここで説明するシステムおよび技術の様々な実施形態はデジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、コンプレックスプログラマブルロジックデバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組み合わせにおいて実現されてもよい。これらの各実施形態は、1つまたは複数のコンピュータプログラムに実装され、当該1つまたは複数のコンピュータプログラムは少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムにおいて実行および/または解釈することができ、当該プログラマブルプロセッサは専用または汎用プログラマブルプロセッサであってもよく、記憶システム、少なくとも1つの入力装置および少なくとも1つの出力装置からデータおよび指令を受信することができ、且つデータおよび指令を当該記憶システム、当該少なくとも1つの入力装置および当該少なくとも1つの出力装置に伝送することを含み得る。
本開示の方法を実施するためのプログラムコードは、1つまたは複数のプログラミング言語のあらゆる組み合わせで作成されてもよい。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ、または他のプログラミング可能なデータ処理装置のプロセッサまたはコントローラに提供されることができ、これらのプログラムコードがプロセッサまたはコントローラによって実行されると、フローチャートおよび/またはブロック図に規定された機能または動作が実施される。プログラムコードは、完全にデバイス上で実行されることも、部分的にデバイス上で実行されることも、スタンドアロンソフトウェアパッケージとして部分的にデバイス上で実行されながら部分的にリモートデバイス上で実行されることも、または完全にリモートデバイスもしくはサーバ上で実行されることも可能である。
本開示のコンテキストでは、機械可読媒体は、有形の媒体であってもよく、指令実行システム、装置または機器が使用するため、または指令実行システム、装置または機器と組み合わせて使用するためのプログラムを含むか、または格納してもよい。機械可読媒体は、機械可読信号媒体または機械可読記憶媒体であり得る。機械可読媒体は、電子的、磁気的、光学的、電磁的、赤外線の、または半導体のシステム、装置または機器、またはこれらのあらゆる適切な組み合わせを含むことができるが、これらに限定されない。機械可読記憶媒体のより具体的な例には、1本または複数本のケーブルに基づく電気的接続、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、コンパクトディスク読み取り専用メモリ(CD?ROM)、光学記憶装置、磁気記憶装置、またはこれらのあらゆる適切な組み合わせが含まれ得る。
ユーザとのインタラクションを提供するために、ここで説明するシステムと技術は、ユーザに情報を表示するための表示装置(例えば、陰極線管(CathodeRayTube,CRT)またはLCD(液晶ディスプレイ)モニタ)と、キーボードおよびポインティングデバイス(例えば、マウスまたはトラックボール)とを備えるコンピュータ上で実装することができ、ユーザが該キーボードおよび該ポインティングデバイスを介してコンピュータに入力を提供できる。他の種類の装置は、さらにユーザとのインタラクションを提供することに用いることができる。例えば、ユーザに提供されるフィードバックは(例えば、視覚フィードバック、聴覚フィードバック、または触覚フィードバックであるいかなる形態のセンシングフィードバックであってもよく)、且つ音入力、音声入力または、触覚入力を含むいかなる形態でユーザからの入力を受信してもよい。
ここで説明したシステムおよび技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバ)に実施されてもよく、またはミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバ)に実施されてもよく、またはフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインターフェースまたはウェブブラウザを有するユーザコンピュータ)に実施されてもよく、ユーザは該グラフィカルユーザインターフェースまたはウェブブラウザを介してここで説明したシステムおよび技術の実施形態とインタラクションしてもよく、またはこのようなバックエンドコンポーネント、ミドルウェアコンポーネントまたはフロントエンドコンポーネントのいずれかの組み合わせを含むコンピューティングシステムに実施されてもよい。また、システムの各コンポーネントの間は、通信ネットワーク等、任意の形態または媒体のデジタルデータ通信により接続されていてもよい。通信ネットワークの例示としては、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)およびインターネットを含む。
コンピュータシステムは、クライアントとサーバとを含んでもよい。クライアントとサーバは、通常、互いに離れており、通信ネットワークを介してやりとりを行う。クライアントとサーバとの関係は、互いにクライアント-サーバの関係を有するコンピュータプログラムをそれぞれのコンピュータ上で動作することによって生成される。サーバは、分散システムのサーバ、あるいはブロックチェーンを結合したサーバであってもよい。サーバはクラウドサーバであってもよく、クラウドサーバは、クラウドコンピューティングサーバ又はクラウドホストとも呼ばれ、クラウドコンピューティングサービスシステムにおけるホスト製品であり、従来の物理ホストと仮想専用サーバ(VPS、Virtual Private Server)サービスに存在する管理難度が高く、サービスの拡張性が低いという欠点を解決するためのものである。
本開示の実施形態による技術的解決手段は、領域提案ネットワークを用いて対象物が存在する疑いのある候補領域を決定し、その後、候補領域から、存在する可能性の高い候補領域を注目候補領域とし、その注目候補領域を元の画像にマッピングして、元の画像の内の注目候補領域に対応する部分に対して鮮明化処理を行い、および/または、非注目候補領域に対応する部分に対して不鮮明化処理を行うことにより、目標対象物を可能な限り強調した増分サンプル画像を得る、サンプル画像を増分する方法を提供する。当該技術的解決手段によれば、元のサンプル画像のかなめの部分を損なうことなく、高い可用性の増分サンプル画像を生成することができる。
なお、上述した様々な形態のフローを用いて、ステップを並び替え、追加または削除を行うことができることを理解すべきである。例えば、本開示に記載された各ステップは、本開示に開示された技術的解決方案の所望の結果が達成できる限り、並行して実行されてもよく、順番に実行されてもよく、異なる順番で実行されてもよい。本明細書はここで制限しない。
上記具体的な実施形態は、本開示の保護範囲を限定するものではない。当業者であれば、設計要件および他の要因に応答して、様々な修正、組み合わせ、副次的な組み合わせ、および置換を行うことができることを理解すべきである。本開示の趣旨および原理を逸脱せずに行われたあらゆる修正、均等な置換および改善などは、いずれも本開示の保護範囲内に含まれるべきである。
本開示は人工知能分野に関し、具体的には、コンピュータ視覚及び深層学習技術に関し、インテリジェントクラウド及び製造業の品質検査のシーンに適用することができ、特に、サンプル画像を増分する方法、画像検出モデルの訓練方法、画像検出方法、並びに対応する装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラムに関する。
本開示の実施形態は、サンプル画像を増分する方法、画像検出モデルの訓練方法、画像検出方法、並びに対応する装置、電子機器、コンピュータ可読記憶媒体、およびコンピュータプログラムを提供する。
第9の態様では、本開示の実施形態は、コンピュータプログラムであって、当該コンピュータプログラムは、プロセッサによって実行されると、第1の態様のいずれか1つの実施形態に記載のサンプル画像を増分する方法、および/または、第3の態様のいずれか1つの実施形態に記載の画像検出モデルの訓練方法、および/または、第5の態様のいずれか1つの実施形態に記載の画像検出方法を実現するコンピュータプログラムを提供する。
本開示の実施形態によるサンプル画像を増分する方法、画像検出モデルの訓練方法、画像検出方法、及び対応する装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラムは、まず、元のサンプル画像の第1の畳み込み特徴を取得し、それから、領域提案ネットワーク及び第1の畳み込み特徴に基づいて、候補領域と、候補領域に目標対象物が存在する第1の確率とを決定し、その後、第1の確率に基づいて、候補領域において注目候補領域を決定し、注目候補領域を元のサンプル画像にマッピングして、中間画像を得、最後に、中間画像内の注目候補領域に対応する部分に対して画像強調処理を行い、および/または、中間画像内の注目候補領域以外の領域に対応する部分に対して画像ぼかし処理を行って、増分サンプル画像を得る。
第2の畳み込み特徴は、増分サンプル画像から抽出される。第2の畳み込み特徴の抽出は、元のサンプル画像から第1の畳み込み特徴を抽出すると同じように行ってもよく、例えば、同じ特徴抽出ネットワークを使用してもよい。
本発明の実施形態によれば、本開示は、電子機器、読み取り可能な記憶媒体、及びコンピュータプログラムをさらに提供する。

Claims (19)

  1. サンプル画像を増分する方法であって、
    元のサンプル画像の第1の畳み込み特徴を取得するステップと、
    領域提案ネットワーク及び前記第1の畳み込み特徴に基づいて、候補領域と、前記候補領域に目標対象物が存在する第1の確率とを決定するステップと、
    前記第1の確率に基づいて、前記候補領域において注目候補領域を決定し、前記注目候補領域を前記元のサンプル画像にマッピングして、中間画像を得るステップと、
    前記中間画像内の前記注目候補領域に対応する部分に対して画像強調処理を行い、および/または、前記中間画像内の前記注目候補領域以外の領域に対応する部分に対して画像ぼかし処理を行って、増分サンプル画像を得るステップと
    を含む方法。
  2. 前記中間画像内の前記注目候補領域以外の領域に対応する部分に対して画像ぼかし処理を行うことは、
    前記中間画像内の前記注目候補領域以外の領域に対応する部分に対してガウスぼかし処理を行うステップを含む、請求項1に記載の方法。
  3. 前記第1の確率に基づいて、前記候補領域において注目候補領域を決定することは、
    前記第1の確率が予め設定された確率よりも大きい候補領域を、注目候補領域として決定するステップを含む、請求項1に記載の方法。
  4. 前記中間画像内の前記注目候補領域に対応する部分に対して画像強調処理を行うことは、
    前記中間画像内の第1の注目領域に対して第1の画像強調処理を行うステップであって、前記第1の注目領域は、少なくとも2つの前記注目候補領域を前記元のサンプル画像にマッピングした重複部分であるステップと、
    前記中間画像内の第2の注目領域に対して第2の画像強調処理を行うステップであって、前記第2の注目領域は、単一の前記注目候補領域を前記元のサンプル画像にマッピングした部分であり、前記第1の画像強調処理の画像強調の強度は、前記第2の画像強調処理の画像強調の強度よりも大きいステップと
    を含む、請求項1に記載の方法。
  5. 画像検出モデルの訓練方法であって、
    増分サンプル画像の第2の畳み込み特徴を取得するステップであって、前記増分サンプル画像は請求項1~4のいずれか1項に記載のサンプル画像を増分する方法により取得されたものであるステップと、
    領域提案ネットワーク及び前記第2の畳み込み特徴に基づいて、新しい候補領域と、前記新しい候補領域に目標対象物が存在する第2の確率とを決定するステップと、
    第1の確率に対応する第1の損失値、及び前記第2の確率に対応する第2の損失値を取得するステップと、
    重み付け後の第1の損失値と第2の損失値に基づいて、統合損失値を決定するステップと、
    前記統合損失値が予め設定された要求を満たすことにより、訓練済み画像検出モデルを得るステップと
    を含む方法。
  6. 前記重み付け後の第1の損失値と第2の損失値に基づいて、統合損失値を決定するステップは、
    重み付け後の第1の損失値と重み付け後の第2の損失値との和を、前記統合損失値とするステップを含む、請求項5に記載の画像検出モデルの訓練方法。
  7. 前記統合損失値が予め設定された要求を満たすことにより、訓練済み画像検出モデルを得るステップは、
    前記統合損失値が、予め設定された回数で訓練を繰り返して得た統合損失値のうちの最小値となることに応答して、訓練済み画像検出モデルを出力するステップを含む、請求項5に記載の画像検出モデルの訓練方法。
  8. 画像検出方法であって、
    検出待ちの画像を受信するステップと、
    画像検出モデルを呼び出して、前記検出待ちの画像を検出するステップであって、前記画像検出モデルは、請求項5~7のいずれか1項に記載の画像検出モデルの訓練方法により得られた画像検出モデルであるステップと
    を含む方法。
  9. サンプル画像を増分する装置であって、
    元のサンプル画像の第1の畳み込み特徴を取得するように構成される第1の畳み込み特徴量取得ユニットと、
    領域提案ネットワーク及び前記第1の畳み込み特徴に基づいて、候補領域と、前記候補領域に目標対象物が存在する第1の確率とを決定するように構成される、候補領域・確率決定ユニットと、
    前記第1の確率に基づいて、前記候補領域において注目候補領域を決定し、前記注目候補領域を前記元のサンプル画像にマッピングして、中間画像を得るように構成される注目候補領域決定・マッピングユニットと、
    前記中間画像内の前記注目候補領域に対応する部分に対して画像強調処理を行い、および/または、前記中間画像内の前記注目候補領域以外の領域に対応する部分に対して画像ぼかし処理を行って、増分サンプル画像を得るように構成される中間画像処理ユニットと
    を備える装置。
  10. 前記中間画像処理ユニットは、前記中間画像内の前記注目候補領域以外の領域に対応する部分に対して画像ぼかし処理を行うぼかし処理サブユニットを備え、
    前記ぼかし処理サブユニットは、さらに、
    前記中間画像内の前記注目候補領域以外の領域に対応する部分に対してガウスぼかし処理を行うように構成される、請求項9に記載の装置。
  11. 前記注目候補領域決定・マッピングユニットは、前記第1の確率に基づいて、前記候補領域において注目候補領域を決定するように構成された注目候補領域決定サブユニットを備え、
    前記注目候補領域決定サブユニットは、さらに、
    前記第1の確率が予め設定された確率よりも大きい候補領域を、注目候補領域として決定するように構成される、請求項9に記載の装置。
  12. 前記中間画像処理ユニットは、前記中間画像内の前記注目候補領域に対する部分に対して画像強調処理を行う強調処理サブユニットを備え、
    前記強調処理サブユニットは、さらに、
    前記中間画像内の第1の注目領域に対して第1の画像強調処理を行い、
    前記中間画像内の第2の注目領域に対して第2の画像強調処理を行うように構成され、
    前記第1の注目領域は、少なくとも2つの前記注目候補領域を前記元のサンプル画像にマッピングした重複部分であり、
    前記第2の注目領域は、単一の前記注目候補領域を前記元のサンプル画像にマッピングした部分であり、前記第1の画像強調処理の画像強調の強度は、前記第2の画像強調処理の画像強調の強度よりも大きい、請求項9に記載の装置。
  13. 画像検出モデルの訓練装置であって、
    増分サンプル画像の第2の畳み込み特徴を取得するように構成される第2の畳み込み特徴量取得ユニットであって、前記増分サンプル画像は請求項9~12のいずれか1項に記載のサンプル画像を増分する装置により取得されたものであるユニットと、
    領域提案ネットワーク及び前記第2の畳み込み特徴に基づいて、新しい候補領域と、前記新しい候補領域に目標対象物が存在する第2の確率とを決定するように構成される新候補領域・確率決定ユニットと、
    第1の確率に対応する第1の損失値、及び前記第2の確率に対応する第2の損失値を取得するように構成される損失値取得ユニットと、
    重み付け後の第1の損失値と第2の損失値に基づいて、統合損失値を決定するように構成される統合損失値決定ユニットと、
    前記統合損失値が予め設定された要求を満たすことにより、訓練済み画像検出モデルを得るように構成される画像検出モデル訓練ユニットと
    を備える装置。
  14. 前記統合損失値決定ユニットは、さらに、
    重み付け後の第1の損失値と重み付け後の第2の損失値との和を、前記統合損失値とするように構成される、請求項13に記載の画像検出モデルの訓練装置。
  15. 前記画像検出モデル訓練ユニットは、さらに、
    前記統合損失値が、予め設定された回数で訓練を繰り返して得た統合損失値のうちの最小値となることに応答して、訓練済み画像検出モデルを出力するように構成される、請求項13に記載の画像検出モデルの訓練装置。
  16. 画像検出装置であって、
    検出待ちの画像を受信するように構成される検出待ち画像受信ユニットと、
    画像検出モデルを呼び出して、前記検出待ちの画像を検出するように構成される画像検出ユニットであって、前記画像検出モデルは、請求項13~15のいずれか1項に記載の画像検出モデルの訓練方法により得られた画像検出モデルであるユニットと
    を備える装置。
  17. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続され、前記少なくとも1つのプロセッサによって実行可能な指令が格納されたメモリと
    を備えた電子機器であって、
    前記指令は、前記少なくとも1つのプロセッサによって実行されると、前記少なくとも1つのプロセッサに、請求項1~4のいずれか1項に記載のサンプル画像を増分する方法、および/または、請求項5~7のいずれか1項に記載の画像検出モデルの訓練方法、および/または、請求項8に記載の画像検出方法を実行させる電子機器。
  18. コンピュータ指令を記憶した非一時的なコンピュータ可読記憶媒体であって、
    前記コンピュータ指令は、請求項1~4のいずれか1項に記載のサンプル画像を増分する方法、および/または、請求項5~7のいずれか1項に記載の画像検出モデルの訓練方法、および/または、請求項8に記載の画像検出方法を前記コンピュータに実行させる非一時的なコンピュータ可読記憶媒体。
  19. コンピュータプログラムを含むコンピュータプログラム製品であって、
    前記コンピュータプログラムは、プロセッサによって実行されると、請求項1~4のいずれか1項に記載のサンプル画像を増分する方法、および/または、請求項5~7のいずれか1項に記載の画像検出モデルの訓練方法、および/または、請求項8に記載の画像検出方法を実現するコンピュータプログラム製品。
JP2022552961A 2021-04-07 2022-01-30 サンプル画像を増分する方法、画像検出モデルの訓練方法及び画像検出方法 Pending JP2023531350A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110371342.4A CN112949767B (zh) 2021-04-07 2021-04-07 样本图像增量、图像检测模型训练及图像检测方法
CN202110371342.4 2021-04-07
PCT/CN2022/075152 WO2022213718A1 (zh) 2021-04-07 2022-01-30 样本图像增量、图像检测模型训练及图像检测方法

Publications (1)

Publication Number Publication Date
JP2023531350A true JP2023531350A (ja) 2023-07-24

Family

ID=76232374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022552961A Pending JP2023531350A (ja) 2021-04-07 2022-01-30 サンプル画像を増分する方法、画像検出モデルの訓練方法及び画像検出方法

Country Status (4)

Country Link
US (1) US20230008696A1 (ja)
JP (1) JP2023531350A (ja)
CN (1) CN112949767B (ja)
WO (1) WO2022213718A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112949767B (zh) * 2021-04-07 2023-08-11 北京百度网讯科技有限公司 样本图像增量、图像检测模型训练及图像检测方法
CN113361535B (zh) * 2021-06-30 2023-08-01 北京百度网讯科技有限公司 图像分割模型训练、图像分割方法及相关装置
CN113516185B (zh) * 2021-07-09 2023-10-31 北京百度网讯科技有限公司 模型训练的方法、装置、电子设备及存储介质
CN114596637B (zh) * 2022-03-23 2024-02-06 北京百度网讯科技有限公司 图像样本数据增强训练方法、装置及电子设备
CN115100431B (zh) * 2022-07-26 2023-08-08 北京百度网讯科技有限公司 目标检测方法、神经网络及其训练方法、设备和介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102665062B (zh) * 2012-03-16 2016-03-30 华为技术有限公司 一种使视频中目标物体图像稳定的方法及装置
CN108229267B (zh) * 2016-12-29 2020-10-16 北京市商汤科技开发有限公司 对象属性检测、神经网络训练、区域检测方法和装置
CN109003260B (zh) * 2018-06-28 2021-02-09 深圳视见医疗科技有限公司 Ct图像肺结节检测方法、装置、设备及可读存储介质
CN109559285B (zh) * 2018-10-26 2021-08-06 北京东软医疗设备有限公司 一种图像增强显示方法及相关装置
CN110248107A (zh) * 2019-06-13 2019-09-17 Oppo广东移动通信有限公司 图像处理方法和装置
CN110599503B (zh) * 2019-06-18 2021-05-28 腾讯科技(深圳)有限公司 检测模型训练方法、装置、计算机设备和存储介质
CN110569721B (zh) * 2019-08-01 2023-08-29 平安科技(深圳)有限公司 识别模型训练方法、图像识别方法、装置、设备及介质
CN110503097A (zh) * 2019-08-27 2019-11-26 腾讯科技(深圳)有限公司 图像处理模型的训练方法、装置及存储介质
CN111428875A (zh) * 2020-03-11 2020-07-17 北京三快在线科技有限公司 图像识别方法、装置及相应模型训练方法、装置
CN111597945B (zh) * 2020-05-11 2023-08-18 济南博观智能科技有限公司 一种目标检测方法、装置、设备及介质
CN112949767B (zh) * 2021-04-07 2023-08-11 北京百度网讯科技有限公司 样本图像增量、图像检测模型训练及图像检测方法

Also Published As

Publication number Publication date
CN112949767B (zh) 2023-08-11
US20230008696A1 (en) 2023-01-12
WO2022213718A1 (zh) 2022-10-13
CN112949767A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
US11321593B2 (en) Method and apparatus for detecting object, method and apparatus for training neural network, and electronic device
JP2023531350A (ja) サンプル画像を増分する方法、画像検出モデルの訓練方法及び画像検出方法
CN116051668B (zh) 文生图扩散模型的训练方法和基于文本的图像生成方法
CN113033537A (zh) 用于训练模型的方法、装置、设备、介质和程序产品
CN113436100B (zh) 用于修复视频的方法、装置、设备、介质和产品
CN114792355B (zh) 虚拟形象生成方法、装置、电子设备和存储介质
CN113643260A (zh) 用于检测图像质量的方法、装置、设备、介质和产品
CN111539897A (zh) 用于生成图像转换模型的方法和装置
CN113887615A (zh) 图像处理方法、装置、设备和介质
CN114913325A (zh) 语义分割方法、装置及计算机程序产品
CN114724144B (zh) 文本识别方法、模型的训练方法、装置、设备及介质
JP7324891B2 (ja) バックボーンネットワーク生成方法、装置、電子機器、記憶媒体およびコンピュータプログラム
CN115482248B (zh) 图像分割方法、装置、电子设备及存储介质
JP2023133274A (ja) Roi検出モデルのトレーニング方法、検出方法、装置、機器および媒体
US20230005171A1 (en) Visual positioning method, related apparatus and computer program product
CN116402914A (zh) 用于确定风格化图像生成模型的方法、装置及产品
CN114863450B (zh) 图像处理方法、装置、电子设备及存储介质
CN113610856B (zh) 训练图像分割模型和图像分割的方法和装置
CN112560848B (zh) 兴趣点poi预训练模型的训练方法、装置及电子设备
CN113989152A (zh) 图像增强方法、装置、设备以及存储介质
CN114882334A (zh) 用于生成预训练模型的方法、模型训练方法及装置
CN114581711A (zh) 目标对象检测方法、装置、设备、存储介质以及程序产品
CN114093006A (zh) 活体人脸检测模型的训练方法、装置、设备以及存储介质
CN114119990A (zh) 用于图像特征点匹配的方法、装置及计算机程序产品
CN113870142B (zh) 用于增强图像对比度的方法、装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240216