JP2022185144A - 対象検出方法、対象検出モデルのレーニング方法および装置 - Google Patents
対象検出方法、対象検出モデルのレーニング方法および装置 Download PDFInfo
- Publication number
- JP2022185144A JP2022185144A JP2022165371A JP2022165371A JP2022185144A JP 2022185144 A JP2022185144 A JP 2022185144A JP 2022165371 A JP2022165371 A JP 2022165371A JP 2022165371 A JP2022165371 A JP 2022165371A JP 2022185144 A JP2022185144 A JP 2022185144A
- Authority
- JP
- Japan
- Prior art keywords
- image
- sample image
- feature
- object detection
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 120
- 238000000034 method Methods 0.000 title claims abstract description 81
- 238000012549 training Methods 0.000 title claims abstract description 32
- 238000013507 mapping Methods 0.000 claims abstract description 10
- 238000000605 extraction Methods 0.000 claims description 50
- 239000011159 matrix material Substances 0.000 claims description 41
- 238000012545 processing Methods 0.000 claims description 25
- 238000005259 measurement Methods 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 14
- 230000008569 process Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 11
- 230000001131 transforming effect Effects 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000004044 response Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 20
- 238000005516 engineering process Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000013473 artificial intelligence Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 7
- 238000010606 normalization Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示の一態様によれば、被測定画像を複数の画像ブロックに分割することと、前記複数の画像ブロックに基づいて、前記被測定画像の特徴表現を生成することと、前記被測定画像の複数の特徴マップを得るように、予め設定されたパラメータセットを用いて前記特徴表現をマッピングすることと、及び前記複数の特徴マップに基づいて、前記被測定画像における目標対象の位置と種別を確定することとを含む対象検出装置を提供する。
本開示の一態様によれば、プロセッサによって実行されると、上記いずれか1つの方法を実現するコンピュータプログラムを提供する。
対象検出モデルは第1サンプル画像と第2サンプル画像によりトレーニングされて得られ、第1サンプル画像と第2サンプル画像は目標種別に属する目標対象を含む。対象検出モデルのトレーニング過程において、第2サンプル画像に基づいて第1サンプル画像の特徴(即ち第1特徴)を抽出し、第2サンプル画像に対象検出モデルの第1サンプル画像に対する特徴学習を誘導と強化させることができ、したがって、対象検出モデルの第1サンプル画像に対する対象検出効果を向上させることができる。目標種別のサンプル画像の数が少ない場合であっても、トレーニングされて得られた対象検出モデルは依然として目標対象に対する正確な検出を実現することができる。
対象検出は、人工知能分野における画像処理タスクであり、画像に存在する目標対象を検出し、目標対象の画像における位置を標定し、目標対象が属する種別を確定することを指す。対象検出は一般的に深層学習技術を用いて実現される。すなわち、サンプル画像に基づいて深層学習モデルをトレーニングし、続いて、トレーニングされたモデルを使用して被測定画像に対象検出を行う。
以下、図面を参照して本開示の実施例について詳細に説明する。
被測定画像を複数の画像ブロックに分割するステップ110と、
上述の複数の画像ブロックに基づいて、被測定画像の特徴表現を生成するステップ120と、
被測定画像の複数の特徴マップを得るように、予め設定されたパラメータセットを用いて上述の特徴表現をマッピングするステップ130と、
上述の複数の特徴マップに基づいて、被測定画像における目標対象の位置と種別を確定するステップ140とを含む。
以下、方法100の各ステップを詳細に説明する。
ステップ110において、被測定画像を複数の画像ブロックに分割する。
いくつかの実施例によれば、ステップ120は、複数の画像ブロックのうちの各画像ブロックに対して、この画像ブロックの画素値に基づいて、この画像ブロックの第1ベクトル表現を確定することと、画像ブロックの第2ベクトル表現を生成するように、予め設定された変換行列を用いて第1ベクトル表現を変換することと、及び被測定画像の特徴表現を得るように、複数の画像ブロックのそれぞれの第2ベクトル表現を組み合わせることを更に含むことができる。
ステップ130において、被測定画像の複数の特徴マップを得るように、予め設定されたパラメータセットを用いて被測定画像の特徴表現をマッピングする。
いくつかの実施例によれば、特徴マップと目標対象の位置および種別との対応関係を予め設定しておき、三者の対応関係テーブルを得ることができる。続いて、被測定画像の複数の特徴マップに基づいて、テーブルを検索することにより被測定画像における目標対象の位置と種別を確定する。
図3は本開示の実施例による、特徴抽出ネットワークと領域生成ネットワークを含む対象検出モデルのレーニング方法300のフローチャートを示す。方法300は、例えばサーバーで実行されてもよいし、クライアントデバイスで実行されてもよい。すなわち、方法300の各ステップの実行主体はサーバーであってもよいし、クライアントデバイスであってもよい。
第1サンプル画像と第2サンプル画像を取得し、第1サンプル画像と第2サンプル画像は目標種別に属する目標対象を含み、第1サンプル画像には目標対象の実際の位置と目標種別がマーキングされるステップ310と、
第1サンプル画像の、第2サンプル画像に基づいて抽出された第1特徴を得るように、第1サンプル画像と第2サンプル画像を特徴抽出ネットワークに入力するステップ320と、
第1サンプル画像における目標対象の予測位置と予測種別を得るように、第1特徴を領域生成ネットワークに入力するステップ330と、
実際の位置、目標種別、予測位置及び予測種別に基づいて、対象検出モデルの損失値を計算するステップ340と、
損失値に基づいて、対象検出モデルのパラメータを調整するステップ350とを含む。
図4Aは、本開示の実施例による第1サンプル画像410と第2サンプル画像420の概略図を示す。目標種別は、例えば「五角形」であってもよく、対応的に、任意の五角形形状である対象はいずれも目標対象である。図4Aに示すように、第1サンプル画像410は目標対象412を含み、第2サンプル画像420は目標対象422を含み、第1サンプル画像410には目標種別「五角形」(図4Aには図示せず)と目標対象412の実際の位置、すなわち目標対象412の外接矩形枠414がマーキングされる。第1サンプル画像410は目標対象412に加えて、2つの三角形である対象416と418(即ち種別が「三角形」である)を含む。第2サンプル画像420は目標対象422に加えて、1つの六角星形状である対象424(即ち種別が「六角星」である)を含む。
本開示の実施例では、前記少なくとも1つの第2注意力モジュールのうちの各第2注意力モジュールは、この第2注意力モジュールに入力された第2入力データを処理し、第2入力データの特徴値行列(V2)を出力するように構成される。
図7は図6における特徴抽出ネットワーク610の例示的な構造図を示す。図7に示すように、特徴抽出ネットワークは第1抽出ブランチ610Aと第2抽出ブランチ610Bを含む。第1抽出ブランチ610Aは第1サンプル画像の第1特徴を抽出するために用いられ、第2抽出ブランチ610Bは第2サンプル画像の第2特徴を抽出するために用いられる。
第1注意力モジュール613Aと第2注意力モジュール613Bは、例えばウィンドウマルチヘッド自己注意(Window Multi-head Self-Attention、W-MSA)モジュール、シフトウィンドマルチヘッド自己注意(Shifted-Window Multi-head Self-Attention、SW-MSA)モジュールなどであってもよい。
第2注意力モジュール613Bは変換行列WVを用いて第2入力データX2を変換して、特徴値行列V2(V2=X2・WV)を得て、特徴値行列V2を第1注意力モジュール613Aに出力する。
本開示の実施例では、第1注意力モジュール613Aの特徴値行列を第2注意力モジュール613Bにより算出された特徴値行列V2に置き換えることによって、第2サンプル画像の特徴を第1サンプル画像に導入することができ、したがって第1サンプル画像の特徴学習効果を向上させることができる。
上述のステップ310~350は、対象検出モデルの損失値が予め設定された閾値より小さい時に対象検出モデルのトレーニングを完了するまで、複数回に循環実行することができる。
被測定画像を複数の画像ブロックに分割するように構成される分割モジュール810と、
前記複数の画像ブロックに基づいて、前記被測定画像の特徴表現を生成するように構成される生成モジュール820と、
前記被測定画像の複数の特徴マップを得るように、予め設定されたパラメータセットを用いて前記特徴表現をマッピングするように構成されるマッピングモジュール830と、
前記複数の特徴マップに基づいて、前記被測定画像における目標対象の位置と種別を確定するように構成される確定モジュール840とを含む。
本開示の実施例によれば、対象検出モデルのトレーニング装置を更に提供する。対象検出モデルは特徴抽出ネットワークと領域生成ネットワークを含む。図9は、本開示の実施例による対象検出モデルのトレーニング装置900の構造框図を示す。図9に示すように、装置900は、
第1サンプル画像と第2サンプル画像を取得するように構成され、前記第1サンプル画像と前記第2サンプル画像は目標種別に属する目標対象を含み、前記第1サンプル画像には前記目標対象の実際の位置と前記目標種別がマーキングされる取得モジュール910と、
前記第1サンプル画像の、前記第2サンプル画像に基づいて抽出された第1特徴を得るように、前記第1サンプル画像と前記第2サンプル画像を前記特徴抽出ネットワークに入力するように構成される第1処理モジュール920と、
前記第1サンプル画像における前記目標対象の予測位置と予測種別を取得するように、前記第1特徴を前記領域生成ネットワークに入力するように構成される第2処理モジュール930と、
前記実際の位置、目標種別、予測位置及び予測種別に基づいて、前記対象検出モデルの損失値を計算するように構成される計算モジュール940と、
前記損失値に基づいて、前記対象検出モデルのパラメータを調整するように構成される調整モジュール950とを含む。
図10を参照して、ここでは、本開示の様々な態様に適用可能なハードウェア装置の一例である、本開示のサーバ又はクライアントとして利用可能な電子機器600の構造ブロック図について説明する。電子機器は、様々な形態のデジタル電子コンピュータ機器、例えば、ラップトップ型コンピュータ、デスクトップ型コンピュータ、ステージ、個人用デジタル補助装置、サーバ、ブレードサーバ、大型コンピュータ、その他の適切なコンピュータを指すことを意図している。電子機器は更に、様々な形態の移動装置、例えば、パーソナルデジタルアシスタント、携帯電話、スマートフォン、着用可能な装置とその他の類似する計算装置を表すことができる。本明細書に示される部品、これらの接続関係およびこれらの機能は例示的なものに過ぎず、本明細書に説明したおよび/又は請求した本開示の実現を制限することを意図するものではない。
Claims (15)
- 対象検出方法であって、
被測定画像を複数の画像ブロックに分割することと、
前記複数の画像ブロックに基づいて、前記被測定画像の特徴表現を生成することと、
前記被測定画像の複数の特徴マップを得るように、予め設定されたパラメータセットを用いて前記特徴表現をマッピングすることと、
前記複数の特徴マップに基づいて、前記被測定画像における目標対象の位置と種別を確定することとを含む対象検出方法。 - 前記の前記複数の画像ブロックに基づいて、前記被測定画像の特徴表現を生成することは、
前記複数の画像ブロックのうちの各画像ブロックに対して、
前記画像ブロックの画素値に基づいて、前記画像ブロックの第1ベクトル表現を確定することと、
前記画像ブロックの第2ベクトル表現を生成するように、予め設定された変換行列を用いて前記第1ベクトル表現を変換することと、
前記被測定画像の特徴表現を得るように、前記複数の画像ブロックのそれぞれの第2ベクトル表現を組み合わせることとを含む請求項1に記載の方法。 - 前記複数の画像ブロックのサイズが同じであり、且つ互いに重ならず、
前記画像ブロックの第1ベクトル表現はこの画像ブロックにおける各チャンネルの画素値のスティッチングである請求項2に記載の方法。 - 対象検出モデルのレーニング方法であって、前記対象検出モデルは特徴抽出ネットワークと領域生成ネットワークを含み、前記方法は、
第1サンプル画像と第2サンプル画像を取得し、前記第1サンプル画像と前記第2サンプル画像は目標種別に属する目標対象を含み、前記第1サンプル画像には前記目標対象の実際の位置と前記目標種別がマーキングされることと、
前記第1サンプル画像の、前記第2サンプル画像に基づいて抽出された第1特徴を得るように、前記第1サンプル画像と前記第2サンプル画像を前記特徴抽出ネットワークに入力することと、
前記第1サンプル画像における前記目標対象の予測位置と予測種別を取得するように、前記第1特徴を前記領域生成ネットワークに入力することと、
前記実際の位置、目標種別、予測位置及び予測種別に基づいて、前記対象検出モデルの損失値を計算することと、
前記損失値に基づいて、前記対象検出モデルのパラメータを調整することとを含む対象検出モデルのレーニング方法。 - 前記第2サンプル画像は前記目標対象を含み、且つそれのみを含む請求項4に記載の方法。
- 前記第1サンプル画像と第2サンプル画像を取得することは、
前記目標種別の複数のサンプル画像を取得し、各サンプル画像は少なくとも前記目標対象を含むことと、
前記複数のサンプル画像の各サンプル画像から前記目標対象を含む局所領域を切り出し、複数の局所画像を得て、
前記第1サンプル画像は前記複数のサンプル画像のうちのいずれかのサンプル画像であり、前記第2サンプル画像は前記複数の局所画像のうちのいずれかの局所画像であることとを含む請求項4に記載の方法。 - 前記第1サンプル画像と前記第2サンプル画像は、それぞれ前記目標種別の複数のサンプル画像のうちのいずれかのサンプル画像である請求項4に記載の方法。
- 前記第1サンプル画像と前記第2サンプル画像を取得する前に、
前記目標種別と異なるベース種別の画像データに基づいて、前記対象検出モデルをプレトレーニングすることをさらに含む請求項4に記載の方法。 - 前記特徴抽出ネットワークは前記第1特徴を抽出するための第1抽出ブランチと前記第2サンプル画像の第2特徴を抽出するための第2抽出ブランチを含み、前記第1抽出ブランチは少なくとも1つの第1注意力モジュールを含み、前記第2抽出ブランチは少なくとも1つの第2注意力モジュールを含み、前記少なくとも1つの第1注意力モジュールと前記少なくとも1つの第2注意力モジュールとは1対1に対応し、各第1注意力モジュールはそれに対応する第2注意力モジュールとパラメータを共有し、
前記少なくとも1つの第2注意力モジュールのうちの各第2注意力モジュールは、前記第2注意力モジュールに入力された第2入力データを処理し、前記第2入力データの特徴値行列を出力するように構成され、
前記少なくとも1つの第1注意力モジュールのうちの各第1注意力モジュールは、
対応する第2注意力モジュールが出力した特徴値行列を取得し、
前記第1入力データのクエリ行列とキー行列を得るように、この第1注意力モジュールに入力された第1入力データを処理し、
前記クエリ行列、前記キー行列及び前記特徴値行列に基づいて、この第1注意力モジュールの第1出力データを確定して出力するように構成される請求項4に記載の方法。 - 前記損失値が予め設定された閾値より小さいと確定することに応答して、前記第2抽出ブランチを削除することとをさらに含む請求項9に記載の方法。
- 対象検出装置であって、
被測定画像を複数の画像ブロックに分割するように構成される分割モジュールと、
前記複数の画像ブロックに基づいて、前記被測定画像の特徴表現を生成するように構成される生成モジュールと、
前記被測定画像の複数の特徴マップを得るように、予め設定されたパラメータセットを用いて前記特徴表現をマッピングするように構成されるマッピングモジュールと、
前記複数の特徴マップに基づいて、前記被測定画像における目標対象の位置と種別を確定するように構成される確定モジュールとを含む対象検出装置。 - 対象検出モデルのトレーニング装置であって、前記対象検出モデルは特徴抽出ネットワークと領域生成ネットワークを含み、前記方法は、
第1サンプル画像と第2サンプル画像を取得するように構成され、前記第1サンプル画像と前記第2サンプル画像は目標種別に属する目標対象を含み、前記第1サンプル画像には前記目標対象の実際の位置と前記目標種別がマーキングされる取得モジュールと、
前記第1サンプル画像の、前記第2サンプル画像に基づいて抽出された第1特徴を得るように、前記第1サンプル画像と前記第2サンプル画像を前記特徴抽出ネットワークに入力するように構成される第1処理モジュールと、
前記第1サンプル画像における前記目標対象の予測位置と予測種別を取得するように、前記第1特徴を前記領域生成ネットワークに入力するように構成される第2処理モジュールと、
前記実際の位置、目標種別、予測位置及び予測種別に基づいて、前記対象検出モデルの損失値を計算するように構成される計算モジュールと、
前記損失値に基づいて、前記対象検出モデルのパラメータを調整するように構成される調整モジュールとを含む対象検出モデルのトレーニング装置。 - 電子機器であって、
少なくとも1つのプロセッサ、
前記少なくとも1つのプロセッサに通信接続されたメモリを含み、
前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は前記少なくとも1つのプロセッサによって実行されることにより、前記少なくとも1つのプロセッサに請求項1~10のいずれか一項に記載の方法を実行させる電子機器。 - コンピュータに請求項1~10のいずれか一項に記載の方法を実行させるためのコンピュータ命令が記憶される非一時的コンピュータ可読記憶媒体。
- プロセッサによって実行される時に、請求項1~10のいずれか一項に記載の方法を実現するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111271219.1 | 2021-10-29 | ||
CN202111271219.1A CN113963148B (zh) | 2021-10-29 | 2021-10-29 | 对象检测方法、对象检测模型的训练方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022185144A true JP2022185144A (ja) | 2022-12-13 |
Family
ID=79468255
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022165371A Pending JP2022185144A (ja) | 2021-10-29 | 2022-10-14 | 対象検出方法、対象検出モデルのレーニング方法および装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230066021A1 (ja) |
EP (1) | EP4123594A3 (ja) |
JP (1) | JP2022185144A (ja) |
CN (1) | CN113963148B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116188875A (zh) * | 2023-03-29 | 2023-05-30 | 北京百度网讯科技有限公司 | 图像分类方法、装置、电子设备、介质和产品 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114511757A (zh) * | 2022-01-27 | 2022-05-17 | 北京百度网讯科技有限公司 | 用于训练图像检测模型的方法和装置 |
CN115908498B (zh) * | 2022-12-27 | 2024-01-02 | 清华大学 | 一种基于类别最优匹配的多目标跟踪方法及装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10878576B2 (en) * | 2018-02-14 | 2020-12-29 | Elekta, Inc. | Atlas-based segmentation using deep-learning |
CN111275660B (zh) * | 2018-12-05 | 2024-04-30 | 合肥欣奕华智能机器股份有限公司 | 一种平板显示器缺陷检测方法及装置 |
WO2021087985A1 (zh) * | 2019-11-08 | 2021-05-14 | 深圳市欢太科技有限公司 | 模型训练方法、装置、存储介质及电子设备 |
CN112966742A (zh) * | 2021-03-05 | 2021-06-15 | 北京百度网讯科技有限公司 | 模型训练方法、目标检测方法、装置和电子设备 |
CN113011309A (zh) * | 2021-03-15 | 2021-06-22 | 北京百度网讯科技有限公司 | 图像识别方法、装置、设备、介质及程序产品 |
CN113449586A (zh) * | 2021-04-12 | 2021-09-28 | 北京市威富安防科技有限公司 | 目标检测方法、装置、计算机设备和存储介质 |
CN113378696A (zh) * | 2021-06-08 | 2021-09-10 | 北京百度网讯科技有限公司 | 图像处理方法、装置、设备及存储介质 |
CN113378760A (zh) * | 2021-06-25 | 2021-09-10 | 北京百度网讯科技有限公司 | 训练目标检测模型和检测目标的方法及装置 |
CN113436105A (zh) * | 2021-06-30 | 2021-09-24 | 北京百度网讯科技有限公司 | 模型训练和图像优化方法、装置、电子设备及存储介质 |
-
2021
- 2021-10-29 CN CN202111271219.1A patent/CN113963148B/zh active Active
-
2022
- 2022-10-07 EP EP22200204.0A patent/EP4123594A3/en active Pending
- 2022-10-14 JP JP2022165371A patent/JP2022185144A/ja active Pending
- 2022-10-26 US US18/049,742 patent/US20230066021A1/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116188875A (zh) * | 2023-03-29 | 2023-05-30 | 北京百度网讯科技有限公司 | 图像分类方法、装置、电子设备、介质和产品 |
CN116188875B (zh) * | 2023-03-29 | 2024-03-01 | 北京百度网讯科技有限公司 | 图像分类方法、装置、电子设备、介质和产品 |
Also Published As
Publication number | Publication date |
---|---|
CN113963148A (zh) | 2022-01-21 |
EP4123594A3 (en) | 2023-04-19 |
CN113963148B (zh) | 2023-08-08 |
US20230066021A1 (en) | 2023-03-02 |
EP4123594A2 (en) | 2023-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10885365B2 (en) | Method and apparatus for detecting object keypoint, and electronic device | |
US20220147822A1 (en) | Training method and apparatus for target detection model, device and storage medium | |
US20210209775A1 (en) | Image Processing Method and Apparatus, and Computer Readable Storage Medium | |
JP2022185144A (ja) | 対象検出方法、対象検出モデルのレーニング方法および装置 | |
US20230206525A1 (en) | Image segmentation using text embedding | |
KR20210156228A (ko) | 광학 문자 인식 방법, 장치, 전자기기 및 기록매체 | |
US11810319B2 (en) | Image detection method, device, storage medium and computer program product | |
EP3955216A2 (en) | Method and apparatus for recognizing image, electronic device and storage medium | |
CN115861462B (zh) | 图像生成模型的训练方法、装置、电子设备及存储介质 | |
CN113378712B (zh) | 物体检测模型的训练方法、图像检测方法及其装置 | |
WO2022227770A1 (zh) | 目标对象检测模型的训练方法、目标对象检测方法和设备 | |
US20230154163A1 (en) | Method and electronic device for recognizing category of image, and storage medium | |
CN113947188A (zh) | 目标检测网络的训练方法和车辆检测方法 | |
JP2023527615A (ja) | 目標対象検出モデルのトレーニング方法、目標対象検出方法、機器、電子機器、記憶媒体及びコンピュータプログラム | |
CN116596916A (zh) | 缺陷检测模型的训练和缺陷检测方法及其装置 | |
CN112580666A (zh) | 图像特征的提取方法、训练方法、装置、电子设备及介质 | |
US20230245429A1 (en) | Method and apparatus for training lane line detection model, electronic device and storage medium | |
CN114120454A (zh) | 活体检测模型的训练方法、装置、电子设备及存储介质 | |
CN113592932A (zh) | 深度补全网络的训练方法、装置、电子设备及存储介质 | |
CN114972910B (zh) | 图文识别模型的训练方法、装置、电子设备及存储介质 | |
KR20230133808A (ko) | Roi 검출 모델 훈련 방법, 검출 방법, 장치, 설비 및 매체 | |
CN114220163B (zh) | 人体姿态估计方法、装置、电子设备及存储介质 | |
CN112861940A (zh) | 双目视差估计方法、模型训练方法以及相关设备 | |
CN113177545B (zh) | 目标物体的检测方法、装置、电子设备和存储介质 | |
US20230122373A1 (en) | Method for training depth estimation model, electronic device, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221014 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240111 |