JP2022064808A - 画像認識方法および画像認識システム - Google Patents
画像認識方法および画像認識システム Download PDFInfo
- Publication number
- JP2022064808A JP2022064808A JP2021030701A JP2021030701A JP2022064808A JP 2022064808 A JP2022064808 A JP 2022064808A JP 2021030701 A JP2021030701 A JP 2021030701A JP 2021030701 A JP2021030701 A JP 2021030701A JP 2022064808 A JP2022064808 A JP 2022064808A
- Authority
- JP
- Japan
- Prior art keywords
- image
- detection task
- feature map
- detection
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000001514 detection method Methods 0.000 claims abstract description 137
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 30
- 238000003709 image segmentation Methods 0.000 claims description 20
- 238000005516 engineering process Methods 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 17
- 238000007781 pre-processing Methods 0.000 description 10
- 230000011218 segmentation Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Image Input (AREA)
- Burglar Alarm Systems (AREA)
Abstract
Description
ここで、λptは正のxy予測の正規化の重みを示す。
[外1]
は、正の点予測を示す。 λnoptは、負(null値)のxy予測の正規化重みを示す
[外2]
は、負の点予測を示す。 GSi(cl)= 1; GSi(p(c))= 1; mfはバッチ番号を示し、 fはフレームインデックスを示す。
ここで、λxyは正のxy予測の正規化重みを示す。
[外3]
は、正の検出予測を示す。 λnobbは、負(ヌル値)のxy予測の正規化重みを示す。
[外4]
は、負の検出予測を示し、 GDi(cl)は1であり、 GDi(p(c))は1であり、 Aはボックスの総数を示し、mfはバッチ番号を示し、fはフレームインデックスを示す。
[外5]
であり、
[外6]
は、バックボーンアーキテクチャモジュール2004が画像セグメンテーション検出タスクのみでトレーニングされた場合の最小セグメンテーション損失を示し、
[外7]
は、バックボーンアーキテクチャモジュールが2D物体検出タスクのみでトレーニングされた場合の最小2D物体検出損失を示す。
[外8]
は正点予測を示し、
[外9]
は最低の正点予測を示す。
状況1:
状況2:
110:画像センサ
120:記憶装置
130:出力装置
140:プロセッサ
2000:単一の畳み込みニューラルネットワークに基づく画像認識モジュール
2002:画像前処理モジュール
2004:バックボーンアーキテクチャモジュール
2006:最終層ネットワークモジュール
2008:コンピュータビジョン処理モジュール
WM:ニューラルネットワークモデルの幅の次元
HM:ニューラルネットワークモデルの高さ次元
WI:生画像の幅
HI:生画像の高さ
II:認識対象画像
I:入力画像
310:画像パディング操作
320、330:画像のサイズ変更操作
311、321:生画像
312、322:入力画像
410:単一の畳み込みニューラルネットワーク
420-1、420-2、420-3:第1の特徴マップ
430:第2の特徴マップ
510:画像セグメンテーションのグラウンドトゥルース
520:正データのグリッドマップ
x、y:境界ボックスの座標
w:境界ボックスの幅
h:境界ボックスの高さ
cl:検出信頼度
p:クラス確率
RS0:点候補
RD0:検出ボックス候補
RS:点予測
RD:検出ボックス予測
910:点候補
920:特徴マップ
930:正データのグリッドマップ
940、950:カーネル
S1010、S1020、S1030、S1040、S1050、S1060:手順
Claims (16)
- 複数の検出タスクのための画像認識方法であって、該画像認識方法は、
画像センサによって認識対象画像を取得するステップと、
前記認識対象画像を単一の畳み込みニューラルネットワークに入力するステップと、
前記単一の畳み込みニューラルネットワークの出力結果に従って、第1の検出タスクに属する第1の特徴マップおよび第2の検出タスクに属する第2の特徴マップを取得するステップであり、前記第1の特徴マップと前記第2の特徴マップが共有特徴を有する、ステップと、
最終層ネットワークモジュールを使用して、前記第1の特徴マップに従って、前記認識対象画像から前記第1の検出タスクに対応する第1の認識結果を生成し、前記第2の特徴マップに従って、前記認識対象画像から前記第2の検出タスクに対応する第2の認識結果を生成するステップと、
前記第1の検出タスクに対応する前記第1の認識結果と、前記第2の検出タスクに対応する前記第2の認識結果を出力するステップと、
を含むことを特徴とする、画像認識方法。 - 前記第1の検出タスクが2D物体検出であり、前記第2の検出タスクが画像セグメンテーションである、請求項1に記載の画像認識方法。
- 前記単一の畳み込みニューラルネットワーク内に複数の畳み込み層を有するバックボーンアーキテクチャモジュールを構成するステップと、
前記バックボーンアーキテクチャモジュールを使用して、前記認識対象画像から前記共有特徴を抽出し、共有特徴マップを生成するステップと、
をさらに含む、請求項1または2に記載の画像認識方法。 - 前記第1の検出タスクのための第1の損失関数を構成し、前記第2の検出タスクのための第2の損失関数を構成するステップをさらに備え、
前記第1の損失関数が、前記第1の認識結果と前記第1の検出タスクに対応する第1の基準結果との間の誤差を測定し、
前記第2の損失関数が、前記第2の認識結果と前記第2の検出タスクに対応する第2の基準結果との間の誤差を測定する、請求項3に記載の画像認識方法。 - 前記最終層ネットワークモジュール内に複数の予測層を構成し、前記第1の検出タスクに対応する前記第1の損失関数および前記第2の検出タスクに対応する前記第2の損失関数に従って前記共有特徴マップを処理するステップ、
をさらに含む、請求項4に記載の画像認識方法。 - 複数の正規化重みを使用して、前記第2の検出タスクの損失値の範囲のバランスを取り、前記第1の検出タスクの損失値の範囲を参照して前記バックボーンアーキテクチャモジュールの学習可能な重みを調整するステップ、
をさらに含む、請求項4に記載の画像認識方法。 - 前記最終層ネットワークモジュール内のコンピュータビジョン技術を使用して、前記第2の検出タスクに対応する前記第2の認識結果をクラスタ化および結合するステップ、
をさらに含む、請求項1から6のいずれか一項に記載の画像認識方法。 - 前記第1の検出タスクの前記第1の特徴マップは、境界ボックスの座標、前記境界ボックスの幅および高さ、前記境界ボックスの検出信頼度および前記境界ボックスのクラス確率を含み、前記第2の検出タスクの前記第2の特徴マップは、前記境界ボックスの前記座標、前記境界ボックスの前記検出信頼度、および前記境界ボックスの前記クラス確率を含む、請求項1から7のいずれか一項に記載の画像認識方法。
- 認識対象画像を取得する画像センサと、
記憶装置と、
出力装置と、
前記画像センサ、前記記憶装置、および前記出力装置に結合されたプロセッサと、
を備え、
前記プロセッサが、前記認識対象画像を単一の畳み込みニューラルネットワークに入力し、前記記憶装置が、前記単一の畳み込みニューラルネットワークを記憶すること、
前記プロセッサが、前記単一の畳み込みニューラルネットワークの出力結果に従って、第1の検出タスクに属する第1の特徴マップおよび第2の検出タスクに属する第2の特徴マップを取得し、前記第1の特徴マップと前記第2の特徴マップが共有特徴を有すること、
前記プロセッサが、最終層ネットワークモジュールを使用して、前記第1の特徴マップに従って、前記認識対象画像から前記第1の検出タスクに対応する第1の認識結果を生成し、前記第2の特徴マップに従って、前記認識対象画像から前記第2の検出タスクに対応する第2の認識結果を生成すること、
前記出力装置が、前記第1の検出タスクに対応する前記第1の認識結果と、前記第2の検出タスクに対応する前記第2の認識結果とを出力すること、
を特徴とする、画像認識システム。 - 前記第1の検出タスクが2D物体検出であり、前記第2の検出タスクが画像セグメンテーションである、請求項9に記載の画像認識システム。
- 前記プロセッサが、前記単一の畳み込みニューラルネットワーク内に複数の畳み込み層を有するバックボーンアーキテクチャモジュールを構成し、
前記プロセッサが、前記バックボーンアーキテクチャモジュールを使用して、前記認識対象画像から前記共有特徴を抽出し、共有特徴マップを生成する、請求項9または10に記載の画像認識システム。 - 前記プロセッサが、前記第1の検出タスクのための第1の損失関数を構成し、且つ前記第2の検出タスクのための第2の損失関数を構成し、
前記第1の損失関数が、前記第1の認識結果と前記第1の検出タスクに対応する第1の基準結果との間の誤差を測定し、
前記第2の損失関数が、前記第2の認識結果と前記第2の検出タスクに対応する第2の基準結果との間の誤差を測定する、請求項11に記載の画像認識システム。 - 前記プロセッサが、前記最終層ネットワークモジュール内に複数の予測層を構成し、前記第1の検出タスクに対応する前記第1の損失関数および前記第2の検出タスクに対応する前記第2の損失関数に従って前記共有特徴マップを処理する、請求項12に記載の画像認識システム。
- 前記プロセッサが、複数の正規化重みを使用して、前記第2の検出タスクの損失値の範囲のバランスを取り、前記第1の検出タスクの損失値の範囲を参照して前記バックボーンアーキテクチャモジュールの学習可能な重みを調整する、請求項12に記載の画像認識システム。
- 前記プロセッサが、前記最終層ネットワークモジュール内のコンピュータビジョン技術を使用して、前記第2の検出タスクに対応する前記第2の認識結果をクラスタ化および結合する、請求項9から14のいずれか一項に記載の画像認識システム。
- 前記第1の検出タスクの前記第1の特徴マップは、境界ボックスの座標、前記境界ボックスの幅および高さ、前記境界ボックスの検出信頼度および前記境界ボックスのクラス確率を含み、前記第2の検出タスクの前記第2の特徴マップは、前記境界ボックスの前記座標、前記境界ボックスの前記検出信頼度、および前記境界ボックスの前記クラス確率を含む、請求項9から15のいずれか一項に記載の画像認識システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW109135458 | 2020-10-14 | ||
TW109135458A TWI812888B (zh) | 2020-10-14 | 2020-10-14 | 影像辨識方法及影像辨識系統 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022064808A true JP2022064808A (ja) | 2022-04-26 |
Family
ID=81079313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021030701A Pending JP2022064808A (ja) | 2020-10-14 | 2021-02-26 | 画像認識方法および画像認識システム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11507776B2 (ja) |
JP (1) | JP2022064808A (ja) |
CN (1) | CN114419313A (ja) |
TW (1) | TWI812888B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114918944A (zh) * | 2022-06-02 | 2022-08-19 | 哈尔滨理工大学 | 基于卷积神经网络融合的家庭服务机器人抓取检测方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019102796A1 (ja) * | 2017-11-21 | 2019-05-31 | 富士フイルム株式会社 | 認識装置、認識方法及びプログラム |
JP2020503604A (ja) * | 2016-12-05 | 2020-01-30 | アビギロン コーポレイションAvigilon Corporation | 外観検索のシステムおよび方法 |
US20200082560A1 (en) * | 2018-09-07 | 2020-03-12 | Ehsan Nezhadarya | Estimating two-dimensional object bounding box information based on bird's-eye view point cloud |
CN110909885A (zh) * | 2019-11-19 | 2020-03-24 | 支付宝(杭州)信息技术有限公司 | 一种平衡多个任务的方法及系统 |
WO2020057758A1 (en) * | 2018-09-21 | 2020-03-26 | Toyota Motor Europe | Method and system for processing an image and performing instance segmentation using affinity graphs |
WO2020090428A1 (ja) * | 2018-10-30 | 2020-05-07 | 三菱電機株式会社 | 地物検出装置、地物検出方法および地物検出プログラム |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9286524B1 (en) | 2015-04-15 | 2016-03-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Multi-task deep convolutional neural networks for efficient and robust traffic lane detection |
US10019657B2 (en) | 2015-05-28 | 2018-07-10 | Adobe Systems Incorporated | Joint depth estimation and semantic segmentation from a single image |
WO2017015390A1 (en) | 2015-07-20 | 2017-01-26 | University Of Maryland, College Park | Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition |
US9836853B1 (en) * | 2016-09-06 | 2017-12-05 | Gopro, Inc. | Three-dimensional convolutional neural networks for video highlight detection |
US10657364B2 (en) | 2016-09-23 | 2020-05-19 | Samsung Electronics Co., Ltd | System and method for deep network fusion for fast and robust object detection |
US10445622B2 (en) | 2017-05-18 | 2019-10-15 | Qualcomm Incorporated | Learning disentangled invariant representations for one-shot instance recognition |
US11775313B2 (en) * | 2017-05-26 | 2023-10-03 | Purdue Research Foundation | Hardware accelerator for convolutional neural networks and method of operation thereof |
CN107704866B (zh) | 2017-06-15 | 2021-03-23 | 清华大学 | 基于新型神经网络的多任务场景语义理解模型及其应用 |
KR102463175B1 (ko) * | 2017-09-04 | 2022-11-04 | 삼성전자주식회사 | 객체 인식 방법 및 장치 |
KR102452953B1 (ko) * | 2017-10-30 | 2022-10-11 | 삼성전자주식회사 | 뉴럴 네트워크의 컨볼루션 연산을 수행하는 방법 및 장치 |
US11087130B2 (en) | 2017-12-29 | 2021-08-10 | RetailNext, Inc. | Simultaneous object localization and attribute classification using multitask deep neural networks |
US20190286921A1 (en) * | 2018-03-14 | 2019-09-19 | Uber Technologies, Inc. | Structured Prediction Crosswalk Generation |
CN109145713B (zh) | 2018-07-02 | 2021-09-28 | 南京师范大学 | 一种结合目标检测的小目标语义分割方法 |
US10699430B2 (en) * | 2018-10-09 | 2020-06-30 | Industrial Technology Research Institute | Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof |
US11462112B2 (en) * | 2019-03-07 | 2022-10-04 | Nec Corporation | Multi-task perception network with applications to scene understanding and advanced driver-assistance system |
US11544928B2 (en) * | 2019-06-17 | 2023-01-03 | The Regents Of The University Of California | Athlete style recognition system and method |
CN110570421B (zh) * | 2019-09-18 | 2022-03-22 | 北京鹰瞳科技发展股份有限公司 | 多任务的眼底图像分类方法和设备 |
CN110837869A (zh) * | 2019-11-11 | 2020-02-25 | 深圳市商汤科技有限公司 | 图像分类模型训练方法、图像处理方法及装置 |
CN111160367B (zh) * | 2019-12-23 | 2024-03-01 | 上海联影智能医疗科技有限公司 | 图像分类方法、装置、计算机设备和可读存储介质 |
US20230080133A1 (en) * | 2020-02-21 | 2023-03-16 | Toyota Motor Europe | 6d pose and shape estimation method |
US11731639B2 (en) * | 2020-03-03 | 2023-08-22 | GM Global Technology Operations LLC | Method and apparatus for lane detection on a vehicle travel surface |
CN111582043B (zh) * | 2020-04-15 | 2022-03-15 | 电子科技大学 | 基于多任务学习的高分辨率遥感影像地物变化检测方法 |
-
2020
- 2020-10-14 TW TW109135458A patent/TWI812888B/zh active
- 2020-11-18 US US16/950,919 patent/US11507776B2/en active Active
-
2021
- 2021-02-01 CN CN202110134473.0A patent/CN114419313A/zh active Pending
- 2021-02-26 JP JP2021030701A patent/JP2022064808A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020503604A (ja) * | 2016-12-05 | 2020-01-30 | アビギロン コーポレイションAvigilon Corporation | 外観検索のシステムおよび方法 |
WO2019102796A1 (ja) * | 2017-11-21 | 2019-05-31 | 富士フイルム株式会社 | 認識装置、認識方法及びプログラム |
US20200082560A1 (en) * | 2018-09-07 | 2020-03-12 | Ehsan Nezhadarya | Estimating two-dimensional object bounding box information based on bird's-eye view point cloud |
WO2020057758A1 (en) * | 2018-09-21 | 2020-03-26 | Toyota Motor Europe | Method and system for processing an image and performing instance segmentation using affinity graphs |
WO2020090428A1 (ja) * | 2018-10-30 | 2020-05-07 | 三菱電機株式会社 | 地物検出装置、地物検出方法および地物検出プログラム |
CN110909885A (zh) * | 2019-11-19 | 2020-03-24 | 支付宝(杭州)信息技术有限公司 | 一种平衡多个任务的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
US20220114383A1 (en) | 2022-04-14 |
US11507776B2 (en) | 2022-11-22 |
CN114419313A (zh) | 2022-04-29 |
TWI812888B (zh) | 2023-08-21 |
TW202215367A (zh) | 2022-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220392234A1 (en) | Training neural networks for vehicle re-identification | |
CN109271870B (zh) | 行人重识别方法、装置、计算机设备及存储介质 | |
WO2018021942A2 (ru) | Распознавание лиц с помощью искусственной нейронной сети | |
CN110084299B (zh) | 基于多头融合注意力的目标检测方法和装置 | |
CN110765860A (zh) | 摔倒判定方法、装置、计算机设备及存储介质 | |
CN111461145B (zh) | 一种基于卷积神经网络进行目标检测的方法 | |
US20150023607A1 (en) | Gesture recognition method and apparatus based on analysis of multiple candidate boundaries | |
Chen et al. | Dr-tanet: Dynamic receptive temporal attention network for street scene change detection | |
CN110929080A (zh) | 基于注意力和生成对抗网络的光学遥感图像检索方法 | |
CN111062324A (zh) | 人脸检测方法、装置、计算机设备和存储介质 | |
WO2023274052A1 (zh) | 一种图像分类方法及其相关设备 | |
CN115496976A (zh) | 多源异构数据融合的视觉处理方法、装置、设备及介质 | |
CN116091946A (zh) | 一种基于YOLOv5的无人机航拍图像目标检测方法 | |
WO2022063076A1 (zh) | 对抗样本的识别方法及装置 | |
CN114998756A (zh) | 一种基于yolov5的遥感图像检测方法、装置及存储介质 | |
JP2022064808A (ja) | 画像認識方法および画像認識システム | |
US20230410465A1 (en) | Real time salient object detection in images and videos | |
CN112132025B (zh) | 应急车道图像处理方法、装置、计算机设备及存储介质 | |
CN113496260A (zh) | 基于改进YOLOv3算法的粮库人员不规范作业检测法 | |
CN116758419A (zh) | 针对遥感图像的多尺度目标检测方法、装置和设备 | |
CN116977265A (zh) | 缺陷检测模型的训练方法、装置、计算机设备和存储介质 | |
CN116310899A (zh) | 基于YOLOv5改进的目标检测方法及装置、训练方法 | |
WO2022257433A1 (zh) | 图像的特征图的处理方法及装置、存储介质、终端 | |
CN115713769A (zh) | 文本检测模型的训练方法、装置、计算机设备和存储介质 | |
CN113920099B (zh) | 一种基于非局部信息提取的息肉分割方法及相关组件 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220719 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230224 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230224 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230307 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230314 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20230512 |