JP2021514499A - ターゲットオブジェクト処理方法、装置、電子機器及び記憶媒体 - Google Patents
ターゲットオブジェクト処理方法、装置、電子機器及び記憶媒体 Download PDFInfo
- Publication number
- JP2021514499A JP2021514499A JP2020533136A JP2020533136A JP2021514499A JP 2021514499 A JP2021514499 A JP 2021514499A JP 2020533136 A JP2020533136 A JP 2020533136A JP 2020533136 A JP2020533136 A JP 2020533136A JP 2021514499 A JP2021514499 A JP 2021514499A
- Authority
- JP
- Japan
- Prior art keywords
- data
- processing module
- scene
- processing
- edge device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003860 storage Methods 0.000 title claims abstract description 28
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 238000012545 processing Methods 0.000 claims abstract description 310
- 238000002372 labelling Methods 0.000 claims abstract description 92
- 238000000034 method Methods 0.000 claims abstract description 69
- 238000013528 artificial neural network Methods 0.000 claims abstract description 64
- 238000012549 training Methods 0.000 claims description 59
- 238000005070 sampling Methods 0.000 claims description 31
- 238000012360 testing method Methods 0.000 claims description 18
- 238000012544 monitoring process Methods 0.000 claims description 17
- 230000006978 adaptation Effects 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 12
- 238000004590 computer program Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 229920001690 polydopamine Polymers 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 230000002349 favourable effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000004821 distillation Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010248 power generation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 239000003039 volatile agent Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Electrical Discharge Machining, Electrochemical Machining, And Combined Machining (AREA)
- Multi-Process Working Machines And Systems (AREA)
- Supplying Of Containers To The Packaging Station (AREA)
Abstract
Description
本願は、出願番号が201910098735.5で、出願日が2019年1月31日である中国特許出願に基づいて提出され、且つこの中国特許出願の優先権を主張し、その開示の全てが参照によって本願に組み込まれる。
前記第1データを前記第1処理モジュールに入力して、予測されたデータラベリング結果を得るステップと、
前記データラベリング結果を前記第2処理モジュールに入力して、前記データラベリング結果に基づいてシーン自己適応の増分学習を行って、前記第2データのシーンへ順応したニューラルネットワークを得るステップと、
ターゲットオブジェクトを含むデータ及び前記ニューラルネットワークに従って、前記ターゲットオブジェクトに対応するシーンへの処理を実現するステップと、を含むターゲットオブジェクト処理方法を提供する。
前記シーンが現在の第1シーンであり、前記データラベリング結果に基づいて第1シーンの自己適応の増分学習を行って、前記第1シーンへ順応したニューラルネットワークを得た後、前記シーンが前記第1シーンから第2シーンに変換されたことを監視するステップと、
前記第2処理モジュール中のパラメータのパラメータリセットをトリガするステップと、
前記データラベリング結果に基づいて前記第2シーンの自己適応の増分学習を行って、前記第2シーンへ順応したニューラルネットワークを得るステップと、を更に含む。
前記第2処理モジュール中のパラメータが更新される場合に、制限条件に基づいて前記パラメータ更新を制約するステップを更に含む。
前記第1処理モジュールによるシーンデータの予測に基づいて、予測規則を得るステップと、
前記予測規則に基づいて前記第1データをラベリングして、予測されたデータラベリング結果を得るステップと、を含む。
前記予測されたデータラベリング結果が、前記第1処理モジュールを構成するデータサンプル訓練ネットワーク出力層の第1出力及び中間層の第2出力に由来するものである。
前記ニューラルネットワークを取得するステップの前に、前記方法は、
前記処理される第1データについては、前記第1処理モジュールと前記第2処理モジュールがそれぞれ出力した予測結果が大きく相違する場合に、前記処理される第1データのうち、予測結果が大きく相違する1フレーム又は複数フレームの第1データに対して前記エッジデバイス側で前記シーン自己適応の増分学習を行うステップを更に含む。
前記1フレーム又は複数フレームの第1データに対して前記第1処理モジュールが取得した1つ又は複数のデータラベリング結果を前記第2処理モジュールに出力するステップと、
1つ又は複数のデータラベリング結果に基づいて前記第2処理モジュールを訓練して前記第2処理モジュール中のパラメータを更新するステップと、
予め設定されたポリシーによって前記サンプリングパラメータの数値を増加するステップと、を含む。
前記ニューラルネットワークを取得するステップの前に、前記方法は、
前記処理される第1データについては、前記第1処理モジュールと前記第2処理モジュールがそれぞれ出力した予測結果が小さく相違する場合に、予め設定されたポリシーによって前記サンプリングパラメータの数値を減少するステップを更に含む。
前記ニューラルネットワークを取得するステップの前に、前記方法は、
前記オンラインテスト集合中の第1データについては、前記第1処理モジュールと前記第2処理モジュールがそれぞれ出力した予測結果が大きく相違する場合に、前記第2処理モジュール中のパラメータをリセットするステップを更に含む。
複数の領域のエッジデバイスを監視して、アイドル状態の第1エッジデバイスを取得するステップと、
第1エッジデバイスに対応するエッジデバイス処理能力に従って、前記第2処理モジュールに第2データのシーンへの順応の自己適応増分訓練を実行するステップと、を更に含む。
複数の領域のエッジデバイスを監視して、複数のエッジデバイス処理能力を取得するステップと、
前記複数のエッジデバイスのそれぞれに対応するエッジデバイス処理能力及び現在リソース消費に基づいて、前記複数のエッジデバイスから前記エッジデバイス処理能力が最も高い第2エッジデバイスを選定するステップと、
前記第2エッジデバイスに対応するエッジデバイス処理能力に従って、前記第2処理モジュールに第2データのシーンへの順応の自己適応増分訓練を実行するステップと、を更に含む。
入力された第1データに基づいて、予測されたデータラベリング結果を得るように構成される第1処理モジュールと、
入力されたデータラベリング結果に基づいてシーン自己適応の増分学習を行って、前記第2データのシーンへ順応したニューラルネットワークを得るように構成される第2処理モジュールと、
ターゲットオブジェクトを含むデータ及び前記ニューラルネットワークに従って、前記ターゲットオブジェクトに対応するシーンへの処理を実現するように構成される第3処理モジュールと、を含むターゲットオブジェクト処理装置を提供する。
前記シーンが現在の第1シーンであり、前記データラベリング結果に基づいて第1シーンの自己適応の増分学習を行って、前記第1シーンへ順応したニューラルネットワークを得た後、前記シーンが前記第1シーンから第2シーンに変換されたことを監視するように構成される監視モジュールと、
前記第2処理モジュール中のパラメータのパラメータリセットをトリガするように構成されるリセットトリガモジュールと、を更に含み、
前記第2処理モジュールは、更に、前記データラベリング結果に基づいて前記第2シーンの自己適応の増分学習を行って、前記第2シーンへ順応したニューラルネットワークを得るように構成される。
パラメータが更新される場合に、制限条件に基づいて前記パラメータ更新を制約するように構成されるパラメータ更新モジュールを更に含む。
シーンデータについての予測に基づいて、予測規則を得、
前記予測規則に基づいて前記第1データをラベリングして、予測されたデータラベリング結果を得るように構成される。
前記予測されたデータラベリング結果が、前記第1処理モジュールを構成するデータサンプル訓練ネットワーク出力層の第1出力及び中間層の第2出力に由来するものである。
前記第1データを前記第1処理モジュールに入力する前に、サンプリングパラメータに基づいて前記第1データを選択して、処理される第1データを得るように構成される第4処理モジュールを更に含み、
前記装置は、
前記処理される第1データについては、前記第1処理モジュールと前記第2処理モジュールがそれぞれ出力した予測結果が大きく相違する場合に、前記処理される第1データのうち、予測結果が大きく相違する1フレーム又は複数フレームの第1データに対して前記エッジデバイス側で前記シーン自己適応の増分学習を行うように構成される第5処理モジュールを更に含む。
前記1フレーム又は複数フレームの第1データに対して前記第1処理モジュールが取得した1つ又は複数のデータラベリング結果を前記第2処理モジュールに出力し、
1つ又は複数のデータラベリング結果に基づいて前記第2処理モジュールを訓練して前記第2処理モジュール中のパラメータを更新し、
予め設定されたポリシーによって前記サンプリングパラメータの数値を増加するように構成される。
前記第1データを前記第1処理モジュールに入力する前に、サンプリングパラメータに基づいて前記第1データを選択して、処理される第1データを得るように構成される第6処理モジュールを更に含み、
前記装置は、
前記処理される第1データについては、前記第1処理モジュールと前記第2処理モジュールがそれぞれ出力した予測結果が小さく相違する場合に、予め設定されたポリシーによって前記サンプリングパラメータの数値を減少するように構成される第7処理モジュールを更に含む。
前記第1データを前記第1処理モジュールに入力する前に、前記第1データ中の一部のデータをオンラインテスト集合とするように構成される第8処理モジュールを更に含み、
前記装置は、
前記オンラインテスト集合中の第1データについては、前記第1処理モジュールと前記第2処理モジュールがそれぞれ出力した予測結果が大きく相違する場合に、前記第2処理モジュール中のパラメータをリセットするように構成される第9処理モジュールを更に含む。
前記ニューラルネットワークが得られた後、複数の領域のエッジデバイスを監視して、アイドル状態の第1エッジデバイスを取得するように構成される第1デバイス監視モジュールと、
第1エッジデバイスに対応するエッジデバイス処理能力に従って、前記第2処理モジュールに第2データのシーンへの順応の自己適応増分訓練を実行するように構成される第1訓練処理モジュールと、を更に含む。
前記ニューラルネットワークが得られた後、複数の領域のエッジデバイスを監視して、複数のエッジデバイス処理能力を取得するように構成される第2デバイス監視モジュールと、
前記複数のエッジデバイスのそれぞれに対応するエッジデバイス処理能力及び現在リソース消費に基づいて、前記複数のエッジデバイスから前記エッジデバイス処理能力が最も高い第2エッジデバイスを選定するように構成されるデバイス選定処理モジュールと、
前記第2エッジデバイスに対応するエッジデバイス処理能力に従って、前記第2処理モジュールに第2データのシーンへの順応の自己適応増分訓練を実行するように構成される第2訓練処理モジュールと、を更に含む。
プロセッサと、
プロセッサ実行可能コマンドを記憶するためのメモリと、を含み、
前記プロセッサが上記のいずれか一項に記載の方法を実行するように構成される電子機器を提供する。
第1データを第1処理モジュールに入力して、予測されたデータラベリング結果を得るステップS11と、
データラベリング結果を第2処理モジュールに入力して、データラベリング結果に基づいてシーン自己適応の増分学習を行って、第2データのシーンへ順応したニューラルネットワークを得るステップS12と、
ターゲットオブジェクトを含むデータ及びこのニューラルネットワークによって、ターゲットオブジェクト対応シーンへの処理を実現するステップS13と、を含む。
第1データを第1処理モジュールに入力して、予測されたデータラベリング結果を得るステップS21と、
シーンが現在の第1シーンであり、前記データラベリング結果に基づいて第1シーンの自己適応の増分学習を行って、第1シーンへ順応したニューラルネットワークを得、ターゲットオブジェクトを含むデータ及びこのニューラルネットワークによって、ターゲットオブジェクトに対応する第1シーンへの処理を実現するステップS22と、
シーンが第1シーンから第2シーンに変換されたことが監視される場合、第2処理モジュール中のパラメータのパラメータリセットをトリガするステップS23と、
データラベリング結果に基づいて第2シーンの自己適応の増分学習を行って、第2シーンへ順応したニューラルネットワークを得、ターゲットオブジェクトを含むデータ及びこのニューラルネットワークによって、ターゲットオブジェクトに対応する第2シーンへの処理を実現するステップS24と、を含む。
Claims (24)
- エッジデバイス側に適用され、第1データのラベリングのための第1処理モジュールと第2データのシーンへの順応のための第2処理モジュールを前記エッジデバイス側に配置する方法であって、
前記第1データを前記第1処理モジュールに入力して、予測されたデータラベリング結果を得るステップと、
前記データラベリング結果を前記第2処理モジュールに入力して、前記データラベリング結果に基づいてシーン自己適応の増分学習を行って、前記第2データのシーンへ順応したニューラルネットワークを得るステップと、
ターゲットオブジェクトを含むデータ及び前記ニューラルネットワークに従って、前記ターゲットオブジェクトに対応するシーンへの処理を実現するステップと、を含むターゲットオブジェクト処理方法。 - 前記シーンが現在の第1シーンであり、前記データラベリング結果に基づいて第1シーンの自己適応の増分学習を行って、前記第1シーンへ順応したニューラルネットワークを得た後、前記シーンが前記第1シーンから第2シーンに変換されたことを監視するステップと、
前記第2処理モジュール中のパラメータのパラメータリセットをトリガするステップと、
前記データラベリング結果に基づいて前記第2シーンの自己適応の増分学習を行って、前記第2シーンへ順応したニューラルネットワークを得るステップと、を更に含む請求項1に記載の方法。 - 前記ニューラルネットワークを得るステップの前に、
前記第2処理モジュール中のパラメータが更新される場合に、制限条件に基づいて前記パラメータ更新を制約するステップを更に含む請求項1又は2に記載の方法。 - 第1データを前記第1処理モジュールに入力して、予測されたデータラベリング結果を得る前記ステップは、
前記第1処理モジュールによるシーンデータの予測に基づいて、予測規則を得るステップと、
前記予測規則に基づいて前記第1データをラベリングして、予測されたデータラベリング結果を得るステップと、を含む請求項1に記載の方法。 - 前記予測されたデータラベリング結果が、前記第1処理モジュールを構成するデータサンプル訓練ネットワーク出力層の第1出力に由来するものであり、及び/又は、
前記予測されたデータラベリング結果が、前記第1処理モジュールを構成するデータサンプル訓練ネットワーク出力層の第1出力及び中間層の第2出力に由来するものである請求項1〜4のいずれか一項に記載の方法。 - 前記第1データを前記第1処理モジュールに入力する前に、サンプリングパラメータに基づいて前記第1データを選択して、処理される第1データを得るステップを更に含み、
前記ニューラルネットワークを取得するステップの前に、
前記処理される第1データについては、前記第1処理モジュールと前記第2処理モジュールがそれぞれ出力した予測結果が大きく相違する場合に、前記処理される第1データのうち、予測結果が大きく相違する1フレーム又は複数フレームの第1データに対して前記エッジデバイス側で前記シーン自己適応の増分学習を行うステップを更に含む請求項1に記載の方法。 - 前記処理される第1データのうち、予測結果が大きく相違する1フレーム又は複数フレームの第1データに対して前記エッジデバイス側で前記シーン自己適応の増分学習を行う前記ステップは、
前記1フレーム又は複数フレームの第1データに対して前記第1処理モジュールが取得した1つ又は複数のデータラベリング結果を前記第2処理モジュールに出力するステップと、
1つ又は複数のデータラベリング結果に基づいて前記第2処理モジュールを訓練して前記第2処理モジュール中のパラメータを更新するステップと、
予め設定されたポリシーによって前記サンプリングパラメータの数値を増加するステップと、を含む請求項6に記載の方法。 - 前記第1データを第1処理モジュールに入力する前に、サンプリングパラメータに基づいて前記第1データを選択して、処理される第1データを得るステップを更に含み、
前記ニューラルネットワークを取得するステップの前に、
前記処理される第1データについては、前記第1処理モジュールと前記第2処理モジュールがそれぞれ出力した予測結果が小さく相違する場合に、予め設定されたポリシーによって前記サンプリングパラメータの数値を減少するステップを更に含む請求項1に記載の方法。 - 前記第1データを第1処理モジュールに入力する前に、前記第1データ中の一部のデータをオンラインテスト集合とするステップを更に含み、
前記ニューラルネットワークを取得するステップの前に、
前記オンラインテスト集合中の第1データについては、前記第1処理モジュールと前記第2処理モジュールがそれぞれ出力した予測結果が大きく相違する場合に、前記第2処理モジュール中のパラメータをリセットするステップを更に含む請求項1に記載の方法。 - 前記ニューラルネットワークが得られた後、
複数の領域のエッジデバイスを監視して、アイドル状態の第1エッジデバイスを取得するステップと、
前記第1エッジデバイスに対応するエッジデバイス処理能力に従って、前記第2処理モジュールに第2データのシーンへの順応の自己適応増分訓練を実行するステップと、を更に含む請求項1〜9のいずれか一項に記載の方法。 - 前記ニューラルネットワークが得られた後、
複数の領域のエッジデバイスを監視して、複数のエッジデバイス処理能力を取得するステップと、
前記複数のエッジデバイスのそれぞれに対応するエッジデバイス処理能力及び現在リソース消費に基づいて、前記複数のエッジデバイスから前記エッジデバイス処理能力が最も高い第2エッジデバイスを選定するステップと、
前記第2エッジデバイスに対応するエッジデバイス処理能力に従って、前記第2処理モジュールに第2データのシーンへの順応の自己適応増分訓練を実行するステップと、を更に含む請求項1〜9のいずれか一項に記載の方法。 - エッジデバイス側に配置される装置であって、
入力された第1データに基づいて、予測されたデータラベリング結果を得るように構成される第1処理モジュールと、
入力されたデータラベリング結果に基づいてシーン自己適応の増分学習を行って、前記第2データのシーンへ順応したニューラルネットワークを得るように構成される第2処理モジュールと、
ターゲットオブジェクトを含むデータ及び前記ニューラルネットワークに従って、前記ターゲットオブジェクトに対応するシーンへの処理を実現するように構成される第3処理モジュールと、を含むターゲットオブジェクト処理装置。 - 前記シーンが現在の第1シーンであり、前記データラベリング結果に基づいて第1シーンの自己適応の増分学習を行って、前記第1シーンへ順応したニューラルネットワークを得た後、前記シーンが前記第1シーンから第2シーンに変換されたことを監視するように構成される監視モジュールと、
前記第2処理モジュール中のパラメータのパラメータリセットをトリガするように構成されるリセットトリガモジュールと、を更に含み、
前記第2処理モジュールは、更に、前記データラベリング結果に基づいて前記第2シーンの自己適応の増分学習を行って、前記第2シーンへ順応したニューラルネットワークを得るように構成される請求項12に記載の装置。 - パラメータが更新される場合に、制限条件に基づいて前記パラメータ更新を制約するように構成されるパラメータ更新モジュールを更に含む請求項12又は13に記載の装置。
- 前記第1処理モジュールは、更に、
シーンデータについての予測に基づいて、予測規則を得、
前記予測規則に基づいて前記第1データをラベリングして、予測されたデータラベリング結果を得るように構成される請求項12に記載の装置。 - 前記予測されたデータラベリング結果が、前記第1処理モジュールを構成するデータサンプル訓練ネットワーク出力層の第1出力に由来するものであり、及び/又は、
前記予測されたデータラベリング結果が、前記第1処理モジュールを構成するデータサンプル訓練ネットワーク出力層の第1出力及び中間層の第2出力に由来するものである請求項12〜15のいずれか一項に記載の装置。 - 前記第1データを前記第1処理モジュールに入力する前に、サンプリングパラメータに基づいて前記第1データを選択して、処理される第1データを得るように構成される第4処理モジュールを更に含み、
前記処理される第1データについては、前記第1処理モジュールと前記第2処理モジュールがそれぞれ出力した予測結果が大きく相違する場合に、前記処理される第1データのうち、予測結果が大きく相違する1フレーム又は複数フレームの第1データに対して前記エッジデバイス側で前記シーン自己適応の増分学習を行うように構成される第5処理モジュールを更に含む請求項12に記載の装置。 - 前記第5処理モジュールは、更に、
前記1フレーム又は複数フレームの第1データに対して前記第1処理モジュールが取得した1つ又は複数のデータラベリング結果を前記第2処理モジュールに出力し、
1つ又は複数のデータラベリング結果に基づいて前記第2処理モジュールを訓練して前記第2処理モジュール中のパラメータを更新し、
予め設定されたポリシーによって前記サンプリングパラメータの数値を増加するように構成される請求項17に記載の装置。 - 前記第1データを前記第1処理モジュールに入力する前に、サンプリングパラメータに基づいて前記第1データを選択して、処理される第1データを得るように構成される第6処理モジュールを更に含み、
前記処理される第1データについては、前記第1処理モジュールと前記第2処理モジュールがそれぞれ出力した予測結果が小さく相違する場合に、予め設定されたポリシーによって前記サンプリングパラメータの数値を減少するように構成される第7処理モジュールを更に含む請求項12に記載の装置。 - 前記第1データを前記第1処理モジュールに入力する前に、前記第1データ中の一部のデータをオンラインテスト集合とするように構成される第8処理モジュールを更に含み、
前記オンラインテスト集合中の第1データについては、前記第1処理モジュールと前記第2処理モジュールがそれぞれ出力した予測結果が大きく相違する場合に、前記第2処理モジュール中のパラメータをリセットするように構成される第9処理モジュールを更に含む請求項12に記載の装置。 - 前記ニューラルネットワークが得られた後、複数の領域のエッジデバイスを監視して、アイドル状態の第1エッジデバイスを取得するように構成される第1デバイス監視モジュールと、
第1エッジデバイスに対応するエッジデバイス処理能力に従って、前記第2処理モジュールに第2データのシーンへの順応の自己適応増分訓練を実行するように構成される第1訓練処理モジュールと、を更に含む請求項12〜20のいずれか一項に記載の装置。 - 前記ニューラルネットワークが得られた後、複数の領域のエッジデバイスを監視して、複数のエッジデバイス処理能力を取得するように構成される第2デバイス監視モジュールと、
前記複数のエッジデバイスのそれぞれに対応するエッジデバイス処理能力及び現在リソース消費に基づいて、前記複数のエッジデバイスから前記エッジデバイス処理能力が最も高い第2エッジデバイスを選定するように構成されるデバイス選定処理モジュールと、
第2エッジデバイスに対応するエッジデバイス処理能力に従って、前記第2処理モジュールに第2データのシーンへの順応の自己適応増分訓練を実行するように構成される第2訓練処理モジュールと、を更に含む請求項12〜20のいずれか一項に記載の装置。 - プロセッサと、
プロセッサ実行可能コマンドを記憶するためのメモリと、を含み、
前記プロセッサが請求項1〜11のいずれか一項に記載の方法を実行するように構成される電子機器。 - 実行可能なコマンドが記憶されているコンピュータ記憶媒体であって、前記実行可能なコマンドがプロセッサにより実行される時に請求項1〜11のいずれか一項に記載の方法を実現するコンピュータ記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910098735.5A CN109766954B (zh) | 2019-01-31 | 2019-01-31 | 一种目标对象处理方法、装置、电子设备及存储介质 |
CN201910098735.5 | 2019-01-31 | ||
PCT/CN2019/101448 WO2020155609A1 (zh) | 2019-01-31 | 2019-08-19 | 一种目标对象处理方法、装置、电子设备及存储介质 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021514499A true JP2021514499A (ja) | 2021-06-10 |
JP2021514499A5 JP2021514499A5 (ja) | 2021-07-26 |
JP7064593B2 JP7064593B2 (ja) | 2022-05-10 |
Family
ID=66455838
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020533136A Active JP7064593B2 (ja) | 2019-01-31 | 2019-08-19 | ターゲットオブジェクト処理方法、装置、電子機器及び記憶媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11403489B2 (ja) |
JP (1) | JP7064593B2 (ja) |
KR (1) | KR20200096556A (ja) |
CN (1) | CN109766954B (ja) |
SG (1) | SG11202005886RA (ja) |
TW (1) | TWI772668B (ja) |
WO (1) | WO2020155609A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019211134A1 (en) * | 2018-05-02 | 2019-11-07 | Telefonaktiebolaget Lm Ericsson (Publ) | First network node, third network node, and methods performed thereby, for handling a performance of a radio access network |
CN109766954B (zh) * | 2019-01-31 | 2020-12-04 | 北京市商汤科技开发有限公司 | 一种目标对象处理方法、装置、电子设备及存储介质 |
CN110147836B (zh) | 2019-05-13 | 2021-07-02 | 腾讯科技(深圳)有限公司 | 模型训练方法、装置、终端及存储介质 |
CN112417986B (zh) * | 2020-10-30 | 2023-03-10 | 四川天翼网络股份有限公司 | 一种基于深度神经网络模型的半监督在线人脸识别方法及系统 |
US20220172064A1 (en) * | 2020-12-02 | 2022-06-02 | Htc Corporation | Machine learning method and machine learning device for eliminating spurious correlation |
CN112419413B (zh) * | 2020-12-07 | 2024-01-05 | 萱闱(北京)生物科技有限公司 | 终端设备的运动方向监测方法、介质、装置和计算设备 |
CN113240119B (zh) * | 2021-04-08 | 2024-03-19 | 南京大学 | 一种用于游戏ai策略解释的跨模型蒸馏装置 |
CN113205120B (zh) * | 2021-04-20 | 2023-11-24 | 北京百度网讯科技有限公司 | 数据标注方法、装置、电子设备及可读存储介质 |
CN113111878B (zh) * | 2021-04-30 | 2022-03-18 | 中北大学 | 一种复杂背景下的红外弱小目标检测方法 |
CN113364543B (zh) * | 2021-06-03 | 2022-03-15 | 厦门大学 | 一种基于联邦强化学习的边缘计算模型训练方法 |
CN114572233B (zh) * | 2022-03-25 | 2022-11-29 | 阿波罗智能技术(北京)有限公司 | 基于模型集合的预测方法、电子设备及自动驾驶车辆 |
CN116050433B (zh) * | 2023-02-13 | 2024-03-26 | 北京百度网讯科技有限公司 | 自然语言处理模型的场景适配方法、装置、设备及介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764269A (zh) * | 2018-04-03 | 2018-11-06 | 华南理工大学 | 一种基于时空约束增量学习的跨数据集行人再识别方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1998010307A1 (en) * | 1996-09-09 | 1998-03-12 | Dennis Jay Dupray | Location of a mobile station |
TW200415524A (en) * | 2002-10-24 | 2004-08-16 | Univ Duke | Binary prediction tree modeling with many predictors and its uses in clinical and genomic applications |
US8582807B2 (en) * | 2010-03-15 | 2013-11-12 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
CN103366163B (zh) * | 2013-07-15 | 2016-07-20 | 北京丰华联合科技有限公司 | 基于增量学习的人脸检测系统和方法 |
US20160066894A1 (en) * | 2014-03-21 | 2016-03-10 | Razzberry Inc. | Health state monitoring device |
US9619753B2 (en) * | 2014-12-30 | 2017-04-11 | Winbond Electronics Corp. | Data analysis system and method |
US10878320B2 (en) * | 2015-07-22 | 2020-12-29 | Qualcomm Incorporated | Transfer learning in neural networks |
CN106097346B (zh) * | 2016-06-13 | 2019-08-27 | 中国科学技术大学 | 一种自学习的视频火灾探测方法 |
CN106529485A (zh) * | 2016-11-16 | 2017-03-22 | 北京旷视科技有限公司 | 用于获取训练数据的方法及装置 |
CN106919980B (zh) * | 2017-01-24 | 2020-02-07 | 南京大学 | 一种基于神经节分化的增量式目标识别系统 |
US11017291B2 (en) * | 2017-04-28 | 2021-05-25 | Intel Corporation | Training with adaptive runtime and precision profiling |
CN107358257B (zh) * | 2017-07-07 | 2019-07-16 | 华南理工大学 | 一种大数据场景下可增量学习的图像分类训练方法 |
CN107944374A (zh) * | 2017-11-20 | 2018-04-20 | 北京奇虎科技有限公司 | 视频数据中特定对象检测方法及装置、计算设备 |
CN108229591B (zh) * | 2018-03-15 | 2020-09-22 | 北京市商汤科技开发有限公司 | 神经网络自适应训练方法和装置、设备、程序和存储介质 |
CN108545556B (zh) * | 2018-05-02 | 2019-10-01 | 中国科学院计算技术研究所 | 基于神经网络的信息处理装置及方法 |
CN108764487B (zh) * | 2018-05-29 | 2022-07-08 | 北京百度网讯科技有限公司 | 用于生成模型的方法和装置、用于识别信息的方法和装置 |
CN109242013B (zh) * | 2018-08-28 | 2021-06-08 | 北京九狐时代智能科技有限公司 | 一种数据标注方法、装置、电子设备及存储介质 |
CN109224442B (zh) * | 2018-09-03 | 2021-06-11 | 腾讯科技(深圳)有限公司 | 虚拟场景的数据处理方法、装置及存储介质 |
US11158286B2 (en) * | 2018-10-05 | 2021-10-26 | Disney Enterprises, Inc. | Machine learning color science conversion |
EP3867810A1 (en) * | 2018-10-15 | 2021-08-25 | Flir Commercial Systems, Inc. | Deep learning inference systems and methods for imaging systems |
US10867210B2 (en) * | 2018-12-21 | 2020-12-15 | Waymo Llc | Neural networks for coarse- and fine-object classifications |
CN109766954B (zh) * | 2019-01-31 | 2020-12-04 | 北京市商汤科技开发有限公司 | 一种目标对象处理方法、装置、电子设备及存储介质 |
-
2019
- 2019-01-31 CN CN201910098735.5A patent/CN109766954B/zh active Active
- 2019-08-19 SG SG11202005886RA patent/SG11202005886RA/en unknown
- 2019-08-19 WO PCT/CN2019/101448 patent/WO2020155609A1/zh active Application Filing
- 2019-08-19 JP JP2020533136A patent/JP7064593B2/ja active Active
- 2019-08-19 KR KR1020207018377A patent/KR20200096556A/ko not_active Application Discontinuation
- 2019-08-20 TW TW108129693A patent/TWI772668B/zh active
-
2020
- 2020-06-15 US US16/901,190 patent/US11403489B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764269A (zh) * | 2018-04-03 | 2018-11-06 | 华南理工大学 | 一种基于时空约束增量学习的跨数据集行人再识别方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020155609A1 (zh) | 2020-08-06 |
CN109766954B (zh) | 2020-12-04 |
US20200311476A1 (en) | 2020-10-01 |
CN109766954A (zh) | 2019-05-17 |
KR20200096556A (ko) | 2020-08-12 |
JP7064593B2 (ja) | 2022-05-10 |
TW202030648A (zh) | 2020-08-16 |
SG11202005886RA (en) | 2020-11-27 |
TWI772668B (zh) | 2022-08-01 |
US11403489B2 (en) | 2022-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7064593B2 (ja) | ターゲットオブジェクト処理方法、装置、電子機器及び記憶媒体 | |
US20210019562A1 (en) | Image processing method and apparatus and storage medium | |
CN110598504B (zh) | 图像识别方法及装置、电子设备和存储介质 | |
EP3188066B1 (en) | A method and an apparatus for managing an application | |
CN109919300B (zh) | 神经网络训练方法及装置以及图像处理方法及装置 | |
JP2022517914A (ja) | 顔と手を関連付けて検出する方法及び装置、電子機器、記憶媒体及びコンピュータプログラム | |
TWI773945B (zh) | 錨點確定方法、電子設備和儲存介質 | |
CN109165738B (zh) | 神经网络模型的优化方法及装置、电子设备和存储介质 | |
JP2021529398A (ja) | ビデオ処理方法及び装置、電子機器並びに記憶媒体 | |
KR20210090691A (ko) | 데이터 처리 방법 및 장치, 전자 기기 및 기억 매체 | |
EP3107262B1 (en) | Method and device for detecting website hijacking | |
CN109117874A (zh) | 操作行为预测方法及装置 | |
US20170300211A1 (en) | Method and apparatus for displaying status information of application | |
CN112668707B (zh) | 运算方法、装置及相关产品 | |
CN109214175B (zh) | 基于样本特征训练分类器的方法、装置及存储介质 | |
CN111783898B (zh) | 图像识别模型的训练、图像识别方法、装置及设备 | |
JP2022515274A (ja) | 検出器の配置方法、検出器の配置装置及び非一時的コンピュータ可読記憶媒体 | |
CN109447258B (zh) | 神经网络模型的优化方法及装置、电子设备和存储介质 | |
CN110648657B (zh) | 一种语言模型训练方法、构建方法和装置 | |
CN111988622B (zh) | 视频预测方法及装置、电子设备和存储介质 | |
CN108984294B (zh) | 资源调度方法、装置及存储介质 | |
CN115512116A (zh) | 图像分割模型优化方法、装置、电子设备及可读存储介质 | |
CN111008606B (zh) | 图像预测方法及装置、电子设备和存储介质 | |
CN113344131A (zh) | 网络训练方法及装置、电子设备和存储介质 | |
CN110765943A (zh) | 网络训练、识别方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200616 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210831 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220419 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220422 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7064593 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |