JP2021530038A - 低電力のリアルタイムオブジェクト検出用のシステム及び方法 - Google Patents
低電力のリアルタイムオブジェクト検出用のシステム及び方法 Download PDFInfo
- Publication number
- JP2021530038A JP2021530038A JP2020572465A JP2020572465A JP2021530038A JP 2021530038 A JP2021530038 A JP 2021530038A JP 2020572465 A JP2020572465 A JP 2020572465A JP 2020572465 A JP2020572465 A JP 2020572465A JP 2021530038 A JP2021530038 A JP 2021530038A
- Authority
- JP
- Japan
- Prior art keywords
- object detection
- detection model
- computing
- model
- cpu core
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 442
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000005192 partition Methods 0.000 claims description 47
- 230000008569 process Effects 0.000 claims description 45
- 238000012545 processing Methods 0.000 claims description 39
- 238000013135 deep learning Methods 0.000 claims description 30
- 238000012549 training Methods 0.000 claims description 14
- 238000013136 deep learning model Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 abstract description 17
- 239000010410 layer Substances 0.000 description 80
- 238000004891 communication Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 230000002093 peripheral effect Effects 0.000 description 14
- 238000004422 calculation algorithm Methods 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 10
- 230000010365 information processing Effects 0.000 description 8
- 230000007246 mechanism Effects 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 2
- 208000002193 Pain Diseases 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012942 design verification Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010008 shearing Methods 0.000 description 2
- 239000002356 single layer Substances 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 239000010409 thin film Substances 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/329—Power saving characterised by the action undertaken by task scheduling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
- G06F9/4893—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues taking into account power or heat criteria
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
顔検出は、デジタルイメージで人間の顔を認識するための様々なアプリケーションで使用され、デジタルイメージは、例えば、風景、建物等の顔以外の様々なオブジェクト、及び例えば、脚、肩、及び腕等の人の顔以外の部位を含むことができる。一部の顔検出技術は、並列コンピューティングコプロセッサ(例えば、グラフィックス処理ユニット(GPU)等)の深層学習ネットワークのバリエーションを使用せず、非常に低速のシリアルプロセッサに基づいて実行され、これは深層学習アルゴリズムを使用して顔を検出する計算量が非常に大きいからである。顔検出は、顔認識のアプリケーションだけでなく、例えば、オートフォーカスカメラ等のような非認識アプリケーションも含まれる。
一つまたは複数の実施形態において、常時接続の超低消費電力モバイルデバイスで深層学習に基づくリアルタイムの顔検出を実施するためのアーキテクチャが開示される。前記アーキテクチャは、顔検出技術を幅広いアプリケーションに展開されるのにより多くの機会を提供することができる。
一つまたは複数の実施形態において、少なくとも一つのオブジェクト検出モデル(例えば、顔検出モデル)を使用して、一つまたは複数のイメージフレームにリアルタイムのイメージ検出を実施する。少なくとも一つのオブジェクト検出モデルは、第1のオブジェクト検出モデルと第2のオブジェクト検出モデルとを含んでもよく、それらは、同じ入力からオブジェクトを検出するために並行して実施してもよい。入力は、完全なイメージフレームまたは完全なフレームのセグメントであってもよい。一つまたは複数の実施形態において、第1のオブジェクト検出モデルと第2のオブジェクト検出モデルとは、異なる角度から性能を最適化するように構成されることができる。例えば、第1のオブジェクト検出モデルは、第1の視点(例えば、正面)から顔検出を実行し、第2のオブジェクト検出モデルは、第2の視点(例えば、側面/断面イメージ)から顔検出を実行するように最適化され得る。別の例において、第1のオブジェクト検出モデルは、より高精細なイメージからの顔検出のために構成され、第2のオブジェクト検出モデルは、ぼやけたイメージからの顔検出のために指定されることができる。一つまたは複数の実施形態において、第1のオブジェクト検出モデルと第2のオブジェクト検出モデルとは、複数の層を含む深層学習ニューラルネットワークである。サイズが小さく、実施速度が速い場合、第1のオブジェクト検出モデルと第2のオブジェクト検出モデルとは、少なくとも一つの層を共有するか、または複数の層の間で少なくとも一つの層のパラメータを共有することができる。一つまたは複数の実施形態において、オブジェクト検出モデルは、事前学習を行い、不揮発性メモリ(例えば、eMMC330)に記憶することができる。
図6は、本開示の実施形態による顔検出の実装に用いられる方法示す。まず、カメラセンサーは、一つまたは複数のイメージを捕捉する(605)。一つまたは複数の実施形態において、一つまたは複数のイメージを第1のCPUコアと、第2のCPUコアと、複数のデジタル信号プロセッサ(shave)とを含むプロセッサに伝送する(610)。第2のCPUコアは、一つまたは複数のイメージにおける一つまたは複数のオブジェクトを検出するように、少なくとも二つのオブジェクト検出深層学習モデルのコンピューティングタスクをスケジューリングするのに使用されてもよい(615)。一つまたは複数の実施形態において、第2のCPUは、shaveを組み合わせて、少なくとも二つのオブジェクト検出深層学習モデルのオブジェクト検出処理に対するコンピューティングを実行し(620)、各イメージ検出モデルに対して出力を生成する。最後に、一つまたは複数の実施形態において、イメージ検出出力またはイメージ検出出力の一部として、検出確率が最も高いモデルからの出力を選択する(625)が、一つまたは複数の他の選択基準を使用してもよい。
実施形態において、本明細書の態様は、一つまたは複数の情報処理システム/コンピューティングシステムを関してもよく、含んでもよく、利用してもよく、合併してもよく、または一つまたは複数の情報処理システム/コンピューティングシステムで実施されてもよい。コンピューティングシステムは、任意の形式の情報、インテリジェンスまたはデータの任意の手段または手段の組み合わせをコンピューティング、計算、決定、分類、処理、伝送、受信、取得(retrieve)、発信(originate)、ルーティング、交換(switch)、格納、表示、通信、視覚化、検出、記録、再現、処理または利用する動作を含むことができる。例えば、コンピューティングシステムは、パーソナルコンピュータ(例えば、ラップトップコンピュータ)、タブレットコンピュータ、ファブレット、パーソナルデジタルアシスタント(PDA)、スマートフォン、スマートウォッチ、スマートパッケージ、サーバー(例えば、ブレードサーバーまたはラックサーバー)、ネットワークストレージ装置、カメラまたはその他の適切な装置であってもよく、サイズ、形状、性能、機能、及び価格を変更することも可能である。コンピューティングシステムは、ランダムアクセスメモリ(RAM)、一つまたは複数の処理リソース(例えば、中央処理ユニット(CPU)またはハードウェアまたはソフトウェア制御ロジック等)、ROMおよび/または他のタイプのメモリを含むことができる。コンピューティングシステムの追加コンポーネントは、一つまたは複数のディスクドライブ、外部装置と通信するための一つまたは複数のネットワークポート、及び様々な入力及び出力(I/O)デバイス(例えば、キーボード、マウス、タッチスクリーンおよび/またはビデオディスプレイ等)を含むことができる。コンピューティングシステムは、様々なハードウェアコンポーネント間で通信を伝送するように動作可能な一つまたは複数のバスをさらに含むことができる。
顔検出は、デジタルイメージで人間の顔を認識するための様々なアプリケーションで使用され、デジタルイメージは、例えば、風景、建物等の顔以外の様々なオブジェクト、及び例えば、脚、肩、及び腕等の人の顔以外の部位を含むことができる。一部の顔検出技術は、並列コンピューティングコプロセッサ(例えば、グラフィックス処理ユニット(GPU)等)の深層学習ネットワークのバリエーションを使用せず、非常に低速のシリアルプロセッサに基づいて実行され、これは深層学習アルゴリズムを使用して顔を検出する計算量が非常に大きいからである。顔検出は、顔認識のアプリケーションだけでなく、例えば、オートフォーカスカメラ等のような非認識アプリケーションも含まれる。
一つまたは複数の実施形態において、常時接続の超低消費電力モバイルデバイスで深層学習に基づくリアルタイムの顔検出を実施するためのアーキテクチャが開示される。前記アーキテクチャは、顔検出技術を幅広いアプリケーションに展開されるのにより多くの機会を提供することができる。
一つまたは複数の実施形態において、少なくとも一つのオブジェクト検出モデル(例えば、顔検出モデル)を使用して、一つまたは複数のイメージフレームにリアルタイムのイメージ検出を実施する。少なくとも一つのオブジェクト検出モデルは、第1のオブジェクト検出モデルと第2のオブジェクト検出モデルとを含んでもよく、それらは、同じ入力からオブジェクトを検出するために並行して実施してもよい。入力は、完全なイメージフレームまたは完全なフレームのセグメントであってもよい。一つまたは複数の実施形態において、第1のオブジェクト検出モデルと第2のオブジェクト検出モデルとは、異なる角度から性能を最適化するように構成されることができる。例えば、第1のオブジェクト検出モデルは、第1の視点(例えば、正面)から顔検出を実行し、第2のオブジェクト検出モデルは、第2の視点(例えば、側面/断面イメージ)から顔検出を実行するように最適化され得る。別の例において、第1のオブジェクト検出モデルは、より高精細なイメージからの顔検出のために構成され、第2のオブジェクト検出モデルは、ぼやけたイメージからの顔検出のために指定されることができる。一つまたは複数の実施形態において、第1のオブジェクト検出モデルと第2のオブジェクト検出モデルとは、複数の層を含む深層学習ニューラルネットワークである。サイズが小さく、実施速度が速い場合、第1のオブジェクト検出モデルと第2のオブジェクト検出モデルとは、少なくとも一つの層を共有するか、または複数の層の間で少なくとも一つの層のパラメータを共有することができる。一つまたは複数の実施形態において、オブジェクト検出モデルは、事前学習を行い、不揮発性メモリ(例えば、eMMC330)に記憶することができる。
図6は、本開示の実施形態による顔検出の実装に用いられる方法示す。まず、カメラセンサーは、一つまたは複数のイメージを捕捉する(605)。一つまたは複数の実施形態において、一つまたは複数のイメージを第1のCPUコアと、第2のCPUコアと、複数のデジタル信号プロセッサ(shave)とを含むプロセッサに伝送する(610)。第2のCPUコアは、一つまたは複数のイメージにおける一つまたは複数のオブジェクトを検出するように、少なくとも二つのオブジェクト検出深層学習モデルのコンピューティングタスクをスケジューリングするのに使用されてもよい(615)。一つまたは複数の実施形態において、第2のCPUコアは、shaveを組み合わせて、少なくとも二つのオブジェクト検出深層学習モデルのオブジェクト検出処理に対するコンピューティングを実行し(620)、各イメージ検出モデルに対して出力を生成する。最後に、一つまたは複数の実施形態において、イメージ検出出力またはイメージ検出出力の一部として、検出確率が最も高いモデルからの出力を選択する(625)が、一つまたは複数の他の選択基準を使用してもよい。
実施形態において、本明細書の態様は、一つまたは複数の情報処理システム/コンピューティングシステムを関してもよく、含んでもよく、利用してもよく、合併してもよく、または一つまたは複数の情報処理システム/コンピューティングシステムで実施されてもよい。コンピューティングシステムは、任意の形式の情報、インテリジェンスまたはデータの任意の手段または手段の組み合わせをコンピューティング、計算、決定、分類、処理、伝送、受信、取得(retrieve)、発信(originate)、ルーティング、交換(switch)、格納、表示、通信、視覚化、検出、記録、再現、処理または利用する動作を含むことができる。例えば、コンピューティングシステムは、パーソナルコンピュータ(例えば、ラップトップコンピュータ)、タブレットコンピュータ、ファブレット、パーソナルデジタルアシスタント(PDA)、スマートフォン、スマートウォッチ、スマートパッケージ、サーバー(例えば、ブレードサーバーまたはラックサーバー)、ネットワークストレージ装置、カメラまたはその他の適切な装置であってもよく、サイズ、形状、性能、機能、及び価格を変更することも可能である。コンピューティングシステムは、ランダムアクセスメモリ(RAM)、一つまたは複数の処理リソース(例えば、中央処理ユニット(CPU)またはハードウェアまたはソフトウェア制御ロジック等)、ROMおよび/または他のタイプのメモリを含むことができる。コンピューティングシステムの追加コンポーネントは、一つまたは複数のディスクドライブ、外部装置と通信するための一つまたは複数のネットワークポート、及び様々な入力及び出力(I/O)デバイス(例えば、キーボード、マウス、タッチスクリーンおよび/またはビデオディスプレイ等)を含むことができる。コンピューティングシステムは、様々なハードウェアコンポーネント間で通信を伝送するように動作可能な一つまたは複数のバスをさらに含むことができる。
Claims (20)
- 装置であって、
一つまたは複数のイメージフレームを捕捉するカメラセンサーと、
第1のオブジェクト検出モデルと第2のオブジェクト検出モデルとを少なくとも記憶するメモリと、
第1のCPUコアと、第2のCPUコアと、処理用の複数のshaveとを含むプロセッサと
を具備し、
前記第1のCPUコアは、オペレーティングシステムの第1の実例を実行することで、前記装置の一般的なCPUタスクを処理するように構成され、
前記第2のCPUコアは、オペレーティングシステムの第2の実例を実行することで、前記イメージフレームを処理し、前記複数のshaveによって前記第1のオブジェクト検出モデルと前記第2のオブジェクト検出モデルとに対して実装されるコンピューティングタスクをスケジューリングして、一つまたは複数のイメージフレームのオブジェクトを検出するように構成される前記装置。 - 前記第1のオブジェクト検出モデルと第2のオブジェクト検出モデルとは深層学習モデルであり、
各モデルはそれぞれ複数のモデル層を備え、前記第1のオブジェクト検出モデルと前記第2のオブジェクト検出モデルとは、前記装置のコンピューティングとリソースとの要求を減少するように、前記層のうちの少なくとも一部の層を共有する請求項1に記載の装置。 - 前記第1のオブジェクト検出モデルと前記第2のオブジェクト検出モデルのいずれか一つは、一つまたは複数の共有層の重みを固定するように事前学習を行う請求項2に記載の装置。
- 各イメージフレームは、それぞれ複数のパーティションに分割され、前記パーティションの数は、前記shaveの数に等しく、各shaveは、それぞれオブジェクト検出コンピューティング用のパーティションが割り当てられる請求項1に記載の装置。
- 各shaveからのコンピューティング結果を合併して、前記イメージフレームに対応する出力を生成する請求項4に記載の装置。
- 前記オブジェクト検出は、二つのオブジェクト検出モデルから選択されるコンピューティング結果の組み合わせである請求項1に記載の装置。
- 前記第1のオブジェクト検出モデルから選択されるコンピューティング結果に対して、前記第1のオブジェクト検出モデルは、前記第2のオブジェクト検出モデルより高い検出確率を有し、前記第2のオブジェクト検出モデルから選択されるコンピューティング結果に対して、前記第2のオブジェクト検出モデルは、前記第1のオブジェクト検出モデルより高い検出確率を有する請求項6に記載の装置。
- 前記第1のオブジェクト検出モデルと前記第2のオブジェクト検出モデルとは、異なる角度からオブジェクト検出用に最適化される請求項7に記載の装置。
- 装置であって、
少なくとも一つのイメージフレームを生成するカメラセンサーと、
少なくとも一つのオブジェクト検出モデルを記憶するメモリと、
第1のCPUコアと、第2のCPUコアと、処理用の複数のshaveとを含むプロセッサと
を具備し、
前記第1のCPUコアは、オペレーティングシステムの第1の実例を実行することで、前記装置の一般的なCPUタスクを処理するように構成され、
前記第2のCPUコアは、オペレーティングシステムの第2の実例を実行することで、前記少なくとも一つのイメージフレームを処理し、前記複数のshaveによって前記少なくとも一つのオブジェクト検出モデルを使用して実装されるコンピューティングタスクをスケジューリングして、前記少なくとも一つのイメージフレームのオブジェクトを検出するように構成され、イメージフレームは複数のパーティションに分割され、パーティションごとにコンピューティング用の一つのshaveに割り当てられ、前記第2のCPUは、前記複数のshaveがスケジューリングされたコンピューティングの実現に基づいて、コンピューティングタスクを動的に更新する前記装置。 - パーティションの数は前記shaveの数に等しい請求項9に記載の装置。
- イメージフレームのすべてのパーティションが処理されると、すべてのパーティションの結果を合併することで、前記イメージフレームに対応する出力を取得する請求項9に記載の装置。
- 前記複数のshaveはコンピューティングを並行して実施する請求項9に記載の装置。
- 一つのshaveがスケジューリングされたコンピューティングタスクを完了すると、前記第2のCPUは、次のイメージフレームからのパーティションを割り当てることによって、前記shaveのコンピューティングタスクを更新し、他のshaveが現在のイメージフレームのコンピューティングを完了するのを待たずに、前記shaveがコンピューティングを開始するようにする請求項9に記載の装置。
- 前記少なくとも一つのオブジェクト検出モデルは、第1のオブジェクト検出モデルと第2のオブジェクト検出モデルとを含み、前記第1のオブジェクト検出モデルと前記第2のオブジェクト検出モデルとはそれぞれ複数の層を含み、一つまたは複数の層はパラメータを共有し、前記複数のshaveによって実装される前記コンピューティングタスクは、
パラメータを共有する層に関するコンピューティングタスクに対して、すべての前記複数のshaveを通じて並列コンピューティングを実装し、
パラメータを共有しない層に係るコンピューティングタスクに対して、前記複数のshaveを、前記第1のオブジェクト検出モデル用に指定された第1のshaveグループと前記第2のオブジェクト検出モデル用に指定された第2のshaveグループとに分割し、前記第1のオブジェクト検出グループ用に指定された前記第1のshaveグループと前記第2のオブジェクト検出モデル用に指定された前記第2のshaveグループとを使用して並列コンピューティングを実装する
請求項9に記載の装置。 - 低電力イメージ検出用の方法であって、
カメラセンサーによって一つまたは複数のイメージフレームを捕捉するステップと、
第1のCPUコアと、第2のCPUコアと、及びコンピューティング処理用の複数のshaveとを含むプロセッサで前記一つまたは複数のイメージフレームを受信するステップであって、前記第1のCPUコアは、オペレーティングシステムの第1の実例を実行して、前記装置の一般的なCPUタスクを処理するように構成され、前記第2のCPUコアは、オペレーティングシステムの第2の実例を実行することで、前記一つまたは複数のイメージフレームの処理を処理するように構成される、ステップと、
前記第2のCPUコアを通じて、前記複数のshaveによって第1のオブジェクト検出モデルと第2のオブジェクト検出モデルとを使用して実装されるコンピューティングタスクをスケジューリングして、前記一つまたは複数のイメージフレーム中のオブジェクトを検出するステップと、
前記第1のオブジェクト検出モデルと前記第2のオブジェクト検出モデルとの間のより高い検出確率を有するオブジェクト検出モデルからコンピューティング結果を選択して、前記一つまたは複数のイメージフレーム中のオブジェクト検出の出力を形成するステップと
を含む、低電力イメージ検出用の方法。 - 前記第1のオブジェクト検出モデルと前記第2のオブジェクト検出モデルの深層学習オブジェクト検出モデルは、複数のコンボリューション層を含み、前記第1のオブジェクト検出モデルと前記第2のオブジェクト検出モデルとは、少なくとも一つのコンボリューション層を共有する請求項15に記載の方法。
- 前記第1のオブジェクト検出モデルと前記第2のオブジェクト検出モデルとは、事前学習が行われた深層学習オブジェクト検出モデルである請求項16に記載の方法。
- 前記第1のオブジェクト検出モデルと前記第2のオブジェクト検出モデルとは、単独にトレーニングされてから組み合わせる請求項17に記載の方法。
- 前記第1のオブジェクト検出モデルと前記第2のオブジェクト検出モデルのいずれか一つは、一つまたは複数の共有モデル層のパラメータを固定するように事前学習が行われ、前記第2のオブジェクト検出モデルは、前記一つまたは複数の共有モデル層の固定されたパラメータを含むが、前記第2のオブジェクト検出モデルは、一つまたは複数のその他の層をトレーニングするようにトレーニングすることで、オブジェクト検出の違いを許容するようにする請求項18に記載の方法。
- 前記第1のオブジェクト検出モデルと前記第2のオブジェクト検出モデルとは、それぞれ第1の専用データセットと第2の専用データセットとを使用して事前学習を行った後、前記第1の専用データセットと前記第2の専用データセットとの両方からのデータを含むトレーニングデータセットを使用して共同トレーニングされる請求項19に記載の方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2018/093717 WO2020000383A1 (en) | 2018-06-29 | 2018-06-29 | Systems and methods for low-power, real-time object detection |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021530038A true JP2021530038A (ja) | 2021-11-04 |
JP7268063B2 JP7268063B2 (ja) | 2023-05-02 |
Family
ID=68985767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020572465A Active JP7268063B2 (ja) | 2018-06-29 | 2018-06-29 | 低電力のリアルタイムオブジェクト検出用のシステム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11741568B2 (ja) |
JP (1) | JP7268063B2 (ja) |
CN (1) | CN111066058B (ja) |
WO (1) | WO2020000383A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023228290A1 (ja) * | 2022-05-24 | 2023-11-30 | 日本電信電話株式会社 | 学習装置、学習方法、及びプログラム |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11165954B1 (en) * | 2019-06-19 | 2021-11-02 | Objectvideo Labs, Llc | Scene-aware custom tuned video surveillance detection system |
CN111813721B (zh) * | 2020-07-15 | 2022-09-09 | 深圳鲲云信息科技有限公司 | 神经网络数据处理方法、装置、设备及存储介质 |
US20220180185A1 (en) * | 2020-12-09 | 2022-06-09 | Micron Technology, Inc. | Artificial neural network model selection |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007099950A1 (ja) * | 2006-03-03 | 2007-09-07 | Nec Corporation | 高速pe間データ再配置機能を有するプロセッサアレイシステム |
JP2010271861A (ja) * | 2009-05-20 | 2010-12-02 | Canon Inc | オブジェクト識別装置及びオブジェクト識別方法 |
US20140225902A1 (en) * | 2013-02-11 | 2014-08-14 | Nvidia Corporation | Image pyramid processor and method of multi-resolution image processing |
US20160042246A1 (en) * | 2013-03-22 | 2016-02-11 | Freescale Semiconductor, Inc. | A haar calculation system, an image classification system, associated methods and associated computer program products |
US20170011281A1 (en) * | 2015-07-09 | 2017-01-12 | Qualcomm Incorporated | Context-based priors for object detection in images |
WO2017183034A1 (en) * | 2016-04-21 | 2017-10-26 | Ramot At Tel Aviv University Ltd. | Cascaded convolutional neural network |
JP2018026108A (ja) * | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999054833A2 (en) * | 1998-04-20 | 1999-10-28 | Recursion Dynamics Inc. | Dynamically configurable data storage and processing system optimized for performing database operations |
JP2006302095A (ja) | 2005-04-22 | 2006-11-02 | Toyota Motor Corp | 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体 |
US9459927B2 (en) * | 2008-05-22 | 2016-10-04 | Alcatel Lucent | Central office based virtual personal computer |
CN102945566A (zh) | 2012-10-19 | 2013-02-27 | 浪潮电子信息产业股份有限公司 | 一种基于sirt算法且使用cpu+mic协同计算模式的电镜三维重构方法 |
CN104035751B (zh) * | 2014-06-20 | 2016-10-12 | 深圳市腾讯计算机系统有限公司 | 基于多图形处理器的数据并行处理方法及装置 |
CN104036451B (zh) | 2014-06-20 | 2018-12-11 | 深圳市腾讯计算机系统有限公司 | 基于多图形处理器的模型并行处理方法及装置 |
US10265848B2 (en) * | 2014-07-08 | 2019-04-23 | Beihang University | Robotic hybrid system application framework based on multi-core processor architecture |
CN104408720A (zh) * | 2014-11-25 | 2015-03-11 | 深圳市哈工大交通电子技术有限公司 | 图像处理方法及图像处理装置 |
US10002402B2 (en) | 2015-07-23 | 2018-06-19 | Sony Corporation | Learning convolution neural networks on heterogeneous CPU-GPU platform |
CN105550974A (zh) * | 2015-12-13 | 2016-05-04 | 复旦大学 | 基于gpu的图像特征提取算法的加速方法 |
US10627887B2 (en) * | 2016-07-01 | 2020-04-21 | Microsoft Technology Licensing, Llc | Face detection circuit |
US10664942B2 (en) | 2016-10-21 | 2020-05-26 | Advanced Micro Devices, Inc. | Reconfigurable virtual graphics and compute processor pipeline |
US10157045B2 (en) * | 2016-11-17 | 2018-12-18 | The Mathworks, Inc. | Systems and methods for automatically generating code for deep learning systems |
JP6862164B2 (ja) | 2016-12-09 | 2021-04-21 | キヤノン株式会社 | プログラム、画像処理装置、および画像処理方法 |
CN107358157B (zh) | 2017-06-07 | 2020-10-02 | 创新先进技术有限公司 | 一种人脸活体检测方法、装置以及电子设备 |
CN107766839B (zh) * | 2017-11-09 | 2020-01-14 | 清华大学 | 基于3d卷积神经网络的动作识别方法和装置 |
US20190108447A1 (en) * | 2017-11-30 | 2019-04-11 | Intel Corporation | Multifunction perceptrons in machine learning environments |
US11127111B2 (en) * | 2019-11-14 | 2021-09-21 | Qualcomm Incorporated | Selective allocation of processing resources for processing image data |
-
2018
- 2018-06-29 WO PCT/CN2018/093717 patent/WO2020000383A1/en active Application Filing
- 2018-06-29 US US16/770,063 patent/US11741568B2/en active Active
- 2018-06-29 JP JP2020572465A patent/JP7268063B2/ja active Active
- 2018-06-29 CN CN201880057306.7A patent/CN111066058B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007099950A1 (ja) * | 2006-03-03 | 2007-09-07 | Nec Corporation | 高速pe間データ再配置機能を有するプロセッサアレイシステム |
JP2010271861A (ja) * | 2009-05-20 | 2010-12-02 | Canon Inc | オブジェクト識別装置及びオブジェクト識別方法 |
US20140225902A1 (en) * | 2013-02-11 | 2014-08-14 | Nvidia Corporation | Image pyramid processor and method of multi-resolution image processing |
US20160042246A1 (en) * | 2013-03-22 | 2016-02-11 | Freescale Semiconductor, Inc. | A haar calculation system, an image classification system, associated methods and associated computer program products |
US20170011281A1 (en) * | 2015-07-09 | 2017-01-12 | Qualcomm Incorporated | Context-based priors for object detection in images |
WO2017183034A1 (en) * | 2016-04-21 | 2017-10-26 | Ramot At Tel Aviv University Ltd. | Cascaded convolutional neural network |
JP2018026108A (ja) * | 2016-08-08 | 2018-02-15 | パナソニックIpマネジメント株式会社 | 物体追跡方法、物体追跡装置およびプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023228290A1 (ja) * | 2022-05-24 | 2023-11-30 | 日本電信電話株式会社 | 学習装置、学習方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US11741568B2 (en) | 2023-08-29 |
WO2020000383A1 (en) | 2020-01-02 |
CN111066058A (zh) | 2020-04-24 |
JP7268063B2 (ja) | 2023-05-02 |
CN111066058B (zh) | 2024-04-16 |
US20210173707A1 (en) | 2021-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11798271B2 (en) | Depth and motion estimations in machine learning environments | |
US11557085B2 (en) | Neural network processing for multi-object 3D modeling | |
US10262237B2 (en) | Technologies for improved object detection accuracy with multi-scale representation and training | |
EP3612990B1 (en) | Power-efficient deep neural network module configured for layer and operation fencing and dependency management | |
JP7268063B2 (ja) | 低電力のリアルタイムオブジェクト検出用のシステム及び方法 | |
US11099918B2 (en) | Accelerating algorithms and applications on FPGAs | |
KR101855311B1 (ko) | 그래픽 처리 유닛을 위한 작업 부하 일괄 제출 메커니즘 | |
US11775811B2 (en) | Scheduling heterogeneous execution on heterogeneous hardware | |
US20210304010A1 (en) | Neural network training under memory restraint | |
US12113946B2 (en) | Buffer management for plug-in architectures in computation graph structures | |
US11567778B2 (en) | Neural network operation reordering for parallel execution | |
Venieris et al. | How to reach real-time AI on consumer devices? Solutions for programmable and custom architectures | |
US20190369707A1 (en) | Proactive Power Management of a Graphics Processor | |
CN117894036A (zh) | 基于边缘设备的行人目标检测方法、装置、设备及介质 | |
US20180144521A1 (en) | Geometric Work Scheduling of Irregularly Shaped Work Items | |
US20240211724A1 (en) | Multiple-model heterogeneous computing | |
WO2023019397A1 (en) | Hardware adaptive multi-model scheduling | |
US20220044101A1 (en) | Collaborative sensor data processing by deep learning accelerators with integrated random access memory | |
CN114764372A (zh) | 数据处理方法、装置、电子设备和存储介质 | |
Yu et al. | INCAME: Interruptible CNN accelerator for multirobot exploration | |
US20240095541A1 (en) | Compiling of tasks for streaming operations at neural processor | |
CN111831405B (zh) | 一种数据处理方法、逻辑芯片及其设备 | |
US10908962B1 (en) | System and method to share GPU resources | |
US20220043696A1 (en) | Distributed inferencing using deep learning accelerators with integrated random access memory | |
KR20240014179A (ko) | 화상 통화 서비스를 제공하는 전자 장치 및 이의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210224 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220405 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220704 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7268063 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |