JP2020181488A - 画像分析装置、及び画像分析システム - Google Patents
画像分析装置、及び画像分析システム Download PDFInfo
- Publication number
- JP2020181488A JP2020181488A JP2019085621A JP2019085621A JP2020181488A JP 2020181488 A JP2020181488 A JP 2020181488A JP 2019085621 A JP2019085621 A JP 2019085621A JP 2019085621 A JP2019085621 A JP 2019085621A JP 2020181488 A JP2020181488 A JP 2020181488A
- Authority
- JP
- Japan
- Prior art keywords
- inference
- model
- neural network
- image
- object detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/285—Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/87—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/96—Management of image or video recognition tasks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
Description
2−1.現在のチップ構成(チップの種類と数)で全認識対象物の認識が可能なフレームレートで、全カメラからの画像に対する物体検出が可能な最低限のチップに、物体検出用NNモデルを割り当てる。なお、最低限のチップとは、数及び性能の観点から見て、最低限のチップである。
2−2.(分類等の)認識の推論時間(物体認識用NNモデルの推論処理に必要な推論時間)と、当該認識の必要性(使用頻度、及び優先度)に応じて、各物体認識用NNモデルを、適切な数のチップに割り当てる。
2−3.上記2−1及び2−2が、時々刻々と変化する場合は、上記1のNNモデルの入れ替えに要する時間(的コスト)を考慮して、最低限のNNモデルの入れ替え(交換)で済むようにする。
(1)上記の取得した各情報(モデルID、モデルパス、モデル性能(値)、NNモデル自体の優先度、及びAI推論インスタンス23自体の優先度の情報)に基づいて、全AI推論インスタンス23に含まれる全てのNNモデルについて、(モデルID、モデルパス、モデル性能(値)、優先度)のパラメータ群を生成することにより、パラメータ群のリストを得て、このリストを優先度順で並び替えたリストL=(l1、l2、・・・、lN)を作成する。
(2)その時点におけるチップへのNNモデルの割り当てをリセット(解除)する。
(3)上記のリストLの各要素liについて、先頭から(優先度の高いものから)順に、図7のS1以降の処理を実行して、NNモデルのチップへの割り当てを行う。
・必要性能(チップ数)=K*F*T
必要性能(チップ数)=3*6*0.05=0.9
・必要性能(チップ数)=sum(N1,N2,・・・)*F*T
(ただし、sum(N1,N2,・・・)は、N1,N2,・・・の総和(合計)を表す)
必要性能(チップ数)=(5+2+3)*6*0.03=1.8
1.まず、複数のチップが割り当てられているNNモデルのスレッドを列挙する。
2.上記1で列挙したスレッドのうち、後述するデータ損失率が0のスレッドがあれば、それらのスレッドを改めて列挙する。これに対して、上記1で列挙したスレッドの中に、データ損失率が0のスレッドがない場合は、上記1で列挙したスレッドを、まず優先度について昇順にソートし、優先度の同じNNモデルのスレッドが複数ある場合は、それらについてさらに、後述する認識レートが大きい順に(認識レートの降順に)ソートする。
3.上記2において、データ損失率が0のスレッドがあった場合には、列挙したデータ損失率が0のスレッドのうち、最上位(最初)のスレッドから、チップを1つ解放する。なお、正確に言うと、データ損失率が0のスレッドが複数あった場合には、もっとも優先度の低い(NNモデルが使用されている)スレッドからチップを1つ解放する。また、上記2において、データ損失率が0のスレッドがなく、認識レートの降順にソートをした場合には、最上位のスレッドから、チップを1つ解放する。
4.上記3で解放したチップを、チップを必要としている(NNモデルの)スレッド(チップが未割当のNNモデルのスレッド、又は認識レートの最も低いスレッド)に、割り当てる。
R=Fr/Fa
なお、本発明は、上記の各実施形態の構成に限られず、発明の趣旨を変更しない範囲で種々の変形が可能である。次に、本発明の変形例について説明する。
上記の実施形態では、プロセッサ割当部19(GPUサーバ25)が、各NNモデル(物体検出用NNモデル及び物体認識用NNモデルの各々)の推論処理に必要なチップ14(推論用プロセッサ)の数を推定し、推定した数のチップ14を、各NNモデル(の推論処理)に割り当てる場合の例を示した。けれども、1つの分析ボックスに、複数の種類のチップ(推論用プロセッサ)が搭載されており、これらのチップが、異なる性能のチップから構成されている場合には、プロセッサ割当部が、各NNモデルの推論処理に用いるチップの種類と数を決定し、決定した種類と数のチップを、各NNモデルに割り当ててもよいし、各NNモデルの推論処理に用いるチップの種類のみを決定し、決定した種類のチップを、各NNモデルに割り当ててもよい
上記の実施形態における物体検出用NNモデルの必要チップ数推定処理では、プロセッサ割当部19(GPUサーバ25)が、物体検出用NNモデルによる物体検出の対象となる画像の入力元のカメラの台数Kと、物体検出用NNモデルのモデル性能T(この物体検出用NNモデルの推論処理に必要な推論時間)と、この物体検出用NNモデルの目標性能F(この物体検出用NNモデルが一定時間内に推論処理する目標のフレーム数)とに基づいて、この物体検出用NNモデルの推論処理に必要なチップ数(必要性能)を推定するようにした。けれども、これに限られず、例えば、プロセッサ割当部19が、上記の画像の入力元のカメラの台数Kと、物体検出用NNモデルのモデル性能Tのみに基づいて、物体検出用NNモデルの推論処理に必要なチップ数を推定するようにしてもよい。
上記の実施形態では、画像分析システム10が、クラウドC上に、AI分析サーバ6と管理サーバ7とを備える場合の例を示したが、画像分析システムの構成はこれに限られず、例えば、クラウド上に、管理サーバのみを備えてもよい。
2 ネットワークカメラ(カメラ)
7 管理サーバ
10 画像分析システム
14a〜14h チップ(推論用プロセッサ)
18 画像分析部
19 プロセッサ割当部
20 VMSサーバ
22 ストレージ(画像蓄積部)
23,23a,23b,23c AI推論インスタンス(画像分析プログラムのインスタンス)
51 アプリケーション(画像分析プログラム)
K カメラの台数
T モデル性能(学習済物体認識用ニューラルネットワークモデルの各々における推論処理に必要な推論時間、及び学習済物体検出用ニューラルネットワークモデルにおける推論処理に必要な推論時間)
F 目標性能(学習済物体認識用ニューラルネットワークモデルの各々が一定時間内に推論処理する目標のフレーム数、及び学習済物体検出用ニューラルネットワークモデルが一定時間内に推論処理する目標のフレーム数)
Claims (9)
- 複数のカメラと接続される画像分析装置であって、
前記カメラの各々から入力された画像に映り込んだ物体を検出するための学習済物体検出用ニューラルネットワークモデルと、前記学習済物体検出用ニューラルネットワークモデルにより検出された物体を認識するための1種類以上の学習済物体認識用ニューラルネットワークモデルとを含む画像分析プログラムの各インスタンスを用いて、前記複数のカメラの各々から入力された画像を分析する画像分析部と、
前記学習済物体検出用ニューラルネットワークモデル、及び前記学習済物体認識用ニューラルネットワークモデルにおける推論処理を行うための複数の推論用プロセッサと、
前記画像分析プログラムの各インスタンスに含まれる前記学習済物体検出用ニューラルネットワークモデル及び前記学習済物体認識用ニューラルネットワークモデルの各々の推論処理に必要な推論時間と使用頻度とに基づいて、前記複数の推論用プロセッサのうち、前記学習済物体検出用ニューラルネットワークモデルにおける推論処理、及び前記学習済物体認識用ニューラルネットワークモデルの各々における推論処理に用いる推論用プロセッサの割り当てを行うプロセッサ割当部とを備える画像分析装置。 - 前記プロセッサ割当部は、前記学習済物体認識用ニューラルネットワークモデルの各々における推論処理に必要な推論時間と、前記学習済物体認識用ニューラルネットワークモデルの各々の使用頻度に基づいて、前記学習済物体認識用ニューラルネットワークモデルの各々の推論処理に必要な推論用プロセッサの数を推定することを特徴とする請求項1に記載の画像分析装置。
- 前記プロセッサ割当部は、前記学習済物体検出用ニューラルネットワークモデルにおける推論処理に必要な推論時間と、前記学習済物体検出用ニューラルネットワークモデルによる物体検出の対象となる画像の入力元のカメラの台数に基づいて、前記学習済物体検出用ニューラルネットワークモデルの推論処理に必要な推論用プロセッサの数を推定することを特徴とする請求項1又は請求項2に記載の画像分析装置。
- 前記プロセッサ割当部は、前記学習済物体認識用ニューラルネットワークモデルの各々における推論処理に必要な推論時間と、前記学習済物体認識用ニューラルネットワークモデルの各々の使用頻度と、前記学習済物体認識用ニューラルネットワークモデルの各々が一定時間内に推論処理する目標のフレーム数に基づいて、前記学習済物体認識用ニューラルネットワークモデルの各々の推論処理に必要な推論用プロセッサの数を推定することを特徴とする請求項2に記載の画像分析装置。
- 前記プロセッサ割当部は、前記学習済物体検出用ニューラルネットワークモデルにおける推論処理に必要な推論時間と、前記学習済物体検出用ニューラルネットワークモデルによる物体検出の対象となる画像の入力元のカメラの台数と、前記学習済物体検出用ニューラルネットワークモデルが一定時間内に推論処理する目標のフレーム数に基づいて、前記学習済物体検出用ニューラルネットワークモデルの推論処理に必要な推論用プロセッサの数を推定することを特徴とする請求項3に記載の画像分析装置。
- 前記カメラの各々から入力された画像を蓄積する画像蓄積部をさらに備え、
ある時点において、前記プロセッサ割当部が前記推論用プロセッサを割り当てることができなかった、前記学習済物体検出用ニューラルネットワークモデル又は前記学習済物体認識用ニューラルネットワークモデルの推論処理について、その後に、前記プロセッサ割当部が、該当の学習済物体検出用ニューラルネットワークモデル又は前記学習済物体認識用ニューラルネットワークモデルの推論処理に前記推論用プロセッサを割り当てることができるようになった後で、前記画像蓄積部に蓄積された過去の画像に基づいて、該当の学習済物体検出用ニューラルネットワークモデル又は前記学習済物体認識用ニューラルネットワークモデルの推論処理を、非リアルタイムで行うことを特徴とする請求項1乃至請求項5のいずれか一項に記載の画像分析装置。 - 前記画像分析装置に接続されたカメラは、複数のカメラのグループに分類され、これらのグループのそれぞれに対応する前記画像分析プログラムは、互いに異なる前記学習済物体検出用ニューラルネットワークモデル及び前記学習済物体認識用ニューラルネットワークモデルの組み合わせで構成されていることを特徴とする請求項1乃至請求項6のいずれか一項に記載の画像分析装置。
- 前記請求項1乃至請求項7のいずれか一項に記載の画像分析装置を複数備え、
前記画像分析装置の各々に接続された複数のカメラと、
前記画像分析装置への前記画像分析プログラムのインストールを含む、前記画像分析装置及び前記カメラの管理を行う管理サーバとをさらに備える画像分析システム。 - 前記画像分析システム内の複数の画像分析装置に接続されたカメラは、複数のカメラのグループに分類され、これらのグループのそれぞれに対応する前記画像分析プログラムは、互いに異なる前記学習済物体検出用ニューラルネットワークモデル及び前記学習済物体認識用ニューラルネットワークモデルの組み合わせで構成されていることを特徴とする請求項8に記載の画像分析システム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019085621A JP6644231B1 (ja) | 2019-04-26 | 2019-04-26 | 画像分析装置、及び画像分析システム |
CN202010248807.2A CN111860478A (zh) | 2019-04-26 | 2020-04-01 | 图像分析装置以及图像分析系统 |
US16/857,334 US11475237B2 (en) | 2019-04-26 | 2020-04-24 | Image analysis device and image analysis system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019085621A JP6644231B1 (ja) | 2019-04-26 | 2019-04-26 | 画像分析装置、及び画像分析システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6644231B1 JP6644231B1 (ja) | 2020-02-12 |
JP2020181488A true JP2020181488A (ja) | 2020-11-05 |
Family
ID=69412209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019085621A Active JP6644231B1 (ja) | 2019-04-26 | 2019-04-26 | 画像分析装置、及び画像分析システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11475237B2 (ja) |
JP (1) | JP6644231B1 (ja) |
CN (1) | CN111860478A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12067078B2 (en) | 2020-12-08 | 2024-08-20 | Canon Kabushiki Kaisha | Edge device, storage medium, and method of controlling edge device |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11321618B2 (en) * | 2018-04-25 | 2022-05-03 | Om Digital Solutions Corporation | Learning device, image pickup apparatus, image processing device, learning method, non-transient computer-readable recording medium for recording learning program, display control method and inference model manufacturing method |
US11599392B1 (en) * | 2019-08-14 | 2023-03-07 | Kuna Systems Corporation | Hybrid cloud/camera AI computer vision system |
JP2020188323A (ja) * | 2019-05-10 | 2020-11-19 | ソニーセミコンダクタソリューションズ株式会社 | 撮像装置および撮像方法 |
CN110381322B (zh) * | 2019-07-15 | 2023-03-14 | 腾讯科技(深圳)有限公司 | 视频流解码方法、装置、终端设备及存储介质 |
JP7400579B2 (ja) * | 2020-03-24 | 2023-12-19 | カシオ計算機株式会社 | 画像処理装置、画像処理方法、及び、プログラム |
US20220083824A1 (en) * | 2020-09-11 | 2022-03-17 | Actapio, Inc. | Execution control apparatus, execution control method, and a non-transitory computer-readable storage medium |
US20220103831A1 (en) * | 2020-09-30 | 2022-03-31 | Alibaba Group Holding Limited | Intelligent computing resources allocation for feature network based on feature propagation |
CN112437275B (zh) * | 2020-11-20 | 2023-03-24 | 品茗科技股份有限公司 | 一种基于智能摄像头的视频分析方法 |
KR20220078787A (ko) | 2020-12-03 | 2022-06-13 | 삼성전자주식회사 | 컴퓨팅 장치의 동작 방법 그리고 명령들을 저장하는 컴퓨터로 독출 가능한 저장 매체 |
CN113010281B (zh) * | 2021-02-24 | 2024-04-02 | 厦门树冠科技有限公司 | 多相机检测系统的线程处理方法、装置、存储介质和终端 |
JP7088391B1 (ja) | 2021-07-09 | 2022-06-21 | トヨタ自動車株式会社 | 情報処理装置 |
CN115984675B (zh) * | 2022-12-01 | 2023-10-13 | 扬州万方科技股份有限公司 | 一种用于实现多路视频解码及ai智能分析的系统及方法 |
CN118411574B (zh) * | 2024-07-02 | 2024-09-20 | 浙江果纳半导体技术有限公司 | 一种基片载体识别方法、系统和可存储介质 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10143380A (ja) * | 1996-11-07 | 1998-05-29 | Hitachi Ltd | マルチプロセッサシステム |
CN101218770B (zh) * | 2005-07-08 | 2015-07-15 | 富士通株式会社 | 无线资源分配方法、通信装置 |
JP2008065498A (ja) * | 2006-09-06 | 2008-03-21 | Matsushita Electric Ind Co Ltd | 信号処理装置、信号処理方法および信号処理プログラム |
JP5100596B2 (ja) * | 2008-10-03 | 2012-12-19 | キヤノン株式会社 | 情報処理装置及び情報処理方法 |
JP2011221920A (ja) * | 2010-04-13 | 2011-11-04 | Mitsubishi Electric Corp | 画像解析装置 |
JP5618670B2 (ja) * | 2010-07-21 | 2014-11-05 | キヤノン株式会社 | データ処理装置及びその制御方法 |
WO2012037637A1 (en) * | 2010-09-23 | 2012-03-29 | Research In Motion Limited | System and method for dynamic coordination of radio resources usage in a wireless network environment |
JP6237170B2 (ja) * | 2013-12-03 | 2017-11-29 | 日本電気株式会社 | 割当判定装置、制御方法、及びプログラム |
JP6746112B2 (ja) | 2016-06-14 | 2020-08-26 | 株式会社エンルート | 監視装置及び監視方法 |
US10304154B2 (en) * | 2017-04-24 | 2019-05-28 | Intel Corporation | Coordination and increased utilization of graphics processors during inference |
US10769448B2 (en) * | 2017-05-31 | 2020-09-08 | Panasonic I-Pro Sensing Solutions Co., Ltd. | Surveillance system and surveillance method |
US10579901B2 (en) * | 2017-12-05 | 2020-03-03 | Canon Kabushiki Kaisha | Method, system and apparatus for comparing objects in images |
US11126863B2 (en) * | 2018-06-08 | 2021-09-21 | Southwest Airlines Co. | Detection system |
CN109254946B (zh) * | 2018-08-31 | 2021-09-17 | 郑州云海信息技术有限公司 | 图像特征提取方法、装置、设备及可读存储介质 |
US11003956B2 (en) * | 2019-05-16 | 2021-05-11 | Naver Corporation | System and method for training a neural network for visual localization based upon learning objects-of-interest dense match regression |
US11203361B2 (en) * | 2020-05-05 | 2021-12-21 | StradVision, Inc. | Method for performing on-device learning of machine learning network on autonomous vehicle by using multi-stage learning with adaptive hyper-parameter sets and device using the same |
-
2019
- 2019-04-26 JP JP2019085621A patent/JP6644231B1/ja active Active
-
2020
- 2020-04-01 CN CN202010248807.2A patent/CN111860478A/zh active Pending
- 2020-04-24 US US16/857,334 patent/US11475237B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12067078B2 (en) | 2020-12-08 | 2024-08-20 | Canon Kabushiki Kaisha | Edge device, storage medium, and method of controlling edge device |
Also Published As
Publication number | Publication date |
---|---|
US11475237B2 (en) | 2022-10-18 |
CN111860478A (zh) | 2020-10-30 |
JP6644231B1 (ja) | 2020-02-12 |
US20200342258A1 (en) | 2020-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6644231B1 (ja) | 画像分析装置、及び画像分析システム | |
US11064162B2 (en) | Intelligent video analysis system and method | |
US10530846B2 (en) | Scheduling packets to destination virtual machines based on identified deep flow | |
JP7060724B2 (ja) | タスクスケジューリング方法、リソース共有使用方法、スケジューラ、コンピュータ可読記憶媒体および装置 | |
US10031774B2 (en) | Scheduling multi-phase computing jobs | |
US9697045B2 (en) | Selecting resource allocation policies and resolving resource conflicts | |
CN108062499B (zh) | 一种人脸识别的方法、系统及平台 | |
WO2021136137A1 (zh) | 一种资源调度方法、装置及相关设备 | |
US20180032373A1 (en) | Managing data processing resources | |
US20180129892A1 (en) | Live video analytics at scale | |
US10216543B2 (en) | Real-time analytics based monitoring and classification of jobs for a data processing platform | |
CN109815019A (zh) | 任务调度方法、装置、电子设备及可读存储介质 | |
US10778807B2 (en) | Scheduling cluster resources to a job based on its type, particular scheduling algorithm,and resource availability in a particular resource stability sub-levels | |
US20150326658A1 (en) | Apparatus and method for controlling virtual machine migrations based on flow information | |
US10606650B2 (en) | Methods and nodes for scheduling data processing | |
WO2016197706A1 (zh) | 数据的迁移方法及装置 | |
KR102477845B1 (ko) | 대용량 데이터 배치 처리를 위한 영상 데이터 처리 시스템 및 방법과 이를 위한 컴퓨터 프로그램 | |
US11489776B2 (en) | Multicore offloading of network processing | |
KR20180134219A (ko) | 가상머신 패킷의 처리방법과 그 장치 | |
WO2020050094A1 (ja) | リソース割当装置、リソース割当方法およびリソース割当プログラム | |
Lai et al. | Machine learning based intrusion detection as a service: Task assignment and capacity allocation in a multi-tier architecture | |
KR102091152B1 (ko) | 계층적 네트워크에서 다중코어를 이용한 패킷 처리 방법 및 그 장치 | |
JP7151795B2 (ja) | データストリーム割り当て方法、システムおよびプログラム | |
JP4040482B2 (ja) | 負荷分散並列処理装置 | |
US20220365809A1 (en) | Analysis processing apparatus, system, method, and non-transitory computer readable medium storing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191025 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20191025 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6644231 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |