JP2020052689A - Image processing system - Google Patents

Image processing system Download PDF

Info

Publication number
JP2020052689A
JP2020052689A JP2018180937A JP2018180937A JP2020052689A JP 2020052689 A JP2020052689 A JP 2020052689A JP 2018180937 A JP2018180937 A JP 2018180937A JP 2018180937 A JP2018180937 A JP 2018180937A JP 2020052689 A JP2020052689 A JP 2020052689A
Authority
JP
Japan
Prior art keywords
learning
unit
processing
node
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018180937A
Other languages
Japanese (ja)
Inventor
英生 野呂
Hideo Noro
英生 野呂
八代 哲
Satoru Yashiro
哲 八代
山本 貴久
Takahisa Yamamoto
貴久 山本
矢野 光太郎
Kotaro Yano
光太郎 矢野
伊藤 嘉則
Yoshinori Ito
嘉則 伊藤
加藤 政美
Masami Kato
政美 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018180937A priority Critical patent/JP2020052689A/en
Publication of JP2020052689A publication Critical patent/JP2020052689A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To enable efficient learning.SOLUTION: An image processing system for performing image recognition processing by using a neural network (NN), includes first processing means for performing a first process by using an NN at a preceding stage, second processing means for performing a second process by using an NN at a succeeding stage, learning means for learning parameters including a coefficient of connecting each node of an output layer of the first processing means to each node of an input layer of the second processing means on the basis of an output value from the output layer of the first processing means, and determination means for determining a dropout node at which transmission of the output value from each node of the output layer of the first processing means to the learning means is suppressed in accordance with a communication band between the first processing means and the learning means.SELECTED DRAWING: Figure 2

Description

本発明は、多層構造のニューラルネットワークに関するものである。   The present invention relates to a multilayer neural network.

ディープネット或いはディープニューラルネットと呼ばれる多層構造のニューラルネットワーク、およびそのネットワークの学習方法であるディープラーニング(深層学習とも称される)が、近年非常に大きな注目を集めている。ディープネットは、特定の演算手法を指すものではないが、一般的には、入力データ(例えば画像)に対して、階層的な処理(ある階層の処理結果を、その後段の階層の処理の入力とする)を行うものを指す。   In recent years, a neural network having a multilayer structure called a deep net or a deep neural network, and deep learning (also referred to as deep learning), which is a method for learning the network, have attracted a great deal of attention in recent years. Although a deep net does not refer to a specific calculation method, generally, a hierarchical processing (a processing result of a certain layer is applied to input data (for example, an image), ).

画像識別の分野では、畳み込みフィルタ演算を行う畳み込み層と、全結合演算を行う全結合層とから構成されるディープネットが主流になりつつある。特許文献1では、文字認識処理において、トレーニング部と認識部を分けて構成し、特徴ベクトルをSVM(support vector machine)にて分類する技術が開示されている。   In the field of image identification, a deep net composed of a convolution layer for performing a convolution filter operation and a fully connected layer for performing a full connection operation is becoming mainstream. Patent Literature 1 discloses a technique in which in a character recognition process, a training unit and a recognition unit are configured separately and a feature vector is classified by a support vector machine (SVM).

また、非特許文献1および非特許文献2では、ディープネットにおける学習時のデータ削減に寄与する「ドロップアウト」という技法が言及されている。例えば、図1のような順伝播型のニューラルネットワークにおいて、実線部分の結合係数を誤差逆伝播法によって学習する際に、太い円で表されるノードからドロップアウトノードを決定する。そしてドロップアウトノードはその出力を常に0とする。ここで、ドロップアウトノードの決定は、ノードごとに、ドロップアウト率と呼ばれる所定の確率で決定する。例えばドロップアウト率が0.5の場合、各ノードはそれぞれ0.5の確率でドロップアウトノードとなる。このように構成することにより、学習データへの過適合が抑制され、識別器としての性能が向上することが確かめられている。   In addition, Non-Patent Literature 1 and Non-Patent Literature 2 refer to a technique called “dropout” that contributes to data reduction during learning in a deep net. For example, in a forward-propagation type neural network as shown in FIG. 1, when learning the coupling coefficient of the solid line portion by the error back propagation method, a dropout node is determined from a node represented by a thick circle. Then, the dropout node always sets its output to 0. Here, the dropout node is determined for each node at a predetermined probability called a dropout rate. For example, if the dropout rate is 0.5, each node becomes a dropout node with a probability of 0.5. With this configuration, it has been confirmed that overfitting to learning data is suppressed, and the performance as a classifier is improved.

特開2009−48641号公報JP 2009-48641 A

A. Krizhevsky, I. Sutskever and G.E. Hinton, "ImageNet Classification with Deep Convolutional Neural Networks", NIPS, 2012A. Krizhevsky, I. Sutskever and G.E.Hinton, "ImageNet Classification with Deep Convolutional Neural Networks", NIPS, 2012 G.E. Hinton, N. Srivastava, A. Krizhevsky, I. Sutskever and R.R. Salakhutdinov, "Improving neural networks by preventing co-adaptation of feature detectors", CoRR, 2012G.E.Hinton, N. Srivastava, A. Krizhevsky, I. Sutskever and R.R.Salakhutdinov, "Improving neural networks by preventing co-adaptation of feature detectors", CoRR, 2012.

しかしながら、特許文献1では、トレーニング部と特徴ベクトル抽出部とを結ぶ通信路の帯域が十分でない場合には、学習を適切に行うことが出来ない。また、非特許文献1や非特許文献2に開示されるドロップアウトにおいては、ドロップアウト率は所与のものであることから、通信路の帯域が時間と共に変化する場合に適切な学習を行うことが出来ない。さらに、非特許文献1および非特許文献2では、ドロップアウトノードの決定を、ドロップアウト率に基づいて各ノードが独立して決定している。そのため、ドロップアウトノードの数を、目的とする数と一致するように制御することができない。その結果、ドロップアウトノードが多い場合は通信路の帯域を有効に活用して学習を行うことができず、またドロップアウトノードが少ない場合は十分な学習を行うことができない。   However, in Patent Literature 1, learning cannot be performed properly if the bandwidth of a communication path connecting the training unit and the feature vector extraction unit is not sufficient. Further, in the dropouts disclosed in Non-Patent Documents 1 and 2, since the dropout rate is given, appropriate learning should be performed when the bandwidth of the communication path changes with time. Can not do. Further, in Non-Patent Documents 1 and 2, each node independently determines a dropout node based on a dropout rate. Therefore, the number of dropout nodes cannot be controlled to match the target number. As a result, when there are many dropout nodes, learning cannot be performed by effectively utilizing the bandwidth of the communication path, and when there are few dropout nodes, sufficient learning cannot be performed.

本発明は、このような問題に鑑みてなされたものであり、効率的な学習を可能とする技術を提供することを目的としている。   The present invention has been made in view of such a problem, and has as its object to provide a technology that enables efficient learning.

上述の問題点を解決するため、本発明に係る画像処理システムは以下の構成を備える。すなわち、L層のニューラルネットワーク(NN)を用いて画像識別処理を行う画像処理システムは、
L層のうちの前段のM層のNNを用いて第1の処理を行う第1の処理手段と、
L層のうちの後段の(L−M)層のNNを用いて第2の処理を行う第2の処理手段と、
前記第1の処理手段の出力層からの出力値に基づいて、前記第1の処理手段の出力層の各ノードから前記第2の処理手段の入力層の各ノードへの結合係数を含むパラメータを学習する学習手段と、
前記第1の処理手段と前記学習手段との間の通信帯域に応じて、前記第1の処理手段の出力層の各ノードの中から前記学習手段への出力値の送信を抑止するドロップアウトノードを決定する決定手段と、
を有し、
前記第1の処理手段は、前記決定手段により決定されたドロップアウトノードを除く前記第1の処理手段の出力層の各ノードからの出力値を前記学習手段に送信する。
In order to solve the above problems, an image processing system according to the present invention has the following configuration. That is, an image processing system that performs image identification processing using an L-layer neural network (NN)
First processing means for performing a first process using the NN of the preceding M layer of the L layer;
A second processing unit that performs the second processing using the NN of the subsequent (LM) layer of the L layer;
A parameter including a coupling coefficient from each node of the output layer of the first processing unit to each node of the input layer of the second processing unit based on an output value from an output layer of the first processing unit. Learning means to learn,
A dropout node for suppressing transmission of an output value from each of the nodes of the output layer of the first processing means to the learning means in accordance with a communication band between the first processing means and the learning means Determining means for determining
Has,
The first processing means transmits, to the learning means, output values from each node of the output layer of the first processing means excluding the dropout node determined by the determining means.

本発明によれば、効率的な学習を可能とする技術を提供することができる。   According to the present invention, a technology that enables efficient learning can be provided.

ドロップアウト技法を説明する図である。FIG. 3 is a diagram illustrating a dropout technique. 第1実施形態におけるシステムの構成を説明する図である。FIG. 1 is a diagram illustrating a configuration of a system according to a first embodiment. ドロップアウト率の決定処理のフローチャートである。It is a flowchart of a determination process of a dropout rate. システムにおけるデータ拡張部の配置の一例を示す図である。FIG. 3 is a diagram illustrating an example of an arrangement of a data extension unit in the system. ディープネットの一連の処理を例示的に示す図である。It is a figure which shows a series of processes of a deep net exemplarily. ドロップアウトノードの決定処理のフローチャートである。It is a flowchart of the determination processing of a dropout node. 第5実施形態における画像識別システムの構成を説明する図である。It is a figure explaining composition of an image identification system in a 5th embodiment. 画像識別システムにおけるデータ拡張部の配置の一例を示す図である。It is a figure showing an example of arrangement of a data extension part in an image identification system. 第6実施形態における画像識別システムの構成を説明する図である。It is a figure explaining composition of an image identification system in a 6th embodiment. 再学習処理のフローチャートである。It is a flowchart of a relearning process. 再学習処理の他のフローチャートである。It is another flowchart of a relearning process. 第8実施形態における画像識別システムの構成を説明する図である。It is a figure explaining composition of an image identification system in an 8th embodiment. ディープネットの一連の処理を例示的に示す図である。It is a figure which shows a series of processes of a deep net exemplarily. 学習データ振分部における再学習処理のフローチャートである。It is a flowchart of the re-learning process in the learning data distribution unit.

以下に、図面を参照して、この発明の実施の形態の一例を詳しく説明する。なお、以下の実施の形態はあくまで例示であり、本発明の範囲を限定する趣旨のものではない。   Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings. The following embodiments are merely examples, and are not intended to limit the scope of the present invention.

(第1実施形態)
本発明に係る画像処理システムの第1実施形態として、ニューラルネットワークを用いたシステムを例に挙げて以下に説明する。
(1st Embodiment)
As a first embodiment of an image processing system according to the present invention, a system using a neural network will be described below as an example.

<複数の筺体を用いたシステム>
ディープネットを監視カメラ等に搭載される画像識別アルゴリズムとして見た場合、入力に近い層は特徴抽出を行っていると考えられ、出力に近い層、特に全結合層では抽出された特徴を元に識別処理を行っていると考えられる。カメラの設置環境や、人や車といった識別対象分野が、学習時と異なる場合、特徴抽出処理の性能はあまり変わらないが、識別処理は再学習により大きく性能が上がることが一般に知られている。
<System using multiple housings>
When the deep net is viewed as an image identification algorithm installed in a surveillance camera, etc., it is considered that layers close to the input are performing feature extraction, and layers close to the output, especially fully connected layers, are based on extracted features. It is considered that identification processing is being performed. It is generally known that the performance of the feature extraction processing does not change much when the camera installation environment or the discrimination target field such as a person or a car is different from that at the time of learning, but the performance of the discrimination processing is greatly improved by relearning.

ここでディープネットによる画像識別の一連の処理を、層の区切りでふたつに分け、入力に近い側の処理を第一の処理、出力に近い側を第二の処理とする。そして、第一の処理は、監視カメラが用いられる設置環境や識別対象分野における典型的なデータを用いて事前にネットワークの学習を行っておき、設置後は第二の処理のネットワークのみ学習する。   Here, a series of processing of image identification by the deep net is divided into two by a layer break, and processing closer to an input is defined as a first processing, and processing closer to an output is defined as a second processing. In the first process, learning of a network is performed in advance using typical data in an installation environment in which a monitoring camera is used or an identification target field, and after installation, only the network in the second process is learned.

前述の知見により、このように構成した場合でも、画像識別性能は、設置後に両方の処理を学習する場合と比べてあまり低下しないことが期待できる。このように識別性能に大きく影響する処理部分のみを対象としてネットワークの学習を行うことにより、識別性能をあまり落とさずに学習コストを下げることができる。そして、学習機能を監視カメラ本体とは別の筐体に持たせ、設置時作業内容に含めたり、有償あるいは無償のサービスとしたりすることで、監視カメラ本体の価格を抑えることができる。   From the above-mentioned knowledge, it can be expected that even in the case of such a configuration, the image identification performance does not decrease much compared to the case where both processes are learned after installation. Thus, by learning the network only for the processing part that greatly affects the discrimination performance, the learning cost can be reduced without significantly lowering the discrimination performance. By providing the learning function in a separate housing from the surveillance camera body and including the learning function in the installation work or as a paid or free service, the price of the surveillance camera body can be reduced.

第二の処理のネットワークの学習は、第一の処理を行う部分(以降、第一処理部と呼ぶ)から、第二の処理のネットワークの学習を行う部分(以降、第二処理学習部と呼ぶ)に向けて大量のデータを送信することにより行うことになる。   The learning of the network of the second processing is performed from the part of performing the first processing (hereinafter, referred to as a first processing unit) to the part of learning the network of the second processing (hereinafter, referred to as a second processing learning unit). ) Is transmitted by sending a large amount of data.

上述の構成の監視カメラシステムでは、第一処理部と第二処理学習部は異なる筐体に収められているため、上述の大量のデータはこれらをつなぐ通信路を介して送られる。ただし、異なる筺体間の通信路の通信帯域は、一般に筐体内部の通信路の通信帯域に比べ狭くなっている。そのため、第二のネットワークの学習において、第一処理部から第二処理学習部に送るデータ量を削減する必要がある。   In the surveillance camera system having the above-described configuration, the first processing unit and the second processing learning unit are housed in different housings, and thus the large amount of data described above is sent via a communication path connecting these. However, the communication band of the communication path between different housings is generally narrower than the communication band of the communication path inside the housing. Therefore, in learning the second network, it is necessary to reduce the amount of data sent from the first processing unit to the second processing learning unit.

<システムの構成>
図2は、第1実施形態におけるシステムの構成を説明する図である。システム2は、第一の筐体21と第二の筐体22から構成されている。第一の筐体21と第二の筐体22とは、それぞれの通信部(通信部211、通信部221)を用いて、通信ネットワークなどの通信路23を介して相互に通信可能に構成されている。なお、以下の説明において、特に説明のない限り、第一の筐体21内の各部と第二の筐体22内の各部との間のデータの受け渡しは、通信部211、通信路23、通信部221を経由して行われる。
<System configuration>
FIG. 2 is a diagram illustrating the configuration of the system according to the first embodiment. The system 2 includes a first housing 21 and a second housing 22. The first housing 21 and the second housing 22 are configured to be able to communicate with each other via a communication path 23 such as a communication network using respective communication units (the communication unit 211 and the communication unit 221). ing. In the following description, data transfer between each unit in the first housing 21 and each unit in the second housing 22 is performed by the communication unit 211, the communication path 23, and the communication unit 23, unless otherwise specified. This is performed via the unit 221.

第一の筐体21は、画像取得部212、前処理部213、第一処理部214、データ転送制御部215を含む。また第二の筐体22は、帯域推定部222、第二処理学習部223を含む。さらに、第二処理学習部223はドロップアウト率決定部2231を備える。なお、ここでは、各機能部は、CPUが所定のプログラムを実行することにより実現されることを想定する。ただし、1以上の機能部をASICなどのハードウェアを用いて実現してもよい。   The first housing 21 includes an image acquisition unit 212, a pre-processing unit 213, a first processing unit 214, and a data transfer control unit 215. The second housing 22 includes a band estimation unit 222 and a second processing learning unit 223. Further, the second processing learning unit 223 includes a dropout rate determination unit 2231. Here, it is assumed that each functional unit is realized by the CPU executing a predetermined program. However, one or more functional units may be realized using hardware such as an ASIC.

画像取得部212は、CCDやCMOSセンサー等を用いて、デジタル画像を取得し、前処理部213に渡す。なお、画像取得部はデジタル画像を提供できるものであればよく、例えば記憶媒体に記録されたデジタル画像を読み出すものでもよい。例えば、ビデオサーバーや画像サーバーに蓄えられたデジタル画像を、不図示の通信部を用いて読み出すものでもよい。   The image acquisition unit 212 acquires a digital image using a CCD, a CMOS sensor, or the like, and transfers the digital image to the preprocessing unit 213. The image acquisition unit may be any unit that can provide a digital image, and may be, for example, a unit that reads a digital image recorded on a storage medium. For example, a digital image stored in a video server or an image server may be read using a communication unit (not shown).

前処理部213は、用途に応じて色調補正、明るさ補正、白黒化やエッジ強調等の処理を行うものであり、用途によっては省略してもよい。前処理部213が行う色調補正、明るさ補正、白黒化やエッジ強調等の処理は、画像処理分野において公知であるため、詳細は省略する。   The preprocessing unit 213 performs processes such as color tone correction, brightness correction, monochrome conversion, and edge enhancement depending on the application, and may be omitted depending on the application. The processes such as color tone correction, brightness correction, monochrome conversion, and edge enhancement performed by the preprocessing unit 213 are known in the field of image processing, and thus the details are omitted.

第一処理部214は、背景技術で説明したとおり、第一の処理を行う。例えば、L層のニューラルネットワーク(NN)の前段のM層のNNを用いて第一の処理を行う。そして、第一の処理の全出力ノードの出力値をデータ転送制御部215に送る。   The first processing unit 214 performs the first processing as described in the background art. For example, the first process is performed using the NN of the M layer preceding the L layer neural network (NN). Then, the output values of all output nodes in the first processing are sent to the data transfer control unit 215.

データ転送制御部215は、第一処理部214から受け取った全出力ノードの出力値のうち、第二処理学習部223から指示された、ドロップアウトされなかったノードの出力値のみを、第二処理学習部223に渡す。なお、以下の説明では、データ転送制御部215から第二処理学習部223に渡される前述のノードの出力値を「学習データ」と呼ぶ。   The data transfer control unit 215 converts only the output values of the nodes that have not been dropped out, designated by the second processing learning unit 223, from among the output values of all the output nodes received from the first processing unit 214, in the second processing Hand over to learning unit 223. In the following description, the output value of the above-described node passed from the data transfer control unit 215 to the second processing learning unit 223 is referred to as “learning data”.

第二処理学習部223は、データ転送制御部215から受け取った、学習データから、誤差逆伝播法によって少なくとも第一の処理の最終層と第二の処理の最初層との間の結合係数を学習する。なお、第二の処理は、L層のニューラルネットワーク(NN)の後段の(L−M)層のNNを用いて実行される処理である。なお、第二処理学習部223は、さらに第二の処理の内部の結合係数等を学習しても構わない。   The second processing learning unit 223 learns a coupling coefficient between at least the last layer of the first processing and the first layer of the second processing from the learning data received from the data transfer control unit 215 by the error back propagation method. I do. Note that the second process is a process executed using the NN of the (LM) layer subsequent to the L-layer neural network (NN). Note that the second processing learning unit 223 may further learn the coupling coefficient and the like inside the second processing.

学習の際に用いる教師データは、予め対応する正解がわかっているなら、それを用いればよい。たとえば画像取得部212が録画済のビデオサーバーや画像サーバーの場合には、予め教師データを作成することが可能である。もし正解がわかっていなければ、たとえば推定値として第二処理学習部223で学習中のネットワークを順伝播評価して得た結果を用いればよい。   If the corresponding correct answer is known in advance, the teacher data used for learning may be used. For example, when the image acquisition unit 212 is a recorded video server or image server, it is possible to create teacher data in advance. If the correct answer is not known, for example, the result obtained by performing forward propagation evaluation on the network being learned by the second processing learning unit 223 may be used as the estimated value.

ある程度学習が進んだ第二の処理のネットワークでは、多くの場合、推定値と正解が一致することが期待できる。なお、推定値と正解が異なっていた場合の再学習の方法については、後述する他の実施形態において説明する。   In the second processing network where learning has progressed to some extent, in many cases, it can be expected that the estimated value and the correct answer match. The method of re-learning when the estimated value differs from the correct answer will be described in another embodiment described later.

帯域推定部222は、通信部221に通信状況を問い合わせて、通信路23の通信帯域を推定する。帯域推定の方法は、公知の任意の手法が利用可能である。たとえば、「釘本健司,三宅茂樹,水谷后宏,"ソケットAPIを備えるTCPの可用帯域測定機能",コンピュータソフトウェア Vol.31(2014) No.3 p.3_246-3_258,日本ソフトウェア科学会」に開示された手法が利用可能である。通信路23の帯域推定結果は、ドロップアウト率決定部2231に渡される。   The band estimating unit 222 inquires of the communication unit 221 about the communication status, and estimates the communication band of the communication path 23. As a band estimation method, any known method can be used. For example, "Kenji Kugimoto, Shigeki Miyake, Tomohiro Mizutani," Available Bandwidth Measurement Function of TCP with Socket API ", Computer Software Vol.31 (2014) No.3 p.3_246-3_258, Japan Society for Software Science and Technology" The disclosed approach is available. The band estimation result of the communication channel 23 is passed to the dropout rate determination unit 2231.

ドロップアウト率決定部2231は、通信路23の推定通信帯域から、第一の処理の最終層のドロップアウト率を決定する。なお、確率的勾配降下法(SGD:Stochastic Gradient Descent)でミニバッチを使う場合、ドロップアウト率は、ミニバッチ単位で変えればよい。ドロップアウト率の決定方法は、図3を参照して後述する。   The dropout rate determination unit 2231 determines the dropout rate of the final layer of the first processing from the estimated communication band of the communication path 23. When mini-batches are used by the stochastic gradient descent method (SGD: Stochastic Gradient Descent), the dropout rate may be changed in units of mini-batches. The method for determining the dropout rate will be described later with reference to FIG.

第二処理学習部223は、ドロップアウト率決定部2231によって決定されたドロップアウト率に基づき、出力値の送信を抑止するドロップアウトノードを決定する。そして、データ転送制御部215に対して、第二処理学習部223に学習データとして渡すノードを指示する。   The second processing learning unit 223 determines a dropout node that suppresses transmission of an output value based on the dropout rate determined by the dropout rate determination unit 2231. Then, it instructs the data transfer control unit 215 which node to pass to the second process learning unit 223 as learning data.

<システムの動作>
図3は、ドロップアウト率の決定処理のフローチャートである。当該処理は、ドロップアウト率決定部2231によって実行される。
<System operation>
FIG. 3 is a flowchart of the dropout rate determination process. This processing is executed by the dropout rate determination unit 2231.

ステップS31では、ドロップアウト率決定部2231は、帯域推定部222から通信路23の推定通信帯域を取得する。ステップS32では、ドロップアウト率決定部2231は、通信路23を圧迫しない最小のドロップアウト率p_dropout_minを計算する。例えば、以下の式(1)を満たす最小のp_dropout_cをp_dropout_minとすればよい。   In step S31, the dropout rate determination unit 2231 acquires the estimated communication band of the communication path 23 from the band estimation unit 222. In step S32, the dropout rate determination unit 2231 calculates a minimum dropout rate p_dropout_min that does not compress the communication path 23. For example, the minimum p_dropout_c that satisfies the following equation (1) may be set as p_dropout_min.

(数1)
datasize_node * nodes_firstlayer * samplerate * (1 - p_dropout_c) ≦ bandwidth ・・・(1)
(Equation 1)
datasize_node * nodes_firstlayer * samplerate * (1-p_dropout_c) ≤ bandwidth ・ ・ ・ (1)

ここで、
datasize_node:第一の処理の出力ノードの1ノードあたりの出力を送るのに必要なデータサイズ[Bytes];
nodes_firstlayer:第一の処理の全出力ノードの数;
samplerate:学習サンプルレート(1秒間に処理すべき学習サンプル数)[samples/sec];
p_dropout_c:ドロップアウト率;
bandwidth:推定通信帯域[Bytes/sec];
である。
here,
datasize_node: data size [Bytes] required to send the output per node of the first processing output node;
nodes_firstlayer: number of all output nodes of the first process;
samplerate: learning sample rate (number of learning samples to be processed per second) [samples / sec];
p_dropout_c: dropout rate;
bandwidth: estimated communication bandwidth [Bytes / sec];
It is.

なお、実際には通信に必要なヘッダや、データアライメントによる追加データ量等も考慮することが好適である。これらは、通信部211および通信部221が用いる通信プロトコルや、前述の出力ノードのデータを送るのに用いるデータ構造によるが、事前に推定可能な値である。   It is preferable to actually consider a header necessary for communication, an additional data amount due to data alignment, and the like. These are values that can be estimated in advance, depending on the communication protocol used by the communication unit 211 and the communication unit 221 and the data structure used to transmit the data of the output node.

ステップS33では、ドロップアウト率決定部2231は、次のミニバッチに対するドロップアウト率p_dropoutを決定する。例えば、式(2)に示すように決定するとよい。すなわち、通信路23の通信帯域を考慮しない場合に最もよいと考えられるドロップアウト率p_dropout_bestと、通信路23を圧迫しない最小のドロップアウト率p_dropout_minとの大きい方の値をp_dropoutとすればよい。なお、p_dropout_bestの値は任意に決定可能であるが、たとえば非特許文献2によれば、0.5が良いとされている。   In step S33, the dropout rate determination unit 2231 determines a dropout rate p_dropout for the next mini-batch. For example, it may be determined as shown in Expression (2). That is, the larger of the dropout rate p_dropout_best considered to be the best when the communication band of the communication path 23 is not taken into consideration and the minimum dropout rate p_dropout_min that does not compress the communication path 23 may be set to p_dropout. The value of p_dropout_best can be determined arbitrarily, but according to Non-Patent Document 2, for example, 0.5 is considered to be good.

(数2)
p_dropout := max(p_dropout_best, p_dropout_min) ・・・(2)
(Equation 2)
p_dropout: = max (p_dropout_best, p_dropout_min) (2)

ステップS34では、ドロップアウト率決定部2231は、S33で算出されたドロップアウト率p_dropoutを出力する。なお、学習をより効果的に行うために、データ拡張という技法を用いることがある。これは、入力画像に対して、トリミング、回転、コントラスト等の変更を行った画像に対しても学習を行う、という技法である。これにより、入力サンプル数(=入力画像数)の数倍のサンプルに対しても学習を行い、精度の高いネットワークを学習できる。   In step S34, the dropout rate determination unit 2231 outputs the dropout rate p_dropout calculated in S33. In order to perform learning more effectively, a technique called data extension may be used. This is a technique in which learning is performed on an image obtained by changing the trimming, rotation, contrast, and the like of an input image. Accordingly, learning is performed even on samples several times the number of input samples (= input image number), and a highly accurate network can be learned.

図4は、システムにおけるデータ拡張部の配置の一例を示す図である。ここでは、データ拡張部411を、前処理部213と第一処理部214との間に配置する例を示している。データ拡張により学習データがn倍になる場合、式(1)の条件は、左辺にnを乗じた式(3)となる。   FIG. 4 is a diagram illustrating an example of an arrangement of a data extension unit in the system. Here, an example is shown in which the data expansion unit 411 is arranged between the preprocessing unit 213 and the first processing unit 214. When the learning data is increased by n times due to data expansion, the condition of Expression (1) is Expression (3) in which the left side is multiplied by n.

(数3)
datasize_node * n * nodes_firstlayer * samplerate * (1 - p_dropout_c) ≦ bandwidth ・・・(3)
(Equation 3)
datasize_node * n * nodes_firstlayer * samplerate * (1-p_dropout_c) ≤ bandwidth ・ ・ ・ (3)

以上説明したとおり第1実施形態によれば、ドロップアウトされるノードを第一の処理の最終層の出力ノードとする。この構成により、第一処理部から第二処理学習部へ渡される学習データ量は大幅に削減される。そのため、第一処理部と第二処理学習部とを異なる筐体に配置した構成においても好適に学習を行うことが可能となる。   As described above, according to the first embodiment, the node to be dropped out is set as the output node of the last layer of the first processing. With this configuration, the amount of learning data passed from the first processing unit to the second processing learning unit is significantly reduced. Therefore, it is possible to suitably perform learning even in a configuration in which the first processing unit and the second processing learning unit are arranged in different housings.

また、通信路の通信帯域を考慮してドロップアウト率を決定しているため、通信路の帯域が比較的狭くても学習を効率的に行うことが可能となる。さらに、通信路の帯域が時間と共に変化する場合であっても、通信帯域に適合した学習を行うことが可能となる。   Further, since the dropout rate is determined in consideration of the communication band of the communication path, learning can be efficiently performed even if the band of the communication path is relatively narrow. Further, even when the band of the communication path changes with time, learning suitable for the communication band can be performed.

(第2実施形態)
第2実施形態では、第一の処理511と第二の処理512を分ける位置(層間)を決定する手法について説明する。
(2nd Embodiment)
In the second embodiment, a method of determining a position (layer) at which the first processing 511 and the second processing 512 are separated will be described.

図5は、ディープネットの一連の処理を例示的に示す図である。なお、図5は一例であり、多層構造のニューラルネットワークであれば、どのようなものでも構わない。図5において、左端が入力層、右端が出力層である全9層(L=9)のネットワークである。そのため、8箇所の層間51〜58が存在する。   FIG. 5 is a diagram exemplarily showing a series of processing of the deep net. FIG. 5 is an example, and any neural network having a multilayer structure may be used. In FIG. 5, the left end is an input layer and the right end is an output layer, which is a network of nine layers (L = 9). Therefore, eight layers 51 to 58 exist.

まず、左端に1つの画像が入力された場合、各層間51〜58を通るデータ量を見積もる。データ量の見積もり方法は、1ノードあたりの出力データ幅と層間結合数等を乗じることで算出可能である。固定的なニューラルネットワークでは、各層間結合を通るデータ量は予見可能である。   First, when one image is input at the left end, the amount of data passing through each of the layers 51 to 58 is estimated. The method of estimating the data amount can be calculated by multiplying the output data width per node by the number of interlayer connections. In a fixed neural network, the amount of data passing through each interlayer connection is predictable.

次に見積もったデータ量を比較し、「条件1:より入力に近くいずれの層間を流れるデータ量よりも少ない」を満たす層間を探す。たとえば、層間56を流れるデータ量は、層間51〜55を流れるいずれのデータ量よりも少ない場合、一連の処理を、層間56の位置で、第一の処理511と第二の処理512に分割する。図5では、全9層のニューラルネットワーク(NN)の前段の6層(M=6)のNNを用いて第一の処理を行う例を示している。そして、前段の3層のNNを用いて第二の処理を行う。   Next, the estimated data amount is compared, and a layer that satisfies “Condition 1: closer to the input and smaller than the amount of data flowing between any layers” is searched. For example, if the amount of data flowing between the layers 56 is smaller than any of the amounts of data flowing between the layers 51 to 55, a series of processes is divided into a first process 511 and a second process 512 at the position of the layers 56. . FIG. 5 shows an example in which the first processing is performed using NNs of six layers (M = 6) at the preceding stage of the neural network (NN) of all nine layers. Then, the second process is performed using the three-layer NN of the former stage.

以上のようにして決定された位置(層間)で第一の処理511と第二の処理512を分けることで、通信路23を流れるデータ量を低く抑えることが可能となる。その結果、より狭帯域の通信路23にも適用可能となる。   By dividing the first processing 511 and the second processing 512 at the positions (layers) determined as described above, the amount of data flowing through the communication path 23 can be reduced. As a result, it can be applied to the communication path 23 having a narrower band.

(第3実施形態)
第3実施形態では、具体的なドロップアウトノードを決定方法について説明する。すなわち、第1実施形態において説明したドロップアウト率に基づくドロップアウトノードの決定方法について説明する。
(Third embodiment)
In the third embodiment, a method for determining a specific dropout node will be described. That is, a method of determining a dropout node based on the dropout rate described in the first embodiment will be described.

図6は、ドロップアウトノードの決定処理のフローチャートである。当該処理は、第二処理学習部223により実行される。   FIG. 6 is a flowchart of the dropout node determination process. This processing is executed by the second processing learning unit 223.

ステップS61では、第二処理学習部223は、ドロップアウト率決定部2231によって決定されたドロップアウト率p_drouputを取得する。   In step S61, the second processing learning unit 223 acquires the dropout rate p_drouput determined by the dropout rate determination unit 2231.

ステップS62では、第二処理学習部223は、ドロップアウトノード数nodes_dropoutを算出する。これは、第一の処理の出力層の全ノード数nodes_firstlayerを用いて、式(4)に従って算出できる。なお、ceil()は、切り上げを表す関数である。   In step S62, the second processing learning unit 223 calculates the number of dropout nodes, nodes_dropout. This can be calculated according to equation (4) using the total number of nodes, nodes_firstlayer, of the output layer of the first processing. Note that ceil () is a function representing rounding up.

(数4)
nodes_dropout := ceil(nodes_firstlayer * p_dropout) ・・・(4)
(Equation 4)
nodes_dropout: = ceil (nodes_firstlayer * p_dropout) ・ ・ ・ (4)

ステップS63では、第二処理学習部223は、ドロップアウトノード数nodes_dropout分のノードを、第一の処理の全出力ノードから、ランダムに選択することで、ドロップアウトノードを決定する。   In step S63, the second processing learning unit 223 determines a dropout node by randomly selecting nodes for the number of nodes dropout_nodes from all output nodes of the first processing.

ステップS64では、第二処理学習部223は、決定されたドロップアウトノードの情報を第一処理部214に通知する。   In step S64, the second processing learning unit 223 notifies the information of the determined dropout node to the first processing unit 214.

以上のように、ドロップアウトノードの決定を行うことで、ドロップアウトノードの数を正確に制御することが可能となる。そのため、ネットワークの学習において、通信路23の通信帯域を超過することなく確実に学習を行うことが可能となる。   As described above, by determining the dropout nodes, the number of dropout nodes can be accurately controlled. Therefore, in the learning of the network, the learning can be reliably performed without exceeding the communication band of the communication path 23.

(第4実施形態)
第4実施形態では、第一の処理511と第二の処理512を分ける位置(層間)を決定する他の手法について説明する。
(Fourth embodiment)
In the fourth embodiment, another method for determining a position (layer) at which the first processing 511 and the second processing 512 are separated will be described.

第2実施形態で説明した「条件1」を満たす層間は、必ずしも一箇所とは限らない。背景技術で述べたように、画像識別の分野では、畳み込みフィルタ演算を行う畳み込み層と、全結合演算を行う全結合層とから構成されるディープネットが主流になりつつある。この場合、畳み込み層は特徴抽出処理、全結合層は識別処理を行っていると考えられる。   There is not necessarily one location between the layers satisfying the “condition 1” described in the second embodiment. As described in the background art, in the field of image identification, a deep net composed of a convolution layer for performing a convolution filter operation and a fully connected layer for performing a full connection operation is becoming mainstream. In this case, it is considered that the convolutional layer performs the feature extraction processing and the fully connected layer performs the identification processing.

さらに、カメラの設置環境や、人や車といった識別対象分野が、学習時と異なる場合、特徴抽出処理の性能はあまり変わらないが、識別処理は再学習により大きく性能が上がることが一般に知られている。   Furthermore, it is generally known that the performance of the feature extraction processing does not change much when the camera installation environment or the discrimination target fields such as people and cars differ from those at the time of learning, but the performance of the discrimination processing greatly increases by re-learning. I have.

そこで、第2実施形態で示した「条件1」を満たす候補に、畳み込み層と全結合層の間の層間が含まれる場合、ディープネットの一連の処理を、この層間(位置)で、第一の処理511と第二の処理512に分割する。   Therefore, when the candidate satisfying the “condition 1” described in the second embodiment includes an interlayer between the convolutional layer and the fully connected layer, a series of processing of the deep net is performed on the interlayer (position) in the first layer. Is divided into a process 511 and a second process 512.

以上のようにすることで、識別性能の低下を抑制しつつ、効果的に学習を行うことが可能となる。   By doing as described above, it is possible to effectively perform learning while suppressing a decrease in identification performance.

(第5実施形態)
第5実施形態では、第二の処理により画像識別を行う画像識別システムについて説明する。
(Fifth embodiment)
In the fifth embodiment, an image identification system that performs image identification by the second processing will be described.

<システムの構成>
図7は、第5実施形態における画像識別システムの構成を説明する図である。図2に対し、第一の筐体21内に、第二処理部711、認識結果処理部712、パラメータ設定部713が増えている。ここでは上述の実施形態との差異のみを説明する。
<System configuration>
FIG. 7 is a diagram illustrating a configuration of an image identification system according to the fifth embodiment. 2, a second processing unit 711, a recognition result processing unit 712, and a parameter setting unit 713 are added in the first housing 21. Here, only differences from the above-described embodiment will be described.

データ転送制御部215は、第一処理部214から受け取った全出力ノードの出力値のうち、第二処理学習部223から指示された学習データのみを、第二処理学習部223に渡す。さらに第二処理部711には、第一処理部214から受け取った全出力ノードの出力値を渡す。   The data transfer control unit 215 transfers, to the second process learning unit 223, only the learning data designated by the second process learning unit 223 among the output values of all the output nodes received from the first processing unit 214. Further, the output values of all output nodes received from the first processing unit 214 are passed to the second processing unit 711.

第二処理部711は、第二の処理を行い画像識別を行う。第二処理部711で行う第二の処理で用いるネットワークは、第二処理学習部223で学習したパラメータを用いる。   The second processing unit 711 performs the second processing to perform image identification. The network used in the second processing performed by the second processing unit 711 uses the parameters learned by the second processing learning unit 223.

なお、ここでは、ネットワークの学習とは誤差逆伝播法による層間結合の結合係数の学習を想定しており、ネットワークの構造自体は変わらない。そのため、学習の対象には「パラメータ」という表現を用いる。ただし、学習する対象として、ノードの活性化関数や、ネットワーク構造そのものとしてもよい。第二処理学習部223で学習したパラメータは、パラメータ設定部713に渡される。   Here, the learning of the network is assumed to be the learning of the coupling coefficient of the interlayer coupling by the error back propagation method, and the structure of the network itself does not change. Therefore, the expression "parameter" is used as a learning target. However, the learning target may be the activation function of the node or the network structure itself. The parameters learned by the second processing learning unit 223 are passed to the parameter setting unit 713.

パラメータ設定部713は、第二処理部711に対して、ミニバッチ単位にパラメータを設定する。なお、パラメータには、第一の処理と第二の処理の間の結合係数も含まれる。第二処理部711によって画像識別された結果は、識別結果処理部712に渡される。   The parameter setting unit 713 sets parameters for the second processing unit 711 in mini-batch units. Note that the parameters include a coupling coefficient between the first processing and the second processing. The result of the image identification by the second processing unit 711 is passed to the identification result processing unit 712.

識別結果処理部712は、第二処理部711によって画像識別された結果を用いて、画像識別システムの適用領域に応じた何らかの処理を行うものである。例えば、監視カメラであれば、人数をカウントしたり、不審者が映っていた場合にアラートを出したりする。また、不図示の通信部を用いて、不審者の画像を警備室のモニターに送ってもよい。   The identification result processing unit 712 performs some processing according to the application area of the image identification system using the result of image identification by the second processing unit 711. For example, a surveillance camera counts the number of people or issues an alert when a suspicious person is shown. Further, an image of the suspicious individual may be sent to a monitor in a security room using a communication unit (not shown).

図8は、画像識別システムにおけるデータ拡張部の配置の一例を示す図である。すなわち、第1実施形態(図4)と同様に、データ拡張部411によるデータ拡張を行う構成とすることもできる。この場合、データ転送制御部215は、データ拡張前のデータに対しては、上述の通りの動作を行う。一方、データ拡張されたデータに対しては、学習データとして第二処理学習部223には送るが、第二処理部711には送らないようにすればよい。   FIG. 8 is a diagram illustrating an example of an arrangement of the data extension unit in the image identification system. That is, similarly to the first embodiment (FIG. 4), a configuration in which data extension is performed by the data extension unit 411 can be adopted. In this case, the data transfer control unit 215 performs the above-described operation on the data before data expansion. On the other hand, the data that has been subjected to data expansion is sent to the second processing learning unit 223 as learning data, but may not be sent to the second processing unit 711.

以上のように構成することで、画像識別処理は第一の筐体21内で完結することになる。そのため、第二の筐体22は第二の処理の学習時にのみ設置すればよい。そのため、画像識別処理を行う部分(第一の筐体21)の小型・低価格化が容易になるという効果がある。   With the above configuration, the image identification processing is completed in the first housing 21. Therefore, the second housing 22 may be installed only when learning the second process. Therefore, there is an effect that it is easy to reduce the size and the price of the portion (the first housing 21) for performing the image identification processing.

また、1つの第二の筐体22を用いて、複数の第一の筐体21に対する学習を行うことができる。そのため、複数の第一の筐体21を用いたトータルシステムの低価格化が実現可能となる。   In addition, learning for a plurality of first housings 21 can be performed using one second housing 22. Therefore, the total system using the plurality of first housings 21 can be reduced in cost.

さらに、「学習」自体を、画像識別システムの設置時サービスとしたり、別途有償サービスとしたりすることができ、さまざまなビジネスモデルに対応できる。たとえば、第二の筐体22を構成する各機能部をすべてクラウド上に配置することで、学習部分を第一の筐体21とは独立したサービスとすることができる。さらに、多くの第一の筐体21からのデータを集めることが可能となり、学習アルゴリズムの改良が容易となる。   Further, the "learning" itself can be used as a service at the time of installation of the image identification system or as a separately paid service, and can correspond to various business models. For example, by arranging all the functional units constituting the second housing 22 on the cloud, the learning part can be a service independent of the first housing 21. Further, it becomes possible to collect data from many first casings 21, and it becomes easy to improve the learning algorithm.

さらに、通信路23を流れるデータは、第一の処理を経た特徴量相当のものである。そのため、入力画像をそのまま送る場合に比べてユーザの心理的抵抗が低く、プライバシーに配慮したものとなる。   Further, the data flowing through the communication path 23 is equivalent to the feature amount after the first processing. Therefore, the user's psychological resistance is lower than in the case where the input image is sent as it is, and privacy is considered.

(第6実施形態)
第6実施形態では、正しい教師データを付与して第二の処理を再学習させる手法について説明する。上述の実施形態では明示的に教師データは与えていなかった。しかし、例えば画像識別結果を監視している際に、誤識別が判明した場合には、正しい教師データを付与して第二の処理を再学習させる必要がある。
(Sixth embodiment)
In the sixth embodiment, a method will be described in which correct teacher data is added and the second process is re-learned. In the above embodiment, the teacher data was not explicitly given. However, if, for example, an erroneous identification is found while monitoring the image identification result, it is necessary to provide correct teacher data and re-learn the second process.

<システムの構成>
図9は、第6実施形態における画像識別システムの構成を説明する図である。図7に対し、第一の筐体21内に教師データ修正指示部911が増え、第二の筐体22内にパラメータ蓄積部921、学習データ蓄積部922、教師データ修正部923が増えている。ここでは上述の実施形態との差異のみを説明する。
<System configuration>
FIG. 9 is a diagram illustrating a configuration of an image identification system according to the sixth embodiment. 7, the teacher data correction instructing unit 911 increases in the first housing 21, and the parameter storage unit 921, the learning data storage unit 922, and the teacher data correction unit 923 increase in the second housing 22. . Here, only differences from the above-described embodiment will be described.

データ転送制御部215から送られる学習データは、一旦学習データ蓄積部922に蓄えられる。後に説明するが、学習データは、対応する教師データと、学習データの時期を特定する情報とともに蓄積される。なお、以降の説明では、「学習データの時期を特定する情報」を単に「時期」と呼ぶ。   The learning data sent from the data transfer control unit 215 is temporarily stored in the learning data storage unit 922. As will be described later, the learning data is stored together with the corresponding teacher data and information specifying the timing of the learning data. In the following description, the “information for specifying the period of the learning data” is simply referred to as “time”.

教師データは、少なくとも教師データ修正部923から渡される、修正された教師データのみを保持していればよい。なお、教師データ修正部923については後述する。なお、教師データが付与されていない学習データに関しては、第二処理学習部は上述の実施形態の通りに正解を推定して学習するが、教師データが付与されている学習データに関しては、推定値を用いずに教師データを用いて学習を行う。   The teacher data only needs to hold at least the corrected teacher data passed from the teacher data correction unit 923. The teacher data correction unit 923 will be described later. In addition, as for the learning data to which the teacher data is not added, the second processing learning unit estimates and corrects the correct answer as in the above-described embodiment, but for the learning data to which the teacher data is added, the estimated value is used. Learning is performed using teacher data without using.

学習データの時期を特定する情報とは、たとえばその学習データの元画像が撮影された時刻や、通算の撮像枚数(フレーム番号)とすればよく、時間の流れとともに単調増加する値であればよい。   The information for specifying the timing of the learning data may be, for example, the time at which the original image of the learning data was captured, or the total number of captured images (frame numbers), and may be any value that monotonically increases with time. .

学習データ蓄積部922に一旦蓄えられた学習データは、第二処理学習部223から読み出され、通常通り学習を行い、学習済みパラメータを算出する。算出された学習済みパラメータは、直接パラメータ設定部713には送らず、一旦パラメータ蓄積部921に蓄えられた後、パラメータ設定部713に送られる。なお、学習済みパラメータは、その学習データの時期を特定する情報、すなわち時期とともに蓄積される。   The learning data once stored in the learning data storage unit 922 is read from the second processing learning unit 223, performs learning as usual, and calculates learned parameters. The calculated learned parameters are not directly sent to the parameter setting unit 713, but are temporarily stored in the parameter storage unit 921 and then sent to the parameter setting unit 713. The learned parameter is stored together with information for specifying the time of the learning data, that is, the time.

たとえば、時刻T0から時刻T1の間に撮影された画像をミニバッチとして、パラメータを学習したのであれば、その学習済みパラメータの時期としてT1を用いればよい。   For example, if a parameter is learned using an image captured between time T0 and time T1 as a mini-batch, T1 may be used as the time of the learned parameter.

教師データ修正指示部911は、画像識別結果が不正解であった場合に、教師データと、その時期を特定する情報を入力する。たとえば、識別結果処理部712が、監視モニターアプリケーションソフトウェアであった場合、そのモニター画面を見ていた監視員が、誤識別を発見した際に教師データを入力するものである。教師データとその時期は、教師データ修正指示部911から教師データ修正部923に渡される。   When the image identification result is incorrect, the teacher data correction instructing unit 911 inputs the teacher data and information for specifying the time. For example, when the identification result processing unit 712 is monitoring monitor application software, a supervisor watching the monitor screen inputs teacher data when erroneous identification is found. The teacher data and the time are passed from the teacher data correction instruction unit 911 to the teacher data correction unit 923.

教師データ修正部923は、学習データ蓄積部922に蓄積された、該時期の学習データに教師データを関連付ける。また、該時期を第二処理学習部223に渡し、再学習を指示する。   The teacher data correction unit 923 associates the teacher data with the learning data of the period stored in the learning data storage unit 922. In addition, the time is passed to the second processing learning unit 223 to instruct re-learning.

<システムの動作>
図10は、再学習処理のフローチャートである。当該処理は、第二処理学習部223により実行される。
<System operation>
FIG. 10 is a flowchart of the relearning process. This processing is executed by the second processing learning unit 223.

ステップS101では、第二処理学習部223は、教師データ修正部923から再学習を指示されると、教師データの時期Ttを取得する。ステップS102では、第二処理学習部223は、パラメータ蓄積部921に蓄積された学習済みパラメータのうち、時期Tt以降のものを削除する。これは、再学習のきっかけとなる教師データを含め、それ以降の学習済みパラメータは再学習を行うために不要となるからである。   In step S101, when the re-learning is instructed by the teacher data correction unit 923, the second process learning unit 223 acquires the timing Tt of the teacher data. In step S102, the second process learning unit 223 deletes the learned parameters stored in the parameter storage unit 921 after the time Tt. This is because the learned parameters after that, including the teacher data that triggers the re-learning, are not needed to perform the re-learning.

ステップS103では、第二処理学習部223は、パラメータ蓄積部921から最後の学習済みパラメータを取得し、第二の処理ネットワークの初期状態とする。これは、再学習のきっかけとなる教師データを含むミニバッチを再学習するために、その時点で最新の学習済みのネットワークを初期状態とするためである。   In step S103, the second processing learning unit 223 acquires the last learned parameter from the parameter storage unit 921, and sets the second processing network to the initial state. This is because the latest learned network at that time is set to the initial state in order to re-learn the mini-batch including the teacher data that triggers the re-learning.

ステップS104では、第二処理学習部223は、学習対象となるミニバッチとして、時期Ttを含むものを選択する。   In step S104, the second processing learning unit 223 selects a mini-batch that includes the time Tt as a mini-batch to be learned.

ステップS105では、第二処理学習部223は、選択したミニバッチの学習データを学習データ蓄積部から取得しつつ、ネットワークの学習を行う。これは、公知の学習の処理と同一であるため、詳細は割愛する。なお、学習の最後には、学習済みパラメータを、パラメータ蓄積部921に蓄積する。   In step S105, the second process learning unit 223 performs network learning while acquiring the learning data of the selected mini-batch from the learning data storage unit. Since this is the same as a known learning process, the details are omitted. At the end of the learning, the learned parameters are stored in the parameter storage unit 921.

ステップS106では、第二処理学習部223は、選択したミニバッチの次のミニバッチを選択する。もし、ミニバッチがあればS105に戻って、そのミニバッチの学習を行う。もし、ミニバッチがない場合、すなわち最後のミニバッチの学習が終わった場合はS107に進む。   In step S106, the second processing learning unit 223 selects a mini-batch next to the selected mini-batch. If there is a mini-batch, the process returns to S105 and learning of the mini-batch is performed. If there is no mini-batch, that is, if learning of the last mini-batch has been completed, the process proceeds to S107.

ステップS107では、第二処理学習部223は、最後に学習した学習済みパラメータを、パラメータ設定部713に渡して、第二処理部711の第二の処理のネットワークを更新する。なお、ここではS107の処理を再学習の最後に行ったが、S105の後に毎回行う構成としてもよい。   In step S107, the second processing learning unit 223 passes the learned parameter learned last to the parameter setting unit 713, and updates the second processing network of the second processing unit 711. Here, the process of S107 is performed at the end of the re-learning, but may be performed every time after S105.

以上説明したとおり第6実施形態によれば、画像識別結果が誤識別だった場合に、再学習を行うことが可能となる。再学習を行うことにより、より好適な画像識別結果を得ることが可能となる。   As described above, according to the sixth embodiment, it is possible to perform relearning when the image identification result is erroneous identification. By performing the re-learning, it is possible to obtain a more suitable image identification result.

(第7実施形態)
第7実施形態では、学習データおよび学習済みパラメータの蓄積量を制御する手法について説明する。上述の実施形態において、学習データおよび学習済みパラメータは、再学習のために、それぞれ学習データ蓄積部922およびパラメータ蓄積部921に蓄積しておくことは述べた。
(Seventh embodiment)
In the seventh embodiment, a method for controlling the accumulation amount of learning data and learned parameters will be described. In the above-described embodiment, it has been described that the learning data and the learned parameters are stored in the learning data storage unit 922 and the parameter storage unit 921, respectively, for re-learning.

しかしながら、学習データも学習済みパラメータも、過去のものであればあるほど、再学習のために参照される可能性は低く、また蓄積すべきデータ量も莫大なものとなる。すなわち、ある程度古い学習データや学習済みパラメータは、破棄していくことが現実的である。また、一般に学習済みパラメータに比べて、学習データの方がデータ量は桁違いに大きい。   However, the more past the learning data and learned parameters are, the less likely they are to be referred to for re-learning, and the amount of data to be accumulated is enormous. That is, it is realistic to discard learning data and learned parameters that are somewhat old. Generally, the data amount of the learning data is orders of magnitude larger than that of the learned parameters.

また、教師データ修正指示部911で、教師データの修正が指示された場合、誤学習結果を排除するため、再学習は該教師データの時期よりも前の学習済みパラメータを用いるべきである。そのため、パラメータ蓄積部921に蓄積する学習済みパラメータは、教師データ修正指示部911によって、指示される可能性のある次期よりも古いものまで保持しておくべきである。それに対して、学習データ蓄積部922に蓄積する学習データは、再学習が行われる可能性がある程度高い時期以降のもののみを保持することが現実的である。   Further, when the teacher data correction instruction section 911 instructs to correct the teacher data, in order to eliminate the erroneous learning result, the re-learning should use the learned parameter before the time of the teacher data. For this reason, the learned parameters stored in the parameter storage unit 921 should be retained by the teacher data correction instructing unit 911 even if they are older than the next period that may be instructed. On the other hand, it is realistic to hold only the learning data stored in the learning data storage unit 922 after the time when the possibility that re-learning is performed is high to some extent.

そのため、パラメータ蓄積部921の学習済みパラメータ保持期間は、学習データ蓄積部922の学習データ保持期間よりも長くすることが望ましい。   Therefore, it is desirable that the learned parameter holding period of the parameter storage unit 921 be longer than the learning data holding period of the learning data storage unit 922.

<システムの動作>
パラメータ蓄積部921は、新たな学習済みパラメータが第二処理学習部223から渡される際に、所定の保持期間を経過した古い学習済みパラメータを削除する。なお、古い学習済みパラメータの削除は、不図示のタイマー等を用いて定期的に実行してもよい。
<System operation>
When a new learned parameter is passed from the second processing learning unit 223, the parameter storage unit 921 deletes an old learned parameter that has passed a predetermined holding period. The deletion of the old learned parameter may be periodically executed using a timer (not shown) or the like.

学習データ蓄積部922は、新たな学習データがデータ転送制御部215から渡される際に、所定の保持期間を経過した古い学習データを削除する。なお、古い学習データの削除は、不図示のタイマー等を用いて定期的に実行してもよい。   When new learning data is passed from the data transfer control unit 215, the learning data storage unit 922 deletes old learning data that has passed a predetermined retention period. The deletion of the old learning data may be performed periodically using a timer (not shown) or the like.

図11は、再学習処理の他のフローチャートである。概ね図10と同様であるが、S104がS114となっている点が異なる。   FIG. 11 is another flowchart of the relearning process. This is almost the same as FIG. 10, except that S104 is replaced with S114.

ステップS114では、第二処理学習部223は、学習対象となるミニバッチとして、時期Ttを含むものを選択する。ただし、該ミニバッチが存在しなかった場合は、S106に進み、それ以降の最初のミニバッチを選択して再学習を行う。   In step S114, the second processing learning unit 223 selects a mini-batch to be learned that includes the time Tt. However, if the mini-batch does not exist, the process proceeds to S106, where the first mini-batch is selected and re-learning is performed.

なお、S103で選択すべき学習パラメータがあるよう、学習済みパラメータ保持期間は十分長く設定すべきであるが、最も古い学習済みパラメータは破棄しないようにしてもよい。   The learned parameter holding period should be set long enough so that there is a learning parameter to be selected in S103, but the oldest learned parameter may not be discarded.

以上説明したとおり第7実施形態によれば、システムに蓄積されるデータの肥大化を防ぎつつ、再学習を行うことが可能となる。   As described above, according to the seventh embodiment, it is possible to perform re-learning while preventing data accumulated in the system from being enlarged.

(第8実施形態)
第8実施形態では、第一の処理511と第二の処理512を分ける位置(層間)を動的に変更する手法について説明する。
(Eighth embodiment)
In the eighth embodiment, a method of dynamically changing the position (layer) at which the first processing 511 and the second processing 512 are separated will be described.

上述の実施形態では、図5において、一連の処理を第一の処理511と第二の処理512を層間56で分割した。そして、第一の処理の最終層のノードに対して、ドロップアウトを行い、学習を行った。しかし、もし、層間57を流れるデータ量が、層間56を流れるデータ量よりも少ない場合、一連の処理を層間57で分割することも可能である。   In the above-described embodiment, in FIG. 5, a series of processes is divided into a first process 511 and a second process 512 between layers 56. Then, a dropout was performed on the node in the final layer of the first processing, and learning was performed. However, if the amount of data flowing between the layers 57 is smaller than the amount of data flowing between the layers 56, a series of processing can be divided between the layers 57.

そこで、第8実施形態では、帯域推定部222による通信路23の帯域の推定値により、第一の処理511と第二の処理512の分割を動的に切り替える。これは、システムに対して適用可能であるが、システムを含んだ画像識別システムにも適用可能である。   Therefore, in the eighth embodiment, the division between the first process 511 and the second process 512 is dynamically switched based on the estimated value of the band of the communication channel 23 by the band estimating unit 222. This is applicable to the system, but also to the image identification system including the system.

<システムの構成>
図12は、第8実施形態における画像識別システムの構成を説明する図である。なお、図中の丸付き番号(1〜4)は、対応する番号同士が接続されていることを示す。図9と比較して、第三処理部1211と第三処理学習部1222が増えており、さらに、第三処理決定部1221、学習データ振分部1223、そして第三処理学習部1222中のドロップアウト率決定部12221が増えている。ここでは上述の実施形態との差異のみを説明する。
<System configuration>
FIG. 12 is a diagram illustrating a configuration of an image identification system according to the eighth embodiment. The circled numbers (1 to 4) in the figure indicate that the corresponding numbers are connected. Compared with FIG. 9, the third processing unit 1211 and the third processing learning unit 1222 are increased, and the third processing determining unit 1221, the learning data distribution unit 1223, and the drop in the third processing learning unit 1222 The out-ratio determination unit 12221 has increased. Here, only differences from the above-described embodiment will be described.

図13は、ディープネットの一連の処理を例示的に示す図である。図5とほぼ同様であるが、第一の処理511、第二の処理512、第三の処理513の3つに処理を分割している点が異なる。一連の処理を層間56で分割する場合、第三の処理513は、第二の処理512と一体となる。一方、層間57で分割する場合、第三の処理513は第一の処理511と一体となる。   FIG. 13 is a diagram exemplarily showing a series of processing of the deep net. It is almost the same as FIG. 5, except that the processing is divided into three parts, a first processing 511, a second processing 512, and a third processing 513. When a series of processes is divided between the layers 56, the third process 513 is integrated with the second process 512. On the other hand, in the case of division at the interlayer 57, the third processing 513 is integrated with the first processing 511.

第一処理部214は、上述の実施形態と同様に、データ転送制御部215に第一の処理の全出力ノードの出力値を渡す。   The first processing unit 214 passes the output values of all output nodes of the first processing to the data transfer control unit 215 as in the above-described embodiment.

データ転送制御部215は、一連の処理が層間56で分割されている場合は、第三処理学習部1222から指示されたノードの値を学習データ蓄積部922に送る。もし、一連の処理が層間57で分割されている場合は、第一処理部から受け取った値を全て第三処理部1211に渡す。   When a series of processes is divided between the layers 56, the data transfer control unit 215 sends the value of the node specified by the third process learning unit 1222 to the learning data storage unit 922. If a series of processing is divided between the layers 57, all values received from the first processing unit are passed to the third processing unit 1211.

第三処理部1211は、第三の処理513を行い、その結果、すなわち第三の処理513の全出力ノードの出力値をデータ転送制御部215に渡す。そして、第二処理学習部223から指示されたノードの値を学習データ蓄積部922に送る。   The third processing unit 1211 performs the third processing 513, and passes the result, that is, the output values of all the output nodes of the third processing 513 to the data transfer control unit 215. Then, the value of the node specified by the second processing learning unit 223 is sent to the learning data storage unit 922.

なお、データ転送制御部215において、一連の処理がいずれの層間で分割されているかは、学習データ蓄積部922に送るよう指示されたノードが、第一の処理511のものなのか、第三の処理513のものなのかで判断できる。すなわち、第一の処理511のノードを指示された場合は層間56、第三の処理513のノードを指示された場合は層間57で分割されたものと判断できる。帯域推定部222による、通信路23の帯域推定結果は、第三処理決定部1221に渡される。   In the data transfer control unit 215, whether the series of processing is divided between which layers is determined by whether the node instructed to send to the learning data storage unit 922 belongs to the first processing 511 or the third processing. It can be determined from the processing 513. That is, when the node of the first process 511 is instructed, it can be determined that the image is divided into the layers 56 and when the node of the third process 513 is instructed, the image is divided into the layers 57. The band estimation result of the communication channel 23 by the band estimation unit 222 is passed to the third processing determination unit 1221.

第三処理決定部1221では、推定帯域が、所定の値よりも大きい(広い)場合は層間56で、そうでない場合は層間57で、一連の処理を分割する。層間56で分割した場合は、推定帯域を第三処理学習部1222内のドロップアウト率決定部12221に渡し、第二処理学習部223内のドロップアウト率決定部2231には十分大きい帯域を推定帯域として渡す。なお、十分大きい帯域とは、前述の式(2)において、式(5)を満たすような帯域を意味する。なお、p_dropoutがp_dropout_bestとなるような帯域であればよく、たとえば無限大としてもよい。   The third process determining unit 1221 divides a series of processes between the layers 56 when the estimated band is larger (wider) than the predetermined value, and otherwise between the layers 57. When the division is performed between the layers 56, the estimated band is passed to the dropout rate determination unit 12221 in the third processing learning unit 1222, and a sufficiently large band is transmitted to the dropout rate determination unit 2231 in the second processing learning unit 223. Pass as Note that a sufficiently large band means a band that satisfies Expression (5) in Expression (2) described above. It should be noted that any band may be used so long as p_dropout becomes p_dropout_best, and for example, may be infinite.

(数5)
p_dropout_min ≦ p_dropout_best ・・・(5)
(Equation 5)
p_dropout_min ≤ p_dropout_best ... (5)

第三処理学習部1222の順伝播計算による結果は、第二処理学習部223に渡される。また、第二処理学習部223によるネットワークの学習結果は、学習済みパラメータとして、パラメータ蓄積部921に蓄積され、第三処理学習部1222の学習に用いるとともに、パラメータ設定部713を経由して、第二処理部711に設定する。   The result of the forward propagation calculation of the third processing learning unit 1222 is passed to the second processing learning unit 223. Further, the network learning result by the second processing learning unit 223 is stored in the parameter storage unit 921 as a learned parameter, and is used for learning by the third processing learning unit 1222. This is set in the two processing unit 711.

第三処理学習部1222は、第二処理学習部223と同様の手順で第三の処理513の学習を行い、学習済みパラメータをパラメータ蓄積部921に蓄積する。そして、パラメータ設定部713を経由して、第三処理部1211に学習済みパラメータを設定する。   The third process learning unit 1222 performs the learning of the third process 513 in the same procedure as the second process learning unit 223, and stores the learned parameters in the parameter storage unit 921. Then, the learned parameter is set in the third processing unit 1211 via the parameter setting unit 713.

第三処理決定部1221で、一連の処理を層間57で分割した場合は、推定帯域を第二処理学習部223内のドロップアウト率決定部2231に渡す。   When the third process determining unit 1221 divides the series of processes between the layers 57, the estimated band is passed to the dropout rate determining unit 2231 in the second process learning unit 223.

第二処理学習部223によるネットワークの学習結果は、学習済みパラメータとして、パラメータ蓄積部921に蓄積され、パラメータ設定部713を経由して、第二処理部711に設定する。   The learning result of the network by the second processing learning unit 223 is stored in the parameter storage unit 921 as a learned parameter, and is set in the second processing unit 711 via the parameter setting unit 713.

学習データ振分部1223は、学習データ蓄積部922に蓄積された学習データを、第二処理学習部223または第三処理学習部1222に渡し、学習を指示する。学習データが第一の処理511の出力ノードのものである場合は、第三処理学習部1222に学習データを渡し、第二処理学習部223と共に、第三の処理513および第二の処理512の学習を行うよう指示する。一方、学習データが第三の処理513の出力ノードのものである場合は、第二学習部223に学習データを渡し、第二の処理512の学習を行うよう指示する。   The learning data distribution unit 1223 passes the learning data stored in the learning data storage unit 922 to the second processing learning unit 223 or the third processing learning unit 1222, and instructs learning. If the learning data is that of the output node of the first process 511, the learning data is passed to the third process learning unit 1222, and the third process 513 and the second process 512 are transmitted together with the second process learning unit 223. Instruct students to learn. On the other hand, if the learning data is that of the output node of the third processing 513, the learning data is passed to the second learning unit 223, and an instruction is issued to perform the learning of the second processing 512.

教師データ修正指示部911は、教師データをその時期と共に教師データ修正部923に伝える。教師データ修正部923は、学習データ蓄積部922に蓄積された、該時期の学習データに教師データを関連付けると共に、該時期を学習データ振分部1223に渡し、再学習を指示する。   The teacher data correction instruction unit 911 transmits the teacher data to the teacher data correction unit 923 together with the time. The teacher data correction unit 923 associates the teacher data with the learning data of the time stored in the learning data storage unit 922, and passes the time to the learning data distribution unit 1223 to instruct re-learning.

<システムの動作>
図14は、学習データ振分部における再学習処理のフローチャートである。当該処理は、学習データ振分部1223が、教師データ修正部から再学習の指示を受けた場合に実行する。
<System operation>
FIG. 14 is a flowchart of the relearning process in the learning data distribution unit. This process is executed when the learning data distribution unit 1223 receives a re-learning instruction from the teacher data correction unit.

ステップS141では、学習データ振分部1223は、教師データ修正部923から再学習を指示されると、教師データの時期Ttを取得する。ステップS142では、学習データ振分部1223は、パラメータ蓄積部921に蓄積された学習済みパラメータのうち、時期Tt以降のものを削除する。これは、再学習のきっかけとなる教師データを含め、それ以降の学習済みパラメータは再学習を行うために不要となるからである。   In step S141, when the learning data distribution unit 1223 is instructed to re-learn from the teacher data correction unit 923, the learning data distribution unit 1223 acquires the timing Tt of the teacher data. In step S142, the learning data distribution unit 1223 deletes the learned parameters stored in the parameter storage unit 921 after the time Tt. This is because the learned parameters after that, including the teacher data that triggers the re-learning, are not needed to perform the re-learning.

ステップS143では、学習データ振分部1223は、パラメータ蓄積部921から最後の学習済みパラメータを取得する。ここで取得するのは、第二処理学習部223および第三処理学習部1222の各々の最後の学習済みパラメータである。   In step S143, the learning data distribution unit 1223 acquires the last learned parameter from the parameter storage unit 921. What is acquired here is the last learned parameter of each of the second process learning unit 223 and the third process learning unit 1222.

ステップS1431では、学習データ振分部1223は、学習済みパラメータを、第二処理学習部223、第三処理学習部1222のそれぞれに設定し、ネットワークの初期状態とする。これは、再学習のきっかけとなる教師データを含むミニバッチを再学習するために、その時点で最新の学習済みのネットワークを初期状態とするためである。   In step S1431, the learning data distribution unit 1223 sets the learned parameter to each of the second processing learning unit 223 and the third processing learning unit 1222, and sets the initial state of the network. This is because the latest learned network at that time is set to the initial state in order to re-learn the mini-batch including the teacher data that triggers the re-learning.

ステップS144では、学習データ振分部1223は、学習対象となるミニバッチとして、時期Ttを含むものを選択する。選択対象となるミニバッチがあった場合はS1451に進み、なかった場合はS146に進む。   In step S144, the learning data distribution unit 1223 selects a mini-batch to be learned that includes the time Tt. If there is a mini-batch to be selected, the process proceeds to S1451, and if not, the process proceeds to S146.

ステップS1451では、学習データ振分部1223は、ミニバッチの学習データは第一の処理511の出力であるか否かを判断する。第一の処理511の出力であった場合、一連の処理は層間56で、そうでなかった場合は層間57で分割されたものである。層間56で分割された場合はS1452の処理を、そうでない場合はS1453の処理を行う。   In step S1451, the learning data distribution unit 1223 determines whether the mini-batch learning data is the output of the first process 511. If it is the output of the first process 511, the series of processes is divided between the layers 56, and if not, the process is divided between the layers 57. If it is divided between the layers 56, the process of S1452 is performed, otherwise, the process of S1453 is performed.

ステップS1452では、学習データ振分部1223は、第三処理学習部1222に対して、選択したミニバッチを用いて学習を行うよう指示する。この際、前述したように、学習は第二処理学習部223と連携して行う。一方、ステップS1453では、学習データ振分部1223は、第二処理学習部223に対して、選択したミニバッチを用いて学習を行うよう指示する。この場合は、第三処理学習部1222による学習は行わない。S1452、S1453いずれの場合も、学習の最後には、学習済みパラメータを、パラメータ蓄積部921に蓄積する。   In step S1452, the learning data distribution unit 1223 instructs the third processing learning unit 1222 to perform learning using the selected mini-batch. At this time, as described above, the learning is performed in cooperation with the second processing learning unit 223. On the other hand, in step S1453, the learning data distribution unit 1223 instructs the second processing learning unit 223 to perform learning using the selected mini-batch. In this case, the learning by the third processing learning unit 1222 is not performed. In both cases of S1452 and S1453, at the end of learning, the learned parameters are stored in the parameter storage unit 921.

ステップS146では、学習データ振分部1223は、選択したミニバッチの次のミニバッチを選択する。もし、ミニバッチがあれば、S1451に戻って、そのミニバッチの学習を行う。もし、ミニバッチがない場合、すなわち最後のミニバッチの学習が終わった場合はS147に進む。   In step S146, the learning data distribution unit 1223 selects a mini-batch next to the selected mini-batch. If there is a mini-batch, the process returns to S1451, and learning of the mini-batch is performed. If there is no mini-batch, that is, if learning of the last mini-batch has been completed, the process proceeds to S147.

ステップS147では、学習データ振分部1223は、最後に学習した学習済みパラメータを、パラメータ設定部713に渡して、第二処理部711の第二の処理のネットワーク、および第三処理部1211の第三の処理のネットワークを更新する。なお、ここではS147の処理を再学習の最後に行ったが、S1452およびS1453の後に毎回行う構成としてもよい。   In step S147, the learning data distribution unit 1223 passes the learned parameter learned last to the parameter setting unit 713, and transmits the second processing network of the second processing unit 711 and the third processing unit 1211 of the third processing unit 1211. Update the network of the third process. Here, the process of S147 is performed at the end of the re-learning, but may be performed every time after S1452 and S1453.

以上説明したとおり第8実施形態によれば、時間と共に通信路23の帯域が変化する場合であっても、効率よく学習を行うことが可能となる。   As described above, according to the eighth embodiment, learning can be efficiently performed even when the band of the communication path 23 changes with time.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

2 システム; 21 第一の筐体; 22 第二の筐体; 23 通信路; 211 通信部; 221 通信部; 214 第一処理部; 215 データ転送制御部; 222 帯域推定部; 223 第二処理学習部; 2231 ドロップアウト率決定部   2 System; 21 First case; 22 Second case; 23 Communication path; 211 Communication unit; 221 Communication unit; 214 First processing unit; 215 Data transfer control unit; 222 Band estimation unit; Learning unit: 2231 Dropout rate determination unit

Claims (10)

L層のニューラルネットワーク(NN)を用いる画像処理システムであって、
L層のうちの前段のM層のNNを用いて第1の処理を行う第1の処理手段と、
L層のうちの後段の(L−M)層のNNを用いて第2の処理を行う第2の処理手段と、
前記第1の処理手段の出力層からの出力値に基づいて、前記第1の処理手段の出力層の各ノードから前記第2の処理手段の入力層の各ノードへの結合係数を含むパラメータを学習する学習手段と、
前記第1の処理手段と前記学習手段との間の通信帯域に応じて、前記第1の処理手段の出力層の各ノードの中から前記学習手段への出力値の送信を抑止するドロップアウトノードを決定する決定手段と、
を有し、
前記第1の処理手段は、前記決定手段により決定されたドロップアウトノードを除く前記第1の処理手段の出力層の各ノードからの出力値を前記学習手段に送信する
ことを特徴とする画像処理システム。
An image processing system using an L-layer neural network (NN),
First processing means for performing a first process using the NN of the preceding M layer of the L layer;
A second processing unit that performs the second processing using the NN of the subsequent (LM) layer of the L layer;
A parameter including a coupling coefficient from each node of the output layer of the first processing unit to each node of the input layer of the second processing unit based on an output value from the output layer of the first processing unit. Learning means to learn,
A drop-out node for suppressing transmission of an output value from each node in an output layer of the first processing means to the learning means in accordance with a communication band between the first processing means and the learning means Determining means for determining
Has,
The image processing apparatus according to claim 1, wherein the first processing unit transmits to the learning unit an output value from each node of the output layer of the first processing unit excluding the dropout node determined by the determining unit. system.
前記決定手段は、前記第1の処理手段と前記学習手段との間の通信帯域に応じて、前記第1の処理手段の出力層におけるドロップアウト率を決定し、該ドロップアウト率に基づいて前記ドロップアウトノードを決定する
ことを特徴とする請求項1に記載の画像処理システム。
The determining means determines a dropout rate in an output layer of the first processing means according to a communication band between the first processing means and the learning means, and determines the dropout rate based on the dropout rate. The image processing system according to claim 1, wherein a dropout node is determined.
前記第1の処理手段から前記学習手段に送信されるデータ量は、前記第1の処理手段で用いられるM層のNNの各層間で送信される何れのデータ量よりも少ない
ことを特徴とする請求項1又は2に記載の画像処理システム。
The data amount transmitted from the first processing unit to the learning unit is smaller than any data amount transmitted between the M layers of the NN used in the first processing unit. The image processing system according to claim 1.
前記決定手段は、前記第1の処理手段の出力層の全ノード数に対する前記ドロップアウトノードの数が前記ドロップアウト率以上となるように、前記ドロップアウトノードを決定する
ことを特徴とする請求項2に記載の画像処理システム。
2. The method according to claim 1, wherein the determining unit determines the dropout node such that the number of the dropout nodes with respect to the total number of nodes in the output layer of the first processing unit is equal to or greater than the dropout rate. 3. The image processing system according to 2.
前記第1の処理手段におけるM層のNNは畳み込みフィルタ演算を行い、
前記第2の処理手段における(L−M)層のNNは全結合演算を行う
ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理システム。
The NN of the M layer in the first processing means performs a convolution filter operation,
5. The image processing system according to claim 1, wherein the NN of the (LM) layer in the second processing unit performs a full connection operation. 6.
前記第1の処理手段は第1の装置に配置され、
前記学習手段は前記第1の装置とは異なる第2の装置に配置され、
前記第1の装置と前記第2の装置とは通信ネットワークを介して相互に通信可能に接続されている
ことを特徴とする請求項1乃至5の何れか1項に記載の画像処理システム。
The first processing means is disposed in a first device;
The learning means is arranged in a second device different from the first device,
The image processing system according to claim 1, wherein the first device and the second device are communicably connected to each other via a communication network.
前記第2の処理手段は、前記第1の装置に配置され、
前記第1の装置は、前記学習手段により学習されたパラメータを前記第2の処理手段の入力層の各ノードへ設定する設定手段を更に有する
ことを特徴とする請求項6に記載の画像処理システム。
The second processing means is disposed in the first device,
7. The image processing system according to claim 6, wherein the first device further includes a setting unit that sets a parameter learned by the learning unit to each node of an input layer of the second processing unit. .
前記第1の装置は、前記第2の処理手段による正しい処理結果を示す教師データを提供する提供手段を更に有し、
前記第2の装置は、
前記第1の処理手段の出力層の各ノードから送信された出力値を蓄積する第1の蓄積手段と、
前記学習手段による学習結果を蓄積する第2の蓄積手段と、
前記提供手段により提供された教師データに基づいて、前記第1の蓄積手段に蓄積された出力値に関連する教師データを修正し、前記学習手段に対して再学習を指示する指示手段と、
を更に有する
ことを特徴とする請求項6又は7に記載の画像処理システム。
The first device further includes providing means for providing teacher data indicating a correct processing result by the second processing means,
The second device comprises:
First storage means for storing output values transmitted from each node of the output layer of the first processing means;
A second storage unit for storing a learning result obtained by the learning unit;
Instruction means for correcting teacher data related to the output value stored in the first storage means based on the teacher data provided by the providing means, and instructing the learning means to re-learn;
The image processing system according to claim 6, further comprising:
前記第2の蓄積手段における学習結果の保持期間は、前記第1の蓄積手段における出力値の保持期間よりも長い
ことを特徴とする請求項8に記載の画像処理システム。
9. The image processing system according to claim 8, wherein a holding period of the learning result in the second storage unit is longer than a holding period of the output value in the first storage unit.
前記通信帯域に応じて、前記Mの値を変更する変更手段を更に有する
ことを特徴とする請求項1乃至9の何れか1項に記載の画像処理システム。
The image processing system according to claim 1, further comprising a changing unit configured to change the value of M according to the communication band.
JP2018180937A 2018-09-26 2018-09-26 Image processing system Pending JP2020052689A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018180937A JP2020052689A (en) 2018-09-26 2018-09-26 Image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018180937A JP2020052689A (en) 2018-09-26 2018-09-26 Image processing system

Publications (1)

Publication Number Publication Date
JP2020052689A true JP2020052689A (en) 2020-04-02

Family

ID=69997208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018180937A Pending JP2020052689A (en) 2018-09-26 2018-09-26 Image processing system

Country Status (1)

Country Link
JP (1) JP2020052689A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111695421A (en) * 2020-04-30 2020-09-22 北京迈格威科技有限公司 Image recognition method and device and electronic equipment
KR102298708B1 (en) * 2020-06-15 2021-09-07 한국생산기술연구원 Method of inspecting defects present in the inspection object and apparatuses performing the same
WO2021210073A1 (en) * 2020-04-14 2021-10-21 楽天株式会社 Information processing device, information processing method, and program
JP2022179359A (en) * 2021-05-20 2022-12-02 アクタピオ,インコーポレイテッド Information processing method, information processor, and information processing program
WO2024034077A1 (en) * 2022-08-10 2024-02-15 日本電気株式会社 Learning system, learning method, and computer-readable medium
JP7482011B2 (en) 2020-12-04 2024-05-13 株式会社東芝 Information Processing System

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021210073A1 (en) * 2020-04-14 2021-10-21 楽天株式会社 Information processing device, information processing method, and program
JP6956920B1 (en) * 2020-04-14 2021-11-02 楽天グループ株式会社 Information processing equipment, information processing methods and programs
CN111695421A (en) * 2020-04-30 2020-09-22 北京迈格威科技有限公司 Image recognition method and device and electronic equipment
CN111695421B (en) * 2020-04-30 2023-09-22 北京迈格威科技有限公司 Image recognition method and device and electronic equipment
KR102298708B1 (en) * 2020-06-15 2021-09-07 한국생산기술연구원 Method of inspecting defects present in the inspection object and apparatuses performing the same
JP7482011B2 (en) 2020-12-04 2024-05-13 株式会社東芝 Information Processing System
JP2022179359A (en) * 2021-05-20 2022-12-02 アクタピオ,インコーポレイテッド Information processing method, information processor, and information processing program
JP7275350B2 (en) 2021-05-20 2023-05-17 アクタピオ,インコーポレイテッド Information processing method, information processing device, and information processing program
WO2024034077A1 (en) * 2022-08-10 2024-02-15 日本電気株式会社 Learning system, learning method, and computer-readable medium

Similar Documents

Publication Publication Date Title
JP2020052689A (en) Image processing system
JP2020524348A (en) Face image retrieval method and system, photographing device, and computer storage medium
WO2019138840A1 (en) Facial recognition device
JP7222209B2 (en) DEEP LEARNING NETWORK USED FOR EVENT DETECTION, TRAINING DEVICE AND METHOD FOR THE NETWORK
KR20200145827A (en) Facial feature extraction model learning method, facial feature extraction method, apparatus, device, and storage medium
CN110084113B (en) Living body detection method, living body detection device, living body detection system, server and readable storage medium
CN110956202A (en) Image training method, system, medium and intelligent device based on distributed learning
JP2018147172A (en) Abnormality detection device, abnormality detection method and program
WO2021098518A1 (en) Image adjustment method and apparatus, electronic device, and storage medium
US20110255590A1 (en) Data transmission apparatus and method, network data transmission system and method using the same
WO2019185981A1 (en) Generating or obtaining an updated neural network
CN112949702A (en) Network malicious encrypted traffic identification method and system
CN113066092A (en) Video object segmentation method and device and computer equipment
US20220345590A1 (en) Video analysis method, video analysis system, and information processing device
US11979660B2 (en) Camera analyzing images on basis of artificial intelligence, and operating method therefor
JP6767434B2 (en) Evaluation device and evaluation method
JP7403995B2 (en) Information processing device, control method and program
Youssef et al. A novel QoE model based on boosting support vector regression
JP5513960B2 (en) Image processing device
JP2021018477A (en) Information processing apparatus, information processing method, and program
CN116823869A (en) Background replacement method and electronic equipment
CN114661444A (en) Scheduling method, first computing node, second computing node and scheduling system
JP7122984B2 (en) Data synchronizer, in-vehicle system
JP6249794B2 (en) Bot determination device, bot determination method, and program
Agarwal et al. ANN-Based Scalable Video Encoding Method for Crime Surveillance-Intelligence of Things Applications

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113