JP6944201B2 - Electronic circuits, hardware components, edge processing systems, edge computing systems, identification methods, identification programs - Google Patents

Electronic circuits, hardware components, edge processing systems, edge computing systems, identification methods, identification programs Download PDF

Info

Publication number
JP6944201B2
JP6944201B2 JP2019087869A JP2019087869A JP6944201B2 JP 6944201 B2 JP6944201 B2 JP 6944201B2 JP 2019087869 A JP2019087869 A JP 2019087869A JP 2019087869 A JP2019087869 A JP 2019087869A JP 6944201 B2 JP6944201 B2 JP 6944201B2
Authority
JP
Japan
Prior art keywords
background
identification
electronic circuit
time
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019087869A
Other languages
Japanese (ja)
Other versions
JP2020184171A (en
Inventor
隆治 増井
隆治 増井
聡 山森
聡 山森
直樹 木虎
直樹 木虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hacarus
Original Assignee
Hacarus
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hacarus filed Critical Hacarus
Priority to JP2019087869A priority Critical patent/JP6944201B2/en
Publication of JP2020184171A publication Critical patent/JP2020184171A/en
Application granted granted Critical
Publication of JP6944201B2 publication Critical patent/JP6944201B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本開示は、電子回路等に関するものである。 The present disclosure relates to electronic circuits and the like.

近年「モノのインターネット」(IoT;Internet of Things)に関する技術の研究開発が進められている。例えば、下記の特許文献1は、エッジデバイスとエッジサーバとの間のデータ通信を適切に制御して、リアルタイム性の確保と全データのストレージとを両立させるエッジコンピューティングシステムを開示している。 In recent years, research and development of technologies related to the "Internet of Things" (IoT) have been promoted. For example, Patent Document 1 below discloses an edge computing system that appropriately controls data communication between an edge device and an edge server to achieve both real-time performance and storage of all data.

特開2018−195175号公報(2018年12月6日公開)Japanese Unexamined Patent Publication No. 2018-195175 (published on December 6, 2018)

上記従来の技術では、識別モデルを再学習させる場合、クラウドサーバで当該モデルを再学習させた後、動作環境に設置された端末に当該再学習済みのモデルを再度組み込む必要がある。しかし、動作環境とクラウドサーバとの間でデータを送受信させ、再学習させたモデルを再度端末に組み込む作業は工数が大きいという課題がある。 In the above-mentioned conventional technique, when the discriminative model is relearned, it is necessary to relearn the model on the cloud server and then re-incorporate the relearned model into the terminal installed in the operating environment. However, there is a problem that the work of transmitting and receiving data between the operating environment and the cloud server and re-embedding the relearned model in the terminal requires a large amount of man-hours.

本開示の一態様は、例えば、スタンドアロンでモデルの再学習を可能とする電子回路等を提供することを目的とする。 One aspect of the present disclosure is, for example, to provide an electronic circuit or the like that enables model re-learning in a stand-alone manner.

本開示の一態様に係る電子回路は、定点で記録された時系列データをデータ記録装置から入力として取得する取得部と、時系列データを構成する複数のデータにおいて不変の位置にそれぞれ出現する基準パターンを、記憶部に格納された学習済みモデルを用いて推定する推定部と、推定された基準パターンを基準として、複数のデータにおいて異なる位置にそれぞれ出現する識別パターンを識別し、識別した結果を出力する識別部と、識別環境の変化に追随するように基準パターンを再度推定するために、取得された時系列データの少なくとも一部を用いて、学習済みモデルを再学習する再学習部とを備えている。 The electronic circuit according to one aspect of the present disclosure includes an acquisition unit that acquires time-series data recorded at a fixed point as input from a data recording device, and a reference that appears at an invariant position in a plurality of data constituting the time-series data. The estimation unit that estimates the pattern using the trained model stored in the storage unit and the identification pattern that appears at different positions in a plurality of data are identified based on the estimated reference pattern, and the identification result is obtained. An output identification unit and a re-learning unit that retrains a trained model using at least a part of the acquired time series data in order to re-estimate the reference pattern so as to follow changes in the identification environment. I have.

本開示の一態様に係る識別方法は、定点で記録された時系列データをデータ記録装置から入力として取得する取得工程と、時系列データを構成する複数のデータにおいて不変の位置にそれぞれ出現する基準パターンを、記憶部に格納された学習済みモデルを用いて推定する推定工程と、推定された基準パターンを基準として、複数のデータにおいて異なる位置にそれぞれ出現する識別パターンを識別し、識別した結果を出力する識別工程と、識別環境の変化に追随するように基準パターンを再度推定するために、取得された時系列データの少なくとも一部を用いて、学習済みモデルを再学習する再学習工程とを含み、電子回路が実行する。 The identification method according to one aspect of the present disclosure includes an acquisition process of acquiring time-series data recorded at a fixed point as input from a data recording device, and a reference that appears at an invariant position in a plurality of data constituting the time-series data. Based on the estimation process that estimates the pattern using the trained model stored in the storage unit and the estimated reference pattern, the identification patterns that appear at different positions in multiple data are identified, and the identified results are obtained. The output identification process and the re-learning process of retraining the trained model using at least part of the acquired time series data to re-estimate the reference pattern to follow changes in the identification environment. Including, the electronic circuit executes.

本開示の一態様に係る識別プログラムは、定点で記録された時系列データをデータ記録装置から入力として取得する取得機能と、前記時系列データを構成する複数のデータにおいて不変の位置にそれぞれ出現する基準パターンを、記憶部に格納された学習済みモデルを用いて推定する推定機能と、前記推定された基準パターンを基準として、前記複数のデータにおいて異なる位置にそれぞれ出現する識別パターンを識別し、当該識別した結果を出力する識別機能と、識別環境の変化に追随するように前記基準パターンを再度推定するために、前記取得された時系列データの少なくとも一部を用いて、前記学習済みモデルを再学習する再学習機能とを、コンピュータに実現させる。 The identification program according to one aspect of the present disclosure has an acquisition function for acquiring time-series data recorded at a fixed point as input from a data recording device, and appears at invariant positions in a plurality of data constituting the time-series data. Based on the estimation function that estimates the reference pattern using the trained model stored in the storage unit and the estimated reference pattern, the identification patterns that appear at different positions in the plurality of data are identified and the said. The trained model is re-learned using at least a portion of the acquired time-series data in order to re-estimate the reference pattern to follow changes in the identification environment with an identification function that outputs the identification results. Realize the re-learning function to learn on the computer.

実施形態1に係るエッジコンピューティングシステムの構成例を示す模式図である。It is a schematic diagram which shows the configuration example of the edge computing system which concerns on Embodiment 1. FIG. 第1の実施の形態に係る電子回路およびカメラの要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part structure of the electronic circuit and the camera which concerns on 1st Embodiment. 上記電子回路が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process executed by the said electronic circuit. 第2の実施の形態に係るエッジコンピューティングシステムの構成例を示す模式図である。It is a schematic diagram which shows the configuration example of the edge computing system which concerns on 2nd Embodiment. 第2の実施の形態に係るエッジ端末およびカメラの要部構成の一例を示すブロック図である。It is a block diagram which shows an example of the main part structure of the edge terminal and the camera which concerns on 2nd Embodiment.

〔実施形態1〕
図1〜図3に基づいて、実施形態1を説明する。
[Embodiment 1]
The first embodiment will be described with reference to FIGS. 1 to 3.

(電子回路の概要)
図1に基づいて、実施形態1に係る電子回路1aの概要を説明する。なお、実施形態1においては、製品の製造工程において当該製品を撮影した動画(時系列画像)から、不良品を識別するタスクに対して電子回路1aを適用した場合を例として、その動作等を説明する。
(Outline of electronic circuit)
An outline of the electronic circuit 1a according to the first embodiment will be described with reference to FIG. In the first embodiment, the operation and the like are shown by taking as an example the case where the electronic circuit 1a is applied to the task of identifying a defective product from a moving image (time series image) of the product taken in the manufacturing process of the product. explain.

図1は、エッジコンピューティングシステム4aの構成例を示す模式図である。図1に例示されるように、エッジコンピューティングシステム4aは、例えば、監視対象を定点で動画撮影するカメラ2と、当該監視対象である製造ライン3aとを含むシステムである。 FIG. 1 is a schematic diagram showing a configuration example of an edge computing system 4a. As illustrated in FIG. 1, the edge computing system 4a is, for example, a system including a camera 2 that captures a moving image of a monitored object at a fixed point and a production line 3a that is the monitored object.

カメラ2は、電子回路1aを備えている。ここで、電子回路1aは、製造ライン3aで製造された製品5aが不良品であるか否かを、動画から識別するように設計されたハードウェアである。電子回路1aは、当該動画を構成する時系列画像を入力として順次取得し、当該電子回路1aに実装された複数の機能モジュールでこれらを処理することによって識別結果を出力する。 The camera 2 includes an electronic circuit 1a. Here, the electronic circuit 1a is hardware designed to identify whether or not the product 5a manufactured on the production line 3a is a defective product from a moving image. The electronic circuit 1a sequentially acquires time-series images constituting the moving image as input, and outputs an identification result by processing these with a plurality of functional modules mounted on the electronic circuit 1a.

識別対象である製品5aは、監視エリア(カメラ2が動画撮影できる範囲)内を移動しているため、各画像において製品5aが写る位置はそれぞれ異なる。一方で、非識別対象である背景は静止しているため、各画像において背景が写る位置は略同じである。 Since the product 5a to be identified moves within the monitoring area (the range in which the camera 2 can shoot a moving image), the position where the product 5a appears in each image is different. On the other hand, since the background to be non-identified is stationary, the position where the background appears in each image is substantially the same.

ただし、背景を写す各画像の性質(例えば、輝度・色彩など)に差異が生じる場合、当該差異が識別精度の悪化を招くことがある。例えば、動画の撮影条件が異なることにより、開発環境で学習に用いた学習用画像の性質と、識別環境で実際に得られる識別用画像の性質とに差異がある場合、当該識別の精度が悪化する。また、動画の撮影中に識別環境が変化(例えば、照明による明度・陰影の変化、当該動画を撮影するカメラに生じた振動など)した場合、当該動画を構成する各画像の性質に差異が生まれるため、やはり識別の精度が悪化する。 However, if there is a difference in the properties (for example, brightness, color, etc.) of each image that captures the background, the difference may cause deterioration of the identification accuracy. For example, if there is a difference between the properties of the learning image used for learning in the development environment and the properties of the identification image actually obtained in the identification environment due to different video shooting conditions, the accuracy of the identification deteriorates. do. In addition, if the identification environment changes during video recording (for example, changes in brightness / shadow due to lighting, vibration generated in the camera that shoots the video, etc.), the properties of each image that composes the video will differ. Therefore, the accuracy of identification also deteriorates.

したがって、電子回路1aは、識別環境の変化に追随するように各画像をキャリブレーションし、当該差異をキャンセルする必要がある。すなわち、当該識別環境で実際に得られる画像を用いて、モデルを再学習しなければならない。 Therefore, the electronic circuit 1a needs to calibrate each image so as to follow the change in the identification environment and cancel the difference. That is, the model must be retrained using the images actually obtained in the identification environment.

そこで、電子回路1aは、まず各画像において静止している(不変の位置に現れる)領域を非識別対象である背景とみなし、学習済みモデルを用いて当該領域を推定する。次に、電子回路1aは、当該推定された領域を基準として、動きを伴う(異なる位置に現れる)領域を識別対象である製品5aとみなし、当該学習済みモデルを用いる方法とは異なる方法で当該製品5aを識別する(例えば、背景を推定するために用いるモデルとは異なるモデルを用いて推定するなど)。 Therefore, the electronic circuit 1a first considers a stationary region (appearing at an invariant position) in each image as a background to be a non-identification target, and estimates the region using a trained model. Next, the electronic circuit 1a regards the region with movement (appearing at a different position) as the product 5a to be identified based on the estimated region, and uses a method different from the method using the trained model. Identify product 5a (eg, estimate using a model different from the model used to estimate the background).

すなわち、電子回路1aは、背景(基準パターン)と製品(識別パターン)5aとを分離し、モデルを用いた学習・推定の対象を静的な背景に限定することによって、当該学習・推定に必要となる入力情報を絞り込む。これにより、当該学習・推定に必要となる計算負荷を小さくできる。したがって、電子回路1aは、背景の推定とモデルの再学習とを両立できる。 That is, the electronic circuit 1a is necessary for the learning / estimation by separating the background (reference pattern) and the product (identification pattern) 5a and limiting the target of learning / estimation using the model to the static background. Narrow down the input information that becomes. As a result, the calculation load required for the learning / estimation can be reduced. Therefore, the electronic circuit 1a can both estimate the background and relearn the model.

言い換えれば、電子回路1aは、その計算資源が貧弱であっても、識別環境において当該電子回路1aのみ(スタンドアロン)でモデルを再学習することができる。したがって、再学習に必要となる作業工数をかけることなく、実環境においてもモデルの性能を高く保つことができる。 In other words, the electronic circuit 1a can relearn the model only by the electronic circuit 1a (standalone) in the identification environment even if its computational resources are poor. Therefore, the performance of the model can be kept high even in the actual environment without spending the work man-hours required for re-learning.

また、計算負荷が小さいため、電子回路1aは低電力で動作できる。そのため、電子回路1aは、カメラ2だけでなく、例えば、ルータ、ドローン、産業機器など、多様なデバイスに容易に組み込まれ得る。 Further, since the calculation load is small, the electronic circuit 1a can operate with low power. Therefore, the electronic circuit 1a can be easily incorporated not only in the camera 2 but also in various devices such as routers, drones, and industrial devices.

なお、エッジコンピューティングシステム4aの構成は、図1に例示される構成に限定されない。当該エッジコンピューティングシステム4aは、例えば、カメラ2から識別結果を受信するコンピュータをさらに含んでよい。 The configuration of the edge computing system 4a is not limited to the configuration illustrated in FIG. The edge computing system 4a may further include, for example, a computer that receives the identification result from the camera 2.

(電子回路およびカメラの構成)
図2に基づいて、電子回路1aおよびカメラ2の構成の一例を説明する。図2は、電子回路1aおよびカメラ2の要部構成の一例を示すブロック図である。
(Electronic circuit and camera configuration)
An example of the configuration of the electronic circuit 1a and the camera 2 will be described with reference to FIG. FIG. 2 is a block diagram showing an example of the main configuration of the electronic circuit 1a and the camera 2.

最初に、電子回路1aの構成を説明する。電子回路1aは、定点で記録された動画(時系列データ)6から製品(パターン)5aを識別する回路である。電子回路1aは、例えば、所定のインターフェースを備えたハードウェアコンポーネントとして実現され得る。あるいは、プログラマブルロジックデバイス(programmable logic device;PLD)などの回路によっても実現され得る。この場合、例えば、PLDとしてフィールド・プログラマブルゲートアレイ(field-programmable gate array;FPGA)が用いられてよい。なお、電子回路1aを実現する具体的な構成は、これらの例に限定されない。 First, the configuration of the electronic circuit 1a will be described. The electronic circuit 1a is a circuit that identifies a product (pattern) 5a from a moving image (time series data) 6 recorded at a fixed point. The electronic circuit 1a can be realized, for example, as a hardware component having a predetermined interface. Alternatively, it can be realized by a circuit such as a programmable logic device (PLD). In this case, for example, a field-programmable gate array (FPGA) may be used as the PLD. The specific configuration for realizing the electronic circuit 1a is not limited to these examples.

図2に例示されるように、電子回路1aは、例えば、取得部11、推定部12、識別部13、判定部14、再学習部15、および記憶部16を備えることができる。また、電子回路1aは、例えば、比較部、特定部などをさらに含んでもよい。 As illustrated in FIG. 2, the electronic circuit 1a can include, for example, an acquisition unit 11, an estimation unit 12, an identification unit 13, a determination unit 14, a relearning unit 15, and a storage unit 16. Further, the electronic circuit 1a may further include, for example, a comparison unit, a specific unit, and the like.

取得部11は、カメラ2から動画6を入力として取得する。例えば、取得部11は、動画6を構成する複数の画像(データ)7を実時間で取得し、当該取得した画像7aを推定部12に順次出力できる。 The acquisition unit 11 acquires the moving image 6 as an input from the camera 2. For example, the acquisition unit 11 can acquire a plurality of images (data) 7 constituting the moving image 6 in real time, and can sequentially output the acquired images 7a to the estimation unit 12.

また、取得部11は、例えば、前回の背景が推定された時間から、次の背景が推定された時間までに取得した画像から、学習済みモデル9の再学習に用いる再学習用画像(再学習用データ)7bをサンプリングできる。この場合、取得部11は、再学習用画像7bを再学習部15に出力する。さらに、取得部11は、例えば、各画像に含まれる情報量を、背景の推定と製品5aの識別とに応じて変更できる。 Further, for example, the acquisition unit 11 relearns an image (re-learning) used for re-learning the trained model 9 from an image acquired from the time when the previous background was estimated to the time when the next background is estimated. Data) 7b can be sampled. In this case, the acquisition unit 11 outputs the re-learning image 7b to the re-learning unit 15. Further, the acquisition unit 11 can change, for example, the amount of information contained in each image according to the estimation of the background and the identification of the product 5a.

推定部12は、動画6を構成する複数の画像7aにおいて不変の位置にそれぞれ出現する背景を、記憶部16に格納された学習済みモデル9を用いて推定する。推定部12は、当該推定した結果を推定結果8aとして識別部13に出力する。 The estimation unit 12 estimates the backgrounds appearing at invariant positions in the plurality of images 7a constituting the moving image 6 by using the trained model 9 stored in the storage unit 16. The estimation unit 12 outputs the estimated result as an estimation result 8a to the identification unit 13.

また、推定部12は、例えば、学習済みモデル9が再学習された場合、当該再学習された学習済みモデル9を用いて背景を再度推定できる。さらに、推定部12は、例えば、学習済みモデル9を用いて、識別環境の変化をキャンセルするように、各画像をそれぞれキャリブレーションすることによって背景を設定できる。 Further, for example, when the trained model 9 is relearned, the estimation unit 12 can re-estimate the background using the retrained trained model 9. Further, the estimation unit 12 can set the background by calibrating each image so as to cancel the change in the identification environment by using, for example, the trained model 9.

識別部13は、推定された背景を基準として、複数の画像において異なる位置にそれぞれ出現する製品5aを識別し、当該識別した結果を出力する。識別部13は、当該識別した結果を識別結果8bとして、判定部14および送信部22に出力できる。 The identification unit 13 identifies the products 5a that appear at different positions in the plurality of images based on the estimated background, and outputs the identified results. The identification unit 13 can output the identified result as the identification result 8b to the determination unit 14 and the transmission unit 22.

また、識別部13は、例えば、再度推定された背景を基準として製品5aを再度識別し、当該再度識別した結果を出力できる。さらに、識別部13は、例えば、記憶部16に格納された時系列の変化を予測可能な予測モデルを用いて、監視エリアを移動する製品5aを追跡し、当該製品5aを識別できる。 Further, the identification unit 13 can, for example, re-identify the product 5a with reference to the re-estimated background, and output the re-identified result. Further, the identification unit 13 can track the product 5a moving in the monitoring area and identify the product 5a by using, for example, a prediction model that can predict the change of the time series stored in the storage unit 16.

判定部14は、背景の再学習の要否を判定する。判定部14は、当該判定した結果を判定結果8cとして再学習部15に出力する。 The determination unit 14 determines the necessity of re-learning the background. The determination unit 14 outputs the determination result as the determination result 8c to the relearning unit 15.

再学習部15は、識別環境の変化に追随するように背景を再度推定するために、上記取得された動画の少なくとも一部を用いて、学習済みモデル9を再学習する。なお、再学習部15は、判定部14によって再学習が必要と判定された場合のみ、学習済みモデル9を再学習してもよい。 The re-learning unit 15 re-learns the trained model 9 using at least a part of the acquired moving image in order to re-estimate the background so as to follow the change in the identification environment. The re-learning unit 15 may relearn the trained model 9 only when the determination unit 14 determines that re-learning is necessary.

記憶部16は、任意の記録媒体によって構成される記憶モジュールであり、学習済みモデル9を格納している。なお、図2は、電子回路1aが記憶部16を備えた構成を例示している。しかし、記憶部16は、電子回路1aと通信可能に接続された外部の記憶装置であってもよい。 The storage unit 16 is a storage module composed of an arbitrary recording medium, and stores the learned model 9. Note that FIG. 2 illustrates a configuration in which the electronic circuit 1a includes the storage unit 16. However, the storage unit 16 may be an external storage device communicatively connected to the electronic circuit 1a.

比較部は、第1の時間において推定された第1の背景と、第2の時間において推定された第2の背景とを比較できる。この場合、判定部14は、例えば、当該比較によって得られる差分の累積が所定の条件を満たすか否かを確認することによって、再学習の要否を判定できる。 The comparison unit can compare the first background estimated at the first time with the second background estimated at the second time. In this case, the determination unit 14 can determine the necessity of re-learning by, for example, confirming whether or not the cumulative difference obtained by the comparison satisfies a predetermined condition.

特定部は、第3の時間において推定された第3の背景と、第4の時間において取得された画像との差異を特定できる。この場合、識別部13は、例えば、当該第3の背景を基準とした製品5aの識別を、当該特定された差異に対して実行する。そして、識別部13は、当該識別の結果を識別結果8bとして判定部14に出力する。 The identification unit can identify the difference between the third background estimated at the third time and the image acquired at the fourth time. In this case, the identification unit 13 executes identification of the product 5a based on the third background, for example, with respect to the identified difference. Then, the identification unit 13 outputs the identification result as the identification result 8b to the determination unit 14.

次に、カメラ(データ記録装置、エッジ端末)2の構成を説明する。カメラ2は、画像の発生源であるデータ環境としての製造ライン(監視対象)3aを定点から動画撮影する装置である。カメラ2は、電子回路1a、入力インターフェース21、記録部21、送信部22、および通信インターフェース23を備えている。 Next, the configuration of the camera (data recording device, edge terminal) 2 will be described. The camera 2 is a device that captures a moving image of a production line (monitoring target) 3a as a data environment that is a source of an image from a fixed point. The camera 2 includes an electronic circuit 1a, an input interface 21, a recording unit 21, a transmitting unit 22, and a communication interface 23.

入力インターフェース21は、カメラ2が識別環境の動画を撮影するために、当該識別環境の情報を取り込む接点である。入力インターフェース21は、例えば、任意の回路で構成できる。 The input interface 21 is a contact point for the camera 2 to take in information on the identification environment in order to shoot a moving image of the identification environment. Input interface 21 may, for example, can be constituted by a circuit arbitrary.

記録部21は、動画6を記録し、当該動画6を電子回路1aに入力として与える。これにより、取得部11は、カメラ2から動画6を入力として取得できる。 The recording unit 21 records the moving image 6 and gives the moving image 6 to the electronic circuit 1a as an input. As a result, the acquisition unit 11 can acquire the moving image 6 as an input from the camera 2.

送信部22は、識別部13から入力された識別結果8bを、通信インターフェース23に出力する。 The transmission unit 22 outputs the identification result 8b input from the identification unit 13 to the communication interface 23.

通信インターフェース23は、所定の通信方式にしたがう通信網を介して外部と通信し、送信部22から入力された識別結果8bを、外部のコンピュータに送信する。通信インターフェース23は、外部の機器と通信可能とする本質的な機能を備えてさえいればよく、通信回線、通信方式、または通信媒体などは限定されない。 The communication interface 23 communicates with the outside via a communication network according to a predetermined communication method, and transmits the identification result 8b input from the transmission unit 22 to the external computer. The communication interface 23 only needs to have an essential function of enabling communication with an external device, and the communication line, communication method, communication medium, and the like are not limited.

(モデルの学習方法)
電子回路1a(再学習部15)が、モデルを学習する方法の一例を説明する。
(Model learning method)
An example of a method in which the electronic circuit 1a (re-learning unit 15) learns a model will be described.

学習済みモデル9は、背景を推定可能なモデルでありさえすれば、その種類は限定されない。ここで、学習モデル9は、学習・推定に必要となる計算コストが少ないモデルであれば好ましい。前述したように、当該モデルの再学習が容易となるためである。 The type of the trained model 9 is not limited as long as it is a model whose background can be estimated. Here, the learning model 9 is preferable as long as it is a model with a low calculation cost required for learning / estimation. This is because, as described above, the model can be easily retrained.

特に、各画像において背景が写る位置は略同じであり、かつ、当該背景を写す画像の変化(識別環境の変化に伴って生じる、当該背景を写す各画像の性質の差異)を表現することが重要であることを踏まえれば、当該変化に焦点を当てた特徴抽出により、少数の説明変数とパラメータとで背景を表現可能なモデルが好適である。 In particular, the position where the background is reflected in each image is substantially the same, and the change in the image in which the background is reflected (difference in the properties of each image in which the background is reflected, which occurs due to the change in the identification environment) can be expressed. Given its importance, a model that can express the background with a small number of explanatory variables and parameters by feature extraction focusing on the change is preferable.

例えば、スパースモデリング(スパース性を利用した学習モデル)を用いて背景をモデル化し、当該モデルを学習することが好ましい。電子回路1aは、当該モデルの学習方法に、例えば、非負値行列因子分解(NMF;Non-negative Matrix Factorization)を用いてよい。当該学習方法によれば、事象に潜むスパース性を利用して情報を抽出できるため、電子回路1aは、当該事象の重要な側面の一つ(取得したい真の情報)を少数のデータから抽出できる。このように、学習・推定に必要となる計算コストが少ないモデルを採用することにより、電子回路1aは、当該モデルを実時間で再学習できる。 For example, it is preferable to model the background using sparse modeling (a learning model utilizing sparseness) and train the model. The electronic circuit 1a may use, for example, non-negative matrix factorization (NMF) as a learning method of the model. According to the learning method, information can be extracted by utilizing the sparsity hidden in the event, so that the electronic circuit 1a can extract one of the important aspects of the event (true information to be acquired) from a small amount of data. .. In this way, by adopting a model with a low calculation cost required for learning / estimation, the electronic circuit 1a can relearn the model in real time.

また、電子回路1aは、例えば、学習済みモデル9に含まれるパラメータのうち、再学習を要するパラメータのみを更新することによって、当該学習済みモデル9を部分的に再学習してもよい。 Further, the electronic circuit 1a may partially relearn the trained model 9 by updating only the parameters that require relearning among the parameters included in the trained model 9, for example.

例えば、非負値行列因子分解(NMF)が用いられる場合、電子回路1aは、背景辞書に含まれるパラメータのうち、画像において変化のあった箇所(すなわち、識別パターンとしての製品5a)に対応するパラメータのみを更新できる。 For example, when non-negative matrix factorization (NMF) is used, the electronic circuit 1a is a parameter included in the background dictionary that corresponds to a changed part in the image (that is, the product 5a as an identification pattern). Only can be updated.

また、電子回路1aは、例えば、製品5aが位置を変化させる速度に合わせて、学習済みモデル9を再学習する頻度を動的に変化させてもよい。具体的には、電子回路1aは、再学習用画像7bから時間方向にモード分解し、周波数成分を取り出すことによって、当該再学習用画像7bが変化する速度を計測する。これにより、背景が変化する速さと製品5aが変化する速さとを独立に得ることができる。 Further, the electronic circuit 1a may dynamically change the frequency of re-learning the trained model 9 according to, for example, the speed at which the product 5a changes its position. Specifically, the electronic circuit 1a measures the speed at which the re-learning image 7b changes by mode-decomposing the re-learning image 7b in the time direction and extracting a frequency component. As a result, the speed at which the background changes and the speed at which the product 5a changes can be obtained independently.

そして、電子回路1aは、当該製品5aが変化する速さに合わせて、再学習の頻度を動的に変化させることができる。これにより、例えば、製品5aが監視エリア内をゆっくり移動する場合など、動きが比較的小さい識別対象を識別する必要があるときに、当該識別対象を正確に識別できる。 Then, the electronic circuit 1a can dynamically change the frequency of re-learning according to the speed at which the product 5a changes. Thereby, when it is necessary to identify an identification target having a relatively small movement, for example, when the product 5a slowly moves in the monitoring area, the identification target can be accurately identified.

なお、上記で説明した具体的な学習方法はあくまで一例に過ぎず、これに限定されない。電子回路1aは、適用タスクに応じてさまざまな学習方法を用いることができる。 The specific learning method described above is merely an example, and is not limited to this. The electronic circuit 1a can use various learning methods depending on the applied task.

(再学習の要否の判定方法)
電子回路1a(判定部14)が、再学習の要否を判定する方法の一例を説明する。
(Method of determining the necessity of re-learning)
An example of a method in which the electronic circuit 1a (determination unit 14) determines the necessity of re-learning will be described.

電子回路1aは、例えば、次の2つの条件の少なくとも1つを満たした場合に、背景の再学習が必要であると判定する。なお、当該条件は下記の2つに限定されない。電子回路1aを適用する場面に応じて、適宜追加・変更が可能である。
(1)所定の時間が経過する前に、背景差分の累積が所定の閾値を超過した場合
(2)背景に含まれていた物体が変化した場合
The electronic circuit 1a determines that the background needs to be relearned, for example, when at least one of the following two conditions is satisfied. The conditions are not limited to the following two. Additions and changes can be made as appropriate according to the situation in which the electronic circuit 1a is applied.
(1) When the accumulation of background subtraction exceeds a predetermined threshold before the lapse of a predetermined time (2) When the object contained in the background changes

上記(1)は、例えば、背景に照射する日光が時間経過とともに変化する場合など、比較的ゆっくりと識別環境が変化する場合に相当する。 The above (1) corresponds to a case where the identification environment changes relatively slowly, for example, when the sunlight irradiating the background changes with the passage of time.

電子回路1aは、各画像において背景と推定された領域(背景領域)を、当該各画像から抽出する。次に、ある時間における第1の背景領域と、次の時間における第2の背景領域との差分(背景差分)を算出し、当該背景差分が所定の閾値を超過しているか否かを判定する。 The electronic circuit 1a extracts a region (background region) presumed to be the background in each image from each image. Next, the difference (background difference) between the first background area at a certain time and the second background area at the next time is calculated, and it is determined whether or not the background difference exceeds a predetermined threshold value. ..

超過している場合、電子回路1aは、再学習が必要と判定する。超過していない場合、電子回路1aは、第2の背景領域と、さらに次の時間における第3の背景領域との背景差分を算出し、前の背景差分と今回計算した背景差分との和(累積)を算出する。そして、当該累積が上記所定の閾値を超過しているか否かを判定する。 If it exceeds, the electronic circuit 1a determines that re-learning is necessary. If it does not exceed, the electronic circuit 1a calculates the background subtraction between the second background region and the third background region at the next time, and sums the previous background subtraction and the background subtraction calculated this time ( Cumulative) is calculated. Then, it is determined whether or not the accumulation exceeds the predetermined threshold value.

超過している場合、電子回路1a(判定部14)は、再学習が必要と判定する。超過していない場合、同様に累積を算出し、当該累積が上記所定の閾値を超過しているか否かを判定する。 If it exceeds the limit, the electronic circuit 1a (determination unit 14) determines that re-learning is necessary. If it does not exceed, the accumulation is calculated in the same manner, and it is determined whether or not the accumulation exceeds the predetermined threshold value.

なお、電子回路1aは、上記所定の時間が経過した後であれば、上記累積が所定の閾値を超過していなくても、再学習が必要と判定できる。また、所定の時間および所定の閾値は、電子回路1aを適用するタスクに応じて、適宜設定され得る。 The electronic circuit 1a can determine that re-learning is necessary after the lapse of the predetermined time, even if the cumulative total does not exceed the predetermined threshold value. Further, a predetermined time and a predetermined threshold value can be appropriately set according to the task of applying the electronic circuit 1a.

上記(2)は、例えば、人間によって製造ライン3に含まれる機器が変更されたり、駐輪していた自転車が風で倒れたりするなど、背景の一部として推定されていた物体に変化が生じた場合に相当する。 In (2) above, for example, the equipment included in the production line 3 is changed by a human being, or the bicycle parked on the bicycle falls down due to the wind, and the object estimated as a part of the background is changed. Corresponds to the case.

これは、上記(1)の場合において、上記所定の時間が経過する前に、上記累積が所定の閾値を突如超過した場合に相当する。すなわち、現在推定されている背景が、まったく異なる背景に変化した可能性があることを意味する。したがって、電子回路1aは再学習が必要と判定する。 This corresponds to the case where the cumulative total suddenly exceeds the predetermined threshold value before the predetermined time elapses in the case of the above (1). That is, it means that the currently estimated background may have changed to a completely different background. Therefore, the electronic circuit 1a determines that re-learning is necessary.

なお、上記で説明した具体的な判定方法はあくまで一例に過ぎず、これに限定されない。電子回路1aは、適用タスクに応じてさまざまな判定方法を用いることができる。 The specific determination method described above is merely an example, and is not limited to this. The electronic circuit 1a can use various determination methods depending on the application task.

(再学習用画像のサンプリング方法)
電子回路1a(取得部11)が、再学習用画像7bをサンプリングする方法の一例を説明する。
(Image sampling method for re-learning)
An example of a method in which the electronic circuit 1a (acquisition unit 11) samples the re-learning image 7b will be described.

電子回路1aは、再学習が必要と判定した場合、前回背景を学習した時間から現在までに取得された画像の全部または一部を用いて、学習済みモデル9を再学習できる。 When the electronic circuit 1a determines that re-learning is necessary, the electronic circuit 1a can re-learn the trained model 9 by using all or a part of the images acquired from the time when the background was learned last time to the present.

一部を用いる場合、電子回路1aは、例えば、当該複数の画像から所定数の画像をランダムにサンプリングし、当該サンプリングされた画像を再学習用画像7bとして再学習に用いることができる。これにより、電子回路1aは、再学習の計算負荷を軽減し、処理の実時間性を向上させることができる。なお、サンプリングする画像の数は、電子回路1aを適用するタスクに応じて、適宜設定され得る。 When a part is used, for example, the electronic circuit 1a can randomly sample a predetermined number of images from the plurality of images and use the sampled images as the re-learning image 7b for re-learning. As a result, the electronic circuit 1a can reduce the computational load of relearning and improve the real-time nature of processing. The number of images to be sampled can be appropriately set according to the task of applying the electronic circuit 1a.

上記のように、サンプリングによって再学習用画像7bを準備する場合、電子回路1aは、例えば、サンプリングされた画像の数で現在推定されている背景に重み付けし、当該重み付けされた背景とサンプリングされた画像とに基づいて、学習済みモデル9を再学習できる。これにより、現在推定されている背景および新たに取得された画像のみから、背景の微小変化を反映するように学習済みモデル9を再学習できる。 As described above, when the re-learning image 7b is prepared by sampling, the electronic circuit 1a weights the currently estimated background with, for example, the number of sampled images, and is sampled with the weighted background. The trained model 9 can be retrained based on the image. As a result, the trained model 9 can be retrained so as to reflect minute changes in the background from only the currently estimated background and the newly acquired image.

あるいは、サンプリングによって再学習用画像7bを用いる場合、電子回路1aは、例えば、サンプリングされた画像のうち、背景差分が閾値を超えた領域のみを用いて、学習済みモデル9を再学習できる。これにより、電子回路1aは、再学習の計算負荷を軽減し、処理の実時間性を向上させることができる。 Alternatively, when the re-learning image 7b is used by sampling, the electronic circuit 1a can relearn the trained model 9 by using, for example, only the region of the sampled image in which the background difference exceeds the threshold value. As a result, the electronic circuit 1a can reduce the computational load of relearning and improve the real-time nature of processing.

ここで、電子回路1aが、短時間のうちに取得された複数の画像を用いて、学習済みモデル9を再学習すると仮定する。この仮定のもとで、例えば、製造ライン3が一時的に停止した場合を想定すると、製品5aが監視エリア内で停止することにより、本来識別対象である当該製品5aも背景として学習されてしまうおそれが考えられる。 Here, it is assumed that the electronic circuit 1a retrains the trained model 9 using a plurality of images acquired in a short time. Under this assumption, for example, assuming that the production line 3 is temporarily stopped, the product 5a is stopped in the monitoring area, so that the product 5a, which is originally an identification target, is also learned as a background. There is a possibility.

したがって、停止した製品5aも識別したい場合、電子回路1aは、十分に長い時間のうちに取得された複数の画像を用いて学習済みモデル9を再学習することが好ましい。しかし、長い時間に含まれる画像は多数あるため、電子回路1aがすべての画像を用いてモデルを再学習すると、計算負荷が高くなるため処理の実時間性が損なわれるおそれが考えられる。 Therefore, if it is desired to identify the stopped product 5a as well, it is preferable that the electronic circuit 1a relearns the trained model 9 using a plurality of images acquired within a sufficiently long time. However, since there are many images included in a long time, if the electronic circuit 1a relearns the model using all the images, the calculation load becomes high and the real-time property of the processing may be impaired.

この問題を克服するためにも、上記サンプリングによる再学習が同様に有効である。これにより、電子回路1aは、背景の推定品質を維持したまま、実時間性を向上させることができる。 In order to overcome this problem, re-learning by the above sampling is also effective. As a result, the electronic circuit 1a can improve the real-time property while maintaining the estimated quality of the background.

なお、上記で説明した具体的なサンプリング方法はあくまで一例に過ぎず、これに限定されない。電子回路1aは、適用タスクに応じてさまざまなサンプリング方法を用いることができる。 The specific sampling method described above is merely an example, and is not limited to this. The electronic circuit 1a can use various sampling methods depending on the application task.

ここまで説明したとおり、電子回路1aは、例えば、学習用画像7bをサンプリングしたり、学習済みモデル9を部分的に再学習したり、再学習の頻度を動的に変化させたりすることにより、再学習の計算負荷を軽減し、処理の実時間性を向上させることができる。これにより、電子回路1aは、その計算資源が貧弱であっても、識別環境においてスタンドアロンで画像の背景を再学習できる。 As described above, the electronic circuit 1a may, for example, sample the training image 7b, partially relearn the trained model 9, or dynamically change the frequency of relearning. The computational load of re-learning can be reduced and the real-time processing can be improved. As a result, the electronic circuit 1a can relearn the background of the image standalone in the identification environment even if its computational resources are poor.

(背景の推定方法)
電子回路1a(推定部12)が、背景を推定する方法の一例を説明する。
(Background estimation method)
An example of a method in which the electronic circuit 1a (estimating unit 12) estimates the background will be described.

電子回路1aは、学習済みモデル9を用いて画像に写る背景を推定する。例えば、非負値行列因子分解(NMF)が用いられる場合、電子回路1aは、学習済みの基底関数(背景辞書)から当該画像の背景を推定結果として導出できる。また、電子回路1aは、例えば、複数の画像の画素ごとの平均値を背景の推定結果として導出できる。 The electronic circuit 1a estimates the background to appear in the image using the trained model 9. For example, when non-negative matrix factorization (NMF) is used, the electronic circuit 1a can derive the background of the image as an estimation result from the learned basis functions (background dictionary). Further, the electronic circuit 1a can derive, for example, an average value for each pixel of a plurality of images as a background estimation result.

なお、上記で説明した具体的な推定方法はあくまで一例に過ぎず、これに限定されない。電子回路1aは、適用タスクに応じてさまざまな推定方法を用いることができる。 The specific estimation method described above is merely an example, and is not limited to this. The electronic circuit 1a can use various estimation methods depending on the application task.

(識別パターンの識別方法)
電子回路1a(識別部13)が、製品5aを識別する方法の一例を説明する。
(Identification method of identification pattern)
An example of a method in which the electronic circuit 1a (identification unit 13) identifies the product 5a will be described.

電子回路1aは、例えば、現在推定されている背景と直近に取得された画像との二乗誤差を計算する。そして、所定の閾値より大きい誤差を持つ画素によって構成される領域を特定し、当該領域の面積が所定の面積より大きい場合、当該領域に識別対象である製品5aが存在する可能性が高いと判定する。なお、所定の閾値および所定の面積は、電子回路1aを適用するタスクに応じて、適宜設定され得る。 The electronic circuit 1a calculates, for example, the squared error between the currently estimated background and the most recently acquired image. Then, a region composed of pixels having an error larger than a predetermined threshold value is specified, and if the area of the region is larger than the predetermined area, it is determined that there is a high possibility that the product 5a to be identified exists in the region. do. The predetermined threshold value and the predetermined area can be appropriately set according to the task of applying the electronic circuit 1a.

次に、電子回路1aは、例えば、識別用モデルを用いて上記領域において製品5aを識別する。このとき、識別用モデルは、背景を推定するための学習済みモデル9とは異なるモデルであってよく、製品5aを識別可能となるように、あらかじめ学習されていてよい。また、電子回路1aは、当該識別用モデルを再学習しなくてもよいため、当該識別用モデルは学習済みモデル9より複雑なモデルであってもよい。 Next, the electronic circuit 1a identifies the product 5a in the above region using, for example, an identification model. At this time, the identification model may be a model different from the trained model 9 for estimating the background, and may be trained in advance so that the product 5a can be identified. Further, since the electronic circuit 1a does not have to relearn the identification model, the identification model may be a more complicated model than the trained model 9.

識別対象を事前に想定できない場合(すなわち、監視エリア内を移動している任意の物体を識別したい場合)は、上述のように、当該識別対象を識別可能とするモデルを構築できない。そこで、電子回路1aは、例えば、上記領域をそのまま識別対象とする。 When the identification target cannot be predicted in advance (that is, when it is desired to identify an arbitrary object moving in the monitoring area), as described above, a model capable of identifying the identification target cannot be constructed. Therefore, for example, the electronic circuit 1a sets the above-mentioned region as it is as an identification target.

一般に、製品5aを識別するだけであっても、各画像の全体に対する識別処理は計算負荷が高いため、実時間性が損なわれるおそれが考えられる。そこで、識別する領域を上記特定された領域に限定することによって、電子回路1aは、識別精度を維持したまま、実時間性を向上させることができる。 In general, even if only the product 5a is identified, the calculation load of the identification process for the entire image is high, so that the real-time property may be impaired. Therefore, by limiting the identification area to the specified area, the electronic circuit 1a can improve the real-time property while maintaining the identification accuracy.

なお、上記で説明した具体的な識別方法はあくまで一例に過ぎず、これに限定されない。電子回路1aは、適用タスクに応じてさまざまな識別方法を用いることができる。 The specific identification method described above is merely an example, and is not limited to this. The electronic circuit 1a can use various identification methods depending on the application task.

(識別パターンの追跡)
電子回路1a(識別部13)が、製品5aを追跡する方法の一例を説明する。
(Tracking of identification pattern)
An example of a method in which the electronic circuit 1a (identification unit 13) tracks the product 5a will be described.

電子回路1aは、製品5aを識別すると、時系列の変化を予測可能な予測モデルを用いて、製品5aを追跡できる。当該予測モデルは、例えば、カルマンフィルタ、パーティクルフィルタ、隠れマルコフモデルなど、隠れ変数の状態遷移を逐次的にベイズ推定するモデルであってよい。あるいは、一般化線形回帰、ニューラルネットワークなど、入力に対する出力を予測として推定するモデルであってもよい。 Once the product 5a is identified, the electronic circuit 1a can track the product 5a using a predictive model that can predict changes over time. The prediction model may be, for example, a Kalman filter, a particle filter, a hidden Markov model, or the like, which sequentially Bayesian estimates the state transitions of hidden variables. Alternatively, it may be a model that estimates the output for the input as a prediction, such as generalized linear regression or neural network.

電子回路1aは、ある時間において製品5aを識別すると、上記予測モデルを用いて次の時間で得られる画像における製品5aの位置を推定できる。電子回路1aは、例えば、製品5aを含む領域の画像を識別時に保存しておき、予測された位置の近傍に対してパターンマッチングを行うことによって、当該製品5aが移動した位置を得られる。 When the electronic circuit 1a identifies the product 5a at a certain time, the position of the product 5a in the image obtained at the next time can be estimated using the prediction model. The electronic circuit 1a can obtain a position where the product 5a has moved by, for example, storing an image of a region including the product 5a at the time of identification and performing pattern matching on the vicinity of the predicted position.

電子回路1aは、例えば、上記パターンマッチングで製品5aを検知できなかった場合、予測モデルの推定量をそのまま用いて、当該製品5aの移動位置とみなしてよい。そして、電子回路1aは、検知できない状態が所定の時間続いた場合、製品5aが監視エリアから外れたと判定できる。 For example, when the product 5a cannot be detected by the pattern matching, the electronic circuit 1a may use the estimated amount of the prediction model as it is and consider it as the moving position of the product 5a. Then, the electronic circuit 1a can determine that the product 5a is out of the monitoring area when the undetectable state continues for a predetermined time.

このように、製品5aを識別した後、予測モデルを用いて当該製品5aを追跡することにより、(例えば、外的要因によって識別精度が低下した場合であっても)識別に必要となる計算量を軽減して実時間性を高めながら、当該識別の精度を維持できる。 In this way, after identifying the product 5a, by tracking the product 5a using a prediction model, the amount of calculation required for identification (for example, even when the identification accuracy is lowered due to an external factor). The accuracy of the identification can be maintained while reducing the number of items and increasing the real-time property.

なお、上記で説明した具体的な追跡方法はあくまで一例に過ぎず、これに限定されない。電子回路1aは、適用タスクに応じてさまざまな追跡方法を用いることができる。 The specific tracking method described above is merely an example, and is not limited to this. The electronic circuit 1a can use various tracking methods depending on the applied task.

(情報量の変更方法)
電子回路1a(取得部11)が、画像の情報量を変更する方法の一例を説明する。
(How to change the amount of information)
An example of a method in which the electronic circuit 1a (acquisition unit 11) changes the amount of information in the image will be described.

一般に、高解像度の画像を用いる方が、低解像度の画像を用いるよりも、識別精度は高くなる。しかし、解像度が高くなるほど計算負荷も大きくなるため、実時間性が損なわれるおそれがある。 In general, the identification accuracy is higher when a high-resolution image is used than when a low-resolution image is used. However, the higher the resolution, the heavier the calculation load, which may impair the real-time property.

そこで、電子回路1aは、例えば、高解像度の画像と低解像度化した画像の2つを保持しておく。あるいは、電子回路1aは、画像を高解像度のまま取得し、当該取得した高解像度画像を低解像度化してもよい(すなわち、画像の情報量を変更できる)。このとき、電子回路1aは、低解像度化した画像を用いて背景を推定できる。そして、電子回路1aは、例えば、背景差分を算出することによって製品5aが存在すると判定された領域に対して、高解像度画像の同領域を参照し、当該製品5aを識別できる。 Therefore, the electronic circuit 1a holds, for example, a high-resolution image and a low-resolution image. Alternatively, the electronic circuit 1a may acquire the image in high resolution and reduce the resolution of the acquired high resolution image (that is, the amount of information in the image can be changed). At this time, the electronic circuit 1a can estimate the background using the low-resolution image. Then, the electronic circuit 1a can identify the product 5a by referring to the same region of the high-resolution image with respect to the region where the product 5a is determined to exist by calculating the background subtraction, for example.

このように、低解像度の画像を用いて粗く識別対象の場所を特定し、高解像度の画像の対応する領域のみから識別処理を実行することで、実時間性を損なうことなく高精度の識別を実現できる。画像の解像度(情報量)を変更する上記方法は、例えば、本実施の形態において説明する製品5aの異常検知など、微小な異常を短時間で検知する必要があるようなタスクに対して、特に有効である。 In this way, by roughly identifying the location of the identification target using the low-resolution image and executing the identification process only from the corresponding area of the high-resolution image, high-precision identification can be performed without impairing the real-time property. realizable. The above method of changing the image resolution (information amount) is particularly suitable for a task such as abnormality detection of the product 5a described in the present embodiment, in which a minute abnormality needs to be detected in a short time. It is valid.

なお、上記で説明した具体的な変更方法と、当該変更方法を用いた推定・識別の方法はあくまで一例に過ぎず、これに限定されない。電子回路1aは、適用タスクに応じてさまざまな方法を用いることができる。 The specific change method described above and the estimation / identification method using the change method are merely examples, and are not limited thereto. The electronic circuit 1a can use various methods depending on the application task.

(電子回路1aが実行する処理)
図3は、電子回路1aが実行する処理の一例を示すフローチャートである。なお、以下の説明において、カッコ書きの「〜工程」は、識別方法に含まれる各工程を表す。
(Process executed by electronic circuit 1a)
FIG. 3 is a flowchart showing an example of processing executed by the electronic circuit 1a. In the following description, the “-step” in parentheses represents each step included in the identification method.

まず、取得部11は、カメラ2から動画6を入力として取得する(ステップ1、以下「ステップ」を「S」と略記する。取得工程)。次に、推定部12は、動画6を構成する複数の画像において不変の位置にそれぞれ出現する背景を、記憶部16に格納された学習済みモデル9を用いて推定する(S2、推定工程)。 First, the acquisition unit 11 acquires the moving image 6 from the camera 2 as an input (step 1, hereinafter, "step" is abbreviated as "S". Acquisition step). Next, the estimation unit 12 estimates the backgrounds appearing at invariant positions in the plurality of images constituting the moving image 6 using the trained model 9 stored in the storage unit 16 (S2, estimation step).

そして、識別部13は、推定された背景を基準として、複数の画像において異なる位置にそれぞれ出現する製品5aを識別し、当該識別した結果を識別結果8bとして出力する(S3,識別工程)。最後に、識別環境の変化に追随するように背景を再度推定するために、取得された動画の少なくとも一部を用いて、学習済みモデル9を再学習する(S4、再学習工程)。 Then, the identification unit 13 identifies the products 5a appearing at different positions in the plurality of images based on the estimated background, and outputs the identified result as the identification result 8b (S3, identification step). Finally, the trained model 9 is retrained using at least a part of the acquired moving image in order to re-estimate the background so as to follow the change of the discrimination environment (S4, re-learning step).

電子回路1aは、全体の処理が終了したか否かを判定し(S5)、終了したと判定した場合は(S5においてYES)、全体の処理を終了させる。終了していないと判定した場合は(S5においてNO)、取得部11の処理を再度繰り返す。 The electronic circuit 1a determines whether or not the entire processing is completed (S5), and if it is determined that the entire processing is completed (YES in S5), the electronic circuit 1a ends the entire processing. If it is determined that the process has not been completed (NO in S5), the process of the acquisition unit 11 is repeated again.

なお、上記識別方法は、図3を参照して前述した上記処理だけでなく、電子回路1aに含まれる各部において実行される処理を任意に含んでよい。例えば、当該識別方法は、判定部、比較部、特定部が実行する処理を適宜含むことができる。 The identification method may optionally include not only the above-mentioned processing described above with reference to FIG. 3 but also processing executed in each part included in the electronic circuit 1a. For example, the identification method can appropriately include a process executed by a determination unit, a comparison unit, and a specific unit.

(電子回路が奏する効果)
電子回路1aは、その計算資源が貧弱であっても、識別環境においてスタンドアロンで画像の背景を再学習できるという効果を奏する。したがって、再学習に必要となる作業工数をかけることなく、実環境においてもモデルの性能を高く保つことができるという効果をさらに奏する。また、計算負荷が小さいため、電子回路1aを低電力で動作することができるという付加的な効果も奏する。なお、計算資源の貧弱なエッジ端末において、識別環境の変化に追随するように背景を再学習できる手法は、すべて本開示の範囲に含まれると推定できる。
(Effects of electronic circuits)
The electronic circuit 1a has an effect that the background of the image can be relearned standalone in the identification environment even if the computational resources are poor. Therefore, the effect that the performance of the model can be kept high even in the actual environment can be further achieved without spending the work man-hours required for re-learning. Further, since the calculation load is small, the electronic circuit 1a can be operated with low power, which is an additional effect. It can be presumed that all the methods that can relearn the background so as to follow the change of the identification environment in the edge terminal with poor computational resources are included in the scope of the present disclosure.

〔実施形態2〕
図4〜図5に基づいて、実施形態2を説明する。なお、実施形態2では、前述した実施形態1に追加される構成や、実施形態1の構成とは異なる構成のみを説明する。すなわち、実施形態1において記載された構成は、実施形態2にもすべて含まれ得る(逆も同様である)。また、実施形態1において記載された用語の定義は、実施形態2においても同じである。
[Embodiment 2]
The second embodiment will be described with reference to FIGS. 4 to 5. In the second embodiment, only the configuration added to the above-described first embodiment and the configuration different from the configuration of the first embodiment will be described. That is, all the configurations described in the first embodiment can be included in the second embodiment (and vice versa). Further, the definitions of the terms described in the first embodiment are the same in the second embodiment.

なお、実施形態2においては、駐車場を撮影した動画から自動車を識別することにより、当該駐車場の使用率(駐車可能な台数に対して、識別された自動車の台数が占める割合)を監視する場合を例として、電子回路等の動作等を説明する。 In the second embodiment, the usage rate of the parking lot (the ratio of the number of identified cars to the number of cars that can be parked) is monitored by identifying the car from the moving image of the parking lot. The operation of an electronic circuit or the like will be described by taking a case as an example.

(エッジ端末の概要)
図4に基づいて、本開示の一態様に係るエッジ端末1bの概要を説明する。図4は、エッジコンピューティングシステム4bの構成例を示す模式図である。図4に例示されるように、エッジコンピューティングシステム4bは、例えば、エッジ端末1bと、監視対象を定点で動画撮影するカメラ2と、当該監視対象である駐車場3bとを含むシステムである。なお、エッジ端末1bとカメラ2とは、通信可能に接続されており、カメラ2が撮影した動画が、エッジ端末1bの入力として与えられる。
(Overview of edge terminals)
An outline of the edge terminal 1b according to one aspect of the present disclosure will be described with reference to FIG. FIG. 4 is a schematic diagram showing a configuration example of the edge computing system 4b. As illustrated in FIG. 4, the edge computing system 4b is a system including, for example, an edge terminal 1b, a camera 2 that shoots a moving image of a monitoring target at a fixed point, and a parking lot 3b that is the monitoring target. The edge terminal 1b and the camera 2 are communicably connected, and a moving image taken by the camera 2 is given as an input of the edge terminal 1b.

エッジ端末1bは、電子回路1aと同様に、まず各画像において静止している領域(駐車場)を非識別対象である背景とみなし、学習済みモデルを用いて当該領域を推定する。次に、エッジ端末1bは、当該推定された領域を基準として、動きを伴う領域を識別対象である自動車5bとみなし、当該学習済みモデルを用いる方法とは異なる方法で当該自動車5bを識別する。 Similar to the electronic circuit 1a, the edge terminal 1b first considers a stationary region (parking lot) in each image as a background to be non-identified, and estimates the region using a trained model. Next, the edge terminal 1b regards the region with movement as the vehicle 5b to be identified with reference to the estimated region, and identifies the vehicle 5b by a method different from the method using the trained model.

すなわち、エッジ端末1bは、背景(基準パターン)と自動車(識別パターン)5bとを分離し、モデルを用いた学習・推定の対象を静的な背景に限定することによって、当該学習・推定に必要となる入力情報を絞り込む。これにより、当該学習・推定に必要となる計算コストを少なくできる。したがって、エッジ端末1bは、背景の推定と当該モデルの再学習とを両立できる。 That is, the edge terminal 1b is necessary for the learning / estimation by separating the background (reference pattern) and the automobile (identification pattern) 5b and limiting the target of learning / estimation using the model to the static background. Narrow down the input information that becomes. As a result, the calculation cost required for the learning / estimation can be reduced. Therefore, the edge terminal 1b can both estimate the background and relearn the model.

言い換えれば、エッジ端末1bは、その計算資源が貧弱であっても、識別環境においてスタンドアロンで画像の背景を再学習できる。したがって、再学習に必要となる作業工数をかけることなく、実環境においてもモデルの性能を高く保つことができる。 In other words, the edge terminal 1b can relearn the background of the image standalone in the identification environment even if its computational resources are poor. Therefore, the performance of the model can be kept high even in the actual environment without spending the work man-hours required for re-learning.

さらに言い換えれば、エッジ端末1bは、端末側で再学習した背景に基づいて、真に変化した画像エリア(自動車)を分離できるため、ノイズと環境変動に対する適応性・頑健性を高めることができる。 In other words, the edge terminal 1b can separate the truly changed image area (automobile) based on the background relearned on the terminal side, so that the adaptability and robustness to noise and environmental changes can be improved.

なお、エッジコンピューティングシステム4bの構成は、図4に例示される構成に限定されない。例えば、当該エッジコンピューティングシステム4bは、カメラ2から識別結果を受信するコンピュータをさらに含んでよい。 The configuration of the edge computing system 4b is not limited to the configuration illustrated in FIG. For example, the edge computing system 4b may further include a computer that receives the identification result from the camera 2.

(エッジ端末の構成)
図5に基づいて、エッジ端末1bの構成の一例を説明する。図5は、エッジ端末1bの要部構成の一例を示すブロック図である。エッジ端末1bは、定点で記録された動画6から自動車(識別パターン)5bを識別する情報処理装置である。エッジ端末1bは、識別プログラムを実行可能でありさえすれば具体的な機器は何であってもよい。
(Configuration of edge terminal)
An example of the configuration of the edge terminal 1b will be described with reference to FIG. FIG. 5 is a block diagram showing an example of a main part configuration of the edge terminal 1b. The edge terminal 1b is an information processing device that identifies an automobile (identification pattern) 5b from a moving image 6 recorded at a fixed point. The edge terminal 1b may be any specific device as long as it can execute the identification program.

ここで、上記識別プログラムは、電子回路1aが実現する機能と同様の機能を、エッジ端末1bに実現させるプログラムである。なお、当該識別プログラムは、例えば、メモリと、当該メモリに格納された1つ又は複数のプログラムを実行可能な、1つ又は複数のプロセッサとを備えた、マルチファンクションデバイス(例えば、コンピュータなど)において、特に好適に実行され得る。ただし、エッジ端末1bを実現する具体的な構成は、これらの例に限定されない。 Here, the identification program is a program that causes the edge terminal 1b to perform the same function as that realized by the electronic circuit 1a. The identification program is, for example, in a multifunction device (for example, a computer) including a memory and one or a plurality of processors capable of executing one or a plurality of programs stored in the memory. , Which can be carried out particularly favorably. However, the specific configuration for realizing the edge terminal 1b is not limited to these examples.

エッジ端末1bは、例えば、制御部10、送信部22、および通信インターフェース23を備えることができる。 The edge terminal 1b may include, for example, a control unit 10, a transmission unit 22, and a communication interface 23.

制御部10は、エッジ端末1bが有する各種機能を統括的に制御する。制御部10は、取得部11、推定部12、識別部13、判定部14、再学習部15、および記憶部16を含む。また、制御部10は、比較部および特定部をさらに含むことができる(比較部および特定部は不図示)。制御部10に含まれる各部の機能は、電子回路1aが備えた各部の機能とそれぞれ同じであるため、説明を省略する。また、エッジ端末1bが備えた送信部22および通信インターフェース23も、カメラ2が備えた各部の機能とそれぞれ同じであるため、説明を省略する。 The control unit 10 comprehensively controls various functions of the edge terminal 1b. The control unit 10 includes an acquisition unit 11, an estimation unit 12, an identification unit 13, a determination unit 14, a re-learning unit 15, and a storage unit 16. Further, the control unit 10 can further include a comparison unit and a specific unit (the comparison unit and the specific unit are not shown). Since the functions of the respective parts included in the control unit 10 are the same as the functions of the respective parts included in the electronic circuit 1a, the description thereof will be omitted. Further, since the transmission unit 22 and the communication interface 23 provided in the edge terminal 1b have the same functions as the functions of the respective units provided in the camera 2, the description thereof will be omitted.

(エッジ端末が奏する効果)
エッジ端末1bは、その計算資源が貧弱であっても、識別環境においてスタンドアロンで画像の背景を再学習できる。したがって、再学習に必要となる作業工数をかけることなく、実環境においてもモデルの性能を高く保つことができるという効果を奏する。
(Effects of edge terminals)
The edge terminal 1b can relearn the background of the image standalone in the identification environment even if its computational resources are poor. Therefore, there is an effect that the performance of the model can be kept high even in the actual environment without spending the work man-hours required for re-learning.

〔その他の実施形態〕
実施形態1において説明した不良品を識別するタスク、および実施形態2において説明した駐車場の使用率を算出するタスク以外のタスクにも、本開示は適用可能である。例えば、建造物等の外観検査、訪問者の統計、交通量の監視など、一般的な識別タスクに広く適用できる。
[Other Embodiments]
The present disclosure is also applicable to tasks other than the task of identifying defective products described in the first embodiment and the task of calculating the parking lot usage rate described in the second embodiment. For example, it can be widely applied to general identification tasks such as visual inspection of buildings, visitor statistics, and traffic monitoring.

例えば、電子回路1aをドローンに組み込み、当該ドローンで空撮した建物の画像から、クラック・浮き・剥がれ・汚れなどを検出し、補修が必要な箇所を特定することができる。 For example, the electronic circuit 1a can be incorporated into a drone, cracks, floats, peeling, dirt, etc. can be detected from an image of a building taken aerial by the drone, and a portion requiring repair can be specified.

また、本開示を実施することにより、例えば、大規模な商業施設、工場設備、不法侵入、機器の不具合、ショッピングモール、小売店、カフェ、イベントなど、多様な対象を監視できる。これにより、例えば、1日の任意の時間帯の顧客数に関する統計を自動的に生成し、管理者が訪問者数を分析し、予測することができる。 In addition, by implementing this disclosure, it is possible to monitor various targets such as large-scale commercial facilities, factory equipment, illegal intrusions, equipment malfunctions, shopping malls, retail stores, cafes, and events. This allows, for example, to automatically generate statistics on the number of customers at any time of the day, allowing the administrator to analyze and predict the number of visitors.

さらに、本開示は、音声認識・信号処理の分野においても実施可能である。すなわち、電子回路1aおよびエッジ端末1bは、例えば、マイクから音声を(時系列データ)を入力として取得し、当該音声を構成する複数の音素(すなわち、ゲイン・周波数などを含むデータ)において不変の位置にそれぞれ出現するバックグラウンドのサウンド(基準パターン)を、記憶部に格納された学習済みモデルを用いて推定し、当該推定されたバックグラウンドのサウンドを基準として、複数の音素において異なる位置にそれぞれ出現する特定の音声(識別パターン)を識別し、当該識別した結果を出力し、識別環境の変化に追随するようにバックグラウンドのサウンドを再度推定するために、当該取得された音声の少なくとも一部を用いて、当該学習済みモデルを再学習できる。 Furthermore, the present disclosure can also be implemented in the fields of voice recognition and signal processing. That is, the electronic circuit 1a and the edge terminal 1b, for example, acquire voice from a microphone (time-series data) as input, and are invariant in a plurality of phonemes (that is, data including gain, frequency, etc.) constituting the voice. The background sound (reference pattern) that appears at each position is estimated using the trained model stored in the storage unit, and the estimated background sound is used as a reference for different positions in multiple phonemes. At least a portion of the acquired speech in order to identify the particular speech (identification pattern) that appears, output the identified result, and re-estimate the background sound to follow changes in the identification environment. Can be used to retrain the trained model.

同様に、電子回路1aおよびエッジ端末1bは、例えば、制御装置から制御信号を(時系列データ)を入力として取得し、当該制御信号を構成する複数の信号(すなわち、トルク・振動などを含むデータ)において不変の位置にそれぞれ出現する標準信号(基準パターン)を、記憶部に格納された学習済みモデルを用いて推定し、当該推定された標準信号を基準として、複数の信号において異なる位置にそれぞれ出現する特定の信号(識別パターン)を識別し、当該識別した結果を出力し、識別環境の変化に追随するように標準信号を再度推定するために、当該取得された信号の少なくとも一部を用いて、当該学習済みモデルを再学習できる。 Similarly, the electronic circuit 1a and the edge terminal 1b acquire, for example, a control signal (time series data) from a control device as an input, and data including a plurality of signals (that is, torque, vibration, etc.) constituting the control signal. ), The standard signals (reference patterns) that appear at the invariant positions are estimated using the trained model stored in the storage unit, and the estimated standard signals are used as references at different positions in a plurality of signals. At least a portion of the acquired signal is used to identify the specific signal (identification pattern) that appears, output the identified result, and re-estimate the standard signal to follow changes in the identification environment. The trained model can be retrained.

〔ソフトウェアによる実現例〕
電子回路1aおよびエッジ端末1bの制御ブロックは、CPU(Central Processing Unit)などのコントローラを用いてソフトウェアによって実現してもよい。すなわち、電子回路1aおよびエッジ端末1bは、各機能を実現するソフトウェアである識別プログラムの命令を実行するCPU、上記識別プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記識別プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記識別プログラムを上記記録媒体から読み取って実行することにより、本開示の一態様に係る目的の一例が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記識別プログラムは、当該識別プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。本開示の一態様は、上記識別プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
[Example of realization by software]
The control block of the electronic circuit 1a and the edge terminal 1b may be realized by software using a controller such as a CPU (Central Processing Unit). That is, the electronic circuit 1a and the edge terminal 1b are a CPU that executes an instruction of an identification program that is software that realizes each function, and a ROM (Read) in which the identification program and various data are readablely recorded by a computer (or CPU). It is equipped with a Only Memory) or a storage device (these are referred to as "recording media"), a RAM (Random Access Memory) for developing the identification program, and the like. Then, when the computer (or CPU) reads the identification program from the recording medium and executes it, an example of the object according to one aspect of the present disclosure is achieved. As the recording medium, a "non-temporary tangible medium", for example, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, the identification program may be supplied to the computer via an arbitrary transmission medium (communication network, broadcast wave, etc.) capable of transmitting the identification program. One aspect of the present disclosure can also be realized in the form of a data signal embedded in a carrier wave, in which the identification program is embodied by electronic transmission.

具体的には、本開示の実施の形態に係る識別プログラムは、定点で記録された時系列データからパターンを識別する識別プログラムであって、コンピュータを、電子回路1aまたはエッジ端末1bが備えた各部として機能させるための識別プログラムとして実現され得る。 Specifically, the identification program according to the embodiment of the present disclosure is an identification program that identifies a pattern from time-series data recorded at a fixed point, and is provided with a computer in each part of the electronic circuit 1a or the edge terminal 1b. It can be realized as an identification program to function as.

なお、上記識別プログラムは、任意のプログラミング言語で実装できる。例えば、当該識別プログラムは、ActionScript、JavaScript(登録商標)などのスクリプト言語、Objective-C、Java(登録商標)などのオブジェクト指向プログラミング言語、HTML5などのマークアップ言語などを用いて実装できる。また、上記識別プログラムによって実現される各機能を実現する各部を備えた情報処理端末(例えば、電子回路1a、エッジ端末1b)と、上記各機能とは異なる残りの機能を実現する各部を備えたカメラ等とを含むエッジ処理システムおよびエッジコンピューティングシステムも、本開示の範疇に入る。 The identification program can be implemented in any programming language. For example, the identification program can be implemented using a script language such as ActionScript or JavaScript (registered trademark), an object-oriented programming language such as Objective-C or Java (registered trademark), or a markup language such as HTML5. Further, it is provided with an information processing terminal (for example, electronic circuit 1a, edge terminal 1b) having each part that realizes each function realized by the identification program, and each part that realizes the remaining functions different from each of the above functions. Edge processing systems and edge computing systems, including cameras and the like, also fall within the scope of this disclosure.

〔付記事項〕
本開示の一態様に係る電子回路において、前記推定部は、前記再学習された学習済みモデルを用いて、前記基準パターンを再度推定し、前記識別部は、前記再度推定された基準パターンを基準として、前記識別パターンを再度識別し、当該再度識別した結果を出力できる。
[Additional notes]
In the electronic circuit according to one aspect of the present disclosure, the estimation unit re-estimates the reference pattern using the re-learned trained model, and the identification unit uses the re-estimated reference pattern as a reference. As a result, the identification pattern can be re-identified and the re-identified result can be output.

本開示の一態様に係る電子回路は、前記基準パターンの再学習の要否を判定する判定部をさらに備え、前記再学習部は、前記再学習が必要と判定された場合、前記学習済みモデルを再学習できる。 The electronic circuit according to one aspect of the present disclosure further includes a determination unit that determines the necessity of re-learning of the reference pattern, and the re-learning unit determines that re-learning is necessary, the learned model. Can be relearned.

本開示の一態様に係る電子回路は、第1の時間において推定された第1の基準パターンと、第2の時間において推定された第2の基準パターンとを比較する比較部をさらに備え、前記判定部は、前記比較によって得られる差分の累積が所定の条件を満たすか否かを確認することによって、前記再学習の要否を判定できる。 The electronic circuit according to one aspect of the present disclosure further includes a comparison unit that compares the first reference pattern estimated in the first time with the second reference pattern estimated in the second time. The determination unit can determine whether or not the re-learning is necessary by confirming whether or not the cumulative difference obtained by the comparison satisfies a predetermined condition.

本開示の一態様に係る電子回路は、第3の時間において推定された第3の基準パターンと、第4の時間において取得されたデータとの差異を特定する特定部をさらに備え、前記識別部は、前記推定された第3の基準パターンを基準とした前記識別パターンの識別を、前記特定された差異に対して実行し、当該識別の結果を出力できる。 The electronic circuit according to one aspect of the present disclosure further includes a specific unit that identifies a difference between the third reference pattern estimated in the third time and the data acquired in the fourth time, and the identification unit. Can execute the identification of the identification pattern based on the estimated third reference pattern for the identified difference and output the result of the identification.

本開示の一態様に係る電子回路において、前記取得部は、前回の基準パターンが推定された時間から、次の基準パターンが推定された時間までに取得したデータから、前記学習済みモデルの再学習に用いる再学習用データをサンプリングできる。 In the electronic circuit according to one aspect of the present disclosure, the acquisition unit relearns the trained model from the data acquired from the time when the previous reference pattern was estimated to the time when the next reference pattern is estimated. The re-learning data used for can be sampled.

本開示の一態様に係る電子回路において、前記識別部は、前記記憶部に格納された時系列の変化を予測可能な予測モデルを用いて、前記識別パターンを追跡し、当該識別パターンを識別できる。 In the electronic circuit according to one aspect of the present disclosure, the identification unit can track the identification pattern and identify the identification pattern by using a prediction model that can predict changes in time series stored in the storage unit. ..

本開示の一態様に係る電子回路において、前記推定部は、前記学習済みモデルを用いて、前記識別環境の変化をキャンセルするように、前記複数のデータをそれぞれキャリブレーションすることにより、前記基準パターンを設定する。 In the electronic circuit according to one aspect of the present disclosure, the estimation unit uses the trained model to calibrate the plurality of data so as to cancel the change in the identification environment, thereby performing the reference pattern. To set.

本開示の一態様に係る電子回路において、前記再学習部は、前記学習済みモデルに含まれるパラメータのうち、前記再学習を要するパラメータのみを更新することによって、当該学習済みモデルを部分的に再学習する。 In the electronic circuit according to one aspect of the present disclosure, the re-learning unit partially re-learns the trained model by updating only the parameters that require re-learning among the parameters included in the trained model. learn.

本開示の一態様に係る電子回路において、前記取得部は、各データに含まれる情報量を、前記基準パターンの推定と前記識別パターンの識別とに応じて変更する。 In the electronic circuit according to one aspect of the present disclosure, the acquisition unit changes the amount of information contained in each data according to the estimation of the reference pattern and the identification of the identification pattern.

本開示の一態様に係る電子回路において、前記再学習部は、前記識別パターンが位置を変化させる速度に合わせて、再学習の頻度を動的に変化させる。 In the electronic circuit according to one aspect of the present disclosure, the relearning unit dynamically changes the frequency of relearning according to the speed at which the identification pattern changes its position.

本開示の一態様に係る電子回路において、前記時系列データは、複数の画像から構成される動画であり、前記識別パターンは、前記動画において動きを伴う識別対象であり、前記基準パターンは、前記動画において静的な背景である。 In the electronic circuit according to one aspect of the present disclosure, the time series data is a moving image composed of a plurality of images, the identification pattern is an identification target accompanied by movement in the moving image, and the reference pattern is the said reference pattern. It is a static background in the video.

本開示の一態様に係るハードウェアコンポーネントは、所定のインターフェースと上記電子回路とを備えている。また、本開示の一態様に係るエッジ端末は、当該ハードウェアコンポーネントを備えている。 The hardware component according to one aspect of the present disclosure includes a predetermined interface and the electronic circuit. Further, the edge terminal according to one aspect of the present disclosure includes the hardware component.

本開示の一態様に係るエッジ処理システムは、上記エッジ端末と、時系列データを記録し、通信可能に接続された前記エッジ端末に当該時系列データを入力として与えるデータ記録装置とを含んでいる。 The edge processing system according to one aspect of the present disclosure includes the edge terminal and a data recording device that records the time series data and inputs the time series data to the edge terminal connected communicably as an input. ..

本開示の別態様に係るデータ記録装置は、外部のコンピュータと通信可能に接続する通信インターフェースと、前記電子回路から出力される識別結果を、前記通信インターフェースを介して前記コンピュータに送信する送信部とをさらに備えている。 The data recording device according to another aspect of the present disclosure includes a communication interface that is communicably connected to an external computer, and a transmission unit that transmits an identification result output from the electronic circuit to the computer via the communication interface. Is further equipped.

本開示の別態様に係る電子回路は、次のようにも表現できる。すなわち、モデルを用いてデータからパターンを識別する電子回路であって、時間経過とともに基準パターンに対して相対変化する識別パターンを含むデータを、時系列に沿って順次取得する取得部と、前記基準パターンから前記識別パターンが分離容易となるように、記憶部に格納された学習済みモデルを用いて、前記基準パターンを推定する推定部と、前記基準パターンと前記識別パターンとを分離することによって、当該識別パターンを識別する識別部とを備え、前記学習済みモデルは、前記識別パターンが浮き彫りとなるように、前記基準パターンを動的に推定可能とするモデルであることを特徴とする電子回路とも表現できる。 The electronic circuit according to another aspect of the present disclosure can also be expressed as follows. That is, an electronic circuit that identifies a pattern from data using a model, and an acquisition unit that sequentially acquires data including an identification pattern that changes relative to a reference pattern with the passage of time in chronological order, and the reference. By separating the estimation unit that estimates the reference pattern, and the reference pattern and the identification pattern using the learned model stored in the storage unit so that the identification pattern can be easily separated from the pattern. An electronic circuit including an identification unit that identifies the identification pattern, and the trained model is a model that can dynamically estimate the reference pattern so that the identification pattern is highlighted. Can be expressed.

また、本開示の別態様に係る電子回路は、次のようにも表現できる。すなわち、モデルを用いてデータからパターンを識別する電子回路であって、データ記録装置から時系列データを取得する取得部と、記憶部に格納された学習済みモデルを用いて、基準パターンを推定する推定部と、前記基準パターンと識別パターンとを分離することにより、当該識別パターンを識別する識別部とを備え、前記学習済みモデルは、時間経過に伴う識別環境の変化に追随して前記基準パターンを動的に推定可能となるように、当該変化を反映した前記時系列データを用いて再学習可能なモデルであり、前記再学習は、前記基準パターンの動的推定の精度を高め、当該基準パターンから前記識別パターンを識別する性能を改善する学習であることを特徴とする電子回路とも表現できる。 Further, the electronic circuit according to another aspect of the present disclosure can also be expressed as follows. That is, it is an electronic circuit that identifies a pattern from data using a model, and estimates a reference pattern using an acquisition unit that acquires time-series data from a data recording device and a learned model stored in the storage unit. The learning model includes an estimation unit and an identification unit that identifies the identification pattern by separating the reference pattern and the identification pattern, and the trained model follows the change in the identification environment with the passage of time. Is a model that can be relearned using the time series data that reflects the change so that can be dynamically estimated, and the relearning enhances the accuracy of the dynamic estimation of the reference pattern and the reference. It can also be expressed as an electronic circuit characterized by learning that improves the performance of identifying the identification pattern from the pattern.

また、本開示の別態様に係る電子回路は、次のようにも表現できる。すなわち、複数の画像で構成される動画から対象を識別する電子回路であって、前記動画において静的な(前記識別の対象とならない)背景を推定する学習済みモデルを格納した記憶部と、前記動画を構成する画像を時系列に順次取得する取得部と、前記格納された学習済みモデルを用いて、前記背景を推定する推定部と、前記推定された背景を基準として、前記動画において動きを伴う対象の識別結果を出力する識別部と、前記動画の進捗に応じて前記背景を再推定するために、当該進捗によって得られる少なくとも1つの画像を用いて、前記学習済みモデルを再学習する再学習部とを備えたことを特徴とする電子回路とも表現できる。 Further, the electronic circuit according to another aspect of the present disclosure can also be expressed as follows. That is, an electronic circuit that identifies an object from a moving image composed of a plurality of images, and a storage unit that stores a learned model that estimates a static (not the object of the identification) background in the moving image, and the storage unit. An acquisition unit that sequentially acquires images constituting a moving image, an estimation unit that estimates the background using the stored learned model, and a motion in the moving image based on the estimated background. Re-learning the trained model using an identification unit that outputs the identification result of the accompanying object and at least one image obtained by the progress in order to re-estimate the background according to the progress of the moving image. It can also be expressed as an electronic circuit characterized by having a learning unit.

また、本開示の別態様に係る電子回路は、次のようにも表現できる。すなわち、メモリと複数のモジュールとを備えたデジタル回路であって、前記メモリは、基準パターンを推定する学習済みモデルを記憶し、前記デジタル回路は、データ記録装置から時系列データを入力として取得する取得モジュールと、前記時系列データを構成する複数のデータにおいて不変の位置にそれぞれ出現する基準パターンを、前記メモリに記憶された学習済みモデルを用いて推定する推定モジュールと、前記推定された基準パターンを基準として、前記複数のデータにおいて異なる位置にそれぞれ出現する識別パターンを識別し、当該識別した結果を出力する識別モジュールと、識別環境の変化に追随するように前記基準パターンを再度推定するために、前記取得された時系列データの少なくとも一部を用いて、前記学習済みモデルを再学習する再学習モジュールとを備えたデジタル回路とも表現できる。 Further, the electronic circuit according to another aspect of the present disclosure can also be expressed as follows. That is, it is a digital circuit including a memory and a plurality of modules, in which the memory stores a trained model for estimating a reference pattern, and the digital circuit acquires time-series data as input from a data recording device. An estimation module that estimates an acquisition module, a reference pattern that appears at an invariant position in a plurality of data constituting the time-series data, using a trained model stored in the memory, and the estimated reference pattern. In order to identify the identification pattern that appears at different positions in the plurality of data and output the identification result, and to re-estimate the reference pattern so as to follow the change of the identification environment. It can also be expressed as a digital circuit including a re-learning module that retrains the trained model by using at least a part of the acquired time-series data.

また、本開示の別態様に係る電子回路は、定点から時系列データを取得する取得部と、スパース性を利用した学習モデルを用いて、前記時系列データに含まれる基準パターンを推定する推定部と、前記基準パターンを基準として動的な識別パターンを識別し、識別した結果を出力する出力部とを備えた電子回路とも表現できる。 Further, the electronic circuit according to another aspect of the present disclosure is an estimation unit that estimates a reference pattern included in the time series data by using an acquisition unit that acquires time series data from a fixed point and a learning model that utilizes sparsity. It can also be expressed as an electronic circuit including an output unit that identifies a dynamic identification pattern with reference to the reference pattern and outputs the identification result.

本開示は上述した実施の形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施の形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施の形態についても、本開示の技術的範囲に含まれる。さらに、各実施の形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成できる。 The present disclosure is not limited to the above-described embodiment, and various modifications can be made within the scope of the claims, and the embodiment obtained by appropriately combining the technical means disclosed in each of the different embodiments. Is also included in the technical scope of the present disclosure. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.

本開示は、例えば、集積回路、デジタル回路、アナログ回路、混合信号回路、ハードウェアコンポーネント、プログラマブルロジックデバイス、コンピュータ、スマートフォン、タブレット端末、カメラ、マイク、コンピュータシステムなど、任意の電子回路、当該電子回路を含む任意のデバイス、および任意の情報処理装置に広く適用できる。 The present disclosure describes any electronic circuit, such as an integrated circuit, digital circuit, analog circuit, mixed signal circuit, hardware component, programmable logic device, computer, smartphone, tablet terminal, camera, microphone, computer system, etc. It can be widely applied to any device including, and any information processing device.

1a:電子回路、1b:エッジ端末、2:カメラ(データ記録装置)、3a:製造ライン(データ環境)、3b:駐車場(データ環境)、4a:エッジコンピューティングシステム、4b:エッジコンピューティングシステム、5a:製品(識別パターン)、5b:自動車(識別パターン)、6:動画(時系列データ)、7a:画像(データ)、7b:再学習用画像(再学習用データ)、8a:推定結果、8b:識別結果、8c:判定結果、9:学習済みモデル、制御部10、11:取得部、12:推定部、13:識別部、14:判定部、15:再学習部、16:記憶部、21:入力インターフェース、21:記録部、22:送信部、23:通信インターフェース 1a: Electronic circuit, 1b: Edge terminal, 2: Camera (data recording device), 3a: Production line (data environment), 3b: Parking lot (data environment), 4a: Edge computing system, 4b: Edge computing system 5, 5a: Product (identification pattern), 5b: Automobile (identification pattern), 6: Video (time series data), 7a: Image (data), 7b: Re-learning image (re-learning data), 8a: Estimated result , 8b: Identification result, 8c: Judgment result, 9: Learned model, Control unit 10, 11: Acquisition unit, 12: Estimate unit, 13: Identification unit, 14: Judgment unit, 15: Relearning unit, 16: Memory Unit, 21: Input interface, 21: Recording unit, 22: Transmission unit, 23: Communication interface

Claims (9)

定点で撮影された動画をデータ記録装置から入力として取得する取得部と、
前記定点で予め撮影された動画に含まれる複数の学習用画像と、前記複数の学習用画像において不変の二次元上の位置にそれぞれ出現する背景とを事前に学習した学習済みモデルと、
前記取得部によって前記学習後に取得された動画を構成する複数の画像において、前記学習済みモデルによって前記背景に対応する領域である各背景領域を抽出する推定部と、
前記抽出された背景領域を基準として、前記複数の画像において前記各背景領域との差異が所定値よりも大きい領域を、前記動画の撮影範囲内で移動する識別対象が異なる二次元上の位置にそれぞれ出現する識別領域として識別し、当該識別した結果を出力する識別部と、
第1の時間において前記推定部により抽出された第1の前記背景領域と、前記第1の時間よりも後の第2の時間において前記推定部により抽出された第2の前記背景領域とを比較する比較部と、
前記比較によって得られる差分である背景差分の累積が、所定の閾値を超過したかを判定する判定部と、
前記背景差分の累積が前記閾値を超過したと判定された場合に、前回に前記背景を学習した時間から前記背景差分の累積が前記閾値を超過した時間までに前記取得部によって取得された動画の少なくとも一部を用いて、前記学習済みモデルを再学習させる再学習部とを備えた電子回路。
An acquisition unit that acquires a video shot at a fixed point as input from a data recording device,
A trained model in which a plurality of learning images included in a moving image taken in advance at a fixed point and a background appearing at an invariant two-dimensional position in the plurality of learning images are learned in advance, and a trained model.
A plurality of images constituting a moving acquired after the training by the acquisition unit, an estimation unit which to extract each background region which is a region corresponding to the background by the learned model,
With reference to each of the extracted background areas, a two-dimensional position where the identification target is different to move within the shooting range of the moving image in a region where the difference from each background region is larger than a predetermined value in the plurality of images. an identification unit, respectively identified as the identification area appearing, and outputs the result of the identification in,
The first background region extracted by the estimation unit in the first time is compared with the second background region extracted by the estimation unit in the second time after the first time. Comparison section and
A determination unit that determines whether the accumulation of background subtraction, which is the difference obtained by the comparison, exceeds a predetermined threshold value.
When it is determined that the cumulative background subtraction exceeds the threshold value, the moving image acquired by the acquisition unit from the time when the background was learned last time to the time when the cumulative background subtraction exceeds the threshold value. using at least a part, an electronic circuitry and a re-learning unit that is relearning the learned model.
前記推定部は、前記再学習された学習済みモデルを用いて、前記背景領域を再度抽出し、
前記識別部は、前記再度抽出された背景領域を基準として、前記識別領域を再度識別し、当該再度識別した結果を出力することを特徴とする請求項1に記載の電子回路。
The estimation unit re-extracts each of the background regions using the retrained trained model.
The electronic circuit according to claim 1, wherein the identification unit re-identifies each of the identification areas with reference to each of the re-extracted background areas, and outputs the result of the re-identification.
前記取得部は、前回に前記背景を学習した時間から前記背景差分の累積が前記閾値を超過した時間までに取得した前記複数の画像から、前記学習済みモデルの再学習に用いる再学習用データをサンプリングすることを特徴とする請求項1または2に記載の電子回路。 The acquisition unit obtains re-learning data used for re-learning the trained model from the plurality of images acquired from the time when the background was learned last time to the time when the cumulative background subtraction exceeds the threshold value. The electronic circuit according to claim 1 or 2, wherein the electronic circuit is sampled. 前記取得部は、前記複数の画像の各々について、高解像度の画像と低解像度化した画像の2つを取得し、
前記推定部は、前記低解像度化した画像から前記背景領域を抽出し、
前記識別部は、前記高解像度の画像から前記識別領域を識別する請求項1からのいずれか一項に記載の電子回路。
The acquisition unit acquires two images, a high-resolution image and a low-resolution image, for each of the plurality of images.
The estimation unit extracts each of the background regions from the low-resolution image, and then extracts the background region.
The electronic circuit according to any one of claims 1 to 3 , wherein the identification unit identifies each identification region from the high-resolution image.
請求項1からのいずれか一項に記載の電子回路と、
所定のインターフェースとを備え、
前記電子回路は、当該電子回路を前記各部として動作させる機能を実装したプログラマブルロジックデバイスであることを特徴とするハードウェアコンポーネント。
The electronic circuit according to any one of claims 1 to 4.
With a given interface,
The electronic circuit is a hardware component that is a programmable logic device that implements a function of operating the electronic circuit as each of the parts.
請求項に記載のハードウェアコンポーネントを備えたエッジ端末と、
前記動画を記録し、前記エッジ端末が備えた前記ハードウェアコンポーネントに当該動画を入力として与える前記データ記録装置とを含むことを特徴とするエッジ処理システム。
An edge terminal having the hardware component according to claim 5 and
An edge processing system comprising the data recording device that records the moving image and feeds the moving image to the hardware component provided in the edge terminal as an input.
請求項に記載のエッジ処理システムと、
前記データ記録装置によって記録される前記動画において、前記背景の少なくとも一部を構成する撮影対象物とを含むエッジコンピューティングシステム。
The edge processing system according to claim 6 and
Wherein in said moving image recorded by the data recording apparatus, the edge computing system including a photographing object constituting at least a part of the front dress Jing.
定点で撮影された動画をデータ記録装置から入力として取得する取得工程と、
前記定点で予め撮影された動画に含まれる複数の学習用画像と、前記複数の学習用画像において不変の二次元上の位置にそれぞれ出現する背景とを事前に学習した学習済みモデルと、
前記取得工程によって前記学習後に取得された動画を構成する複数の画像において、前記学習済みモデルによって前記背景に対応する領域である各背景領域を抽出する推定工程と、
前記抽出された背景領域を基準として、前記複数の画像において前記各背景領域との差異が所定値よりも大きい領域を、前記動画の撮影範囲内で移動する識別対象が異なる二次元上の位置にそれぞれ出現する識別領域として識別し、当該識別した結果を出力する識別工程と、
第1の時間において前記推定工程により抽出された第1の前記背景領域と、前記第1の時間よりも後の第2の時間において前記推定工程により抽出された第2の前記背景領域とを比較する比較工程と、
前記比較によって得られる差分である背景差分の累積が、所定の閾値を超過したかを判定する判定工程と、
前記背景差分の累積が前記閾値を超過したと判定された場合に、前回に前記背景を学習した時間から前記背景差分の累積が前記閾値を超過した時間までに前記取得工程によって取得された動画の少なくとも一部を用いて、前記学習済みモデルを再学習させる再学習工程とを含む、電子回路が実行する識別方法。
The acquisition process of acquiring a video shot at a fixed point as input from a data recording device,
A trained model in which a plurality of learning images included in a moving image taken in advance at a fixed point and a background appearing at an invariant two-dimensional position in the plurality of learning images are learned in advance, and a trained model.
A plurality of images constituting a moving acquired after the training by the obtaining step, an estimating step to extract each background region which is a region corresponding to the background by the learned model,
With reference to each of the extracted background areas, a two-dimensional position where the identification target is different to move within the shooting range of the moving image in a region where the difference from each of the background regions is larger than a predetermined value in the plurality of images. an identification step of identifying a respective identification area, and outputs the result of the identification appearing respectively,
The first background region extracted by the estimation step in the first time is compared with the second background region extracted by the estimation step in the second time after the first time. Comparison process and
A determination step of determining whether the accumulation of background subtraction, which is the difference obtained by the comparison, exceeds a predetermined threshold value, and
When it is determined that the cumulative background subtraction exceeds the threshold value, the moving image acquired by the acquisition step from the time when the background was learned last time to the time when the cumulative background subtraction exceeds the threshold value. At least a portion with, and a re-learning process that is relearning the learned model identification method an electronic circuit executes.
定点で撮影された動画をデータ記録装置から入力として取得する取得機能と
前記定点で予め撮影された動画に含まれる複数の学習用画像と、前記複数の学習用画像において不変の二次元上の位置にそれぞれ出現する背景とを事前に学習した学習済みモデルと、
前記取得機能によって前記学習後に取得された動画を構成する複数の画像において、前記学習済みモデルによって前記背景に対応する領域である各背景領域を抽出する推定機能と、
前記抽出された背景領域を基準として、前記複数の画像において前記各背景領域との差異が所定値よりも大きい領域を、前記動画の撮影範囲内で移動する識別対象が異なる二次元上の位置にそれぞれ出現する識別領域として識別し、当該識別した結果を出力する識別機能と、
第1の時間において前記推定機能により抽出された第1の前記背景領域と、前記第1の時間よりも後の第2の時間において前記推定機能により抽出された第2の前記背景領域とを比較する比較機能と、
前記比較によって得られる差分である背景差分の累積が、所定の閾値を超過したかを判定する判定機能と、
前記背景差分の累積が前記閾値を超過したと判定された場合に、前回に前記背景を学習した時間から前記背景差分の累積が前記閾値を超過した時間までに前記取得機能によって取得された動画の少なくとも一部を用いて、前記学習済みモデルを再学習させる再学習機能とを、コンピュータに実現させる識別プログラム。
An acquisition function that acquires a video shot at a fixed point as input from a data recording device ,
A trained model in which a plurality of learning images included in a moving image taken in advance at a fixed point and a background appearing at an invariant two-dimensional position in the plurality of learning images are learned in advance, and a trained model.
A plurality of images constituting a moving acquired after the training by the acquisition function, and the estimated function to extract each background region which is a region corresponding to the background by the learned model,
With reference to each of the extracted background areas, a two-dimensional position where the identification target is different to move within the shooting range of the moving image in a region where the difference from each background region is larger than a predetermined value in the plurality of images. an identification function are identified as the identification area appearing, and outputs the result of the identification in,
The first background area extracted by the estimation function in the first time is compared with the second background area extracted by the estimation function in the second time after the first time. Comparison function and
A determination function for determining whether the accumulation of background subtraction, which is the difference obtained by the comparison, exceeds a predetermined threshold value, and
When it is determined that the cumulative background subtraction exceeds the threshold value, the moving image acquired by the acquisition function from the time when the background was learned last time to the time when the cumulative background subtraction exceeds the threshold value. using at least a part, a re-learning function and that is re-learning the learned model identification program for realizing on a computer.
JP2019087869A 2019-05-07 2019-05-07 Electronic circuits, hardware components, edge processing systems, edge computing systems, identification methods, identification programs Active JP6944201B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019087869A JP6944201B2 (en) 2019-05-07 2019-05-07 Electronic circuits, hardware components, edge processing systems, edge computing systems, identification methods, identification programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019087869A JP6944201B2 (en) 2019-05-07 2019-05-07 Electronic circuits, hardware components, edge processing systems, edge computing systems, identification methods, identification programs

Publications (2)

Publication Number Publication Date
JP2020184171A JP2020184171A (en) 2020-11-12
JP6944201B2 true JP6944201B2 (en) 2021-10-06

Family

ID=73045187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019087869A Active JP6944201B2 (en) 2019-05-07 2019-05-07 Electronic circuits, hardware components, edge processing systems, edge computing systems, identification methods, identification programs

Country Status (1)

Country Link
JP (1) JP6944201B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7295181B2 (en) * 2021-09-08 2023-06-20 ソフトバンク株式会社 Determination device, program, and determination method
KR102693959B1 (en) 2022-01-06 2024-08-12 한국과학기술원 Method for self-supervised reinforcement learning by analogy

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0502371D0 (en) * 2005-02-04 2005-03-16 British Telecomm Identifying spurious regions in a video frame
JP5906028B2 (en) * 2011-06-22 2016-04-20 キヤノン株式会社 Image processing apparatus and image processing method
US10387794B2 (en) * 2015-01-22 2019-08-20 Preferred Networks, Inc. Machine learning with model filtering and model mixing for edge devices in a heterogeneous environment
JP2017139190A (en) * 2016-02-05 2017-08-10 株式会社東芝 Image sensor and learning method
JP6944272B2 (en) * 2017-04-25 2021-10-06 キヤノン株式会社 Motion detector and its control method
JP7080614B2 (en) * 2017-09-29 2022-06-06 キヤノン株式会社 Image processing equipment, image processing system, image processing method, and program

Also Published As

Publication number Publication date
JP2020184171A (en) 2020-11-12

Similar Documents

Publication Publication Date Title
US9767570B2 (en) Systems and methods for computer vision background estimation using foreground-aware statistical models
Han et al. Density-based multifeature background subtraction with support vector machine
US9947077B2 (en) Video object tracking in traffic monitoring
JP6235938B2 (en) Acoustic event identification model learning device, acoustic event detection device, acoustic event identification model learning method, acoustic event detection method, and program
CN110660082A (en) Target tracking method based on graph convolution and trajectory convolution network learning
CN111161315B (en) Multi-target tracking method and system based on graph neural network
CN102222214A (en) Fast object recognition algorithm
CN109284705B (en) Anomaly detection method for traffic monitoring video
CN108416780B (en) Object detection and matching method based on twin-region-of-interest pooling model
Zhuang et al. Real‐time vehicle detection with foreground‐based cascade classifier
CN107292918B (en) Tracking method and device based on video online learning
JP6944201B2 (en) Electronic circuits, hardware components, edge processing systems, edge computing systems, identification methods, identification programs
Heo et al. Appearance and motion based deep learning architecture for moving object detection in moving camera
CN104219488B (en) The generation method and device and video monitoring system of target image
CN113344967B (en) Dynamic target identification tracking method under complex background
US20230222647A1 (en) Method and system for detecting change to structure by using drone
CN109493370B (en) Target tracking method based on space offset learning
Hardas et al. Moving object detection using background subtraction shadow removal and post processing
Lotfi et al. Robust object tracking based on recurrent neural networks
Kulkarni et al. Kalman filter based multiple object tracking system
Rahman et al. An adaptive background modeling based on modified running Gaussian average method
CN102592125A (en) Moving object detection method based on standard deviation characteristic
Gao et al. Moving object detection for video surveillance based on improved ViBe
CN114972871A (en) Image registration-based few-sample image anomaly detection method and system
CN113496501A (en) Method and system for detecting invader in dynamic scene based on video prediction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210903

R150 Certificate of patent or registration of utility model

Ref document number: 6944201

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150