JP7342429B2 - Machine learning data collection method and camera system - Google Patents

Machine learning data collection method and camera system Download PDF

Info

Publication number
JP7342429B2
JP7342429B2 JP2019104688A JP2019104688A JP7342429B2 JP 7342429 B2 JP7342429 B2 JP 7342429B2 JP 2019104688 A JP2019104688 A JP 2019104688A JP 2019104688 A JP2019104688 A JP 2019104688A JP 7342429 B2 JP7342429 B2 JP 7342429B2
Authority
JP
Japan
Prior art keywords
video data
machine
event
data
period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019104688A
Other languages
Japanese (ja)
Other versions
JP2020197988A (en
Inventor
好史 谷本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Machinery Ltd
Original Assignee
Murata Machinery Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Machinery Ltd filed Critical Murata Machinery Ltd
Priority to JP2019104688A priority Critical patent/JP7342429B2/en
Publication of JP2020197988A publication Critical patent/JP2020197988A/en
Application granted granted Critical
Publication of JP7342429B2 publication Critical patent/JP7342429B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Warehouses Or Storage Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、機械学習用データ収集方法及びカメラシステムに関する。 The present invention relates to a data collection method for machine learning and a camera system.

機械の動作を記録するための装置として、車両に搭載されるドライブレコーダが知られている(例えば、特許文献1を参照)。
特許文献1のドライブレコーダは、車両前方の映像を撮影し、記録媒体に記録する。さらに、ドライブレコーダは、異常事象を検出すると、記録済みの映像から、異常事象を検出した時刻を含む所定時間長の時間帯の映像を抽出する。
A drive recorder mounted on a vehicle is known as a device for recording the operation of a machine (for example, see Patent Document 1).
The drive recorder disclosed in Patent Document 1 captures an image in front of a vehicle and records it on a recording medium. Furthermore, when the drive recorder detects an abnormal event, it extracts a video of a predetermined length of time including the time when the abnormal event was detected from the recorded video.

特開2018-41123号公報JP 2018-41123 Publication

搬送装置や工作機械に搭載したカメラシステムは、機械の信号が入力されると、ドライブレコーダと同様に、その前後の映像を録画する機能を有している。
一方、近年、各種の分野で人工知能(AI)の活用が行われており、例えば、搬送装置や工作機械において異常及びその前兆を検出するための利用が検討されている。具体的には、撮影した映像から得られた異常が発生する瞬間の画像を学習させることで、異常を自動で判定する推論エンジンを作成している。
なお、撮影した映像のうち、学習に使用するデータは、人間が判断して抽出している。したがって、機械学習用データの収集に手間が掛かり、効率が悪かった。
A camera system installed in a transport device or a machine tool has the function of recording images before and after a machine signal is input, similar to a drive recorder.
On the other hand, in recent years, artificial intelligence (AI) has been utilized in various fields, and for example, its use in detecting abnormalities and their precursors in transport devices and machine tools is being considered. Specifically, they have created an inference engine that automatically determines anomalies by learning images taken from captured footage at the moment an anomaly occurs.
Of the captured videos, the data used for learning is extracted based on human judgment. Therefore, collecting data for machine learning was time-consuming and inefficient.

本発明の目的は、カメラシステムで撮影した映像から、機械学習用データを効率よく抽出することにある。 An object of the present invention is to efficiently extract machine learning data from videos captured by a camera system.

以下に、課題を解決するための手段として複数の態様を説明する。これら態様は、必要に応じて任意に組み合せることができる。 A plurality of aspects will be described below as means for solving the problem. These aspects can be arbitrarily combined as necessary.

本発明の一見地に係る機械学習用データ収集方法は、機械の動作を撮影するカメラを備えるカメラシステムにおいて機械学習用データを収集する方法である。この方法は、下記のステップを備えている。
◎機械の動作を撮影した撮影動画データを記憶する撮影動画記憶ステップ。
◎機械に所定の事象が発生したことを認識する事象認識ステップ。
◎撮影動画データから、事象認識時刻を含む第1期間の長さの第1動画データを抽出する第1動画抽出ステップ。
◎撮影動画データに含まれる第2動画データであって、事象認識時刻を含む第2期間の長さの第2動画データを抽出する第2動画データ抽出ステップ。
第2期間は、第1期間よりも短い。
第2動画データは、所定の事象の発生を判定するための機械学習用データである。
A method for collecting data for machine learning according to an aspect of the present invention is a method for collecting data for machine learning in a camera system equipped with a camera that photographs the operation of a machine. This method comprises the following steps.
◎Photographed video storage step that stores photographed video data of machine operations.
◎Event recognition step that recognizes that a predetermined event has occurred in the machine.
◎First video extraction step of extracting first video data having a length of the first period including the event recognition time from the captured video data.
◎Second video data extraction step of extracting second video data included in the captured video data and having a length of a second period including the event recognition time.
The second period is shorter than the first period.
The second video data is machine learning data for determining the occurrence of a predetermined event.

なお、機械に所定の事象が発生したことを認識するとは、例えば、機械に所定の事象が発生したことを示す信号を受信することである。
なお、第1動画データを抽出するステップと第2動画データを抽出するステップのタイミングは限定されない。例えば、第2動画データを抽出するステップは、第1動画データを集出するステップの前又は後(直後、所定時間経過後など)に実行されてもよい。
Note that recognizing that a predetermined event has occurred in the machine means, for example, receiving a signal indicating that a predetermined event has occurred in the machine.
Note that the timing of the step of extracting the first video data and the step of extracting the second video data is not limited. For example, the step of extracting the second video data may be performed before or after the step of collecting the first video data (immediately, after a predetermined period of time, etc.).

一般に機械学習用の動画データは、機械学習に必要十分なごく短い期間(例えば数フレーム)の動画である。期間が短い理由は、データが不要な部分を含むと学習の精度が低下するからである。一方、人がこのような短い動画を見ても、所定の事象が発生する様子を把握することは難しい。
この方法では、比較的長い期間の動画を表す第1動画データを抽出するので、オペレータは、当該動画を見ることによって所定の事象が発生する様子を把握できる。また、この方法では、所定の事象の発生を判定するための機械学習用データとして、比較的短い期間の動画を表す第2動画データを利用できる。ここでは、第2動画データの抽出が自動的に行われるので、効率が良い。
Generally, video data for machine learning is a video with a very short period (for example, several frames) necessary for machine learning. The reason why the period is short is that if the data includes unnecessary parts, the accuracy of learning will decrease. On the other hand, even when a person watches such a short video, it is difficult to understand how a predetermined event will occur.
In this method, first video data representing a relatively long period of video is extracted, so the operator can understand how a predetermined event occurs by viewing the video. Further, in this method, second video data representing a relatively short period of video can be used as machine learning data for determining the occurrence of a predetermined event. Here, the extraction of the second moving image data is performed automatically, which is efficient.

第2動画データ抽出ステップでは、第1動画データから第2動画データを抽出してもよい。
この方法では、第1動画データから第2動画データを抽出するので、第1動画データを抽出した段階で元の動画データを記憶しておく必要がなくなる。
また、複数の第2動画データを抽出するのが容易になる。
In the second video data extraction step, the second video data may be extracted from the first video data.
In this method, since the second video data is extracted from the first video data, there is no need to store the original video data at the stage when the first video data is extracted.
Moreover, it becomes easy to extract a plurality of second moving image data.

第2動画データ抽出ステップでは、第1動画データから複数の第2動画データを抽出してもよい。
この方法では、第1動画データに複数の事象が記録されている場合に、複数の推論エンジンに対してそれぞれ専用の第2動画データを提供できる。この場合、複数の第2動画データは同じであってもよいし、異なっていてもよい。
In the second video data extraction step, a plurality of second video data may be extracted from the first video data.
With this method, when a plurality of events are recorded in the first moving image data, dedicated second moving image data can be provided to each of the plurality of inference engines. In this case, the plurality of second moving image data may be the same or different.

信号は、所定の事象の分類を示す事象分類情報を含んでいてもよい。
この方法は、事象分類情報に応じて、第2期間の長さを決定する長さ決定ステップをさらに備えていてもよい。
この方法では、所定の事象の種類に応じて適切な長さの第2動画データを抽出できる。
The signal may include event classification information indicating a classification of the predetermined event.
The method may further include determining a length of the second time period in response to the event classification information.
With this method, it is possible to extract second video data of an appropriate length depending on the type of predetermined event.

信号は、機械の動作内容を示す動作内容情報を含んでいてもよい。動作内容とは、例えば、搬送装置の場合は搬送、荷下ろし、荷積みである。動作内容は、運んでいる荷物の種類などの対象物の情報を含んでいてもよい。
この方法は、動作内容情報に応じて第2期間の長さを決定する長さ決定ステップをさらに備えていてもよい。
この方法では、機械の動作内容に応じて、適切な長さの第2動画データを抽出できる。
The signal may include operation content information indicating the operation content of the machine. For example, in the case of a transport device, the operation contents include transport, unloading, and loading. The action details may include information about the object, such as the type of luggage being carried.
The method may further include a length determining step of determining the length of the second period according to the action content information.
With this method, it is possible to extract second video data of an appropriate length depending on the operation content of the machine.

信号は、所定の事象の分類を示す事象分類情報を含んでいてもよい。
この方法は、事象分類情報に応じて、撮影動画の全体画像エリアから、第2動画データの画像エリアを決定する画像エリア決定ステップをさらに備えていてもよい。
この方法では、所定の事象の種類に応じて、適切なエリアの第2動画データを抽出できる。つまり、機械学習に必要なエリアのみを第2動画データの対象にすることができる。したがって、機械学習に不要な情報が機械学習に提供されることがない。
The signal may include event classification information indicating a classification of the predetermined event.
This method may further include an image area determining step of determining an image area of the second video data from the entire image area of the captured video according to the event classification information.
With this method, it is possible to extract second video data in an appropriate area depending on the type of predetermined event. In other words, only the areas necessary for machine learning can be targeted for the second video data. Therefore, information unnecessary for machine learning is not provided to machine learning.

信号は、機械の動作内容を示す動作内容情報を含んでいてもよい。
この方法は、動作内容情報に応じて、撮影動画の全体画像エリアから、第2動画データの画像エリアを決定する画像エリア決定ステップをさらに備えていてもよい。
この方法では、機械の動作内容に応じて、適切なエリアの第2動画データを抽出できる。
The signal may include operation content information indicating the operation content of the machine.
This method may further include an image area determining step of determining an image area of the second video data from the entire image area of the captured video according to the action content information.
With this method, it is possible to extract second video data of an appropriate area depending on the operation content of the machine.

所定の事象は機械の異常であってもよい。機械の異常とは、機械自体の異常、機械の対象物の異常を含む。 The predetermined event may be a machine malfunction. Abnormalities in the machine include abnormalities in the machine itself and abnormalities in the objects of the machine.

撮影動画データ記憶ステップと、事象認識ステップと、第1動画データ抽出ステップと、第2動画データ抽出ステップと、を繰り返し実行することで、複数の第2動画データが取得されてもよい。
この方法は、第2動画データを複数のグループに自動で分類する自動分類ステップをさらに備えていてもよい。
この方法では、作業者が手作業で第2動画データを分類しなくてもよいので、作業負荷が小さくなる。
A plurality of pieces of second video data may be acquired by repeatedly performing the photographed video data storage step, the event recognition step, the first video data extraction step, and the second video data extraction step.
The method may further include an automatic classification step of automatically classifying the second video data into a plurality of groups.
With this method, the worker does not have to manually classify the second video data, so the workload is reduced.

自動分類ステップでは、所定の事象の種類ごとに第2動画データを分類してもよい。
この方法では、所定の事象の種類ごとに推論エンジンを作成できる。
In the automatic classification step, the second video data may be classified for each type of predetermined event.
With this method, an inference engine can be created for each type of predetermined event.

自動分類ステップでは、機械の動作内容ごとに第2動画データを分類してもよい。
この方法では、機械の動作内容ごとに推論エンジンを作成できる。
In the automatic classification step, the second video data may be classified according to the operation content of the machine.
With this method, an inference engine can be created for each type of machine operation.

機械は複数あってもよい。
各機械について、撮影動画データ記憶ステップと、事象認識ステップと、第1動画データ抽出ステップと、第2動画データ抽出ステップとを実行することで、複数の第2動画データが取得されてもよい。
自動分類ステップでは、機械ごとに第2動画データを分類してもよい。
この方法では、機械ごとに推論エンジンを作成できる。
There may be more than one machine.
A plurality of pieces of second video data may be acquired by performing a photographed video data storage step, an event recognition step, a first video data extraction step, and a second video data extraction step for each machine.
In the automatic classification step, the second video data may be classified for each machine.
This method allows you to create an inference engine for each machine.

カメラシステムは複数個のカメラを含んでいてもよい。
自動分類ステップでは、カメラごとに第2動画データを分類してもよい。
この方法では、カメラごとに推論エンジンを作成できる。
A camera system may include multiple cameras.
In the automatic classification step, the second video data may be classified for each camera.
This method allows you to create an inference engine for each camera.

本発明の他の見地に係るカメラシステムは、機械の動作を撮影するカメラと、機械の動作を撮影した撮影動画データを記憶する記憶部と、機械に所定の事象が発生したことを認識する事象認識部と、コントローラと、を備えている。
コントローラは、第1抽出部と、第2抽出部と、を有している。
第1抽出部は、撮影動画データから、事象が認識された事象認識時刻を含む第1期間の長さの第1動画を示す第1動画データを抽出する。
第2抽出部は、撮影動画データに含まれる第2動画データであって、事象認識時刻を含む第2期間の長さの第2動画を示す第2動画データを抽出する。
第2期間は、第1期間よりも短い。
第2動画データは、所定の事象の発生を判定するための機械学習用データである。
なお、コントローラ及び記憶部の所在位置は特に限定されない。
A camera system according to another aspect of the present invention includes a camera that photographs the operation of a machine, a storage unit that stores video data of the photographed operation of the machine, and an event that recognizes that a predetermined event has occurred in the machine. It includes a recognition unit and a controller.
The controller has a first extraction section and a second extraction section.
The first extraction unit extracts first video data indicating a first video having a length of a first period including an event recognition time at which an event is recognized, from the captured video data.
The second extraction unit extracts second video data that is included in the photographed video data and represents a second video having a length of a second period that includes the event recognition time.
The second period is shorter than the first period.
The second video data is machine learning data for determining the occurrence of a predetermined event.
Note that the locations of the controller and the storage section are not particularly limited.

第2抽出部は、第1動画データから第2動画データを抽出してもよい。
このシステムでは、比較的長い期間の動画を表す第1動画データを抽出するので、オペレータは、当該動画を見ることによって所定の事象が発生する様子を把握できる。また、このシステムでは、所定の事象の発生を判定するための機械学習用データとして、比較的短い期間の動画を表す第2動画データを利用できる。ここでは、第2動画データの抽出が自動的に行われるので、効率が良い。
The second extraction unit may extract the second video data from the first video data.
Since this system extracts the first video data representing a relatively long period of video, the operator can understand how a predetermined event occurs by viewing the video. Further, in this system, second video data representing a relatively short period of video can be used as machine learning data for determining the occurrence of a predetermined event. Here, the extraction of the second moving image data is performed automatically, which is efficient.

本発明に係る機械学習用データ収集方法及びカメラシステムでは、カメラシステムで撮影した映像から、機械学習用データを効率よく抽出できる。 With the machine learning data collection method and camera system according to the present invention, machine learning data can be efficiently extracted from videos captured by the camera system.

第1実施形態の自動倉庫の概略平面図。FIG. 1 is a schematic plan view of the automated warehouse of the first embodiment. 図1のII-II矢視図であり、ラックとスタッカクレーンを説明するための図。FIG. 2 is a view taken along arrow II-II in FIG. 1 and is a diagram for explaining a rack and a stacker crane. 図2の部分拡大図であり、昇降台及び移載装置を説明する図。FIG. 3 is a partially enlarged view of FIG. 2 and is a diagram illustrating a lifting platform and a transfer device. カメラの配置位置及び撮像範囲を概略的に示した模式的平面図。FIG. 3 is a schematic plan view schematically showing the arrangement position and imaging range of a camera. 移載装置及び棚の一状態を示した表示画面。A display screen showing the status of the transfer equipment and shelves. 移載装置及び棚の一状態を示した表示画面。A display screen showing the status of the transfer equipment and shelves. 画像処理コントローラ及びカメラコントローラの機能ブロック図。FIG. 3 is a functional block diagram of an image processing controller and a camera controller. マーキングがされた第1動画データの表示画面。A display screen of the first video data with markings. 異常発生時の画像処理コントローラの制御動作を示すフローチャート。5 is a flowchart showing the control operation of the image processing controller when an abnormality occurs. カメラコントローラの第1動画データ及び第2動画データの抽出制御動作を示すフローチャート。5 is a flowchart showing extraction control operations of the camera controller for extracting first video data and second video data. 撮影動画データと、第1動画データと、第2動画データの関係を示す模式図。The schematic diagram which shows the relationship between photographed video data, 1st video data, and 2nd video data. 第2実施形態の撮影動画データと、第1動画データと、第2動画データの関係を示す模式図。FIG. 7 is a schematic diagram showing the relationship between photographed video data, first video data, and second video data according to the second embodiment. 第3実施形態のカメラコントローラの第1動画データ及び第2動画データの抽出制御動作を示すフローチャート。12 is a flowchart showing the extraction control operation of the first video data and second video data of the camera controller according to the third embodiment. 第4実施形態のカメラコントローラの第1動画データ及び第2動画データの抽出制御動作を示すフローチャート。12 is a flowchart showing the extraction control operation of the first video data and second video data of the camera controller according to the fourth embodiment. 第4実施形態の抽出された第2動画データと第1動画データの関係を示す図。The figure which shows the relationship between the extracted 2nd moving image data and 1st moving image data of 4th Embodiment. 第5実施形態のカメラコントローラの第1動画データ及び第2動画データの抽出制御動作を示すフローチャート。12 is a flowchart showing the extraction control operation of the first video data and second video data of the camera controller according to the fifth embodiment. 第6実施形態の撮影動画データと、第1動画データと、第2動画データの関係を示す模式図。FIG. 7 is a schematic diagram showing the relationship between photographed video data, first video data, and second video data according to the sixth embodiment. 第7実施形態の画像処理コントローラ及びカメラコントローラの機能ブロック図。FIG. 7 is a functional block diagram of an image processing controller and a camera controller according to a seventh embodiment.

1.第1実施形態
(1)自動倉庫全体
図1を用いて、本発明に係る第1実施形態としての自動倉庫1を説明する。図1は、第1実施形態の自動倉庫の概略平面図である。なお、この実施形態において、図1の左右方向が自動倉庫1の左右方向(矢印Y)であり、図1の上下方向が自動倉庫1の前後方向(矢印X)である。
自動倉庫1は、主に、一対のラック2と、スタッカクレーン3(機械の一例)とから構成されている。
1. First Embodiment (1) Entire automated warehouse An automated warehouse 1 as a first embodiment of the present invention will be described using FIG. 1. FIG. 1 is a schematic plan view of an automated warehouse according to the first embodiment. In this embodiment, the left-right direction in FIG. 1 is the left-right direction (arrow Y) of the automated warehouse 1, and the up-down direction in FIG. 1 is the front-back direction (arrow X) of the automated warehouse 1.
The automated warehouse 1 mainly includes a pair of racks 2 and a stacker crane 3 (an example of a machine).

(2)ラック
一対のラック2は、左右方向に延びるスタッカクレーン通路5を挟むように配置されている。ラック2は、所定間隔で左右に並ぶ多数の前側支柱7と、前側支柱7の後方において、前側支柱7との間に所定間隔をあけて並ぶ後側支柱9と、前側支柱7及び後側支柱9に設けられた多数の荷物支承部材11とを有している。左右一対の荷物支承部材11によって、棚13が構成されている。各棚13には、図から明らかなように、荷Wが載置可能である。なお、各荷Wは、パレットP(図2及び図3を参照)上に載置され、パレットPと共に移動させられる。なお、左右一対の荷物支承部材11間は、後述のスライドフォーク29aの上下方向の移動を許容するフォーク通過間隙15となっている。
(2) Rack The pair of racks 2 are arranged to sandwich a stacker crane passage 5 extending in the left-right direction. The rack 2 includes a large number of front columns 7 arranged on the left and right at predetermined intervals, rear columns 9 arranged at a predetermined interval between the front columns 7 behind the front columns 7, and the front columns 7 and rear columns. 9 and a large number of load supporting members 11 provided therein. A shelf 13 is constituted by a pair of left and right cargo support members 11. As is clear from the figure, a load W can be placed on each shelf 13. Note that each load W is placed on a pallet P (see FIGS. 2 and 3) and is moved together with the pallet P. Note that a fork passing gap 15 is formed between the pair of left and right load supporting members 11, which allows vertical movement of a slide fork 29a, which will be described later.

(3)スタッカクレーン
図2及び図3を用いて、スタッカクレーン3について説明する。図2は、図1のII-II矢視図であり、ラックとスタッカクレーンを説明するための図である。図3は、図2の部分拡大図であり、昇降台及び移載装置を説明する図である。
スタッカクレーン通路5に沿って、上下一対の走行レール21が設けられており、これら走行レール21にスタッカクレーン3が左右に移動可能に案内されている。スタッカクレーン3は、主に、一対のマスト22である第1マスト22A及び第2マスト22Bを有する走行台車23と、第1マスト22A及び第2マスト22Bに昇降自在に装着された昇降台27と、昇降台27に設けられた移載装置29とを有している。走行台車23は、走行車輪24を有している。
(3) Stacker Crane The stacker crane 3 will be explained using FIGS. 2 and 3. FIG. 2 is a view taken along the line II-II in FIG. 1, and is a diagram for explaining the rack and the stacker crane. FIG. 3 is a partially enlarged view of FIG. 2, and is a diagram illustrating a lifting platform and a transfer device.
A pair of upper and lower running rails 21 are provided along the stacker crane passage 5, and the stacker crane 3 is guided by these running rails 21 so as to be movable left and right. The stacker crane 3 mainly includes a traveling truck 23 having a first mast 22A and a second mast 22B, which are a pair of masts 22, and a lifting platform 27 that is attached to the first mast 22A and the second mast 22B so as to be able to rise and fall freely. , and a transfer device 29 provided on the lifting table 27. The traveling truck 23 has traveling wheels 24 .

移載装置29は、進退機構(図示せず)によって前後方向に摺動自在に設けられたスライドフォーク29aを有している。スライドフォーク29aは、前後方向両側の棚13との間で荷Wを移載可能である。
なお、昇降台27と移載装置29は互いに固定されており、昇降台27の一部を移載装置29の一部と見なしてよい。
The transfer device 29 has a slide fork 29a that is slidably provided in the front-rear direction by a reciprocating mechanism (not shown). The slide fork 29a can transfer the load W to and from the shelves 13 on both sides in the front-rear direction.
Note that the lifting table 27 and the transfer device 29 are fixed to each other, and a part of the lifting table 27 may be considered as a part of the transfer device 29.

昇降台27は、第1マスト22A及び第2マスト22Bにガイドされる昇降ガイドローラ28を有する。昇降ガイドローラ28は、一方のマストに対して上下一対ずつ合計4個が当接している。より具体的には、一対の昇降ガイドローラ28は、マスト22の前後方向両側面の走行方向内側部分に当接している。
なお、図2及び図3において、昇降台27のスライドフォーク29aの上には、パレットPと荷Wが載っている。この実施形態では、荷Wは3×3×3個の直方体が隙間なく積み上げられた構成である。しかし、荷Wの個々の荷物の個数、形状及び積み上げ方は上記実施形態に限定されない。
第1マスト22A及び第2マスト22Bの下端同士は下側フレーム25によって連結され、上端同士は上側フレーム26によって連結されている。
The elevating table 27 has elevating guide rollers 28 guided by the first mast 22A and the second mast 22B. A total of four elevating guide rollers 28 are in contact with one mast, one pair each on the upper and lower sides. More specifically, the pair of elevating guide rollers 28 are in contact with the inside portions of the mast 22 on both front and rear sides in the running direction.
In addition, in FIGS. 2 and 3, a pallet P and a load W are placed on the slide forks 29a of the lifting platform 27. In this embodiment, the load W has a structure in which 3x3x3 rectangular parallelepipeds are stacked without gaps. However, the number, shape, and stacking method of individual items of the item W are not limited to the above embodiment.
The lower ends of the first mast 22A and the second mast 22B are connected by a lower frame 25, and the upper ends are connected by an upper frame 26.

スタッカクレーン3は、制御盤41と、走行モータ59と、昇降モータ63とを有している。制御盤41は、走行方向において、第2マスト22Bに対する第1マスト22Aと反対側に設けられている。走行モータ59は、第1マスト22Aに設けられている。昇降モータ63は、第1マスト22Aに設けられている。
制御盤41は、内部に、走行モータ59や昇降モータ63用のインバータ、コンバータ、ブレーカ等の電装機器を有している。制御盤41は、さらに、制御基板ボックス(図示せず)を有している。制御盤41は、これら電装機器を覆うフレームを有している。制御盤41は、電源(図示せず)、走行モータ59、昇降モータ63、スライドフォーク29a等に動力ケーブル(図示せず)を介して接続されている。制御盤41は、さらに、制御ケーブルを介して、通信インターフェースを介して地上制御盤、センサ類、スライドフォーク29a並びに制御電源に接続されている。
昇降モータ63は、図2に示すように、ドラム64を駆動可能である。ドラム64からは、ワイヤ40が延びている。ワイヤ40は、上側フレーム26に設けられたプーリ44に掛け回され、さらに昇降台27に連結されている。
The stacker crane 3 includes a control panel 41, a travel motor 59, and a lifting motor 63. The control panel 41 is provided on the opposite side of the first mast 22A to the second mast 22B in the traveling direction. The travel motor 59 is provided on the first mast 22A. The lifting motor 63 is provided on the first mast 22A.
The control panel 41 includes electrical equipment such as an inverter, a converter, and a breaker for the traveling motor 59 and the lifting motor 63. The control panel 41 further includes a control board box (not shown). The control panel 41 has a frame that covers these electrical devices. The control panel 41 is connected to a power source (not shown), a travel motor 59, a lifting motor 63, a slide fork 29a, etc. via a power cable (not shown). The control panel 41 is further connected to the ground control panel, sensors, slide fork 29a, and control power source via a control cable and a communication interface.
The lifting motor 63 can drive the drum 64, as shown in FIG. A wire 40 extends from the drum 64. The wire 40 is passed around a pulley 44 provided on the upper frame 26 and further connected to the lifting platform 27.

(4)カメラ
昇降台27には、図2~図4に示すように、第1カメラ51、第2カメラ52、第3カメラ53及び第4カメラ54(以下、まとめて表現する場合は「4台のカメラ51~54」とする)が装着されている。図4は、カメラの配置位置及び撮像範囲を概略的に示した模式的平面図である。
4台のカメラ51~54は、いわゆるビデオカメラであり、撮像した画像(静止画・動画)をビデオ信号としてカメラコントローラ90(後述)に入力する。なお、上記の場合、第1カメラ51及び第2カメラ52の撮像範囲と、第3カメラ53及び第4カメラ54の撮像範囲とは異なっている。ただし、4台のカメラの撮像範囲が全て異なっていてもよいし、全て同じでもよい。
(4) Camera As shown in FIGS. 2 to 4, the camera elevator platform 27 includes a first camera 51, a second camera 52, a third camera 53, and a fourth camera 54 (hereinafter referred to collectively as "4 cameras"). Cameras 51 to 54) are installed. FIG. 4 is a schematic plan view schematically showing the arrangement position and imaging range of the camera.
The four cameras 51 to 54 are so-called video cameras, and input captured images (still images and moving images) to a camera controller 90 (described later) as video signals. Note that in the above case, the imaging ranges of the first camera 51 and the second camera 52 are different from the imaging ranges of the third camera 53 and the fourth camera 54. However, the imaging ranges of the four cameras may all be different or may be all the same.

4台のカメラ51~54は、スタッカクレーン3の動作を撮影し動画データを作成する。具体的には、4台のカメラ51~54は、昇降台27に載置された荷W及び棚13に載置された荷Wを撮像する。
4台のカメラ51~54は、図4に示すように、フレーム45を介して昇降台27に取り付けられている。フレーム45は、昇降台27つまり移載装置29の左右方向両側において前後方向に延びる一対の部材である。4台のカメラ51~54は、各フレーム45の前後方向両端にそれぞれ固定されている。なお、カメラはフレーム以外の他の部材に取り付けられていてもよい。
The four cameras 51 to 54 photograph the operation of the stacker crane 3 and create video data. Specifically, the four cameras 51 to 54 take images of the load W placed on the lifting platform 27 and the load W placed on the shelf 13.
The four cameras 51 to 54 are attached to the lifting platform 27 via a frame 45, as shown in FIG. The frame 45 is a pair of members extending in the front-rear direction on both sides of the lifting table 27, that is, the transfer device 29 in the left-right direction. The four cameras 51 to 54 are fixed to both ends of each frame 45 in the front and rear directions. Note that the camera may be attached to a member other than the frame.

第1カメラ51及び第2カメラ52は、前後方向の該荷Wの端部、及び前後方向における該端部側の移載先の棚13を同時に撮像可能な位置に固定される。
第1カメラ51及び第2カメラ52は、移載装置29に載置される荷Wの上端より上方であり、かつ左右方向において該荷Wの外側で移載装置29に設けられている。第1カメラ51及び第2カメラ52は斜め下方を向いている。この場合、カメラが上方から荷を撮像することにより、荷Wの高さによらず荷崩れを検知できる。
以上に述べたように第1カメラ51及び第2カメラ52は、移載装置29の前後方向両側にそれぞれ設けられている。したがって、移載装置29に載置された荷Wの荷姿異常及び両移載方向における先入品の検知ができる。
The first camera 51 and the second camera 52 are fixed at positions where they can simultaneously image the end of the load W in the front-rear direction and the transfer destination shelf 13 on the end side in the front-rear direction.
The first camera 51 and the second camera 52 are provided on the transfer device 29 above the upper end of the load W placed on the transfer device 29 and outside the load W in the left-right direction. The first camera 51 and the second camera 52 face diagonally downward. In this case, by using the camera to image the load from above, the collapse of the load can be detected regardless of the height of the load W.
As described above, the first camera 51 and the second camera 52 are provided on both sides of the transfer device 29 in the front and rear directions, respectively. Therefore, it is possible to detect an abnormality in the appearance of the load W placed on the transfer device 29 and an incoming item in both transfer directions.

図4を用いて、第1カメラ51及び第2カメラ52を詳細に説明する。
第1カメラ51は、平面視において図4の右下側に設けられ、移載装置29に積まれた荷Wの前後方向の端部31及び前後方向における該端部31側の移載先の棚13を同時に撮像可能な位置に設けられている。なお、第1カメラ51は、移載装置29に荷Wが配置されていても、移載先の棚13における先入れ品を検出可能である。なぜなら、第1カメラ51から見て、移載装置29の載置位置と移載先の棚13は前後方向にずれて並んでいるからである。
The first camera 51 and the second camera 52 will be explained in detail using FIG. 4.
The first camera 51 is provided on the lower right side of FIG. 4 in a plan view, and is located at an end 31 in the front-rear direction of the load W loaded on the transfer device 29 and at a transfer destination on the side of the end 31 in the front-rear direction. It is provided at a position where the shelves 13 can be imaged at the same time. Note that even if the load W is placed on the transfer device 29, the first camera 51 can detect the first loaded item on the shelf 13 at the transfer destination. This is because, when viewed from the first camera 51, the placement position of the transfer device 29 and the transfer destination shelf 13 are aligned with each other with a shift in the front-rear direction.

第2カメラ52は、図4の左上側に設けられ、移載装置29に積まれた荷Wの前後方向の端部32及び前後方向における該端部32側の移載先の棚13を同時に撮像可能な位置に設けられている。なお、第2カメラ52は、移載装置29に荷Wが配置されていても、移載先の棚13における先入れ品を検出可能である。なぜなら、第2カメラ52から見て、移載装置29の載置位置と移載先の棚13は前後方向にずれて並んでいるからである。
なお、第1カメラ51が対象とする棚13と第2カメラ52が対象とする棚13とは、異なる棚である。
The second camera 52 is provided on the upper left side in FIG. It is located at a position where it can be imaged. Note that even if the load W is placed on the transfer device 29, the second camera 52 can detect the first loaded item on the shelf 13 at the transfer destination. This is because, when viewed from the second camera 52, the placement position of the transfer device 29 and the transfer destination shelf 13 are aligned with each other with a shift in the front-rear direction.
Note that the shelf 13 targeted by the first camera 51 and the shelf 13 targeted by the second camera 52 are different shelves.

第3カメラ53及び第4カメラ54は、移載装置29に設けられており、移載装置29に載置された荷Wの左右方向の端部(つまり、端面)を撮像可能な位置に設けられる。
第3カメラ53及び第4カメラ54は、移載装置29に載置される荷Wの上端より上方であり、かつ前後方向において該荷Wの外側で移載装置29に設けられている。第3カメラ53及び第4カメラ54は斜め下方を向いている。
The third camera 53 and the fourth camera 54 are provided in the transfer device 29 and are located at positions where they can image the left and right ends (that is, the end faces) of the load W placed on the transfer device 29. It will be done.
The third camera 53 and the fourth camera 54 are provided on the transfer device 29 above the upper end of the load W placed on the transfer device 29 and outside the load W in the front-rear direction. The third camera 53 and the fourth camera 54 face diagonally downward.

図4を用いて、第3カメラ53及び第4カメラ54を詳細に説明する。
第3カメラ53は、図4の左下側に設けられ、移載装置29に積まれた荷Wの左右方向の端部33を撮像可能な位置に設けられている。なお、第3カメラ53は、移載装置29に荷Wが配置されていなければ、移載先の棚13における先入れ品を検出できるが、移載装置29に荷Wが配置されていれば、移載先の棚13における先入れ品を検出できない。なぜなら、第3カメラ53から見て、移載装置29の載置位置と移載先の棚13は重なっているからである。
The third camera 53 and the fourth camera 54 will be explained in detail using FIG. 4.
The third camera 53 is provided on the lower left side of FIG. 4, and is provided at a position where it can image the left-right end portion 33 of the load W loaded on the transfer device 29. Note that the third camera 53 can detect the first-loaded item on the transfer destination shelf 13 if the load W is not placed on the transfer device 29; however, if the load W is placed in the transfer device 29, , it is not possible to detect the first item on the shelf 13 at the transfer destination. This is because, when viewed from the third camera 53, the placement position of the transfer device 29 and the transfer destination shelf 13 overlap.

第4カメラ54は、図4の右上側に設けられ、移載装置29に積まれた荷Wの左右方向の端部34を撮像可能な位置に設けられている。なお、第4カメラ54は、移載装置29に荷Wが配置されていれば、移載先の棚13における先入れ品を検出できるが、移載装置29に荷Wが配置されていれば、移載先の棚13における先入れ品を検出できない。なぜなら、第4カメラ54から見て、移載装置29の載置位置と移載先の棚13は重なっているからである。
なお、第3カメラ53が対象とする棚13と第4カメラ54が対象とする棚13とは、異なる棚である。第3カメラ53が対象とする棚13は図4において図上側に配置されており、第4カメラ54が対象とする棚13は図4において図下側に配置されており、両者は前後方向(矢印X)に対向している。
The fourth camera 54 is provided on the upper right side of FIG. 4, and is provided at a position where it can image the end portion 34 in the left and right direction of the load W loaded on the transfer device 29. Note that if the load W is placed on the transfer device 29, the fourth camera 54 can detect the first-loaded item on the transfer destination shelf 13; however, if the load W is placed in the transfer device 29, , it is not possible to detect the first item on the shelf 13 at the transfer destination. This is because, when viewed from the fourth camera 54, the placement position of the transfer device 29 and the shelf 13 as the transfer destination overlap.
Note that the shelf 13 targeted by the third camera 53 and the shelf 13 targeted by the fourth camera 54 are different shelves. The shelf 13 targeted by the third camera 53 is placed on the upper side of the figure in FIG. 4, and the shelf 13 targeted by the fourth camera 54 is placed on the lower side of the figure in FIG. It is facing the arrow X).

図5及び図6を用いて、4台のカメラ51~54の映像の例を説明する。図5及び図6は、移載装置及び棚の一状態を示した表示画面である。
図5及び図6では、表示装置89の画面において、4台のカメラ51~54で撮像された映像が表示されている。各図の右上部分が第1カメラ51の画像であり、左下部分が第2カメラ52の画像であり、右下部分が第3カメラ53の画像であり、左上部分が第4カメラ54の画像である。
図5では、移載装置29には荷Wは載置されていないし、前後方向両側の棚13にも荷Wは載置されていない。したがって、全ての画像において、棚13の荷物支承部材11が映っている。なお、破線Aで囲まれた部分が一方の棚13であり、破線Bで囲まれた部分が他方の棚である。
Examples of images from the four cameras 51 to 54 will be explained using FIGS. 5 and 6. 5 and 6 are display screens showing one state of the transfer device and the shelf.
In FIGS. 5 and 6, images captured by four cameras 51 to 54 are displayed on the screen of the display device 89. The upper right part of each figure is the image of the first camera 51, the lower left part is the image of the second camera 52, the lower right part is the image of the third camera 53, and the upper left part is the image of the fourth camera 54. be.
In FIG. 5, no load W is placed on the transfer device 29, and no load W is placed on the shelves 13 on either side in the front-rear direction. Therefore, the load supporting member 11 of the shelf 13 is visible in all images. Note that the part surrounded by broken line A is one shelf 13, and the part surrounded by broken line B is the other shelf.

図6では、移載装置29には荷W1が載置されており、前後方向両側の棚13にも荷W2及び荷W3がそれぞれ載置されている(つまり、先入れ品がある)。そのため、第1カメラ51の画像によって荷W2の存在及び荷W1の端部31の状態を確認でき、第2カメラ52の画像によって荷W3の存在及び荷W1の端部32を確認でき、第3カメラ53の画像によって荷W1の端部33の状態を確認でき、第4カメラ54の画像によって荷W1の端部34の状態を確認できる。
さらに、図6では、第1カメラ51の画像及び第2カメラ52の画像には、棚13の荷物支承部材11が映っていない。したがって、画像コントローラ70(後述)は、前後方向両側の棚13には荷W2及び荷W3が載置されていることを把握できる。ただし、この場合、第3カメラ53の画像及び第4カメラ54の画像には棚13の状態は映っていない。
In FIG. 6, a load W1 is placed on the transfer device 29, and a load W2 and a load W3 are also placed on the shelves 13 on both sides in the front-rear direction (that is, there are first-order items). Therefore, the presence of the load W2 and the state of the end 31 of the load W1 can be confirmed by the image taken by the first camera 51, the presence of the load W3 and the end 32 of the load W1 can be confirmed by the image taken by the second camera 52, and the third The state of the end portion 33 of the load W1 can be confirmed by the image taken by the camera 53, and the condition of the end portion 34 of the load W1 can be confirmed by the image taken by the fourth camera 54.
Furthermore, in FIG. 6, the cargo support member 11 of the shelf 13 is not reflected in the image taken by the first camera 51 and the image taken by the second camera 52. Therefore, the image controller 70 (described later) can grasp that the load W2 and the load W3 are placed on the shelves 13 on both sides in the front-rear direction. However, in this case, the state of the shelf 13 is not reflected in the image taken by the third camera 53 and the image taken by the fourth camera 54.

(5)カメラシステムの制御構成
図7を用いて、カメラシステム100の制御構成を説明する。図7は、画像処理コントローラ及びカメラコントローラの機能ブロック図である。
カメラシステム100は、搬送コントローラ50、画像処理コントローラ80、カメラコントローラ90を有している。
(5) Control configuration of camera system The control configuration of camera system 100 will be explained using FIG. 7. FIG. 7 is a functional block diagram of the image processing controller and camera controller.
The camera system 100 includes a transport controller 50, an image processing controller 80, and a camera controller 90.

各コントローラは、プロセッサ(例えば、CPU)と、記憶装置(例えば、ROM、RAM、HDD、SSDなど)と、各種インターフェース(例えば、A/Dコンバータ、D/Aコンバータ、通信インターフェースなど)を有するコンピュータシステムである。各コントローラは、記憶部(記憶装置の記憶領域の一部又は全部に対応)に保存されたプログラムを実行することで、各種制御動作を行う。
各コントローラは、単一のプロセッサで構成されていてもよいが、各制御のために独立した複数のプロセッサから構成されていてもよい。
各コントローラの各要素の機能は、一部又は全てが、制御部を構成するコンピュータシステムにて実行可能なプログラムとして実現されてもよい。その他、両コントローラの各要素の機能の一部は、カスタムICにより構成されていてもよい。
各コントローラには、図示しないが、対象物の大きさ、形状及び位置検出するセンサ、各装置の状態を検出するためのセンサ及びスイッチ、並びに情報入力装置が接続されている。
なお、各コントローラは、スタッカクレーン3に搭載されたものに限定されず、電気的に接続された状態で地上側に配置されていてもよい。
Each controller is a computer having a processor (e.g., CPU), a storage device (e.g., ROM, RAM, HDD, SSD, etc.), and various interfaces (e.g., A/D converter, D/A converter, communication interface, etc.). It is a system. Each controller performs various control operations by executing a program stored in a storage unit (corresponding to part or all of the storage area of the storage device).
Each controller may be composed of a single processor, or may be composed of a plurality of independent processors for each control.
A part or all of the functions of each element of each controller may be realized as a program executable by a computer system that constitutes the control section. In addition, a part of the functions of each element of both controllers may be configured by a custom IC.
Although not shown, each controller is connected to a sensor for detecting the size, shape, and position of an object, a sensor and switch for detecting the status of each device, and an information input device.
Note that each controller is not limited to being mounted on the stacker crane 3, and may be arranged on the ground side in an electrically connected state.

搬送コントローラ50は、走行台車23の走行車輪24の駆動を制御するための機能を有しており、走行モータ59を含む走行部73に接続されている。搬送コントローラ50は、昇降台27を第1マスト22A及び第2マスト22Bに沿って上下動させるための機能を有しており、昇降モータ63を含む昇降部74に接続されている。搬送コントローラ50は、スライドフォーク29aを前後方向に移動させるための機能を有しており、移載モータ(図示せず)を含む移載部75に接続されている。 The transport controller 50 has a function of controlling the driving of the traveling wheels 24 of the traveling trolley 23 and is connected to a traveling section 73 including a traveling motor 59. The transport controller 50 has a function of vertically moving the lifting platform 27 along the first mast 22A and the second mast 22B, and is connected to a lifting section 74 including a lifting motor 63. The transport controller 50 has a function of moving the slide fork 29a in the front-back direction, and is connected to a transfer section 75 including a transfer motor (not shown).

画像処理コントローラ80は、機械学習用データの収集、機械学習用データによって構築された推論エンジンによる異常判定を行うものである。
画像処理コントローラ80は、機械学習部81を有している。機械学習部81は、機械学習用データである第2動画データ(後述)に基づいて、機械学習を行い、異常判定のための推論エンジンを構築する。
画像処理コントローラ80は、異常判定部82を有している。異常判定部82は、一又は複数の異常判定推論エンジンを有しており、第1動画データ(後述)の異常判定を行う。
The image processing controller 80 collects data for machine learning and determines abnormalities using an inference engine constructed from the data for machine learning.
The image processing controller 80 has a machine learning section 81. The machine learning unit 81 performs machine learning based on second video data (described later), which is data for machine learning, and constructs an inference engine for abnormality determination.
The image processing controller 80 has an abnormality determination section 82. The abnormality determination unit 82 includes one or more abnormality determination inference engines, and performs abnormality determination on first video data (described later).

画像処理コントローラ80は、画像処理部83を有している。画像処理部83は、異常判定された第1動画データにマーキング(後述)等の画像処理を行う。これにより、オペレータは第1動画データを参照する際に、異常の種類や原因を知ることができる。
画像処理コントローラ80は、表示制御部84を有している。表示制御部84は、表示装置89(後述)に、例えばマーキングされた第1動画データを表示できる。
図8を用いて、第1動画データに重畳表示されたマーキングを説明する。図8はマーキングがされた第1動画データの表示画面である。
第1動画データには、マーキングCが重畳表示されている。マーキングCは、例えば、荷はみが生じた箇所を示している。なお、マーキングは、文字、その他の図形であってもよい。
The image processing controller 80 has an image processing section 83. The image processing unit 83 performs image processing such as marking (described later) on the first moving image data determined to be abnormal. This allows the operator to know the type and cause of the abnormality when referring to the first video data.
The image processing controller 80 has a display control section 84. The display control unit 84 can display, for example, marked first moving image data on a display device 89 (described later).
Markings superimposed on the first video data will be explained using FIG. 8. FIG. 8 is a display screen of the marked first moving image data.
Marking C is displayed superimposed on the first video data. Marking C indicates, for example, a location where the load has been strained. Note that the marking may be characters or other figures.

画像処理コントローラ80は、記憶部85を有している。記憶部85には、機械の動作を撮影した動画データとして、第1動画データ及び第2動画データが保存される。
画像処理コントローラ80は、通信部87を有している。
The image processing controller 80 has a storage section 85. The storage unit 85 stores first video data and second video data as video data of the operation of the machine.
The image processing controller 80 has a communication section 87.

画像処理コントローラ80には、入力装置88及び表示装置89が接続されている。
入力装置88は、オペレータが画像処理コントローラ80にデータ及び指令を入力するための装置である。入力装置88は、例えば、キーボード、マウス、タッチパネルである。
表示装置89は、例えば、液晶、有機EL等のディスプレイである。ただし、ディスプレイの種類、台数、設置位置は上記実施形態に限定されない。
An input device 88 and a display device 89 are connected to the image processing controller 80 .
The input device 88 is a device for an operator to input data and commands to the image processing controller 80. The input device 88 is, for example, a keyboard, a mouse, or a touch panel.
The display device 89 is, for example, a liquid crystal display, an organic EL display, or the like. However, the type, number, and installation position of the displays are not limited to the above embodiments.

カメラコントローラ90は、4台のカメラ51~54を制御し、画像を撮影するものである。
カメラコントローラ90には、4台のカメラ51~54が接続されている。
The camera controller 90 controls the four cameras 51 to 54 to take images.
Four cameras 51 to 54 are connected to the camera controller 90.

カメラコントローラ90は、4台のカメラ51~54の撮像を制御するカメラ制御部91を有している。
カメラコントローラ90は、画像処理をするための画像処理ソリューション・ソフトウェアからなる画像抽出部92を有している。
The camera controller 90 has a camera control section 91 that controls imaging by the four cameras 51 to 54.
The camera controller 90 has an image extraction section 92 consisting of image processing solution software for image processing.

画像抽出部92は、第1抽出部97と第2抽出部98とを有している。
第1抽出部97は、撮影動画データから、信号が受信された受信時刻を含む第1期間の長さの第1動画データを抽出し、記憶部93に保存する。
第2抽出部98は、第1動画データから、上記受信時刻を含む第2期間の長さの第2動画データを抽出し、記憶部93に保存する。第2動画データは、所定の事象(例えば、機械の異常)の発生を判定するための機械学習用データであり、第2期間は、第1期間よりも短い。
The image extraction section 92 includes a first extraction section 97 and a second extraction section 98.
The first extraction unit 97 extracts first video data having a length of a first period including the reception time when the signal was received from the captured video data, and stores it in the storage unit 93.
The second extraction unit 98 extracts second video data having a length of a second period including the reception time from the first video data, and stores it in the storage unit 93. The second video data is machine learning data for determining the occurrence of a predetermined event (for example, a machine abnormality), and the second period is shorter than the first period.

カメラコントローラ90は、記憶部93を有している。記憶部93には、4台のカメラ51~54によって撮像された画像データ(撮影動画データ、第1動画データ、第2動画データなど)が保存される。なお、記憶部は、画像サーバによって実現されてもよい。 The camera controller 90 has a storage section 93. The storage unit 93 stores image data (photographed video data, first video data, second video data, etc.) captured by the four cameras 51 to 54. Note that the storage unit may be realized by an image server.

カメラコントローラ90は、通信部95を有している。
カメラコントローラ90は、入力装置96を有している。入力装置96は、オペレータがカメラコントローラ90に指令を入力するための装置である。入力装置96は、例えば、リモコンである。
The camera controller 90 has a communication section 95.
Camera controller 90 has an input device 96. The input device 96 is a device for an operator to input commands to the camera controller 90. Input device 96 is, for example, a remote control.

(6)制御動作
カメラシステム100の制御動作を説明する。
以下に説明する制御フローチャートは例示であって、各ステップは必要に応じて省略及び入れ替え可能である。また、複数のステップが同時に実行されたり、一部又は全てが重なって実行されたりしてもよい。
さらに、制御フローチャートの各ブロックは、単一の制御動作とは限らず、複数のブロックで表現される複数の制御動作に置き換えることができる。
なお、各装置の動作は、制御部から各装置への指令の結果であり、これらはソフトウェア・アプリケーションの各ステップによって表現される。
(6) Control Operation The control operation of the camera system 100 will be explained.
The control flowchart described below is an example, and each step can be omitted or replaced as necessary. Further, a plurality of steps may be executed simultaneously, or some or all of the steps may be executed overlappingly.
Furthermore, each block in the control flowchart is not limited to a single control operation, and can be replaced with a plurality of control operations expressed by a plurality of blocks.
Note that the operation of each device is the result of instructions from the control unit to each device, and these are expressed by each step of the software application.

(6-1)異常発生時の画像処理コントローラの制御動作
図9を用いて、異常発生時の画像処理コントローラ80の制御動作を説明する。図9は、異常発生時の画像処理コントローラの制御動作を示すフローチャートである。
ステップS1では、撮影画像に基づいて装置の異常がある否かが判断される。具体的には、画像処理コントローラ80の異常判定部82が上記判断を行う。なお、装置の異常は、例えば、図6において荷崩れ、荷はみ等の不具合である。
ステップS2では、信号がカメラコントローラ90に送信される。具体的には、画像処理コントローラ80の通信部87が、信号をカメラコントローラ90に送信する。信号は、カメラコントローラ90の通信部95によって受信される(図10のステップS3のYesに対応)。
(6-1) Control operation of the image processing controller when an abnormality occurs The control operation of the image processing controller 80 when an abnormality occurs will be explained using FIG. FIG. 9 is a flowchart showing the control operation of the image processing controller when an abnormality occurs.
In step S1, it is determined whether or not there is an abnormality in the device based on the photographed image. Specifically, the abnormality determination unit 82 of the image processing controller 80 makes the above determination. It should be noted that the abnormality of the apparatus is, for example, problems such as the load collapsing and the load being caught in FIG. 6.
In step S2, a signal is sent to the camera controller 90. Specifically, the communication unit 87 of the image processing controller 80 transmits a signal to the camera controller 90. The signal is received by the communication unit 95 of the camera controller 90 (corresponding to Yes in step S3 in FIG. 10).

(6-2)カメラコントローラの第1動画データ及び第2動画データの抽出制御動作
図10を用いて、カメラコントローラ90の第1動画データ及び第2動画データの抽出制御動作を説明する。図10は、カメラコントローラの第1動画データ及び第2動画データの抽出制御動作を示すフローチャートである。
ステップS3では、信号を受信するのを待機する。具体的には、カメラコントローラ90の通信部95が、画像処理コントローラ80からの信号を受信する(図9のステップS2に対応)のを待機する。信号を受信すれば、プロセスはステップS4に移行する。
(6-2) Extraction control operation of the first moving image data and second moving image data of the camera controller The extraction control operation of the first moving image data and the second moving image data of the camera controller 90 will be explained using FIG. FIG. 10 is a flowchart showing the extraction control operation of the camera controller for extracting the first video data and the second video data.
In step S3, it waits to receive a signal. Specifically, the communication unit 95 of the camera controller 90 waits for receiving a signal from the image processing controller 80 (corresponding to step S2 in FIG. 9). If a signal is received, the process moves to step S4.

ステップS4では、撮影動画データから第1動画データが抽出・保存される.具体的には、画像抽出部92の第1抽出部97が、信号入力の前後もしくは所定フレーム数分の画像を撮影動画データから抽出し、第1動画データとして記憶部93に保存する。
ステップS5では、第1動画データから第2動画データが抽出・保存される。具体的には、画像抽出部92の第2抽出部98が、機械学習用の学習データとして、第1動画データから所定時間もしくは所定フレーム数分の画像を抽出し、第2動画データとして記憶部93に保存する。
以上より、この実施形態では、機械に所定の事象が発生したことを認識した事象認識時刻は、カメラコントローラ90の通信部95が、画像処理コントローラ80からの信号を受信した時刻である。
なお、ステップS4とステップS5のタイミングは限定されない。例えば、ステップS5は、ステップS4の直後又は所定時間経過後に実行されてもよい。
In step S4, first video data is extracted and saved from the captured video data. Specifically, the first extraction section 97 of the image extraction section 92 extracts images before and after the signal input or for a predetermined number of frames from the captured video data, and stores them in the storage section 93 as first video data.
In step S5, the second video data is extracted and saved from the first video data. Specifically, the second extraction unit 98 of the image extraction unit 92 extracts images for a predetermined time or a predetermined number of frames from the first video data as learning data for machine learning, and stores them as second video data in the storage unit. Save to 93.
As described above, in this embodiment, the event recognition time at which it is recognized that a predetermined event has occurred in the machine is the time at which the communication unit 95 of the camera controller 90 receives a signal from the image processing controller 80.
Note that the timing of step S4 and step S5 is not limited. For example, step S5 may be executed immediately after step S4 or after a predetermined period of time has elapsed.

上記のカメラシステム100では、比較的長い期間の動画を表す第1動画データを抽出するので、人は、当該動画を見ることによって所定の事象が発生する様子を把握することができる。また、カメラシステム100では、所定の事象の発生を判定するための機械学習用データとして、比較的短い期間の動画を表す第2動画データを利用できる。ここでは、第2動画データの抽出が自動的に行われるので、効率が良い。 In the camera system 100 described above, the first video data representing a relatively long period of time is extracted, so a person can understand how a predetermined event occurs by viewing the video. Furthermore, in the camera system 100, second video data representing a relatively short period of video can be used as machine learning data for determining the occurrence of a predetermined event. Here, the extraction of the second moving image data is performed automatically, which is efficient.

図11を用いて、撮影動画データと、第1動画データと、第2動画データの関係を説明する。図11は、撮影動画データと、第1動画データと、第2動画データの関係を示す模式図である。
図から明らかなように第2動画データは第1動画データから抽出されるので、第1動画データを抽出した段階で元の動画データを記憶しておく必要がなくなる。また、複数の第2動画データを抽出するのが容易になる。
The relationship between photographed video data, first video data, and second video data will be explained using FIG. 11. FIG. 11 is a schematic diagram showing the relationship between photographed video data, first video data, and second video data.
As is clear from the figure, since the second moving image data is extracted from the first moving image data, there is no need to store the original moving image data at the stage when the first moving image data is extracted. Moreover, it becomes easy to extract a plurality of second moving image data.

2.第2実施形態
第1実施形態では1つの信号に対して1つの第2動画データを抽出していたが、複数の第2動画データを抽出してもよい。
図12を用いて、そのような実施例を第2実施形態として説明する。図12は、第2実施形態の撮影動画データと、第1動画データと、第2動画データの関係を示す模式図である。なお、基本構成及び基本動作は第1実施形態と共通しているので、以下異なる点を中心に説明する。
2. Second Embodiment In the first embodiment, one second moving image data is extracted for one signal, but a plurality of second moving image data may be extracted.
Such an example will be described as a second embodiment using FIG. 12. FIG. 12 is a schematic diagram showing the relationship between photographed video data, first video data, and second video data according to the second embodiment. Note that since the basic configuration and basic operation are the same as those of the first embodiment, the following description will focus on the differences.

第2動画データを抽出するステップでは、第1動画データから複数の第2動画データが抽出される。具体的には、図12に示すように、第2抽出部98が1つの第1動画データから複数の第2動画データを抽出する。
上記の場合、第1動画データに複数の事象が記録されている場合に、複数の推論エンジンに対してそれぞれ専用の第2動画データを提供できる。この場合、複数の第2動画データは同じであってもよいし、異なっていてもよい。なお、異なっている場合とは、各第2動画データの範囲の一部又は全てがずれている状態である。
In the step of extracting second video data, a plurality of second video data are extracted from the first video data. Specifically, as shown in FIG. 12, the second extraction unit 98 extracts a plurality of second moving image data from one piece of first moving image data.
In the above case, when a plurality of events are recorded in the first video data, dedicated second video data can be provided to each of the plurality of inference engines. In this case, the plurality of second moving image data may be the same or different. Note that the case of being different means that a part or all of the range of each second moving image data is out of alignment.

3.第3実施形態
第1実施形態及び第2実施形態では第2動画データの長さは特に限定されていなかったが、条件に応じて第2動画データの長さを変更してもよい。
図13を用いて、そのような実施例を第3実施形態として説明する。図13は、第3実施形態のカメラコントローラの第1動画データ及び第2動画データの抽出制御動作を示すフローチャートである。なお、基本構成及び基本動作は第1実施形態と共通しているので、以下異なる点を中心に説明する。
3. Third Embodiment Although the length of the second video data was not particularly limited in the first and second embodiments, the length of the second video data may be changed depending on conditions.
Such an example will be described as a third embodiment using FIG. 13. FIG. 13 is a flowchart showing the extraction control operation of the camera controller of the third embodiment for extracting the first video data and the second video data. Note that since the basic configuration and basic operation are the same as those of the first embodiment, the following description will focus on the differences.

ステップS6が、第1実施形態の図10のステップS3とステップS4の間に挿入されている。ステップS6では、第2動画データの長さが決定される。具体的には、第2抽出部98が信号に含まれた情報に基づいて、第2動画データの長さを決定する。
これにより、機械学習用データとして有効な時間長さ(異常発生の前後フレーム数)の第2動画データが得られる。したがって、機械学習に不要な又は不都合な情報が機械学習に提供されることがない。
Step S6 is inserted between step S3 and step S4 in FIG. 10 of the first embodiment. In step S6, the length of the second video data is determined. Specifically, the second extraction unit 98 determines the length of the second video data based on information included in the signal.
As a result, second video data having a time length (the number of frames before and after the occurrence of an abnormality) that is effective as data for machine learning is obtained. Therefore, unnecessary or inconvenient information for machine learning is not provided to machine learning.

一例として、信号に含まれた情報は、所定の事象の分類を示す事象分類情報である。この場合、事象分類情報に応じて第2動画データの時間長さが決定される。この結果、適切な長さの第2動画データが抽出される。例えば、荷くずれの場合は比較的短い時間長さが選ばれ、荷はみの場合は比較的長い時間長さが選ばれる。後者の場合は、荷はみとラベル剥がれとの区別をするために所定時間の観察が必要だからである。例えば、荷はみの場合は長時間に亘って事象が継続するが、ラベル剥がれではラベルがはためいてはみ出すので事象は瞬間的にしか起こらない。 As an example, the information included in the signal is event classification information indicating a classification of a predetermined event. In this case, the time length of the second video data is determined according to the event classification information. As a result, second video data of an appropriate length is extracted. For example, in the case of load shedding, a relatively short time length is selected, and in the case of load lifting, a relatively long time length is selected. This is because in the latter case, observation for a predetermined period of time is required to distinguish between load damage and label peeling. For example, in the case of load shedding, the event continues over a long period of time, but in the case of label peeling, the event only occurs momentarily because the label flaps and sticks out.

一例として、信号に含まれた情報は、機械の動作内容を示す動作内容情報である。動作内容とは、例えば、スタッカクレーン3の場合は、荷の搬送、荷下ろし、荷積みである。なお、動作内容は、運んでいる荷物の種類などの対象物の情報を含んでいてもよい。この場合、動作内容情報に応じて第2動画データの時間長さが決定される。この結果、適切な時間長さの第2動画データが抽出される。
なお、本実施形態の変形例として、第2動画データの長さは信号受信の前段階で判断されていてもよく、その場合は信号に第2動画データの長さ情報が含まれている。
As an example, the information included in the signal is operation content information indicating the operation content of the machine. For example, in the case of the stacker crane 3, the operation contents include transporting, unloading, and loading a load. Note that the operation details may include information about the object such as the type of luggage being carried. In this case, the time length of the second video data is determined according to the action content information. As a result, second video data with an appropriate time length is extracted.
In addition, as a modification of this embodiment, the length of the second moving image data may be determined before receiving the signal, and in that case, the length information of the second moving image data is included in the signal.

4.第4実施形態
第1~第3実施形態では第2動画データのエリア(範囲)は特に限定されていなかったが、第2動画データのエリアを、撮影動画の全体エリアの一部である部分エリアに限定してもよい。
図14及び図15を用いて、そのような実施例を第4実施形態として説明する。図14は、第4実施形態のカメラコントローラの第1動画データ及び第2動画データの抽出制御動作を示すフローチャートである。図15は、第4実施形態の抽出された第2動画データと第1動画データの関係を示す図である。なお、基本構成及び基本動作は第1実施形態と共通しているので、以下異なる点を中心に説明する。
ステップS7が、第1実施形態の図10のステップS3とステップS4の間に挿入されている。ステップS7では、第2動画データの抽出エリアが決定される。具体的には、第2抽出部98が、信号に含まれた情報に基づいて、第2動画データの抽出エリアを決定する。
図15では、複数の第2動画データの抽出エリアDが示されている。ここでの抽出エリアDは、荷Wのはみ出しの有無を知ることができる画像領域である。抽出エリアDは必要最低限の領域であり、したがって細長い枠形状の領域になっている。ただし抽出エリアの形状、個数は特に限定されない。
複数の抽出エリアDは個別のデータとして取り扱われてもよいし、特定の第2動画データの一部として取り扱われてもよい。
4. Fourth Embodiment In the first to third embodiments, the area (range) of the second video data was not particularly limited, but the area of the second video data is a partial area that is a part of the entire area of the captured video. may be limited to.
Such an example will be described as a fourth embodiment using FIGS. 14 and 15. FIG. 14 is a flowchart showing the extraction control operation of the first video data and second video data of the camera controller according to the fourth embodiment. FIG. 15 is a diagram showing the relationship between the extracted second video data and first video data in the fourth embodiment. Note that since the basic configuration and basic operation are the same as those of the first embodiment, the following description will focus on the differences.
Step S7 is inserted between step S3 and step S4 in FIG. 10 of the first embodiment. In step S7, an extraction area for the second moving image data is determined. Specifically, the second extraction unit 98 determines the extraction area of the second video data based on the information included in the signal.
In FIG. 15, a plurality of extraction areas D of second moving image data are shown. The extraction area D here is an image area from which it is possible to know whether or not the load W is protruding. The extraction area D is the minimum necessary area, and therefore has an elongated frame shape. However, the shape and number of extraction areas are not particularly limited.
The plurality of extraction areas D may be handled as individual data, or may be handled as part of specific second video data.

上記の場合、適切なエリアの第2動画データを抽出できる。つまり、機械学習に必要なエリアのみからなる第2動画データを機械学習の対象にできる。したがって、機械学習に不要な又は不都合な情報が機械学習に提供されることがない。 In the above case, it is possible to extract second video data in an appropriate area. In other words, the second video data consisting of only the area necessary for machine learning can be targeted for machine learning. Therefore, unnecessary or inconvenient information for machine learning is not provided to machine learning.

一例として、信号に含まれた情報は、所定の事象の分類を示す事象分類情報である。
この場合、事象分類情報に応じて第2動画データのエリアが決定される。この結果、適切なエリアが第2動画データとして抽出できる。
一例として、信号に含まれた情報は、機械の動作内容を示す動作内容情報である。この場合、動作内容情報に応じて第2動画データのエリアが決定される。この結果、適切なエリアを第2動画データとして抽出できる。
なお、本実施形態の変形例として、第2動画データのエリアは信号受信の前段階で判断されていてもよく、この場合は信号に第2動画データのエリア情報が含まれている。
As an example, the information included in the signal is event classification information indicating a classification of a predetermined event.
In this case, the area of the second video data is determined according to the event classification information. As a result, an appropriate area can be extracted as the second video data.
As an example, the information included in the signal is operation content information indicating the operation content of the machine. In this case, the area of the second video data is determined according to the action content information. As a result, an appropriate area can be extracted as the second video data.
Note that as a modification of the present embodiment, the area of the second moving image data may be determined before receiving the signal, and in this case, the area information of the second moving image data is included in the signal.

5.第5実施形態
第1~第4実施形態では、第2動画データの機械学習部81への提供方法は限定されていなかったが、第2動画データの機械学習部81への提供方法を工夫してもよい。
図16を用いて、そのような実施例を第5実施形態として説明する。図16は、第5実施形態のカメラコントローラの第1動画データ及び第2動画データの抽出制御動作を示すフローチャートである。なお、基本構成及び基本動作は第1実施形態と共通しているので、以下異なる点を中心に説明する。
5. Fifth Embodiment In the first to fourth embodiments, the method of providing the second video data to the machine learning unit 81 was not limited, but the method of providing the second video data to the machine learning unit 81 was devised. It's okay.
Such an example will be described as a fifth embodiment using FIG. 16. FIG. 16 is a flowchart showing the extraction control operation of the first moving image data and the second moving image data of the camera controller of the fifth embodiment. Note that since the basic configuration and basic operation are the same as those of the first embodiment, the following description will focus on the differences.

ステップS8が、第1実施形態の図10のステップS5の後に実行される。ステップS8では、第2動画データが複数のグループのいずれかに自動で分類される。具体的には、第2抽出部98が、第2動画データを所定のカテゴリごとに分類する。これにより、分類されたカテゴリごとの推論エンジンが作成される。
この実施形態では、自動で機械学習用データを収集及び分類できるので、作業者が手作業で機械学習用データを分類しなくてもよい。したがって、作業負荷が小さくなる。
Step S8 is executed after step S5 in FIG. 10 of the first embodiment. In step S8, the second video data is automatically classified into one of a plurality of groups. Specifically, the second extraction unit 98 classifies the second video data into predetermined categories. This creates an inference engine for each classified category.
In this embodiment, the machine learning data can be automatically collected and classified, so there is no need for an operator to manually classify the machine learning data. Therefore, the workload is reduced.

一つの分類基準として、所定の事象ごとに第2動画データが分類される。この場合、所定の事象の種類ごとに推論エンジンを作成できる。
一の分類基準として、機械の動作内容ごとに第2動画データが分類される。この場合、機械の動作内容ごとに推論エンジンを作成できる。
As one classification criterion, the second video data is classified for each predetermined event. In this case, an inference engine can be created for each type of predetermined event.
As one classification criterion, the second video data is classified for each operation content of the machine. In this case, an inference engine can be created for each type of machine operation.

一つの分類基準として、機械ごとに第2動画データが分類される。この場合、機械ごとに推論エンジンを作成できる。
一つの分類基準として、カメラごとに第2動画データが分類される。この場合、カメラごとに推論エンジンを作成できる。
As one classification standard, the second video data is classified for each machine. In this case, an inference engine can be created for each machine.
As one classification criterion, the second video data is classified for each camera. In this case, an inference engine can be created for each camera.

6.第6実施形態
第1~第5実施形態では第2動画データは第1動画データから抽出していたが、元の撮影動画データから抽出してもよい。
図17を用いて、そのような実施例を第6実施形態として説明する。図17は、第6実施形態の撮影動画データと、第1動画データと、第2動画データの関係を示す模式図である。なお、基本構成及び基本動作は第1実施形態と共通しているので、以下異なる点を中心に説明する。
第2動画データを抽出するステップでは、撮影動画データからから第2動画データが抽出される。この場合、第1動画データの抽出と第2動画データの抽出の順番は限定されない。
6. Sixth Embodiment In the first to fifth embodiments, the second video data is extracted from the first video data, but it may be extracted from the original captured video data.
Such an example will be described as a sixth embodiment using FIG. 17. FIG. 17 is a schematic diagram showing the relationship between photographed video data, first video data, and second video data according to the sixth embodiment. Note that since the basic configuration and basic operation are the same as those of the first embodiment, the following description will focus on the differences.
In the step of extracting the second moving image data, the second moving image data is extracted from the photographed moving image data. In this case, the order of extraction of the first video data and extraction of the second video data is not limited.

7.第7実施形態
第1~第6実施形態では図7に示すように学習部と異常判定部がセットになっているが、本発明はそのような実施形態に限定されず、学習部と異常判定部が分けて設けられていてもよい。
7. Seventh Embodiment In the first to sixth embodiments, the learning section and the abnormality determination section are set as a set as shown in FIG. 7, but the present invention is not limited to such an embodiment, and the learning section and the abnormality determination section are The parts may be provided separately.

図18を用いて、そのような実施例を第7実施形態として説明する。図18は、第7実施形態の画像処理コントローラ及びカメラコントローラの機能ブロック図である。なお、第1実施形態と共通の点については説明を省略する。 Such an example will be described as a seventh embodiment using FIG. 18. FIG. 18 is a functional block diagram of an image processing controller and a camera controller according to the seventh embodiment. Note that descriptions of common points with the first embodiment will be omitted.

カメラシステム100Aは、搬送コントローラ50A、画像処理コントローラ80A、カメラコントローラ90A及び機械学習コントローラ101を有している。
画像処理コントローラ80Aは、カメラコントローラ90Aより受信した第1動画データ及び異常情報を記憶し、表示出力する。
The camera system 100A includes a transport controller 50A, an image processing controller 80A, a camera controller 90A, and a machine learning controller 101.
The image processing controller 80A stores the first moving image data and abnormality information received from the camera controller 90A, and outputs them for display.

画像処理コントローラ80Aは、画像処理部83Aを有している。画像処理部83Aは、異常判定された第1動画データにマーキング等の画像処理を行う。これにより、オペレータは第1動画データを参照する際に、異常の種類や原因を知ることができる。
画像処理コントローラ80Aは、表示制御部84Aを有している。表示制御部84Aは、表示装置89Aに、例えばマーキングされた第1動画データを表示できる。
The image processing controller 80A has an image processing section 83A. The image processing unit 83A performs image processing such as marking on the first moving image data determined to be abnormal. This allows the operator to know the type and cause of the abnormality when referring to the first video data.
The image processing controller 80A has a display control section 84A. The display control unit 84A can display, for example, marked first video data on the display device 89A.

画像処理コントローラ80Aは、記憶部85Aを有している。記憶部85Aには、機械の動作を撮影した動画データとして、第1動画データが保存される。
画像処理コントローラ80Aは、通信部87Aを有している。
画像処理コントローラ80Aには、入力装置88A及び表示装置89Aが接続されている。
The image processing controller 80A has a storage section 85A. First video data is stored in the storage unit 85A as video data of the operation of the machine.
The image processing controller 80A has a communication section 87A.
An input device 88A and a display device 89A are connected to the image processing controller 80A.

カメラコントローラ90Aは、4台のカメラ51~54を制御し、画像を撮影するものである。
カメラコントローラ90Aには、4台のカメラ51~54が接続されている。
The camera controller 90A controls the four cameras 51 to 54 to take images.
Four cameras 51 to 54 are connected to the camera controller 90A.

カメラコントローラ90Aは、4台のカメラ51~54の撮像を制御するカメラ制御部91Aを有している。
カメラコントローラ90Aは、画像処理をするための画像処理ソリューション・ソフトウェアからなる画像抽出部92Aを有している。
The camera controller 90A includes a camera control section 91A that controls imaging by the four cameras 51-54.
The camera controller 90A has an image extraction section 92A made of image processing solution software for image processing.

画像抽出部92Aは、第1抽出部97Aと第2抽出部98Aとを有している。
第1抽出部97Aは、撮影動画データから、信号が受信された受信時刻を含む第1期間の長さの第1動画データを抽出し、記憶部93Aに保存する。
第2抽出部98Aは、第1動画データから、上記受信時刻を含む第2期間の長さの第2動画データを抽出し、記憶部93Aに保存する。第2動画データは、所定の事象(例えば、機械の異常)の発生を判定するための機械学習用データであり、第2期間は、第1期間よりも短い。
The image extraction section 92A includes a first extraction section 97A and a second extraction section 98A.
The first extraction unit 97A extracts first video data having a length of a first period including the reception time when the signal was received from the captured video data, and stores it in the storage unit 93A.
The second extraction unit 98A extracts second video data having a length of a second period including the reception time from the first video data, and stores it in the storage unit 93A. The second video data is machine learning data for determining the occurrence of a predetermined event (for example, a machine abnormality), and the second period is shorter than the first period.

カメラコントローラ90Aは、記憶部93Aを有している。記憶部93には、4台のカメラ51~54によって撮像された画像データ(撮影動画データ、第1動画データ、第2動画データなど)が保存される。なお、記憶部は、画像サーバによって実現されてもよい。 The camera controller 90A has a storage section 93A. The storage unit 93 stores image data (photographed video data, first video data, second video data, etc.) captured by the four cameras 51 to 54. Note that the storage unit may be realized by an image server.

カメラコントローラ90Aは、通信部95Aを有している。
カメラコントローラ90Aは、異常判定部82Aを有している。異常判定部82Aは、一又は複数の異常判定推論エンジンを有しており、第1動画データの異常判定を行う。なお、異常判定部82Aは、異常内容ごとの複数の推論エンジンデータを保持している
The camera controller 90A has a communication section 95A.
The camera controller 90A has an abnormality determination section 82A. The abnormality determination unit 82A includes one or more abnormality determination inference engines, and performs abnormality determination on the first video data. Note that the abnormality determination unit 82A holds a plurality of inference engine data for each abnormality content.

機械学習コントローラ101は、機械学習部81Aを有している。機械学習部81Aは、機械学習用データである第2動画データに基づいて、機械学習を行い、異常判定のための推論エンジンを構築する。
機械学習コントローラ101は、記憶部85Bを有している。
機械学習コントローラ101は、通信部87Bを有している。
The machine learning controller 101 has a machine learning section 81A. The machine learning unit 81A performs machine learning based on the second video data, which is data for machine learning, and constructs an inference engine for abnormality determination.
The machine learning controller 101 has a storage section 85B.
The machine learning controller 101 has a communication section 87B.

カメラコントローラ90Aにおいて異常判定部82Aが異常を検出した場合、第1抽出部97A及び第2抽出部98Aがそれぞれ第1動画データと第2動画データを抽出する。この実施形態では、機械に所定の事象が発生したことを認識した事象認識時刻は、異常判定部82Aが異常を検出した時刻である。第1動画データは異常情報と共に、画像処理コントローラ80Aに送信される。第2動画データは異常情報と共に、機械学習コントローラ101に送信される。
カメラコントローラ90Aは、機械学習コントローラ101から新しい推論エンジンデータを受信した場合は、異常判定部82Aの推論エンジンを更新する。
When the abnormality determination unit 82A detects an abnormality in the camera controller 90A, the first extraction unit 97A and the second extraction unit 98A extract the first video data and the second video data, respectively. In this embodiment, the event recognition time at which it is recognized that a predetermined event has occurred in the machine is the time at which the abnormality determination unit 82A detects an abnormality. The first video data is sent to the image processing controller 80A together with the abnormality information. The second video data is transmitted to the machine learning controller 101 together with the abnormality information.
When the camera controller 90A receives new inference engine data from the machine learning controller 101, it updates the inference engine of the abnormality determination unit 82A.

機械学習コントローラ101は、カメラコントローラ90Aより第2動画データと異常情報を受信する。機械学習部81Aは、推論エンジンの強化学習を行う。機械学習部81Aは、異常内容ごとの学習モデルを保持している。機械学習部81Aによる学習の結果、新しい推論エンジンデータが生成された場合は、機械学習コントローラ101は、カメラコントローラ90Aに新しい推論エンジンデータを送信する。 The machine learning controller 101 receives the second video data and abnormality information from the camera controller 90A. The machine learning unit 81A performs reinforcement learning of the inference engine. The machine learning unit 81A holds a learning model for each abnormality content. If new inference engine data is generated as a result of learning by the machine learning unit 81A, the machine learning controller 101 transmits the new inference engine data to the camera controller 90A.

この実施形態では、機械学習コントローラ101は例えば倉庫内ネットワーク上に1つ配置され、複数のスタッカクレーンごとに設けられたカメラユニット(カメラ及びカメラコントローラの組)に対して、生成した推論エンジンを配信できる。この場合、各カメラユニットで異常判定、学習用動画の収集が行われる。 In this embodiment, one machine learning controller 101 is placed, for example, on a warehouse network, and distributes the generated inference engine to a camera unit (a set of camera and camera controller) provided for each of a plurality of stacker cranes. can. In this case, each camera unit performs abnormality determination and collection of learning videos.

8.実施形態の共通事項
上記第1~第7実施形態は、下記の構成及び機能を共通に有している。
本実施形態の機械学習用データ収集方法は、機械(例えば、スタッカクレーン3)の動作を撮影するカメラを備えるカメラシステム(例えば、カメラシステム100)において機械学習用データを収集する方法である。この方法は、下記のステップを備えている。
◎機械の動作を撮影した撮影動画データを記憶する撮影動画データ記憶ステップ。
◎機械に所定の事象(例えば、スタッカクレーン3の異常)が発生したことを認識する事象認識ステップ(例えば、ステップS3のYes)。
◎撮影動画データから、事象が認識された事象認識時刻を含む第1期間の長さの第1動画データを抽出する第1動画抽出ステップ(例えば、ステップS4)。
◎撮影動画データに含まれる第2動画データであって、事象認識時刻を含む第2期間の長さの第2動画データを抽出する第2動画抽出ステップ(例えば、ステップS5)。
第2期間は、第1期間よりも短い。
第2動画データは、所定の事象の発生を判定するための機械学習用データである。
この方法は、比較的長い期間の動画を表す第1動画データを抽出するので、人は、当該動画を見ることによって所定の事象が発生する様子を把握できる。また、この方法では、所定の事象の発生を判定するための機械学習用データとして、比較的短い期間の動画を表す第2動画データを利用できる。ここでは、第2動画データの抽出が自動的に行われるので、効率が良い。
8. Common Items of the Embodiments The first to seventh embodiments have the following configurations and functions in common.
The machine learning data collection method of this embodiment is a method of collecting machine learning data in a camera system (for example, camera system 100) that includes a camera that photographs the operation of a machine (for example, stacker crane 3). This method comprises the following steps.
◎Photographed video data storage step that stores photographed video data of machine operations.
◎Event recognition step (for example, Yes in step S3) for recognizing that a predetermined event (for example, an abnormality in the stacker crane 3) has occurred in the machine.
◎A first video extraction step (for example, step S4) of extracting first video data having a length of a first period including the event recognition time at which the event was recognized from the captured video data.
◎A second moving image extraction step (for example, step S5) of extracting second moving image data included in the photographed moving image data and having a length of a second period including the event recognition time.
The second period is shorter than the first period.
The second video data is machine learning data for determining the occurrence of a predetermined event.
Since this method extracts first video data representing a relatively long period of video, a person can understand how a predetermined event occurs by viewing the video. Further, in this method, second video data representing a relatively short period of video can be used as machine learning data for determining the occurrence of a predetermined event. Here, the extraction of the second moving image data is performed automatically, which is efficient.

9.他の実施形態
以上、本発明の複数の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。特に、本明細書に書かれた複数の実施形態及び変形例は必要に応じて任意に組み合せ可能である。
9. Other Embodiments Although a plurality of embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various changes can be made without departing from the gist of the invention. In particular, the multiple embodiments and modifications described in this specification can be arbitrarily combined as necessary.

第1実施形態では機械はスタッカクレーンであったが、機械の種類は限定されない。例えば、機械は、倉庫のラックの各段を走行するシャトル台車であってもよいし、地上又は天井のレールに沿って走行する有軌道台車でもよい。また、機械は搬送装置以外の機械でもよい。 In the first embodiment, the machine is a stacker crane, but the type of machine is not limited. For example, the machine may be a shuttle trolley that travels between racks in a warehouse, or a tracked trolley that travels along ground or ceiling rails. Further, the machine may be a machine other than the transport device.

カメラの数は特に限定されない。1~3台でもよいし、5台以上であってもよい。
全てのカメラの画像が同時に表示装置において表示されなくてもよい。例えば、1台のカメラの画像のみが表示され、切り替え可能となっていてもよい。
The number of cameras is not particularly limited. The number may be 1 to 3, or 5 or more.
Images from all cameras may not be displayed on the display device at the same time. For example, only images from one camera may be displayed and may be switchable.

本発明は、機械学習用データ収集方法及びカメラシステムに広く適用できる。 The present invention can be widely applied to data collection methods and camera systems for machine learning.

1 :自動倉庫
2 :ラック
3 :スタッカクレーン
5 :スタッカクレーン通路
7 :前側支柱
9 :後側支柱
11 :荷物支承部材
13 :棚
15 :フォーク通過間隙
21 :走行レール
22 :マスト
22A :第1マスト
22B :第2マスト
23 :走行台車
24 :走行車輪
25 :下側フレーム
26 :上側フレーム
27 :昇降台
28 :昇降ガイドローラ
29 :移載装置
29a :スライドフォーク
31 :端部
32 :端部
33 :端部
34 :端部
40 :ワイヤ
41 :制御盤
44 :プーリ
45 :フレーム
50 :搬送コントローラ
51 :第1カメラ
52 :第2カメラ
53 :第3カメラ
54 :第4カメラ
59 :走行モータ
63 :昇降モータ
64 :ドラム
73 :走行部
74 :昇降部
75 :移載部
80 :画像処理コントローラ
81 :機械学習部
82 :異常判定部
83 :画像処理部
84 :表示制御部
85 :記憶部
87 :通信部
88 :入力装置
89 :表示装置
90 :カメラコントローラ
91 :カメラ制御部
92 :画像処理部
93 :記憶部
95 :通信部
96 :入力装置
97 :第1抽出部
98 :第2抽出部
100 :カメラシステム
1: Automatic warehouse 2: Rack 3: Stacker crane 5: Stacker crane passage 7: Front support 9: Rear support 11: Load support member 13: Shelf 15: Fork passage gap 21: Traveling rail 22: Mast 22A: First mast 22B: Second mast 23: Traveling cart 24: Traveling wheel 25: Lower frame 26: Upper frame 27: Elevating platform 28: Elevating guide roller 29: Transfer device 29a: Slide fork 31: End portion 32: End portion 33: End part 34 : End part 40 : Wire 41 : Control panel 44 : Pulley 45 : Frame 50 : Transport controller 51 : First camera 52 : Second camera 53 : Third camera 54 : Fourth camera 59 : Travel motor 63 : Lifting Motor 64: Drum 73: Traveling section 74: Lifting section 75: Transfer section 80: Image processing controller 81: Machine learning section 82: Abnormality determination section 83: Image processing section 84: Display control section 85: Storage section 87: Communication section 88: Input device 89: Display device 90: Camera controller 91: Camera control section 92: Image processing section 93: Storage section 95: Communication section 96: Input device 97: First extraction section 98: Second extraction section 100: Camera system

Claims (17)

機械の動作を撮影するカメラを備えるカメラシステムにおいて機械学習用データを収集する方法であって、
前記機械の動作を撮影した撮影動画データを記憶する撮影動画データ記憶ステップと、
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識ステップと、
前記撮影動画データから、前記事象認識の時刻を含む第1期間の長さの第1動画データを抽出する第1動画データ抽出ステップと、
前記撮影動画データに含まれる第2動画データであって、前記事象認識の時刻を含む第2期間の長さの前記第2動画データを抽出する第2動画データ抽出ステップと、
前記異常信号に含まれた前記所定の事象の分類を示す事象分類情報に応じて、前記第2期間の長さを決定する長さ決定ステップと、
を備え、
前記第2期間は、前記第1期間よりも短く、
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データである、機械学習用データ収集方法。
A method for collecting data for machine learning in a camera system equipped with a camera that photographs the operation of a machine, the method comprising:
a photographed video data storage step of storing photographed video data of the operation of the machine;
an event recognition step of recognizing that a predetermined event has occurred in the machine based on the photographed image and outputting an abnormal signal ;
a first video data extraction step of extracting first video data having a length of a first period including the time of the event recognition from the captured video data;
a second video data extraction step of extracting second video data included in the captured video data and having a length of a second period including the time of the event recognition;
a length determining step of determining the length of the second period according to event classification information indicating a classification of the predetermined event included in the abnormal signal;
Equipped with
The second period is shorter than the first period,
The second moving image data is machine learning data for determining occurrence of the predetermined event.
機械の動作を撮影するカメラを備えるカメラシステムにおいて機械学習用データを収集する方法であって、A method for collecting data for machine learning in a camera system equipped with a camera that photographs the operation of a machine, the method comprising:
前記機械の動作を撮影した撮影動画データを記憶する撮影動画データ記憶ステップと、a photographed video data storage step of storing photographed video data of the operation of the machine;
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識ステップと、an event recognition step of recognizing that a predetermined event has occurred in the machine based on the photographed image and outputting an abnormal signal;
前記撮影動画データから、前記事象認識の時刻を含む第1期間の長さの第1動画データを抽出する第1動画データ抽出ステップと、a first video data extraction step of extracting first video data having a length of a first period including the time of the event recognition from the captured video data;
前記撮影動画データに含まれる第2動画データであって、前記事象認識の時刻を含む第2期間の長さの前記第2動画データを抽出する第2動画データ抽出ステップと、a second video data extraction step of extracting second video data included in the captured video data and having a length of a second period including the time of the event recognition;
前記異常信号に含まれた機械の動作内容を示す動作内容情報に応じて、前記第2期間の長さを決定する長さ決定ステップと、a length determining step of determining the length of the second period according to operation content information indicating the operation content of the machine included in the abnormal signal;
を備え、Equipped with
前記第2期間は、前記第1期間よりも短く、The second period is shorter than the first period,
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データである、機械学習用データ収集方法。The second moving image data is machine learning data for determining occurrence of the predetermined event.
機械の動作を撮影するカメラを備えるカメラシステムにおいて機械学習用データを収集する方法であって、A method for collecting data for machine learning in a camera system equipped with a camera that photographs the operation of a machine, the method comprising:
前記機械の動作を撮影した撮影動画データを記憶する撮影動画データ記憶ステップと、a photographed video data storage step of storing photographed video data of the operation of the machine;
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識ステップと、an event recognition step of recognizing that a predetermined event has occurred in the machine based on the photographed image and outputting an abnormal signal;
前記撮影動画データから、前記事象認識の時刻を含む第1期間の長さの第1動画データを抽出する第1動画データ抽出ステップと、a first video data extraction step of extracting first video data having a length of a first period including the time of the event recognition from the captured video data;
前記撮影動画データに含まれる第2動画データであって、前記事象認識の時刻を含む第2期間の長さの前記第2動画データを抽出する第2動画データ抽出ステップと、a second video data extraction step of extracting second video data included in the captured video data and having a length of a second period including the time of the event recognition;
前記異常信号に含まれた前記所定の事象の分類を示す事象分類情報に応じて、撮影動画の全体画像エリアから、前記第2動画データの画像エリアを決定する画像エリア決定ステップと、an image area determining step of determining an image area of the second video data from the entire image area of the captured video according to event classification information indicating a classification of the predetermined event included in the abnormal signal;
を備え、Equipped with
前記第2期間は、前記第1期間よりも短く、The second period is shorter than the first period,
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データである、機械学習用データ収集方法。The second moving image data is machine learning data for determining occurrence of the predetermined event.
機械の動作を撮影するカメラを備えるカメラシステムにおいて機械学習用データを収集する方法であって、A method for collecting data for machine learning in a camera system equipped with a camera that photographs the operation of a machine, the method comprising:
前記機械の動作を撮影した撮影動画データを記憶する撮影動画データ記憶ステップと、a photographed video data storage step of storing photographed video data of the operation of the machine;
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識ステップと、an event recognition step of recognizing that a predetermined event has occurred in the machine based on the photographed image and outputting an abnormal signal;
前記撮影動画データから、前記事象認識の時刻を含む第1期間の長さの第1動画データを抽出する第1動画データ抽出ステップと、a first video data extraction step of extracting first video data having a length of a first period including the time of the event recognition from the captured video data;
前記撮影動画データに含まれる第2動画データであって、前記事象認識の時刻を含む第2期間の長さの前記第2動画データを抽出する第2動画データ抽出ステップと、a second video data extraction step of extracting second video data included in the captured video data and having a length of a second period including the time of the event recognition;
前記異常信号に含まれた機械の動作内容を示す動作内容情報に応じて、撮影動画の全体画像エリアから、前記第2動画データの画像エリアを決定する画像エリア決定ステップと、an image area determining step of determining an image area of the second video data from the entire image area of the captured video according to operation content information indicating the operation content of the machine included in the abnormal signal;
を備え、Equipped with
前記第2期間は、前記第1期間よりも短く、The second period is shorter than the first period,
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データである、機械学習用データ収集方法。The second moving image data is machine learning data for determining occurrence of the predetermined event.
前記第2動画データ抽出ステップでは、前記第1動画データから前記第2動画データを抽出する、請求項1~4のいずれかに記載の機械学習用データ収集方法。 5. The machine learning data collection method according to claim 1 , wherein in the second video data extraction step, the second video data is extracted from the first video data. 前記第2動画データ抽出ステップでは、前記第1動画データから複数の前記第2動画データを抽出する、請求項に記載の機械学習用データ収集方法。 6. The machine learning data collection method according to claim 5 , wherein in the second video data extraction step, a plurality of the second video data are extracted from the first video data. 前記所定の事象は機械の異常である、請求項1~のいずれかに記載の機械学習用データ収集方法。 The data collection method for machine learning according to any one of claims 1 to 6 , wherein the predetermined event is a machine abnormality. 前記撮影動画データ記憶ステップと、前記事象認識ステップと、前記第1動画データ抽出ステップと、前記第2動画データ抽出ステップと、を繰り返し実行することで、複数の第2動画データが取得され、
前記第2動画データを複数のグループに自動で分類する自動分類ステップをさらに備える、請求項1~のいずれかに記載の機械学習用データ収集方法。
A plurality of second video data is obtained by repeatedly performing the photographed video data storage step, the event recognition step, the first video data extraction step, and the second video data extraction step,
The data collection method for machine learning according to any one of claims 1 to 7 , further comprising an automatic classification step of automatically classifying the second video data into a plurality of groups.
前記自動分類ステップでは、前記所定の事象の種類ごとに前記第2動画データを分類する、請求項に記載の機械学習用データ収集方法。 9. The machine learning data collection method according to claim 8 , wherein in the automatic classification step, the second video data is classified for each type of the predetermined event. 前記自動分類ステップでは、機械の動作内容ごとに前記第2動画データを分類する、請求項に記載の機械学習用データ収集方法。 9. The machine learning data collection method according to claim 8 , wherein in the automatic classification step, the second video data is classified for each operation content of the machine. 前記機械は複数あり、
各機械について、前記撮影動画データ記憶ステップと、前記事象認識ステップと、前記第1動画データ抽出ステップと、前記第2動画データ抽出ステップとを実行することで、複数の前記第2動画データが取得され、
前記自動分類ステップでは、機械ごとに前記第2動画データを分類する、請求項に記載の機械学習用データ収集方法。
There are multiple machines;
By executing the photographed video data storage step, the event recognition step, the first video data extraction step, and the second video data extraction step for each machine, a plurality of the second video data are obtained,
9. The machine learning data collection method according to claim 8 , wherein in the automatic classification step, the second video data is classified for each machine.
前記カメラシステムは複数個の前記カメラを含み、
前記自動分類ステップでは、前記カメラごとに第2動画データを分類する、請求項に記載の機械学習用データ収集方法。
The camera system includes a plurality of the cameras,
9. The machine learning data collection method according to claim 8 , wherein in the automatic classification step, the second video data is classified for each camera.
機械の動作を撮影するカメラと、
前記機械の動作を撮影した撮影動画データを記憶する記憶部と、
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識部と、
コントローラと、を備え、
前記コントローラは、
前記撮影動画データから、前記事象が認識された事象認識時刻を含む第1期間の長さの第1動画を示す第1動画データを抽出する第1抽出部と、
前記撮影動画データに含まれる第2動画データであって、前記事象認識時刻を含む第2期間の長さの第2動画を示す前記第2動画データを抽出する第2抽出部と、を有し、
前記第2期間は、前記第1期間よりも短く、
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データであり、
前記異常信号は、前記所定の事象の分類を示す事象分類情報を含んでおり、
前記第2抽出部は、前記事象分類情報に応じて前記第2期間の長さを決定する、
カメラシステム。
A camera that records the operation of the machine,
a storage unit that stores photographed video data of the operation of the machine;
an event recognition unit that recognizes that a predetermined event has occurred in the machine based on the captured image and outputs an abnormal signal;
comprising a controller;
The controller includes:
a first extraction unit that extracts first video data indicating a first video having a length of a first period including an event recognition time at which the event was recognized from the captured video data;
a second extraction unit that extracts second video data included in the photographed video data, the second video data representing a second video having a second period including the event recognition time; death,
The second period is shorter than the first period,
The second video data is machine learning data for determining the occurrence of the predetermined event,
The abnormal signal includes event classification information indicating a classification of the predetermined event,
the second extraction unit determines the length of the second period according to the event classification information;
camera system.
機械の動作を撮影するカメラと、A camera that records the operation of the machine,
前記機械の動作を撮影した撮影動画データを記憶する記憶部と、a storage unit that stores photographed video data of the operation of the machine;
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識部と、an event recognition unit that recognizes that a predetermined event has occurred in the machine based on the captured image and outputs an abnormal signal;
コントローラと、を備え、comprising a controller;
前記コントローラは、The controller includes:
前記撮影動画データから、前記事象が認識された事象認識時刻を含む第1期間の長さの第1動画を示す第1動画データを抽出する第1抽出部と、a first extraction unit that extracts first video data indicating a first video having a length of a first period including an event recognition time at which the event was recognized from the captured video data;
前記撮影動画データに含まれる第2動画データであって、前記事象認識時刻を含む第2期間の長さの第2動画を示す前記第2動画データを抽出する第2抽出部と、を有し、a second extraction unit that extracts second video data included in the photographed video data, the second video data representing a second video having a second period including the event recognition time; death,
前記第2期間は、前記第1期間よりも短く、The second period is shorter than the first period,
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データであり、The second video data is machine learning data for determining the occurrence of the predetermined event,
前記異常信号は、機械の動作内容を示す動作内容情報を含んでおり、The abnormal signal includes operation content information indicating the operation content of the machine,
前記第2抽出部は、前記動作内容情報に応じて前記第2期間の長さを決定する、the second extraction unit determines the length of the second period according to the operation content information;
カメラシステム。camera system.
機械の動作を撮影するカメラと、A camera that records the operation of the machine,
前記機械の動作を撮影した撮影動画データを記憶する記憶部と、a storage unit that stores photographed video data of the operation of the machine;
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識部と、an event recognition unit that recognizes that a predetermined event has occurred in the machine based on the captured image and outputs an abnormal signal;
コントローラと、を備え、comprising a controller;
前記コントローラは、The controller includes:
前記撮影動画データから、前記事象が認識された事象認識時刻を含む第1期間の長さの第1動画を示す第1動画データを抽出する第1抽出部と、a first extraction unit that extracts first video data indicating a first video having a length of a first period including an event recognition time at which the event was recognized from the captured video data;
前記撮影動画データに含まれる第2動画データであって、前記事象認識時刻を含む第2期間の長さの第2動画を示す前記第2動画データを抽出する第2抽出部と、を有し、a second extraction unit that extracts second video data included in the photographed video data, the second video data representing a second video having a second period including the event recognition time; death,
前記第2期間は、前記第1期間よりも短く、The second period is shorter than the first period,
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データであり、The second video data is machine learning data for determining the occurrence of the predetermined event,
前記異常信号は、前記所定の事象の分類を示す事象分類情報を含んでおり、The abnormal signal includes event classification information indicating a classification of the predetermined event,
前記第2抽出部は、前記事象分類情報に応じて、撮影動画の全体画像エリアから、前記第2動画データの画像エリアを決定する、The second extraction unit determines an image area of the second video data from the entire image area of the captured video according to the event classification information.
カメラシステム。camera system.
機械の動作を撮影するカメラと、A camera that records the operation of the machine,
前記機械の動作を撮影した撮影動画データを記憶する記憶部と、a storage unit that stores photographed video data of the operation of the machine;
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識部と、an event recognition unit that recognizes that a predetermined event has occurred in the machine based on the captured image and outputs an abnormal signal;
コントローラと、を備え、comprising a controller;
前記コントローラは、The controller includes:
前記撮影動画データから、前記事象が認識された事象認識時刻を含む第1期間の長さの第1動画を示す第1動画データを抽出する第1抽出部と、a first extraction unit that extracts first video data indicating a first video having a length of a first period including an event recognition time at which the event was recognized from the captured video data;
前記撮影動画データに含まれる第2動画データであって、前記事象認識時刻を含む第2期間の長さの第2動画を示す前記第2動画データを抽出する第2抽出部と、を有し、a second extraction unit that extracts second video data included in the photographed video data, the second video data representing a second video having a second period including the event recognition time; death,
前記第2期間は、前記第1期間よりも短く、The second period is shorter than the first period,
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データであり、The second video data is machine learning data for determining the occurrence of the predetermined event,
前記異常信号は、機械の動作内容を示す動作内容情報を含んでおり、The abnormal signal includes operation content information indicating the operation content of the machine,
前記第2抽出部は、前記動作内容情報に応じて、撮影動画の全体画像エリアから、前記第2動画データの画像エリアを決定する、The second extraction unit determines an image area of the second video data from the entire image area of the captured video according to the action content information.
カメラシステム。camera system.
前記第2抽出部は、前記第1動画データから前記第2動画データを抽出する、請求項13~16のいずれかに記載のカメラシステム。
17. The camera system according to claim 13, wherein the second extraction unit extracts the second video data from the first video data.
JP2019104688A 2019-06-04 2019-06-04 Machine learning data collection method and camera system Active JP7342429B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019104688A JP7342429B2 (en) 2019-06-04 2019-06-04 Machine learning data collection method and camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019104688A JP7342429B2 (en) 2019-06-04 2019-06-04 Machine learning data collection method and camera system

Publications (2)

Publication Number Publication Date
JP2020197988A JP2020197988A (en) 2020-12-10
JP7342429B2 true JP7342429B2 (en) 2023-09-12

Family

ID=73648144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019104688A Active JP7342429B2 (en) 2019-06-04 2019-06-04 Machine learning data collection method and camera system

Country Status (1)

Country Link
JP (1) JP7342429B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016044007A (en) 2014-08-20 2016-04-04 村田機械株式会社 Conveyance system
JP2018041123A (en) 2016-09-05 2018-03-15 日本電気株式会社 Driving situation recording device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016044007A (en) 2014-08-20 2016-04-04 村田機械株式会社 Conveyance system
JP2018041123A (en) 2016-09-05 2018-03-15 日本電気株式会社 Driving situation recording device

Also Published As

Publication number Publication date
JP2020197988A (en) 2020-12-10

Similar Documents

Publication Publication Date Title
CN109937118B (en) Picking system and control method thereof
JP7040597B2 (en) Information processing equipment, information processing methods and information processing programs
CN110054121B (en) Intelligent forklift and container pose deviation detection method
CN103492291B (en) Article storing system, article storing take out of method
KR101638555B1 (en) Logistics system, and method for recovery from abnormality in logistics system
CN111524184B (en) Intelligent unstacking method and unstacking system based on 3D vision
JP6907892B2 (en) Transport device
JP7507965B2 (en) System and method for risk mapping in a warehouse environment
JP6011490B2 (en) Goods storage facility
CN102976019B (en) Article carrying equipment
JP2016050106A (en) Carrier system
JP2023529878A (en) CONTAINER REMOVAL METHOD, DEVICE, SYSTEM, ROBOT AND STORAGE MEDIUM
CN110000175A (en) For carrying out clean bottle sanitation machine to bottle
JP7342429B2 (en) Machine learning data collection method and camera system
JP7069594B2 (en) Transport system
JP2019062449A (en) Monitoring system
JP6442937B2 (en) Transport vehicle system
JP2014091608A (en) Article processing facility
JP6327014B2 (en) Equipment management system
JP2021070550A (en) Picking assist system and picking assist method
JP7559153B2 (en) Cargo handling flow analysis system and analysis method
CN117555308B (en) Tray recycling method, system and storage medium based on unmanned forklift
EP3913526A1 (en) Platform detection
JP2006248734A (en) Article supplying device
CA3206627A1 (en) Advanced material handling vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230814

R150 Certificate of patent or registration of utility model

Ref document number: 7342429

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150