JP7342429B2 - Machine learning data collection method and camera system - Google Patents
Machine learning data collection method and camera system Download PDFInfo
- Publication number
- JP7342429B2 JP7342429B2 JP2019104688A JP2019104688A JP7342429B2 JP 7342429 B2 JP7342429 B2 JP 7342429B2 JP 2019104688 A JP2019104688 A JP 2019104688A JP 2019104688 A JP2019104688 A JP 2019104688A JP 7342429 B2 JP7342429 B2 JP 7342429B2
- Authority
- JP
- Japan
- Prior art keywords
- video data
- machine
- event
- data
- period
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Warehouses Or Storage Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、機械学習用データ収集方法及びカメラシステムに関する。 The present invention relates to a data collection method for machine learning and a camera system.
機械の動作を記録するための装置として、車両に搭載されるドライブレコーダが知られている(例えば、特許文献1を参照)。
特許文献1のドライブレコーダは、車両前方の映像を撮影し、記録媒体に記録する。さらに、ドライブレコーダは、異常事象を検出すると、記録済みの映像から、異常事象を検出した時刻を含む所定時間長の時間帯の映像を抽出する。
A drive recorder mounted on a vehicle is known as a device for recording the operation of a machine (for example, see Patent Document 1).
The drive recorder disclosed in
搬送装置や工作機械に搭載したカメラシステムは、機械の信号が入力されると、ドライブレコーダと同様に、その前後の映像を録画する機能を有している。
一方、近年、各種の分野で人工知能(AI)の活用が行われており、例えば、搬送装置や工作機械において異常及びその前兆を検出するための利用が検討されている。具体的には、撮影した映像から得られた異常が発生する瞬間の画像を学習させることで、異常を自動で判定する推論エンジンを作成している。
なお、撮影した映像のうち、学習に使用するデータは、人間が判断して抽出している。したがって、機械学習用データの収集に手間が掛かり、効率が悪かった。
A camera system installed in a transport device or a machine tool has the function of recording images before and after a machine signal is input, similar to a drive recorder.
On the other hand, in recent years, artificial intelligence (AI) has been utilized in various fields, and for example, its use in detecting abnormalities and their precursors in transport devices and machine tools is being considered. Specifically, they have created an inference engine that automatically determines anomalies by learning images taken from captured footage at the moment an anomaly occurs.
Of the captured videos, the data used for learning is extracted based on human judgment. Therefore, collecting data for machine learning was time-consuming and inefficient.
本発明の目的は、カメラシステムで撮影した映像から、機械学習用データを効率よく抽出することにある。 An object of the present invention is to efficiently extract machine learning data from videos captured by a camera system.
以下に、課題を解決するための手段として複数の態様を説明する。これら態様は、必要に応じて任意に組み合せることができる。 A plurality of aspects will be described below as means for solving the problem. These aspects can be arbitrarily combined as necessary.
本発明の一見地に係る機械学習用データ収集方法は、機械の動作を撮影するカメラを備えるカメラシステムにおいて機械学習用データを収集する方法である。この方法は、下記のステップを備えている。
◎機械の動作を撮影した撮影動画データを記憶する撮影動画記憶ステップ。
◎機械に所定の事象が発生したことを認識する事象認識ステップ。
◎撮影動画データから、事象認識時刻を含む第1期間の長さの第1動画データを抽出する第1動画抽出ステップ。
◎撮影動画データに含まれる第2動画データであって、事象認識時刻を含む第2期間の長さの第2動画データを抽出する第2動画データ抽出ステップ。
第2期間は、第1期間よりも短い。
第2動画データは、所定の事象の発生を判定するための機械学習用データである。
A method for collecting data for machine learning according to an aspect of the present invention is a method for collecting data for machine learning in a camera system equipped with a camera that photographs the operation of a machine. This method comprises the following steps.
◎Photographed video storage step that stores photographed video data of machine operations.
◎Event recognition step that recognizes that a predetermined event has occurred in the machine.
◎First video extraction step of extracting first video data having a length of the first period including the event recognition time from the captured video data.
◎Second video data extraction step of extracting second video data included in the captured video data and having a length of a second period including the event recognition time.
The second period is shorter than the first period.
The second video data is machine learning data for determining the occurrence of a predetermined event.
なお、機械に所定の事象が発生したことを認識するとは、例えば、機械に所定の事象が発生したことを示す信号を受信することである。
なお、第1動画データを抽出するステップと第2動画データを抽出するステップのタイミングは限定されない。例えば、第2動画データを抽出するステップは、第1動画データを集出するステップの前又は後(直後、所定時間経過後など)に実行されてもよい。
Note that recognizing that a predetermined event has occurred in the machine means, for example, receiving a signal indicating that a predetermined event has occurred in the machine.
Note that the timing of the step of extracting the first video data and the step of extracting the second video data is not limited. For example, the step of extracting the second video data may be performed before or after the step of collecting the first video data (immediately, after a predetermined period of time, etc.).
一般に機械学習用の動画データは、機械学習に必要十分なごく短い期間(例えば数フレーム)の動画である。期間が短い理由は、データが不要な部分を含むと学習の精度が低下するからである。一方、人がこのような短い動画を見ても、所定の事象が発生する様子を把握することは難しい。
この方法では、比較的長い期間の動画を表す第1動画データを抽出するので、オペレータは、当該動画を見ることによって所定の事象が発生する様子を把握できる。また、この方法では、所定の事象の発生を判定するための機械学習用データとして、比較的短い期間の動画を表す第2動画データを利用できる。ここでは、第2動画データの抽出が自動的に行われるので、効率が良い。
Generally, video data for machine learning is a video with a very short period (for example, several frames) necessary for machine learning. The reason why the period is short is that if the data includes unnecessary parts, the accuracy of learning will decrease. On the other hand, even when a person watches such a short video, it is difficult to understand how a predetermined event will occur.
In this method, first video data representing a relatively long period of video is extracted, so the operator can understand how a predetermined event occurs by viewing the video. Further, in this method, second video data representing a relatively short period of video can be used as machine learning data for determining the occurrence of a predetermined event. Here, the extraction of the second moving image data is performed automatically, which is efficient.
第2動画データ抽出ステップでは、第1動画データから第2動画データを抽出してもよい。
この方法では、第1動画データから第2動画データを抽出するので、第1動画データを抽出した段階で元の動画データを記憶しておく必要がなくなる。
また、複数の第2動画データを抽出するのが容易になる。
In the second video data extraction step, the second video data may be extracted from the first video data.
In this method, since the second video data is extracted from the first video data, there is no need to store the original video data at the stage when the first video data is extracted.
Moreover, it becomes easy to extract a plurality of second moving image data.
第2動画データ抽出ステップでは、第1動画データから複数の第2動画データを抽出してもよい。
この方法では、第1動画データに複数の事象が記録されている場合に、複数の推論エンジンに対してそれぞれ専用の第2動画データを提供できる。この場合、複数の第2動画データは同じであってもよいし、異なっていてもよい。
In the second video data extraction step, a plurality of second video data may be extracted from the first video data.
With this method, when a plurality of events are recorded in the first moving image data, dedicated second moving image data can be provided to each of the plurality of inference engines. In this case, the plurality of second moving image data may be the same or different.
信号は、所定の事象の分類を示す事象分類情報を含んでいてもよい。
この方法は、事象分類情報に応じて、第2期間の長さを決定する長さ決定ステップをさらに備えていてもよい。
この方法では、所定の事象の種類に応じて適切な長さの第2動画データを抽出できる。
The signal may include event classification information indicating a classification of the predetermined event.
The method may further include determining a length of the second time period in response to the event classification information.
With this method, it is possible to extract second video data of an appropriate length depending on the type of predetermined event.
信号は、機械の動作内容を示す動作内容情報を含んでいてもよい。動作内容とは、例えば、搬送装置の場合は搬送、荷下ろし、荷積みである。動作内容は、運んでいる荷物の種類などの対象物の情報を含んでいてもよい。
この方法は、動作内容情報に応じて第2期間の長さを決定する長さ決定ステップをさらに備えていてもよい。
この方法では、機械の動作内容に応じて、適切な長さの第2動画データを抽出できる。
The signal may include operation content information indicating the operation content of the machine. For example, in the case of a transport device, the operation contents include transport, unloading, and loading. The action details may include information about the object, such as the type of luggage being carried.
The method may further include a length determining step of determining the length of the second period according to the action content information.
With this method, it is possible to extract second video data of an appropriate length depending on the operation content of the machine.
信号は、所定の事象の分類を示す事象分類情報を含んでいてもよい。
この方法は、事象分類情報に応じて、撮影動画の全体画像エリアから、第2動画データの画像エリアを決定する画像エリア決定ステップをさらに備えていてもよい。
この方法では、所定の事象の種類に応じて、適切なエリアの第2動画データを抽出できる。つまり、機械学習に必要なエリアのみを第2動画データの対象にすることができる。したがって、機械学習に不要な情報が機械学習に提供されることがない。
The signal may include event classification information indicating a classification of the predetermined event.
This method may further include an image area determining step of determining an image area of the second video data from the entire image area of the captured video according to the event classification information.
With this method, it is possible to extract second video data in an appropriate area depending on the type of predetermined event. In other words, only the areas necessary for machine learning can be targeted for the second video data. Therefore, information unnecessary for machine learning is not provided to machine learning.
信号は、機械の動作内容を示す動作内容情報を含んでいてもよい。
この方法は、動作内容情報に応じて、撮影動画の全体画像エリアから、第2動画データの画像エリアを決定する画像エリア決定ステップをさらに備えていてもよい。
この方法では、機械の動作内容に応じて、適切なエリアの第2動画データを抽出できる。
The signal may include operation content information indicating the operation content of the machine.
This method may further include an image area determining step of determining an image area of the second video data from the entire image area of the captured video according to the action content information.
With this method, it is possible to extract second video data of an appropriate area depending on the operation content of the machine.
所定の事象は機械の異常であってもよい。機械の異常とは、機械自体の異常、機械の対象物の異常を含む。 The predetermined event may be a machine malfunction. Abnormalities in the machine include abnormalities in the machine itself and abnormalities in the objects of the machine.
撮影動画データ記憶ステップと、事象認識ステップと、第1動画データ抽出ステップと、第2動画データ抽出ステップと、を繰り返し実行することで、複数の第2動画データが取得されてもよい。
この方法は、第2動画データを複数のグループに自動で分類する自動分類ステップをさらに備えていてもよい。
この方法では、作業者が手作業で第2動画データを分類しなくてもよいので、作業負荷が小さくなる。
A plurality of pieces of second video data may be acquired by repeatedly performing the photographed video data storage step, the event recognition step, the first video data extraction step, and the second video data extraction step.
The method may further include an automatic classification step of automatically classifying the second video data into a plurality of groups.
With this method, the worker does not have to manually classify the second video data, so the workload is reduced.
自動分類ステップでは、所定の事象の種類ごとに第2動画データを分類してもよい。
この方法では、所定の事象の種類ごとに推論エンジンを作成できる。
In the automatic classification step, the second video data may be classified for each type of predetermined event.
With this method, an inference engine can be created for each type of predetermined event.
自動分類ステップでは、機械の動作内容ごとに第2動画データを分類してもよい。
この方法では、機械の動作内容ごとに推論エンジンを作成できる。
In the automatic classification step, the second video data may be classified according to the operation content of the machine.
With this method, an inference engine can be created for each type of machine operation.
機械は複数あってもよい。
各機械について、撮影動画データ記憶ステップと、事象認識ステップと、第1動画データ抽出ステップと、第2動画データ抽出ステップとを実行することで、複数の第2動画データが取得されてもよい。
自動分類ステップでは、機械ごとに第2動画データを分類してもよい。
この方法では、機械ごとに推論エンジンを作成できる。
There may be more than one machine.
A plurality of pieces of second video data may be acquired by performing a photographed video data storage step, an event recognition step, a first video data extraction step, and a second video data extraction step for each machine.
In the automatic classification step, the second video data may be classified for each machine.
This method allows you to create an inference engine for each machine.
カメラシステムは複数個のカメラを含んでいてもよい。
自動分類ステップでは、カメラごとに第2動画データを分類してもよい。
この方法では、カメラごとに推論エンジンを作成できる。
A camera system may include multiple cameras.
In the automatic classification step, the second video data may be classified for each camera.
This method allows you to create an inference engine for each camera.
本発明の他の見地に係るカメラシステムは、機械の動作を撮影するカメラと、機械の動作を撮影した撮影動画データを記憶する記憶部と、機械に所定の事象が発生したことを認識する事象認識部と、コントローラと、を備えている。
コントローラは、第1抽出部と、第2抽出部と、を有している。
第1抽出部は、撮影動画データから、事象が認識された事象認識時刻を含む第1期間の長さの第1動画を示す第1動画データを抽出する。
第2抽出部は、撮影動画データに含まれる第2動画データであって、事象認識時刻を含む第2期間の長さの第2動画を示す第2動画データを抽出する。
第2期間は、第1期間よりも短い。
第2動画データは、所定の事象の発生を判定するための機械学習用データである。
なお、コントローラ及び記憶部の所在位置は特に限定されない。
A camera system according to another aspect of the present invention includes a camera that photographs the operation of a machine, a storage unit that stores video data of the photographed operation of the machine, and an event that recognizes that a predetermined event has occurred in the machine. It includes a recognition unit and a controller.
The controller has a first extraction section and a second extraction section.
The first extraction unit extracts first video data indicating a first video having a length of a first period including an event recognition time at which an event is recognized, from the captured video data.
The second extraction unit extracts second video data that is included in the photographed video data and represents a second video having a length of a second period that includes the event recognition time.
The second period is shorter than the first period.
The second video data is machine learning data for determining the occurrence of a predetermined event.
Note that the locations of the controller and the storage section are not particularly limited.
第2抽出部は、第1動画データから第2動画データを抽出してもよい。
このシステムでは、比較的長い期間の動画を表す第1動画データを抽出するので、オペレータは、当該動画を見ることによって所定の事象が発生する様子を把握できる。また、このシステムでは、所定の事象の発生を判定するための機械学習用データとして、比較的短い期間の動画を表す第2動画データを利用できる。ここでは、第2動画データの抽出が自動的に行われるので、効率が良い。
The second extraction unit may extract the second video data from the first video data.
Since this system extracts the first video data representing a relatively long period of video, the operator can understand how a predetermined event occurs by viewing the video. Further, in this system, second video data representing a relatively short period of video can be used as machine learning data for determining the occurrence of a predetermined event. Here, the extraction of the second moving image data is performed automatically, which is efficient.
本発明に係る機械学習用データ収集方法及びカメラシステムでは、カメラシステムで撮影した映像から、機械学習用データを効率よく抽出できる。 With the machine learning data collection method and camera system according to the present invention, machine learning data can be efficiently extracted from videos captured by the camera system.
1.第1実施形態
(1)自動倉庫全体
図1を用いて、本発明に係る第1実施形態としての自動倉庫1を説明する。図1は、第1実施形態の自動倉庫の概略平面図である。なお、この実施形態において、図1の左右方向が自動倉庫1の左右方向(矢印Y)であり、図1の上下方向が自動倉庫1の前後方向(矢印X)である。
自動倉庫1は、主に、一対のラック2と、スタッカクレーン3(機械の一例)とから構成されている。
1. First Embodiment (1) Entire automated warehouse An
The
(2)ラック
一対のラック2は、左右方向に延びるスタッカクレーン通路5を挟むように配置されている。ラック2は、所定間隔で左右に並ぶ多数の前側支柱7と、前側支柱7の後方において、前側支柱7との間に所定間隔をあけて並ぶ後側支柱9と、前側支柱7及び後側支柱9に設けられた多数の荷物支承部材11とを有している。左右一対の荷物支承部材11によって、棚13が構成されている。各棚13には、図から明らかなように、荷Wが載置可能である。なお、各荷Wは、パレットP(図2及び図3を参照)上に載置され、パレットPと共に移動させられる。なお、左右一対の荷物支承部材11間は、後述のスライドフォーク29aの上下方向の移動を許容するフォーク通過間隙15となっている。
(2) Rack The pair of
(3)スタッカクレーン
図2及び図3を用いて、スタッカクレーン3について説明する。図2は、図1のII-II矢視図であり、ラックとスタッカクレーンを説明するための図である。図3は、図2の部分拡大図であり、昇降台及び移載装置を説明する図である。
スタッカクレーン通路5に沿って、上下一対の走行レール21が設けられており、これら走行レール21にスタッカクレーン3が左右に移動可能に案内されている。スタッカクレーン3は、主に、一対のマスト22である第1マスト22A及び第2マスト22Bを有する走行台車23と、第1マスト22A及び第2マスト22Bに昇降自在に装着された昇降台27と、昇降台27に設けられた移載装置29とを有している。走行台車23は、走行車輪24を有している。
(3) Stacker Crane The
A pair of upper and lower running rails 21 are provided along the
移載装置29は、進退機構(図示せず)によって前後方向に摺動自在に設けられたスライドフォーク29aを有している。スライドフォーク29aは、前後方向両側の棚13との間で荷Wを移載可能である。
なお、昇降台27と移載装置29は互いに固定されており、昇降台27の一部を移載装置29の一部と見なしてよい。
The
Note that the lifting table 27 and the
昇降台27は、第1マスト22A及び第2マスト22Bにガイドされる昇降ガイドローラ28を有する。昇降ガイドローラ28は、一方のマストに対して上下一対ずつ合計4個が当接している。より具体的には、一対の昇降ガイドローラ28は、マスト22の前後方向両側面の走行方向内側部分に当接している。
なお、図2及び図3において、昇降台27のスライドフォーク29aの上には、パレットPと荷Wが載っている。この実施形態では、荷Wは3×3×3個の直方体が隙間なく積み上げられた構成である。しかし、荷Wの個々の荷物の個数、形状及び積み上げ方は上記実施形態に限定されない。
第1マスト22A及び第2マスト22Bの下端同士は下側フレーム25によって連結され、上端同士は上側フレーム26によって連結されている。
The elevating table 27 has elevating
In addition, in FIGS. 2 and 3, a pallet P and a load W are placed on the
The lower ends of the
スタッカクレーン3は、制御盤41と、走行モータ59と、昇降モータ63とを有している。制御盤41は、走行方向において、第2マスト22Bに対する第1マスト22Aと反対側に設けられている。走行モータ59は、第1マスト22Aに設けられている。昇降モータ63は、第1マスト22Aに設けられている。
制御盤41は、内部に、走行モータ59や昇降モータ63用のインバータ、コンバータ、ブレーカ等の電装機器を有している。制御盤41は、さらに、制御基板ボックス(図示せず)を有している。制御盤41は、これら電装機器を覆うフレームを有している。制御盤41は、電源(図示せず)、走行モータ59、昇降モータ63、スライドフォーク29a等に動力ケーブル(図示せず)を介して接続されている。制御盤41は、さらに、制御ケーブルを介して、通信インターフェースを介して地上制御盤、センサ類、スライドフォーク29a並びに制御電源に接続されている。
昇降モータ63は、図2に示すように、ドラム64を駆動可能である。ドラム64からは、ワイヤ40が延びている。ワイヤ40は、上側フレーム26に設けられたプーリ44に掛け回され、さらに昇降台27に連結されている。
The
The
The lifting
(4)カメラ
昇降台27には、図2~図4に示すように、第1カメラ51、第2カメラ52、第3カメラ53及び第4カメラ54(以下、まとめて表現する場合は「4台のカメラ51~54」とする)が装着されている。図4は、カメラの配置位置及び撮像範囲を概略的に示した模式的平面図である。
4台のカメラ51~54は、いわゆるビデオカメラであり、撮像した画像(静止画・動画)をビデオ信号としてカメラコントローラ90(後述)に入力する。なお、上記の場合、第1カメラ51及び第2カメラ52の撮像範囲と、第3カメラ53及び第4カメラ54の撮像範囲とは異なっている。ただし、4台のカメラの撮像範囲が全て異なっていてもよいし、全て同じでもよい。
(4) Camera As shown in FIGS. 2 to 4, the
The four
4台のカメラ51~54は、スタッカクレーン3の動作を撮影し動画データを作成する。具体的には、4台のカメラ51~54は、昇降台27に載置された荷W及び棚13に載置された荷Wを撮像する。
4台のカメラ51~54は、図4に示すように、フレーム45を介して昇降台27に取り付けられている。フレーム45は、昇降台27つまり移載装置29の左右方向両側において前後方向に延びる一対の部材である。4台のカメラ51~54は、各フレーム45の前後方向両端にそれぞれ固定されている。なお、カメラはフレーム以外の他の部材に取り付けられていてもよい。
The four
The four
第1カメラ51及び第2カメラ52は、前後方向の該荷Wの端部、及び前後方向における該端部側の移載先の棚13を同時に撮像可能な位置に固定される。
第1カメラ51及び第2カメラ52は、移載装置29に載置される荷Wの上端より上方であり、かつ左右方向において該荷Wの外側で移載装置29に設けられている。第1カメラ51及び第2カメラ52は斜め下方を向いている。この場合、カメラが上方から荷を撮像することにより、荷Wの高さによらず荷崩れを検知できる。
以上に述べたように第1カメラ51及び第2カメラ52は、移載装置29の前後方向両側にそれぞれ設けられている。したがって、移載装置29に載置された荷Wの荷姿異常及び両移載方向における先入品の検知ができる。
The
The
As described above, the
図4を用いて、第1カメラ51及び第2カメラ52を詳細に説明する。
第1カメラ51は、平面視において図4の右下側に設けられ、移載装置29に積まれた荷Wの前後方向の端部31及び前後方向における該端部31側の移載先の棚13を同時に撮像可能な位置に設けられている。なお、第1カメラ51は、移載装置29に荷Wが配置されていても、移載先の棚13における先入れ品を検出可能である。なぜなら、第1カメラ51から見て、移載装置29の載置位置と移載先の棚13は前後方向にずれて並んでいるからである。
The
The
第2カメラ52は、図4の左上側に設けられ、移載装置29に積まれた荷Wの前後方向の端部32及び前後方向における該端部32側の移載先の棚13を同時に撮像可能な位置に設けられている。なお、第2カメラ52は、移載装置29に荷Wが配置されていても、移載先の棚13における先入れ品を検出可能である。なぜなら、第2カメラ52から見て、移載装置29の載置位置と移載先の棚13は前後方向にずれて並んでいるからである。
なお、第1カメラ51が対象とする棚13と第2カメラ52が対象とする棚13とは、異なる棚である。
The
Note that the
第3カメラ53及び第4カメラ54は、移載装置29に設けられており、移載装置29に載置された荷Wの左右方向の端部(つまり、端面)を撮像可能な位置に設けられる。
第3カメラ53及び第4カメラ54は、移載装置29に載置される荷Wの上端より上方であり、かつ前後方向において該荷Wの外側で移載装置29に設けられている。第3カメラ53及び第4カメラ54は斜め下方を向いている。
The
The
図4を用いて、第3カメラ53及び第4カメラ54を詳細に説明する。
第3カメラ53は、図4の左下側に設けられ、移載装置29に積まれた荷Wの左右方向の端部33を撮像可能な位置に設けられている。なお、第3カメラ53は、移載装置29に荷Wが配置されていなければ、移載先の棚13における先入れ品を検出できるが、移載装置29に荷Wが配置されていれば、移載先の棚13における先入れ品を検出できない。なぜなら、第3カメラ53から見て、移載装置29の載置位置と移載先の棚13は重なっているからである。
The
The
第4カメラ54は、図4の右上側に設けられ、移載装置29に積まれた荷Wの左右方向の端部34を撮像可能な位置に設けられている。なお、第4カメラ54は、移載装置29に荷Wが配置されていれば、移載先の棚13における先入れ品を検出できるが、移載装置29に荷Wが配置されていれば、移載先の棚13における先入れ品を検出できない。なぜなら、第4カメラ54から見て、移載装置29の載置位置と移載先の棚13は重なっているからである。
なお、第3カメラ53が対象とする棚13と第4カメラ54が対象とする棚13とは、異なる棚である。第3カメラ53が対象とする棚13は図4において図上側に配置されており、第4カメラ54が対象とする棚13は図4において図下側に配置されており、両者は前後方向(矢印X)に対向している。
The
Note that the
図5及び図6を用いて、4台のカメラ51~54の映像の例を説明する。図5及び図6は、移載装置及び棚の一状態を示した表示画面である。
図5及び図6では、表示装置89の画面において、4台のカメラ51~54で撮像された映像が表示されている。各図の右上部分が第1カメラ51の画像であり、左下部分が第2カメラ52の画像であり、右下部分が第3カメラ53の画像であり、左上部分が第4カメラ54の画像である。
図5では、移載装置29には荷Wは載置されていないし、前後方向両側の棚13にも荷Wは載置されていない。したがって、全ての画像において、棚13の荷物支承部材11が映っている。なお、破線Aで囲まれた部分が一方の棚13であり、破線Bで囲まれた部分が他方の棚である。
Examples of images from the four
In FIGS. 5 and 6, images captured by four
In FIG. 5, no load W is placed on the
図6では、移載装置29には荷W1が載置されており、前後方向両側の棚13にも荷W2及び荷W3がそれぞれ載置されている(つまり、先入れ品がある)。そのため、第1カメラ51の画像によって荷W2の存在及び荷W1の端部31の状態を確認でき、第2カメラ52の画像によって荷W3の存在及び荷W1の端部32を確認でき、第3カメラ53の画像によって荷W1の端部33の状態を確認でき、第4カメラ54の画像によって荷W1の端部34の状態を確認できる。
さらに、図6では、第1カメラ51の画像及び第2カメラ52の画像には、棚13の荷物支承部材11が映っていない。したがって、画像コントローラ70(後述)は、前後方向両側の棚13には荷W2及び荷W3が載置されていることを把握できる。ただし、この場合、第3カメラ53の画像及び第4カメラ54の画像には棚13の状態は映っていない。
In FIG. 6, a load W1 is placed on the
Furthermore, in FIG. 6, the
(5)カメラシステムの制御構成
図7を用いて、カメラシステム100の制御構成を説明する。図7は、画像処理コントローラ及びカメラコントローラの機能ブロック図である。
カメラシステム100は、搬送コントローラ50、画像処理コントローラ80、カメラコントローラ90を有している。
(5) Control configuration of camera system The control configuration of
The
各コントローラは、プロセッサ(例えば、CPU)と、記憶装置(例えば、ROM、RAM、HDD、SSDなど)と、各種インターフェース(例えば、A/Dコンバータ、D/Aコンバータ、通信インターフェースなど)を有するコンピュータシステムである。各コントローラは、記憶部(記憶装置の記憶領域の一部又は全部に対応)に保存されたプログラムを実行することで、各種制御動作を行う。
各コントローラは、単一のプロセッサで構成されていてもよいが、各制御のために独立した複数のプロセッサから構成されていてもよい。
各コントローラの各要素の機能は、一部又は全てが、制御部を構成するコンピュータシステムにて実行可能なプログラムとして実現されてもよい。その他、両コントローラの各要素の機能の一部は、カスタムICにより構成されていてもよい。
各コントローラには、図示しないが、対象物の大きさ、形状及び位置検出するセンサ、各装置の状態を検出するためのセンサ及びスイッチ、並びに情報入力装置が接続されている。
なお、各コントローラは、スタッカクレーン3に搭載されたものに限定されず、電気的に接続された状態で地上側に配置されていてもよい。
Each controller is a computer having a processor (e.g., CPU), a storage device (e.g., ROM, RAM, HDD, SSD, etc.), and various interfaces (e.g., A/D converter, D/A converter, communication interface, etc.). It is a system. Each controller performs various control operations by executing a program stored in a storage unit (corresponding to part or all of the storage area of the storage device).
Each controller may be composed of a single processor, or may be composed of a plurality of independent processors for each control.
A part or all of the functions of each element of each controller may be realized as a program executable by a computer system that constitutes the control section. In addition, a part of the functions of each element of both controllers may be configured by a custom IC.
Although not shown, each controller is connected to a sensor for detecting the size, shape, and position of an object, a sensor and switch for detecting the status of each device, and an information input device.
Note that each controller is not limited to being mounted on the
搬送コントローラ50は、走行台車23の走行車輪24の駆動を制御するための機能を有しており、走行モータ59を含む走行部73に接続されている。搬送コントローラ50は、昇降台27を第1マスト22A及び第2マスト22Bに沿って上下動させるための機能を有しており、昇降モータ63を含む昇降部74に接続されている。搬送コントローラ50は、スライドフォーク29aを前後方向に移動させるための機能を有しており、移載モータ(図示せず)を含む移載部75に接続されている。
The
画像処理コントローラ80は、機械学習用データの収集、機械学習用データによって構築された推論エンジンによる異常判定を行うものである。
画像処理コントローラ80は、機械学習部81を有している。機械学習部81は、機械学習用データである第2動画データ(後述)に基づいて、機械学習を行い、異常判定のための推論エンジンを構築する。
画像処理コントローラ80は、異常判定部82を有している。異常判定部82は、一又は複数の異常判定推論エンジンを有しており、第1動画データ(後述)の異常判定を行う。
The
The
The
画像処理コントローラ80は、画像処理部83を有している。画像処理部83は、異常判定された第1動画データにマーキング(後述)等の画像処理を行う。これにより、オペレータは第1動画データを参照する際に、異常の種類や原因を知ることができる。
画像処理コントローラ80は、表示制御部84を有している。表示制御部84は、表示装置89(後述)に、例えばマーキングされた第1動画データを表示できる。
図8を用いて、第1動画データに重畳表示されたマーキングを説明する。図8はマーキングがされた第1動画データの表示画面である。
第1動画データには、マーキングCが重畳表示されている。マーキングCは、例えば、荷はみが生じた箇所を示している。なお、マーキングは、文字、その他の図形であってもよい。
The
The
Markings superimposed on the first video data will be explained using FIG. 8. FIG. 8 is a display screen of the marked first moving image data.
Marking C is displayed superimposed on the first video data. Marking C indicates, for example, a location where the load has been strained. Note that the marking may be characters or other figures.
画像処理コントローラ80は、記憶部85を有している。記憶部85には、機械の動作を撮影した動画データとして、第1動画データ及び第2動画データが保存される。
画像処理コントローラ80は、通信部87を有している。
The
The
画像処理コントローラ80には、入力装置88及び表示装置89が接続されている。
入力装置88は、オペレータが画像処理コントローラ80にデータ及び指令を入力するための装置である。入力装置88は、例えば、キーボード、マウス、タッチパネルである。
表示装置89は、例えば、液晶、有機EL等のディスプレイである。ただし、ディスプレイの種類、台数、設置位置は上記実施形態に限定されない。
An
The
The
カメラコントローラ90は、4台のカメラ51~54を制御し、画像を撮影するものである。
カメラコントローラ90には、4台のカメラ51~54が接続されている。
The
Four
カメラコントローラ90は、4台のカメラ51~54の撮像を制御するカメラ制御部91を有している。
カメラコントローラ90は、画像処理をするための画像処理ソリューション・ソフトウェアからなる画像抽出部92を有している。
The
The
画像抽出部92は、第1抽出部97と第2抽出部98とを有している。
第1抽出部97は、撮影動画データから、信号が受信された受信時刻を含む第1期間の長さの第1動画データを抽出し、記憶部93に保存する。
第2抽出部98は、第1動画データから、上記受信時刻を含む第2期間の長さの第2動画データを抽出し、記憶部93に保存する。第2動画データは、所定の事象(例えば、機械の異常)の発生を判定するための機械学習用データであり、第2期間は、第1期間よりも短い。
The
The
The
カメラコントローラ90は、記憶部93を有している。記憶部93には、4台のカメラ51~54によって撮像された画像データ(撮影動画データ、第1動画データ、第2動画データなど)が保存される。なお、記憶部は、画像サーバによって実現されてもよい。
The
カメラコントローラ90は、通信部95を有している。
カメラコントローラ90は、入力装置96を有している。入力装置96は、オペレータがカメラコントローラ90に指令を入力するための装置である。入力装置96は、例えば、リモコンである。
The
(6)制御動作
カメラシステム100の制御動作を説明する。
以下に説明する制御フローチャートは例示であって、各ステップは必要に応じて省略及び入れ替え可能である。また、複数のステップが同時に実行されたり、一部又は全てが重なって実行されたりしてもよい。
さらに、制御フローチャートの各ブロックは、単一の制御動作とは限らず、複数のブロックで表現される複数の制御動作に置き換えることができる。
なお、各装置の動作は、制御部から各装置への指令の結果であり、これらはソフトウェア・アプリケーションの各ステップによって表現される。
(6) Control Operation The control operation of the
The control flowchart described below is an example, and each step can be omitted or replaced as necessary. Further, a plurality of steps may be executed simultaneously, or some or all of the steps may be executed overlappingly.
Furthermore, each block in the control flowchart is not limited to a single control operation, and can be replaced with a plurality of control operations expressed by a plurality of blocks.
Note that the operation of each device is the result of instructions from the control unit to each device, and these are expressed by each step of the software application.
(6-1)異常発生時の画像処理コントローラの制御動作
図9を用いて、異常発生時の画像処理コントローラ80の制御動作を説明する。図9は、異常発生時の画像処理コントローラの制御動作を示すフローチャートである。
ステップS1では、撮影画像に基づいて装置の異常がある否かが判断される。具体的には、画像処理コントローラ80の異常判定部82が上記判断を行う。なお、装置の異常は、例えば、図6において荷崩れ、荷はみ等の不具合である。
ステップS2では、信号がカメラコントローラ90に送信される。具体的には、画像処理コントローラ80の通信部87が、信号をカメラコントローラ90に送信する。信号は、カメラコントローラ90の通信部95によって受信される(図10のステップS3のYesに対応)。
(6-1) Control operation of the image processing controller when an abnormality occurs The control operation of the
In step S1, it is determined whether or not there is an abnormality in the device based on the photographed image. Specifically, the
In step S2, a signal is sent to the
(6-2)カメラコントローラの第1動画データ及び第2動画データの抽出制御動作
図10を用いて、カメラコントローラ90の第1動画データ及び第2動画データの抽出制御動作を説明する。図10は、カメラコントローラの第1動画データ及び第2動画データの抽出制御動作を示すフローチャートである。
ステップS3では、信号を受信するのを待機する。具体的には、カメラコントローラ90の通信部95が、画像処理コントローラ80からの信号を受信する(図9のステップS2に対応)のを待機する。信号を受信すれば、プロセスはステップS4に移行する。
(6-2) Extraction control operation of the first moving image data and second moving image data of the camera controller The extraction control operation of the first moving image data and the second moving image data of the
In step S3, it waits to receive a signal. Specifically, the
ステップS4では、撮影動画データから第1動画データが抽出・保存される.具体的には、画像抽出部92の第1抽出部97が、信号入力の前後もしくは所定フレーム数分の画像を撮影動画データから抽出し、第1動画データとして記憶部93に保存する。
ステップS5では、第1動画データから第2動画データが抽出・保存される。具体的には、画像抽出部92の第2抽出部98が、機械学習用の学習データとして、第1動画データから所定時間もしくは所定フレーム数分の画像を抽出し、第2動画データとして記憶部93に保存する。
以上より、この実施形態では、機械に所定の事象が発生したことを認識した事象認識時刻は、カメラコントローラ90の通信部95が、画像処理コントローラ80からの信号を受信した時刻である。
なお、ステップS4とステップS5のタイミングは限定されない。例えば、ステップS5は、ステップS4の直後又は所定時間経過後に実行されてもよい。
In step S4, first video data is extracted and saved from the captured video data. Specifically, the
In step S5, the second video data is extracted and saved from the first video data. Specifically, the
As described above, in this embodiment, the event recognition time at which it is recognized that a predetermined event has occurred in the machine is the time at which the
Note that the timing of step S4 and step S5 is not limited. For example, step S5 may be executed immediately after step S4 or after a predetermined period of time has elapsed.
上記のカメラシステム100では、比較的長い期間の動画を表す第1動画データを抽出するので、人は、当該動画を見ることによって所定の事象が発生する様子を把握することができる。また、カメラシステム100では、所定の事象の発生を判定するための機械学習用データとして、比較的短い期間の動画を表す第2動画データを利用できる。ここでは、第2動画データの抽出が自動的に行われるので、効率が良い。
In the
図11を用いて、撮影動画データと、第1動画データと、第2動画データの関係を説明する。図11は、撮影動画データと、第1動画データと、第2動画データの関係を示す模式図である。
図から明らかなように第2動画データは第1動画データから抽出されるので、第1動画データを抽出した段階で元の動画データを記憶しておく必要がなくなる。また、複数の第2動画データを抽出するのが容易になる。
The relationship between photographed video data, first video data, and second video data will be explained using FIG. 11. FIG. 11 is a schematic diagram showing the relationship between photographed video data, first video data, and second video data.
As is clear from the figure, since the second moving image data is extracted from the first moving image data, there is no need to store the original moving image data at the stage when the first moving image data is extracted. Moreover, it becomes easy to extract a plurality of second moving image data.
2.第2実施形態
第1実施形態では1つの信号に対して1つの第2動画データを抽出していたが、複数の第2動画データを抽出してもよい。
図12を用いて、そのような実施例を第2実施形態として説明する。図12は、第2実施形態の撮影動画データと、第1動画データと、第2動画データの関係を示す模式図である。なお、基本構成及び基本動作は第1実施形態と共通しているので、以下異なる点を中心に説明する。
2. Second Embodiment In the first embodiment, one second moving image data is extracted for one signal, but a plurality of second moving image data may be extracted.
Such an example will be described as a second embodiment using FIG. 12. FIG. 12 is a schematic diagram showing the relationship between photographed video data, first video data, and second video data according to the second embodiment. Note that since the basic configuration and basic operation are the same as those of the first embodiment, the following description will focus on the differences.
第2動画データを抽出するステップでは、第1動画データから複数の第2動画データが抽出される。具体的には、図12に示すように、第2抽出部98が1つの第1動画データから複数の第2動画データを抽出する。
上記の場合、第1動画データに複数の事象が記録されている場合に、複数の推論エンジンに対してそれぞれ専用の第2動画データを提供できる。この場合、複数の第2動画データは同じであってもよいし、異なっていてもよい。なお、異なっている場合とは、各第2動画データの範囲の一部又は全てがずれている状態である。
In the step of extracting second video data, a plurality of second video data are extracted from the first video data. Specifically, as shown in FIG. 12, the
In the above case, when a plurality of events are recorded in the first video data, dedicated second video data can be provided to each of the plurality of inference engines. In this case, the plurality of second moving image data may be the same or different. Note that the case of being different means that a part or all of the range of each second moving image data is out of alignment.
3.第3実施形態
第1実施形態及び第2実施形態では第2動画データの長さは特に限定されていなかったが、条件に応じて第2動画データの長さを変更してもよい。
図13を用いて、そのような実施例を第3実施形態として説明する。図13は、第3実施形態のカメラコントローラの第1動画データ及び第2動画データの抽出制御動作を示すフローチャートである。なお、基本構成及び基本動作は第1実施形態と共通しているので、以下異なる点を中心に説明する。
3. Third Embodiment Although the length of the second video data was not particularly limited in the first and second embodiments, the length of the second video data may be changed depending on conditions.
Such an example will be described as a third embodiment using FIG. 13. FIG. 13 is a flowchart showing the extraction control operation of the camera controller of the third embodiment for extracting the first video data and the second video data. Note that since the basic configuration and basic operation are the same as those of the first embodiment, the following description will focus on the differences.
ステップS6が、第1実施形態の図10のステップS3とステップS4の間に挿入されている。ステップS6では、第2動画データの長さが決定される。具体的には、第2抽出部98が信号に含まれた情報に基づいて、第2動画データの長さを決定する。
これにより、機械学習用データとして有効な時間長さ(異常発生の前後フレーム数)の第2動画データが得られる。したがって、機械学習に不要な又は不都合な情報が機械学習に提供されることがない。
Step S6 is inserted between step S3 and step S4 in FIG. 10 of the first embodiment. In step S6, the length of the second video data is determined. Specifically, the
As a result, second video data having a time length (the number of frames before and after the occurrence of an abnormality) that is effective as data for machine learning is obtained. Therefore, unnecessary or inconvenient information for machine learning is not provided to machine learning.
一例として、信号に含まれた情報は、所定の事象の分類を示す事象分類情報である。この場合、事象分類情報に応じて第2動画データの時間長さが決定される。この結果、適切な長さの第2動画データが抽出される。例えば、荷くずれの場合は比較的短い時間長さが選ばれ、荷はみの場合は比較的長い時間長さが選ばれる。後者の場合は、荷はみとラベル剥がれとの区別をするために所定時間の観察が必要だからである。例えば、荷はみの場合は長時間に亘って事象が継続するが、ラベル剥がれではラベルがはためいてはみ出すので事象は瞬間的にしか起こらない。 As an example, the information included in the signal is event classification information indicating a classification of a predetermined event. In this case, the time length of the second video data is determined according to the event classification information. As a result, second video data of an appropriate length is extracted. For example, in the case of load shedding, a relatively short time length is selected, and in the case of load lifting, a relatively long time length is selected. This is because in the latter case, observation for a predetermined period of time is required to distinguish between load damage and label peeling. For example, in the case of load shedding, the event continues over a long period of time, but in the case of label peeling, the event only occurs momentarily because the label flaps and sticks out.
一例として、信号に含まれた情報は、機械の動作内容を示す動作内容情報である。動作内容とは、例えば、スタッカクレーン3の場合は、荷の搬送、荷下ろし、荷積みである。なお、動作内容は、運んでいる荷物の種類などの対象物の情報を含んでいてもよい。この場合、動作内容情報に応じて第2動画データの時間長さが決定される。この結果、適切な時間長さの第2動画データが抽出される。
なお、本実施形態の変形例として、第2動画データの長さは信号受信の前段階で判断されていてもよく、その場合は信号に第2動画データの長さ情報が含まれている。
As an example, the information included in the signal is operation content information indicating the operation content of the machine. For example, in the case of the
In addition, as a modification of this embodiment, the length of the second moving image data may be determined before receiving the signal, and in that case, the length information of the second moving image data is included in the signal.
4.第4実施形態
第1~第3実施形態では第2動画データのエリア(範囲)は特に限定されていなかったが、第2動画データのエリアを、撮影動画の全体エリアの一部である部分エリアに限定してもよい。
図14及び図15を用いて、そのような実施例を第4実施形態として説明する。図14は、第4実施形態のカメラコントローラの第1動画データ及び第2動画データの抽出制御動作を示すフローチャートである。図15は、第4実施形態の抽出された第2動画データと第1動画データの関係を示す図である。なお、基本構成及び基本動作は第1実施形態と共通しているので、以下異なる点を中心に説明する。
ステップS7が、第1実施形態の図10のステップS3とステップS4の間に挿入されている。ステップS7では、第2動画データの抽出エリアが決定される。具体的には、第2抽出部98が、信号に含まれた情報に基づいて、第2動画データの抽出エリアを決定する。
図15では、複数の第2動画データの抽出エリアDが示されている。ここでの抽出エリアDは、荷Wのはみ出しの有無を知ることができる画像領域である。抽出エリアDは必要最低限の領域であり、したがって細長い枠形状の領域になっている。ただし抽出エリアの形状、個数は特に限定されない。
複数の抽出エリアDは個別のデータとして取り扱われてもよいし、特定の第2動画データの一部として取り扱われてもよい。
4. Fourth Embodiment In the first to third embodiments, the area (range) of the second video data was not particularly limited, but the area of the second video data is a partial area that is a part of the entire area of the captured video. may be limited to.
Such an example will be described as a fourth embodiment using FIGS. 14 and 15. FIG. 14 is a flowchart showing the extraction control operation of the first video data and second video data of the camera controller according to the fourth embodiment. FIG. 15 is a diagram showing the relationship between the extracted second video data and first video data in the fourth embodiment. Note that since the basic configuration and basic operation are the same as those of the first embodiment, the following description will focus on the differences.
Step S7 is inserted between step S3 and step S4 in FIG. 10 of the first embodiment. In step S7, an extraction area for the second moving image data is determined. Specifically, the
In FIG. 15, a plurality of extraction areas D of second moving image data are shown. The extraction area D here is an image area from which it is possible to know whether or not the load W is protruding. The extraction area D is the minimum necessary area, and therefore has an elongated frame shape. However, the shape and number of extraction areas are not particularly limited.
The plurality of extraction areas D may be handled as individual data, or may be handled as part of specific second video data.
上記の場合、適切なエリアの第2動画データを抽出できる。つまり、機械学習に必要なエリアのみからなる第2動画データを機械学習の対象にできる。したがって、機械学習に不要な又は不都合な情報が機械学習に提供されることがない。 In the above case, it is possible to extract second video data in an appropriate area. In other words, the second video data consisting of only the area necessary for machine learning can be targeted for machine learning. Therefore, unnecessary or inconvenient information for machine learning is not provided to machine learning.
一例として、信号に含まれた情報は、所定の事象の分類を示す事象分類情報である。
この場合、事象分類情報に応じて第2動画データのエリアが決定される。この結果、適切なエリアが第2動画データとして抽出できる。
一例として、信号に含まれた情報は、機械の動作内容を示す動作内容情報である。この場合、動作内容情報に応じて第2動画データのエリアが決定される。この結果、適切なエリアを第2動画データとして抽出できる。
なお、本実施形態の変形例として、第2動画データのエリアは信号受信の前段階で判断されていてもよく、この場合は信号に第2動画データのエリア情報が含まれている。
As an example, the information included in the signal is event classification information indicating a classification of a predetermined event.
In this case, the area of the second video data is determined according to the event classification information. As a result, an appropriate area can be extracted as the second video data.
As an example, the information included in the signal is operation content information indicating the operation content of the machine. In this case, the area of the second video data is determined according to the action content information. As a result, an appropriate area can be extracted as the second video data.
Note that as a modification of the present embodiment, the area of the second moving image data may be determined before receiving the signal, and in this case, the area information of the second moving image data is included in the signal.
5.第5実施形態
第1~第4実施形態では、第2動画データの機械学習部81への提供方法は限定されていなかったが、第2動画データの機械学習部81への提供方法を工夫してもよい。
図16を用いて、そのような実施例を第5実施形態として説明する。図16は、第5実施形態のカメラコントローラの第1動画データ及び第2動画データの抽出制御動作を示すフローチャートである。なお、基本構成及び基本動作は第1実施形態と共通しているので、以下異なる点を中心に説明する。
5. Fifth Embodiment In the first to fourth embodiments, the method of providing the second video data to the
Such an example will be described as a fifth embodiment using FIG. 16. FIG. 16 is a flowchart showing the extraction control operation of the first moving image data and the second moving image data of the camera controller of the fifth embodiment. Note that since the basic configuration and basic operation are the same as those of the first embodiment, the following description will focus on the differences.
ステップS8が、第1実施形態の図10のステップS5の後に実行される。ステップS8では、第2動画データが複数のグループのいずれかに自動で分類される。具体的には、第2抽出部98が、第2動画データを所定のカテゴリごとに分類する。これにより、分類されたカテゴリごとの推論エンジンが作成される。
この実施形態では、自動で機械学習用データを収集及び分類できるので、作業者が手作業で機械学習用データを分類しなくてもよい。したがって、作業負荷が小さくなる。
Step S8 is executed after step S5 in FIG. 10 of the first embodiment. In step S8, the second video data is automatically classified into one of a plurality of groups. Specifically, the
In this embodiment, the machine learning data can be automatically collected and classified, so there is no need for an operator to manually classify the machine learning data. Therefore, the workload is reduced.
一つの分類基準として、所定の事象ごとに第2動画データが分類される。この場合、所定の事象の種類ごとに推論エンジンを作成できる。
一の分類基準として、機械の動作内容ごとに第2動画データが分類される。この場合、機械の動作内容ごとに推論エンジンを作成できる。
As one classification criterion, the second video data is classified for each predetermined event. In this case, an inference engine can be created for each type of predetermined event.
As one classification criterion, the second video data is classified for each operation content of the machine. In this case, an inference engine can be created for each type of machine operation.
一つの分類基準として、機械ごとに第2動画データが分類される。この場合、機械ごとに推論エンジンを作成できる。
一つの分類基準として、カメラごとに第2動画データが分類される。この場合、カメラごとに推論エンジンを作成できる。
As one classification standard, the second video data is classified for each machine. In this case, an inference engine can be created for each machine.
As one classification criterion, the second video data is classified for each camera. In this case, an inference engine can be created for each camera.
6.第6実施形態
第1~第5実施形態では第2動画データは第1動画データから抽出していたが、元の撮影動画データから抽出してもよい。
図17を用いて、そのような実施例を第6実施形態として説明する。図17は、第6実施形態の撮影動画データと、第1動画データと、第2動画データの関係を示す模式図である。なお、基本構成及び基本動作は第1実施形態と共通しているので、以下異なる点を中心に説明する。
第2動画データを抽出するステップでは、撮影動画データからから第2動画データが抽出される。この場合、第1動画データの抽出と第2動画データの抽出の順番は限定されない。
6. Sixth Embodiment In the first to fifth embodiments, the second video data is extracted from the first video data, but it may be extracted from the original captured video data.
Such an example will be described as a sixth embodiment using FIG. 17. FIG. 17 is a schematic diagram showing the relationship between photographed video data, first video data, and second video data according to the sixth embodiment. Note that since the basic configuration and basic operation are the same as those of the first embodiment, the following description will focus on the differences.
In the step of extracting the second moving image data, the second moving image data is extracted from the photographed moving image data. In this case, the order of extraction of the first video data and extraction of the second video data is not limited.
7.第7実施形態
第1~第6実施形態では図7に示すように学習部と異常判定部がセットになっているが、本発明はそのような実施形態に限定されず、学習部と異常判定部が分けて設けられていてもよい。
7. Seventh Embodiment In the first to sixth embodiments, the learning section and the abnormality determination section are set as a set as shown in FIG. 7, but the present invention is not limited to such an embodiment, and the learning section and the abnormality determination section are The parts may be provided separately.
図18を用いて、そのような実施例を第7実施形態として説明する。図18は、第7実施形態の画像処理コントローラ及びカメラコントローラの機能ブロック図である。なお、第1実施形態と共通の点については説明を省略する。 Such an example will be described as a seventh embodiment using FIG. 18. FIG. 18 is a functional block diagram of an image processing controller and a camera controller according to the seventh embodiment. Note that descriptions of common points with the first embodiment will be omitted.
カメラシステム100Aは、搬送コントローラ50A、画像処理コントローラ80A、カメラコントローラ90A及び機械学習コントローラ101を有している。
画像処理コントローラ80Aは、カメラコントローラ90Aより受信した第1動画データ及び異常情報を記憶し、表示出力する。
The
The
画像処理コントローラ80Aは、画像処理部83Aを有している。画像処理部83Aは、異常判定された第1動画データにマーキング等の画像処理を行う。これにより、オペレータは第1動画データを参照する際に、異常の種類や原因を知ることができる。
画像処理コントローラ80Aは、表示制御部84Aを有している。表示制御部84Aは、表示装置89Aに、例えばマーキングされた第1動画データを表示できる。
The
The
画像処理コントローラ80Aは、記憶部85Aを有している。記憶部85Aには、機械の動作を撮影した動画データとして、第1動画データが保存される。
画像処理コントローラ80Aは、通信部87Aを有している。
画像処理コントローラ80Aには、入力装置88A及び表示装置89Aが接続されている。
The
The
An input device 88A and a display device 89A are connected to the
カメラコントローラ90Aは、4台のカメラ51~54を制御し、画像を撮影するものである。
カメラコントローラ90Aには、4台のカメラ51~54が接続されている。
The
Four
カメラコントローラ90Aは、4台のカメラ51~54の撮像を制御するカメラ制御部91Aを有している。
カメラコントローラ90Aは、画像処理をするための画像処理ソリューション・ソフトウェアからなる画像抽出部92Aを有している。
The
The
画像抽出部92Aは、第1抽出部97Aと第2抽出部98Aとを有している。
第1抽出部97Aは、撮影動画データから、信号が受信された受信時刻を含む第1期間の長さの第1動画データを抽出し、記憶部93Aに保存する。
第2抽出部98Aは、第1動画データから、上記受信時刻を含む第2期間の長さの第2動画データを抽出し、記憶部93Aに保存する。第2動画データは、所定の事象(例えば、機械の異常)の発生を判定するための機械学習用データであり、第2期間は、第1期間よりも短い。
The image extraction section 92A includes a first extraction section 97A and a second extraction section 98A.
The first extraction unit 97A extracts first video data having a length of a first period including the reception time when the signal was received from the captured video data, and stores it in the storage unit 93A.
The second extraction unit 98A extracts second video data having a length of a second period including the reception time from the first video data, and stores it in the storage unit 93A. The second video data is machine learning data for determining the occurrence of a predetermined event (for example, a machine abnormality), and the second period is shorter than the first period.
カメラコントローラ90Aは、記憶部93Aを有している。記憶部93には、4台のカメラ51~54によって撮像された画像データ(撮影動画データ、第1動画データ、第2動画データなど)が保存される。なお、記憶部は、画像サーバによって実現されてもよい。
The
カメラコントローラ90Aは、通信部95Aを有している。
カメラコントローラ90Aは、異常判定部82Aを有している。異常判定部82Aは、一又は複数の異常判定推論エンジンを有しており、第1動画データの異常判定を行う。なお、異常判定部82Aは、異常内容ごとの複数の推論エンジンデータを保持している
The
The
機械学習コントローラ101は、機械学習部81Aを有している。機械学習部81Aは、機械学習用データである第2動画データに基づいて、機械学習を行い、異常判定のための推論エンジンを構築する。
機械学習コントローラ101は、記憶部85Bを有している。
機械学習コントローラ101は、通信部87Bを有している。
The machine learning controller 101 has a
The machine learning controller 101 has a storage section 85B.
The machine learning controller 101 has a
カメラコントローラ90Aにおいて異常判定部82Aが異常を検出した場合、第1抽出部97A及び第2抽出部98Aがそれぞれ第1動画データと第2動画データを抽出する。この実施形態では、機械に所定の事象が発生したことを認識した事象認識時刻は、異常判定部82Aが異常を検出した時刻である。第1動画データは異常情報と共に、画像処理コントローラ80Aに送信される。第2動画データは異常情報と共に、機械学習コントローラ101に送信される。
カメラコントローラ90Aは、機械学習コントローラ101から新しい推論エンジンデータを受信した場合は、異常判定部82Aの推論エンジンを更新する。
When the
When the
機械学習コントローラ101は、カメラコントローラ90Aより第2動画データと異常情報を受信する。機械学習部81Aは、推論エンジンの強化学習を行う。機械学習部81Aは、異常内容ごとの学習モデルを保持している。機械学習部81Aによる学習の結果、新しい推論エンジンデータが生成された場合は、機械学習コントローラ101は、カメラコントローラ90Aに新しい推論エンジンデータを送信する。
The machine learning controller 101 receives the second video data and abnormality information from the
この実施形態では、機械学習コントローラ101は例えば倉庫内ネットワーク上に1つ配置され、複数のスタッカクレーンごとに設けられたカメラユニット(カメラ及びカメラコントローラの組)に対して、生成した推論エンジンを配信できる。この場合、各カメラユニットで異常判定、学習用動画の収集が行われる。 In this embodiment, one machine learning controller 101 is placed, for example, on a warehouse network, and distributes the generated inference engine to a camera unit (a set of camera and camera controller) provided for each of a plurality of stacker cranes. can. In this case, each camera unit performs abnormality determination and collection of learning videos.
8.実施形態の共通事項
上記第1~第7実施形態は、下記の構成及び機能を共通に有している。
本実施形態の機械学習用データ収集方法は、機械(例えば、スタッカクレーン3)の動作を撮影するカメラを備えるカメラシステム(例えば、カメラシステム100)において機械学習用データを収集する方法である。この方法は、下記のステップを備えている。
◎機械の動作を撮影した撮影動画データを記憶する撮影動画データ記憶ステップ。
◎機械に所定の事象(例えば、スタッカクレーン3の異常)が発生したことを認識する事象認識ステップ(例えば、ステップS3のYes)。
◎撮影動画データから、事象が認識された事象認識時刻を含む第1期間の長さの第1動画データを抽出する第1動画抽出ステップ(例えば、ステップS4)。
◎撮影動画データに含まれる第2動画データであって、事象認識時刻を含む第2期間の長さの第2動画データを抽出する第2動画抽出ステップ(例えば、ステップS5)。
第2期間は、第1期間よりも短い。
第2動画データは、所定の事象の発生を判定するための機械学習用データである。
この方法は、比較的長い期間の動画を表す第1動画データを抽出するので、人は、当該動画を見ることによって所定の事象が発生する様子を把握できる。また、この方法では、所定の事象の発生を判定するための機械学習用データとして、比較的短い期間の動画を表す第2動画データを利用できる。ここでは、第2動画データの抽出が自動的に行われるので、効率が良い。
8. Common Items of the Embodiments The first to seventh embodiments have the following configurations and functions in common.
The machine learning data collection method of this embodiment is a method of collecting machine learning data in a camera system (for example, camera system 100) that includes a camera that photographs the operation of a machine (for example, stacker crane 3). This method comprises the following steps.
◎Photographed video data storage step that stores photographed video data of machine operations.
◎Event recognition step (for example, Yes in step S3) for recognizing that a predetermined event (for example, an abnormality in the stacker crane 3) has occurred in the machine.
◎A first video extraction step (for example, step S4) of extracting first video data having a length of a first period including the event recognition time at which the event was recognized from the captured video data.
◎A second moving image extraction step (for example, step S5) of extracting second moving image data included in the photographed moving image data and having a length of a second period including the event recognition time.
The second period is shorter than the first period.
The second video data is machine learning data for determining the occurrence of a predetermined event.
Since this method extracts first video data representing a relatively long period of video, a person can understand how a predetermined event occurs by viewing the video. Further, in this method, second video data representing a relatively short period of video can be used as machine learning data for determining the occurrence of a predetermined event. Here, the extraction of the second moving image data is performed automatically, which is efficient.
9.他の実施形態
以上、本発明の複数の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で種々の変更が可能である。特に、本明細書に書かれた複数の実施形態及び変形例は必要に応じて任意に組み合せ可能である。
9. Other Embodiments Although a plurality of embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various changes can be made without departing from the gist of the invention. In particular, the multiple embodiments and modifications described in this specification can be arbitrarily combined as necessary.
第1実施形態では機械はスタッカクレーンであったが、機械の種類は限定されない。例えば、機械は、倉庫のラックの各段を走行するシャトル台車であってもよいし、地上又は天井のレールに沿って走行する有軌道台車でもよい。また、機械は搬送装置以外の機械でもよい。 In the first embodiment, the machine is a stacker crane, but the type of machine is not limited. For example, the machine may be a shuttle trolley that travels between racks in a warehouse, or a tracked trolley that travels along ground or ceiling rails. Further, the machine may be a machine other than the transport device.
カメラの数は特に限定されない。1~3台でもよいし、5台以上であってもよい。
全てのカメラの画像が同時に表示装置において表示されなくてもよい。例えば、1台のカメラの画像のみが表示され、切り替え可能となっていてもよい。
The number of cameras is not particularly limited. The number may be 1 to 3, or 5 or more.
Images from all cameras may not be displayed on the display device at the same time. For example, only images from one camera may be displayed and may be switchable.
本発明は、機械学習用データ収集方法及びカメラシステムに広く適用できる。 The present invention can be widely applied to data collection methods and camera systems for machine learning.
1 :自動倉庫
2 :ラック
3 :スタッカクレーン
5 :スタッカクレーン通路
7 :前側支柱
9 :後側支柱
11 :荷物支承部材
13 :棚
15 :フォーク通過間隙
21 :走行レール
22 :マスト
22A :第1マスト
22B :第2マスト
23 :走行台車
24 :走行車輪
25 :下側フレーム
26 :上側フレーム
27 :昇降台
28 :昇降ガイドローラ
29 :移載装置
29a :スライドフォーク
31 :端部
32 :端部
33 :端部
34 :端部
40 :ワイヤ
41 :制御盤
44 :プーリ
45 :フレーム
50 :搬送コントローラ
51 :第1カメラ
52 :第2カメラ
53 :第3カメラ
54 :第4カメラ
59 :走行モータ
63 :昇降モータ
64 :ドラム
73 :走行部
74 :昇降部
75 :移載部
80 :画像処理コントローラ
81 :機械学習部
82 :異常判定部
83 :画像処理部
84 :表示制御部
85 :記憶部
87 :通信部
88 :入力装置
89 :表示装置
90 :カメラコントローラ
91 :カメラ制御部
92 :画像処理部
93 :記憶部
95 :通信部
96 :入力装置
97 :第1抽出部
98 :第2抽出部
100 :カメラシステム
1: Automatic warehouse 2: Rack 3: Stacker crane 5: Stacker crane passage 7: Front support 9: Rear support 11: Load support member 13: Shelf 15: Fork passage gap 21: Traveling rail 22:
Claims (17)
前記機械の動作を撮影した撮影動画データを記憶する撮影動画データ記憶ステップと、
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識ステップと、
前記撮影動画データから、前記事象認識の時刻を含む第1期間の長さの第1動画データを抽出する第1動画データ抽出ステップと、
前記撮影動画データに含まれる第2動画データであって、前記事象認識の時刻を含む第2期間の長さの前記第2動画データを抽出する第2動画データ抽出ステップと、
前記異常信号に含まれた前記所定の事象の分類を示す事象分類情報に応じて、前記第2期間の長さを決定する長さ決定ステップと、
を備え、
前記第2期間は、前記第1期間よりも短く、
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データである、機械学習用データ収集方法。 A method for collecting data for machine learning in a camera system equipped with a camera that photographs the operation of a machine, the method comprising:
a photographed video data storage step of storing photographed video data of the operation of the machine;
an event recognition step of recognizing that a predetermined event has occurred in the machine based on the photographed image and outputting an abnormal signal ;
a first video data extraction step of extracting first video data having a length of a first period including the time of the event recognition from the captured video data;
a second video data extraction step of extracting second video data included in the captured video data and having a length of a second period including the time of the event recognition;
a length determining step of determining the length of the second period according to event classification information indicating a classification of the predetermined event included in the abnormal signal;
Equipped with
The second period is shorter than the first period,
The second moving image data is machine learning data for determining occurrence of the predetermined event.
前記機械の動作を撮影した撮影動画データを記憶する撮影動画データ記憶ステップと、a photographed video data storage step of storing photographed video data of the operation of the machine;
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識ステップと、an event recognition step of recognizing that a predetermined event has occurred in the machine based on the photographed image and outputting an abnormal signal;
前記撮影動画データから、前記事象認識の時刻を含む第1期間の長さの第1動画データを抽出する第1動画データ抽出ステップと、a first video data extraction step of extracting first video data having a length of a first period including the time of the event recognition from the captured video data;
前記撮影動画データに含まれる第2動画データであって、前記事象認識の時刻を含む第2期間の長さの前記第2動画データを抽出する第2動画データ抽出ステップと、a second video data extraction step of extracting second video data included in the captured video data and having a length of a second period including the time of the event recognition;
前記異常信号に含まれた機械の動作内容を示す動作内容情報に応じて、前記第2期間の長さを決定する長さ決定ステップと、a length determining step of determining the length of the second period according to operation content information indicating the operation content of the machine included in the abnormal signal;
を備え、Equipped with
前記第2期間は、前記第1期間よりも短く、The second period is shorter than the first period,
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データである、機械学習用データ収集方法。The second moving image data is machine learning data for determining occurrence of the predetermined event.
前記機械の動作を撮影した撮影動画データを記憶する撮影動画データ記憶ステップと、a photographed video data storage step of storing photographed video data of the operation of the machine;
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識ステップと、an event recognition step of recognizing that a predetermined event has occurred in the machine based on the photographed image and outputting an abnormal signal;
前記撮影動画データから、前記事象認識の時刻を含む第1期間の長さの第1動画データを抽出する第1動画データ抽出ステップと、a first video data extraction step of extracting first video data having a length of a first period including the time of the event recognition from the captured video data;
前記撮影動画データに含まれる第2動画データであって、前記事象認識の時刻を含む第2期間の長さの前記第2動画データを抽出する第2動画データ抽出ステップと、a second video data extraction step of extracting second video data included in the captured video data and having a length of a second period including the time of the event recognition;
前記異常信号に含まれた前記所定の事象の分類を示す事象分類情報に応じて、撮影動画の全体画像エリアから、前記第2動画データの画像エリアを決定する画像エリア決定ステップと、an image area determining step of determining an image area of the second video data from the entire image area of the captured video according to event classification information indicating a classification of the predetermined event included in the abnormal signal;
を備え、Equipped with
前記第2期間は、前記第1期間よりも短く、The second period is shorter than the first period,
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データである、機械学習用データ収集方法。The second moving image data is machine learning data for determining occurrence of the predetermined event.
前記機械の動作を撮影した撮影動画データを記憶する撮影動画データ記憶ステップと、a photographed video data storage step of storing photographed video data of the operation of the machine;
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識ステップと、an event recognition step of recognizing that a predetermined event has occurred in the machine based on the photographed image and outputting an abnormal signal;
前記撮影動画データから、前記事象認識の時刻を含む第1期間の長さの第1動画データを抽出する第1動画データ抽出ステップと、a first video data extraction step of extracting first video data having a length of a first period including the time of the event recognition from the captured video data;
前記撮影動画データに含まれる第2動画データであって、前記事象認識の時刻を含む第2期間の長さの前記第2動画データを抽出する第2動画データ抽出ステップと、a second video data extraction step of extracting second video data included in the captured video data and having a length of a second period including the time of the event recognition;
前記異常信号に含まれた機械の動作内容を示す動作内容情報に応じて、撮影動画の全体画像エリアから、前記第2動画データの画像エリアを決定する画像エリア決定ステップと、an image area determining step of determining an image area of the second video data from the entire image area of the captured video according to operation content information indicating the operation content of the machine included in the abnormal signal;
を備え、Equipped with
前記第2期間は、前記第1期間よりも短く、The second period is shorter than the first period,
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データである、機械学習用データ収集方法。The second moving image data is machine learning data for determining occurrence of the predetermined event.
前記第2動画データを複数のグループに自動で分類する自動分類ステップをさらに備える、請求項1~7のいずれかに記載の機械学習用データ収集方法。 A plurality of second video data is obtained by repeatedly performing the photographed video data storage step, the event recognition step, the first video data extraction step, and the second video data extraction step,
The data collection method for machine learning according to any one of claims 1 to 7 , further comprising an automatic classification step of automatically classifying the second video data into a plurality of groups.
各機械について、前記撮影動画データ記憶ステップと、前記事象認識ステップと、前記第1動画データ抽出ステップと、前記第2動画データ抽出ステップとを実行することで、複数の前記第2動画データが取得され、
前記自動分類ステップでは、機械ごとに前記第2動画データを分類する、請求項8に記載の機械学習用データ収集方法。 There are multiple machines;
By executing the photographed video data storage step, the event recognition step, the first video data extraction step, and the second video data extraction step for each machine, a plurality of the second video data are obtained,
9. The machine learning data collection method according to claim 8 , wherein in the automatic classification step, the second video data is classified for each machine.
前記自動分類ステップでは、前記カメラごとに第2動画データを分類する、請求項8に記載の機械学習用データ収集方法。 The camera system includes a plurality of the cameras,
9. The machine learning data collection method according to claim 8 , wherein in the automatic classification step, the second video data is classified for each camera.
前記機械の動作を撮影した撮影動画データを記憶する記憶部と、
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識部と、
コントローラと、を備え、
前記コントローラは、
前記撮影動画データから、前記事象が認識された事象認識時刻を含む第1期間の長さの第1動画を示す第1動画データを抽出する第1抽出部と、
前記撮影動画データに含まれる第2動画データであって、前記事象認識時刻を含む第2期間の長さの第2動画を示す前記第2動画データを抽出する第2抽出部と、を有し、
前記第2期間は、前記第1期間よりも短く、
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データであり、
前記異常信号は、前記所定の事象の分類を示す事象分類情報を含んでおり、
前記第2抽出部は、前記事象分類情報に応じて前記第2期間の長さを決定する、
カメラシステム。 A camera that records the operation of the machine,
a storage unit that stores photographed video data of the operation of the machine;
an event recognition unit that recognizes that a predetermined event has occurred in the machine based on the captured image and outputs an abnormal signal;
comprising a controller;
The controller includes:
a first extraction unit that extracts first video data indicating a first video having a length of a first period including an event recognition time at which the event was recognized from the captured video data;
a second extraction unit that extracts second video data included in the photographed video data, the second video data representing a second video having a second period including the event recognition time; death,
The second period is shorter than the first period,
The second video data is machine learning data for determining the occurrence of the predetermined event,
The abnormal signal includes event classification information indicating a classification of the predetermined event,
the second extraction unit determines the length of the second period according to the event classification information;
camera system.
前記機械の動作を撮影した撮影動画データを記憶する記憶部と、a storage unit that stores photographed video data of the operation of the machine;
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識部と、an event recognition unit that recognizes that a predetermined event has occurred in the machine based on the captured image and outputs an abnormal signal;
コントローラと、を備え、comprising a controller;
前記コントローラは、The controller includes:
前記撮影動画データから、前記事象が認識された事象認識時刻を含む第1期間の長さの第1動画を示す第1動画データを抽出する第1抽出部と、a first extraction unit that extracts first video data indicating a first video having a length of a first period including an event recognition time at which the event was recognized from the captured video data;
前記撮影動画データに含まれる第2動画データであって、前記事象認識時刻を含む第2期間の長さの第2動画を示す前記第2動画データを抽出する第2抽出部と、を有し、a second extraction unit that extracts second video data included in the photographed video data, the second video data representing a second video having a second period including the event recognition time; death,
前記第2期間は、前記第1期間よりも短く、The second period is shorter than the first period,
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データであり、The second video data is machine learning data for determining the occurrence of the predetermined event,
前記異常信号は、機械の動作内容を示す動作内容情報を含んでおり、The abnormal signal includes operation content information indicating the operation content of the machine,
前記第2抽出部は、前記動作内容情報に応じて前記第2期間の長さを決定する、the second extraction unit determines the length of the second period according to the operation content information;
カメラシステム。camera system.
前記機械の動作を撮影した撮影動画データを記憶する記憶部と、a storage unit that stores photographed video data of the operation of the machine;
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識部と、an event recognition unit that recognizes that a predetermined event has occurred in the machine based on the captured image and outputs an abnormal signal;
コントローラと、を備え、comprising a controller;
前記コントローラは、The controller includes:
前記撮影動画データから、前記事象が認識された事象認識時刻を含む第1期間の長さの第1動画を示す第1動画データを抽出する第1抽出部と、a first extraction unit that extracts first video data indicating a first video having a length of a first period including an event recognition time at which the event was recognized from the captured video data;
前記撮影動画データに含まれる第2動画データであって、前記事象認識時刻を含む第2期間の長さの第2動画を示す前記第2動画データを抽出する第2抽出部と、を有し、a second extraction unit that extracts second video data included in the photographed video data, the second video data representing a second video having a second period including the event recognition time; death,
前記第2期間は、前記第1期間よりも短く、The second period is shorter than the first period,
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データであり、The second video data is machine learning data for determining the occurrence of the predetermined event,
前記異常信号は、前記所定の事象の分類を示す事象分類情報を含んでおり、The abnormal signal includes event classification information indicating a classification of the predetermined event,
前記第2抽出部は、前記事象分類情報に応じて、撮影動画の全体画像エリアから、前記第2動画データの画像エリアを決定する、The second extraction unit determines an image area of the second video data from the entire image area of the captured video according to the event classification information.
カメラシステム。camera system.
前記機械の動作を撮影した撮影動画データを記憶する記憶部と、a storage unit that stores photographed video data of the operation of the machine;
撮影画像に基づいて前記機械に所定の事象が発生したことを認識し、異常信号を出力する事象認識部と、an event recognition unit that recognizes that a predetermined event has occurred in the machine based on the captured image and outputs an abnormal signal;
コントローラと、を備え、comprising a controller;
前記コントローラは、The controller includes:
前記撮影動画データから、前記事象が認識された事象認識時刻を含む第1期間の長さの第1動画を示す第1動画データを抽出する第1抽出部と、a first extraction unit that extracts first video data indicating a first video having a length of a first period including an event recognition time at which the event was recognized from the captured video data;
前記撮影動画データに含まれる第2動画データであって、前記事象認識時刻を含む第2期間の長さの第2動画を示す前記第2動画データを抽出する第2抽出部と、を有し、a second extraction unit that extracts second video data included in the photographed video data, the second video data representing a second video having a second period including the event recognition time; death,
前記第2期間は、前記第1期間よりも短く、The second period is shorter than the first period,
前記第2動画データは、前記所定の事象の発生を判定するための機械学習用データであり、The second video data is machine learning data for determining the occurrence of the predetermined event,
前記異常信号は、機械の動作内容を示す動作内容情報を含んでおり、The abnormal signal includes operation content information indicating the operation content of the machine,
前記第2抽出部は、前記動作内容情報に応じて、撮影動画の全体画像エリアから、前記第2動画データの画像エリアを決定する、The second extraction unit determines an image area of the second video data from the entire image area of the captured video according to the action content information.
カメラシステム。camera system.
17. The camera system according to claim 13, wherein the second extraction unit extracts the second video data from the first video data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019104688A JP7342429B2 (en) | 2019-06-04 | 2019-06-04 | Machine learning data collection method and camera system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019104688A JP7342429B2 (en) | 2019-06-04 | 2019-06-04 | Machine learning data collection method and camera system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020197988A JP2020197988A (en) | 2020-12-10 |
JP7342429B2 true JP7342429B2 (en) | 2023-09-12 |
Family
ID=73648144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019104688A Active JP7342429B2 (en) | 2019-06-04 | 2019-06-04 | Machine learning data collection method and camera system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7342429B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016044007A (en) | 2014-08-20 | 2016-04-04 | 村田機械株式会社 | Conveyance system |
JP2018041123A (en) | 2016-09-05 | 2018-03-15 | 日本電気株式会社 | Driving situation recording device |
-
2019
- 2019-06-04 JP JP2019104688A patent/JP7342429B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016044007A (en) | 2014-08-20 | 2016-04-04 | 村田機械株式会社 | Conveyance system |
JP2018041123A (en) | 2016-09-05 | 2018-03-15 | 日本電気株式会社 | Driving situation recording device |
Also Published As
Publication number | Publication date |
---|---|
JP2020197988A (en) | 2020-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109937118B (en) | Picking system and control method thereof | |
JP7040597B2 (en) | Information processing equipment, information processing methods and information processing programs | |
CN110054121B (en) | Intelligent forklift and container pose deviation detection method | |
CN103492291B (en) | Article storing system, article storing take out of method | |
KR101638555B1 (en) | Logistics system, and method for recovery from abnormality in logistics system | |
CN111524184B (en) | Intelligent unstacking method and unstacking system based on 3D vision | |
JP6907892B2 (en) | Transport device | |
JP7507965B2 (en) | System and method for risk mapping in a warehouse environment | |
JP6011490B2 (en) | Goods storage facility | |
CN102976019B (en) | Article carrying equipment | |
JP2016050106A (en) | Carrier system | |
JP2023529878A (en) | CONTAINER REMOVAL METHOD, DEVICE, SYSTEM, ROBOT AND STORAGE MEDIUM | |
CN110000175A (en) | For carrying out clean bottle sanitation machine to bottle | |
JP7342429B2 (en) | Machine learning data collection method and camera system | |
JP7069594B2 (en) | Transport system | |
JP2019062449A (en) | Monitoring system | |
JP6442937B2 (en) | Transport vehicle system | |
JP2014091608A (en) | Article processing facility | |
JP6327014B2 (en) | Equipment management system | |
JP2021070550A (en) | Picking assist system and picking assist method | |
JP7559153B2 (en) | Cargo handling flow analysis system and analysis method | |
CN117555308B (en) | Tray recycling method, system and storage medium based on unmanned forklift | |
EP3913526A1 (en) | Platform detection | |
JP2006248734A (en) | Article supplying device | |
CA3206627A1 (en) | Advanced material handling vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230814 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7342429 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |