JP2021125131A - Management device - Google Patents
Management device Download PDFInfo
- Publication number
- JP2021125131A JP2021125131A JP2020019993A JP2020019993A JP2021125131A JP 2021125131 A JP2021125131 A JP 2021125131A JP 2020019993 A JP2020019993 A JP 2020019993A JP 2020019993 A JP2020019993 A JP 2020019993A JP 2021125131 A JP2021125131 A JP 2021125131A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- error
- management device
- shooting data
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 45
- 238000000034 method Methods 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 23
- 238000005286 illumination Methods 0.000 abstract description 5
- 238000004519 manufacturing process Methods 0.000 description 21
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 238000005259 measurement Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 238000010191 image analysis Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000006872 improvement Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 238000012856 packing Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- General Factory Administration (AREA)
- Arrangement Of Elements, Cooling, Sealing, Or The Like Of Lighting Devices (AREA)
Abstract
Description
本発明の実施形態は、管理装置に関する。 Embodiments of the present invention relate to management devices.
近年、1つの筐体に照明ユニットと、カメラユニットとを備えたカメラ付き照明装置がある。かかるカメラ付き照明装置は、工場での生産ラインの監視やオフィス内での従業員の状態監視などの用途にも導入されつつある。 In recent years, there is a lighting device with a camera including a lighting unit and a camera unit in one housing. Such camera-equipped lighting devices are also being introduced for applications such as monitoring production lines in factories and monitoring the status of employees in offices.
従来技術では、カメラ付き照明装置の利用価値を高めるうえで改善の余地があった。すなわち、カメラユニットによって撮影された撮影データは、表示または記録されるにとどっていた。 In the prior art, there was room for improvement in increasing the utility value of the lighting device with a camera. That is, the shooting data shot by the camera unit is only displayed or recorded.
本発明が解決しようとする課題は、カメラ付き照明装置の利用価値を高めることができる管理装置を提供することを目的とする。 An object of the present invention to be solved is to provide a management device capable of increasing the utility value of a lighting device with a camera.
実施形態に係る管理装置は、取得部と、検出部と、タグ付け部とを備える。前記取得部は、照明ユニットとカメラユニットとを有するカメラ付き照明装置のカメラユニットによって作業現場を撮影された撮影データを取得する。前記検出部は、前記取得部によって取得された前記撮影データと特定情報とから撮影現場におけるエラーを検出する。前記タグ付け部は、前記検出部によってエラーが検出された場合に、当該エラーが検出された前記撮影データに前記エラーに関するエラー情報をタグ付けする。 The management device according to the embodiment includes an acquisition unit, a detection unit, and a tagging unit. The acquisition unit acquires shooting data obtained by shooting a work site by a camera unit of a camera-equipped lighting device having a lighting unit and a camera unit. The detection unit detects an error at the shooting site from the shooting data acquired by the acquisition unit and specific information. When an error is detected by the detection unit, the tagging unit tags the shooting data in which the error is detected with error information related to the error.
本発明によれば、カメラ付き照明装置の利用価値を高めることができる。 According to the present invention, the utility value of the lighting device with a camera can be increased.
以下で説明する実施形態に係る管理装置100は、取得部4aと、検出部4bと、タグ付け部4cとを具備する。取得部4aは、照明ユニット20とカメラユニット30とを有するカメラ付き照明装置10のカメラユニットによって作業現場を撮影された撮影データを取得する。検出部4bは、取得部4aによって取得された撮影データと特定情報とから撮影現場におけるエラーを検出する。タグ付け部4cは、検出部4bによってエラーが検出された場合に、当該エラーが検出された撮影データにエラーに関するエラー情報をタグ付けする。
The
また、以下で説明する実施形態に係る管理装置100において、タグ付け部4cは、照明ユニット20の照明態様を変更することで、撮影データにタグ付けする。
Further, in the
また、以下で説明する実施形態に係る管理装置100は、タグ付け部4cによってエラー情報がタグ付けされた撮影データを切り取って再生する再生部4dをさらに具備する。
Further, the
また、以下で説明する実施形態に係る管理装置100aは、取得部4aと、入力部4hと、検出部4bとを具備する。取得部4aは、照明ユニット20とカメラユニット30とを有するカメラ付き照明装置10のカメラユニットによって作業現場を撮影された撮影データを取得する。入力部4hは、特定情報を入力する。検出部4bは、取得部4aによって取得された撮影データと特定情報とから撮影現場におけるエラーを検出する。
Further, the management device 100a according to the embodiment described below includes an
また、以下で説明する管理装置100において、特定情報は、作業工程ごとの製品の状態を示す模範データであり、検出部4bは撮影データに写る製品の状態と模範データとに基づいてエラーを検出する。
Further, in the
また、以下で説明する管理装置100において、検出部4bは、模範データと撮影データに写る製品の状態それぞれの部品又は付属品の数の差分とに基づいてエラーを検出する。
Further, in the
また、以下で説明する管理装置100は、模範データを過去の撮影データから学習する学習部4fを具備する。
Further, the
また、以下で説明する管理装置100において、特定情報は、撮影現場が流れ作業の現場である場合に、流れ作業の作業周期に関する情報である。
Further, in the
また、以下で説明する管理装置100は、検出部4bによってエラーが検出された場合に作業者へ通知する通知部4gを具備する。
Further, the
また、以下で説明する管理装置100は、撮影データから単位時間当たりの作業効率を測定する測定部4eを具備する。
Further, the
(第1の実施形態)
まず、図1Aおよび図1Bを用いて、第1の実施形態に係るカメラ付き照明装置10について説明する。図1Aは、第1の実施形態に係るカメラ付き照明装置10の側面図である。図1Bは、第1の実施形態に係るカメラ付き照明装置10の下面図である。
(First Embodiment)
First, the camera-equipped
図1Aに示すように、実施形態に係るカメラ付き照明装置10は、照明ユニット20と、カメラユニット30と、電源ユニット40とを備える。また、照明ユニット20と、カメラユニット30とは、L字金具を介してネジ止めされ、照明ユニット20と、電源ユニット40とは、連結部12を介して連結される。
As shown in FIG. 1A, the camera-equipped
連結部12は、さらに、取付部11と接合し、取付部11を介して、カメラ付き照明装置10が天井などの設置面に取り付けられる。
The connecting
照明ユニット20は、光源部21と、フィン25とを備える。フィン25は、光源部21の上部に設けられ、光源部21の発光による発熱を冷却する。図1Bに示すように、光源部21は、基板21a上にLED(Light Emitting Diode)等の発光素子21bが設けられる。
The
また、光源部21の出射面は、カバー22によって覆われる。なお、カバー22は、例えば、透過性のガラスや樹脂である。なお、図1Bに示す例では、光源部21が4つの基板21aから構成される場合を示しているが、これに限定されるものではない。
Further, the exit surface of the
また、カメラユニット30は、撮像部31と、レンズ32とを備える。撮像部31は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像センサや、画像または映像を撮影するのに必要となる各種部品が含まれる。また、撮像部31の下面は、レンズ32によって覆われる。
Further, the
また、図1Bに示すように、光源部21と、撮像部31との向きは、それぞれ取り付け時に下側を向くことになる。これにより、光源部21によって光が照射されたエリアを撮像部31によって撮像することができるので、撮影対象の照度を確保することができるので、鮮明な画像を撮像することができる。
Further, as shown in FIG. 1B, the
また、カメラ付き照明装置10は、天井に設置されるので、天井から空間内を俯瞰した画像を撮影することができる。なお、図1Aおよび図1Bに示すカメラ付き照明装置10の外観形状は、一例であり、ベースライト、シーリングライトなど、その他の形状であってもよい。
Further, since the
次に、図1Cを用いて、実施形態に係る照明システムSについて説明する。図1Cは、実施形態に係る照明システムSの概要を示す図である。なお、以下では、照明システムSが工場に導入される場合を例に挙げて説明する。 Next, the lighting system S according to the embodiment will be described with reference to FIG. 1C. FIG. 1C is a diagram showing an outline of the lighting system S according to the embodiment. In the following, a case where the lighting system S is introduced in a factory will be described as an example.
図1Cに示すように、実施形態に係る照明システムSは、複数のカメラ付き照明装置10と、管理装置100とを備える。また、図1Cに示す例では、各カメラ付き照明装置10が工場の作業現場(例えば、製造ライン等)に設置される場合を示す。
As shown in FIG. 1C, the lighting system S according to the embodiment includes a plurality of camera-equipped
管理装置100は、作業現場に設置された各カメラ付き照明装置10を管理する装置である。例えば、管理装置100は、各カメラ付き照明装置10の照明ユニット20の照明態様や、カメラユニット30の撮像向き、倍率等をネットワークNを介して遠隔で制御する。
The
また、管理装置100は、各カメラユニット30で撮影された画像または映像を収集し、記憶する。例えば、管理装置100によって収集された画像または映像は、作業現場の監視等に用いられる。
In addition, the
ところで、上述のように、管理装置100には、各カメラユニット30で撮影された撮影データが集積される。しかしながら、従来においては、管理装置に集積された撮影データを記憶したり、管理者に対して表示したりするにとどまっていた。このため、カメラ付き照明装置10の利用価値を高めるうえで、改善の余地があった。
By the way, as described above, the
そこで、第1の実施形態に係る管理装置100では、撮影データから撮影現場におけるエラーを検出することとした。なお、以下では、撮影現場が作業場である場合について説明する。また、作業場におけるエラーとは、ライン上において行われる作業のミスや誤り、作業場において行われる各種工程の作業における誤りを示す。すなわち、実施形態に係る管理装置100は、作業場において生じた作業や業務のミス等、任意のエラーを作業場のエラーとして検出する。
Therefore, in the
図2は、第1の実施形態に係る管理装置100のブロック図である。図2に示すように、管理装置100は、通信部2と、記憶部3と、制御部4とを備える。通信部2は、ネットワークNを介して各カメラ付き照明装置10とデータ通信を行う通信モジュールである。
FIG. 2 is a block diagram of the
記憶部3は、例えば、フラッシュメモリ等の半導体メモリ素子、または、HDD、光ディスク等の記憶装置である。図2に示す例において、記憶部3は、撮影データデータベース3a、特定情報データベース3bおよび作業データデータベース3cを有する。
The
撮影データデータベース3aは、各カメラ付き照明装置10で撮影された撮影データを記憶するデータベースである。本実施形態では、特に、作業場の各作業工程を撮影した撮影データが撮影データデータベース3aに格納される。
The
特定情報データベース3bは、作業場におけるエラーを検出するための特定情報を格納するデータベースである。特定情報の一例として、各作業工程において作業工程ごとの製品の状態を示す模範データが挙げられる。かかる模範データは、例えば、後述する学習部4fによって生成される。
The
作業データデータベース3cは、各製造ラインの作業効率に関する情報を記憶するデータベースである。例えば、作業効率に関する情報は、後述する測定部4eによって生成される。
The
次に、制御部4について説明する。制御部4は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力ポートなどを有するマイクロコンピュータや各種の回路を含む。
Next, the
図2に示す例では、制御部4は、取得部4aと、検出部4bと、タグ付け部4cと、再生部4dと、測定部4eと、学習部4fと、通知部4gとを備える。取得部4a、検出部4b、タグ付け部4c、再生部4d、測定部4e、学習部4fおよび通知部4gの機能は、例えば、制御部4のCPUが制御部4のRAM、ROM、または記憶部3に記憶されているプログラムを読み出して実行することにより実現される。
In the example shown in FIG. 2, the
なお、取得部4a、検出部4b、タグ付け部4c、再生部4d、測定部4e、学習部4fおよび通知部4gは、それぞれ一部または全部がASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。
Part or all of the
取得部4aは、照明ユニット20とカメラユニット30とを備えるカメラ付き照明装置10のカメラユニット30によって作業現場を撮影された撮影データを取得する。例えば、取得部4aは、リアルタイムで各カメラユニット30から撮影データを取得し、撮影データの取得毎に取得した撮影データを撮影データデータベース3aに格納する。
The
この際、製造ラインが複数ある場合、製造ラインごとに作業工程ごとの撮影データを順次、撮影データデータベース3aに格納する。
At this time, when there are a plurality of manufacturing lines, the shooting data for each work process is sequentially stored in the
検出部4bは、取得部4aによって取得された撮影データと特定情報とから作業場(撮影現場)におけるエラーを検出する。ここで、上述のように、「作業場におけるエラー」とは、ライン上において行われる作業のミスや誤り、作業場において行われる各種工程の作業における誤りを示す。
The
なお、以下では、例えば、人的ミスにより、付属部品の梱包ミスを作業場におけるエラーとして検出する場合について説明する。 In the following, for example, a case where a packing error of an accessory part is detected as an error in the workplace due to a human error will be described.
例えば、検出部4bは、画像解析を行い、作業工程ごとの製品の状態を示す模範データと、撮影データに写る製品の状態とに基づいてエラーを検出する。より詳細には、検出部4bは、模範データと、撮影データに写る製品の状態との部品又は付属品の数の差分に基づいて、エラーを検出する。
For example, the
ここで、図3を用いて、検出部4bによる検出処理の具体例について説明する。図3は、第1の実施形態に係る検出部4bの処理の一例を示す図である。なお、図4では、段ボールに作業工程ごとに部品を順次梱包していく場面を示す。
Here, a specific example of the detection process by the
例えば、図3の左に示す模範データLeにおいては、部品P1〜P3の計3つの部品が段ボールに梱包されている。これに対して、図3の右図に示す撮影データLaには、段ボールに部品P1、P3が梱包されているものの、部品P2が梱包されていない場合を示す。 For example, in the model data Le shown on the left side of FIG. 3, a total of three parts P1 to P3 are packed in corrugated cardboard. On the other hand, the photographing data La shown on the right side of FIG. 3 shows a case where the parts P1 and P3 are packed in the corrugated cardboard, but the parts P2 are not packed.
検出部4bは、模範データLeと、撮影データLaとの差分から部品P2が梱包されていないことを認識し、エラーとして検出する。このように、差分に基づき、エラーを検出することで、容易にエラーを検出することができる。なお、段ボールの通過の有無については、マイクロ波センサによって検出することにしてもよい。すなわち、撮影データ以外にその他のセンサの検出結果の組み合わせに基づき、エラーを検出することにしてもよい。
The
また、検出部4bは、撮影データLaから各部品P1〜P3それぞれを画像認識により検出し、画像認識の結果、認識されなかった部品P2が梱包されていないことを認識することにしてもよい。
Further, the
すなわち、この場合、撮影データLaから各部品P1〜P3をそれぞれ認識し、認識した部品P1〜P3の数と、模範データにおける部品P1〜P3の数とが一致しなかった場合に、エラーとして検出する。 That is, in this case, each component P1 to P3 is recognized from the shooting data La, and if the number of recognized components P1 to P3 does not match the number of components P1 to P3 in the model data, it is detected as an error. do.
この場合、撮影データに写る各部品の色から各部品それぞれを認識することにしてもよい。例えば、撮影データの各画素のRGBと、模範データにおける各部品のRGBの一致度に基づいて、各部品を認識することにしてもよい。 In this case, each component may be recognized from the color of each component reflected in the shooting data. For example, each component may be recognized based on the degree of coincidence between the RGB of each pixel of the shooting data and the RGB of each component in the model data.
また、部品が取扱説明書である場合を想定すると、取扱説明書には、通常、文字が印刷されている。このため、撮影データからRGBのコントラスト差から文字の有無を認識し、取扱説明書か梱包されているか否かを判定することにしてもよい。この場合、撮影データ内での部品のRGBの値が模範データのRGBに近づくように、照明ユニット20の照度、色温度、周波数等を調節することにしてもよい。
Further, assuming that the part is an instruction manual, characters are usually printed in the instruction manual. Therefore, the presence or absence of characters may be recognized from the contrast difference of RGB from the shooting data, and it may be determined whether or not the characters are packed in the instruction manual. In this case, the illuminance, color temperature, frequency, and the like of the
なお、検出部4bは、模範データに代えて、作業工程前後の撮影データの差分からエラーを検出することにしてもよい。例えば、1つの作業工程において、部品P2を梱包する場合、作業工程前と、作業工程後で、段ボール内に変化がなかった場合、すなわち、部品P2が梱包されていなかった場合に、エラーとして検出する。また、検出部4bは、特定の部品が通常よりも多く梱包されていた場合も同様にエラーとして検出することができるのは言うまでもない。
The
また、他の例として、検出部4bは、例えば、作業者の作業間隔に基づいて、上記のエラーを検出することもできる。図4は、検出部4bによる検出処理の具体例について説明する。
Further, as another example, the
図4のAに示す動作タイミングは、作業者の梱包作業の動作タイミングを示し、図4のBに示す作業周期は、段ボールの流れる周期を示す。すなわち、ここでは、特定情報が作業周期となり、全ての段ボールに部品P2を梱包したならば、動作タイミングと、作業周期とが一致する。 The operation timing shown in A of FIG. 4 indicates the operation timing of the packing work of the operator, and the operation cycle shown in B of FIG. 4 indicates the flow cycle of the corrugated cardboard. That is, here, the specific information becomes the work cycle, and if the parts P2 are packed in all the corrugated cardboard, the operation timing and the work cycle coincide with each other.
これに対して、作業タイミングにおいて、動作タイミングが少ない場合、部品P2が梱包されていないことになる。なお、この場合においては、検出部4bは、画像認識により、作業者の動作をトラッキングし、作業者の作業間隔に基づいて、エラーを検出する。
On the other hand, when the operation timing is small in the work timing, the component P2 is not packed. In this case, the
上述のように、カメラ付き照明装置10は、天井に設置される。このため、例えば、作業者の頭などで段ボールがカメラユニット30から遮られる場合も想定され得る。これに対して、作業者に基づいてエラーを検出することで、部品などを撮影データから直接認識できない場合であっても、エラーの検出が可能となる。
As described above, the camera-equipped
図2の説明に戻り、タグ付け部4cについて説明する。タグ付け部4cは、検出部4bによってエラーが検出された場合に、当該エラーが検出された撮影データにエラーに関するエラー情報をタグ付けする。
Returning to the description of FIG. 2, the
例えば、エラー情報は、フラグであり、エラーが検出されなかった撮影データのフラグは「0」、エラーが検出されなかった撮影データのフラグは「1」となる。 For example, the error information is a flag, the flag of the shooting data in which no error is detected is "0", and the flag of the shooting data in which no error is detected is "1".
また、タグ付け部4cは、エラーが検出された場合に、照明ユニット20の照明態様を変更することで、撮影データにタグ付けすることにしてもよい。具体的には、例えば、タグ付け部4cは、エラーが検出された撮影データを撮影したカメラ付き照明装置10の照明態様を変更する。
Further, the
例えば、照明態様とは、周波数や照度を含む。また、この場合には、照明態様の変更によって、作業をストップさせてしまうと、作業効率の低下を招くため、作業に支障が出ない範囲で照明態様を変更することが好ましい。 For example, the illumination mode includes frequency and illuminance. Further, in this case, if the work is stopped by changing the lighting mode, the work efficiency is lowered. Therefore, it is preferable to change the lighting mode within a range that does not hinder the work.
この場合には、エラーの検出前後で、撮影データに写る照明態様が変化することになり、照明態様の変化点からエラーの発生時刻を検出することが可能となる。 In this case, the lighting mode reflected in the shooting data changes before and after the error is detected, and the time when the error occurs can be detected from the change point of the lighting mode.
再生部4dは、タグ付け部4cによってエラー情報がタグ付けされた撮影データを切り取って再生する。すなわち、再生部4dは、撮影データデータベース3aからエラー情報がタグ付けされた撮影データを抽出し、再生する。
The
なお、上述のように、エラー情報がフラグである場合は、フラグの有無に基づいてエラーに関する撮影データを抽出することができる。また、エラー情報が照明態様の変更である場合は、撮影データのスペクトルの変化によって、エラー情報の有無を検出することができる。 As described above, when the error information is a flag, shooting data related to the error can be extracted based on the presence or absence of the flag. Further, when the error information is a change in the illumination mode, the presence or absence of the error information can be detected by the change in the spectrum of the shooting data.
そして、再生部4dは、撮影時刻を表示しつつ、撮影データの再生を行う。これにより、エラーの状況を示す撮影データのみが再生されるので、作業管理者は、エラーの状況を容易に把握することが可能となる。
Then, the
なお、この際には、例えば、エラーを検出した時刻を基準として前後所定期間(例えば、前後1分間)を併せて再生することが好ましい。 In this case, for example, it is preferable to play back a predetermined period before and after (for example, 1 minute before and after) based on the time when the error is detected.
測定部4eは、撮影データから単位時間当たりの作業効率を測定する。例えば、測定部4eは、図4に示したように、動作タイミングに基づいて、単位時間当たりの作業効率を測定することができる。
The measuring
例えば、測定部4eは、作業効率を生産ライン毎に測定し、測定結果を作業データデータベース3cに格納する。図5は、作業効率の測定結果の一例を示す図である。なお、図5の例では、生産ラインごとに作業効率の推移を示す。
For example, the
図5に示すように、例えば、生産ラインw1では、作業効率にムラがなく、生産ラインw2は、一度、生産効率が最大となるピークPを向かえるものの、その他は、生産ラインw1よりも作業効率が劣ることを示す。 As shown in FIG. 5, for example, in the production line w1, the work efficiency is not uneven, and the production line w2 once faces the peak P at which the production efficiency is maximized, but the other work efficiencies are higher than those of the production line w1. Indicates inferior.
また、生産ラインw3は、生産ラインw1、w2に比べて、作業効率が劣っていることを示す。ここで、全ての生産ラインw1〜w3で、ピークPの作業効率を継続して行った場合が、生産ラインw1〜w3の生産能力の上限となる。 Further, the production line w3 shows that the work efficiency is inferior to that of the production lines w1 and w2. Here, the case where the work efficiency of the peak P is continuously performed on all the production lines w1 to w3 is the upper limit of the production capacity of the production lines w1 to w3.
つまり、作業効率を測定することで、生産ラインの生産能力の上限の把握や、生産ラインの効率化の見直し等に用いることができる。なお、測定部4eは、作業効率の特異点(例えば、ピークP)の撮影データにタグ付けを行うことにしてもよい。また、この際、生産ラインごとの作業員を撮影データから認識し、作業効率の測定結果や撮影データに作業員をタグ付けすることにしてもよい。
That is, by measuring the work efficiency, it can be used for grasping the upper limit of the production capacity of the production line, reviewing the efficiency improvement of the production line, and the like. The measuring
これにより、作業管理者に対して、人員の配置の見直しの検討を容易にすることができる。なお、上述の例では、生産ラインごとに作業効率を測定する場合について説明したが、これに限定されるものではない。すなわち、作業工程ごとの作業効率を測定することにしてもよい。 This makes it easier for the work manager to consider reviewing the staffing. In the above example, the case where the work efficiency is measured for each production line has been described, but the present invention is not limited to this. That is, the work efficiency of each work process may be measured.
図2の説明に戻り、学習部4fについて説明する。学習部4fは、過去の撮影データから上記の模範データを学習する。例えば、学習部4fは、作業工程ごとに模範となる撮影データを教師データとする機械学習によって模範データを学習することができる。
Returning to the explanation of FIG. 2, the
なお、模範データは、例えば、図3に示したように、各部品それぞれを含んだものであってもよいし、作業工程ごとの部品そのものであってもよい。なお、学習部4fの構成を管理装置100とは別の装置(例えば、クラウド)に設けることにしてもよい。
The model data may include each part, as shown in FIG. 3, or may be the part itself for each work process. The configuration of the
通知部4gは、検出部4bによってエラーが検出された場合に、作業者へ通知する。すなわち、管理装置100aでは、即時的にエラーの発生を通知する。例えば、通知部4gは、対応するカメラ付き照明装置10の照明ユニット20の照明態様を変更したり、作業場内のマイクから音声を出力したりすることで、エラーを作業者へ通知する。なお、ここでの照明態様とは、点滅や色温度の変更などを示す。
The
次に、図6を用いて、実施形態に係る管理装置100が実行する処理手順について説明する。図6は、実施形態に係る管理装置100が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、管理装置100の制御部4によって繰り返し実行される。
Next, the processing procedure executed by the
図6に示すように、管理装置100は、撮影データを取得すると(ステップS101)、撮影データの画像解析を行う(ステップS102)。続いて、管理装置100は、画像解析の結果、エラーを検出したか否かを判定し(ステップS103)、エラーを検出した場合(ステップS103,Yes)、撮影データにタグ付けし(ステップS104)、処理を終了する。
As shown in FIG. 6, when the
また、管理装置100は、ステップS103の判定において、エラーを検出しなかった場合には(ステップS103,No)、ステップS104の処理を省略して、処理を終了する。
If the
(第2の実施形態)
上述の実施形態では、予め登録された特定情報に基づいて、エラーを検出する場合について説明したがこれに限定されるものではない。すなわち、後から入力された特定情報に基づいて、エラーを検出することにしてもよい。
(Second Embodiment)
In the above-described embodiment, the case where an error is detected based on the specific information registered in advance has been described, but the present invention is not limited to this. That is, the error may be detected based on the specific information input later.
ここで、図7および図8を用いて、第2の実施形態に係る管理装置100aについて説明する。図7は、第2の実施形態に係る管理装置100aのブロック図である。なお、図7に示す例において、管理装置100aは、既に説明した管理装置100の学習部4fに代えて、入力部4hを備える。
Here, the management device 100a according to the second embodiment will be described with reference to FIGS. 7 and 8. FIG. 7 is a block diagram of the management device 100a according to the second embodiment. In the example shown in FIG. 7, the management device 100a includes an
入力部4hは、特定情報を入力する。例えば、入力部4hは、エラーの検出対象となる情報を特定情報として入力する。例えば、作業員による全ての梱包作業が終わった後に、全て梱包したはずの説明書が余っていた場合を想定する。
The
この場合において、入力部4hは、例えば、作業者の操作に基づき、撮影データから説明書を特定するためのデータを特定情報として入力する。検出部4bは、かかる特定情報に基づいて、撮影データデータベース3aに記録された撮影データからエラーの検出処理を行う。
In this case, the
このように、管理装置100aは、入力部4hによって特定情報の入力を受け付けることで、当初、想定していなかったエラーを検出することが可能となる。
In this way, the management device 100a can detect an error that was not initially expected by accepting the input of the specific information by the
次に、図8を用いて、第2の実施形態に係る管理装置100aが実行する処理手順について説明する。図8は、第2の実施形態に係る管理装置100aが実行する処理手順を示すフローチャートである。 Next, the processing procedure executed by the management device 100a according to the second embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing a processing procedure executed by the management device 100a according to the second embodiment.
図8に示すように、管理装置100aは、特定情報を入力すると(ステップS201)、特定情報に基づいて、撮影データデータベース3aに格納された撮影データの画像解析を行う(ステップS202)。続いて、管理装置100aは、画像解析の結果、エラーを検出したか否かを判定し(ステップS203)、エラーを検出した場合(ステップS203,Yes)、エラーの該当箇所の撮影データを再生して(ステップS204)、処理を終了する。
As shown in FIG. 8, when the management device 100a inputs the specific information (step S201), the management device 100a performs image analysis of the shooting data stored in the
また、管理装置100aは、ステップS203の判定において、エラーを検出しなかった場合には(ステップS203,No)、ステップS202の処理へ移行する。 If the management device 100a does not detect an error in the determination in step S203 (steps S203, No), the management device 100a shifts to the process in step S202.
ところで、上述した実施形態では、学習部4fと、入力部4hとがそれぞれ別の管理装置100に設けられる場合について説明したが、これに限定されるものではない。すなわち、学習部4fと、入力部4hをそれぞれ同一の管理装置100に設けることにしてもよい。
By the way, in the above-described embodiment, the case where the
また、管理装置100の一部またはすべての機能を各カメラ付き照明装置10に設けることにしてもよい。すなわち、各カメラ付き照明装置10でエラーを検出することにしてもよい。
Further, some or all the functions of the
また、上述した実施形態では、照明システムSが工場に設置される場合について説明したが、これに限定されるものではない。すなわち、照明システムSをオフィスや病院など、その他の場所に設置することにしてもよい。 Further, in the above-described embodiment, the case where the lighting system S is installed in the factory has been described, but the present invention is not limited to this. That is, the lighting system S may be installed in another place such as an office or a hospital.
本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. This embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. This embodiment and its modifications are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.
4a 取得部
4b 検出部
4c タグ付け部
4d 再生部
4e 測定部
4f 学習部
4g 通知部
4h 入力部
10 カメラ付き照明装置
20 照明ユニット
30 カメラユニット
40 電源ユニット
100、100a 管理装置
Claims (10)
前記取得部によって取得された前記撮影データと特定情報とから撮影現場におけるエラーを検出する検出部と;
前記検出部によってエラーが検出された場合に、当該エラーが検出された前記撮影データに前記エラーに関するエラー情報をタグ付けするタグ付け部と;
を具備する、管理装置。 An acquisition unit that acquires shooting data taken by the camera unit of a camera-equipped lighting device including a lighting unit and a camera unit;
A detection unit that detects an error at the shooting site from the shooting data and specific information acquired by the acquisition unit;
When an error is detected by the detection unit, a tagging unit that tags the shooting data in which the error is detected with error information related to the error;
A management device equipped with.
前記照明ユニットの照明態様を変更することで、前記撮影データに前記タグ付けする、
請求項1に記載の管理装置。 The tagging part is
By changing the lighting mode of the lighting unit, the shooting data is tagged.
The management device according to claim 1.
をさらに具備する、請求項1または2に記載の管理装置。 A playback unit that cuts and reproduces the shooting data tagged with the error information by the tagging unit;
The management device according to claim 1 or 2, further comprising.
特定情報を入力する入力部と;
前記取得部によって取得された前記撮影データと前記特定情報とから撮影現場におけるエラーを検出する検出部と;
を具備する、管理装置。 An acquisition unit that acquires shooting data taken by the camera unit of a camera-equipped lighting device including a lighting unit and a camera unit;
With an input section for entering specific information;
A detection unit that detects an error at the shooting site from the shooting data acquired by the acquisition unit and the specific information;
A management device equipped with.
前記検出部は前記撮影データに写る前記製品の状態と前記模範データとに基づいて前記エラーを検出する、
請求項1〜4のいずれか一つに記載の管理装置。 The specific information is model data indicating the state of the product for each work process.
The detection unit detects the error based on the state of the product and the model data reflected in the shooting data.
The management device according to any one of claims 1 to 4.
前記模範データと前記撮影データに写る前記製品の状態それぞれの部品又は付属品の数の差分とに基づいて前記エラーを検出する、
請求項5に記載の管理装置。 The detection unit
The error is detected based on the difference in the number of parts or accessories for each state of the product reflected in the model data and the shooting data.
The management device according to claim 5.
をさらに具備する請求項5または6に記載の管理装置。 Learning unit that learns the model data from past shooting data;
The management device according to claim 5 or 6, further comprising.
前記撮影現場が流れ作業の現場である場合に、前記流れ作業の作業周期に関する情報である、
請求項1〜7のいずれか一つに記載の管理装置。 The specific information is
Information on the work cycle of the assembly line when the shooting site is an assembly line site.
The management device according to any one of claims 1 to 7.
をさらに具備する請求項1〜8のいずれか一つに記載の管理装置。 A notification unit that notifies the operator when an error is detected by the detection unit;
The management device according to any one of claims 1 to 8, further comprising.
をさらに具備する請求項1〜9のいずれか一つに記載の管理装置。 A measuring unit that measures work efficiency per unit time from the shooting data;
The management device according to any one of claims 1 to 9, further comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020019993A JP7404911B2 (en) | 2020-02-07 | 2020-02-07 | management device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020019993A JP7404911B2 (en) | 2020-02-07 | 2020-02-07 | management device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021125131A true JP2021125131A (en) | 2021-08-30 |
JP7404911B2 JP7404911B2 (en) | 2023-12-26 |
Family
ID=77460142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020019993A Active JP7404911B2 (en) | 2020-02-07 | 2020-02-07 | management device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7404911B2 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019169382A (en) * | 2018-03-23 | 2019-10-03 | 東芝ライテック株式会社 | Lighting device and lighting device control method |
-
2020
- 2020-02-07 JP JP2020019993A patent/JP7404911B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019169382A (en) * | 2018-03-23 | 2019-10-03 | 東芝ライテック株式会社 | Lighting device and lighting device control method |
Also Published As
Publication number | Publication date |
---|---|
JP7404911B2 (en) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11606483B2 (en) | Symbology reader with multi-core processor | |
US8794521B2 (en) | Systems and methods for operating symbology reader with multi-core processor | |
KR101283079B1 (en) | Network camera having infrared light emitting diode illumination | |
CN103250418B (en) | Image processing device, imaging device, image processing method, and white balance adjustment method | |
US8285000B2 (en) | Monitoring system and method | |
CN102737373A (en) | Visual image label, infrared image label and infrared image link | |
JP5713055B2 (en) | Imaging apparatus, imaging method, and program | |
CN108460307B (en) | Symbol reader with multi-core processor and operation system and method thereof | |
TWI468655B (en) | System and method for monitoring temperature | |
CN103051839A (en) | Device and method for intelligently adjusting light supplementation angle | |
CN101399914A (en) | Image capture device and image capture method | |
TWI258583B (en) | Device and method for optical detection of printed circuit board | |
JP2021125131A (en) | Management device | |
CN201837775U (en) | Remote laser night vision device | |
CN211481391U (en) | Video camera | |
JP2014056450A (en) | Image processing device and program | |
US20190268591A1 (en) | Image sensor | |
JP7505351B2 (en) | Lighting System | |
TW201447268A (en) | Testing system for light-emitting diode and method for testing light-emitting diode using the same | |
US20230231088A1 (en) | Light source device and camera inspection device using same | |
JP7416231B2 (en) | Installation support device, installation support method, and program | |
JP2022055399A (en) | Illumination system and management device | |
TWI502984B (en) | Webcam driving circuit and method thereof | |
JP7467961B2 (en) | Judging device | |
JP4637059B2 (en) | Illumination device and imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231017 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231127 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7404911 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |