JP2021125131A - Management device - Google Patents

Management device Download PDF

Info

Publication number
JP2021125131A
JP2021125131A JP2020019993A JP2020019993A JP2021125131A JP 2021125131 A JP2021125131 A JP 2021125131A JP 2020019993 A JP2020019993 A JP 2020019993A JP 2020019993 A JP2020019993 A JP 2020019993A JP 2021125131 A JP2021125131 A JP 2021125131A
Authority
JP
Japan
Prior art keywords
unit
error
management device
shooting data
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020019993A
Other languages
Japanese (ja)
Other versions
JP7404911B2 (en
Inventor
靖弘 斎藤
Yasuhiro Saito
靖弘 斎藤
優 井上
Masaru Inoue
優 井上
俊也 加藤
Toshiya Kato
俊也 加藤
昌俊 熊谷
Masatoshi Kumagai
昌俊 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Lighting and Technology Corp
Original Assignee
Toshiba Lighting and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Lighting and Technology Corp filed Critical Toshiba Lighting and Technology Corp
Priority to JP2020019993A priority Critical patent/JP7404911B2/en
Publication of JP2021125131A publication Critical patent/JP2021125131A/en
Application granted granted Critical
Publication of JP7404911B2 publication Critical patent/JP7404911B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • General Factory Administration (AREA)
  • Arrangement Of Elements, Cooling, Sealing, Or The Like Of Lighting Devices (AREA)

Abstract

To improve the utilization of an illumination device equipped with a camera.SOLUTION: A management device includes an acquisition section, a detection section and a tagging section. The acquisition section acquires photographic data photographed by a camera unit of an illumination device equipped with a camera, having an illumination unit and the camera unit. The detection section detects an error at a photographic site from the photographic data acquired by the acquisition section and specific information. The tagging section, when an error is detected by the detection section, tags error information concerning the error onto the photographic data with the detected error.SELECTED DRAWING: Figure 2

Description

本発明の実施形態は、管理装置に関する。 Embodiments of the present invention relate to management devices.

近年、1つの筐体に照明ユニットと、カメラユニットとを備えたカメラ付き照明装置がある。かかるカメラ付き照明装置は、工場での生産ラインの監視やオフィス内での従業員の状態監視などの用途にも導入されつつある。 In recent years, there is a lighting device with a camera including a lighting unit and a camera unit in one housing. Such camera-equipped lighting devices are also being introduced for applications such as monitoring production lines in factories and monitoring the status of employees in offices.

特開2019−204613号公報Japanese Unexamined Patent Publication No. 2019-204613

従来技術では、カメラ付き照明装置の利用価値を高めるうえで改善の余地があった。すなわち、カメラユニットによって撮影された撮影データは、表示または記録されるにとどっていた。 In the prior art, there was room for improvement in increasing the utility value of the lighting device with a camera. That is, the shooting data shot by the camera unit is only displayed or recorded.

本発明が解決しようとする課題は、カメラ付き照明装置の利用価値を高めることができる管理装置を提供することを目的とする。 An object of the present invention to be solved is to provide a management device capable of increasing the utility value of a lighting device with a camera.

実施形態に係る管理装置は、取得部と、検出部と、タグ付け部とを備える。前記取得部は、照明ユニットとカメラユニットとを有するカメラ付き照明装置のカメラユニットによって作業現場を撮影された撮影データを取得する。前記検出部は、前記取得部によって取得された前記撮影データと特定情報とから撮影現場におけるエラーを検出する。前記タグ付け部は、前記検出部によってエラーが検出された場合に、当該エラーが検出された前記撮影データに前記エラーに関するエラー情報をタグ付けする。 The management device according to the embodiment includes an acquisition unit, a detection unit, and a tagging unit. The acquisition unit acquires shooting data obtained by shooting a work site by a camera unit of a camera-equipped lighting device having a lighting unit and a camera unit. The detection unit detects an error at the shooting site from the shooting data acquired by the acquisition unit and specific information. When an error is detected by the detection unit, the tagging unit tags the shooting data in which the error is detected with error information related to the error.

本発明によれば、カメラ付き照明装置の利用価値を高めることができる。 According to the present invention, the utility value of the lighting device with a camera can be increased.

図1Aは、第1の実施形態に係るカメラ付き照明装置の側面図である。FIG. 1A is a side view of the lighting device with a camera according to the first embodiment. 図1Bは、第1の実施形態に係るカメラ付き照明装置の下面図である。FIG. 1B is a bottom view of the lighting device with a camera according to the first embodiment. 図1Cは、第1の実施形態に係る照明システムの模式図である。FIG. 1C is a schematic view of the lighting system according to the first embodiment. 図2は、第1の実施形態に係る管理装置のブロック図である。FIG. 2 is a block diagram of the management device according to the first embodiment. 図3は、第1の実施形態に係る検出部の処理の一例を示す図である。FIG. 3 is a diagram showing an example of processing of the detection unit according to the first embodiment. 図4は、第1の実施形態に係る検出部の処理の一例を示す図である。FIG. 4 is a diagram showing an example of processing of the detection unit according to the first embodiment. 図5は、作業効率の測定結果の一例を示す図である。FIG. 5 is a diagram showing an example of a measurement result of work efficiency. 図6は、第1の実施形態に係る管理装置が実行する処理手順を示すフローチャートである。FIG. 6 is a flowchart showing a processing procedure executed by the management device according to the first embodiment. 図7は、第2の実施形態に係る管理装置のブロック図である。FIG. 7 is a block diagram of the management device according to the second embodiment. 図8は、第2の実施形態に係る管理装置が実行する処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure executed by the management device according to the second embodiment.

以下で説明する実施形態に係る管理装置100は、取得部4aと、検出部4bと、タグ付け部4cとを具備する。取得部4aは、照明ユニット20とカメラユニット30とを有するカメラ付き照明装置10のカメラユニットによって作業現場を撮影された撮影データを取得する。検出部4bは、取得部4aによって取得された撮影データと特定情報とから撮影現場におけるエラーを検出する。タグ付け部4cは、検出部4bによってエラーが検出された場合に、当該エラーが検出された撮影データにエラーに関するエラー情報をタグ付けする。 The management device 100 according to the embodiment described below includes an acquisition unit 4a, a detection unit 4b, and a tagging unit 4c. The acquisition unit 4a acquires shooting data obtained by shooting the work site by the camera unit of the camera-equipped lighting device 10 having the lighting unit 20 and the camera unit 30. The detection unit 4b detects an error at the shooting site from the shooting data acquired by the acquisition unit 4a and the specific information. When an error is detected by the detection unit 4b, the tagging unit 4c tags the shooting data in which the error is detected with error information related to the error.

また、以下で説明する実施形態に係る管理装置100において、タグ付け部4cは、照明ユニット20の照明態様を変更することで、撮影データにタグ付けする。 Further, in the management device 100 according to the embodiment described below, the tagging unit 4c tags the shooting data by changing the lighting mode of the lighting unit 20.

また、以下で説明する実施形態に係る管理装置100は、タグ付け部4cによってエラー情報がタグ付けされた撮影データを切り取って再生する再生部4dをさらに具備する。 Further, the management device 100 according to the embodiment described below further includes a reproduction unit 4d that cuts out and reproduces the shooting data tagged with the error information by the tagging unit 4c.

また、以下で説明する実施形態に係る管理装置100aは、取得部4aと、入力部4hと、検出部4bとを具備する。取得部4aは、照明ユニット20とカメラユニット30とを有するカメラ付き照明装置10のカメラユニットによって作業現場を撮影された撮影データを取得する。入力部4hは、特定情報を入力する。検出部4bは、取得部4aによって取得された撮影データと特定情報とから撮影現場におけるエラーを検出する。 Further, the management device 100a according to the embodiment described below includes an acquisition unit 4a, an input unit 4h, and a detection unit 4b. The acquisition unit 4a acquires shooting data obtained by shooting the work site by the camera unit of the camera-equipped lighting device 10 having the lighting unit 20 and the camera unit 30. The input unit 4h inputs specific information. The detection unit 4b detects an error at the shooting site from the shooting data acquired by the acquisition unit 4a and the specific information.

また、以下で説明する管理装置100において、特定情報は、作業工程ごとの製品の状態を示す模範データであり、検出部4bは撮影データに写る製品の状態と模範データとに基づいてエラーを検出する。 Further, in the management device 100 described below, the specific information is model data indicating the state of the product for each work process, and the detection unit 4b detects an error based on the state of the product and the model data reflected in the shooting data. do.

また、以下で説明する管理装置100において、検出部4bは、模範データと撮影データに写る製品の状態それぞれの部品又は付属品の数の差分とに基づいてエラーを検出する。 Further, in the management device 100 described below, the detection unit 4b detects an error based on the difference in the number of parts or accessories of each state of the product reflected in the model data and the photographing data.

また、以下で説明する管理装置100は、模範データを過去の撮影データから学習する学習部4fを具備する。 Further, the management device 100 described below includes a learning unit 4f that learns model data from past shooting data.

また、以下で説明する管理装置100において、特定情報は、撮影現場が流れ作業の現場である場合に、流れ作業の作業周期に関する情報である。 Further, in the management device 100 described below, the specific information is information regarding the work cycle of the assembly line when the shooting site is the site of the assembly line.

また、以下で説明する管理装置100は、検出部4bによってエラーが検出された場合に作業者へ通知する通知部4gを具備する。 Further, the management device 100 described below includes a notification unit 4g that notifies the operator when an error is detected by the detection unit 4b.

また、以下で説明する管理装置100は、撮影データから単位時間当たりの作業効率を測定する測定部4eを具備する。 Further, the management device 100 described below includes a measurement unit 4e that measures the work efficiency per unit time from the shooting data.

(第1の実施形態)
まず、図1Aおよび図1Bを用いて、第1の実施形態に係るカメラ付き照明装置10について説明する。図1Aは、第1の実施形態に係るカメラ付き照明装置10の側面図である。図1Bは、第1の実施形態に係るカメラ付き照明装置10の下面図である。
(First Embodiment)
First, the camera-equipped lighting device 10 according to the first embodiment will be described with reference to FIGS. 1A and 1B. FIG. 1A is a side view of the camera-equipped lighting device 10 according to the first embodiment. FIG. 1B is a bottom view of the camera-equipped lighting device 10 according to the first embodiment.

図1Aに示すように、実施形態に係るカメラ付き照明装置10は、照明ユニット20と、カメラユニット30と、電源ユニット40とを備える。また、照明ユニット20と、カメラユニット30とは、L字金具を介してネジ止めされ、照明ユニット20と、電源ユニット40とは、連結部12を介して連結される。 As shown in FIG. 1A, the camera-equipped lighting device 10 according to the embodiment includes a lighting unit 20, a camera unit 30, and a power supply unit 40. Further, the lighting unit 20 and the camera unit 30 are screwed together via an L-shaped metal fitting, and the lighting unit 20 and the power supply unit 40 are connected via a connecting portion 12.

連結部12は、さらに、取付部11と接合し、取付部11を介して、カメラ付き照明装置10が天井などの設置面に取り付けられる。 The connecting portion 12 is further joined to the mounting portion 11, and the lighting device 10 with a camera is mounted on an installation surface such as a ceiling via the mounting portion 11.

照明ユニット20は、光源部21と、フィン25とを備える。フィン25は、光源部21の上部に設けられ、光源部21の発光による発熱を冷却する。図1Bに示すように、光源部21は、基板21a上にLED(Light Emitting Diode)等の発光素子21bが設けられる。 The lighting unit 20 includes a light source unit 21 and fins 25. The fins 25 are provided above the light source unit 21 and cool the heat generated by the light emission of the light source unit 21. As shown in FIG. 1B, the light source unit 21 is provided with a light emitting element 21b such as an LED (Light Emitting Diode) on the substrate 21a.

また、光源部21の出射面は、カバー22によって覆われる。なお、カバー22は、例えば、透過性のガラスや樹脂である。なお、図1Bに示す例では、光源部21が4つの基板21aから構成される場合を示しているが、これに限定されるものではない。 Further, the exit surface of the light source unit 21 is covered with the cover 22. The cover 22 is, for example, transparent glass or resin. The example shown in FIG. 1B shows a case where the light source unit 21 is composed of four substrates 21a, but the present invention is not limited to this.

また、カメラユニット30は、撮像部31と、レンズ32とを備える。撮像部31は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像センサや、画像または映像を撮影するのに必要となる各種部品が含まれる。また、撮像部31の下面は、レンズ32によって覆われる。 Further, the camera unit 30 includes an imaging unit 31 and a lens 32. The imaging unit 31 includes an imaging sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and various components necessary for capturing an image or video. Further, the lower surface of the imaging unit 31 is covered with the lens 32.

また、図1Bに示すように、光源部21と、撮像部31との向きは、それぞれ取り付け時に下側を向くことになる。これにより、光源部21によって光が照射されたエリアを撮像部31によって撮像することができるので、撮影対象の照度を確保することができるので、鮮明な画像を撮像することができる。 Further, as shown in FIG. 1B, the light source unit 21 and the image pickup unit 31 are oriented downward at the time of attachment. As a result, the area illuminated by the light source unit 21 can be imaged by the image pickup unit 31, so that the illuminance of the object to be photographed can be secured, and a clear image can be imaged.

また、カメラ付き照明装置10は、天井に設置されるので、天井から空間内を俯瞰した画像を撮影することができる。なお、図1Aおよび図1Bに示すカメラ付き照明装置10の外観形状は、一例であり、ベースライト、シーリングライトなど、その他の形状であってもよい。 Further, since the lighting device 10 with a camera is installed on the ceiling, it is possible to take a bird's-eye view of the space from the ceiling. The external shape of the camera-equipped lighting device 10 shown in FIGS. 1A and 1B is an example, and may have other shapes such as a base light and a ceiling light.

次に、図1Cを用いて、実施形態に係る照明システムSについて説明する。図1Cは、実施形態に係る照明システムSの概要を示す図である。なお、以下では、照明システムSが工場に導入される場合を例に挙げて説明する。 Next, the lighting system S according to the embodiment will be described with reference to FIG. 1C. FIG. 1C is a diagram showing an outline of the lighting system S according to the embodiment. In the following, a case where the lighting system S is introduced in a factory will be described as an example.

図1Cに示すように、実施形態に係る照明システムSは、複数のカメラ付き照明装置10と、管理装置100とを備える。また、図1Cに示す例では、各カメラ付き照明装置10が工場の作業現場(例えば、製造ライン等)に設置される場合を示す。 As shown in FIG. 1C, the lighting system S according to the embodiment includes a plurality of camera-equipped lighting devices 10 and a management device 100. Further, in the example shown in FIG. 1C, a case where each lighting device 10 with a camera is installed at a work site (for example, a production line) of a factory is shown.

管理装置100は、作業現場に設置された各カメラ付き照明装置10を管理する装置である。例えば、管理装置100は、各カメラ付き照明装置10の照明ユニット20の照明態様や、カメラユニット30の撮像向き、倍率等をネットワークNを介して遠隔で制御する。 The management device 100 is a device that manages each of the camera-equipped lighting devices 10 installed at the work site. For example, the management device 100 remotely controls the lighting mode of the lighting unit 20 of each camera-equipped lighting device 10, the imaging direction of the camera unit 30, the magnification, and the like via the network N.

また、管理装置100は、各カメラユニット30で撮影された画像または映像を収集し、記憶する。例えば、管理装置100によって収集された画像または映像は、作業現場の監視等に用いられる。 In addition, the management device 100 collects and stores images or videos taken by each camera unit 30. For example, the image or video collected by the management device 100 is used for monitoring the work site or the like.

ところで、上述のように、管理装置100には、各カメラユニット30で撮影された撮影データが集積される。しかしながら、従来においては、管理装置に集積された撮影データを記憶したり、管理者に対して表示したりするにとどまっていた。このため、カメラ付き照明装置10の利用価値を高めるうえで、改善の余地があった。 By the way, as described above, the management device 100 accumulates the shooting data taken by each camera unit 30. However, in the past, the shooting data accumulated in the management device was only stored and displayed to the manager. Therefore, there is room for improvement in increasing the utility value of the camera-equipped lighting device 10.

そこで、第1の実施形態に係る管理装置100では、撮影データから撮影現場におけるエラーを検出することとした。なお、以下では、撮影現場が作業場である場合について説明する。また、作業場におけるエラーとは、ライン上において行われる作業のミスや誤り、作業場において行われる各種工程の作業における誤りを示す。すなわち、実施形態に係る管理装置100は、作業場において生じた作業や業務のミス等、任意のエラーを作業場のエラーとして検出する。 Therefore, in the management device 100 according to the first embodiment, it is decided to detect an error at the shooting site from the shooting data. In the following, a case where the shooting site is a work place will be described. Further, the error in the workplace indicates an error or error in the work performed on the line, or an error in the work of various processes performed in the workplace. That is, the management device 100 according to the embodiment detects an arbitrary error such as a work or a work error that occurs in the work place as an error in the work place.

図2は、第1の実施形態に係る管理装置100のブロック図である。図2に示すように、管理装置100は、通信部2と、記憶部3と、制御部4とを備える。通信部2は、ネットワークNを介して各カメラ付き照明装置10とデータ通信を行う通信モジュールである。 FIG. 2 is a block diagram of the management device 100 according to the first embodiment. As shown in FIG. 2, the management device 100 includes a communication unit 2, a storage unit 3, and a control unit 4. The communication unit 2 is a communication module that performs data communication with each camera-equipped lighting device 10 via the network N.

記憶部3は、例えば、フラッシュメモリ等の半導体メモリ素子、または、HDD、光ディスク等の記憶装置である。図2に示す例において、記憶部3は、撮影データデータベース3a、特定情報データベース3bおよび作業データデータベース3cを有する。 The storage unit 3 is, for example, a semiconductor memory element such as a flash memory, or a storage device such as an HDD or an optical disk. In the example shown in FIG. 2, the storage unit 3 has a photographing data database 3a, a specific information database 3b, and a working data database 3c.

撮影データデータベース3aは、各カメラ付き照明装置10で撮影された撮影データを記憶するデータベースである。本実施形態では、特に、作業場の各作業工程を撮影した撮影データが撮影データデータベース3aに格納される。 The shooting data database 3a is a database that stores shooting data taken by each camera-equipped lighting device 10. In this embodiment, in particular, the shooting data obtained by shooting each work process in the workplace is stored in the shooting data database 3a.

特定情報データベース3bは、作業場におけるエラーを検出するための特定情報を格納するデータベースである。特定情報の一例として、各作業工程において作業工程ごとの製品の状態を示す模範データが挙げられる。かかる模範データは、例えば、後述する学習部4fによって生成される。 The specific information database 3b is a database that stores specific information for detecting an error in the workplace. As an example of the specific information, there is model data showing the state of the product for each work process in each work process. Such model data is generated, for example, by the learning unit 4f, which will be described later.

作業データデータベース3cは、各製造ラインの作業効率に関する情報を記憶するデータベースである。例えば、作業効率に関する情報は、後述する測定部4eによって生成される。 The work data database 3c is a database that stores information on the work efficiency of each production line. For example, information on work efficiency is generated by the measuring unit 4e, which will be described later.

次に、制御部4について説明する。制御部4は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、入出力ポートなどを有するマイクロコンピュータや各種の回路を含む。 Next, the control unit 4 will be described. The control unit 4 includes, for example, a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an input / output port, and various circuits.

図2に示す例では、制御部4は、取得部4aと、検出部4bと、タグ付け部4cと、再生部4dと、測定部4eと、学習部4fと、通知部4gとを備える。取得部4a、検出部4b、タグ付け部4c、再生部4d、測定部4e、学習部4fおよび通知部4gの機能は、例えば、制御部4のCPUが制御部4のRAM、ROM、または記憶部3に記憶されているプログラムを読み出して実行することにより実現される。 In the example shown in FIG. 2, the control unit 4 includes an acquisition unit 4a, a detection unit 4b, a tagging unit 4c, a reproduction unit 4d, a measurement unit 4e, a learning unit 4f, and a notification unit 4g. The functions of the acquisition unit 4a, the detection unit 4b, the tagging unit 4c, the playback unit 4d, the measurement unit 4e, the learning unit 4f, and the notification unit 4g are, for example, such that the CPU of the control unit 4 stores the RAM, ROM, or storage of the control unit 4. It is realized by reading and executing the program stored in the part 3.

なお、取得部4a、検出部4b、タグ付け部4c、再生部4d、測定部4e、学習部4fおよび通知部4gは、それぞれ一部または全部がASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。 Part or all of the acquisition unit 4a, the detection unit 4b, the tagging unit 4c, the reproduction unit 4d, the measurement unit 4e, the learning unit 4f, and the notification unit 4g are ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable). It may be configured by hardware such as Gate Array).

取得部4aは、照明ユニット20とカメラユニット30とを備えるカメラ付き照明装置10のカメラユニット30によって作業現場を撮影された撮影データを取得する。例えば、取得部4aは、リアルタイムで各カメラユニット30から撮影データを取得し、撮影データの取得毎に取得した撮影データを撮影データデータベース3aに格納する。 The acquisition unit 4a acquires shooting data obtained by shooting the work site by the camera unit 30 of the camera-equipped lighting device 10 including the lighting unit 20 and the camera unit 30. For example, the acquisition unit 4a acquires shooting data from each camera unit 30 in real time, and stores the acquired shooting data in the shooting data database 3a each time the shooting data is acquired.

この際、製造ラインが複数ある場合、製造ラインごとに作業工程ごとの撮影データを順次、撮影データデータベース3aに格納する。 At this time, when there are a plurality of manufacturing lines, the shooting data for each work process is sequentially stored in the shooting data database 3a for each manufacturing line.

検出部4bは、取得部4aによって取得された撮影データと特定情報とから作業場(撮影現場)におけるエラーを検出する。ここで、上述のように、「作業場におけるエラー」とは、ライン上において行われる作業のミスや誤り、作業場において行われる各種工程の作業における誤りを示す。 The detection unit 4b detects an error in the work place (shooting site) from the shooting data acquired by the acquisition unit 4a and the specific information. Here, as described above, the "error in the workplace" refers to an error or error in the work performed on the line, or an error in the work of various processes performed in the workplace.

なお、以下では、例えば、人的ミスにより、付属部品の梱包ミスを作業場におけるエラーとして検出する場合について説明する。 In the following, for example, a case where a packing error of an accessory part is detected as an error in the workplace due to a human error will be described.

例えば、検出部4bは、画像解析を行い、作業工程ごとの製品の状態を示す模範データと、撮影データに写る製品の状態とに基づいてエラーを検出する。より詳細には、検出部4bは、模範データと、撮影データに写る製品の状態との部品又は付属品の数の差分に基づいて、エラーを検出する。 For example, the detection unit 4b performs image analysis and detects an error based on the model data indicating the state of the product for each work process and the state of the product reflected in the shooting data. More specifically, the detection unit 4b detects an error based on the difference in the number of parts or accessories between the model data and the state of the product reflected in the photographed data.

ここで、図3を用いて、検出部4bによる検出処理の具体例について説明する。図3は、第1の実施形態に係る検出部4bの処理の一例を示す図である。なお、図4では、段ボールに作業工程ごとに部品を順次梱包していく場面を示す。 Here, a specific example of the detection process by the detection unit 4b will be described with reference to FIG. FIG. 3 is a diagram showing an example of processing of the detection unit 4b according to the first embodiment. Note that FIG. 4 shows a scene in which parts are sequentially packed in corrugated cardboard for each work process.

例えば、図3の左に示す模範データLeにおいては、部品P1〜P3の計3つの部品が段ボールに梱包されている。これに対して、図3の右図に示す撮影データLaには、段ボールに部品P1、P3が梱包されているものの、部品P2が梱包されていない場合を示す。 For example, in the model data Le shown on the left side of FIG. 3, a total of three parts P1 to P3 are packed in corrugated cardboard. On the other hand, the photographing data La shown on the right side of FIG. 3 shows a case where the parts P1 and P3 are packed in the corrugated cardboard, but the parts P2 are not packed.

検出部4bは、模範データLeと、撮影データLaとの差分から部品P2が梱包されていないことを認識し、エラーとして検出する。このように、差分に基づき、エラーを検出することで、容易にエラーを検出することができる。なお、段ボールの通過の有無については、マイクロ波センサによって検出することにしてもよい。すなわち、撮影データ以外にその他のセンサの検出結果の組み合わせに基づき、エラーを検出することにしてもよい。 The detection unit 4b recognizes that the component P2 is not packed from the difference between the model data Le and the shooting data La, and detects it as an error. In this way, by detecting the error based on the difference, the error can be easily detected. The presence or absence of passage of corrugated cardboard may be detected by a microwave sensor. That is, the error may be detected based on the combination of the detection results of other sensors other than the shooting data.

また、検出部4bは、撮影データLaから各部品P1〜P3それぞれを画像認識により検出し、画像認識の結果、認識されなかった部品P2が梱包されていないことを認識することにしてもよい。 Further, the detection unit 4b may detect each of the parts P1 to P3 from the photographed data La by image recognition, and may recognize that the unrecognized parts P2 are not packed as a result of the image recognition.

すなわち、この場合、撮影データLaから各部品P1〜P3をそれぞれ認識し、認識した部品P1〜P3の数と、模範データにおける部品P1〜P3の数とが一致しなかった場合に、エラーとして検出する。 That is, in this case, each component P1 to P3 is recognized from the shooting data La, and if the number of recognized components P1 to P3 does not match the number of components P1 to P3 in the model data, it is detected as an error. do.

この場合、撮影データに写る各部品の色から各部品それぞれを認識することにしてもよい。例えば、撮影データの各画素のRGBと、模範データにおける各部品のRGBの一致度に基づいて、各部品を認識することにしてもよい。 In this case, each component may be recognized from the color of each component reflected in the shooting data. For example, each component may be recognized based on the degree of coincidence between the RGB of each pixel of the shooting data and the RGB of each component in the model data.

また、部品が取扱説明書である場合を想定すると、取扱説明書には、通常、文字が印刷されている。このため、撮影データからRGBのコントラスト差から文字の有無を認識し、取扱説明書か梱包されているか否かを判定することにしてもよい。この場合、撮影データ内での部品のRGBの値が模範データのRGBに近づくように、照明ユニット20の照度、色温度、周波数等を調節することにしてもよい。 Further, assuming that the part is an instruction manual, characters are usually printed in the instruction manual. Therefore, the presence or absence of characters may be recognized from the contrast difference of RGB from the shooting data, and it may be determined whether or not the characters are packed in the instruction manual. In this case, the illuminance, color temperature, frequency, and the like of the lighting unit 20 may be adjusted so that the RGB values of the components in the shooting data approach the RGB of the model data.

なお、検出部4bは、模範データに代えて、作業工程前後の撮影データの差分からエラーを検出することにしてもよい。例えば、1つの作業工程において、部品P2を梱包する場合、作業工程前と、作業工程後で、段ボール内に変化がなかった場合、すなわち、部品P2が梱包されていなかった場合に、エラーとして検出する。また、検出部4bは、特定の部品が通常よりも多く梱包されていた場合も同様にエラーとして検出することができるのは言うまでもない。 The detection unit 4b may detect the error from the difference between the shooting data before and after the work process instead of the model data. For example, when the part P2 is packed in one work process, it is detected as an error when there is no change in the corrugated cardboard before and after the work process, that is, when the part P2 is not packed. do. Needless to say, the detection unit 4b can also detect an error even when a specific part is packed in a larger number than usual.

また、他の例として、検出部4bは、例えば、作業者の作業間隔に基づいて、上記のエラーを検出することもできる。図4は、検出部4bによる検出処理の具体例について説明する。 Further, as another example, the detection unit 4b can detect the above error based on, for example, the work interval of the operator. FIG. 4 describes a specific example of the detection process by the detection unit 4b.

図4のAに示す動作タイミングは、作業者の梱包作業の動作タイミングを示し、図4のBに示す作業周期は、段ボールの流れる周期を示す。すなわち、ここでは、特定情報が作業周期となり、全ての段ボールに部品P2を梱包したならば、動作タイミングと、作業周期とが一致する。 The operation timing shown in A of FIG. 4 indicates the operation timing of the packing work of the operator, and the operation cycle shown in B of FIG. 4 indicates the flow cycle of the corrugated cardboard. That is, here, the specific information becomes the work cycle, and if the parts P2 are packed in all the corrugated cardboard, the operation timing and the work cycle coincide with each other.

これに対して、作業タイミングにおいて、動作タイミングが少ない場合、部品P2が梱包されていないことになる。なお、この場合においては、検出部4bは、画像認識により、作業者の動作をトラッキングし、作業者の作業間隔に基づいて、エラーを検出する。 On the other hand, when the operation timing is small in the work timing, the component P2 is not packed. In this case, the detection unit 4b tracks the movement of the worker by image recognition and detects an error based on the work interval of the worker.

上述のように、カメラ付き照明装置10は、天井に設置される。このため、例えば、作業者の頭などで段ボールがカメラユニット30から遮られる場合も想定され得る。これに対して、作業者に基づいてエラーを検出することで、部品などを撮影データから直接認識できない場合であっても、エラーの検出が可能となる。 As described above, the camera-equipped lighting device 10 is installed on the ceiling. Therefore, for example, it can be assumed that the corrugated cardboard is blocked from the camera unit 30 by the head of an operator or the like. On the other hand, by detecting the error based on the operator, it is possible to detect the error even when the part or the like cannot be directly recognized from the shooting data.

図2の説明に戻り、タグ付け部4cについて説明する。タグ付け部4cは、検出部4bによってエラーが検出された場合に、当該エラーが検出された撮影データにエラーに関するエラー情報をタグ付けする。 Returning to the description of FIG. 2, the tagging unit 4c will be described. When an error is detected by the detection unit 4b, the tagging unit 4c tags the shooting data in which the error is detected with error information related to the error.

例えば、エラー情報は、フラグであり、エラーが検出されなかった撮影データのフラグは「0」、エラーが検出されなかった撮影データのフラグは「1」となる。 For example, the error information is a flag, the flag of the shooting data in which no error is detected is "0", and the flag of the shooting data in which no error is detected is "1".

また、タグ付け部4cは、エラーが検出された場合に、照明ユニット20の照明態様を変更することで、撮影データにタグ付けすることにしてもよい。具体的には、例えば、タグ付け部4cは、エラーが検出された撮影データを撮影したカメラ付き照明装置10の照明態様を変更する。 Further, the tagging unit 4c may tag the shooting data by changing the lighting mode of the lighting unit 20 when an error is detected. Specifically, for example, the tagging unit 4c changes the lighting mode of the camera-equipped lighting device 10 that captures the photographing data in which the error is detected.

例えば、照明態様とは、周波数や照度を含む。また、この場合には、照明態様の変更によって、作業をストップさせてしまうと、作業効率の低下を招くため、作業に支障が出ない範囲で照明態様を変更することが好ましい。 For example, the illumination mode includes frequency and illuminance. Further, in this case, if the work is stopped by changing the lighting mode, the work efficiency is lowered. Therefore, it is preferable to change the lighting mode within a range that does not hinder the work.

この場合には、エラーの検出前後で、撮影データに写る照明態様が変化することになり、照明態様の変化点からエラーの発生時刻を検出することが可能となる。 In this case, the lighting mode reflected in the shooting data changes before and after the error is detected, and the time when the error occurs can be detected from the change point of the lighting mode.

再生部4dは、タグ付け部4cによってエラー情報がタグ付けされた撮影データを切り取って再生する。すなわち、再生部4dは、撮影データデータベース3aからエラー情報がタグ付けされた撮影データを抽出し、再生する。 The reproduction unit 4d cuts and reproduces the shooting data tagged with the error information by the tagging unit 4c. That is, the playback unit 4d extracts the shooting data tagged with the error information from the shooting data database 3a and reproduces the shooting data.

なお、上述のように、エラー情報がフラグである場合は、フラグの有無に基づいてエラーに関する撮影データを抽出することができる。また、エラー情報が照明態様の変更である場合は、撮影データのスペクトルの変化によって、エラー情報の有無を検出することができる。 As described above, when the error information is a flag, shooting data related to the error can be extracted based on the presence or absence of the flag. Further, when the error information is a change in the illumination mode, the presence or absence of the error information can be detected by the change in the spectrum of the shooting data.

そして、再生部4dは、撮影時刻を表示しつつ、撮影データの再生を行う。これにより、エラーの状況を示す撮影データのみが再生されるので、作業管理者は、エラーの状況を容易に把握することが可能となる。 Then, the reproduction unit 4d reproduces the shooting data while displaying the shooting time. As a result, only the shooting data indicating the error status is reproduced, so that the work manager can easily grasp the error status.

なお、この際には、例えば、エラーを検出した時刻を基準として前後所定期間(例えば、前後1分間)を併せて再生することが好ましい。 In this case, for example, it is preferable to play back a predetermined period before and after (for example, 1 minute before and after) based on the time when the error is detected.

測定部4eは、撮影データから単位時間当たりの作業効率を測定する。例えば、測定部4eは、図4に示したように、動作タイミングに基づいて、単位時間当たりの作業効率を測定することができる。 The measuring unit 4e measures the work efficiency per unit time from the shooting data. For example, as shown in FIG. 4, the measuring unit 4e can measure the work efficiency per unit time based on the operation timing.

例えば、測定部4eは、作業効率を生産ライン毎に測定し、測定結果を作業データデータベース3cに格納する。図5は、作業効率の測定結果の一例を示す図である。なお、図5の例では、生産ラインごとに作業効率の推移を示す。 For example, the measurement unit 4e measures the work efficiency for each production line and stores the measurement result in the work data database 3c. FIG. 5 is a diagram showing an example of a measurement result of work efficiency. In the example of FIG. 5, the transition of work efficiency is shown for each production line.

図5に示すように、例えば、生産ラインw1では、作業効率にムラがなく、生産ラインw2は、一度、生産効率が最大となるピークPを向かえるものの、その他は、生産ラインw1よりも作業効率が劣ることを示す。 As shown in FIG. 5, for example, in the production line w1, the work efficiency is not uneven, and the production line w2 once faces the peak P at which the production efficiency is maximized, but the other work efficiencies are higher than those of the production line w1. Indicates inferior.

また、生産ラインw3は、生産ラインw1、w2に比べて、作業効率が劣っていることを示す。ここで、全ての生産ラインw1〜w3で、ピークPの作業効率を継続して行った場合が、生産ラインw1〜w3の生産能力の上限となる。 Further, the production line w3 shows that the work efficiency is inferior to that of the production lines w1 and w2. Here, the case where the work efficiency of the peak P is continuously performed on all the production lines w1 to w3 is the upper limit of the production capacity of the production lines w1 to w3.

つまり、作業効率を測定することで、生産ラインの生産能力の上限の把握や、生産ラインの効率化の見直し等に用いることができる。なお、測定部4eは、作業効率の特異点(例えば、ピークP)の撮影データにタグ付けを行うことにしてもよい。また、この際、生産ラインごとの作業員を撮影データから認識し、作業効率の測定結果や撮影データに作業員をタグ付けすることにしてもよい。 That is, by measuring the work efficiency, it can be used for grasping the upper limit of the production capacity of the production line, reviewing the efficiency improvement of the production line, and the like. The measuring unit 4e may tag the imaging data at the singular point (for example, peak P) of the work efficiency. Further, at this time, the worker for each production line may be recognized from the shooting data, and the worker may be tagged with the measurement result of the work efficiency or the shooting data.

これにより、作業管理者に対して、人員の配置の見直しの検討を容易にすることができる。なお、上述の例では、生産ラインごとに作業効率を測定する場合について説明したが、これに限定されるものではない。すなわち、作業工程ごとの作業効率を測定することにしてもよい。 This makes it easier for the work manager to consider reviewing the staffing. In the above example, the case where the work efficiency is measured for each production line has been described, but the present invention is not limited to this. That is, the work efficiency of each work process may be measured.

図2の説明に戻り、学習部4fについて説明する。学習部4fは、過去の撮影データから上記の模範データを学習する。例えば、学習部4fは、作業工程ごとに模範となる撮影データを教師データとする機械学習によって模範データを学習することができる。 Returning to the explanation of FIG. 2, the learning unit 4f will be described. The learning unit 4f learns the above model data from the past shooting data. For example, the learning unit 4f can learn the model data by machine learning using the shooting data as the model for each work process as the teacher data.

なお、模範データは、例えば、図3に示したように、各部品それぞれを含んだものであってもよいし、作業工程ごとの部品そのものであってもよい。なお、学習部4fの構成を管理装置100とは別の装置(例えば、クラウド)に設けることにしてもよい。 The model data may include each part, as shown in FIG. 3, or may be the part itself for each work process. The configuration of the learning unit 4f may be provided in a device (for example, a cloud) different from the management device 100.

通知部4gは、検出部4bによってエラーが検出された場合に、作業者へ通知する。すなわち、管理装置100aでは、即時的にエラーの発生を通知する。例えば、通知部4gは、対応するカメラ付き照明装置10の照明ユニット20の照明態様を変更したり、作業場内のマイクから音声を出力したりすることで、エラーを作業者へ通知する。なお、ここでの照明態様とは、点滅や色温度の変更などを示す。 The notification unit 4g notifies the operator when an error is detected by the detection unit 4b. That is, the management device 100a immediately notifies the occurrence of an error. For example, the notification unit 4g notifies the operator of an error by changing the lighting mode of the lighting unit 20 of the corresponding lighting device 10 with a camera or outputting a voice from a microphone in the work place. The lighting mode here indicates blinking, change in color temperature, and the like.

次に、図6を用いて、実施形態に係る管理装置100が実行する処理手順について説明する。図6は、実施形態に係る管理装置100が実行する処理手順を示すフローチャートである。なお、以下に示す処理手順は、管理装置100の制御部4によって繰り返し実行される。 Next, the processing procedure executed by the management device 100 according to the embodiment will be described with reference to FIG. FIG. 6 is a flowchart showing a processing procedure executed by the management device 100 according to the embodiment. The processing procedure shown below is repeatedly executed by the control unit 4 of the management device 100.

図6に示すように、管理装置100は、撮影データを取得すると(ステップS101)、撮影データの画像解析を行う(ステップS102)。続いて、管理装置100は、画像解析の結果、エラーを検出したか否かを判定し(ステップS103)、エラーを検出した場合(ステップS103,Yes)、撮影データにタグ付けし(ステップS104)、処理を終了する。 As shown in FIG. 6, when the management device 100 acquires the shooting data (step S101), the management device 100 performs image analysis of the shooting data (step S102). Subsequently, the management device 100 determines whether or not an error has been detected as a result of image analysis (step S103), and if an error is detected (step S103, Yes), tags the shooting data (step S104). , End the process.

また、管理装置100は、ステップS103の判定において、エラーを検出しなかった場合には(ステップS103,No)、ステップS104の処理を省略して、処理を終了する。 If the management device 100 does not detect an error in the determination in step S103 (steps S103, No), the management device 100 omits the process in step S104 and ends the process.

(第2の実施形態)
上述の実施形態では、予め登録された特定情報に基づいて、エラーを検出する場合について説明したがこれに限定されるものではない。すなわち、後から入力された特定情報に基づいて、エラーを検出することにしてもよい。
(Second Embodiment)
In the above-described embodiment, the case where an error is detected based on the specific information registered in advance has been described, but the present invention is not limited to this. That is, the error may be detected based on the specific information input later.

ここで、図7および図8を用いて、第2の実施形態に係る管理装置100aについて説明する。図7は、第2の実施形態に係る管理装置100aのブロック図である。なお、図7に示す例において、管理装置100aは、既に説明した管理装置100の学習部4fに代えて、入力部4hを備える。 Here, the management device 100a according to the second embodiment will be described with reference to FIGS. 7 and 8. FIG. 7 is a block diagram of the management device 100a according to the second embodiment. In the example shown in FIG. 7, the management device 100a includes an input unit 4h instead of the learning unit 4f of the management device 100 already described.

入力部4hは、特定情報を入力する。例えば、入力部4hは、エラーの検出対象となる情報を特定情報として入力する。例えば、作業員による全ての梱包作業が終わった後に、全て梱包したはずの説明書が余っていた場合を想定する。 The input unit 4h inputs specific information. For example, the input unit 4h inputs information to be detected for an error as specific information. For example, suppose that after all the packing work by the worker is completed, the instruction manual that should have been packed is left over.

この場合において、入力部4hは、例えば、作業者の操作に基づき、撮影データから説明書を特定するためのデータを特定情報として入力する。検出部4bは、かかる特定情報に基づいて、撮影データデータベース3aに記録された撮影データからエラーの検出処理を行う。 In this case, the input unit 4h inputs data for specifying the instruction manual from the shooting data as specific information, for example, based on the operation of the operator. The detection unit 4b performs error detection processing from the shooting data recorded in the shooting data database 3a based on the specific information.

このように、管理装置100aは、入力部4hによって特定情報の入力を受け付けることで、当初、想定していなかったエラーを検出することが可能となる。 In this way, the management device 100a can detect an error that was not initially expected by accepting the input of the specific information by the input unit 4h.

次に、図8を用いて、第2の実施形態に係る管理装置100aが実行する処理手順について説明する。図8は、第2の実施形態に係る管理装置100aが実行する処理手順を示すフローチャートである。 Next, the processing procedure executed by the management device 100a according to the second embodiment will be described with reference to FIG. FIG. 8 is a flowchart showing a processing procedure executed by the management device 100a according to the second embodiment.

図8に示すように、管理装置100aは、特定情報を入力すると(ステップS201)、特定情報に基づいて、撮影データデータベース3aに格納された撮影データの画像解析を行う(ステップS202)。続いて、管理装置100aは、画像解析の結果、エラーを検出したか否かを判定し(ステップS203)、エラーを検出した場合(ステップS203,Yes)、エラーの該当箇所の撮影データを再生して(ステップS204)、処理を終了する。 As shown in FIG. 8, when the management device 100a inputs the specific information (step S201), the management device 100a performs image analysis of the shooting data stored in the shooting data database 3a based on the specific information (step S202). Subsequently, the management device 100a determines whether or not an error has been detected as a result of the image analysis (step S203), and if an error is detected (step S203, Yes), reproduces the shooting data of the corresponding portion of the error. (Step S204), the process ends.

また、管理装置100aは、ステップS203の判定において、エラーを検出しなかった場合には(ステップS203,No)、ステップS202の処理へ移行する。 If the management device 100a does not detect an error in the determination in step S203 (steps S203, No), the management device 100a shifts to the process in step S202.

ところで、上述した実施形態では、学習部4fと、入力部4hとがそれぞれ別の管理装置100に設けられる場合について説明したが、これに限定されるものではない。すなわち、学習部4fと、入力部4hをそれぞれ同一の管理装置100に設けることにしてもよい。 By the way, in the above-described embodiment, the case where the learning unit 4f and the input unit 4h are provided in separate management devices 100 has been described, but the present invention is not limited to this. That is, the learning unit 4f and the input unit 4h may be provided in the same management device 100, respectively.

また、管理装置100の一部またはすべての機能を各カメラ付き照明装置10に設けることにしてもよい。すなわち、各カメラ付き照明装置10でエラーを検出することにしてもよい。 Further, some or all the functions of the management device 100 may be provided in each camera-equipped lighting device 10. That is, each camera-equipped lighting device 10 may detect an error.

また、上述した実施形態では、照明システムSが工場に設置される場合について説明したが、これに限定されるものではない。すなわち、照明システムSをオフィスや病院など、その他の場所に設置することにしてもよい。 Further, in the above-described embodiment, the case where the lighting system S is installed in the factory has been described, but the present invention is not limited to this. That is, the lighting system S may be installed in another place such as an office or a hospital.

本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. This embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the gist of the invention. This embodiment and its modifications are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof.

4a 取得部
4b 検出部
4c タグ付け部
4d 再生部
4e 測定部
4f 学習部
4g 通知部
4h 入力部
10 カメラ付き照明装置
20 照明ユニット
30 カメラユニット
40 電源ユニット
100、100a 管理装置
4a Acquisition unit 4b Detection unit 4c Tagging unit 4d Playback unit 4e Measurement unit 4f Learning unit 4g Notification unit 4h Input unit 10 Camera-equipped lighting device 20 Lighting unit 30 Camera unit 40 Power supply unit 100, 100a Management device

Claims (10)

照明ユニットとカメラユニットとを具備するカメラ付き照明装置のカメラユニットによって撮影された撮影データを取得する取得部と;
前記取得部によって取得された前記撮影データと特定情報とから撮影現場におけるエラーを検出する検出部と;
前記検出部によってエラーが検出された場合に、当該エラーが検出された前記撮影データに前記エラーに関するエラー情報をタグ付けするタグ付け部と;
を具備する、管理装置。
An acquisition unit that acquires shooting data taken by the camera unit of a camera-equipped lighting device including a lighting unit and a camera unit;
A detection unit that detects an error at the shooting site from the shooting data and specific information acquired by the acquisition unit;
When an error is detected by the detection unit, a tagging unit that tags the shooting data in which the error is detected with error information related to the error;
A management device equipped with.
前記タグ付け部は、
前記照明ユニットの照明態様を変更することで、前記撮影データに前記タグ付けする、
請求項1に記載の管理装置。
The tagging part is
By changing the lighting mode of the lighting unit, the shooting data is tagged.
The management device according to claim 1.
前記タグ付け部によって前記エラー情報がタグ付けされた前記撮影データを切り取って再生する再生部;
をさらに具備する、請求項1または2に記載の管理装置。
A playback unit that cuts and reproduces the shooting data tagged with the error information by the tagging unit;
The management device according to claim 1 or 2, further comprising.
照明ユニットとカメラユニットとを具備するカメラ付き照明装置のカメラユニットによって撮影された撮影データを取得する取得部と;
特定情報を入力する入力部と;
前記取得部によって取得された前記撮影データと前記特定情報とから撮影現場におけるエラーを検出する検出部と;
を具備する、管理装置。
An acquisition unit that acquires shooting data taken by the camera unit of a camera-equipped lighting device including a lighting unit and a camera unit;
With an input section for entering specific information;
A detection unit that detects an error at the shooting site from the shooting data acquired by the acquisition unit and the specific information;
A management device equipped with.
前記特定情報は、作業工程ごとの製品の状態を示す模範データであり、
前記検出部は前記撮影データに写る前記製品の状態と前記模範データとに基づいて前記エラーを検出する、
請求項1〜4のいずれか一つに記載の管理装置。
The specific information is model data indicating the state of the product for each work process.
The detection unit detects the error based on the state of the product and the model data reflected in the shooting data.
The management device according to any one of claims 1 to 4.
前記検出部は、
前記模範データと前記撮影データに写る前記製品の状態それぞれの部品又は付属品の数の差分とに基づいて前記エラーを検出する、
請求項5に記載の管理装置。
The detection unit
The error is detected based on the difference in the number of parts or accessories for each state of the product reflected in the model data and the shooting data.
The management device according to claim 5.
前記模範データを過去の撮影データから学習する学習部;
をさらに具備する請求項5または6に記載の管理装置。
Learning unit that learns the model data from past shooting data;
The management device according to claim 5 or 6, further comprising.
前記特定情報は、
前記撮影現場が流れ作業の現場である場合に、前記流れ作業の作業周期に関する情報である、
請求項1〜7のいずれか一つに記載の管理装置。
The specific information is
Information on the work cycle of the assembly line when the shooting site is an assembly line site.
The management device according to any one of claims 1 to 7.
前記検出部によってエラーが検出された場合に作業者へ通知する通知部;
をさらに具備する請求項1〜8のいずれか一つに記載の管理装置。
A notification unit that notifies the operator when an error is detected by the detection unit;
The management device according to any one of claims 1 to 8, further comprising.
前記撮影データから単位時間当たりの作業効率を測定する測定部;
をさらに具備する請求項1〜9のいずれか一つに記載の管理装置。
A measuring unit that measures work efficiency per unit time from the shooting data;
The management device according to any one of claims 1 to 9, further comprising.
JP2020019993A 2020-02-07 2020-02-07 management device Active JP7404911B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020019993A JP7404911B2 (en) 2020-02-07 2020-02-07 management device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020019993A JP7404911B2 (en) 2020-02-07 2020-02-07 management device

Publications (2)

Publication Number Publication Date
JP2021125131A true JP2021125131A (en) 2021-08-30
JP7404911B2 JP7404911B2 (en) 2023-12-26

Family

ID=77460142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020019993A Active JP7404911B2 (en) 2020-02-07 2020-02-07 management device

Country Status (1)

Country Link
JP (1) JP7404911B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019169382A (en) * 2018-03-23 2019-10-03 東芝ライテック株式会社 Lighting device and lighting device control method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019169382A (en) * 2018-03-23 2019-10-03 東芝ライテック株式会社 Lighting device and lighting device control method

Also Published As

Publication number Publication date
JP7404911B2 (en) 2023-12-26

Similar Documents

Publication Publication Date Title
US11606483B2 (en) Symbology reader with multi-core processor
US8794521B2 (en) Systems and methods for operating symbology reader with multi-core processor
KR101283079B1 (en) Network camera having infrared light emitting diode illumination
CN103250418B (en) Image processing device, imaging device, image processing method, and white balance adjustment method
US8285000B2 (en) Monitoring system and method
CN102737373A (en) Visual image label, infrared image label and infrared image link
JP5713055B2 (en) Imaging apparatus, imaging method, and program
CN108460307B (en) Symbol reader with multi-core processor and operation system and method thereof
TWI468655B (en) System and method for monitoring temperature
CN103051839A (en) Device and method for intelligently adjusting light supplementation angle
CN101399914A (en) Image capture device and image capture method
TWI258583B (en) Device and method for optical detection of printed circuit board
JP2021125131A (en) Management device
CN201837775U (en) Remote laser night vision device
CN211481391U (en) Video camera
JP2014056450A (en) Image processing device and program
US20190268591A1 (en) Image sensor
JP7505351B2 (en) Lighting System
TW201447268A (en) Testing system for light-emitting diode and method for testing light-emitting diode using the same
US20230231088A1 (en) Light source device and camera inspection device using same
JP7416231B2 (en) Installation support device, installation support method, and program
JP2022055399A (en) Illumination system and management device
TWI502984B (en) Webcam driving circuit and method thereof
JP7467961B2 (en) Judging device
JP4637059B2 (en) Illumination device and imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231127

R151 Written notification of patent or utility model registration

Ref document number: 7404911

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151