JP6977607B2 - Safety judgment device, safety judgment system, safety judgment method - Google Patents

Safety judgment device, safety judgment system, safety judgment method Download PDF

Info

Publication number
JP6977607B2
JP6977607B2 JP2018028524A JP2018028524A JP6977607B2 JP 6977607 B2 JP6977607 B2 JP 6977607B2 JP 2018028524 A JP2018028524 A JP 2018028524A JP 2018028524 A JP2018028524 A JP 2018028524A JP 6977607 B2 JP6977607 B2 JP 6977607B2
Authority
JP
Japan
Prior art keywords
worker
image
safety
hand
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018028524A
Other languages
Japanese (ja)
Other versions
JP2019144861A (en
Inventor
亮介 横林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chugoku Electric Power Co Inc
Original Assignee
Chugoku Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chugoku Electric Power Co Inc filed Critical Chugoku Electric Power Co Inc
Priority to JP2018028524A priority Critical patent/JP6977607B2/en
Publication of JP2019144861A publication Critical patent/JP2019144861A/en
Application granted granted Critical
Publication of JP6977607B2 publication Critical patent/JP6977607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、安全判定装置、安全判定システム、安全判定方法に関する。 The present invention relates to a safety determination device, a safety determination system, and a safety determination method.

例えば、作業員が安全手順に沿って作業しているか否かを確認する作業安全計画管理システムが知られている。(例えば特許文献1)。 For example, there is known a work safety plan management system that confirms whether or not a worker is working according to a safety procedure. (For example, Patent Document 1).

特開2008−146502号公報Japanese Unexamined Patent Publication No. 2008-146502

特許文献1には、作業場、作業場の機械、安全具または作業者に夫々を識別するID−TAGを付設し、該ID−TAGの認識符号に基づいて作業者の作業が安全手順に沿って行われているか否かを、自動的に確認するシステムが開示されている。しかし、このシステムでは、作業員や作業対象物にID−TAGを付設する必要があるため、ID−TAGを付設するための手間とコストがかかり、さらに、ID−TAGを付設すべき作業対象物にID−TAGを付設し忘れた場合には作業の安全確認ができない虞があった。 In Patent Document 1, an ID-TAG that identifies each of the workplace, the machine in the workplace, the safety equipment, or the worker is attached, and the worker's work is performed according to the safety procedure based on the recognition code of the ID-TAG. A system that automatically confirms whether or not it has been damaged is disclosed. However, in this system, since it is necessary to attach an ID-TAG to a worker or a work object, it takes time and cost to attach the ID-TAG, and further, the work object to which the ID-TAG should be attached is required. If the ID-TAG is forgotten to be attached to the system, there is a risk that the safety of the work cannot be confirmed.

前述した課題を解決する主たる本発明は、作業員の視線に向けて撮影するカメラで撮影された画像を入力する画像入力部と、前記画像の画像領域内において作業対象物を画像認識する物認識部と、前記画像の画像領域内において前記作業員の手を画像認識する手認識部と、前記画像の画像領域内において前記作業対象物と前記手とが重なっているか否かを判定する行為判定部と、前記行為判定部が前記作業対象物と前記作業員の手とが重なっていると判定した場合、前記作業員が前記作業対象物との関係において、作業の安全が確保されていない状況を示す所定の条件を満たしているか否かを判定する条件判定部と、を備える。
本発明の他の特徴については、添付図面および本明細書の記載により明らかとなる。
The main invention for solving the above-mentioned problems is an image input unit for inputting an image taken by a camera taken toward the line of sight of a worker, and an object recognition for recognizing a work object in the image area of the image. The unit, the hand recognition unit that recognizes the worker's hand in the image area of the image, and the action determination of determining whether or not the work object and the hand overlap in the image area of the image. When the unit and the action determination unit determine that the work object and the worker's hand overlap, the work safety is not ensured by the worker in relation to the work object. It is provided with a condition determination unit for determining whether or not a predetermined condition is satisfied.
Other features of the invention will become apparent with reference to the accompanying drawings and the description herein.

本発明によれば、作業員の安全が確保できているか否かを、画像処理技術を用いて簡易・迅速に把握できるため、作業員の作業の安全性の向上が図れる。 According to the present invention, it is possible to easily and quickly grasp whether or not the safety of the worker is ensured by using the image processing technique, so that the work safety of the worker can be improved.

安全判定システムの構成の一例を示す図である。It is a figure which shows an example of the structure of a safety judgment system. 安全判定装置の構成の一例を示す図である。It is a figure which shows an example of the structure of a safety determination device. 安全判定装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of a safety determination device. 安全判定装置のソフトウェア構成の一例を示す図である。It is a figure which shows an example of the software structure of a safety determination device. 監視装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware configuration of a monitoring device. 監視装置のソフトウェア構成の一例を示す図である。It is a figure which shows an example of the software composition of a monitoring apparatus. 安全判定装置の処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of a safety determination apparatus. 安全判定装置の処理の具体的な一例を示す図である。It is a figure which shows a specific example of the processing of a safety determination device. 安全判定装置の処理の具体的な一例を示す図である。It is a figure which shows a specific example of the processing of a safety determination device. 安全判定装置の処理の具体的な一例を示す図である。It is a figure which shows a specific example of the processing of a safety determination device. 安全判定装置の処理の具体的な一例を示す図である。It is a figure which shows a specific example of the processing of a safety determination device. 安全判定装置の処理の具体的な一例を示す図である。It is a figure which shows a specific example of the processing of a safety determination device. 安全判定装置の処理の具体的な一例を示す図である。It is a figure which shows a specific example of the processing of a safety determination device. 安全判定システムの処理フローの一例を示す図である。It is a figure which shows an example of the processing flow of a safety judgment system. 安全判定システムの構成の一例を示す図である。It is a figure which shows an example of the structure of a safety judgment system. 安全判定システムの処理の具体的な一例を示す図である。It is a figure which shows a specific example of the processing of a safety judgment system. 安全判定システムの処理の具体的な一例を示す図である。It is a figure which shows a specific example of the processing of a safety judgment system.

本明細書および添付図面の記載により、少なくとも以下の事項が明らかとなる。以下の説明において、同一符号を付した部分は同一の要素を表し、その基本的な構成および動作は同様であるものとする。 The description of this specification and the accompanying drawings will clarify at least the following matters. In the following description, the parts with the same reference numerals represent the same elements, and their basic configurations and operations are the same.

===安全判定システム1の構成===
図1〜図17を参照しつつ、安全判定システム1について説明する。図1は、安全判定システム1の構成の一例を示す図である。安全判定システム1は、作業員の作業の安全が確保されているか否かを、画像処理技術を用いて判定するシステムである。図1に示すように、安全判定システム1は、例えば、作業員が装着するカメラ10と、センサー20と、安全判定装置30と、監視員が装着する監視カメラ40と、監視装置50と、を含んで構成されている。なお、図1においては安全判定装置30がカメラ10と別体で構成されているように示しているが、これに限定されず、安全判定装置30はカメラ10に内蔵されて一体で構成されていてもよい。また、監視装置50が監視カメラ40と別体で構成されているように示しているが、これに限定されず、監視装置50は監視カメラ40に内蔵されて一体で構成されていてもよい。また、図1では、データの流れを矢印で示している。
=== Configuration of safety judgment system 1 ===
The safety determination system 1 will be described with reference to FIGS. 1 to 17. FIG. 1 is a diagram showing an example of the configuration of the safety determination system 1. The safety determination system 1 is a system that determines whether or not the work safety of workers is ensured by using image processing technology. As shown in FIG. 1, the safety determination system 1 includes, for example, a camera 10 worn by an operator, a sensor 20, a safety determination device 30, a surveillance camera 40 worn by an observer, and a surveillance device 50. It is configured to include. Note that FIG. 1 shows that the safety determination device 30 is configured separately from the camera 10, but the safety determination device 30 is not limited to this, and the safety determination device 30 is built in the camera 10 and is integrally configured. You may. Further, although it is shown that the surveillance device 50 is configured separately from the surveillance camera 40, the present invention is not limited to this, and the surveillance device 50 may be built in the surveillance camera 40 and integrally configured. Further, in FIG. 1, the flow of data is indicated by an arrow.

<<カメラ10>>
カメラ10は、例えば作業員の視線方向の作業対象物を撮影する装置である。カメラ10は、例えば単板式または多板式のCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子と、画角の広いレンズ(広角レンズ)をはじめとする複数の構成部品によって構成され、赤外線モードを有していることが望ましい。ただし、その仕様が限定されるものではない。また、カメラ10は、例えば安全判定装置30の第1通信部と無線通信または有線通信する機能を有し、無線通信または有線通信により画像情報を安全判定装置30に送信することができる。
<< Camera 10 >>
The camera 10 is, for example, a device for photographing a work object in the line-of-sight direction of a worker. The camera 10 is composed of, for example, an image pickup element such as a single-plate or multi-plate CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Sensor), and a plurality of components including a lens having a wide angle of view (wide-angle lens). It is desirable to have an infrared mode. However, the specifications are not limited. Further, the camera 10 has, for example, a function of wireless communication or wire communication with the first communication unit of the safety determination device 30, and can transmit image information to the safety determination device 30 by wireless communication or wire communication.

<<センサー20>>
センサー20は、例えば、作業員が装着し、作業員の体調を計測する装置である。センサー20は、例えば、体温計、血圧計、心拍数計など、作業員の体の状態を計測するものである。センサー20は、安全判定装置30に計測した結果を示す計測信号を出力することができる。
<< Sensor 20 >>
The sensor 20 is, for example, a device worn by a worker to measure the physical condition of the worker. The sensor 20 measures the state of the worker's body, such as a thermometer, a sphygmomanometer, and a heart rate monitor. The sensor 20 can output a measurement signal indicating the measurement result to the safety determination device 30.

<<安全判定装置30>>
安全判定装置30は、画像処理技術を用いることにより、作業員が作業対象物に対して作業をする際に作業の安全が確保されているか否かを判定する装置である。図2に示すように、作業員が携帯する安全判定装置30は、カメラ10で撮影された画像情報をカメラ10から受信し、画像情報に基づいて作業員の安全が確保されているか否かを判定する。なお、図2において、破線矢印は撮影方向を示し、実線矢印は情報の流れを示す。このような安全判定装置30は、以下に示すハードウェア構成およびソフトウェア構成を備える。
<< Safety Judgment Device 30 >>
The safety determination device 30 is a device that determines whether or not the safety of the work is ensured when the worker works on the work object by using the image processing technique. As shown in FIG. 2, the safety determination device 30 carried by the worker receives the image information taken by the camera 10 from the camera 10 and determines whether or not the safety of the worker is ensured based on the image information. judge. In FIG. 2, the broken line arrow indicates the shooting direction, and the solid line arrow indicates the flow of information. Such a safety determination device 30 includes the hardware configuration and the software configuration shown below.

図3は、安全判定装置30のハードウェア構成の一例を示す図である。図3に示すように、安全判定装置30のハードウェアは、プロセッサ31と、メモリ32と、記憶装置33と、入力装置34と、出力装置35と、第1通信装置36と、を含んで構成されている。プロセッサ31は、例えば、MPU、CPUなどである。メモリ32は、例えば、RAM、ROM、NVRAMなどである。記憶装置33は、例えば、RAM、ROM、NVRAMなどである。入力装置34は、ユーザから操作入力を受け付けるユーザインタフェースであり、例えば、操作入力装置(キーボード、マウス、タッチパネル等)、音声入力装置(マイクロフォン等)などである。出力装置35は、各種情報をユーザに提供するユーザインタフェースであり、例えば、表示装置(液晶モニタ等)、音声出力装置(スピーカ等)などである。出力装置35は、例えば、危険信号に基づいて表示画面(不図示)に危険状態であることを表示し、または危険状態であることをスピーカで音声出力する。第1通信装置36は、ネットワークに接続するためのインタフェースであり、例えば、無線LANアダプタ、NIC(Network Interface Card)などである。 FIG. 3 is a diagram showing an example of the hardware configuration of the safety determination device 30. As shown in FIG. 3, the hardware of the safety determination device 30 includes a processor 31, a memory 32, a storage device 33, an input device 34, an output device 35, and a first communication device 36. Has been done. The processor 31 is, for example, an MPU, a CPU, or the like. The memory 32 is, for example, a RAM, a ROM, an NVRAM, or the like. The storage device 33 is, for example, a RAM, a ROM, an NVRAM, or the like. The input device 34 is a user interface that receives operation input from the user, and is, for example, an operation input device (keyboard, mouse, touch panel, etc.), a voice input device (microphone, etc.), and the like. The output device 35 is a user interface that provides various information to the user, and is, for example, a display device (liquid crystal monitor or the like), an audio output device (speaker or the like), or the like. The output device 35 displays, for example, that it is in a dangerous state on a display screen (not shown) based on a danger signal, or outputs a voice indicating that it is in a dangerous state by a speaker. The first communication device 36 is an interface for connecting to a network, and is, for example, a wireless LAN adapter, a NIC (Network Interface Card), or the like.

図4は、安全判定装置30のソフトウェア構成の一例を示す図である。図4に示すように、安全判定装置30のソフトウェアは、画像入力部30aと、物認識部30bと、手認識部30cと、行為判定部30dと、条件判定部30eと、信号受信部30fと、の機能を有する。これらの機能は、例えば、安全判定装置30のプロセッサ31がメモリ32に格納されているプログラムを読み出して実行することで実現される。なお、これらの機能は、例えば、ASICなどのハードウェアにより実現されてもよい。また、該プロセッサ31が外部記憶媒体に格納されているプログラムを読み出して実行することにより実現されてもよい。なお、図3においては、安全判定装置30が1台の情報処理装置(コンピュータ)で各機能を実現しているように示しているがこれに限定されない。例えば、上述した各機能を2台以上の情報処理装置で分散して実現するように構成されていてもよい。安全判定装置30のソフトウェア構成の各機能について、以下のとおり説明する。 FIG. 4 is a diagram showing an example of the software configuration of the safety determination device 30. As shown in FIG. 4, the software of the safety determination device 30 includes an image input unit 30a, an object recognition unit 30b, a hand recognition unit 30c, an action determination unit 30d, a condition determination unit 30e, and a signal reception unit 30f. Has the function of. These functions are realized, for example, by the processor 31 of the safety determination device 30 reading and executing the program stored in the memory 32. It should be noted that these functions may be realized by hardware such as ASIC. Further, the processor 31 may be realized by reading and executing a program stored in an external storage medium. Note that FIG. 3 shows that the safety determination device 30 realizes each function with one information processing device (computer), but the present invention is not limited to this. For example, each of the above-mentioned functions may be configured to be distributed and realized by two or more information processing devices. Each function of the software configuration of the safety determination device 30 will be described as follows.

画像入力部30aは、カメラ10で撮影された撮影画像を入力する機能である。画像入力部30aは、入力された撮影画像を物認識部30bおよび手認識部30cに送信する。なお、図1においては、カメラ10から直接的に撮影画像が画像入力部30aに入力されるように示しているが、これに限定されない。例えば、安全判定装置30は、カメラ10から外部に設置されたサーバ装置(不図示)に送信し、該サーバ装置から撮影画像が画像入力部30aに入力されるように構成していてもよい。 The image input unit 30a is a function of inputting a captured image captured by the camera 10. The image input unit 30a transmits the input captured image to the object recognition unit 30b and the hand recognition unit 30c. Note that FIG. 1 shows that the captured image is directly input from the camera 10 to the image input unit 30a, but the present invention is not limited to this. For example, the safety determination device 30 may be configured to transmit from the camera 10 to a server device (not shown) installed outside and input the captured image from the server device to the image input unit 30a.

物認識部30bは、撮影画像に写る作業対象物を認識する機能である。物認識部30bは、例えば、画像補正、画質改善、画像協調などの前処理を実行して、入力された撮影画像に含まれる雑音を除去し、作業対象物の特徴を抽出することで作業対象物を認識する。物認識部30bは、画像上で認識された作業対象物を示す作業対象物情報を、行為判定部30dに送信する機能を有する。 The object recognition unit 30b is a function of recognizing a work object reflected in a captured image. The object recognition unit 30b performs preprocessing such as image correction, image quality improvement, and image coordination to remove noise contained in the input captured image and extract features of the work object to work. Recognize things. The object recognition unit 30b has a function of transmitting work object information indicating a work object recognized on the image to the action determination unit 30d.

上述した作業対象物を認識する物認識部30bの機能について、図8を参照しつつ一例を述べると、作業対象物がキュービクル100のハンドル110である場合、例えば画像の破線で囲われた中央部にハンドル110が写ったとき、物認識部30bは例えばハンドル110の輪郭を自動抽出して(例えば図8の太線)、抽出された輪郭と予め記憶している物輪郭情報とを照合することにより作業対象物のハンドル110を認識する。なお、上記は一例であって、作業対象物を画像認識する手法については、例えばニューラルネットワークを用いて作業対象物の画像を学習させて作業対象物を認識する手法などを用いてもよく、その手法が限定されるものではない。その他の例については、後述する安全判定装置30の動作手順にて説明する。 As an example of the function of the object recognition unit 30b for recognizing the work object described above with reference to FIG. 8, when the work object is the handle 110 of the cubicle 100, for example, the central portion surrounded by the broken line in the image. When the handle 110 appears on the screen, the object recognition unit 30b automatically extracts, for example, the contour of the handle 110 (for example, the thick line in FIG. 8), and collates the extracted contour with the object contour information stored in advance. Recognize the handle 110 of the work object. The above is an example, and as a method for recognizing an image of a work object, for example, a method of learning an image of the work object using a neural network and recognizing the work object may be used. The method is not limited. Other examples will be described in the operation procedure of the safety determination device 30 described later.

手認識部30cは、撮影画像に写る作業員の手を認識する機能である。手認識部30cは、例えば、前処理として所定の色を示す領域を抽出し、雑音除去などを行って、作業員の手の領域のみを抽出する。このとき、手認識部30cは、手の色も認識する。手認識部30cは、このように抽出された手の領域の輪郭を追跡して手の輪郭を特定する(例えば図8の太線)。手認識部30cは、例えば手の輪郭の円形度を算出して、作業員の手であることを認識する。手認識部30cは、画像上で認識された作業員の手を示す手情報を、行為判定部30dに送信する機能を有する。 The hand recognition unit 30c is a function of recognizing a worker's hand reflected in a captured image. The hand recognition unit 30c, for example, extracts a region showing a predetermined color as preprocessing, performs noise removal, and extracts only the region of the worker's hand. At this time, the hand recognition unit 30c also recognizes the color of the hand. The hand recognition unit 30c tracks the contour of the region of the hand extracted in this way to identify the contour of the hand (for example, the thick line in FIG. 8). The hand recognition unit 30c, for example, calculates the circularity of the contour of the hand and recognizes that it is a worker's hand. The hand recognition unit 30c has a function of transmitting hand information indicating a worker's hand recognized on the image to the action determination unit 30d.

上述した作業員の手を認識する手認識部30cの機能について、図8を参照しつつ一例を述べると、画像の破線で囲われた中央部に手が写ったとき、手認識部30cは、例えば手の肌色の領域を抽出し、手の領域のみを抽出することで、作業員の手の輪郭を特定する。なお、作業員が絶縁手袋を着用している場合は、例えばオレンジ色の領域を抽出して、作業員の手の輪郭を特定する。特定された手の輪郭と、予め記憶している手輪郭情報とを照合することにより、作業員の手を認識する。なお、上記は一例であって、手を画像認識する手法については、例えばニューラルネットワークを用いて手の画像を学習させて手を認識する手法などを用いてもよく、その手法が限定されるものではない。その他の例については、後述する安全判定装置30の動作手順にて説明する。 As an example of the function of the hand recognition unit 30c for recognizing the worker's hand described above, the hand recognition unit 30c will be described when the hand is reflected in the central portion surrounded by the broken line of the image. For example, by extracting the skin-colored area of the hand and extracting only the hand area, the contour of the worker's hand is specified. When the worker wears insulating gloves, for example, an orange region is extracted to specify the contour of the worker's hand. By collating the specified hand contour with the hand contour information stored in advance, the worker's hand is recognized. The above is only an example, and as a method of recognizing a hand image, for example, a method of learning a hand image using a neural network and recognizing a hand may be used, and the method is limited. is not it. Other examples will be described in the operation procedure of the safety determination device 30 described later.

行為判定部30dは、撮影画像に写る作業対象物と作業員の手とが重なったことを判定する機能である。行為判定部30dは、作業対象物情報と手情報とに基づいて、画像認識された作業対象物に作業員の手が画像上で重なることを認識する。具体的に述べると、行為判定部30dは、例えば、ハンドル110の銀色領域と、手の肌色領域または絶縁手袋の色領域と、が重なったときに変化するハンドル110の輝度値と所定の閾値とを比較することにより、ハンドル110と手との重なりを検出する。なお、上記は一例であって、作業対象物と作業員の手との重なりを画像認識する手法については、例えばニューラルネットワークを用いて作業対象物と作業員の手とが重なっている画像を学習させて、重なりを認識する手法などを用いてもよく、その手法が限定されるものではない。行為判定部30dは、作業対象物と手との重なりを検出した結果を示す第1判定信号を、条件判定部30eに送信する機能を有する。本機能により、作業員が実際に作業をしようとしている状況で生じる、作業対象物と作業員の手の重なりを判定することで、作業の安全が図られているか否かの判定の契機を創出できる。 The action determination unit 30d is a function of determining that the work object shown in the captured image and the worker's hand overlap. The action determination unit 30d recognizes that the worker's hand overlaps the image-recognized work object on the image based on the work object information and the hand information. Specifically, the action determination unit 30d determines, for example, the brightness value of the handle 110 and a predetermined threshold value that change when the silver region of the handle 110 and the skin color region of the hand or the color region of the insulating glove overlap each other. By comparing, the overlap between the handle 110 and the hand is detected. The above is just an example, and as for the method of image recognition of the overlap between the work object and the worker's hand, for example, a neural network is used to learn an image in which the work object and the worker's hand overlap. A method of recognizing overlap may be used, and the method is not limited. The action determination unit 30d has a function of transmitting a first determination signal indicating the result of detecting the overlap between the work object and the hand to the condition determination unit 30e. This function creates an opportunity to determine whether or not work is safe by determining the overlap between the work object and the worker's hands that occurs when the worker is actually trying to work. can.

条件判定部30eは、第1判定信号または第2判定信号を受信した際に、作業員が作業対象物との関係において所定の条件を満たしているか否かを判定する機能である。条件判定部30eは、第1判定信号と第2判定信号の両方またはいずれか一方を受信したときに、所定の条件を満たしていると判定した場合、作業員の安全が確保されていないと判断して、作業員が危険状態であることを示す危険信号を送信する。また、条件判定部30eは、第1判定信号と第2判定信号の両方またはいずれか一方を受信したときに、所定の条件を満たしていないと判定した場合、作業員の安全が確保されていると判断して作業員の安全を示す安全信号を送信してもよい。所定の条件については、後述する安全判定装置30および安全判定システム1の動作手順にて例示する。 The condition determination unit 30e is a function of determining whether or not the worker satisfies a predetermined condition in relation to the work object when the first determination signal or the second determination signal is received. When the condition determination unit 30e determines that the predetermined conditions are satisfied when receiving both or one of the first determination signal and the second determination signal, the condition determination unit 30e determines that the safety of the worker is not ensured. Then, a danger signal indicating that the worker is in a dangerous state is transmitted. Further, when the condition determination unit 30e determines that the predetermined conditions are not satisfied when receiving both or one of the first determination signal and the second determination signal, the safety of the worker is ensured. It may be determined that a safety signal indicating the safety of the worker is transmitted. The predetermined conditions will be exemplified in the operation procedure of the safety determination device 30 and the safety determination system 1 described later.

信号受信部30fは、センサー20で計測した計測情報を受信する機能である。信号受信部30fは、計測情報を条件判定部30eに出力する。これにより、条件判定部30eは、所定の条件を満たしているか否かの判定に計測情報を用いることができる。 The signal receiving unit 30f is a function of receiving the measurement information measured by the sensor 20. The signal receiving unit 30f outputs the measurement information to the condition determination unit 30e. As a result, the condition determination unit 30e can use the measurement information to determine whether or not a predetermined condition is satisfied.

<<監視カメラ40>>
監視カメラ40は、例えば作業員を監視する監視員の視線方向の作業員を撮影する装置である。例えば単板式または多板式のCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子と、画角の広いレンズ(広角レンズ)をはじめとする複数の構成部品によって構成され、赤外線モードを有していることが望ましい。ただし、その仕様が限定されるものではない。また、監視カメラ40は、例えば監視装置50の第2通信部と無線通信または有線通信する機能を有し、無線通信または有線通信により監視画像情報を監視装置50に送信する。
<< Surveillance camera 40 >>
The surveillance camera 40 is, for example, a device for photographing a worker in the line-of-sight direction of the observer who monitors the worker. For example, it is composed of an image sensor such as a single-plate or multi-plate CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Sensor), and a plurality of components such as a lens with a wide angle of view (wide-angle lens), and has an infrared mode. It is desirable to have. However, the specifications are not limited. Further, the surveillance camera 40 has a function of wirelessly or wired communication with, for example, the second communication unit of the surveillance device 50, and transmits the surveillance image information to the surveillance device 50 by wireless communication or wired communication.

<<監視装置50>>
監視装置50は、作業員を監視する監視員が確認する装置であって、作業員が作業対象物に対して作業をする際に作業の安全が確保されているか否かを、画像処理技術を用いて判定する装置である。監視装置50を設けることにより、作業員が所定の動作を伴っているか否かを把握できるため、安全判定装置30のみによる安全判定よりも、安全性を向上できる。
<< Monitoring device 50 >>
The monitoring device 50 is a device that is confirmed by a watchman who monitors a worker, and uses image processing technology to check whether or not the work safety is ensured when the worker works on a work object. It is a device to judge by using. By providing the monitoring device 50, it is possible to grasp whether or not the worker is accompanied by a predetermined operation, so that the safety can be improved as compared with the safety judgment by the safety judgment device 30 alone.

図5は、監視装置50のハードウェア構成の一例を示す図である。図5に示すように、監視装置50のハードウェアは、プロセッサ51と、メモリ52と、記憶装置53と、入力装置54と、出力装置55と、第2通信装置56と、を含んで構成されている。プロセッサ51は、例えば、MPU、CPUなどである。メモリ52は、例えば、RAM、ROM、NVRAMなどである。記憶装置53は、例えば、RAM、ROM、NVRAMなどである。入力装置54は、ユーザから操作入力を受け付けるユーザインタフェースであり、例えば、操作入力装置(キーボード、マウス、タッチパネル等)、音声入力装置(マイクロフォン等)などである。出力装置55は、各種情報をユーザに提供するユーザインタフェースであり、例えば、表示装置(液晶モニタ等)、音声出力装置(スピーカ等)などである。出力装置55は、例えば、判定信号に応じて表示画面(不図示)に判定結果を表示し、または判定結果をスピーカで音声出力する。第2通信装置56は、ネットワークに接続するためのインタフェースであり、例えば、無線LANアダプタ、NIC(Network Interface Card)などである。 FIG. 5 is a diagram showing an example of the hardware configuration of the monitoring device 50. As shown in FIG. 5, the hardware of the monitoring device 50 includes a processor 51, a memory 52, a storage device 53, an input device 54, an output device 55, and a second communication device 56. ing. The processor 51 is, for example, an MPU, a CPU, or the like. The memory 52 is, for example, a RAM, a ROM, an NVRAM, or the like. The storage device 53 is, for example, a RAM, a ROM, an NVRAM, or the like. The input device 54 is a user interface that receives operation input from the user, and is, for example, an operation input device (keyboard, mouse, touch panel, etc.), a voice input device (microphone, etc.), and the like. The output device 55 is a user interface that provides various information to the user, and is, for example, a display device (liquid crystal monitor or the like), an audio output device (speaker or the like), or the like. The output device 55 displays, for example, a determination result on a display screen (not shown) according to the determination signal, or outputs the determination result by voice through a speaker. The second communication device 56 is an interface for connecting to a network, and is, for example, a wireless LAN adapter, a NIC (Network Interface Card), or the like.

図6は、監視装置50のソフトウェア構成の一例を示す図である。図6に示すように、監視装置50のソフトウェアは、監視画像入力部50aと、対象認識部50bと、人認識部50cと、監視判定部50dと、の機能を有する。これらの機能は、例えば、監視装置50のプロセッサ51がメモリ52に格納されているプログラムを読み出して実行することで実現される。なお、これらの機能は、例えば、ASICなどのハードウェアにより実現されてもよい。また、該プロセッサ51が外部記憶媒体に格納されているプログラムを読み出して実行することにより実現されてもよい。なお、図6において、監視装置50が1台の情報処理装置(コンピュータ)で各機能を実現しているように示しているがこれに限定されない。例えば、上述した各機能を2台以上の情報処理装置で分散して実現するように構成されていてもよい。監視装置50のソフトウェア構成の各機能について、以下で説明する。 FIG. 6 is a diagram showing an example of the software configuration of the monitoring device 50. As shown in FIG. 6, the software of the monitoring device 50 has the functions of the monitoring image input unit 50a, the target recognition unit 50b, the person recognition unit 50c, and the monitoring determination unit 50d. These functions are realized, for example, by the processor 51 of the monitoring device 50 reading and executing the program stored in the memory 52. It should be noted that these functions may be realized by hardware such as ASIC. Further, the processor 51 may be realized by reading and executing a program stored in an external storage medium. Note that FIG. 6 shows that the monitoring device 50 realizes each function with one information processing device (computer), but the present invention is not limited to this. For example, each of the above-mentioned functions may be configured to be distributed and realized by two or more information processing devices. Each function of the software configuration of the monitoring device 50 will be described below.

監視画像入力部50aは、監視カメラ40で撮影された監視画像を入力する機能である。監視画像入力部50aは、入力された監視画像を対象認識部50bおよび人認識部50cに送信する。なお、図1においては、監視カメラ40から直接的に監視画像が監視画像入力部50aに入力されるように示しているが、監視カメラ40から外部に設置されたサーバ装置(不図示)に送信し、該サーバ装置から監視画像が監視画像入力部50aに入力されるように構成されていてもよい。 The surveillance image input unit 50a is a function of inputting a surveillance image taken by the surveillance camera 40. The surveillance image input unit 50a transmits the input surveillance image to the target recognition unit 50b and the person recognition unit 50c. In addition, although it is shown in FIG. 1 that the surveillance image is directly input from the surveillance camera 40 to the surveillance image input unit 50a, it is transmitted from the surveillance camera 40 to a server device (not shown) installed outside. However, the monitoring image may be configured to be input to the monitoring image input unit 50a from the server device.

対象認識部50bは、監視画像に写る作業対象物を認識する機能である。対象認識部50bは、例えば、画像補正、画質改善、画像協調などの所謂前処理を実行して、入力された監視画像に含まれる雑音を除去し、対象物の特徴を抽出することで対象物を認識する。対象認識部50bは、画像上で認識された対象物を示す対象物情報を監視判定部50dに送信する機能を有する。なお、対象物を認識する手段については、安全判定装置30の物認識部30bと同様であるためその説明を省略する。 The object recognition unit 50b is a function of recognizing a work object reflected in a surveillance image. The object recognition unit 50b executes so-called preprocessing such as image correction, image quality improvement, and image coordination to remove noise contained in the input surveillance image and extract the characteristics of the object. Recognize. The object recognition unit 50b has a function of transmitting object information indicating an object recognized on the image to the monitoring determination unit 50d. Since the means for recognizing an object is the same as that of the object recognition unit 30b of the safety determination device 30, the description thereof will be omitted.

人認識部50cは、監視画像に写る作業員(人)を認識する機能である。人認識部50cは、例えば、HOG(Histograms of Oriented Gradients)特徴量を用いて作業員を認識する。このHOG特徴量を用いる人の認識の手法とは、所定のピクセル座標の上下左右両隣の輝度から、勾配方向と強度を収取して数ピクセル単位のセルを対象にヒストグラムを生成し、さらに数セル単位のブロックで正規化することで特徴量を算出して人を認識する手法である。また、人認識部50cは、安全判定装置30の手認識部30cと同じ機能を有していることが望ましい。なお、上記は一例であって、作業員を画像認識する手法については、例えばニューラルネットワークを用いて作業員の画像を学習させて作業員を認識する手法や、背景画像との差分から作業員を認識する手法などを用いてもよく、その手法が限定されるものではない。人認識部50cは、画像上で認識された作業員を示す作業員情報を、監視判定部50dに送信する機能を有する。 The human recognition unit 50c is a function of recognizing a worker (person) shown in a surveillance image. The human recognition unit 50c recognizes a worker by using, for example, a HOG (Histograms of Oriented Gradients) feature quantity. The method of human recognition using this HOG feature is to collect the gradient direction and intensity from the brightness on both the top, bottom, left, and right sides of a predetermined pixel coordinate, generate a histogram for cells in units of several pixels, and then generate a histogram. It is a method of recognizing a person by calculating the feature amount by normalizing with a block of each cell. Further, it is desirable that the human recognition unit 50c has the same function as the hand recognition unit 30c of the safety determination device 30. The above is an example, and as for the method of recognizing a worker as an image, for example, a method of learning a worker's image by using a neural network to recognize the worker or a method of recognizing a worker from a difference from a background image is used. A recognition method or the like may be used, and the method is not limited. The human recognition unit 50c has a function of transmitting worker information indicating a worker recognized on the image to the monitoring determination unit 50d.

監視判定部50dは、監視画像に写る対象物と作業員とが重なったことを判定する機能である。監視判定部50dは、対象物情報と作業員情報とに基づいて、画像認識された対象物に作業員が画像上で重なったことを認識する。具体的に述べると、監視判定部50dは、例えば、作業対象物の色領域と作業員の色領域とが重なったときに変化する対象物の輝度値と所定の閾値とを比較することにより、対象物と作業員との重なりを検出する。なお、上記は一例であって、重なりを画像認識する手法については、例えばニューラルネットワークを用いて、対象物と作業員とが重なっている画像を学習させて重なりを認識する手法を用いてもよく、その手法が限定されるものではない。監視判定部50dは、対象物と作業員との重なりを検出した結果を示す第2判定信号を、安全判定装置30に送信する機能を有する。本機能により、作業員が安全手順に沿って作業をしているか否かを把握できる。 The monitoring determination unit 50d is a function of determining that the object and the worker appearing in the monitoring image overlap. The monitoring determination unit 50d recognizes that the worker overlaps the image-recognized object on the image based on the object information and the worker information. Specifically, the monitoring determination unit 50d compares, for example, the luminance value of the object that changes when the color area of the work object and the color area of the worker overlap with a predetermined threshold value. Detects the overlap between the object and the worker. The above is only an example, and as a method of recognizing an overlap, for example, a method of learning an image in which an object and a worker overlap and recognizing the overlap may be used by using a neural network. , The method is not limited. The monitoring determination unit 50d has a function of transmitting a second determination signal indicating the result of detecting the overlap between the object and the worker to the safety determination device 30. With this function, it is possible to grasp whether or not the worker is working according to the safety procedure.

なお、上記において作業員が安全判定装置30を携帯しているように説明したが、これに限定されない。安全判定装置30は監視装置50と一体に構成されていてもよく、この場合、監視員が作業員の安全状態を把握できる。 Although it has been described above that the worker carries the safety determination device 30, the present invention is not limited to this. The safety determination device 30 may be integrally configured with the monitoring device 50, and in this case, the observer can grasp the safety state of the worker.

===安全判定装置30の動作手順===
図7〜図13を参照しつつ、作業員が携帯する安全判定装置30による安全判定の手順について具体例を述べつつ詳細に説明する。なお、以下説明において、各機能を主語にしている場合は、プロセッサ31がプログラムを読み出して所定の機能を実現することを意味する。
=== Operation procedure of the safety determination device 30 ===
With reference to FIGS. 7 to 13, the procedure for safety determination by the safety determination device 30 carried by the worker will be described in detail with reference to specific examples. In the following description, when each function is the subject, it means that the processor 31 reads a program and realizes a predetermined function.

先ず、作業員は作業対象物を確認する。作業員の視線の先を撮影するカメラ10で作業対象物を撮影する。画像入力部30aは、撮影された撮影画像をカメラ10から取得する(S10)。物認識部30bは、取得した撮影画像中の所定の領域で作業対象物を認識する(S11)。手認識部30cは、撮影画像中の所定の領域で作業員の手を認識する(S12)。行為判定部30dは、作業対象物と作業員の手とが重なることを判定し(S13)、判定結果を示す第1判定信号を条件判定部30eに出力する(S14)。条件判定部30eは、第1判定信号を受信し、その後、所定の条件が満たされているか否かを判定する(S14)。条件判定部30eで判定した結果、作業員が危険状態で作業していると判定される場合、条件判定部30eは危険信号を出力し、該危険信号が入力された出力装置15で危険状態を表示する(S16)。上述した処理手順について、具体的ないくつかの事例を用いて以下のとおり説明する。 First, the worker confirms the work object. The work object is photographed by the camera 10 that photographs the tip of the worker's line of sight. The image input unit 30a acquires the captured image from the camera 10 (S10). The object recognition unit 30b recognizes a work object in a predetermined area in the acquired captured image (S11). The hand recognition unit 30c recognizes the worker's hand in a predetermined area in the captured image (S12). The action determination unit 30d determines that the work object and the worker's hand overlap (S13), and outputs a first determination signal indicating the determination result to the condition determination unit 30e (S14). The condition determination unit 30e receives the first determination signal, and then determines whether or not a predetermined condition is satisfied (S14). When it is determined by the condition determination unit 30e that the worker is working in a dangerous state, the condition determination unit 30e outputs a danger signal, and the output device 15 to which the danger signal is input determines the danger state. Display (S16). The above-mentioned processing procedure will be described below with some specific examples.

先ず、一例として、作業員がキュービクル100内において配線作業をする場合、物認識部30bは、図8(A)に示すようにキュービクル100のハンドル110(作業対象物)を認識し、さらに図9(A)に示すようにキュービクル100内の配線部120(作業対象物)を認識する。手認識部30cは、撮影画像上において作業員の手を認識する。行為判定部30dは、図8(B)に示すようにハンドル110と作業員の手とが重なることを判定する。また、行為判定部30dは、その後、図9(A)、図9(B)に示すように配線部120と作業員の手とが重なることを判定し、判定結果を示す第1判定信号を条件判定部30eに出力する。条件判定部30eは、ハンドル110と作業員の手とが重なった後に、配線部120と作業員の手とが重なったことを示す第1判定信号を受信するとともに、作業員の手が肌色(所定の条件)か否かを判定する。条件判定部30eは、作業員の手が肌色であると判定した場合(図9(A))、所定の条件が満たされていると判定する。この場合、条件判定部30eは、該作業において作業員の安全が確保されていないと判定して、出力装置15に危険信号を出力する。作業員は、出力装置15に表示される危険表示や危険を知らせる音声出力により、危険状態での作業であることを認識できる。ここで、作業員が絶縁手袋を着用している場合においては、作業員の手は肌色を示さない(図9(B))ため、行為判定部30dは、第2判定信号を条件判定部30eに出力しない。この場合、条件判定部30eは、出力装置15に安全信号を出力してもよい。 First, as an example, when a worker performs wiring work in the cubicle 100, the object recognition unit 30b recognizes the handle 110 (work object) of the cubicle 100 as shown in FIG. 8A, and further, FIG. 9 As shown in (A), the wiring portion 120 (working object) in the cubicle 100 is recognized. The hand recognition unit 30c recognizes the worker's hand on the captured image. As shown in FIG. 8B, the action determination unit 30d determines that the handle 110 and the worker's hand overlap. Further, the action determination unit 30d subsequently determines that the wiring unit 120 and the worker's hand overlap each other as shown in FIGS. 9A and 9B, and outputs a first determination signal indicating the determination result. Output to the condition determination unit 30e. The condition determination unit 30e receives a first determination signal indicating that the wiring unit 120 and the worker's hand overlap after the handle 110 and the worker's hand overlap, and the worker's hand is flesh-colored (the worker's hand). It is determined whether or not it is a predetermined condition). When the condition determination unit 30e determines that the worker's hand is flesh-colored (FIG. 9A), it determines that the predetermined condition is satisfied. In this case, the condition determination unit 30e determines that the safety of the worker is not ensured in the work, and outputs a danger signal to the output device 15. The worker can recognize that the work is in a dangerous state by the danger display displayed on the output device 15 and the voice output notifying the danger. Here, when the worker is wearing insulating gloves, the worker's hand does not show the skin color (FIG. 9B), so that the action determination unit 30d uses the second determination signal as the condition determination unit 30e. Do not output to. In this case, the condition determination unit 30e may output a safety signal to the output device 15.

また、他の一例として、作業員がクレーンの操作をする場合、物認識部30bは、クレーンの操作ボタン200(作業対象物)を認識する。手認識部30cは、撮影画像上において、作業員の手を認識する。行為判定部30dは、図10(A)に示すように操作ボタン200と作業員の手とが重なることを判定し、第1判定信号を条件判定部30eに出力する。条件判定部30eは、第1判定信号を受信するとともに、過去において、手認識部30cから図10(B)に示すような所定の手の形状を示す手情報を受信しているか(所定の条件)否かを判定する。この判定手順は、操作ボタン200を押下する前に、クレーンのフック210などを指差し確認しているか否かを判定する手順である。つまり、条件判定部30eは、過去において所定の手の形状を示す手情報を受信していないと判定した場合、所定の条件が満たされていると判定する。この場合、条件判定部30eは、該作業での作業員の安全が確保されていないと判定して、出力装置15に危険信号を出力する。作業員は、出力装置15に表示される危険表示や危険を知らせる音声出力により、危険状態での作業であることが認識できる。 Further, as another example, when the worker operates the crane, the object recognition unit 30b recognizes the operation button 200 (work object) of the crane. The hand recognition unit 30c recognizes the worker's hand on the captured image. As shown in FIG. 10A, the action determination unit 30d determines that the operation button 200 and the worker's hand overlap, and outputs the first determination signal to the condition determination unit 30e. Whether the condition determination unit 30e has received the first determination signal and, in the past, has received hand information indicating a predetermined hand shape as shown in FIG. 10B from the hand recognition unit 30c (predetermined condition). ) Judge whether or not. This determination procedure is a procedure for determining whether or not the hook 210 of the crane or the like is pointed and confirmed before the operation button 200 is pressed. That is, when the condition determination unit 30e determines that the hand information indicating the shape of the predetermined hand has not been received in the past, it is determined that the predetermined condition is satisfied. In this case, the condition determination unit 30e determines that the safety of the worker in the work is not ensured, and outputs a danger signal to the output device 15. The worker can recognize that the work is in a dangerous state by the danger display displayed on the output device 15 and the voice output notifying the danger.

また、他の一例として、作業員が鉄塔や電柱に登る場合、物認識部30bは、梯子300(作業対象物)を認識する。手認識部30cは、撮影画像上において作業員の手を認識する。行為判定部30dは、図11(A)に示すように梯子300と作業員の手とが重なることを判定し、第1判定信号を条件判定部30eに出力する。条件判定部30eは、第1判定信号を受信し、その後、物認識部30bが例えば図11(B)に示すような鉄塔の踊り場310を認識するか(所定の条件)否かを判定する。物認識部30bの鉄塔の踊り場310を認識には、例えば、構造的なテクスチャによる解析や、濃度分布による解析、テンプレートマッチングによる解析、ディシジョンツリー法による解析、クラスタリングによる解析などの手法を用いる。条件判定部30eは、物認識部30bが踊り場310を認識した場合、作業員が立ち入り禁止の高さまで登っていると判断できるため、所定の条件が満たされていると判定する。この場合、条件判定部30eは、該作業において作業員の安全が確保されていないと判定して、出力装置15に危険信号を出力する。作業員は、出力装置15に表示される危険表示や危険を知らせる音声出力により、危険状態での作業であることを認識できる。 Further, as another example, when a worker climbs a steel tower or a utility pole, the object recognition unit 30b recognizes a ladder 300 (work object). The hand recognition unit 30c recognizes the worker's hand on the captured image. As shown in FIG. 11A, the action determination unit 30d determines that the ladder 300 and the worker's hand overlap, and outputs the first determination signal to the condition determination unit 30e. The condition determination unit 30e receives the first determination signal, and then determines whether or not the object recognition unit 30b recognizes the landing place 310 of the steel tower as shown in FIG. 11B, for example (predetermined condition). For recognizing the landing 310 of the iron tower of the object recognition unit 30b, for example, an analysis by structural texture, an analysis by density distribution, an analysis by template matching, an analysis by a decision tree method, an analysis by clustering, or the like is used. When the object recognition unit 30b recognizes the landing 310, the condition determination unit 30e can determine that the worker has climbed to a height that is off limits, and therefore determines that the predetermined condition is satisfied. In this case, the condition determination unit 30e determines that the safety of the worker is not ensured in the work, and outputs a danger signal to the output device 15. The worker can recognize that the work is in a dangerous state by the danger display displayed on the output device 15 and the voice output notifying the danger.

また、他の一例として、作業員が草刈り機400で除草作業をする場合、物認識部30bは、草刈り機400のハンドル410(作業対象物)を認識する。手認識部30cは、撮影画像上に作業員の手を認識する。行為判定部30dは、図12に示すように草刈り機400のハンドル410と作業員の手とが重なることを判定し、第1判定信号を条件判定部30eに出力する。条件判定部30eは、第1判定信号を受信し、その後、信号受信部30fを介してセンサー20から計測信号を取得する。条件判定部30eは、計測信号が所定の閾値を超えるか(所定の条件)否かを判定し、所定の閾値を超える場合、作業員が体調不良であると判断できるため、所定の条件が満たされていると判定する。この場合、条件判定部30eは、該作業において作業員の安全が確保されていないと判定して、出力装置15に危険信号を出力する。作業員は、出力装置15に表示される危険表示や危険を知らせる音声出力により、危険状態での作業であることを認識できる。 Further, as another example, when the worker performs weeding work with the mower 400, the object recognition unit 30b recognizes the handle 410 (work object) of the mower 400. The hand recognition unit 30c recognizes the worker's hand on the captured image. As shown in FIG. 12, the action determination unit 30d determines that the handle 410 of the mower 400 and the worker's hand overlap, and outputs the first determination signal to the condition determination unit 30e. The condition determination unit 30e receives the first determination signal, and then acquires the measurement signal from the sensor 20 via the signal reception unit 30f. The condition determination unit 30e determines whether or not the measurement signal exceeds a predetermined threshold value (predetermined condition), and if it exceeds the predetermined threshold value, it can be determined that the worker is in poor physical condition, so that the predetermined condition is satisfied. It is determined that it has been done. In this case, the condition determination unit 30e determines that the safety of the worker is not ensured in the work, and outputs a danger signal to the output device 15. The worker can recognize that the work is in a dangerous state by the danger display displayed on the output device 15 and the voice output notifying the danger.

また、他の一例として、作業員が充電操作を行う場合、安全判定装置30は、連絡端末500の連絡ボタン510(作業対象物)を認識する。手認識部30cは、撮影画像上に作業員の手を認識する。行為判定部30dは、図13(A)に示すように連絡ボタン510と作業員の手とが重なることを判定し、第1判定信号を条件判定部30eに出力する。条件判定部30eは、第1判定信号を受信するとともに、過去において、物認識部30bが図13(B)に示すような乙種アース520(判定対象物)を接地極530から取り外す状況を認識したか(所定の条件)否かを判定する。この判定手順は、連絡ボタン510を押下する前に、乙種アース520を接地極530から取り外しているか否かを判定する手順である。条件判定部30eは、物認識部30bが乙種アース520を接地極530から取り外すことを認識した場合、つまり、乙種アース520が接地極530に取り付けられている状態が継続していない場合、所定の条件が満たされていると判定する。この場合、条件判定部30eは、該作業での作業員の安全が確保されていないと判定して、出力装置15に危険信号を出力する。作業員は、出力装置15に表示される危険表示や危険を知らせる音声出力により、危険状態での作業であることを認識できる。 Further, as another example, when the worker performs the charging operation, the safety determination device 30 recognizes the contact button 510 (work object) of the contact terminal 500. The hand recognition unit 30c recognizes the worker's hand on the captured image. As shown in FIG. 13A, the action determination unit 30d determines that the contact button 510 and the worker's hand overlap, and outputs the first determination signal to the condition determination unit 30e. The condition determination unit 30e has received the first determination signal and has recognized in the past that the object recognition unit 30b has removed the Class B earth 520 (determination object) as shown in FIG. 13B from the ground electrode 530. It is determined whether or not (predetermined condition). This determination procedure is a procedure for determining whether or not the Class B earth 520 is removed from the ground electrode 530 before pressing the contact button 510. The condition determination unit 30e recognizes that the object recognition unit 30b removes the class B earth 520 from the grounding electrode 530, that is, when the state in which the class B earth 520 is attached to the grounding electrode 530 does not continue, a predetermined state is determined. It is determined that the conditions are satisfied. In this case, the condition determination unit 30e determines that the safety of the worker in the work is not ensured, and outputs a danger signal to the output device 15. The worker can recognize that the work is in a dangerous state by the danger display displayed on the output device 15 and the voice output notifying the danger.

===安全判定システム1の動作手順===
図14〜図17を参照しつつ、作業員が携帯する安全判定装置30および監視員が確認する監視装置50による、安全判定システム1の安全判定の手順について以下のとおり説明する。
=== Operation procedure of safety judgment system 1 ===
With reference to FIGS. 14 to 17, the procedure for safety determination of the safety determination system 1 by the safety determination device 30 carried by the worker and the monitoring device 50 confirmed by the observer will be described as follows.

先ず、作業員は作業対象物を確認する。作業員の視線の先を撮影するカメラ10で作業対象物を撮影する。安全判定装置30の画像入力部30aは、撮影された撮影画像をカメラ10から取得する(S20)。安全判定装置30の物認識部30bは、取得した撮影画像中の所定の領域で作業対象物を認識する(S21)。安全判定装置30の手認識部30cは、撮影画像中の所定の領域で作業員の手を認識する(S22)。安全判定装置30の行為判定部30dは、作業対象物と作業員の手とが重なることを判定し(S23)、判定結果を示す第1判定信号を条件判定部30eに出力する(S24)。 First, the worker confirms the work object. The work object is photographed by the camera 10 that photographs the tip of the worker's line of sight. The image input unit 30a of the safety determination device 30 acquires the captured image from the camera 10 (S20). The object recognition unit 30b of the safety determination device 30 recognizes a work object in a predetermined area in the acquired captured image (S21). The hand recognition unit 30c of the safety determination device 30 recognizes the worker's hand in a predetermined area in the captured image (S22). The action determination unit 30d of the safety determination device 30 determines that the work object and the worker's hand overlap (S23), and outputs a first determination signal indicating the determination result to the condition determination unit 30e (S24).

次に、監視員は作業員を確認する。例えば、図15に示すように、作業員がキュービクル100の点検をする状況においては、監視員の視線の先を撮影する監視カメラ40で作業員を撮影する。なお、図15において、破線は撮影方向を示し、実線は情報の流れを示す。監視装置50の監視画像入力部50aは、撮影された監視画像を監視カメラ40から取得する(S25)。監視装置50の対象認識部50bは、取得した監視画像中の所定の領域で対象物を認識する(S26)。監視装置50の人認識部50cは、監視画像中の所定の領域で作業員を認識する(S27)。監視装置50の監視判定部50dは、対象物と作業員とが重なることを判定し(S28)、判定結果を示す第2判定信号を安全判定装置30の条件判定部30eに出力する(S29)。 The observer then confirms the worker. For example, as shown in FIG. 15, in a situation where a worker inspects the cubicle 100, the worker is photographed by a surveillance camera 40 that captures the line of sight of the observer. In FIG. 15, the broken line indicates the shooting direction, and the solid line indicates the flow of information. The surveillance image input unit 50a of the surveillance device 50 acquires the captured surveillance image from the surveillance camera 40 (S25). The object recognition unit 50b of the monitoring device 50 recognizes an object in a predetermined area in the acquired monitoring image (S26). The human recognition unit 50c of the monitoring device 50 recognizes a worker in a predetermined area in the monitoring image (S27). The monitoring determination unit 50d of the monitoring device 50 determines that the object and the worker overlap each other (S28), and outputs a second determination signal indicating the determination result to the condition determination unit 30e of the safety determination device 30 (S29). ..

次に、安全判定装置30の条件判定部30eは、第1判定信号および第2判定信号を受信するとともに、所定の条件が満たされているか否かを判定する(S30)。条件判定部30eで判定した結果、作業員が危険状態で作業していると判定される場合、条件判定部30eは危険信号を出力し、該危険信号が入力された出力装置15で危険状態を表示する(S31)。上述した処理手順について、具体的ないくつかの事例を用いて以下のとおり説明する。 Next, the condition determination unit 30e of the safety determination device 30 receives the first determination signal and the second determination signal, and determines whether or not the predetermined conditions are satisfied (S30). When it is determined by the condition determination unit 30e that the worker is working in a dangerous state, the condition determination unit 30e outputs a danger signal, and the output device 15 to which the danger signal is input determines the danger state. Display (S31). The above-mentioned processing procedure will be described below with some specific examples.

先ず、一例として、作業員が停電中に乙種アース610の取り外しを禁止する場合において、安全判定装置30は、図16(A)に示すように、乙種アース610のハンドル部620(作業対象物)および作業員の手を認識するとともに、乙種アース610のハンドル部620と作業員の手の重なりを認識する。条件判定部30eに、第1判定信号が入力される。次に、監視員は、充電操作を行う作業員を確認する。監視装置50は、図16(B)に示すように、乙種アース610のハンドル部620(対象物)および作業員を認識するとともに、乙種アース610のハンドル部620と作業員との重なりを認識する。監視装置50は、安全判定装置30の条件判定部30eに第2判定信号を出力する。安全判定装置30の条件判定部30eは、第1判定信号および第2判定信号に基づいて、乙種アース610のハンドル部620と作業員の手の重なりを判定した後に、乙種アース610のハンドル部620と作業員の重なりを判定しているため、停電中に乙種アース610が接地極600から取り外されていると判断し、所定の条件が満たされていると判定する。この場合、条件判定部30eは、該作業での作業員の安全が確保されていないと判定して、出力装置15,25に危険信号を出力する。作業員および監視員は、出力装置15,25に表示される危険表示や危険を知らせる音声出力により、危険状態での作業であることを認識できる。 First, as an example, when the worker prohibits the removal of the Class B ground 610 during a power failure, the safety determination device 30 is a handle portion 620 (work object) of the Class B ground 610 as shown in FIG. 16 (A). In addition to recognizing the worker's hand, the overlap between the handle portion 620 of the Class B earth 610 and the worker's hand is recognized. The first determination signal is input to the condition determination unit 30e. Next, the observer confirms the worker who performs the charging operation. As shown in FIG. 16B, the monitoring device 50 recognizes the handle portion 620 (object) of the class B earth 610 and the worker, and recognizes the overlap between the handle portion 620 of the class B earth 610 and the worker. .. The monitoring device 50 outputs the second determination signal to the condition determination unit 30e of the safety determination device 30. The condition determination unit 30e of the safety determination device 30 determines the overlap between the handle unit 620 of the class B earth 610 and the worker's hand based on the first determination signal and the second determination signal, and then determines the overlap of the hands of the worker, and then the handle unit 620 of the class B earth 610. Since it is determined that the workers overlap with each other, it is determined that the Class B earth 610 is removed from the grounding electrode 600 during the power failure, and it is determined that the predetermined conditions are satisfied. In this case, the condition determination unit 30e determines that the safety of the worker in the work is not ensured, and outputs a danger signal to the output devices 15 and 25. Workers and observers can recognize that the work is in a dangerous state by the danger display displayed on the output devices 15 and 25 and the voice output notifying the danger.

また、他の一例として、作業員が鉄塔や電柱に登る場合、安全判定装置30は、図17(A)に示すように、梯子700(作業対象物)を認識するとともに、梯子700と作業員の手との重なりを認識する。条件判定部30eに、第1判定信号が入力される。次に、監視員は、梯子700を登る作業員を確認する。監視装置50は、梯子700および作業員を認識する。そして、監視装置50は、梯子700と作業員とが重なっているか否かを判定する。監視装置50は、図17(B)に示すように、梯子700と作業員とが重なっていると判定した場合、条件判定部30eに第2判定信号を出力する。条件判定部30eは、第1判定信号および第2判定信号に基づいて、梯子700と作業員の手の重なりを判定した後に、梯子700と作業員の重なりを判定しているため、監視員が作業員を監視している状況で作業員が梯子700に登っていると判断できることから、作業員の安全が確保できていると判断し、所定の条件が満たされていないと判定する。この場合、条件判定部30eは、作業員が安全状態で作業していると判定した結果を示す安全信号を、出力装置15,25に出力する。これにより、作業員および監視員は、出力装置15,25に表示される安全表示や安全を知らせる音声出力により安全状態での作業であることを認識できる。なお、条件判定部30eは、第1判定信号を受信した後、監視装置50から第2判定信号を受信しない場合、該作業において作業員の安全が確保されていないと判定して、出力装置15,25に危険信号を出力してもよい。これにより、作業員および監視員は、出力装置15,25に表示される危険表示や危険を知らせる音声出力により、危険状態での作業であることを認識できる。 Further, as another example, when a worker climbs a steel tower or a utility pole, the safety determination device 30 recognizes the ladder 700 (work object) as shown in FIG. 17 (A), and the ladder 700 and the worker. Recognize the overlap with the hand. The first determination signal is input to the condition determination unit 30e. Next, the observer confirms the worker who climbs the ladder 700. The monitoring device 50 recognizes the ladder 700 and the worker. Then, the monitoring device 50 determines whether or not the ladder 700 and the worker overlap each other. As shown in FIG. 17B, the monitoring device 50 outputs a second determination signal to the condition determination unit 30e when it is determined that the ladder 700 and the worker overlap each other. Since the condition determination unit 30e determines the overlap between the ladder 700 and the worker's hand based on the first determination signal and the second determination signal, and then determines the overlap between the ladder 700 and the worker, the observer determines. Since it can be determined that the worker is climbing the ladder 700 while the worker is being monitored, it is determined that the safety of the worker is ensured, and it is determined that the predetermined condition is not satisfied. In this case, the condition determination unit 30e outputs a safety signal indicating the result of determining that the worker is working in a safe state to the output devices 15 and 25. As a result, the worker and the observer can recognize that the work is in a safe state by the safety display displayed on the output devices 15 and 25 and the voice output informing the safety. If the condition determination unit 30e does not receive the second determination signal from the monitoring device 50 after receiving the first determination signal, the condition determination unit 30e determines that the safety of the worker is not ensured in the work, and the output device 15 A danger signal may be output to, 25. As a result, the worker and the observer can recognize that the work is in a dangerous state by the danger display displayed on the output devices 15 and 25 and the voice output notifying the danger.

===まとめ===
以上説明したように、本実施形態に係る安全判定装置30は、作業員の視線に向けて撮影するカメラ10で撮影された撮影画像を入力する画像入力部30aと、撮影画像の画像領域内において作業対象物を画像認識する物認識部30bと、撮影画像の画像領域内において作業員の手を画像認識する手認識部30cと、撮影画像の画像領域内において作業対象物と手とが重なっているか否かを判定する行為判定部30dと、行為判定部30dが作業対象物と作業員の手とが重なっていると判定した場合、作業員が作業対象物との関係において、作業の安全が確保されていない状況を示す所定の条件を満たしているか否かを判定する条件判定部30eと、を備える。本実施形態によれば、作業員自身の視点に基づいて、作業の安全状態が確保できているか否かを容易に把握することができるため、作業の安全性の向上が図れる。
=== Summary ===
As described above, the safety determination device 30 according to the present embodiment has an image input unit 30a for inputting a captured image captured by the camera 10 captured toward the line of sight of the worker, and within the image area of the captured image. The object recognition unit 30b that recognizes the work object as an image, the hand recognition unit 30c that recognizes the worker's hand in the image area of the captured image, and the work object and the hand overlap in the image area of the captured image. When the action determination unit 30d for determining whether or not the image is present and the action determination unit 30d determine that the work object and the worker's hand are overlapped with each other, the worker determines that the work is safe in relation to the work object. A condition determination unit 30e for determining whether or not a predetermined condition indicating an unsecured situation is satisfied is provided. According to the present embodiment, it is possible to easily grasp whether or not the safety state of the work is ensured from the viewpoint of the worker himself, so that the safety of the work can be improved.

又、本実施形態に係る安全判定装置30の物認識部30bは、撮影画像における予め定められた画像領域内に作業対象物が存在することを認識する。本実施形態によれば、作業対象物の画像認識を容易にすることができる。 Further, the object recognition unit 30b of the safety determination device 30 according to the present embodiment recognizes that the work object exists in a predetermined image area in the captured image. According to this embodiment, it is possible to facilitate image recognition of a work object.

又、本実施形態に係る安全判定装置30の条件判定部30eは、手認識部30cが撮影画像に基づいて作業員の手の色が所定の色であると認識した場合、所定の条件を満たしていると判定する。本実施形態によれば、作業員が絶縁手袋などの防護具を装着していない状況での作業を防止できる。 Further, the condition determination unit 30e of the safety determination device 30 according to the present embodiment satisfies the predetermined condition when the hand recognition unit 30c recognizes that the color of the worker's hand is a predetermined color based on the captured image. It is determined that it is. According to this embodiment, it is possible to prevent the work in a situation where the worker is not wearing protective equipment such as insulating gloves.

又、本実施形態に係る安全判定装置30の条件判定部30eは、手認識部30cが撮影画像に基づいて作業員の手の形が所定の形であることを認識していない場合、所定の条件を満たしていると判定する。本実施形態によれば、作業員の作業手順中における所定の動作が確認できないことを判定するため、作業員に作業手順を順守させることができる。 Further, when the condition determination unit 30e of the safety determination device 30 according to the present embodiment does not recognize that the shape of the worker's hand is a predetermined shape based on the captured image, the hand recognition unit 30e is predetermined. It is determined that the conditions are satisfied. According to the present embodiment, since it is determined that a predetermined operation cannot be confirmed during the work procedure of the worker, the worker can be made to comply with the work procedure.

又、本実施形態に係る安全判定装置30の条件判定部30eは、物認識部30bが撮影画像に基づいて所定の設備を認識した場合、所定の条件を満たしていると判定する。本実施形態によれば、作業員が立ち入ってはいけない場所への入場を防止することができる。 Further, the condition determination unit 30e of the safety determination device 30 according to the present embodiment determines that the predetermined condition is satisfied when the object recognition unit 30b recognizes the predetermined equipment based on the captured image. According to this embodiment, it is possible to prevent workers from entering a place where they should not enter.

又、本実施形態に係る安全判定装置30は作業員が装着する所定のセンサー20から出力される信号を受信する信号受信部30fをさらに備え、安全判定装置30の条件判定部30eは信号受信部30fがセンサー20から受信する信号に基づいて、所定の条件を満たしているか否かを判定する。本実施形態によれば、作業員の体調に応じて安全状態での作業か危険状態での作業かを判定することができる。 Further, the safety determination device 30 according to the present embodiment further includes a signal receiving unit 30f for receiving a signal output from a predetermined sensor 20 worn by the worker, and the condition determination unit 30e of the safety determination device 30 is a signal receiving unit. Based on the signal received from the sensor 20 by the 30f, it is determined whether or not the predetermined condition is satisfied. According to this embodiment, it is possible to determine whether the work is in a safe state or a dangerous state according to the physical condition of the worker.

又、本実施形態に係る安全判定装置30の物認識部30bは、撮影画像の画像領域内において作業対象物とは異なる判定対象物を画像認識し、行為判定部30dは、撮影画像の画像領域内において判定対象物と手とが重なっているか否かを判定し、条件判定部30eは、行為判定部30dが作業対象物と作業員の手とが重なっていると判定した後に、判定対象物と作業員の手との重なりを認識できない場合、所定の条件を満たしていると判定する。作業対象物に対して所定の動作をしたことと、判定対象物に対して所定の動作をしたことと、が満たされていない場合、作業員が危険状態で作業していることを判定できる。 Further, the object recognition unit 30b of the safety determination device 30 according to the present embodiment image-recognizes a determination object different from the work object in the image area of the captured image, and the action determination unit 30d is an image area of the captured image. The condition determination unit 30e determines whether or not the determination object and the hand overlap with each other, and the condition determination unit 30e determines that the work object and the worker's hand overlap with each other, and then the determination object 30e. If the overlap between the worker's hand and the worker's hand cannot be recognized, it is determined that the predetermined condition is satisfied. If the predetermined operation for the work object and the predetermined operation for the determination object are not satisfied, it can be determined that the worker is working in a dangerous state.

尚、上記の実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良され得るとともに、本発明にはその等価物も含まれる。 It should be noted that the above embodiment is for facilitating the understanding of the present invention, and is not for limiting the interpretation of the present invention. The present invention can be modified and improved without departing from the spirit thereof, and the present invention also includes an equivalent thereof.

1 安全判定システム
10 カメラ
20 センサー
30 安全判定装置
30a 画像入力部
30b 物認識部
30c 手認識部
30d 行為判定部
30e 条件判定部
30f 信号受信部
40 監視カメラ
50 監視装置
50a 監視画像入力部
50b 対象認識部
50c 人認識部
50d 監視判定部
1 Safety judgment system 10 Camera 20 Sensor 30 Safety judgment device 30a Image input unit 30b Object recognition unit 30c Hand recognition unit 30d Action judgment unit 30e Condition judgment unit 30f Signal reception unit 40 Surveillance camera 50 Surveillance device 50a Surveillance image input unit 50b Target recognition Unit 50c Person recognition unit 50d Monitoring and judgment unit

Claims (10)

作業員の視線に向けて撮影するカメラで撮影された画像を入力する画像入力部と、
前記画像の画像領域内において作業対象物を画像認識する物認識部と、
前記画像の画像領域内において前記作業員の手を画像認識する手認識部と、
前記画像の画像領域内において前記作業対象物と前記手とが重なっているか否かを判定する行為判定部と、
前記行為判定部が前記作業対象物と前記作業員の手とが重なっていると判定した場合、前記作業員が前記作業対象物との関係において、作業の安全が確保されていない状況を示す所定の条件を満たしているか否かを判定する条件判定部と、
を備えることを特徴とする安全判定装置。
An image input unit that inputs images taken by a camera that shoots toward the worker's line of sight,
An object recognition unit that recognizes a work object in the image area of the image,
A hand recognition unit that recognizes the worker's hand in the image area of the image,
An action determination unit that determines whether or not the work object and the hand overlap in the image area of the image.
When the action determination unit determines that the work object and the worker's hand overlap, a predetermined indicating a situation in which the worker does not ensure work safety in relation to the work object. A condition judgment unit that determines whether or not the conditions of
A safety judgment device characterized by being provided with.
前記物認識部は、前記画像における予め定められた画像領域内に前記作業対象物が存在することを認識する
ことを特徴とする請求項1に記載の安全判定装置。
The safety determination device according to claim 1, wherein the object recognition unit recognizes that the work object exists in a predetermined image area in the image.
前記条件判定部は、前記手認識部が前記画像に基づいて前記作業員の手の色が所定の色であると認識した場合、前記所定の条件を満たしていると判定する
ことを特徴とする請求項1または請求項2に記載の安全判定装置。
The condition determination unit is characterized in that when the hand recognition unit recognizes that the color of the worker's hand is a predetermined color based on the image, it determines that the predetermined condition is satisfied. The safety determination device according to claim 1 or 2.
前記条件判定部は、前記手認識部が前記画像に基づいて前記作業員の手の形が所定の形であることを認識していない場合、前記所定の条件を満たしていると判定する
ことを特徴とする請求項1または請求項2に記載の安全判定装置。
When the hand recognition unit does not recognize that the shape of the worker's hand is a predetermined shape based on the image, the condition determination unit determines that the predetermined condition is satisfied. The safety determination device according to claim 1 or 2.
前記条件判定部は、前記物認識部が前記画像に基づいて所定の設備を認識した場合、前記所定の条件を満たしていると判定する
ことを特徴とする請求項1または請求項2に記載の安全判定装置。
The first or second aspect of the present invention, wherein the condition determination unit determines that the predetermined condition is satisfied when the object recognition unit recognizes the predetermined equipment based on the image. Safety judgment device.
前記作業員が装着する所定のセンサーから出力される信号を受信する信号受信部
をさらに備え、
前記条件判定部は、前記信号受信部が前記センサーから受信する前記信号に基づいて、前記所定の条件を満たしているか否かを判定する
ことを特徴とする請求項1または請求項2に記載の安全判定装置。
Further equipped with a signal receiving unit for receiving a signal output from a predetermined sensor worn by the worker.
The first or second aspect of the present invention, wherein the condition determination unit determines whether or not the predetermined condition is satisfied based on the signal received from the sensor by the signal reception unit. Safety judgment device.
前記物認識部は、前記画像の画像領域内において前記作業対象物とは異なる判定対象物を画像認識し、
前記行為判定部は、前記画像の画像領域内において前記判定対象物と前記手とが重なっているか否かを判定し、
前記条件判定部は、前記行為判定部が前記作業対象物と前記作業員の手とが重なっていると判定した後に、前記判定対象物と前記作業員の手との重なりを認識できない場合、前記所定の条件を満たしていると判定する
ことを特徴とする請求項1または請求項2に記載の安全判定装置。
The object recognition unit image-recognizes a determination object different from the work object in the image area of the image.
The action determination unit determines whether or not the determination object and the hand overlap in the image area of the image.
If the condition determination unit cannot recognize the overlap between the determination object and the worker's hand after the action determination unit determines that the work object and the worker's hand overlap, the condition determination unit may not recognize the overlap. The safety determination device according to claim 1 or 2, wherein it is determined that a predetermined condition is satisfied.
請求項1〜請求項7の何れかに記載の安全判定装置と、
前記作業員が装着し、前記作業員の視線に向けて撮影する前記カメラと、
を備えた安全判定システム。
The safety determination device according to any one of claims 1 to 7.
The camera, which is worn by the worker and takes a picture toward the worker's line of sight.
Safety judgment system equipped with.
前記作業員を監視する監視員の視線に向けて撮影する監視カメラで撮影された監視画像を入力する監視画像入力部と、
前記監視画像の画像領域内において所定の対象物を画像認識する対象認識部と、
前記監視画像の画像領域内において前記作業員を画像認識する人認識部と、
前記画像の画像領域内において、前記対象物と前記作業員とが重なっているか否かを判定する監視判定部と、
を有する監視装置をさらに備え、
前記安全判定装置の条件判定部は、
前記行為判定部が前記作業対象物と前記作業員の手とが重なっていると判定した場合に、前記監視判定部が前記対象物と前記作業員とが重なっていると判定した場合、前記所定の条件を満たしているか否かを判定する
ことを特徴とする請求項8に記載の安全判定システム。
A surveillance image input unit for inputting a surveillance image taken by a surveillance camera that shoots toward the line of sight of the observer who monitors the worker, and a monitoring image input unit.
An object recognition unit that recognizes a predetermined object in the image area of the surveillance image,
A person recognition unit that recognizes the worker in the image area of the surveillance image,
A monitoring determination unit that determines whether or not the object and the worker overlap in the image area of the image.
Further equipped with a monitoring device
The condition determination unit of the safety determination device is
When the action determination unit determines that the work object and the worker's hand overlap, and the monitoring determination unit determines that the object and the worker overlap, the predetermined The safety determination system according to claim 8, wherein it is determined whether or not the condition of the above is satisfied.
コンピュータが
作業員の視線に向けて撮影するカメラで撮影された画像を入力する画像入力ステップと、
前記画像の画像領域内において作業対象物を画像認識する物認識ステップと、
前記画像の画像領域内において前記作業員の手を画像認識する手認識ステップと、
前記画像の画像領域内において前記作業対象物と前記手とが重なっているか否かを判定する行為判定ステップと、
前記行為判定ステップで前記作業対象物と前記作業員の手とが重なっていると判定した場合、前記作業員が前記作業対象物との関係において、作業の安全が確保されていない状況を示す所定の条件を満たしているか否かを判定する条件判定ステップと、
を実行する安全判定方法。
An image input step to input an image taken by a camera taken by a computer toward the worker's line of sight,
An object recognition step of recognizing a work object in the image area of the image,
A hand recognition step of recognizing the worker's hand in the image area of the image,
An action determination step for determining whether or not the work object and the hand overlap in the image area of the image, and
When it is determined in the action determination step that the work object and the worker's hand overlap, a predetermined indicating a situation in which the worker does not ensure work safety in relation to the work object. Condition judgment step to judge whether or not the condition of
Safety judgment method to execute.
JP2018028524A 2018-02-21 2018-02-21 Safety judgment device, safety judgment system, safety judgment method Active JP6977607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018028524A JP6977607B2 (en) 2018-02-21 2018-02-21 Safety judgment device, safety judgment system, safety judgment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018028524A JP6977607B2 (en) 2018-02-21 2018-02-21 Safety judgment device, safety judgment system, safety judgment method

Publications (2)

Publication Number Publication Date
JP2019144861A JP2019144861A (en) 2019-08-29
JP6977607B2 true JP6977607B2 (en) 2021-12-08

Family

ID=67773826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018028524A Active JP6977607B2 (en) 2018-02-21 2018-02-21 Safety judgment device, safety judgment system, safety judgment method

Country Status (1)

Country Link
JP (1) JP6977607B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4016376A1 (en) * 2020-12-18 2022-06-22 Toyota Jidosha Kabushiki Kaisha Computer-implemented process monitoring method
DE112021006095T5 (en) * 2021-01-28 2023-08-31 Mitsubishi Electric Corporation EMPLOYMENT IDENTIFICATION DEVICE, EMPLOYMENT IDENTIFICATION METHOD AND EMPLOYMENT IDENTIFICATION PROGRAM

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05113088A (en) * 1991-10-21 1993-05-07 Matsushita Electric Ind Co Ltd Automatic switching device
JPH09234733A (en) * 1996-03-01 1997-09-09 Mitsubishi Cable Ind Ltd Safety device of roll kneader
JP4784752B2 (en) * 2006-06-30 2011-10-05 サクサ株式会社 Image processing device
JP2010185155A (en) * 2009-02-13 2010-08-26 Tanizawa Seisakusho Ltd Helmet with index-projecting means
KR20130071119A (en) * 2011-12-20 2013-06-28 현대중공업 주식회사 A system and method for display dangerous area using impleminting augminted reality by safety glasses
JP2014115700A (en) * 2012-12-06 2014-06-26 Nec Corp Confirmation requirement degree determination device, confirmation requirement degree determination method, and program
JP6364747B2 (en) * 2013-11-14 2018-08-01 オムロン株式会社 Monitoring device and monitoring method
US10147293B2 (en) * 2014-04-16 2018-12-04 Empire Technology Development Llc Computer-based safety control
JP2017041064A (en) * 2015-08-19 2017-02-23 株式会社東芝 Watching device, method and assist device

Also Published As

Publication number Publication date
JP2019144861A (en) 2019-08-29

Similar Documents

Publication Publication Date Title
KR101715001B1 (en) Display system for safety evaluation in construction sites using of wearable device, and thereof method
KR101729327B1 (en) A monitoring system for body heat using the dual camera
KR101806400B1 (en) A surveillance system for body heat by the dual camera using the black body
CN110733983B (en) Tower crane safety control system and control method thereof
JP6977607B2 (en) Safety judgment device, safety judgment system, safety judgment method
CN105335727A (en) Identity identification system and method based on image and somatosensory analysis
CN211509189U (en) Electric power operation field supervision equipment and system
Joshi et al. A fall detection and alert system for an elderly using computer vision and Internet of Things
CN111931652A (en) Dressing detection method and device and monitoring terminal
CN112818758A (en) Monitoring method, system and device for electric power construction site and storage medium
CN112595730A (en) Cable breakage identification method and device and computer equipment
CN114155492A (en) High-altitude operation safety belt hanging rope high-hanging low-hanging use identification method and device and electronic equipment
CN105354552A (en) Human face identification and expression analysis based online monitoring system and method
CN109800656B (en) Positioning method and related product
CN117133110B (en) Gymnasium safety risk early warning method and system based on machine vision
CN113989711A (en) Power distribution construction safety tool use identification method and system
CN111353326A (en) In-vivo detection method based on multispectral face difference image
CN110751125A (en) Wearing detection method and device
WO2022121886A1 (en) Method and apparatus for identifying dress code for electric power operations
KR20130134334A (en) Mover tracking system and a method using the same
CN115690687A (en) Safe wearing standard detection system based on deep learning technology
CN115830626A (en) Wearing detection method, wearing detection equipment and computer-readable storage medium
WO2021161651A1 (en) Workload analysis device, workload analysis method, and program
JP7156152B2 (en) Danger prediction method and danger prediction device
CN108022411A (en) Monitoring system based on image procossing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211025

R150 Certificate of patent or registration of utility model

Ref document number: 6977607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150