JP2018081549A - Model creation device, terminal device, hazardous place discovery system, and program - Google Patents

Model creation device, terminal device, hazardous place discovery system, and program Download PDF

Info

Publication number
JP2018081549A
JP2018081549A JP2016224081A JP2016224081A JP2018081549A JP 2018081549 A JP2018081549 A JP 2018081549A JP 2016224081 A JP2016224081 A JP 2016224081A JP 2016224081 A JP2016224081 A JP 2016224081A JP 2018081549 A JP2018081549 A JP 2018081549A
Authority
JP
Japan
Prior art keywords
dangerous
terminal device
model
work site
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016224081A
Other languages
Japanese (ja)
Inventor
慧 古川
Kei Furukawa
慧 古川
裕貴 宮下
Yuki Miyashita
裕貴 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimizu Construction Co Ltd
Shimizu Corp
Original Assignee
Shimizu Construction Co Ltd
Shimizu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimizu Construction Co Ltd, Shimizu Corp filed Critical Shimizu Construction Co Ltd
Priority to JP2016224081A priority Critical patent/JP2018081549A/en
Publication of JP2018081549A publication Critical patent/JP2018081549A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a model creation device, a terminal device, a hazardous place discovery system, and a program that can mechanically discover a hazardous place at a work site.SOLUTION: The model creation device includes a model creating unit that executes machine learning using learning data in which information indicating a hazardous event at a hazardous place is affixed to an image of the hazardous place at a work site, thereby creating a hazardous place detection model for detecting the hazardous place.SELECTED DRAWING: Figure 1

Description

本発明は、モデル作成装置、端末装置、危険箇所発見システム及びプログラムに関する。   The present invention relates to a model creation device, a terminal device, a dangerous spot finding system, and a program.

作業現場において、現場監督は、作業員が安全に作業できるように、作業現場に危険な箇所が無いか否かを日々目視で確認する必要がある。ただし、現場監督の業務は多岐にわたり繁忙であるため、危険箇所を見逃してしまう場合が想定される。そのため、危険箇所を現場監督が直接視認しなくても機械的に発見する方法が必要となる。   At the work site, the site supervisor needs to visually check whether there are any dangerous parts on the work site every day so that workers can work safely. However, because the field supervision work is wide-ranging and busy, there may be cases where a dangerous spot is missed. Therefore, there is a need for a method for mechanically detecting the dangerous location without the site supervisor directly viewing it.

特開2003−242202号公報Japanese Patent Laid-Open No. 2003-242202

例えば、特許文献1に記載されているように、従来から建設現場における作業手順に対する危険を予知する方法は知られているが、建設現場等の作業現場における危険箇所を検出する方法は知られていない。   For example, as described in Patent Document 1, a method for predicting a danger to a work procedure at a construction site is conventionally known, but a method for detecting a dangerous point at a work site such as a construction site is known. Absent.

本発明は、このような事情に鑑みてなされたもので、その目的は、作業現場における危険箇所を機械的に発見可能なモデル作成装置、端末装置、危険箇所発見システム及びプログラムを提供することである。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide a model creation device, a terminal device, a dangerous spot detection system, and a program that can mechanically detect a dangerous spot at a work site. is there.

本発明の一態様は、作業現場における危険箇所の画像に当該危険箇所の危険事象を示す情報が付された学習データを用いて機械学習を実行することにより、当該危険箇所を検出するための危険箇所検出モデルを作成するモデル作成部を備えるモデル作成装置である。   One aspect of the present invention is a risk for detecting a dangerous location by executing machine learning using learning data in which information indicating a dangerous event at the dangerous location is attached to an image of a dangerous location at a work site. It is a model creation apparatus provided with the model creation part which creates a location detection model.

本発明の一態様は、上述のモデル作成装置であって、前記危険箇所検出モデルは、前記危険事象を引き起こすリスク要因がモデル化されたものである。   One aspect of the present invention is the model creation device described above, wherein the risk location detection model is a model of risk factors that cause the risk event.

本発明の一態様は、上述のモデル作成装置であって、前記モデル作成部は、畳み込みニューラルネットワークを用いたディープラーニングにより前記機械学習を実行する。   One aspect of the present invention is the above-described model creation device, in which the model creation unit performs the machine learning by deep learning using a convolutional neural network.

本発明の一態様は、作業現場を撮像画像として撮像する撮像部と、前記撮像画像を表示する表示部と、上述のモデル作成装置により生成された前記危険箇所検出モデルを用いて、前記表示部に表示された作業現場の撮像画像における危険箇所の有無を検出する検出部と、を備える端末装置である。   According to one aspect of the present invention, the display unit includes an imaging unit that captures a work site as a captured image, a display unit that displays the captured image, and the dangerous point detection model generated by the model creation device. And a detection unit that detects the presence or absence of a dangerous spot in the captured image of the work site displayed on the terminal.

本発明の一態様は、上述の端末装置であって、前記モデル化したリスク要因に該当する箇所が存在すると判定された場合には、当該箇所が前記危険箇所であることを示す警告情報を前記表示部に表示させる表示制御部をさらに備える。   One aspect of the present invention is the terminal device described above, and when it is determined that there is a location corresponding to the modeled risk factor, warning information indicating that the location is the dangerous location is provided as the warning information. A display control unit to be displayed on the display unit is further provided.

本発明の一態様は、上述の端末装置であって、前記危険箇所検出モデルは、前記危険事象を引き起こすリスク要因がモデル化されたものであって、前記端末装置は、前記表示部に表示された作業現場の撮像画像に、前記モデル化されたリスク要因に該当する箇所が存在するか否かを判定する判定部と、前記モデル化したリスク要因に該当する箇所が存在すると判定された場合には、当該箇所が前記危険箇所であることを示す警告情報を前記表示部に表示させる表示制御部と、をさらに備える。   One aspect of the present invention is the above-described terminal device, wherein the dangerous point detection model is a model of a risk factor that causes the dangerous event, and the terminal device is displayed on the display unit. A determination unit that determines whether or not a location corresponding to the modeled risk factor exists in the captured image of the work site, and a case where it is determined that a location corresponding to the modeled risk factor exists Further includes a display control unit that causes the display unit to display warning information indicating that the part is the dangerous part.

本発明の一態様は、上述の端末装置であって、前記表示制御部は、前記モデル化されたリスク要因に該当する箇所が存在すると判定された場合には、当該箇所に前記警告情報を表示する。   One aspect of the present invention is the above-described terminal device, wherein the display control unit displays the warning information at the location when it is determined that the location corresponding to the modeled risk factor exists. To do.

本発明の一態様は、上述の端末装置であって、前記警告情報は、前記リスク要因により引き起こされる前記危険事象の情報である。   One aspect of the present invention is the above-described terminal device, wherein the warning information is information on the dangerous event caused by the risk factor.

本発明の一態様は、上述のモデル作成装置と、上述の端末装置と、を備える危険箇所発見システムである。   One aspect of the present invention is a dangerous spot finding system including the above-described model creation device and the above-described terminal device.

本発明の一態様は、コンピュータを、上述のモデル作成装置として機能させるためのプログラムである。   One embodiment of the present invention is a program for causing a computer to function as the above-described model creation device.

本発明の一態様は、コンピュータを、上述の端末装置として機能させるためのプログラムである。   One embodiment of the present invention is a program for causing a computer to function as the terminal device described above.

以上説明したように、本発明によれば、作業現場における危険箇所を機械的に発見することができる。   As described above, according to the present invention, a dangerous point at a work site can be found mechanically.

本発明の一実施形態に係る危険箇所発見システム1の概略構成の一例を示す図である。It is a figure which shows an example of schematic structure of the dangerous spot discovery system 1 which concerns on one Embodiment of this invention. 本発明の一実施形態に係る学習データの一例を示す図である。It is a figure which shows an example of the learning data which concern on one Embodiment of this invention. 本発明の一実施形態に係る端末装置5を用いて、現場監督が作業現場を撮像しているイメージ図である。It is an image figure where the field supervisor is imaging the work site using the terminal device 5 which concerns on one Embodiment of this invention. 本発明の一実施形態に係る危険箇所発見システム1の危険箇所を発見する処理の流れについて、説明する図である。It is a figure explaining the flow of the process which discovers the dangerous spot of the dangerous spot discovery system 1 which concerns on one Embodiment of this invention.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。なお、図面において、同一又は類似の部分には同一の符号を付して、重複する説明を省く場合がある。また、図面における要素の形状及び大きさなどはより明確な説明のために誇張されることがある。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention. In the drawings, the same or similar parts may be denoted by the same reference numerals and redundant description may be omitted. In addition, the shape and size of elements in the drawings may be exaggerated for a clearer description.

明細書の全体において、ある部分がある構成要素を「含む」、「有する」や「備える」とする時、これは、特に反対の記載がない限り、他の構成要素を除くものではなく、他の構成要素をさらに含むことができるということを意味する。   In the entire specification, when a part includes a component, “includes”, “have”, or “comprises”, this does not exclude other components unless otherwise stated. This means that it can further include the following components.

本発明の一実施形態に係る危険箇所発見システムは、例えば、ユーザが利用する端末装置で撮像された建設現場等の作業現場の画像から、当該作業現場の危険箇所を発見できるシステムである。換言すれば、本発明の一実施形態に係る危険箇所発見システムは、例えば、ユーザが利用する端末装置で撮像された建設現場等の作業現場の画像から、当該作業現場のリスクを評価できるシステムである。ここで、リスクとは、危険事象を示す。すなわち、作業現場のリスクを評価するとは、作業現場において、危険箇所が存在する場合に、その危険箇所の危険事象を特定することである。
以下、本発明の一実施形態に係る危険箇所発見システム1を、図面を用いて説明する。
The dangerous spot finding system according to an embodiment of the present invention is a system that can find a dangerous spot at a work site from an image of a work site such as a construction site taken by a terminal device used by a user. In other words, the dangerous spot finding system according to an embodiment of the present invention is a system that can evaluate the risk of the work site from, for example, an image of the work site such as a construction site taken by a terminal device used by a user. is there. Here, the risk indicates a dangerous event. That is, to evaluate the risk at the work site is to specify a dangerous event at the dangerous location when the dangerous location exists at the work site.
Hereinafter, a dangerous spot finding system 1 according to an embodiment of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る危険箇所発見システム1の概略構成の一例を示す図である。図1に示すように、危険箇所発見システム1は、撮像装置2、通信ネットワーク3、学習サーバ4及び端末装置5を備える。学習サーバ4は、モデル作成装置の一例であってよい。   FIG. 1 is a diagram showing an example of a schematic configuration of a dangerous spot finding system 1 according to an embodiment of the present invention. As shown in FIG. 1, the dangerous spot finding system 1 includes an imaging device 2, a communication network 3, a learning server 4, and a terminal device 5. The learning server 4 may be an example of a model creation device.

撮像装置2は、通信ネットワーク3を介して学習サーバ4に情報を送信する。
撮像装置2は、建設現場等の作業現場を撮像する。撮像装置2は、人が持つカメラでもよいし、監視カメラなどの定点カメラであってもよい。例えば、撮像装置2は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、及び撮像素子への被写体像の結像を制御するためのレンズ等各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。また、撮像装置2が建設現場等の作業現場を撮像する画像は、静止画でもよいし動画でもよい。
撮像装置2は、撮像した画像を、通信ネットワーク3を介して学習サーバ4に送信する。
The imaging device 2 transmits information to the learning server 4 via the communication network 3.
The imaging device 2 images a work site such as a construction site. The imaging device 2 may be a camera held by a person or a fixed point camera such as a surveillance camera. For example, the imaging apparatus 2 is implemented using an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) and various members such as a lens for controlling the formation of a subject image on the imaging element. It is an apparatus that images a space and generates a captured image. Further, the image captured by the imaging device 2 at a work site such as a construction site may be a still image or a moving image.
The imaging device 2 transmits the captured image to the learning server 4 via the communication network 3.

通信ネットワーク3は、無線通信の伝送路であってもよく、有線通信であってもよく、無線通信の伝送路及び有線通信の伝送路の組み合わせであってもよい。また、通信ネットワーク3は、携帯電話回線網などの移動体通信網、無線パケット通信網、インターネット及び専用回線又はそれらの組み合わせであってもよい。
なお、ユーザが可搬可能な記録媒体を利用して、撮像装置2が撮像した画像を学習サーバ4に移すことが可能であれば、撮像装置2と学習サーバ4との通信ネットワーク3は省略可能である。例えば、この記憶媒体は、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USB(Universal Serial Bus)メモリ、又はメモリカードなどの外部装着型の記憶媒体である。
The communication network 3 may be a wireless communication transmission line, a wired communication, or a combination of a wireless communication transmission line and a wired communication transmission line. The communication network 3 may be a mobile communication network such as a mobile phone line network, a wireless packet communication network, the Internet, a dedicated line, or a combination thereof.
Note that the communication network 3 between the imaging device 2 and the learning server 4 can be omitted if the image captured by the imaging device 2 can be transferred to the learning server 4 using a portable recording medium. It is. For example, the storage medium is an externally mounted storage medium such as a hard disk, a magnetic disk, a magneto-optical disk, an optical disk, a USB (Universal Serial Bus) memory, or a memory card.

学習サーバ4は、通信ネットワーク3を介して端末装置5に情報を送信する。
学習サーバ4は、通信部41、処理部42及びモデル作成部43を備える。
通信部41は、通信ネットワーク3を介して、撮像装置2及び端末装置5と無線又は有線通信する。
処理部42は、通信部41を介して撮像装置2からの画像を取得する。そして、処理部42は、撮像装置2から取得した画像を前処理する。ここで、前処理とは、後述の機械学習しやすいように画像を処理することである。
例えば、処理部42は、撮像装置2から取得した複数の画像から危険箇所が写っている画像を抽出する。また、処理部42は、抽出した危険箇所が写っている画像から、その危険箇所の危険事象を引き起こすリスク要因を特徴量として、その画像ごとに抽出する。
The learning server 4 transmits information to the terminal device 5 via the communication network 3.
The learning server 4 includes a communication unit 41, a processing unit 42, and a model creation unit 43.
The communication unit 41 performs wireless or wired communication with the imaging device 2 and the terminal device 5 via the communication network 3.
The processing unit 42 acquires an image from the imaging device 2 via the communication unit 41. Then, the processing unit 42 preprocesses the image acquired from the imaging device 2. Here, the preprocessing is to process an image so as to facilitate machine learning described later.
For example, the processing unit 42 extracts an image in which a dangerous spot is shown from a plurality of images acquired from the imaging device 2. Further, the processing unit 42 extracts, for each image, a risk factor that causes a dangerous event at the dangerous part as a feature amount from the extracted image showing the dangerous part.

モデル作成部43は、処理部42に前処理された画像を学習データとして用いて機械学習を実行することにより、作業現場における危険箇所を検出するための危険箇所検出モデルを作成する。本実施形態における機械学習は、例えば、教師あり学習である。図2は、本発明の一実施形態に係る学習データの一例を示す図である。   The model creation unit 43 creates a dangerous spot detection model for detecting a dangerous spot at the work site by executing machine learning using the image preprocessed by the processing unit 42 as learning data. Machine learning in the present embodiment is supervised learning, for example. FIG. 2 is a diagram illustrating an example of learning data according to an embodiment of the present invention.

図2に示すように、学習データは、作業現場における危険箇所の画像(入力画像)に当該危険箇所の危険事象を示す情報(正解ラベル)が付されたデータである。例えば、処理部42に前処理された入力画像に開口部が写っている場合には、その画像に、危険事象を「墜落」とする正解ラベルが付されている。また、例えば、処理部42に前処理された入力画像に安全帯を装着していない作業員が写っている場合には、その画像に、危険事象を「安全帯無し」とする正解ラベルが付されている。また、例えば、処理部42に前処理された入力画像に、吊り荷を吊りあげているクレーン作業機械が写っている場合には、その画像に、危険事象を「吊り荷落下」とする正解ラベルが付されている。また、例えば、処理部42に前処理された入力画像に、物が積み上がっている状態が写っている場合には、その画像に、危険事象を「倒壊」とする正解ラベルが付されている。なお、この入力画像に危険事象を示す正解ラベルを付す処理は、ユーザにより行われてもよい。この場合には、例えば、モデル作成部43に入力部を設ける。この入力部は、ユーザから、ユーザ指示を受け付ける。このユーザ指示は、どの入力画像にどの危険事象の正解ラベルを付すかを指示する。なお、この入力部は、キーボード、タッチパネル又はマイクであってよい。   As shown in FIG. 2, the learning data is data in which information (correct answer label) indicating a dangerous event at the dangerous location is attached to an image (input image) of the dangerous location at the work site. For example, when an opening is reflected in the input image preprocessed by the processing unit 42, a correct answer label indicating that the dangerous event is “falling” is attached to the image. For example, when a worker who is not wearing a safety belt is shown in the input image pre-processed by the processing unit 42, a correct answer label indicating that the dangerous event is “no safety belt” is attached to the image. Has been. Further, for example, when a crane work machine that lifts a suspended load is shown in the input image preprocessed by the processing unit 42, the correct label indicating that the dangerous event is “dropped suspended load” in the image. Is attached. For example, when an input image preprocessed by the processing unit 42 shows a state in which objects are piled up, a correct answer label indicating that the dangerous event is “collapse” is attached to the image. . The process of attaching a correct answer label indicating a dangerous event to the input image may be performed by the user. In this case, for example, an input unit is provided in the model creation unit 43. The input unit receives a user instruction from the user. This user instruction instructs which danger event correct answer label is attached to which input image. The input unit may be a keyboard, a touch panel, or a microphone.

モデル作成部43は、作業現場における危険箇所の画像である入力画像に当該危険箇所の危険事象を示す情報である正解ラベルが付された学習データを用いて機械学習を実行することにより、当該危険箇所を検出するための危険箇所検出モデルを作成する。本実施形態では、モデル作成部43は、畳み込みニューラルネットワークを用いたディープラーニングにより機械学習を実行する。   The model creation unit 43 performs machine learning using learning data in which an input image that is an image of a dangerous spot at a work site is attached with a correct answer label that is information indicating a dangerous event of the dangerous spot. Create a dangerous spot detection model to detect a spot. In the present embodiment, the model creation unit 43 performs machine learning by deep learning using a convolutional neural network.

例えば、危険箇所検出モデルは、危険事象を引き起こすリスク要因がモデル化されたものである。この危険箇所検出モデルは、種々の危険事象ごとに、リスク要因がモデル化されている。例えば、危険事象が「墜落」とする場合には、そのリスク要因は、開口部があることである。例えば、危険事象が「安全帯無し」とする場合には、そのリスク要因は、作業員が安全帯を装着していないことである。例えば、危険事象が「吊り荷落下」とする場合には、そのリスク要因は、吊り荷を吊りあげているクレーン作業機械があることである。例えば、危険事象が「倒壊」とする場合には、そのリスク要因は、物が積み上がっている状態があることである。   For example, the risk location detection model is a model of risk factors that cause a dangerous event. In this dangerous spot detection model, risk factors are modeled for each of various dangerous events. For example, when the dangerous event is “fall”, the risk factor is that there is an opening. For example, when the dangerous event is “no safety belt”, the risk factor is that the worker does not wear the safety belt. For example, when the dangerous event is “dropping a suspended load”, the risk factor is that there is a crane working machine that lifts the suspended load. For example, when the dangerous event is “collapse”, the risk factor is that there is a state where things are piled up.

モデル作成部43は、作成した危険箇所検出モデルを、通信ネットワーク3を介して端末装置5に送信する。この場合において、危険事象の情報は、危険箇所検出モデルに含まれている。なお、ユーザが可搬可能な記録媒体を利用して、モデル作成部43が作成した危険箇所検出モデルを端末装置5に移すことが可能であれば、モデル作成部43(学習サーバ4)と端末装置5との通信ネットワーク3は省略可能である。例えば、この記憶媒体は、ハードディスク、磁気ディスク、光磁気ディスク、光ディスク、USBメモリ、又はメモリカードなどの外部装着型の記憶媒体である。   The model creation unit 43 transmits the created dangerous spot detection model to the terminal device 5 via the communication network 3. In this case, the information on the dangerous event is included in the dangerous point detection model. If the dangerous part detection model created by the model creation unit 43 can be transferred to the terminal device 5 using a portable recording medium, the model creation unit 43 (learning server 4) and the terminal The communication network 3 with the device 5 can be omitted. For example, the storage medium is an externally mounted storage medium such as a hard disk, a magnetic disk, a magneto-optical disk, an optical disk, a USB memory, or a memory card.

端末装置5は、例えば、ユーザである現場監督が利用する端末である。例えば、端末装置5は、スマートフォン等の携帯電話、タブレット端末、メガネ型ウェアラブルデバイス及びPC(Personal Computer)等である。   The terminal device 5 is, for example, a terminal used by a site supervisor who is a user. For example, the terminal device 5 is a mobile phone such as a smartphone, a tablet terminal, a glasses-type wearable device, a PC (Personal Computer), or the like.

図1に示すように、端末装置5は、通信部51、撮像部52、検出部53、表示制御部54及び表示部55を備える。
通信部51は、通信ネットワーク3を介して、学習サーバ4と無線又は有線通信する。
撮像部52は、作業現場を撮像画像として撮像する。そして、表示部55は、撮像部52が撮像した撮像画像を表示する。
As illustrated in FIG. 1, the terminal device 5 includes a communication unit 51, an imaging unit 52, a detection unit 53, a display control unit 54, and a display unit 55.
The communication unit 51 performs wireless or wired communication with the learning server 4 via the communication network 3.
The imaging unit 52 captures the work site as a captured image. The display unit 55 displays the captured image captured by the imaging unit 52.

検出部53は、通信部51を介してモデル作成部43から取得した危険箇所検出モデルを用いて、表示部55に表示された作業現場の撮像画像における危険箇所の有無を検出する。
例えば、検出部53は、表示部55に表示された作業現場の撮像画像において、危険箇所検出モデルでモデル化されたリスク要因に該当する箇所が存在するか否かを判定することで、表示部55に表示された作業現場の撮像画像における危険箇所の有無を検出する。すなわち、検出部53は、表示部55に表示された作業現場の撮像画像において、危険箇所検出モデルでモデル化されたリスク要因に該当する箇所が存在する場合には、表示部55に表示された作業現場の撮像画像に危険箇所が存在すると判定する。
The detection unit 53 detects the presence or absence of a dangerous location in the captured image of the work site displayed on the display unit 55 using the dangerous location detection model acquired from the model creation unit 43 via the communication unit 51.
For example, the detection unit 53 determines in the captured image of the work site displayed on the display unit 55 whether or not there is a location corresponding to the risk factor modeled by the dangerous location detection model. The presence / absence of a dangerous spot in the captured image of the work site displayed at 55 is detected. That is, the detection unit 53 is displayed on the display unit 55 when there is a part corresponding to the risk factor modeled in the dangerous part detection model in the captured image of the work site displayed on the display unit 55. It is determined that a dangerous location exists in the captured image at the work site.

表示制御部54は、検出部53によりリスク要因に該当する箇所が存在すると判定された場合には、当該箇所に警告情報6を表示する。この場合に、警告情報とは、そのリスク要因により引き起こされる危険事象の情報である。例えば、検出部53は、表示部55に表示された作業現場の撮像画像に、危険箇所検出モデルでモデル化されたリスク要因、例えば開口部が存在する箇所が存在すると判定した場合には、その箇所に対応する表示部55の表示画面に、「墜落」の文字を表示する。図3は、現場監督が端末装置5を用いて作業現場を撮像しているイメージ図である。図3に示すように、現場監督は、端末装置5の表示部55に作業現場の撮像画像を写し、その写した撮像画像を確認することで、作業現場における危険箇所を機械的に発見することができる。   If the detection unit 53 determines that there is a location corresponding to the risk factor, the display control unit 54 displays the warning information 6 at the location. In this case, the warning information is information on a dangerous event caused by the risk factor. For example, if the detection unit 53 determines that there is a risk factor modeled in the dangerous part detection model, for example, a part with an opening, in the captured image of the work site displayed on the display unit 55, The characters “Fall” are displayed on the display screen of the display unit 55 corresponding to the location. FIG. 3 is an image diagram in which the field supervisor images the work site using the terminal device 5. As shown in FIG. 3, the site supervisor copies a captured image of the work site on the display unit 55 of the terminal device 5 and mechanically finds a dangerous spot on the work site by checking the captured image. Can do.

以下に、本発明の一実施形態に係る危険箇所発見システム1の危険箇所を発見する処理の流れについて、説明する。図4は、本発明の一実施形態に係る危険箇所発見システム1の危険箇所を発見する処理の流れについて、説明する図である。   Below, the flow of the process which discovers the dangerous spot of the dangerous spot discovery system 1 which concerns on one Embodiment of this invention is demonstrated. FIG. 4 is a diagram for explaining the flow of processing for finding a dangerous spot in the dangerous spot finding system 1 according to the embodiment of the present invention.

撮像装置2は、建設現場等の作業現場を撮像する(ステップS101)。この撮像画像は、学習用の画像である。そして、撮像装置2は、撮像した撮像画像を、通信ネットワーク3を介して学習サーバ4に送信する。
処理部42は、通信部41を介して撮像装置2からの撮像画像を取得する(ステップS102)。そして、処理部42は、撮像装置2から取得した画像を前処理する(ステップS103)。例えば、処理部42は、抽出した危険箇所が写っている画像から、その危険箇所の危険事象を引き起こすリスク要因を特徴量として、その画像ごとに抽出する。
The imaging device 2 images a work site such as a construction site (step S101). This captured image is an image for learning. Then, the imaging device 2 transmits the captured image to the learning server 4 via the communication network 3.
The processing unit 42 acquires a captured image from the imaging device 2 via the communication unit 41 (step S102). And the process part 42 pre-processes the image acquired from the imaging device 2 (step S103). For example, the processing unit 42 extracts, for each image, a risk factor that causes a dangerous event in the dangerous part as a feature amount from an image showing the extracted dangerous part.

モデル作成部43は、処理部42に前処理された画像を学習データとして用いて機械学習を実行することにより、作業現場における危険箇所を検出するための危険箇所検出モデルを作成する(ステップS104)。この学習データは、例えば、作業現場における危険箇所の画像に当該危険箇所の危険事象を示す情報が付されている。すなわち、モデル作成部43は、教師あり学習であって、畳み込みニューラルネットワークを用いたディープラーニングにより機械学習を実行する。
モデル作成部43は、作成した危険箇所検出モデルを、通信ネットワーク3を介して端末装置5に送信する。
The model creation unit 43 creates a dangerous location detection model for detecting a dangerous location at the work site by executing machine learning using the image preprocessed by the processing unit 42 as learning data (step S104). . In the learning data, for example, information indicating a dangerous event at the dangerous place is attached to an image of the dangerous place at the work site. That is, the model creation unit 43 performs supervised learning and performs machine learning by deep learning using a convolutional neural network.
The model creation unit 43 transmits the created dangerous spot detection model to the terminal device 5 via the communication network 3.

端末装置5は、通信ネットワーク3を介して、モデル作成部43が作成した危険箇所検出モデルを取得する(ステップS105)。
撮像部52は、作業監督等のユーザの操作により、作業現場を撮像する(ステップS106)。そして、表示部55は、撮像部52が撮像した撮像画像を表示する。
The terminal device 5 acquires the dangerous spot detection model created by the model creation unit 43 via the communication network 3 (step S105).
The imaging unit 52 images the work site by a user operation such as work supervision (step S106). The display unit 55 displays the captured image captured by the imaging unit 52.

検出部53は、通信部51を介してモデル作成部43から取得した危険箇所検出モデルを用いて、表示部55に表示された作業現場の撮像画像における危険箇所の有無を検出する(ステップS107)。例えば、検出部53は、表示部55に表示された作業現場の撮像画像において、危険箇所検出モデルでモデル化されたリスク要因に該当する箇所が存在するか否かを判定することで作業現場の危険箇所の有無を検出する。例えば、検出部53は、表示部55に表示された作業現場の撮像画像に開口部に該当する箇所に存在する場合には、作業現場において、「墜落」の危険箇所が存在すると判定する。また、例えば、検出部53は、表示部55に表示された作業現場の撮像画像において、安全帯を装着していない作業員に該当する箇所が存在する場合には、作業現場において、「安全帯無し」の危険箇所が存在すると判定する。また、例えば、検出部53は、表示部55に表示された作業現場の撮像画像において、吊り荷を吊りあげているクレーン作業機械に該当する箇所が存在する場合には、作業現場において、「吊り荷落下」の危険箇所が存在すると判定する。また、例えば、検出部53は、表示部55に表示された作業現場の撮像画像において、物が積み上がっている状態に該当する箇所が存在する場合には、作業現場において、「倒壊」の危険箇所が存在すると判定する。   The detection unit 53 detects the presence / absence of a dangerous location in the captured image of the work site displayed on the display unit 55 using the dangerous location detection model acquired from the model creation unit 43 via the communication unit 51 (step S107). . For example, the detection unit 53 determines whether there is a location corresponding to the risk factor modeled by the dangerous location detection model in the captured image of the workplace displayed on the display unit 55. Detect the presence or absence of dangerous spots. For example, when the captured image of the work site displayed on the display unit 55 is present at a location corresponding to the opening, the detection unit 53 determines that there is a “falling” dangerous location at the work site. In addition, for example, the detection unit 53, in the captured image of the work site displayed on the display unit 55, when there is a location corresponding to a worker who is not wearing a safety belt, It is determined that there is a danger spot “None”. In addition, for example, when a portion corresponding to the crane work machine that lifts the suspended load exists in the captured image of the work site displayed on the display unit 55, the detection unit 53 performs “hanging” at the work site. It is determined that there is a danger point of “load drop”. In addition, for example, when there is a portion corresponding to a state in which objects are piled up in the captured image of the work site displayed on the display unit 55, the detection unit 53 has a risk of “collapse” at the work site. It is determined that the location exists.

表示制御部54は、例えば、検出部53により上述のリスク要因に該当する箇所が存在すると判定された場合には、当該箇所に対応する表示部55の表示画面に対して、そのリスク要因の危険事象を警告情報として表示する(ステップS108)。   For example, if the detection unit 53 determines that there is a location corresponding to the risk factor described above, the display control unit 54 displays the risk of the risk factor on the display screen of the display unit 55 corresponding to the location. The event is displayed as warning information (step S108).

上述したように、本発明の一実施形態に係るモデル作成部43は、作業現場における危険箇所の画像に当該危険箇所の危険事象を示す情報が付された学習データを用いて機械学習を実行することにより、当該危険箇所を検出するための危険箇所検出モデルを作成するモデル作成部43を備える。これにより、この危険箇所検出モデルが、例えばプログラムとしてタブレット端末やメガネ型ウェアラブルデバイス等の端末装置5で実行させることで、その端末装置5上で撮影された画像から危険箇所を機械的に発見可能である。   As described above, the model creation unit 43 according to an embodiment of the present invention performs machine learning using learning data in which information indicating a dangerous event at a dangerous place is attached to an image of a dangerous place at a work site. Accordingly, a model creation unit 43 that creates a dangerous spot detection model for detecting the dangerous spot is provided. As a result, the dangerous spot detection model can be mechanically found from an image captured on the terminal device 5 by causing the terminal device 5 such as a tablet terminal or a glasses-type wearable device to execute as a program. It is.

このように、作業員や現場監督等のユーザは、多忙な作業現場においても、端末装置5上で撮影された画像から危険箇所を機械的に発見可能であるため、作業現場の危険箇所を見過ごすこと無く容易に発見することできる。また、危険箇所検出モデルを用いることで、機械的に危険箇所を発見可能であるため、人の目だけでは見逃していた危険箇所も発見可能である。また、作業現場に慣れていない人(例えば、新規入場者、見学者など)にもいち早く危険を知らせる事ができる。   As described above, since a worker or a user such as a site supervisor can mechanically find a dangerous spot from an image photographed on the terminal device 5 even in a busy work spot, he / she overlooks the dangerous spot on the work spot. It can be easily discovered without any problems. Further, since the dangerous spot can be found mechanically by using the dangerous spot detection model, it is also possible to find a dangerous spot that has been missed only by human eyes. In addition, it is possible to quickly notify a person who is not familiar with the work site (for example, a new visitor, a visitor, etc.).

上述の実施形態では、危険箇所の危険事象を引き起こすリスク要因として、一の危険事象に一のリスク要因(例えば、危険事象が「墜落」の場合には、リスク要因が開口部があることを)を記載したが、これに限定されない。すなわち、モデル作成部43は、学習データから、開口部の大きさ、位置等、複数の特徴量を抽出し、その抽出した特徴量を用いて危険箇所検出モデルを作成してもよい。   In the above-described embodiment, as a risk factor that causes a dangerous event at a dangerous location, one risk factor is included in one dangerous event (for example, if the dangerous event is “fall”, the risk factor is an opening). However, the present invention is not limited to this. That is, the model creation unit 43 may extract a plurality of feature amounts such as the size and position of the opening from the learning data, and create a dangerous location detection model using the extracted feature amounts.

また、上述の実施形態では、検出部53は、端末装置5の撮像部52により作業現場で撮像された画像の特徴量と、危険箇所検出モデルでモデル化された特徴量とが、一定以上の類似度又は一定以上の合致点を有する場合において、作業現場の撮像画像に危険箇所があると判定してもよい。   Further, in the above-described embodiment, the detection unit 53 has a feature amount of an image captured at the work site by the imaging unit 52 of the terminal device 5 and a feature amount modeled by the dangerous spot detection model being a certain level or more. When there is a similarity or a matching point of a certain level or more, it may be determined that there is a dangerous place in the captured image at the work site.

上述した実施形態における学習サーバ4、端末装置5のそれぞれをコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。   You may make it each implement | achieve each of the learning server 4 and the terminal device 5 in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. You may implement | achieve using programmable logic devices, such as FPGA (Field Programmable Gate Array).

例えば、本実施形態に係る学習サーバ4は、モデル作成部43を制御する各種処理を行うプログラムをインストールし、このプログラムをコンピュータに実行させることで、構成してもよい。また。例えば、本実施形態に係る端末装置5は、検出部53、表示制御部54を制御する各種処理を行うプログラムをインストールし、このプログラムをコンピュータに実行させることで、構成してもよい。   For example, the learning server 4 according to the present embodiment may be configured by installing a program for performing various processes for controlling the model creating unit 43 and causing the computer to execute the program. Also. For example, the terminal device 5 according to the present embodiment may be configured by installing a program for performing various processes for controlling the detection unit 53 and the display control unit 54 and causing the computer to execute the program.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1 危険箇所発見システム
2 撮像装置
3 通信ネットワーク
4 学習サーバ
5 端末装置
41,51 通信部
42 処理部
43 モデル作成部
52 撮像部
53 検出部
54 表示制御部
55 表示部
DESCRIPTION OF SYMBOLS 1 Dangerous part detection system 2 Imaging device 3 Communication network 4 Learning server 5 Terminal device 41, 51 Communication part 42 Processing part 43 Model preparation part 52 Imaging part 53 Detection part 54 Display control part 55 Display part

Claims (11)

作業現場における危険箇所の画像に当該危険箇所の危険事象を示す情報が付された学習データを用いて機械学習を実行することにより、当該危険箇所を検出するための危険箇所検出モデルを作成するモデル作成部を備えるモデル作成装置。   A model that creates a dangerous part detection model for detecting a dangerous part by executing machine learning using learning data with information indicating a dangerous event of the dangerous part in the image of the dangerous part at the work site A model creation device including a creation unit. 前記危険箇所検出モデルは、前記危険事象を引き起こすリスク要因がモデル化されたものである請求項1に記載のモデル作成装置。   The model creation apparatus according to claim 1, wherein the risk location detection model is a model of a risk factor that causes the dangerous event. 前記モデル作成部は、畳み込みニューラルネットワークを用いたディープラーニングにより前記機械学習を実行する請求項1又は請求項2に記載のモデル作成装置。   The model creation device according to claim 1, wherein the model creation unit performs the machine learning by deep learning using a convolutional neural network. 作業現場を撮像画像として撮像する撮像部と、
前記撮像画像を表示する表示部と、
請求項1から請求項3のいずれか一項に記載のモデル作成装置により生成された前記危険箇所検出モデルを用いて、前記表示部に表示された作業現場の撮像画像における危険箇所の有無を検出する検出部と、
を備える端末装置。
An imaging unit for imaging a work site as a captured image;
A display unit for displaying the captured image;
The presence or absence of a dangerous place in the captured image of the work site displayed on the display unit is detected using the dangerous place detection model generated by the model creation device according to any one of claims 1 to 3. A detector to perform,
A terminal device comprising:
前記危険箇所検出モデルは、前記危険事象を引き起こすリスク要因がモデル化されたものであって、
前記検出部は、
前記表示部に表示された作業現場の撮像画像において、前記モデル化されたリスク要因に該当する箇所が存在するか否かを判定することで前記表示部に表示された作業現場の撮像画像における危険箇所の有無を検出する請求項4に記載の端末装置。
The dangerous point detection model is a model of risk factors that cause the dangerous event,
The detector is
In the captured image of the work site displayed on the display unit, the danger in the captured image of the work site displayed on the display unit by determining whether or not there is a location corresponding to the modeled risk factor The terminal device according to claim 4, wherein presence / absence of a location is detected.
前記端末装置は、前記モデル化したリスク要因に該当する箇所が存在すると判定された場合には、当該箇所が前記危険箇所であることを示す警告情報を前記表示部に表示させる表示制御部をさらに備える請求項5に記載の端末装置。   If it is determined that there is a location corresponding to the modeled risk factor, the terminal device further includes a display control unit that displays warning information indicating that the location is the dangerous location on the display unit. The terminal device according to claim 5 provided. 前記表示制御部は、前記モデル化されたリスク要因に該当する箇所が存在すると判定された場合には、当該箇所に前記警告情報を表示する請求項6に記載の端末装置。   The terminal device according to claim 6, wherein, when it is determined that there is a location corresponding to the modeled risk factor, the display control unit displays the warning information at the location. 前記警告情報は、前記リスク要因により引き起こされる前記危険事象の情報である請求項7に記載の端末装置。   The terminal device according to claim 7, wherein the warning information is information on the dangerous event caused by the risk factor. 請求項1から請求項3のいずれか一項に記載のモデル作成装置と、
請求項4から請求項8のいずれか一項に記載の端末装置と、
を備える危険箇所発見システム。
The model creation device according to any one of claims 1 to 3,
The terminal device according to any one of claims 4 to 8,
Hazardous area detection system equipped with.
コンピュータを、請求項1から請求項3のいずれか一項に記載のモデル作成装置として機能させるためのプログラム。   The program for functioning a computer as a model production apparatus as described in any one of Claims 1-3. コンピュータを、請求項4から請求項8のいずれか一項に記載の端末装置として機能させるためのプログラム。   The program for functioning a computer as a terminal device as described in any one of Claims 4-8.
JP2016224081A 2016-11-17 2016-11-17 Model creation device, terminal device, hazardous place discovery system, and program Pending JP2018081549A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016224081A JP2018081549A (en) 2016-11-17 2016-11-17 Model creation device, terminal device, hazardous place discovery system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016224081A JP2018081549A (en) 2016-11-17 2016-11-17 Model creation device, terminal device, hazardous place discovery system, and program

Publications (1)

Publication Number Publication Date
JP2018081549A true JP2018081549A (en) 2018-05-24

Family

ID=62197791

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016224081A Pending JP2018081549A (en) 2016-11-17 2016-11-17 Model creation device, terminal device, hazardous place discovery system, and program

Country Status (1)

Country Link
JP (1) JP2018081549A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020003477A1 (en) * 2018-06-29 2020-01-02 株式会社オプティム Computer system, bank-transfer fraud prevention method, and program
JP2020095391A (en) * 2018-12-11 2020-06-18 株式会社フジタ Automatic patrol system
JP2020095390A (en) * 2018-12-11 2020-06-18 株式会社フジタ Unsafe location extraction system
JP2020182068A (en) * 2019-04-24 2020-11-05 鹿島建設株式会社 Safety support device and safety monitoring method
KR20210086492A (en) * 2019-12-31 2021-07-08 연세대학교 산학협력단 Construction Site Management System and Management Method Based on Technologies for Automatic Intent Recognition and Photo Messaging with Construction Photographs
KR102313479B1 (en) * 2020-12-23 2021-10-18 주식회사 케이씨씨건설 System for providing guide based on safety standard using artificial intelligence model
KR20210153809A (en) * 2020-06-10 2021-12-20 주식회사 아디아랩 Safety management system for heavy equipment vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146302A (en) * 2006-12-08 2008-06-26 Systec:Kk Operation safety management and instruction announcing system
JP2014119786A (en) * 2012-12-13 2014-06-30 Seiko Epson Corp Head mounting type display device, control method of head mounting type display device, and work supporting system
JP2016004548A (en) * 2014-06-19 2016-01-12 ヤフー株式会社 Provision device, provision method and provision program
US20160093207A1 (en) * 2014-09-26 2016-03-31 Harman International Industries, Inc. Pedestrian information system
WO2016157499A1 (en) * 2015-04-02 2016-10-06 株式会社日立製作所 Image processing apparatus, object detection apparatus, and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008146302A (en) * 2006-12-08 2008-06-26 Systec:Kk Operation safety management and instruction announcing system
JP2014119786A (en) * 2012-12-13 2014-06-30 Seiko Epson Corp Head mounting type display device, control method of head mounting type display device, and work supporting system
JP2016004548A (en) * 2014-06-19 2016-01-12 ヤフー株式会社 Provision device, provision method and provision program
US20160093207A1 (en) * 2014-09-26 2016-03-31 Harman International Industries, Inc. Pedestrian information system
WO2016157499A1 (en) * 2015-04-02 2016-10-06 株式会社日立製作所 Image processing apparatus, object detection apparatus, and image processing method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020003477A1 (en) * 2018-06-29 2020-01-02 株式会社オプティム Computer system, bank-transfer fraud prevention method, and program
JPWO2020003477A1 (en) * 2018-06-29 2021-04-22 株式会社オプティム Computer system, transfer fraud prevention methods and programs
JP2020095391A (en) * 2018-12-11 2020-06-18 株式会社フジタ Automatic patrol system
JP2020095390A (en) * 2018-12-11 2020-06-18 株式会社フジタ Unsafe location extraction system
JP7249139B2 (en) 2018-12-11 2023-03-30 株式会社フジタ automatic patrol system
JP2020182068A (en) * 2019-04-24 2020-11-05 鹿島建設株式会社 Safety support device and safety monitoring method
JP7281955B2 (en) 2019-04-24 2023-05-26 鹿島建設株式会社 Safety support device and safety monitoring method
KR20210086492A (en) * 2019-12-31 2021-07-08 연세대학교 산학협력단 Construction Site Management System and Management Method Based on Technologies for Automatic Intent Recognition and Photo Messaging with Construction Photographs
KR102470959B1 (en) * 2019-12-31 2022-11-28 연세대학교 산학협력단 Construction Site Management System and Management Method Based on Technologies for Automatic Intent Recognition and Photo Messaging with Construction Photographs
KR20210153809A (en) * 2020-06-10 2021-12-20 주식회사 아디아랩 Safety management system for heavy equipment vehicle
KR102366590B1 (en) 2020-06-10 2022-02-24 (주)아디아랩 Safety management system for heavy equipment vehicle
KR102313479B1 (en) * 2020-12-23 2021-10-18 주식회사 케이씨씨건설 System for providing guide based on safety standard using artificial intelligence model

Similar Documents

Publication Publication Date Title
JP2018081549A (en) Model creation device, terminal device, hazardous place discovery system, and program
EP3163872B1 (en) Flow line analysis system, camera device, and flow line analysis method
WO2017204081A1 (en) Image processing system, image processing program, and image processing method
EP2978206A1 (en) Image based surveillance system
US20170278453A1 (en) Head mount display
US10970551B2 (en) Control apparatus and control method for determining relation of persons included in an image, and storage medium storing a program therefor
CN112101288B (en) Method, device, equipment and storage medium for detecting wearing of safety helmet
JP2021051781A (en) Event monitoring system, event monitoring method, and program
JP2019133385A (en) Electronic apparatus, control method and program
JP2019153920A (en) Information processing apparatus, control method thereof, subject detection system, and program
WO2016194275A1 (en) Flow line analysis system, camera device, and flow line analysis method
JP6098631B2 (en) Analysis processing device
JP2016081428A (en) Information terminal, information processing device, and program
KR20160003996A (en) Apparatus and method for video analytics
JP6226859B2 (en) Work monitoring system
JP6941458B2 (en) Monitoring system
JP5909709B1 (en) Flow line analysis system, camera device, and flow line analysis method
JP5909712B1 (en) Flow line analysis system, camera device, and flow line analysis method
WO2019106956A1 (en) Monitoring system and image processing device
JP2020086844A (en) Image processing system, image processing method, and program
KR102439548B1 (en) Power plant monitoring system and method
JP5909708B1 (en) Flow line analysis system, camera device, and flow line analysis method
KR102581596B1 (en) Smart safety helmet
JP2022012400A (en) Image processing device, control method of the same, and program
JP2018129621A (en) Transmission control program, transmission control method, and transmission control device

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200609

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210105