JP7133375B2 - Dangerous work detection system, analysis device, display device, dangerous work detection method, and dangerous work detection program - Google Patents

Dangerous work detection system, analysis device, display device, dangerous work detection method, and dangerous work detection program Download PDF

Info

Publication number
JP7133375B2
JP7133375B2 JP2018128844A JP2018128844A JP7133375B2 JP 7133375 B2 JP7133375 B2 JP 7133375B2 JP 2018128844 A JP2018128844 A JP 2018128844A JP 2018128844 A JP2018128844 A JP 2018128844A JP 7133375 B2 JP7133375 B2 JP 7133375B2
Authority
JP
Japan
Prior art keywords
person
dangerous work
analysis device
work
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018128844A
Other languages
Japanese (ja)
Other versions
JP2020010154A (en
Inventor
雅稔 井藤
俊彦 原田
隆幸 中村
寛大 鈴木
進一 一戸
Original Assignee
エヌ・ティ・ティ・コムウェア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エヌ・ティ・ティ・コムウェア株式会社 filed Critical エヌ・ティ・ティ・コムウェア株式会社
Priority to JP2018128844A priority Critical patent/JP7133375B2/en
Publication of JP2020010154A publication Critical patent/JP2020010154A/en
Application granted granted Critical
Publication of JP7133375B2 publication Critical patent/JP7133375B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Description

本発明は、作業者の作業の様子を撮影した映像から、危険が推定される作業を検出する技術に関する。 TECHNICAL FIELD The present invention relates to a technique for detecting work that is presumed to be dangerous from a video of a worker's work.

従来、作業者の作業の安全を確保する施策として、作業の様子をビデオカメラで撮影し、撮影した動画の映像を持ち帰って、目視で確認することで、危険な作業を実施していなかったかどうかを人間が判定して、今後の作業の改善に役立てるという活動が行われていた。 In the past, as a measure to ensure the safety of workers' work, the state of work was filmed with a video camera, and the video footage taken was taken home and visually checked to determine whether dangerous work was being carried out. There was an activity in which a human judges and uses it to improve future work.

例えば、サーバー室での機器設置工事作業においては、サーバーラック天井部にケーブルを敷設する際、脚立や梯子などの台の上に人が上って工事作業を行う。この際、足を滑らせて脚立から落下したり、脚立が転倒したりといった事故が発生し、重篤な怪我につながるケースが散見されている。これを防止するために落下防止ベルトなどの安全具を装着するなどの作業手順が規定されている。作業者の作業状況を監視する技術として、特許文献1がある。 For example, in equipment installation work in a server room, when laying cables on the ceiling of a server rack, a worker climbs a stepladder or ladder to perform the work. At this time, there have been some cases where a person slips and falls from a stepladder or the stepladder topples over, resulting in serious injury. In order to prevent this, work procedures such as wearing safety equipment such as fall prevention belts are stipulated. Japanese Patent Laid-Open Publication No. 2002-300000 discloses a technique for monitoring the work status of a worker.

特開2006-285639号公報Japanese Patent Application Laid-Open No. 2006-285639

作業手順の遵守は、作業者個人に委ねられているのが実情である。そこで、撮影した映像を確認して、このような作業をしている際に安全具が正しく装着されているかを第三者が後日確認して、作業改善の指導を行うことが行われている。 The actual situation is that the observance of the work procedure is entrusted to the individual worker. Therefore, a third party confirms at a later date whether the safety equipment is properly worn during such work by checking the captured video, and provides guidance for work improvement. .

しかしながら、映像の確認は、全て人手による目視作業に頼っており、膨大な手間がかかるという問題があり、この手間の軽減が課題となっていた。 However, there is a problem that the confirmation of the video depends entirely on manual visual inspection, which requires an enormous amount of time and effort, and how to reduce this time and effort has been an issue.

本発明は以上の課題を鑑みてなされたものであり、本発明の目的は、作業者の作業の様子を撮影した映像から、危険が推定される作業を検出し、ユーザの作業負荷を低減する技術を提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to detect work that is presumed to be dangerous from a video of a worker's work, and reduce the user's workload. It is to provide technology.

本発明は、解析装置と表示装置とを有する危険作業検出システムであって、前記解析装置は、作業を撮影した動画から抽出した複数の静止画を解析し、危険作業が実施されている静止画を検出する危険作業解析部を備え、前記表示装置は、前記危険作業が実施されている静止画の部分は第1の速度で再生し、前記危険作業が実施されている静止画以外の部分は、前記第1の速度より速い第2の速度で再生、または、再生せずスキップする。 The present invention is a dangerous work detection system having an analysis device and a display device, wherein the analysis device analyzes a plurality of still images extracted from a moving image of the work, and extracts still images showing the dangerous work being performed. The display device reproduces the portion of the still image in which the dangerous work is being performed at a first speed, and the portion other than the still image in which the dangerous work is being performed , play at a second speed higher than the first speed, or skip without playing.

本発明は、危険作業を検出する解析装置であって、作業を撮影した動画から抽出した複数の静止画を解析し、各静止画から人物を検出する人物検出部と、前記複数の静止画を解析し、各静止画から、危険作業の要因となる対象物を検出する対象物検出部と、前記人物検出部の検出結果および前記対象物検出部の検出結果を用いて、前記複数の静止画の危険度を判定する危険度判定部と、前記危険度がない静止画の部分のみ、再生速度がn倍になるように編集して動画を作成する動画作成部と、を備える。 The present invention is an analysis device for detecting dangerous work, which analyzes a plurality of still images extracted from a moving image of the work, detects a person from each still image, and detects a person from each of the still images. The plurality of still images are analyzed using an object detection unit that detects an object that may cause dangerous work from each still image, and the detection result of the person detection unit and the detection result of the object detection unit. and a moving image creation unit that creates a moving image by editing only the still image portion having no risk so that the playback speed is increased by n times.

本発明は、作業を撮影した動画を再生する表示装置であって、前記表示装置の画面には、前記動画を表示する領域と、前記動画の再生位置を示すシークバーと、前記シークバーに対応する時間帯における作業の危険度の有無または危険度のレベルを、それぞれ異なる色または異なる模様で示すカラーバーと、が表示され、前記危険度の有または危険度のレベルが高い第1の時間帯の動画を、第1の速度で再生し、前記第1の時間帯以外の第2の時間帯の動画を、前記第1の速度より速い第2の速度で再生、または、再生せずスキップする再生部を備える。 The present invention is a display device for reproducing a moving image of a work, wherein the screen of the display device comprises an area for displaying the moving image, a seek bar indicating a playback position of the moving image, and a time corresponding to the seek bar. A color bar indicating the presence or absence of danger or the level of danger of work in the time zone is displayed with different colors or different patterns, and a moving image of the first time zone in which the danger is present or the danger level is high. is reproduced at a first speed, and a moving image in a second time period other than the first time period is reproduced at a second speed higher than the first speed, or is skipped without being reproduced. Prepare.

本発明は、解析装置と表示装置とを有する危険作業検出システムが行う危険作業検出方法であって、前記解析装置は、作業を撮影した動画から抽出した複数の静止画を解析し、危険作業が実施されている静止画を検出する検出ステップを行い、前記表示装置は、前記危険作業が実施されている静止画の部分は第1の速度で再生し、前記危険作業が実施されている静止画以外の部分は、前記第1の速度より速い第2の速度で再生、または、再生せずスキップする再生ステップを行う。 The present invention is a dangerous work detection method performed by a dangerous work detection system having an analysis device and a display device, wherein the analysis device analyzes a plurality of still images extracted from a moving image of the work, and determines whether the dangerous work is detected. performing a detection step of detecting a still image in which the dangerous work is being performed, wherein the display device reproduces a portion of the still image in which the dangerous work is being performed at a first speed, and displays the still image in which the dangerous work is being performed; Other parts are reproduced at a second speed higher than the first speed, or are skipped without being reproduced.

本発明は、コンピュータを、上記解析装置として機能させるための危険作業検出プログラムである。 The present invention is a dangerous work detection program for causing a computer to function as the analysis device.

本発明は、コンピュータを、上記表示装置として機能させるための危険作業検出プログラムである。 The present invention is a dangerous work detection program for causing a computer to function as the display device.

本発明によれば、作業者の作業の様子を撮影した映像から、危険が推定される作業を検出し、ユーザの作業負荷を低減する技術を提供することができる。 Advantageous Effects of Invention According to the present invention, it is possible to provide a technology for detecting work that is presumed to be dangerous from a video of a worker's work and reducing the user's work load.

システムの構成を示す。Shows the system configuration. 解析しようとする静止画を示す。Indicates the still image to be analyzed. 静止画から人物と台を検出した様子を示す。It shows how a person and a platform are detected from a still image. 判定結果算出部の動作のフローチャートを示す。4 shows a flowchart of the operation of the determination result calculation unit. 静止画に枠を描画した様子を示す。It shows how a frame is drawn on a still image. 映像のそれぞれの時間帯における判定結果の一覧を示す。A list of judgment results for each time zone of video is shown. 再生速度を変更した動画を生成する様子を示す。It shows how to generate a moving image with changed playback speed. 再生速度の変更を反映した判定結果の一覧を示す。11 shows a list of determination results reflecting changes in playback speed. 画面の表示内容を示す。Indicates what is displayed on the screen. 画面の他の表示内容を示す。Shows other display contents on the screen. 図10の画面において動画の一部がスキップされて再生される様子を示す。The screen of FIG. 10 shows how a part of the moving image is skipped and reproduced. 図10の画面において所定の部分の動画に移動して再生される様子を示す。FIG. 10 shows a state in which the moving image is moved to a predetermined portion on the screen of FIG. 10 and played. 人物の床からの高さを比率によって算出する方法を示す。A method for calculating the height of a person from the floor using a ratio will be shown.

本発明の実施の形態の一つを以下に示す。 One embodiment of the present invention is shown below.

図1は、本実施の形態におけるシステムの構成を示す。 FIG. 1 shows the configuration of a system according to this embodiment.

本システムは、解析装置101と表示装置102とを有し、これらの装置はネットワーク103を介して接続されている。 This system has an analysis device 101 and a display device 102 , and these devices are connected via a network 103 .

解析装置101は、ビデオカメラ 105で撮影した動画の映像を入力とする。 Analyzing device 101 receives a moving image captured by video camera 105 .

解析装置101は、静止画抽出部111と、危険作業解析部112と、動画作成部113とを有する。 Analysis device 101 has still image extraction unit 111 , dangerous work analysis unit 112 , and moving image creation unit 113 .

危険作業解析部112は、作業を撮影した動画から抽出した複数の静止画を解析し、危険作業が実施されている静止画を検出する。図示する危険作業解析部112は、静止画を解析して人物を検出する人物検出部121と、静止画を解析して静止画から台(対象物)を検出する台検出部122(対象物検出部)と、人物検出部121および台検出部122の検出結果を用いて、複数の静止画の危険度を判定する危険度判定部123とを有する。 The dangerous work analysis unit 112 analyzes a plurality of still images extracted from a moving image of work, and detects a still image in which dangerous work is being performed. The illustrated dangerous work analysis unit 112 includes a person detection unit 121 that analyzes a still image and detects a person, and a table detection unit 122 (object detection) that analyzes the still image and detects a table (object) from the still image. unit) and a risk determination unit 123 that determines the risk of a plurality of still images using the detection results of the person detection unit 121 and the platform detection unit 122 .

人物検出部121は、学習済みモデル131と、ディープラーニング(DL)ライブラリ 132とを有する。台検出部122は、学習済みモデル141と、DLライブラリ142とを有する。危険度判定部123は、第一判定部151と、第二判定部152と、第三判定部153と、判定結果算出部154とを有する。 Person detection unit 121 has trained model 131 and deep learning (DL) library 132 . The platform detection unit 122 has a trained model 141 and a DL library 142 . Risk determination section 123 has first determination section 151 , second determination section 152 , third determination section 153 , and determination result calculation section 154 .

動画作成部113は、危険度がない静止画の部分のみ、再生速度がN倍になるように編集して動画を作成する。動画作成部113は、枠描画部161と、再生速度変更部162とを有する。 The moving image creation unit 113 creates a moving image by editing only the portion of the still image with no risk so that the playback speed is increased by N times. The moving image creating section 113 has a frame drawing section 161 and a playback speed changing section 162 .

表示装置102は、画面 171と、ユーザ入力手段172と、再生部173とを具備する。ユーザ入力手段172は、マウス、タッチパッド、タッチスクリーン、キーボード、ボタンなどを含む各種の入力デバイスであってよい。再生部173は、危険作業が実施されている静止画の部分は第1の速度で再生し、危険作業が実施されている静止画以外の部分は、第1の速度より速い第2の速度で再生、または、再生せずスキップする。 The display device 102 comprises a screen 171 , user input means 172 and a playback section 173 . User input means 172 may be various input devices including a mouse, touchpad, touchscreen, keyboard, buttons, and the like. The reproducing unit 173 reproduces the portion of the still image in which the dangerous work is being performed at a first speed, and reproduces the portion other than the still image in which the dangerous work is being performed at a second speed, which is faster than the first speed. Play or skip without playing.

これらの装置101、102は、以下に順次示す手順によって、危険が推定される作業の映像を検出して表示する動作を行う。 These devices 101 and 102 operate to detect and display a video of a work that is presumed to be dangerous, according to the procedures shown below.

まず、解析装置101は、ビデオカメラ105で撮影した動画の映像を入力とする。ここでは、例えば再生時間10分の動画が撮影され、そのファイルが解析装置101に入力されたものとする。 First, analysis device 101 receives a moving image captured by video camera 105 as an input. Here, it is assumed that, for example, a moving image with a playback time of 10 minutes is captured and the file is input to the analysis device 101 .

静止画抽出部111は、当該動画を複数の静止画(フレーム)に分割し、さらに、静止画の間引きを行う。すなわち、連続するM個のフレームの中から1フレーム抽出する。具体的には、動画が毎秒30フレームで撮影されていたとして、例えば6枚に1枚のフレームのみを選択し、毎秒5フレーム相当に間引く。この間引き処理によって、以降の解析処理にかかる計算量の総量を削減することができる。 The still image extraction unit 111 divides the moving image into a plurality of still images (frames), and thins out the still images. That is, one frame is extracted from consecutive M frames. Specifically, assuming that the moving image is shot at 30 frames per second, for example, only one frame out of six is selected and thinned out by 5 frames per second. This thinning process can reduce the total amount of calculation required for subsequent analysis processes.

作業の様子を撮影した動画において、0.2秒を大きく下回る短い時間で様相がめまぐるしく変化することはないから、このような間引き処理は用途に照らし合わせて妥当である。 In a video recording of the state of work, the state does not change rapidly in a short period of time much less than 0.2 seconds, so such thinning processing is appropriate in light of the application.

以降、危険作業解析部112は、上記間引き処理で抽出された複数の静止画(静止画群)を入力し、各々の静止画について、画像解析処理を行っていく。 Thereafter, the dangerous work analysis unit 112 receives a plurality of still images (still image group) extracted by the thinning process, and performs image analysis processing on each still image.

なお、元来、動画とは毎秒30フレームなど連続的に撮影した静止画の集まりを、連続的に表示することで実現されているものである。そのため、動画を扱う場合には、動画を実現するファイル形式を用いてもよいし、あるいは、静止画のファイルの集合を用いてもよく、これらは等価であるから、後者の手法であっても実質的に動画を取り扱うことができる。ここでは、動画には、動画を実現するファイル形式だけでなく、静止画のファイルの集合も含まれる。 Originally, moving images are realized by continuously displaying a collection of still images shot continuously, such as at 30 frames per second. Therefore, when handling moving images, a file format that realizes moving images may be used, or a set of still image files may be used. Can handle videos practically. Here, moving images include not only a file format that realizes moving images, but also a collection of still image files.

図2は、解析しようとする静止画の一例を示す。 FIG. 2 shows an example of a still image to be analyzed.

ここでは例えば、静止画抽出部111が前記間引き処理を行った結果、開始から4分経過時点での映像が図2のような様子であったことを表す。静止画 201には、人物 202と脚立 203が映っている。本実施の形態では、危険作業の要因となる可能性のある所定の対象物(道具、装置など)として、脚立などの台を検出する例を以下に示していく。 Here, for example, as a result of the thinning processing performed by the still image extraction unit 111, the image at the point where 4 minutes have passed from the start is shown in FIG. A still image 201 shows a person 202 and a stepladder 203 . In this embodiment, an example of detecting a platform such as a stepladder as a predetermined object (tool, device, etc.) that may cause dangerous work will be described below.

なお、対象物は、脚立、はしご、踏み台、足場台、作業台など、高い位置で作業するために人が乗る台に限定されない。例えば、対象物は、ケーブル、配線などを切断する道具(はさみ、ナイフなど)であってもよい。 Note that the object is not limited to a stepladder, ladder, stepping stool, scaffold, workbench, or other platform on which a person sits to work at a high position. For example, the object may be a tool (scissors, knife, etc.) for cutting cables, wires, and the like.

危険作業解析部112は、入力された静止画から、まず、人物検出部121によって人物を検出する。人物検出部121には、予め人物の画像を学習させた結果として得られる学習済みモデル131が構成要素として組み込まれている。DLライブラリ132は、学習済みモデル131を用いて、入力された画像(静止画)から人物が映っているか否かを判定し、判定の際の確からしさを確信度として出力する。さらに、DLライブラリ132は、映りこんでいる人物の静止画の中の位置(ここでは左上と右下の座標)を取得する。 Dangerous work analysis unit 112 first detects a person by person detection unit 121 from the input still image. The person detection unit 121 incorporates a trained model 131 obtained as a result of learning an image of a person in advance as a component. The DL library 132 uses the learned model 131 to determine whether or not a person appears in the input image (still image), and outputs the certainty of the determination as a degree of certainty. Furthermore, the DL library 132 acquires the position of the person in the still image (here, the upper left and lower right coordinates).

画像を処理対象とするDLライブラリは、その実装はオープンソース等で広汎に利用可能であり、予め大量の教師データをDLの学習機能に入力することで、ニューラルネットワークの繋がりを学習させる。これにより、DLライブラリは、人物検出部121のDLライブラリ132のように実際に利用した際に、予め学習させたデータと同一種の画像が映りこんでいるか否かを判定し、判定の際の確からしさを確信度として出力し、さらに、映りこんでいる前記同一種の画像の位置の左上と右下の座標を得ることができる。 The implementation of the DL library that processes images is widely available as open source, etc. By inputting a large amount of training data in advance to the learning function of the DL, the connections of the neural network are learned. As a result, when the DL library is actually used like the DL library 132 of the person detection unit 121, it determines whether or not an image of the same type as the pre-learned data is reflected. It is possible to output the probability as a degree of certainty, and obtain the upper left and lower right coordinates of the position of the image of the same type reflected.

このようなDLライブラリの実装を用いることで、上記述べた人物検出部121は実現できる。 By using such a DL library implementation, the person detection unit 121 described above can be realized.

危険作業解析部112は、次に、台検出部122によって対象物すなわち本実施の形態においては脚立を検出する。台検出部122には、予め対象物の画像を学習させた結果得られる学習済みモデル141が構成要素として組み込まれている。DLライブラリ142は、学習済みモデル141を用いて、入力された画像から対象物が映っているか否かを判定し、判定の際の確からしさを確信度として出力し、さらに、映りこんでいる対象物の位置の左上と右下の座標を取得する。 Dangerous work analysis unit 112 next detects an object, that is, a stepladder in the present embodiment, using platform detection unit 122 . The platform detection unit 122 incorporates a trained model 141 obtained as a result of pre-learning the image of the object as a component. The DL library 142 uses the trained model 141 to determine whether or not the target object is reflected in the input image, outputs the certainty at the time of determination as a degree of certainty, and furthermore, determines whether the target is reflected Get the top left and bottom right coordinates of the object's position.

図3は、静止画から人物と台を検出した様子を示す。 FIG. 3 shows how a person and a platform are detected from a still image.

この例では、人物 202も台 203も静止画 201に映っているから、人物および台の検出に成功している。したがって、危険作業解析部112は、人物202のX座標が301から302の範囲で、人物のY座標が311から312の範囲であるという検出結果を取得する。また、危険作業解析部112は、台のX座標が303から304の範囲で、台のY座標が313から314の範囲であるという検出結果を取得する。また、危険作業解析部112は、人物と台のそれぞれについての確信度(百分率の値)を取得する。 In this example, both the person 202 and the platform 203 appear in the still image 201, so the person and the platform are successfully detected. Therefore, the dangerous work analysis unit 112 acquires the detection result that the X coordinate of the person 202 is in the range of 301-302 and the Y coordinate of the person is in the range of 311-312. The dangerous work analysis unit 112 also acquires the detection result that the X coordinate of the platform is in the range 303-304 and the Y coordinate of the platform is in the range 313-314. Also, the dangerous work analysis unit 112 acquires certainty factors (percentage values) for each of the person and the platform.

危険作業解析部112は、次に、危険度判定部123によって、前記得られた検出結果に基づき、以下の手順で危険度を判定する。 Dangerous work analysis unit 112 next uses risk determination unit 123 to determine the degree of risk according to the following procedure based on the obtained detection result.

まず、危険度判定部123の第一判定部151は、人物検出部121と台検出部122が、入力された静止画から、それぞれ人物と台とを両方とも検出したか否かを判定する。次に、危険度判定部123の第二判定部152は、検出された人物と台の水平方向(X軸方向)が重なっていることを判定する。具体的には、第二判定部152は、人物のX座標301から302と、台のX座標303から304とで、集合の重なり(インターセクション)が空集合ではない場合に、水平方向が重なっていると判定する。また、第二判定部152は、検出された人物と台とが、水平方向に重なっているかだけでなく、近傍にあるかを判定することとしてもよい。 First, first determination unit 151 of risk determination unit 123 determines whether person detection unit 121 and platform detection unit 122 have detected both a person and a platform from the input still image. Next, the second determination unit 152 of the risk determination unit 123 determines that the detected person and the platform overlap in the horizontal direction (X-axis direction). Specifically, the second determination unit 152 determines that the X coordinates 301 to 302 of the person and the X coordinates 303 to 304 of the table overlap each other in the horizontal direction when the intersection of the sets is not an empty set. determined to be Further, the second determination unit 152 may determine whether the detected person and the platform overlap not only in the horizontal direction but also in the vicinity.

次に、危険度判定部123の第三判定部153は、検出された人物と台とにおいて、人物が上方にあり台が下方にあるか否かを判定する。すなわち、第三判定部153は、人物が台より上方にあるかを判定する。具体的には、第三判定部153は、人物のY座標311から312のうち下限312の値が、台のY座標313から314のうち下限314の値より上方を示す値である場合に、人物が上方にあり台が下方にあると判定する。人物の下限312の値が台の下限314の値より上方を示す値の場合とは、下限312の値が下限314の値より大きい値のことである。 Next, the third determination unit 153 of the risk determination unit 123 determines whether or not the person is above and the platform is below the detected person and platform. That is, the third determination unit 153 determines whether the person is above the platform. Specifically, when the value of the lower limit 312 of the person's Y coordinates 311 to 312 is a value indicating a value above the value of the lower limit 314 of the table's Y coordinates 313 to 314, It is determined that the person is above and the platform is below. A case where the value of the lower limit 312 of the person is above the value of the lower limit 314 of the platform means that the value of the lower limit 312 is greater than the value of the lower limit 314 .

次に、危険度判定部123の判定結果算出部154は、上記の第一判定部151から第三判定部 153で得られた判定結果に基づき、以下のようにして結果を判定する。 Next, the determination result calculation unit 154 of the risk determination unit 123 determines results as follows based on the determination results obtained from the first determination unit 151 to the third determination unit 153 described above.

図4は、判定結果算出部154の動作のフローチャートを示す。 FIG. 4 shows a flowchart of the operation of the determination result calculation unit 154. As shown in FIG.

まず、判定結果算出部154は、処理を開始すると(手順 401)、第一判定部151の判定結果に基づき人物と台の両方が検出されたか否かを確認し(手順 402)、NOであれば、危険度の有無としては無を、危険度のレベルとしてはLv0を、それぞれ検出値とする(手順 412)。 First, when the determination result calculation unit 154 starts processing (step 401), it checks whether or not both a person and a platform are detected based on the determination result of the first determination unit 151 (step 402). For example, the presence or absence of risk is set to none, and the level of risk is set to Lv0 as detection values (step 412).

手順 402:YESであれば、判定結果算出部154は、次に、第二判定部152の判定結果に基づき人物と台の水平方向が重なっているか否かを確認し(手順 403)、NOであれば、危険度の有無としては無を、危険度のレベルとしてはLv1を、それぞれ検出値とする(手順 413)。 Step 402: If YES, the determination result calculation unit 154 next checks whether or not the person and the table overlap in the horizontal direction based on the determination result of the second determination unit 152 (step 403). If there is, the presence or absence of risk is set to none, and the level of risk is set to Lv1 as detection values (step 413).

手順 403:YESであれば、次に、判定結果算出部154は、第三判定部153の判定結果に基づき人物が上方にあり台が下方にあるか否かを確認し(手順 404)、NOであれば、危険度の有無としては無を、危険度のレベルとしてはLv1を、それぞれ検出値とする(手順 414)。この場合、判定結果算出部154は、人物と物は、水平方向で重なっているが、人物は台より上方にいない(例えば、人物は台に乗っていない)状態であるため、危険度の有無を無と判定する。 Step 403: If YES, next, the determination result calculation unit 154 confirms whether or not the person is above and the table is below based on the determination result of the third determination unit 153 (step 404). If so, the presence/absence of risk is set to none, and the level of risk is set to Lv1 as detection values (step 414). In this case, the determination result calculation unit 154 determines whether or not there is a degree of risk because the person and the object overlap in the horizontal direction but the person is not above the table (for example, the person is not on the table). is judged to be null.

手順 404:YESであれば、判定結果算出部154は、危険度の有無としては有を、危険度のレベルとしてはLv2を、それぞれ検出値とする(手順 415)。この場合、判定結果算出部154は、人物は台より上方にいる、例えば、人物は台に乗っている状態であるため、危険度の有無を有と判定する。 Step 404: If YES, the determination result calculation unit 154 sets the detected value as presence of risk and Lv2 as the level of risk (step 415). In this case, the determination result calculation unit 154 determines that there is a degree of risk because the person is above the platform, for example, the person is on the platform.

判定結果算出部 154は、次に、上記いずれの検出値であるかに係わらず共通して、危険度の指数値を算出または取得する(手順 406)。ここでは、判定結果算出部154は、2つの指数値を取得することとする。1つ目の指数値として、判定結果算出部154は、人物検出部121のDLライブラリ132が判定の際に出力した前記確信度の百分率の値を取得する。2つ目の指数値として、判定結果算出部154は、台検出部122のDLライブラリ142が判定の際に出力した前記確信度の百分率の値を取得する。なお、判定結果算出部 154は、人物検出部121が出力した確信度(百分率の値)と、台検出部122が出力した確信度(百分率の値)の平均値を、指標値として算出してもよい。 Next, the determination result calculation unit 154 calculates or acquires the index value of the degree of danger in common regardless of which detection value is the above (step 406). Here, determination result calculation section 154 acquires two index values. As the first index value, the determination result calculation unit 154 acquires the percentage value of the certainty output by the DL library 132 of the person detection unit 121 at the time of determination. As the second index value, the determination result calculation unit 154 acquires the percentage value of the certainty output by the DL library 142 of the platform detection unit 122 at the time of determination. Note that the determination result calculation unit 154 calculates the average value of the certainty (percentage value) output by the person detection unit 121 and the certainty (percentage value) output by the platform detection unit 122 as an index value. good too.

以上で判定結果算出部154は処理を終える(手順 407)。 Thus, the judgment result calculation unit 154 finishes the processing (step 407).

以上一連の手順により、解析装置101の危険作業解析部112は、各静止画に対して危険作業を検出することができる。検出の結果は、入力として複数の静止画に対して処理を行ったのであるから、各静止画に対する解析結果の集合として結果が得られる。 Through the above series of procedures, the dangerous work analysis unit 112 of the analysis device 101 can detect dangerous work for each still image. Since a plurality of still images are processed as input, the result of detection is obtained as a set of analysis results for each still image.

次に、解析装置101の動画作成部113は、以下に述べる処理を行う。 Next, the moving image creation unit 113 of the analysis device 101 performs the processing described below.

まず、動画作成部113の枠描画部161は、人物または台のいずれかまたは両方が検出された静止画に対して、それらを囲う枠を描画した新たな静止画を作成する。 First, the frame drawing unit 161 of the moving image creating unit 113 creates a new still image by drawing a frame surrounding a still image in which either or both of a person and a table are detected.

図5は、図2で示される入力の静止画に対して、検出結果に基づき、枠を描画した様子を示す。枠の描画に用いる座標は、図3の301から304、311から314で示される座標値をそのまま用いればよい。枠描画部161は、静止画抽出部111により抽出された各静止画について、人物および台の少なくとも1つが検出されている場合、枠を描画する。 FIG. 5 shows how a frame is drawn on the input still image shown in FIG. 2 based on the detection result. As the coordinates used for drawing the frame, the coordinate values indicated by 301 to 304 and 311 to 314 in FIG. 3 may be used as they are. Frame drawing unit 161 draws a frame for each still image extracted by still image extraction unit 111 when at least one of a person and a table is detected.

動画作成部113は、次に、上記で枠が描画された静止画群を元に、動画を新たに生成する。なお、枠が描画されなかった静止画については、元の画像をそのまま用いればよい。 Moving image creation unit 113 next generates a new moving image based on the group of still images with the frame drawn above. Note that the original image may be used as it is for the still image in which the frame is not drawn.

ただしこの際、動画作成部113は、生成された静止画を利用者がより利便性高く閲覧できるように、以下で示すさらなる処理を行う。 However, at this time, the moving image creation unit 113 performs further processing described below so that the user can view the generated still image more conveniently.

動画作成部113の動作を説明するための一例として、ここでは、時間帯に応じて危険な作業を行っていたり行っていなかったりが変化する映像を入力した場合を例にとり、その映像を解析した判定結果を踏まえて、動画作成部113の再生速度変更部162がどのような動作を行うかについて述べていく。 As an example for explaining the operation of the moving image creation unit 113, a case where a video in which dangerous work is performed or not performed depending on the time period is taken as an example, and the video is analyzed. Based on the determination result, how the reproduction speed changing unit 162 of the moving image creating unit 113 operates will be described.

図6は、映像のそれぞれの時間帯における判定結果の一覧を示す。再生速度変更部162は、危険度判定部123の判定結果に基づいて、例えば図6に示すような一覧を生成する。なお、図6は、本実施の形態を説明するために便宜上提示する図表であり、解析装置 101がこのような構成のデータベースを格納する必要は必ずしもなく、解析の中間結果は、配列変数やファイル等で適宜保持してあればよい。 FIG. 6 shows a list of determination results for each time period of video. The playback speed changing unit 162 generates, for example, a list as shown in FIG. It should be noted that FIG. 6 is a chart presented for convenience in explaining the present embodiment, and it is not always necessary for the analysis apparatus 101 to store a database with such a configuration, and the intermediate results of analysis are stored in array variables and files. etc., so long as it is held appropriately.

行601は、動画における開始0分から4分の時間帯は、あまり危険がない作業を行った様子を撮影しており、その映像を解析した結果として、危険度が無く、危険度のレベルがLv0で、これらの時間帯における危険度の2つの指数値を表すデータ集合Aが存在するという結果が得られていることを表している。 Line 601 captures a scene in which a less dangerous operation was performed during the time period of 0 to 4 minutes from the start of the video. , we obtain the result that there is a data set A that represents two indices of the degree of risk in these time periods.

同様に、行602は、動画における開始4分から5分の時間帯は、危険が高い作業を行った様子を撮影しており、その映像を解析した結果として、危険度が有り、危険度のレベルがLv2で、これらの時間帯における危険度の二つの指数値を表すデータ集合Bが存在するという結果が得られていることを表している。行603から605も、同様の内容を表している。図6に示す例では、再生速度変更部162は、「危険度の有無」あるいは「危険度のレベル」が変化した場合、新たな行(レコード)を生成する。 Similarly, row 602 shows that a high-risk work was performed in the time period of 4 to 5 minutes from the start of the video. is Lv2, and the result is obtained that there is a data set B that represents two index values of the degree of danger in these time periods. Lines 603 to 605 also express similar content. In the example shown in FIG. 6, the playback speed changing unit 162 generates a new line (record) when "presence or absence of risk" or "level of risk" changes.

動画作成部113の再生速度変更部162は、このような映像に対して、「危険度が無い」と判定された時間帯について、再生速度がN倍(ここでは、4倍)になるような編集を行う。 The playback speed changing unit 162 of the moving image creating unit 113 is configured to increase the playback speed by N times (here, 4 times) for the time period determined to be "not dangerous". make edits.

具体的には、再生速度変更部162は、行601と行603と行605の時間帯において、静止画のうち連続する4枚中の3枚を破棄し、4枚中の1枚のみを抽出する。また、再生速度変更部162は、行602と行604の時間帯においては、すべての静止画をそのまま採用する。そして、再生速度変更部162は、これらの静止画をひとつなぎとして、動画のエンコードを行うことで、動画を新たに生成する。 Specifically, the playback speed changing unit 162 discards 3 out of 4 consecutive still images and extracts only 1 out of 4 still images in the time period of lines 601, 603, and 605. do. In addition, the playback speed changing unit 162 adopts all still images as they are in the time periods of lines 602 and 604 . Then, the playback speed changing unit 162 connects these still images and encodes the moving image to generate a new moving image.

図7は、再生速度を変更した動画を生成する様子を示す。図7の記号601から605は、図6における行601から行605にそれぞれ対応し、再生時間の経過を模式的に表現したものである。 FIG. 7 shows how a moving image with changed playback speed is generated. Symbols 601 to 605 in FIG. 7 correspond to lines 601 to 605 in FIG. 6, respectively, and schematically represent the passage of playback time.

このように生成された結果の動画は、図7に示す601と603と605の時間帯においては再生が4倍の速度で行われるから、総再生時間は10分から4分へと短縮される。 The resultant moving image generated in this manner is reproduced at four times the speed in the time zones 601, 603, and 605 shown in FIG. 7, so the total reproduction time is shortened from 10 minutes to 4 minutes.

さらに、動画作成部113の再生速度変更部162は、動画の再生時間が短縮されたことに伴い、危険度の検出結果の対応付けについても再生時間の短縮を反映して、時刻情報の更新を行う。 Further, the reproduction speed changing unit 162 of the moving image creating unit 113 updates the time information by reflecting the reduction in the reproduction time of the reproduction time of the moving image, and also in association with the detection result of the degree of danger. conduct.

図8は、再生速度の変更を反映した判定結果の一覧を示す。図7で示した時間の短縮を反映して、例えば行801は、時間帯を「0分から4分」から「0分から1分」へと読み替えを行う。さらに、これらの時間帯における危険度の2つの指数値を表すデータ集合についても、元のデータ集合Aから、再生速度を4倍に換算して、新たなデータ集合A'を作成する。具体的には、データ4個のうち3個を間引く処理を行う。 FIG. 8 shows a list of determination results reflecting changes in playback speed. Reflecting the shortening of the time shown in FIG. 7, for example, in line 801, the time period is changed from "0 minutes to 4 minutes" to "0 minutes to 1 minute". Furthermore, for the data sets representing the two index values of the degree of risk in these time periods, the original data set A is converted to four times the playback speed to create a new data set A'. Specifically, processing for thinning out three out of four data is performed.

また、例えば行802は、時間帯を「4分から5分」から「1分から2分」へと読み替えを行う。これらの時間帯における危険度の2つの指数値を表すデータ集合については、再生速度が変わらないのであるから、元のデータ集合Bをそのまま利用してよい。行803から行805についても同様である。 Also, for example, in line 802, the time zone is read from "4 minutes to 5 minutes" to "1 minute to 2 minutes". The original data set B can be used as it is because the reproduction speed does not change for the data sets representing the two index values of the degree of danger in these time periods. The same is true for lines 803 to 805.

上記示した一連の手順によって、解析装置101は、解析結果である危険度のデータと、枠付けならびに動画の再生速度の変更がなされた新たな動画を得るので、解析装置101はネットワーク103を経由してこれらのデータを表示装置102に送信する。 Through the above-described series of procedures, analysis device 101 obtains risk level data, which is the result of analysis, and a new moving image in which frames have been changed and the playback speed of the moving image has been changed. Then, these data are transmitted to the display device 102. FIG.

ここで、動画の再生速度を変更する一連の処理によって得られる効果について言及する。撮影した動画は、人手による目視作業で危険作業の様子を確認するのであるから、動画の総時間が10分から4分に短縮されれば、作業効率を単純計算で2.5倍に向上できる。 Here, the effects obtained by a series of processes for changing the playback speed of moving images will be mentioned. Since the videos taken are used to confirm the state of dangerous work by manual visual inspection, if the total video time is shortened from 10 minutes to 4 minutes, the work efficiency can be improved 2.5 times by simple calculation.

この際、再生速度が早送りとなるのは、人物や台が映像に映っていなかったり、あるいは映っていても位置関係的に人物が台に乗っていて危険があるとは想定できない時間帯のみである。人物が台に乗っており危険があるかもしれない時間帯については通常の速度で再生がなされるのであるから、映像を人手による目視作業で確認する本来の確認趣旨を損なうことなく、作業効率を向上できる。 In this case, the playback speed is fast-forwarded only when the person or platform is not shown in the video, or even if it is shown, it is not possible to assume that the person is on the platform and is dangerous due to the positional relationship. be. Since the playback is performed at the normal speed during the period when the person is on the platform and there may be danger, the work efficiency is improved without impairing the original purpose of checking the video by visual inspection. can improve.

一般に作業においては、作業の準備などに長い時間を要し、台に乗っての作業など作業の中枢たる作業内容を行う時間は全体からすると僅かである。つまり、準備など高所作業の危険性が少ない時間帯について再生を早送りして目視確認の効率が向上できるのであれば、確認趣旨を損なうことなく、大きな確認効率向上が得られるといえる。 Generally, in work, it takes a long time to prepare for the work, and the time to perform the core work content such as work on a table is small compared to the whole time. In other words, if it is possible to improve the efficiency of visual confirmation by fast-forwarding playback during times when there is little danger of high-place work such as preparation, it can be said that confirmation efficiency can be greatly improved without impairing the purpose of confirmation.

また逆に、本実施の形態のようにAIあるいはAIの一分野であるディープラーニング技術を用いて動画の中から注目したい時間帯を抽出した場合、AIの認識精度を100%に高めることは原理上できないのであるから、どうしても誤認識は発生してしまう。もし仮に、AIが「注目の必要なし」と判断した時間帯の動画を単純に全部カットして表示しないこととした場合、上記誤認識が発生した時間帯については、本来は注目して確認すべきであるにもかかわらず動画からはカットされ、人手による目視作業ではどうやっても目に留まらないという問題が生じてしまう。 Conversely, when extracting a time period that you want to pay attention to from a video using AI or deep learning technology, which is a field of AI, as in this embodiment, the principle is to increase the recognition accuracy of AI to 100%. Since it is impossible to do so, misrecognition will inevitably occur. If the AI simply cuts out all the videos during the time period that the AI judges as "no need for attention" and does not display them, the time period in which the above-mentioned misrecognition occurred should be confirmed by paying attention. Although it should be, it is cut from the video, and there is a problem that it is not noticed by manual visual inspection.

それに対し、本実施の形態によれば、AIが誤認識をした場合であっても、再生速度が早回しになるだけで再生自体は行われるのであるから、人手による目視作業では当該誤認識箇所についても確認を行うことができるという利点が得られる。このように、上記示した再生の早送りをすることで人手による目視作業の効率を上げる本実施の形態は、AIによる映像の自動検出と組み合わせた場合に、特に顕著な効果を奏する。 On the other hand, according to the present embodiment, even if the AI misrecognizes, the reproduction itself is performed only by speeding up the reproduction speed. The advantage is that it is also possible to check for In this way, the present embodiment, which enhances the efficiency of manual viewing work by fast-forwarding playback as described above, produces a particularly remarkable effect when combined with automatic video detection by AI.

なお、本実施の形態では、注目する必要のない時間帯について、再生速度を4倍にする例を示した。本発明の範囲はこれに限るものではなく、他の再生速度であってもよいし、また、当該時間帯をスキップして再生しないこととしてもよい。また、これらの挙動を、解析を行う際もしくは表示を行う際に利用者から指定させて、挙動を変更できてもよい。 In this embodiment, an example is shown in which the playback speed is quadrupled for a time zone that does not require attention. The scope of the present invention is not limited to this, and other playback speeds may be used, or the time period may be skipped and not played back. Also, these behaviors may be changed by allowing the user to specify these behaviors when performing analysis or displaying.

以下では、表示装置102が解析結果の動画を表示する様子を示していく。 In the following, the manner in which the display device 102 displays the moving image of the analysis result will be shown.

図9は、表示装置102の画面の表示内容を示す。画面 171の中には、動画を表示する区画(領域) 901と、シークバー 902と、カラーバー 903と、グラフA 904と、グラフB 905が配置される。動画を表示する区画 901とシークバー 902の組み合わせは、動画プレイヤーでは一般的であり、ライブラリを用いて実現できる。 FIG. 9 shows the contents displayed on the screen of the display device 102. As shown in FIG. In the screen 171, a section (area) 901 for displaying moving images, a seek bar 902, a color bar 903, a graph A 904, and a graph B 905 are arranged. The combination of the section 901 displaying the moving image and the seek bar 902 is common in moving image players and can be realized using a library.

動画を表示する区画 901には、解析装置101により再生速度が変更された動画が表示される。表示装置102の再生部173は、解析装置101から取得した動画全体を、再生時に1倍速で再生することで、結果として、危険作業が実施されている静止画の部分は第1の速度で再生し、危険作業が実施されている静止画以外の部分は、第1の速度より速い第2の速度で再生することになる(図7参照)。 A moving image whose playback speed has been changed by the analysis device 101 is displayed in the moving image display area 901 . The reproduction unit 173 of the display device 102 reproduces the entire moving image acquired from the analysis device 101 at 1× speed during reproduction, and as a result, the portion of the still image in which the dangerous work is being performed is reproduced at the first speed. On the other hand, portions other than the still image in which dangerous work is being performed are reproduced at the second speed, which is faster than the first speed (see FIG. 7).

シークバー902は、動画の再生位置を示すものである。シークバー 902にはスライダー 906があり、動画再生の時刻に応じてスライダーが動くとともに、マウス操作等でスライダーを動かすことで動画再生の位置をジャンプできる。 A seek bar 902 indicates the playback position of the moving image. The seek bar 902 has a slider 906. The slider moves according to the time of video playback, and the position of video playback can be jumped by moving the slider by mouse operation or the like.

カラーバー 903は、シークバー902に対応する時間帯における、作業の危険度の有無または危険度のレベルを、それぞれ異なる色または異なる模様で示す。図示するカラーバー 903は、解析装置101が解析結果として得た危険度のデータのうち、危険度のレベルを示す。すなわち、危険度のレベルがLv0の時間帯に対応する位置801、805には灰色を、Lv1の時間帯に対応する位置803には黄色を、Lv2の時間帯に対応する位置802、804には赤色を、それぞれ描画する。なお、カラーバー 903は、解析装置101が解析結果として得た危険度のデータのうち、危険度の有無を異なる色または異なる模様で示してもよい。 The color bar 903 indicates the presence or absence of risk or the level of risk in the time zone corresponding to the seek bar 902 with different colors or different patterns. The illustrated color bar 903 indicates the level of risk in the data of risk obtained by the analysis device 101 as an analysis result. That is, the positions 801 and 805 corresponding to the time zone of Lv0 are colored gray, the position 803 corresponding to the time zone Lv1 is colored yellow, and the positions 802 and 804 corresponding to the time zone Lv2 are colored Draw red, respectively. Note that the color bar 903 may indicate the presence or absence of the degree of risk in the data of the degree of risk obtained as the analysis result by the analysis device 101 with different colors or different patterns.

図9の記号801から805は、図8における行801から805にそれぞれ対応し、それぞれの再生時間における危険度のレベルがカラーバー 903上に描画される様子を表現したものである。 Symbols 801 to 805 in FIG. 9 correspond to rows 801 to 805 in FIG. 8, respectively, and express how the risk level at each reproduction time is drawn on the color bar 903. In FIG.

グラフA 904は、解析装置 101が解析結果として得た危険度のデータのうち、1つ目の危険度の指数値、すなわち、人物検出に関する確信度の値を折れ線グラフで表示する。グラフB 905は、解析装置 101が解析結果として得た危険度のデータのうち、2つ目の危険度の指数値、すなわち、台検出に関する確信度の値を折れ線グラフで表示する。 A graph A 904 displays, in a line graph, the first risk index value, that is, the value of the certainty regarding human detection, among the risk data obtained by the analysis device 101 as an analysis result. A graph B 905 displays, in a line graph, the index value of the second risk level, that is, the value of the degree of certainty relating to platform detection, among the data of the risk level obtained by the analysis device 101 as the analysis result.

本実施形態では、グラフA 904およびグラフB 905は、DLライブラリ132、142が出力する確信度の値のグラフであるが、危険度の有無または危険度のレベルの判定に用いる指標値であれば、前記確信度の値以外の指標値を用いてもよい。また、危険度の有無または危険度のレベルをグラフとして表示してもよい。 In this embodiment, the graph A 904 and the graph B 905 are graphs of the confidence value output by the DL libraries 132 and 142. However, if the index value is used to determine the presence or absence of risk or the level of risk, , an index value other than the confidence value may be used. In addition, the presence or absence of risk or the level of risk may be displayed as a graph.

カラーバー 903とグラフA 904とグラフB 905は、シークバー 902と縦(上下)に並べて配置する。シークバー902のスライダー 906が例えば動画開始2分の位置にあるとき、カラーバー 903やグラフA 904やグラフB 905における同じX座標の位置の色あるいは値は、動画開始2分の位置における解析結果として得られた危険度の情報を示す。 The color bar 903, the graph A 904, and the graph B 905 are arranged side by side with the seek bar 902 vertically (up and down). For example, when the slider 906 of the seek bar 902 is at the position of 2 minutes from the start of the video, the color or value at the same X coordinate position in the color bar 903, graph A 904, and graph B 905 is the analysis result at the position of 2 minutes from the start of the video. The obtained risk information is shown.

図10は、表示装置102の他の画面例を示す。図10に示す動画再生時の画面では、映像を表示する区画901と、シークバー 902と、カラーバー 903と、各種操作ボタン911~913と、チェックボックス914が配置される。操作ボタン911は、再生している映像の停止指示を受け付けるボタンである。操作ボタン912は、映像の再生速度の変更指示を受け付けるボタンである。操作ボタン913は、再生している映像の移動指示を受け付けるボタンである。チェックボックス914は、カラーバー903の危険度のレベルを示す各色に対応して設けられる。なお、図10の画面例に、図9に示すグラフA 904とグラフB 905を表示してもよい。 FIG. 10 shows another screen example of the display device 102 . 10, a section 901 for displaying video, a seek bar 902, a color bar 903, various operation buttons 911 to 913, and a check box 914 are arranged. The operation button 911 is a button for receiving an instruction to stop the video being reproduced. The operation button 912 is a button for accepting an instruction to change the video playback speed. The operation button 913 is a button for receiving an instruction to move the video being reproduced. A check box 914 is provided corresponding to each color indicating the risk level of the color bar 903 . Graph A 904 and graph B 905 shown in FIG. 9 may be displayed on the screen example of FIG.

図11は、図10の画面において、ある色のチェックボックスのチェックをはずすと、カラーバー903の当該色の部分915の動画の再生がスキップされ、スライダー906もそれに合わせて移動することを示す。 FIG. 11 shows that when the check box of a certain color is unchecked on the screen of FIG. 10, the reproduction of the moving image of the portion 915 of that color on the color bar 903 is skipped, and the slider 906 also moves accordingly.

図12は、図10の画面において、少なくとも1つの色のチェックボックスのチェックをはずした状態で、次へ移動する操作ボタン913がクリックされた場合、チェックボックスにチェックが設定された色の次の部分の冒頭の動画が再生され、スライダー906もそれに合わせて移動することを示す。 FIG. 12 shows that when the operation button 913 for moving to the next is clicked with the check box of at least one color unchecked on the screen of FIG. It shows that the moving image at the beginning of the portion is played and the slider 906 moves accordingly.

以上示した本実施の形態における表示装置102の利点について述べる。 Advantages of the display device 102 according to the present embodiment shown above will be described.

時間帯に応じて変化する危険度が、カラーバーにより表示され、赤の時間帯は危険作業を実施しているのであるから映像を注視する必要がある等、人手による目視作業を行う際の有用な指標として用いることができる。この際、X座標の位置がシークバーのスライダーと同一であることから、再生を進めて自動的に動いていくスライダーの位置に着目しながらカラーバーを見ることで、注視すべきポイントを逃すことなく視認しやすくなる。また逆に、映像の確認を繰り返し行う際、カラーバーの赤色に着目しながらスライダーを動かすことで、映像の頭出しを容易に行うことができる。 The degree of danger that changes according to the time period is displayed with a color bar, and the red time period indicates that dangerous work is being carried out, so it is necessary to watch the video. can be used as a useful indicator. At this time, since the position of the X coordinate is the same as the slider of the seek bar, by looking at the color bar while focusing on the position of the slider that moves automatically as playback progresses, you will not miss the point you should pay attention to. Easier to see. Conversely, when repeatedly checking the video, moving the slider while focusing on the red color bar makes it easy to cue the video.

また、図9のグラフA904とグラフB905にはDLライブラリ132、142による検出の確信度がグラフ表示されていることで、映像の誤認識について留意しながら人手による目視作業を実施しやすくなる。例えば、カラーバー903では黄色もしくは灰色になっていても、グラフAまたはグラフBの値が比較的低い指標値を示していれば、 DLライブラリ132、142が判定に戸惑っていることがグラフから読み取れるから、例えば映像に多数の物体が映っていて誤認識が発生しているおそれもあると言える。このため、グラフが比較的低い指標値を示している場合、人手による目視作業の際に注意して確認すべきポイントであると認識することができるようになるという利点が得られる。 Graphs A 904 and B 905 in FIG. 9 graphically display the degrees of certainty of detection by the DL libraries 132 and 142, making it easier to perform manual visual inspection while paying attention to misrecognition of images. For example, even if the color bar 903 is yellow or gray, if the value of graph A or graph B shows a relatively low index value, it can be read from the graph that the DL libraries 132 and 142 are confused about the judgment. Therefore, it can be said that misrecognition may occur due to, for example, a large number of objects appearing in the image. Therefore, when the graph indicates a relatively low index value, it is possible to obtain the advantage of being able to recognize that it is a point that should be carefully checked during manual visual inspection work.

上記示した本実施の形態においては、人物検出部121および台検出部122は、人物および台を予め学習させた学習済みモデル131、141を用いて、人物および台を検出した。例えば、別の一つの実施の形態においては、人物は第1の色または第1の模様を着用し、台には第2の色または第2の模様が設定されていてもよい。この場合、人物検出部121は、第1の色または第1の模様を検出することで人物を検出し、台検出部122は、第2の色または第2の模様を検出することで台を検出する。 In the present embodiment described above, person detection unit 121 and platform detection unit 122 detect a person and a platform using trained models 131 and 141 in which a person and platform are learned in advance. For example, in another embodiment, the person may wear a first color or pattern and the platform may have a second color or pattern. In this case, the person detection unit 121 detects the person by detecting the first color or the first pattern, and the table detection unit 122 detects the table by detecting the second color or the second pattern. To detect.

具体的には、人物に例えば赤色の服を着せ、あるいは赤色のワッペン等を装着させ、人物検出部121は画像のうち赤色を検出することで、人物を検出してもよい。また、台に例えば青色の塗装を施し、あるいは青色の板を貼り付け、台検出部122は画像のうち青色を検出することで、台を検出してもよい。なお、人物検出部121および台検出部121のいずれか一方のみ、このような検出を行ってもよい。 Specifically, for example, a person may be dressed in red clothes or wearing a red patch or the like, and the person detection unit 121 may detect the person by detecting red in the image. Alternatively, the table may be painted blue or attached with a blue plate, and the table detection unit 122 may detect the blue color in the image to detect the table. Note that only one of the person detection unit 121 and the platform detection unit 121 may perform such detection.

また、上記示した本実施の形態においては、第三判定部153が人物が上方にあり台が下方にあることを判定する際、画素のY座標を用いて判定した。一般に、人物が床より一定以上高い位置にいる場合には、常に危険が高くなるといえることから、単に人物が台より上にいるか否かを判断するだけでなく、様々な方法を用いて人物が上方にあることを認識することは実用上の価値が高い。 In addition, in the present embodiment described above, when the third determination unit 153 determines that the person is above and the platform is below, the Y coordinate of the pixel is used for the determination. In general, when a person is in a position higher than the floor by a certain level, it can be said that the danger is always high. Recognizing what is above is of high practical value.

例えば、別の一つの実施の形態においては、人物と動画を撮影するビデオカメラ105との距離、および、静止画の中で人物が映っている位置を用いて、人物の床からの高さを推定することといてもよい。すなわち、ビデオカメラ105と作業対象となるサーバーラックとの距離が既知であるとして、静止画内における人物のY座標311から312に基づき、人物の床からの高さを比率によって算出し、高さが例えば1.2mを超えた場合に「人物が上方にある」と認識することができる。 For example, in another embodiment, the height of the person from the floor is calculated using the distance between the person and the video camera 105 that captures the moving image and the position of the person in the still image. It can be said that it is an estimation. That is, assuming that the distance between the video camera 105 and the server rack to be worked on is known, the height of the person from the floor is calculated based on the Y coordinates 311 to 312 of the person in the still image, and the height exceeds, for example, 1.2 m, it can be recognized that "a person is above".

図13は、人物の床からの高さを比率によって算出する例を示す。この図は、床面1001より高い位置にいる人物1003をビデオカメラ1002が撮影している様子を、横方向から見た様子を表している。ビデオカメラ1002は床面からの高さ1010の位置に設置されているものとし、ここでは1mとする。ここで用いるビデオカメラ1002は、上方向に撮影可能な範囲1012から下方向に撮影可能な範囲1013の間を撮影するものとし、画角すなわち上下方向の撮影可能な範囲のなす角度は、上下それぞれ角度1014の範囲とし、ここでは30度とする。 FIG. 13 shows an example of calculating the height of a person from the floor using a ratio. This figure shows how a video camera 1002 captures a person 1003 at a position higher than a floor surface 1001 as seen from the lateral direction. It is assumed that the video camera 1002 is installed at a height 1010 from the floor, which is 1 m here. The video camera 1002 used here is assumed to shoot between an upward shootable range 1012 and a downward shootable range 1013, and the angle of view, that is, the angle formed by the vertically shootable range is The range of angles is 1014, here 30 degrees.

また、サーバーラックの上方で作業する人物の危険を判定する目的であることを鑑み、ビデオカメラ1002から撮影対象の作業場所すなわちサーバーラックまでの距離1011だけ離れた位置の人物1003を撮影することとし、ここでは距離1011を3.46mとする。 In view of the purpose of judging the danger of a person working above the server rack, the person 1003 is photographed at a distance 1011 from the video camera 1002 to the work place to be photographed, that is, the server rack. , where the distance 1011 is 3.46 m.

撮影対象がすべて距離1011だけ離れた位置にある撮影面1005に存在していたと仮定すると、ビデオカメラ1002が撮影する画像の上半分は、撮影面1005のうち撮影範囲の中心1020から撮影範囲の上端1021までの範囲に存在する物体が映りこんでいることとなる。ここではビデオカメラ1002の縦方向の解像度は1000ドットとすると、この場合、撮影範囲の中心1020から撮影範囲の上端1021までの範囲が撮影画像の上半分の500ドットに映りこむこととなる。 Assuming that all the objects to be photographed are present on the photographing plane 1005 at a distance of 1011, the upper half of the image photographed by the video camera 1002 extends from the center 1020 of the photographing range to the upper end of the photographing range on the photographing plane 1005. An object existing in the range up to 1021 is reflected. Assuming that the vertical resolution of the video camera 1002 is 1000 dots, the range from the center 1020 of the shooting range to the upper end 1021 of the shooting range is reflected in the upper half of the shot image with 500 dots.

上述の条件下において、人物1003の下端1023が、例えば撮影画像の上から400ドット目として撮影画像に映りこんでいたとする。このとき、撮影範囲の中心1020から人物の下端1023までの距離1024は、次のようにして計算できる。 Assume that under the above conditions, the lower end 1023 of the person 1003 appears in the captured image as the 400th dot from the top of the captured image, for example. At this time, the distance 1024 from the center 1020 of the shooting range to the bottom edge 1023 of the person can be calculated as follows.

距離1022 = 距離1011 × tan (角度1014)
= 2m
距離1022 : 500ドット = 距離1024 : (500-400)ドット
∴距離1024 = 距離1022 ÷500 ×100
= 0.4m
従って、人物1003は、床面から1.4mの高さにいることが画像から算出できる。これは、前述の基準である高さ1.2m以上という条件を満たしているから、人物は上方にいると判断することが可能である。
distance 1022 = distance 1011 × tan (angle 1014)
= 2m
Distance 1022 : 500 dots = Distance 1024 : (500-400) dots ∴ Distance 1024 = Distance 1022 ÷ 500 × 100
= 0.4m
Therefore, it can be calculated from the image that the person 1003 is at a height of 1.4 m above the floor. Since this satisfies the condition of a height of 1.2 m or more, which is the aforementioned standard, it is possible to determine that the person is above.

なお、サーバーラックとの距離が既知でなかったとしても、サーバーラックなど横幅が一定であることが既知である物体を検出してその横幅から対象物との距離を測定したり、レーザー測距計(第1のレーザー測距計)で作業対象との距離を測定したり、ステレオカメラでの視差を利用して作業対象との距離を測定したりすることができ、人物の床からの高さの算出に用いることができる。このレーザー測距計は、ビデオカメラの位置から作業対象に向かって横方向に照射する。レーザー測距計は、LiDARとも呼ばれており、レーザー照射によって対象とする物体との距離を測定する装置である。このような装置は市販されており、容易に入手できる。 Even if the distance to the server rack is not known, it is possible to detect an object whose width is known to be constant, such as a server rack, and measure the distance to the object from that width, or use a laser rangefinder. (first laser rangefinder) can be used to measure the distance to a work target, or parallax can be used with a stereo camera to measure the distance to a work target. can be used to calculate This laser rangefinder illuminates laterally from the position of the video camera toward the work object. A laser rangefinder, also called LiDAR, is a device that measures the distance to a target object by laser irradiation. Such devices are commercially available and readily available.

また例えば、別の一つの実施の形態においては、作業者に高度計を保持させ、高度計から得られたデータを解析装置101への追加の入力とし、第三判定部153が前記得られたデータに基づいて人物の床からの高さを得て、高さが例えば1mを超えた場合に「人物が上方にある」と認識することができる。高度計は、気圧変化を用いて高度の差分を計測する装置であってよい。床に存在するときの気圧と、高所に上ったときの気圧の差により、高度を計測する。このような装置は市販されており、容易に入手できる。 Further, for example, in another embodiment, the operator holds an altimeter, the data obtained from the altimeter is used as an additional input to the analysis device 101, and the third determination unit 153 determines the obtained data. Based on this, the height of the person from the floor is obtained, and when the height exceeds, for example, 1 m, it can be recognized that "the person is above". An altimeter may be a device that measures altitude differences using changes in air pressure. Altitude is measured by the difference between the air pressure when it is on the floor and the air pressure when it reaches a high altitude. Such devices are commercially available and readily available.

また例えば、別の一つの実施の形態においては、作業者にレーザー測距計(第2のレーザー測距計)を鉛直下向きに保持させる。レーザー測距計は、鉛直下向きに床からの距離、または作業対象との距離などを測定するので、レーザー測距計から得られたデータを解析装置101への追加の入力とし、第三判定部 153が前記得られたデータに基づいて人物の床からの高さを得て、高さが例えば1mを超えた場合に「人物が上方にある」と認識することができる。 Further, for example, in another embodiment, the operator holds the laser rangefinder (second laser rangefinder) vertically downward. Since the laser range finder measures the distance from the floor vertically or the distance to the work object, etc., the data obtained from the laser range finder is used as an additional input to the analysis device 101, and the third determination unit 153 can obtain the height of the person from the floor based on the obtained data, and can recognize that "the person is above" when the height exceeds, for example, 1 m.

また、第三判定部153の判定には、画素のY座標を用いた判定、図13に示す判定、高度計を用いた判定、および、レーザー測距計を用いた判定を、組み合わせて判定することとしてもよい。 Further, the judgment by the third judgment unit 153 may be made by combining the judgment using the Y coordinate of the pixel, the judgment shown in FIG. 13, the judgment using the altimeter, and the judgment using the laser rangefinder. may be

以上述べた本発明の実施の形態においては、本発明の趣旨を損なわない範囲で、様々な構成が可能である。 In the embodiments of the present invention described above, various configurations are possible without departing from the gist of the present invention.

例えば、解析装置101と表示装置102は同一の装置としてもよいし、あるいは、更に複数の装置に分割してもよい。解析装置101から表示装置102へのデータの受け渡しは、ネットワーク103を用いず、CDやメモリカード等のメディアを介して行ってもよい。表示装置102は、WebサーバとWebブラウザに分割され、HTML5を用いて作成したビューアとしてもよい。またその際、Webサーバは、Webブラウザと同じ装置内に配置してもよく、あるいは解析装置101と同じ装置内に配置してもよく、あるいは別の装置に配置してもよい。 For example, the analysis device 101 and the display device 102 may be the same device, or may be further divided into a plurality of devices. Data transfer from the analysis device 101 to the display device 102 may be performed via a medium such as a CD or memory card without using the network 103 . The display device 102 may be divided into a web server and a web browser, and may be a viewer created using HTML5. In that case, the web server may be arranged in the same device as the web browser, or may be arranged in the same device as the analysis device 101, or may be arranged in another device.

例えば、人物検出部121と台検出部122を一つの機能部とし、人物と台の両方を一度に覚えこませた学習済みモデルを予め準備して、単一のDLライブラリに一括して判定させる構成としてもよい。 For example, the person detection unit 121 and the table detection unit 122 are made into one functional unit, and a trained model that memorizes both the person and the table at once is prepared in advance, and a single DL library is used for judgment collectively. may be configured.

例えば、動画再生は、動画ファイルを再生してもよいし、一連の静止画群を連続的に再生してもよい。また、動画再生は、映画のフィルムのように、コマを横方向に並べた形で時間の流れを表現してもよい。 For example, moving image reproduction may be performed by reproducing a moving image file, or by continuously reproducing a series of still images. Also, in moving image reproduction, the flow of time may be expressed by horizontally arranging frames like a movie film.

例えば、再生速度変更部162は、危険でない時間帯を早送りするだけでなく、危険な時間帯をスロー再生してもよい。あるいは、再生速度変更部162は、危険度のレベルに応じて、再生速度を複数段階に変化させてもよい。あるいは、再生速度変更部162は、再生速度が変化する継ぎ目を快適に視認できるようにするため、継ぎ目の部分で再生速度を連続的に変化させてもよい。 For example, the playback speed changing unit 162 may not only fast-forward the non-dangerous time zone, but also slow-play the dangerous time zone. Alternatively, the reproduction speed changing unit 162 may change the reproduction speed in multiple steps according to the level of danger. Alternatively, the playback speed changing unit 162 may change the playback speed continuously at the joint so that the joint where the playback speed changes can be visually recognized comfortably.

再生速度を変更するために、解析装置101の再生速度変更部162が再生速度を変更済みの動画を生成するのではなく、解析装置101が再生速度の指示情報を表示装置102に出力して、表示装置102が再生速度を可変にできる再生部173を用いて当該指示情報に基づいて動画の再生時点で再生速度を変化させてもよい。指示情報として、危険度の有無あるいはレベルあるいは指数値を用いてもよい。この場合、再生部173は、動画の再生速度が変更されていない動画を解析装置101から取得し、再生時に、危険度の有または危険度のレベルが比較的高い第1の時間帯の動画を、第1の速度で再生し、第1の時間帯以外の第2の時間帯の動画を、第1の速度より速い第2の速度で再生、または、再生せずスキップする。また、図10から図12に示すように、動画を閲覧するユーザの指示に応じて、再生速度を変化させてもよい。 In order to change the playback speed, the playback speed changing unit 162 of the analysis device 101 does not generate a moving image whose playback speed has been changed. The display device 102 may change the playback speed at the time of playback of the moving image based on the instruction information using the playback unit 173 capable of varying the playback speed. As the instruction information, the presence or absence or level of risk or an index value may be used. In this case, the playback unit 173 acquires from the analysis device 101 a video whose playback speed has not been changed, and during playback, plays a video in the first time zone with a risk level or a relatively high risk level. , reproduces at a first speed, and reproduces a moving image in a second time period other than the first time period at a second speed higher than the first speed, or skips without reproducing it. Also, as shown in FIGS. 10 to 12, the playback speed may be changed according to the instruction of the user viewing the moving image.

例えば、カラーバーならびにグラフは、いずれかを含まないあるいは複数個含む構成であってもよく、あるいは、一つの表示区画上に複数の情報を重ねて表示してもよい。特に、二つ以上の折れ線グラフをまとめて一つの図表として表示してもよい。グラフは、折れ線グラフだけでなく、棒グラフやその他の表示形態であってもよい。カラーバーの配色は任意であってもよく、あるいは、ハッチングやパターンや点滅等であってもよい。 For example, the color bars and graphs may not include any of them, or may include a plurality of them, or a plurality of pieces of information may be superimposed and displayed on one display section. In particular, two or more line graphs may be collectively displayed as one chart. The graph may be not only a line graph but also a bar graph or other display forms. The color arrangement of the color bar may be arbitrary, or may be hatching, pattern, blinking, or the like.

シークバー、カラーバーならびにグラフは、左端が動画再生開始時刻である必要はなく、また、右端が動画再生終了時刻である必要はなく、いずれも任意の時刻であってもよい。これは、例えば、動画の長さが240分などになった際、動画の長さが10分であった場合に比べると、画面1ドットあたりの表わす時間が24分の1になってしまう。これにより、カラーバー、グラフ等が横方向に密度が高くなりすぎ、視認が困難になるという問題が生じてしまう。 The seek bar, color bar, and graph need not have the video playback start time on the left end, nor the video playback end time on the right end, and any time may be used. For example, when the length of a moving image is 240 minutes, the time represented by one dot on the screen becomes 1/24 of the time when the moving image is 10 minutes long. As a result, the density of color bars, graphs, and the like becomes too high in the horizontal direction, resulting in a problem of difficulty in visual recognition.

そこで、長い時間の動画の場合には、シークバー、カラーバーならびにグラフが自動的にズームされることとしてもよい。例えば動画の開始から93分の時点を再生している際には、左端が90分で右端が100分の位置になるように表示装置102が自動的に調整することで、常にカラーバーならびにグラフに対して十分な横幅を確保することができるから、動画の長さによらず視認しやすいという効果を得ることができる。 Therefore, in the case of a long moving image, the seek bar, color bar and graph may be automatically zoomed. For example, when playing back 93 minutes from the start of the video, the display device 102 automatically adjusts the left end to the 90 minute position and the right end to the 100 minute position, so that the color bar and graph are always displayed. Since it is possible to secure a sufficient width for the image, it is possible to obtain the effect that it is easy to visually recognize regardless of the length of the moving image.

以上説明した本実施形態では、作業者の作業の様子を撮影した動画から、危険が推定される作業を検出し、ユーザの作業負荷を低減することができる。また、本実施形態では、危険が推定される時間帯の動画を、容易に注目して閲覧することができる。 In the present embodiment described above, it is possible to detect work that is presumed to be dangerous from a moving image of the worker's work, thereby reducing the user's work load. In addition, in the present embodiment, it is possible to easily pay attention to and view a moving image during a period when danger is estimated.

本実施形態の装置は、コンピュータとプログラムによっても実現でき、プログラムを記録媒体に記録することも、ネットワークを通して提供することも可能である。具体的には、上記説明した解析装置101および表示装置102には、例えば、CPU(Central Processing Unit、プロセッサ)と、メモリと、ストレージ(HDD:Hard Disk Drive、SSD:Solid State Drive)と、通信装置と、入力装置と、出力装置とを備える汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた所定のプログラムを実行することにより、各装置の各機能が実現される。例えば、解析装置101および表示装置102の各機能は、解析装置101用のプログラムの場合は解析装置101のCPUが、表示装置102用のプログラムの場合は表示装置102のCPUが、それぞれ実行することにより実現される。また、解析装置101用のプログラムおよび表示装置102用のプログラムは、HDD、SSD、USBメモリ、CD-ROM、DVD-ROM、MOなどのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。 The apparatus of this embodiment can also be realized by a computer and a program, and the program can be recorded on a recording medium or provided through a network. Specifically, the analysis device 101 and the display device 102 described above include, for example, a CPU (Central Processing Unit, processor), memory, storage (HDD: Hard Disk Drive, SSD: Solid State Drive), communication A general-purpose computer system with devices, input devices, and output devices can be used. In this computer system, each function of each device is realized by the CPU executing a predetermined program loaded on the memory. For example, each function of the analysis device 101 and the display device 102 is executed by the CPU of the analysis device 101 in the case of the program for the analysis device 101, and by the CPU of the display device 102 in the case of the program for the display device 102. It is realized by Also, the program for the analysis device 101 and the program for the display device 102 can be stored in a computer-readable recording medium such as HDD, SSD, USB memory, CD-ROM, DVD-ROM, MO, etc., or can be stored via a network. can also be delivered.

101 :解析装置
102 :表示装置
103 :ネットワーク
105 :ビデオカメラ
111 :静止画抽出部
112 :危険作業解析部
113 :動画作成部
121 :人物検出部
122 :台検出部
123 :危険度判定部
131、141 :学習済みモデル
132、142 :LDライブラリ
151 :第1判定部
152 :第2判定部
153 :第3判定部
154 :判定結果算出部
161 :枠描画部
162 :再生速度変更部
171 :画面
172 :ユーザ入力手段
173 :再生部
101: Analyzer
102: Display device
103: Network
105: Video camera
111: Still image extractor
112: Dangerous Work Analysis Department
113: Video creation department
121 : Human detector
122 : Platform detector
123: Risk judgment unit
131, 141 : Trained model
132, 142: LD library
151: 1st judgment part
152: Second judgment unit
153: 3rd judgment unit
154: Judgment result calculator
161: Frame drawing part
162 : Playback speed change part
171: screen
172: User input means
173: Playback

Claims (10)

解析装置と表示装置とを有する危険作業検出システムであって、
前記解析装置は、
作業を撮影した動画から抽出した複数の静止画を解析し、危険作業が実施されている静止画を検出する危険作業解析部を備え、
前記表示装置は、
前記危険作業が実施されている静止画の部分は第1の速度で再生し、前記危険作業が実施されている静止画以外の部分は、前記第1の速度より速い第2の速度で再生、または、再生せずスキップし、
前記危険作業解析部は、
前記複数の静止画に人物および対象物の両方が検出され、
前記人物と前記対象物の水平方向が重なっているか、もしくは前記人物と前記対象物とが近傍であり、
前記人物が前記対象物より上方にある場合、
危険度の有無を有と判定すること
を特徴とする危険作業検出システム。
A dangerous work detection system having an analysis device and a display device,
The analysis device is
Equipped with a dangerous work analysis unit that analyzes multiple still images extracted from videos of work and detects still images of dangerous work being performed,
The display device
reproducing a portion of the still image in which the dangerous work is being performed at a first speed, and reproducing portions other than the still image in which the dangerous work is being performed at a second speed, which is faster than the first speed; or skip without playing,
The dangerous work analysis unit
both a person and an object are detected in the plurality of still images;
the person and the object overlap in the horizontal direction, or the person and the object are in the vicinity;
When the person is above the object,
Determining whether or not there is a degree of risk
A dangerous work detection system characterized by:
危険作業を検出する解析装置であって、
作業を撮影した動画から抽出した複数の静止画を解析し、各静止画から人物を検出する人物検出部と、
前記複数の静止画を解析し、各静止画から、危険作業の要因となる対象物を検出する対象物検出部と、
前記人物検出部の検出結果および前記対象物検出部の検出結果を用いて、前記複数の静止画の危険度を判定する危険度判定部と、
前記危険度がない静止画の部分のみ、再生速度がN倍(N>1)になるように編集して動画を作成する動画作成部と、を備え
前記危険度判定部は、
前記複数の静止画に前記人物および前記対象物の両方が検出され、
前記人物と前記対象物の水平方向が重なっているか、もしくは前記人物と前記対象物とが近傍であり、
前記人物が前記対象物より上方にある場合、
危険度の有無を有と判定すること
を特徴とする解析装置。
An analysis device for detecting dangerous work,
a person detection unit that analyzes a plurality of still images extracted from a video of a work and detects a person from each still image;
an object detection unit that analyzes the plurality of still images and detects from each still image an object that may cause dangerous work;
a risk determination unit that determines a risk level of the plurality of still images using the detection result of the person detection unit and the detection result of the object detection unit;
a video creation unit that creates a video by editing only the portion of the still image with no risk so that the playback speed is N times (N>1) ,
The risk determination unit
both the person and the object are detected in the plurality of still images;
the person and the object overlap in the horizontal direction, or the person and the object are in the vicinity;
When the person is above the object,
Determining whether or not there is a degree of risk
An analysis device characterized by
請求項2に記載の解析装置であって、
前記人物検出部および前記対象物検出部の少なくとも1つは、ディープラーニング技術により生成された学習済みモデルを用いて、前記人物および前記対象物の少なくとも1つを検出すること
を特徴とする解析装置。
The analysis device according to claim 2,
At least one of the person detection unit and the object detection unit detects at least one of the person and the object using a trained model generated by deep learning technology. .
請求項2または3に記載の解析装置であって、
前記人物は第1の色または第1の模様を着用し、
前記人物検出部は、前記第1の色または前記第1の模様を検出することで、前記人物を検出すること
を特徴とする解析装置。
The analysis device according to claim 2 or 3,
said person wearing a first color or first pattern,
The analysis device, wherein the person detection unit detects the person by detecting the first color or the first pattern.
請求項2ないし4のいずれか1項に記載の解析装置であって、
前記対象物には第2の色または第2の模様が設定され、
前記対象物検出部は、前記第2の色または前記第2の模様を検出することで、前記対象物を検出すること
を特徴とする解析装置。
The analysis device according to any one of claims 2 to 4,
A second color or a second pattern is set on the object,
The analysis apparatus, wherein the object detection unit detects the object by detecting the second color or the second pattern.
請求項2から5のいずれか1項に記載の解析装置であって、
前記危険度判定部は、前記人物と前記動画を撮影するカメラとの距離、および、前記静止画の中で前記人物が映っている位置を用いて、前記人物の床からの高さを推定すること
を特徴とする解析装置。
The analysis device according to any one of claims 2 to 5 ,
The risk determination unit estimates the height of the person from the floor using the distance between the person and the camera that captures the moving image and the position where the person appears in the still image. An analysis device characterized by:
請求項2から6のいずれか1項に記載の解析装置であって、
前記危険度判定部は、前記人物が装着した高度計の測定データを用いて、前記人物の床からの高さを推定すること
を特徴とする解析装置。
The analysis device according to any one of claims 2 to 6 ,
The analysis device , wherein the risk determination unit estimates the height of the person from the floor using measurement data of an altimeter worn by the person.
請求項2から7のいずれか1項に記載の解析装置であって、
前記危険度判定部は、前記人物が下向きに装着したレーザー測距計の測定データを用いて、前記人物の床からの高さを推定すること
を特徴とする解析装置。
The analysis device according to any one of claims 2 to 7 ,
The analysis apparatus , wherein the risk determination unit estimates the height of the person from the floor using measurement data of a laser rangefinder worn by the person facing downward.
解析装置と表示装置とを有する危険作業検出システムが行う危険作業検出方法であって、
前記解析装置は、
作業を撮影した動画から抽出した複数の静止画を解析し、危険作業が実施されている静止画を検出する検出ステップを行い、
前記検出ステップは、
前記複数の静止画に人物および対象物の両方が検出され、
前記人物と前記対象物の水平方向が重なっているか、もしくは前記人物と前記対象物とが近傍であり、
前記人物が前記対象物より上方にある場合、
危険度の有無を有と判定し、
前記表示装置は、
前記危険作業が実施されている静止画の部分は第1の速度で再生し、前記危険作業が実施されている静止画以外の部分は、前記第1の速度より速い第2の速度で再生、または、再生せずスキップする再生ステップを行うこと
を特徴とする危険作業検出方法。
A dangerous work detection method performed by a dangerous work detection system having an analysis device and a display device,
The analysis device is
performing a detection step of analyzing a plurality of still images extracted from a moving image of work and detecting a still image of dangerous work being performed;
The detection step includes
both a person and an object are detected in the plurality of still images;
the person and the object overlap in the horizontal direction, or the person and the object are in the vicinity;
When the person is above the object,
Judging whether or not there is a degree of danger,
The display device
reproducing a portion of the still image in which the dangerous work is being performed at a first speed, and reproducing portions other than the still image in which the dangerous work is being performed at a second speed, which is faster than the first speed; Alternatively, a dangerous work detection method characterized by performing a regeneration step of skipping without regeneration.
コンピュータを、請求項2から8のいずれか1項に記載の解析装置として機能させるための危険作業検出プログラム。 A dangerous work detection program for causing a computer to function as the analysis device according to any one of claims 2 to 8.
JP2018128844A 2018-07-06 2018-07-06 Dangerous work detection system, analysis device, display device, dangerous work detection method, and dangerous work detection program Active JP7133375B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018128844A JP7133375B2 (en) 2018-07-06 2018-07-06 Dangerous work detection system, analysis device, display device, dangerous work detection method, and dangerous work detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018128844A JP7133375B2 (en) 2018-07-06 2018-07-06 Dangerous work detection system, analysis device, display device, dangerous work detection method, and dangerous work detection program

Publications (2)

Publication Number Publication Date
JP2020010154A JP2020010154A (en) 2020-01-16
JP7133375B2 true JP7133375B2 (en) 2022-09-08

Family

ID=69152535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018128844A Active JP7133375B2 (en) 2018-07-06 2018-07-06 Dangerous work detection system, analysis device, display device, dangerous work detection method, and dangerous work detection program

Country Status (1)

Country Link
JP (1) JP7133375B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112669266B (en) * 2020-12-18 2023-08-08 深兰科技(上海)有限公司 Ultrahigh detection method, ultrahigh detection device, electronic equipment and storage medium
JP7423501B2 (en) 2020-12-18 2024-01-29 株式会社クボタ Person detection system and vehicle equipped with person detection system
WO2023112214A1 (en) * 2021-12-15 2023-06-22 日本電信電話株式会社 Video-of-interest detection device, method, and program
JP2023170588A (en) * 2022-05-19 2023-12-01 スマートニュース株式会社 Program, method for controlling portable terminal, portable terminal, and information processing device
WO2024047793A1 (en) * 2022-08-31 2024-03-07 日本電気株式会社 Video processing system, video processing device, and video processing method
CN116523319B (en) * 2023-06-30 2023-09-08 中国市政工程西南设计研究总院有限公司 Comprehensive management method and system for intelligent park

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002042139A (en) 2000-07-25 2002-02-08 Hitachi Ltd Image recognizing method and image display device
JP2007243342A (en) 2006-03-06 2007-09-20 Yokogawa Electric Corp Image-monitoring apparatus and image-monitoring system
JP2014192776A (en) 2013-03-28 2014-10-06 Japan Advanced Institute Of Science & Technology Hokuriku Video monitoring system, video processing server, and method for browsing and delivering monitored video
JP2017016589A (en) 2015-07-06 2017-01-19 パラマウントベッド株式会社 Object person guiding device, object person guiding method, program and object person guiding system
JP2017049761A (en) 2015-09-01 2017-03-09 株式会社東芝 Electronic apparatus and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002042139A (en) 2000-07-25 2002-02-08 Hitachi Ltd Image recognizing method and image display device
JP2007243342A (en) 2006-03-06 2007-09-20 Yokogawa Electric Corp Image-monitoring apparatus and image-monitoring system
JP2014192776A (en) 2013-03-28 2014-10-06 Japan Advanced Institute Of Science & Technology Hokuriku Video monitoring system, video processing server, and method for browsing and delivering monitored video
JP2017016589A (en) 2015-07-06 2017-01-19 パラマウントベッド株式会社 Object person guiding device, object person guiding method, program and object person guiding system
JP2017049761A (en) 2015-09-01 2017-03-09 株式会社東芝 Electronic apparatus and method

Also Published As

Publication number Publication date
JP2020010154A (en) 2020-01-16

Similar Documents

Publication Publication Date Title
JP7133375B2 (en) Dangerous work detection system, analysis device, display device, dangerous work detection method, and dangerous work detection program
US9684835B2 (en) Image processing system, image processing method, and program
KR102294194B1 (en) Apparatus and method for visualization of region of interest
JP4996404B2 (en) Human behavior search device
US10970551B2 (en) Control apparatus and control method for determining relation of persons included in an image, and storage medium storing a program therefor
CN113962282B (en) Ship cabin fire real-time detection system and method based on improved yolov5l+deep
KR20090093904A (en) Apparatus and method for scene variation robust multimedia image analysis, and system for multimedia editing based on objects
US11189035B2 (en) Retrieval device, retrieval method, and computer program product
US11257224B2 (en) Object tracker, object tracking method, and computer program
US20080225131A1 (en) Image Analysis System and Image Analysis Method
KR102016117B1 (en) Apparatus for providing augmented reality data to user terminal and operating method thereof
CN112906441A (en) Image recognition system and method for communication industry survey and maintenance
CN112016509B (en) Personnel station abnormality reminding method and device
US9538146B2 (en) Apparatus and method for automatically detecting an event in sensor data
WO2019187288A1 (en) Information processing device, data generation method, and non-transient computer-readable medium whereon program has been stored
CN115597609A (en) Positioning analysis method, positioning analysis device, navigation equipment and computer readable storage medium
JP4561266B2 (en) Falling object detector
JP6309157B2 (en) Passenger conveyor inspection device, passenger conveyor inspection method and program
JP6987902B2 (en) Controls, control methods and programs
CN110662106B (en) Video playback method and device
KR101614412B1 (en) Method and Apparatus for Detecting Fall Down in Video
JP7247310B2 (en) CONTROL DEVICE, CONTROL METHOD, PROGRAM AND SYSTEM
JP4429349B2 (en) Recording device and program for the recording device
JP2006352879A (en) Method of identifying and visualizing event in video frame, and system for generating timeline of event in video stream
WO2023171184A1 (en) Moving image integration device, moving image integration method, and moving image integration program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220829

R150 Certificate of patent or registration of utility model

Ref document number: 7133375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150