JP2021086222A - Information processing system - Google Patents

Information processing system Download PDF

Info

Publication number
JP2021086222A
JP2021086222A JP2019212606A JP2019212606A JP2021086222A JP 2021086222 A JP2021086222 A JP 2021086222A JP 2019212606 A JP2019212606 A JP 2019212606A JP 2019212606 A JP2019212606 A JP 2019212606A JP 2021086222 A JP2021086222 A JP 2021086222A
Authority
JP
Japan
Prior art keywords
information
information processing
processing system
driver
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019212606A
Other languages
Japanese (ja)
Other versions
JP6811830B1 (en
Inventor
昌弘 藤澤
Masahiro Fujisawa
昌弘 藤澤
賢志 松岡
Kenji Matsuoka
賢志 松岡
潤一 大木
Junichi Oki
潤一 大木
寛佳 三國
Hiroyoshi Mikuni
寛佳 三國
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Kisen Kaisha Ltd
Original Assignee
Kawasaki Kisen Kaisha Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Kisen Kaisha Ltd filed Critical Kawasaki Kisen Kaisha Ltd
Priority to JP2019212606A priority Critical patent/JP6811830B1/en
Application granted granted Critical
Publication of JP6811830B1 publication Critical patent/JP6811830B1/en
Publication of JP2021086222A publication Critical patent/JP2021086222A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a system to acquire information on an automobile and its driver that is useful for analyzing causes and a trend of accidents in cargo handling on an automobile carrying vessel.SOLUTION: A system for processing information when cargo handling of automobiles that are cargo on an automobile carrying vessel includes: a plurality of cameras installed in the automobile carrying vessel to take images of a passage of each automobile; and an information processor comprising a control part. The plurality of cameras include one or more sets of camera groups, each of which consists of two or more cameras whose shooting directions are different from each other. The control part acquires proximity information between the automobiles, proximity information between the automobile and a person, and speed information of the automobile based on the videos captured by the camera groups.SELECTED DRAWING: Figure 2

Description

この発明は、自動車運搬船において、貨物である自動車の荷役を行う際の情報を処理するシステムに関する。 The present invention relates to a system for processing information when handling an automobile, which is cargo, in a car carrier.

自動車運搬船における荷役では、複数の作業員が、貨物である自動車を順次に運転して、自動車の積み込み又は荷下ろしを行う。自動車運搬船においては、作業員の安全を確保しつつ、製品である自動車にダメージを与えることなく荷役することが重要である。従って、作業員のミスや不注意等による事故の発生を抑え、作業員に危険が及ぶ度合い、及び自動車へのダメージが発生する度合いを低減させる必要がある。 In cargo handling on a car carrier, a plurality of workers sequentially drive a car, which is a cargo, to load or unload the car. In a car carrier, it is important to ensure the safety of workers and to handle cargo without damaging the car, which is a product. Therefore, it is necessary to suppress the occurrence of accidents due to workers' mistakes and carelessness, and to reduce the degree of danger to workers and the degree of damage to automobiles.

ここで、作業ロボットを利用する物流システムにおいては、事故等の異常を抑えるために、パラメータを調整する情報処理装置が提案されている(特許文献1参照)。 Here, in a physical distribution system using a work robot, an information processing device that adjusts parameters has been proposed in order to suppress an abnormality such as an accident (see Patent Document 1).

特許第6458155号Patent No. 6458155

ここで、従来は、事故履歴やいずれの作業員が事故を起こしたかといった情報を収集するのみで、荷役の際の自動車及び作業員に関する分析可能な情報を取得していなかった。そして、自動車運搬船での荷役における事故に対しては、作業員の経験や勘に基づく対策が主となっていた。このため、事故に対する本質的な原因の特定が分析できず、効率的に事故の対策ができていなかった。 Here, conventionally, only the accident history and the information such as which worker caused the accident were collected, and the analyzable information on the automobile and the worker at the time of cargo handling was not acquired. And, for accidents in cargo handling on a car carrier, measures based on the experience and intuition of workers were the main measures. For this reason, it was not possible to analyze the identification of the essential cause of the accident, and it was not possible to take effective measures against the accident.

また、上述した特許文献1に係る情報処理装置は、自動車運搬船内において、作業員が運転して自動車の積み込み又は荷下ろしを行う荷役を想定しておらず、直接的に適用することが困難である。自動車の荷役における事故を低減するためには、荷役の際の自動車及び作業員に関し、例えば場所、時間又は状況等と関連づけて事故の原因や傾向を分析できる、有用な情報を取得することが必要である。 Further, the information processing device according to Patent Document 1 described above does not assume cargo handling in which a worker drives to load or unload an automobile in a car carrier, and it is difficult to directly apply the information processing device. is there. In order to reduce accidents in the handling of automobiles, it is necessary to acquire useful information on automobiles and workers during cargo handling that can analyze the causes and trends of accidents in relation to, for example, location, time or situation. Is.

そこで、この発明の目的は、自動車運搬船における荷役において、事故の原因や傾向の分析に有用な、自動車及び作業員に関する情報を取得する情報処理システムを提供することにある。 Therefore, an object of the present invention is to provide an information processing system for acquiring information on automobiles and workers, which is useful for analyzing the causes and trends of accidents in cargo handling on a car carrier.

上述した目的を達成するために、この発明の情報処理システムは、自動車運搬船において、貨物である自動車の荷役を行う際の情報を処理するシステムであって、自動車運搬船内に設置され、それぞれ自動車の通路を撮影する複数のカメラと、制御部を備える情報処理装置とを備えて構成される。複数のカメラは、撮影方向が互いに異なる2以上のカメラで一組のカメラグループを一又は複数組含む。制御部は、カメラグループが撮影した動画に基づいて、自動車間の近接情報、自動車と人との間の近接情報、及び自動車の速度情報を取得する。 In order to achieve the above-mentioned object, the information processing system of the present invention is a system for processing information when handling a car as cargo in a car carrier, and is installed in the car carrier and is installed in the car carrier. It is configured to include a plurality of cameras for photographing a passage and an information processing device including a control unit. The plurality of cameras include one or a plurality of a set of two or more cameras having different shooting directions. The control unit acquires proximity information between automobiles, proximity information between automobiles and people, and speed information of automobiles based on a moving image taken by a camera group.

この発明の情報処理システムでは、撮影方向が互いに異なる2以上のカメラで一組のカ
メラグループを用いて動画を撮影することによって、カメラの設置位置毎及び撮影時刻毎の、正確な近接情報を取得することができる。この近接情報を用いることによって、この発明の情報処理システムでは、位置毎及び時刻毎に、例えばヒヤリハットを高精度で検知することができる。従って、この発明の情報処理システムでは、事故の原因や傾向の分析に有用な情報を取得することができる。
In the information processing system of the present invention, accurate proximity information is acquired for each camera installation position and each shooting time by shooting a moving image using a set of camera groups with two or more cameras having different shooting directions. can do. By using this proximity information, the information processing system of the present invention can detect, for example, a hiyari hat with high accuracy for each position and each time. Therefore, in the information processing system of the present invention, it is possible to acquire information useful for analyzing the cause and tendency of an accident.

この発明の情報処理システムを導入した自動車運搬船内を示す模式図である。It is a schematic diagram which shows the inside of the car carrier which introduced the information processing system of this invention. この発明の情報処理システムが備える情報処理装置を示す模式図である。It is a schematic diagram which shows the information processing apparatus provided in the information processing system of this invention. 近接情報を取得するために、近接判定手段が実施する動作を示すフローチャートである。It is a flowchart which shows the operation which the proximity determination means performs in order to acquire proximity information. 情報統括手段が作製するリストの一例を示す模式図である。It is a schematic diagram which shows an example of the list created by the information management means. この発明の情報処理システムを利用して作成したヒートマップを示す模式図である。It is a schematic diagram which shows the heat map created by using the information processing system of this invention.

以下、図を参照して、この発明の実施の形態について説明するが、各構成要素の形状、大きさ及び配置関係については、この発明が理解できる程度に概略的に示したものに過ぎない。また、以下、この発明の好適な構成例につき説明するが、各構成要素の材質及び数値的条件などは、単なる好適例にすぎない。従って、この発明は以下の実施の形態に限定されるものではなく、この発明の構成の範囲を逸脱せずにこの発明の効果を達成できる多くの変更又は変形を行うことができる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings, but the shape, size, and arrangement of each component are only schematically shown to the extent that the present invention can be understood. Further, although a preferable configuration example of the present invention will be described below, the material and numerical conditions of each component are merely suitable examples. Therefore, the present invention is not limited to the following embodiments, and many modifications or modifications can be made that can achieve the effects of the present invention without departing from the scope of the constitution of the present invention.

(情報処理システム)
図1及び図2を参照して、この実施の形態に係る情報処理システムについて説明する。図1は、情報処理システムを導入した自動車運搬船内を示す模式図である。また、図2は、情報処理システムが備える情報処理装置を示す模式図である。
(Information processing system)
The information processing system according to this embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 is a schematic view showing the inside of a car carrier in which an information processing system is introduced. Further, FIG. 2 is a schematic diagram showing an information processing device included in the information processing system.

既に説明したように、自動車運搬船300における荷役では、複数の作業員100(図1の例では作業員100−1及び100−2)が、貨物である自動車200(図1の例では自動車200−1及び200−2)を順次に運転して、自動車200の積み込み又は荷下ろしを行う。自動車200は、作業員100が運転することによって、自動車運搬船300内で予め定められた所定の通路を走行する。 As described above, in the cargo handling in the car carrier 300, a plurality of workers 100 (workers 100-1 and 100-2 in the example of FIG. 1) are cargo vehicles 200 (car 200-in the example of FIG. 1). 1 and 200-2) are sequentially operated to load or unload the automobile 200. The automobile 200 is driven by the worker 100 to travel in a predetermined passage in the car carrier 300.

この実施の形態に係る情報処理システムは、自動車の荷役を行う際の情報を処理するシステムとして自動車運搬船300に導入される。そして、この実施の形態に係る情報処理システムは、自動車運搬船300内に設置された複数のカメラ10、自動車200を運転する作業員(すなわち運転手)100が保有するビーコン20、ビーコン受信器30、運転手100が着用するウェアラブルデバイス40、及び情報処理装置50を含んでいる。 The information processing system according to this embodiment is introduced into the car carrier 300 as a system for processing information when handling a car. The information system according to this embodiment includes a plurality of cameras 10 installed in the automobile carrier 300, a beacon 20 owned by a worker (that is, a driver) 100 who drives the automobile 200, and a beacon receiver 30. It includes a wearable device 40 worn by the driver 100 and an information processing device 50.

複数のカメラ10は、それぞれ自動車200が走行する通路の動画を撮影する。各カメラ10は、それぞれ自動車運搬船300内の所定の位置に設置され、所定の範囲を撮影する。 Each of the plurality of cameras 10 captures a moving image of the passage through which the automobile 200 travels. Each camera 10 is installed at a predetermined position in the car carrier 300 and photographs a predetermined range.

また、2以上のカメラ10で一組のカメラグループ15が一又は複数組構成される。図1の例では、それぞれ2つのカメラ10を含むカメラグループ15−1及び15−2が構成されている。 Further, one or more sets of camera groups 15 are formed by two or more cameras 10. In the example of FIG. 1, camera groups 15-1 and 15-2 including two cameras 10 are configured.

同一のカメラグループ15に含まれる各カメラ10は、撮影方向が互いに異なるように配置される。これにより、各カメラグループ15の撮影範囲において、通路を走行する自
動車200を複数の方向(ここでは2方向)から撮影することができる。この結果、カメラグループ15では、一方のカメラ10の撮影方向に直交する平面視、及び他方のカメラ10の撮影方向に直交する平面視において、撮影範囲に存在する自動車200同士の間の距離、及び自動車200と人(例えば自動車200に搭乗せずに作業を行う作業員)との間の距離を監視することができる。
The cameras 10 included in the same camera group 15 are arranged so that the shooting directions are different from each other. As a result, in the shooting range of each camera group 15, the automobile 200 traveling in the aisle can be photographed from a plurality of directions (here, two directions). As a result, in the camera group 15, in the plan view orthogonal to the shooting direction of one camera 10 and the plan view orthogonal to the shooting direction of the other camera 10, the distance between the automobiles 200 existing in the shooting range and the distance between the automobiles 200 are present. The distance between the vehicle 200 and a person (eg, a worker who works without boarding the vehicle 200) can be monitored.

また、カメラグループ15としては、撮影方向が互いに直交する2つのカメラ10を含むのが好ましい。この場合、一方のカメラ10の撮影方向(奥行き)が、他方のカメラ10の撮影方向に直交する平面と平行となる。このため、自動車200同士の間の距離、並びに自動車200と人との間の距離を正確に監視することができる。例えば、一方のカメラ10の撮影方向(奥行き)に沿って人及び自動車200が並んでいる場合、一方のカメラ10のみでは、これら人及び自動車200間の離間距離を把握することが困難である。この場合に、他方のカメラ10が撮影した動画を併せて確認することにより、一方のカメラ10の撮影方向(奥行き)に沿った離間距離を把握することができる。 Further, the camera group 15 preferably includes two cameras 10 whose shooting directions are orthogonal to each other. In this case, the shooting direction (depth) of one camera 10 is parallel to the plane orthogonal to the shooting direction of the other camera 10. Therefore, the distance between the automobiles 200 and the distance between the automobiles 200 and a person can be accurately monitored. For example, when a person and a car 200 are lined up along the shooting direction (depth) of one camera 10, it is difficult to grasp the separation distance between the person and the car 200 with only one camera 10. In this case, the separation distance along the shooting direction (depth) of one camera 10 can be grasped by also checking the moving image shot by the other camera 10.

従って、各カメラグループ15に含まれるそれぞれのカメラ10が撮影した動画は、自動車200同士の間、及び自動車200と人との間における近接情報取得のためのデータとして利用することができる。 Therefore, the moving image taken by each camera 10 included in each camera group 15 can be used as data for acquiring proximity information between the automobiles 200 and between the automobiles 200 and a person.

また、カメラ10が撮影した、走行中の自動車200の動画は、自動車200の速度情報を取得するためのデータとして利用することもできる。 Further, the moving image of the moving automobile 200 taken by the camera 10 can also be used as data for acquiring the speed information of the automobile 200.

なお、図1では、複数のカメラ10がそれぞれ一つのカメラグループ15に含まれる構成例を示しているが、カメラ10が複数のカメラグループ15に重複して含まれる構成とすることもできる。 Although FIG. 1 shows a configuration example in which each of the plurality of cameras 10 is included in one camera group 15, the camera 10 may be included in the plurality of camera groups 15 in an overlapping manner.

また、図1では、カメラグループ15に含まれるカメラ10が、自動車200の速度情報を取得するためのデータとしての動画を撮影する構成例を示しているが、速度情報取得用の動画を撮影する速度計測用カメラ(図示せず)として、カメラグループ15に含まれない、一又は複数のカメラを設置することもできる。 Further, FIG. 1 shows a configuration example in which the camera 10 included in the camera group 15 shoots a moving image as data for acquiring the speed information of the automobile 200, but shoots a moving image for acquiring the speed information. As a speed measurement camera (not shown), one or more cameras not included in the camera group 15 can be installed.

各カメラ10が撮影した時刻毎の動画は、情報処理装置50に送られる。 The moving images taken by each camera 10 for each time are sent to the information processing device 50.

各運転手100は、ビーコン20を保有している。各ビーコン20には、それぞれ例えば固有の識別番号等の識別記号が付与されており、各ビーコン20を識別することが可能となっている。ビーコン20は、識別記号を含む無線信号を常時発信している。ビーコン20が発信する無線信号は、自動車運搬船300内に設置されたビーコン受信器30によって受信される。ビーコン受信器30が受信する無線信号の強度に応じて、ビーコン20の位置が特定される。ビーコン受信器30は、一又は複数台設置することができる。図1に示す構成例では、情報処理システムは2台のビーコン受信器30−1及び30−2を備えている。この場合には、各ビーコン受信器30−1及び30−2間での、ビーコン20からの無線信号の相対的な強度比に基づいて、ビーコン20の位置を正確に特定することができる。従って、ビーコン受信器30を1台とする場合と比べて、ビーコン20の位置の特定精度が向上する。 Each driver 100 owns a beacon 20. Each beacon 20 is given an identification symbol such as a unique identification number, and each beacon 20 can be identified. The beacon 20 constantly transmits a radio signal including an identification symbol. The radio signal transmitted by the beacon 20 is received by the beacon receiver 30 installed in the car carrier 300. The position of the beacon 20 is specified according to the strength of the radio signal received by the beacon receiver 30. One or more beacon receivers 30 can be installed. In the configuration example shown in FIG. 1, the information processing system includes two beacon receivers 30-1 and 30-2. In this case, the position of the beacon 20 can be accurately determined based on the relative intensity ratio of the radio signal from the beacon 20 between the beacon receivers 30-1 and 30-2. Therefore, the accuracy of specifying the position of the beacon 20 is improved as compared with the case where one beacon receiver 30 is used.

ビーコン受信器30は、時刻毎に特定した各ビーコン20の位置情報を、上述の識別記号とともに情報処理装置50に送る。 The beacon receiver 30 sends the position information of each beacon 20 specified for each time to the information processing device 50 together with the above-mentioned identification symbol.

ビーコン受信器30としては、例えばラピスセミコンダクタ株式会社製のTensolve Boxを用いることができる。 As the beacon receiver 30, for example, a Tensolve Box manufactured by LAPIS Semiconductor Co., Ltd. can be used.

各運転手100は、ウェアラブルデバイス40を着用している。各ウェアラブルデバイス40には、それぞれ例えば固有の識別番号等の識別記号が付与されており、各ウェアラブルデバイス40で識別可能となっている。ウェアラブルデバイス40は、各運転手100の心電/心拍等の生体情報を取得し、時刻毎の生体情報を、上述の識別記号とともに情報処理装置50に送る。 Each driver 100 wears a wearable device 40. Each wearable device 40 is given an identification symbol such as a unique identification number, and each wearable device 40 can identify the wearable device 40. The wearable device 40 acquires biometric information such as electrocardiogram / heartbeat of each driver 100, and sends the biometric information for each time to the information processing device 50 together with the above-mentioned identification symbol.

ウェアラブルデバイス40としては、例えばミツフジ株式会社製のhamon(登録商標)を用いることができる。 As the wearable device 40, for example, hamon (registered trademark) manufactured by Mitsufuji Corporation can be used.

情報処理装置50は、ネットワークインターフェース(図示せず)に接続されており、カメラ10、ビーコン受信器30、及びウェアラブルデバイス40のそれぞれと無線又は有線による通信を行う。そして、カメラ10から送られる動画、ビーコン受信器30から送られる位置情報、及びウェアラブルデバイス40から送られる生体情報を受け取る。また、情報処理装置50は、ネットワークインターフェースを経由してインターネットに接続することができる。 The information processing device 50 is connected to a network interface (not shown) and communicates wirelessly or by wire with each of the camera 10, the beacon receiver 30, and the wearable device 40. Then, it receives the moving image sent from the camera 10, the position information sent from the beacon receiver 30, and the biological information sent from the wearable device 40. Further, the information processing device 50 can be connected to the Internet via a network interface.

情報処理装置50としては、例えばパーソナルコンピュータを用いることができる。情報処理装置50は、記憶部51及びこの記憶部51と接続された制御部52を含んでいる。 As the information processing device 50, for example, a personal computer can be used. The information processing device 50 includes a storage unit 51 and a control unit 52 connected to the storage unit 51.

記憶部51は、カメラ10から送られる動画、ビーコン受信器30から送られる位置情報及び識別記号、並びにウェアラブルデバイス40から送られる生体情報及び識別記号を保持する。記憶部51としては、例えばハードディスク等の記憶手段で構成されている。また、記憶部51として、情報処理装置50を構成するパーソナルコンピュータに着脱自在な、例えばSSD(Solid State Drive)等の外付けの記憶装置や、クラウド等の外部のサーバを用いることもできる。 The storage unit 51 holds a moving image sent from the camera 10, a position information and an identification symbol sent from the beacon receiver 30, and a biological information and an identification symbol sent from the wearable device 40. The storage unit 51 is composed of storage means such as a hard disk. Further, as the storage unit 51, an external storage device such as an SSD (Solid State Drive) that can be attached to and detached from the personal computer constituting the information processing device 50, or an external server such as a cloud can be used.

制御部52は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access
Memory)を含んで構成されており、情報処理システム全体の動作を制御する。CPUは、ROM又はRAMに格納されている所定の制御プログラムに従って各種処理を実行する。制御部52が備える各機能手段は、RAM等に格納されているプログラムが実行されることによって実現される。CPUが実行するこれら処理の結果等は、適宜RAMや記憶部51等に格納される。
The control unit 52 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access).
It is configured to include Memory) and controls the operation of the entire information processing system. The CPU executes various processes according to a predetermined control program stored in the ROM or RAM. Each functional means included in the control unit 52 is realized by executing a program stored in RAM or the like. The results of these processes executed by the CPU are appropriately stored in the RAM, the storage unit 51, or the like.

制御部52は、機能手段として、カメラ特定手段501、運転手特定手段502、近接判定手段503、速度算出手段504、ストレス量算出手段505、及び情報統括手段506を備えている。なお、制御部52が備える各機能手段の一部又は全部は、例えばクラウド等の外部のサーバに保持させることもできる。 The control unit 52 includes camera identification means 501, driver identification means 502, proximity determination means 503, speed calculation means 504, stress amount calculation means 505, and information control means 506 as functional means. In addition, a part or all of each functional means provided in the control unit 52 can be held in an external server such as a cloud.

カメラ特定手段501は、RAM等に格納されているカメラ10に関する情報を読み出して、各カメラ10の自動車運搬船300内における設置位置、撮影方向及び帰属先カメラグループ15を特定する。そして、カメラ特定手段501は、記憶部51が保持する動画を、その動画を撮影したカメラ10の設置位置、撮影方向及び帰属先カメラグループ15と関連付ける。 The camera identifying means 501 reads out information about the camera 10 stored in RAM or the like, and identifies the installation position, shooting direction, and belonging camera group 15 of each camera 10 in the car carrier 300. Then, the camera identifying means 501 associates the moving image held by the storage unit 51 with the installation position, the shooting direction, and the belonging camera group 15 of the camera 10 that has taken the moving image.

運転手特定手段502は、例えばRAM等に格納されている、各運転手100がそれぞれ保有するビーコン20の識別記号の情報を読み出して、ビーコン20と運転手100とを関連付ける。そして、運転手特定手段502は、記憶部51が保持する、ビーコン20
の各位置情報に基づいて、各ビーコン20を保有している運転手100の時刻毎の位置を特定する。
The driver identifying means 502 reads out the information of the identification symbol of the beacon 20 held by each driver 100, which is stored in, for example, a RAM or the like, and associates the beacon 20 with the driver 100. Then, the driver identifying means 502 is held by the storage unit 51, and the beacon 20 is held.
Based on each position information of the above, the position of the driver 100 holding each beacon 20 for each time is specified.

近接判定手段503は、自動車間の近接情報、及び自動車と人との間の近接情報を取得する。ここで、図3を参照して、近接判定手段503による近接情報の取得について説明する。図3は、近接情報を取得するために、近接判定手段503が実施する動作を示すフローチャートである。 The proximity determination means 503 acquires proximity information between automobiles and proximity information between automobiles and people. Here, the acquisition of proximity information by the proximity determination means 503 will be described with reference to FIG. FIG. 3 is a flowchart showing an operation performed by the proximity determination means 503 in order to acquire proximity information.

近接判定手段503は、各カメラ10の帰属先カメラグループ15の情報に基づき、カメラグループ15毎に以下のフローを実施する。 The proximity determination means 503 executes the following flow for each camera group 15 based on the information of the belonging camera group 15 of each camera 10.

まず、近接判定手段503は、選択した一つのカメラグループ15に含まれる一つのカメラ10の動画を参照する(S1)。 First, the proximity determination means 503 refers to a moving image of one camera 10 included in one selected camera group 15 (S1).

次に、近接判定手段503は、2台以上の自動車200、又は自動車200と人とが画角に収まり、かつ画角に収まる少なくとも1台の自動車200が走行している(停車していない)時刻(判定対象時刻)が存在する動画(判定対象動画)があるか否かを判定する(S2)。なお、近接判定手段503は、例えば、動画に写る物体について自動車か人かを判定するように機械学習された学習モデルを利用することによって、判定対象動画において自動車200と人との識別を行うことができる。学習モデルは、例えばRAM等に格納されている。 Next, in the proximity determination means 503, two or more automobiles 200, or at least one automobile 200 in which the automobile 200 and a person fit in the angle of view and the vehicle 200 fits in the angle of view is running (not stopped). It is determined whether or not there is a moving image (determination target moving image) in which the time (judgment target time) exists (S2). The proximity determination means 503 distinguishes between the automobile 200 and the person in the determination target moving image by using, for example, a learning model machine-learned to determine whether the object in the moving image is a car or a person. Can be done. The learning model is stored in, for example, RAM.

判定対象動画がない場合(S2のNo)には、近接判定手段503は、近接情報取得のフローを終了する。 When there is no determination target moving image (No in S2), the proximity determination means 503 ends the flow of acquiring proximity information.

判定対象動画がある場合(S2のYes)には、近接判定手段503は、判定対象時刻において、判定対象動画に写る2台の自動車200間、又は自動車200と人との間の、その判定対象動画を撮影したカメラ10の撮影方向における離間距離を算出する(S3)。 When there is a determination target moving image (Yes in S2), the proximity determination means 503 determines the determination target between the two automobiles 200 or between the automobile 200 and the person shown in the determination target moving image at the determination target time. The separation distance in the shooting direction of the camera 10 that shot the moving image is calculated (S3).

次に、近接判定手段503は、上述したS3で算出した2台の自動車200間、又は自動車200と人との間の離間距離に基づいて、自動車200同士、又は自動車200と人とが近接したか否かを判定する(S4)。 Next, in the proximity determination means 503, the vehicles 200 or the vehicles 200 and the person are close to each other based on the distance between the two vehicles 200 calculated in S3 described above, or the distance between the vehicles 200 and the person. Whether or not it is determined (S4).

ここでは、近接判定手段503は、S3で算出した離間距離が、予め設定した所定の距離よりも短い場合に、自動車200同士、又は自動車200と人とが近接した、と判定する。なお、自動車200同士、又は自動車200と人とが接触した場合(すなわち離間距離が0の場合)にも、近接判定手段503は、近接したと判定する。 Here, the proximity determination means 503 determines that the automobiles 200 or the automobile 200 and a person are close to each other when the separation distance calculated in S3 is shorter than a predetermined distance set in advance. Even when the automobiles 200 come into contact with each other or the automobile 200 and a person come into contact with each other (that is, when the separation distance is 0), the proximity determination means 503 determines that they are close to each other.

近接していないと判定した場合(S4のNo)には、近接判定手段503は、後述するS9のステップを実施する。 When it is determined that they are not close to each other (No in S4), the proximity determination means 503 carries out the step of S9 described later.

近接したと判定した場合(S4のYes)には、近接判定手段503は、その判定対象動画を撮影したカメラ10と共通のカメラグループ15に含まれる他のカメラ10の、判定対象時刻における動画を参照する(S5)。 When it is determined that they are close to each other (Yes in S4), the proximity determination means 503 determines the moving image of another camera 10 included in the camera group 15 common to the camera 10 that captured the determination target moving image at the determination target time. Refer to (S5).

次に、近接判定手段503は、上述の判定対象動画を撮影したカメラ10が帰属するカメラグループ15に含まれる他のカメラ10の、判定対象時刻における動画に基づいて、2台の自動車200間、又は自動車200と人との間の、他のカメラ10の撮影方向における離間距離を算出する(S6)。 Next, the proximity determination means 503 is located between the two automobiles 200 based on the moving images of the other cameras 10 included in the camera group 15 to which the camera 10 that captured the above-mentioned determination target moving image belongs at the determination target time. Alternatively, the distance between the automobile 200 and the person in the shooting direction of the other camera 10 is calculated (S6).

次に、近接判定手段503は、上述したS6で算出した2台の自動車200間、又は自動車200と人との間の離間距離に基づいて、自動車200同士、又は自動車200と人とが近接したか否かを判定する(S7)。 Next, in the proximity determination means 503, based on the distance between the two automobiles 200 calculated in S6 described above, or the distance between the automobiles 200 and the person, the automobiles 200 or the automobiles 200 and the person are close to each other. Whether or not it is determined (S7).

ここでは、近接判定手段503は、S6で算出した離間距離が、予め設定した所定の距離よりも短い場合に、自動車200同士、又は自動車200と人とが近接した、と判定する。なお、自動車200同士、又は自動車200と人とが接触した場合(すなわち離間距離が0の場合)にも、近接判定手段503は、近接したと判定する。 Here, the proximity determination means 503 determines that the automobiles 200 or the automobile 200 and a person are close to each other when the separation distance calculated in S6 is shorter than a predetermined distance set in advance. Even when the automobiles 200 come into contact with each other or the automobile 200 and a person come into contact with each other (that is, when the separation distance is 0), the proximity determination means 503 determines that they are close to each other.

近接していないと判定した場合(S7のNo)には、近接判定手段503は、後述するS9のステップを実施する。 When it is determined that they are not close to each other (No in S7), the proximity determination means 503 carries out the step of S9 described later.

近接したと判定した場合(S7のYes)には、近接判定手段503は、近接の発生、その近接の判定に用いた判定対象動画を撮影したカメラ10の自動車運搬船300内における設置位置、撮影方向及び帰属先カメラグループ15、並びに近接が発生した時刻を含む近接情報を、情報統括手段506に通知する(S8)。 When it is determined that they are close to each other (Yes in S7), the proximity determination means 503 determines the occurrence of the proximity, the installation position and the shooting direction of the camera 10 in the car carrier 300 that has captured the determination target video used for the determination of the proximity. And the proximity information including the belonging camera group 15 and the time when the proximity occurred is notified to the information management means 506 (S8).

上述したように、各カメラグループ15に含まれるカメラ10は、それぞれ互いに撮影方向が異なっている。このため、S3において一つのカメラ10の撮影方向における離間距離を、及びS6において他のカメラ10の撮影方向における離間距離を、それぞれ算出することによって、2台の自動車200間、又は自動車200と人との間の互いの相対的な位置を正確に把握することができる。そして、S4における一つのカメラ10の動画に基づく近接の判定、及びS7における他のカメラ10の動画に基づく近接の判定の双方において近接したと判定された場合に、近接が発生したとして、近接情報の通知を行うことができる。 As described above, the cameras 10 included in each camera group 15 have different shooting directions from each other. Therefore, by calculating the separation distance in the shooting direction of one camera 10 in S3 and the separation distance in the shooting direction of the other camera 10 in S6, the distance between the two cars 200 or the car 200 and the person It is possible to accurately grasp the relative positions of the two with each other. Then, when it is determined that the proximity is determined in both the determination of the proximity based on the moving image of one camera 10 in S4 and the determination of the proximity based on the moving image of the other camera 10 in S7, the proximity information is assumed to have occurred. Can be notified.

次に、近接判定手段503は、他の判定対象動画があるか否かを確認する(S9)。他の判定対象動画がある場合(S9のYes)には、近接判定手段503は、上述したS3〜S8のステップを実施して、近接の判定を行う。他の判定対象動画がない場合(S9のNo)には、近接判定手段503は、フローを終了する。 Next, the proximity determination means 503 confirms whether or not there is another determination target moving image (S9). When there is another determination target moving image (Yes in S9), the proximity determination means 503 performs the steps S3 to S8 described above to determine the proximity. When there is no other determination target moving image (No in S9), the proximity determination means 503 ends the flow.

速度算出手段504は、記憶部51が保持する動画に基づいて、各動画に映る、走行中の自動車200の速度を算出する。ここでは、自動車200の速度を算出する手法の一例として、速度算出手段504は、動画に写る自動車200の走行経路に対して、自動車200の進行方向に直行する開始線及び終了線を設定する。そして、開始線及び終了線間を走行する自動車200について、開始線及び終了線間の距離を、その自動車200が開始線を通過してから終了線を通過するまでの時間で除算する。これによって、速度算出手段504は、自動車200の速度を算出する。 The speed calculation means 504 calculates the speed of the moving automobile 200 shown in each moving image based on the moving image held by the storage unit 51. Here, as an example of the method of calculating the speed of the automobile 200, the speed calculation means 504 sets a start line and an end line that are orthogonal to the traveling direction of the automobile 200 with respect to the traveling path of the automobile 200 shown in the moving image. Then, for the automobile 200 traveling between the start line and the end line, the distance between the start line and the end line is divided by the time from when the automobile 200 passes the start line to when the automobile 200 passes the end line. As a result, the speed calculation means 504 calculates the speed of the automobile 200.

速度算出手段504は、各算出した速度、各算出した速度に係る自動車200を撮影したカメラ10の設置位置及び撮影方向、並びに各算出した速度に係る自動車200を撮影した時刻の情報を含む速度情報を、情報統括手段506に通知する。 The speed calculation means 504 includes speed information including information on each calculated speed, the installation position and shooting direction of the camera 10 that photographed the vehicle 200 related to each calculated speed, and the time when the vehicle 200 was photographed according to each calculated speed. Is notified to the information control means 506.

ストレス量算出手段505は、RAM等に格納されている、各運転手100が着用するウェアラブルデバイス40の識別記号の情報を読み出して、ウェアラブルデバイス40と運転手100とを関連付ける。そして、ストレス量算出手段505は、記憶部51が保持する、各ウェアラブルデバイス40からの生体情報に基づいて、各運転手100の時刻毎のストレス量を算出する。さらに、ストレス量算出手段505は、算出した各運転手100の時刻毎のストレス量を含むストレス情報を、情報統括手段506に通知する。 The stress amount calculating means 505 reads out the information of the identification symbol of the wearable device 40 worn by each driver 100 stored in the RAM or the like, and associates the wearable device 40 with the driver 100. Then, the stress amount calculation means 505 calculates the stress amount for each time of each driver 100 based on the biological information from each wearable device 40 held by the storage unit 51. Further, the stress amount calculation means 505 notifies the information control means 506 of stress information including the calculated stress amount for each time of each driver 100.

情報統括手段506は、近接判定手段503から通知される近接情報、速度算出手段504から通知される速度情報、及びストレス量算出手段505から通知されるストレス情報を統括して、自動車の荷役における情報をリスト化する。 The information control means 506 integrates the proximity information notified from the proximity determination means 503, the speed information notified from the speed calculation means 504, and the stress information notified from the stress amount calculation means 505, and provides information in the cargo handling of the automobile. To list.

図4に、情報統括手段506が作製したリストの一例を示す。ここでは、一つのカメラグループ15の撮影範囲における毎秒の近接情報、速度情報及びストレス情報と、これらに係る運転手100の情報とを統括してリスト化した例を示している。図4に係るリストでは、自動車運搬船300内の位置、日、時刻、天候、温度、カメラグループ15が撮影した、人(例えば自動車200に搭乗せずに作業する作業員)及び自動車200の数(図4に示す人検知及び車検知)、カメラグループ15が撮影した自動車200の速度、カメラグループ15を構成する各カメラ10に係る動画における、時刻に対応するフレームの番号、各動画のファイル、動画に写る自動車200を運転する運転手100のID、年齢、運転歴、スピード違反発生数、ヒヤリハット発生数、及びストレス量の情報を示している。 FIG. 4 shows an example of the list created by the information management means 506. Here, an example is shown in which the proximity information, the speed information, and the stress information per second in the shooting range of one camera group 15 and the information of the driver 100 related thereto are collectively listed. In the list according to FIG. 4, the position, date, time, weather, temperature in the automobile carrier 300, the number of people (for example, workers who work without boarding the automobile 200) and the number of automobiles 200 (for example, workers who work without boarding the automobile 200) taken by the camera group 15 ( (People detection and vehicle detection shown in FIG. 4), the speed of the automobile 200 taken by the camera group 15, the frame number corresponding to the time in the moving image of each camera 10 constituting the camera group 15, the file of each moving image, and the moving image. Information on the ID, age, driving history, number of speed violations, number of hilarious hats, and stress amount of the driver 100 who drives the automobile 200 shown in the above is shown.

自動車運搬船300内の位置は、カメラグループ15の撮影範囲に対応する。図4に例示するリストでは、カメラグループ15−2の撮影範囲に対応する位置として「2」が示されている。 The position in the car carrier 300 corresponds to the shooting range of the camera group 15. In the list illustrated in FIG. 4, "2" is indicated as a position corresponding to the shooting range of the camera group 15-2.

また、天候、及び温度については、例えば上述したネットワークインターフェースを経由して、外部の天候情報システム等から情報を得ることができる。また、これらの情報については、手動で入力することもできる。 Further, the weather and temperature can be obtained from an external weather information system or the like via, for example, the network interface described above. You can also enter this information manually.

また、自動車200の速度は、速度算出手段504から通知される速度情報から読み出される。また、速度情報に含まれるカメラ10の設置位置及び撮影方向、並びに撮影時刻と、運転手特定手段502が特定した運転手100の時刻毎の位置とに基づいて、リストにおける時刻、時刻毎の動画に写る自動車200の速度、及び時刻毎の動画に写る自動車200を運転していた運転手100が関連付けられる。 Further, the speed of the automobile 200 is read from the speed information notified from the speed calculation means 504. Further, based on the installation position and shooting direction of the camera 10 included in the speed information, the shooting time, and the time-by-time position of the driver 100 specified by the driver identifying means 502, the time and time-by-time moving images in the list. The speed of the car 200 shown in the image and the driver 100 who was driving the car 200 shown in the moving image for each time are associated with each other.

また、運転手100のIDとしては、例えば、各運転手100がそれぞれ保有するビーコン20の識別記号を用いることができる。また、運転手100の年齢や運転歴の情報は、ビーコン20の識別記号毎にRAM等に格納されている。さらに、ビーコン20の識別記号と、ウェアラブルデバイス40の識別記号とを関連付けることによって、運転手100のIDとストレス情報に含まれるストレス量とを関連付けることができる。 Further, as the ID of the driver 100, for example, the identification symbol of the beacon 20 owned by each driver 100 can be used. Further, information on the age and driving history of the driver 100 is stored in a RAM or the like for each identification symbol of the beacon 20. Further, by associating the identification symbol of the beacon 20 with the identification symbol of the wearable device 40, the ID of the driver 100 and the stress amount included in the stress information can be associated with each other.

スピード違反(速度超過)は、速度情報に基づいて判定される。例えば、予め設定された所定の速度を超えて走行する自動車200が撮影された場合に、スピード違反が発生したと判定される。 Speed violation (excessive speed) is determined based on speed information. For example, when a vehicle 200 traveling at a predetermined speed exceeding a preset speed is photographed, it is determined that a speed violation has occurred.

ヒヤリハットは、実際の事故には至らなかったが、事故に近い状況が生じたことである。なお、ここでは、実際に自動車200同士、又は自動車200と人との接触事故が生じた場合も、ヒヤリハットとしてカウントされる。ここでは、ヒヤリハットは、近接情報に基づいて判定される。例えば、近接を発生させた自動車200が検知された場合に、ヒヤリハットが発生したと判定される。そして、近接情報に含まれるカメラ10の設置位置、撮影方向及び帰属先カメラグループ15の情報、並びに近接が発生した時刻と、運転手特定手段502が特定した運転手100の時刻毎の位置とに基づいて、ヒヤリハットを発生させた自動車200を運転していた運転手100が関連付けられる。 The hiyari hat did not lead to an actual accident, but a situation close to that of an accident occurred. Here, even if a contact accident between the automobiles 200 or between the automobiles 200 and a person actually occurs, it is counted as a human hat. Here, the hiyari hat is determined based on the proximity information. For example, when the automobile 200 that generated the proximity is detected, it is determined that the hiyari hat has occurred. Then, the installation position of the camera 10 included in the proximity information, the shooting direction, the information of the belonging camera group 15, the time when the proximity occurs, and the position of the driver 100 specified by the driver identifying means 502 for each time are set. Based on this, the driver 100 who was driving the car 200 that generated the hilarious hat is associated.

図4に示すリストの例では、カメラグループ15−2の撮影範囲に対応する位置、及び
8時30分58秒から数秒の時刻において、識別記号「2」のビーコン20を保有する運転手100が運転する自動車200が、スピード違反、及び人との間でのヒヤリハットを発生させたことが理解できる。また、スピード違反及びヒヤリハットを発生させた自動車200の運転手100の、年齢及び運転歴、並びにスピード違反及びヒヤリハット発生時刻におけるストレス量についても把握することができる。
In the example of the list shown in FIG. 4, the driver 100 holding the beacon 20 having the identification symbol “2” at the position corresponding to the shooting range of the camera group 15-2 and the time from 8:30:58 to several seconds. It can be understood that the driving car 200 caused a speed violation and a hilarious hat with a person. In addition, it is possible to grasp the age and driving history of the driver 100 of the automobile 200 that caused the speed violation and the hilarious hat, and the amount of stress at the time when the speed violation and the hilarious hat occur.

ここで、情報統括手段506は、カメラグループ15毎に、すなわち自動車運搬船300内の位置毎に、図4に例示されるようなリストを作成する。これによって、自動車運搬船300内の各位置における時刻毎のスピード違反及びヒヤリハットの発生を、運転手100の情報と関連付けつつ把握することができる。この結果、スピード違反及びヒヤリハットが発生した位置及び時間、並びに運転手100の年齢やストレス量といった情報を体系的に確認することがきる。 Here, the information control means 506 creates a list as illustrated in FIG. 4 for each camera group 15, that is, for each position in the car carrier 300. As a result, it is possible to grasp the occurrence of speed violations and hilarious hats at each position in the car carrier 300 at each time in association with the information of the driver 100. As a result, it is possible to systematically confirm information such as the position and time at which the speed violation and the hilarious hat occurred, and the age and stress amount of the driver 100.

また、上述したリストの作成とは別の機能として、情報統括手段506は、ヒヤリハットの動画の抽出を行う。この機能においても、情報統括手段506は、上述したように、近接情報に基づき(又は近接情報及び速度情報に基づき)ヒヤリハットを判定する。そして、ヒヤリハットが発生した位置に対応するカメラグループ15を構成する各カメラ10の、ヒヤリハットが発生した時刻における動画を動画ファイルとして抽出する。これによって、ヒヤリハットの状況が写った動画が、ヒヤリハットが発生した時刻毎にまとめられる。このため、情報処理装置50にアクセスし、ヒヤリハットの状況が写った動画を再生することにより、簡易にヒヤリハットの状況を確認することができる。 Further, as a function different from the above-mentioned list creation, the information management means 506 extracts a moving image of the hiyari hat. Also in this function, the information control means 506 determines the hiyari hat based on the proximity information (or based on the proximity information and the speed information) as described above. Then, the moving image of each camera 10 constituting the camera group 15 corresponding to the position where the hiyari hat occurred at the time when the hiyari hat occurred is extracted as a moving image file. As a result, a video showing the situation of the hiyari hat is compiled for each time when the hiyari hat occurs. Therefore, by accessing the information processing device 50 and playing back a moving image showing the status of the hiyari hat, the status of the hiyari hat can be easily confirmed.

以上に説明したように、この実施の形態の情報処理システムでは、カメラ10が撮影した動画に基づいて、自動車200間の近接情報、自動車200と人との間の近接情報、並びに自動車200の速度情報を取得することによって、スピード違反やヒヤリハットを検知することができる。この実施の形態の情報処理システムでは、撮影方向が互いに異なる2以上のカメラ10で一組のカメラグループ15を用いて動画を撮影することによって、カメラ10の設置位置毎及び撮影時刻毎の、正確な近接情報が得られる。このため、位置毎及び時刻毎の、特にヒヤリハットについて高精度で検知することができる。 As described above, in the information processing system of this embodiment, the proximity information between the automobiles 200, the proximity information between the automobiles 200 and a person, and the speed of the automobiles 200 are based on the moving image captured by the camera 10. By acquiring the information, it is possible to detect speed violations and hilarious hats. In the information processing system of this embodiment, by shooting a moving image using a set of camera groups 15 with two or more cameras 10 having different shooting directions, the accuracy is set for each installation position of the cameras 10 and for each shooting time. Proximity information can be obtained. Therefore, it is possible to detect each position and each time, particularly the hiyari hat, with high accuracy.

また、この実施の形態の情報処理システムでは、各運転手100にビーコン20を保有させることによって、各運転手100の時刻毎の位置を特定することができる。そして、特定した各運転手100の時刻毎の位置と、カメラ10の設置位置及び撮影方向とから、動画に写る自動車200を運転する運転手100を特定することができる。この結果、スピード違反やヒヤリハットを発生させた運転手100の年齢や運転歴等の情報を確認することができる。 Further, in the information processing system of this embodiment, by having each driver 100 hold the beacon 20, the position of each driver 100 at each time can be specified. Then, the driver 100 who drives the automobile 200 shown in the moving image can be specified from the position of each of the specified drivers 100 at each time, the installation position of the camera 10, and the shooting direction. As a result, it is possible to confirm information such as the age and driving history of the driver 100 who caused the speed violation or the hilarious hat.

さらに、この実施の形態の情報処理システムでは、各運転手100にウェアラブルデバイス40を着用させることによって、各運転手100の時刻毎のストレス量を算出することができる。この結果、スピード違反やヒヤリハットを発生させた運転手100の、スピード違反やヒヤリハット発生時刻におけるストレス量を確認することができる。 Further, in the information processing system of this embodiment, the stress amount for each time of each driver 100 can be calculated by having each driver 100 wear the wearable device 40. As a result, it is possible to confirm the amount of stress of the driver 100 who caused the speed violation or the hilarious hat at the time when the speed violation or the hiyari hat occurred.

こように、この実施の形態の情報処理システムでは、事故の原因や傾向の分析に有用な情報を取得することができる。 As described above, in the information processing system of this embodiment, it is possible to acquire information useful for analyzing the cause and tendency of the accident.

なお、情報統括手段506がリスト化した自動車の荷役における情報や、情報統括手段506が抽出したヒヤリハットの動画は、例えばモニタ等に出力することによって、視認することができる。また、例えば情報処理装置50にアクセスすることによって、情報統括手段506が作成したリストや、情報統括手段506が抽出したヒヤリハットの動画を、外部から閲覧することもできる。これらの場合には、リストにおける各動画のファイル
の項目から、リストに係る位置の時刻毎の動画を参照することができる。また、情報統括手段506が抽出したヒヤリハットの動画を、ヒヤリハットが発生した時刻毎に参照することができる。
The information on the cargo handling of the automobile listed by the information control means 506 and the moving image of the hiyari hat extracted by the information control means 506 can be visually recognized by outputting them to, for example, a monitor. Further, for example, by accessing the information processing device 50, the list created by the information control means 506 and the video of the hiyari hat extracted by the information control means 506 can be viewed from the outside. In these cases, the time-by-time moving images of the positions related to the list can be referred to from the file items of each moving image in the list. In addition, the moving image of the hiyari hat extracted by the information control means 506 can be referred to at each time when the hiyari hat occurs.

ここで、上述した構成例では、単一の装置として情報処理装置50を説明したが、処理毎に異なる情報処理装置50を用いることもできる。この場合には、例えば、自動車運搬船300内には、記憶部51として着脱自在なSSD等の記憶装置を備える第1の情報処理装置50を設置する。そして、まず、第1の情報処理装置50によって、各カメラ10が撮影した動画、及び各ビーコン20の位置情報を取得する。次に、第1の情報処理装置50から取り外した、動画及び位置情報を保持する記憶部51を、自動車運搬船300外の第2の情報処理装置50に取り付ける。また、第2の情報処理装置50には、ウェアラブルデバイス40が取得した生体情報が入力される。第2の情報処理装置50は、上述した各機能手段を含む制御部52を備えており、近接情報、速度情報及びストレス情報の取得、並びに情報の統括等の処理を行う。 Here, in the above-described configuration example, the information processing device 50 has been described as a single device, but a different information processing device 50 may be used for each process. In this case, for example, a first information processing device 50 having a removable storage device such as an SSD as a storage unit 51 is installed in the car carrier 300. Then, first, the first information processing device 50 acquires the moving image taken by each camera 10 and the position information of each beacon 20. Next, the storage unit 51 that holds the moving image and the position information removed from the first information processing device 50 is attached to the second information processing device 50 outside the car carrier 300. Further, the biometric information acquired by the wearable device 40 is input to the second information processing device 50. The second information processing device 50 includes a control unit 52 including each of the above-mentioned functional means, and performs processing such as acquisition of proximity information, speed information, and stress information, and control of information.

(利用例)
図5を参照して、上述したこの実施の形態の情報処理システムの利用例について説明する。図5は、情報処理システムを利用して作成したヒートマップを示す模式図である。
(Usage example)
An example of using the information processing system of this embodiment described above will be described with reference to FIG. FIG. 5 is a schematic diagram showing a heat map created by using the information processing system.

既に説明したように、この実施の形態の情報処理システムでは、制御部52の情報統括手段506によって、自動車運搬船300内の各位置における時刻毎のスピード違反及びヒヤリハットの発生等を統括してリスト化することができる(図4参照)。この実施の形態の情報処理システムでは、統括した情報に基づいて、自動車運搬船300内におけるスピード違反やヒヤリハットの、位置毎の発生頻度を示すヒートマップを作成することができる。 As described above, in the information processing system of this embodiment, the information control means 506 of the control unit 52 comprehensively lists the speed violations and the occurrence of hilarious hats at each position in the car carrier 300. Can be done (see FIG. 4). In the information processing system of this embodiment, it is possible to create a heat map showing the frequency of occurrence of speed violations and hilarious hats in the car carrier 300 for each position based on the integrated information.

ヒートマップは、制御部52が機能手段として備えるマップ作成手段507によって作成される。 The heat map is created by the map creating means 507 provided by the control unit 52 as a functional means.

図5に示すように、ヒートマップでは、自動車運搬船300内の位置を升目状に区画し、スピード違反及びヒヤリハットの発生頻度に応じて、各区域で色分けされる。ここでは、濃い配色で示された区域301、302及び303に渡る位置、並びに区域304及び305に渡る位置において、スピード違反及びヒヤリハットが高頻度で発生したことが示されている。 As shown in FIG. 5, in the heat map, the positions in the car carrier 300 are divided into squares, and each area is color-coded according to the frequency of speed violations and hilarious hats. Here, it is shown that speed violations and hilarious hats occurred frequently in the positions across the areas 301, 302 and 303 shown in the dark color scheme, and in the positions across the areas 304 and 305.

ヒートマップにおける各区域と自動車運搬船300内の位置との対応関係は、各カメラグループ15に含まれる各カメラ10の設置位置及び撮影方向に基づいて設定される。そして、情報統括手段506が、近接情報及び速度情報に基づいて集計した、各カメラグループ15の撮影範囲に対応する位置毎のスピード違反及びヒヤリハット発生数に基づいて、マップ作成手段507は、スピード違反及びヒヤリハット発生頻度に応じた各区域の配色を決定する。図1では、情報処理システムが2組のカメラグループ15を備える構成例を示しているが、カメラグループ15の設置数を増やし、自動車200の走行経路を網羅して、カメラグループ15の撮影範囲に収めることによって、精度の高いヒートマップを作成することができる。 The correspondence between each area in the heat map and the position in the car carrier 300 is set based on the installation position and the shooting direction of each camera 10 included in each camera group 15. Then, based on the speed violation and the number of hilarious hats generated for each position corresponding to the shooting range of each camera group 15, the map creating means 507 aggregates the speed violation based on the proximity information and the speed information. And determine the color scheme of each area according to the frequency of occurrence of hiyari hats. FIG. 1 shows a configuration example in which the information processing system includes two sets of camera groups 15. However, the number of camera groups 15 installed is increased to cover the traveling route of the automobile 200, and the shooting range of the camera group 15 is increased. By storing it, it is possible to create a highly accurate heat map.

このように、この実施の形態の情報処理システムを利用して、ヒートマップを作成することによって、自動車運搬船300内の位置毎のスピード違反及びヒヤリハット発生頻度を可視化して確認することができる。 In this way, by creating a heat map using the information processing system of this embodiment, it is possible to visualize and confirm the speed violation and the frequency of occurrence of hilarious hats for each position in the car carrier 300.

ここで、マップ作成手段507は、所定の時間帯毎のヒートマップを作成することがで
きる。そして、時間帯毎のヒートマップを比較することにより、各区域におけるスピード違反及びヒヤリハット発生頻度の時間推移を確認することができる。
Here, the map creating means 507 can create a heat map for each predetermined time zone. Then, by comparing the heat maps for each time zone, it is possible to confirm the time transition of the speed violation and the frequency of hearing hats in each area.

なお、ここでは、各カメラ10の設置位置及び撮影方向の情報に基づいて、ヒートマップにおける各区域と自動車運搬船300内の位置との対応関係を設定する例について説明したが、ビーコン20を用いて特定される運転手100の位置情報を併せて用いることにより、より精度の高いヒートマップを作成することができる。 Here, an example of setting the correspondence between each area in the heat map and the position in the car carrier 300 based on the information on the installation position and the shooting direction of each camera 10 has been described, but the beacon 20 is used. By using the position information of the specified driver 100 together, a more accurate heat map can be created.

10:カメラ
15:カメラグループ
20:ビーコン
30:ビーコン受信器
40:ウェアラブルデバイス
50:情報処理装置
51:記憶部
52:制御部
100:作業員(運転手)
200:自動車
300:自動車運搬船
501:カメラ特定手段
502:運転手特定手段
503:近接判定手段
504:速度算出手段
505:ストレス量算出手段
506:情報統括手段
507:マップ作成手段
10: Camera 15: Camera group 20: Beacon 30: Beacon receiver 40: Wearable device 50: Information processing device 51: Storage unit 52: Control unit 100: Worker (driver)
200: Automobile 300: Car carrier 501: Camera identification means 502: Driver identification means 503: Proximity determination means 504: Speed calculation means 505: Stress amount calculation means 506: Information control means 507: Map creation means

Claims (8)

自動車運搬船において、貨物である自動車の荷役を行う際の情報を処理する情報処理システムであって、
前記自動車運搬船内に設置され、それぞれ自動車の通路を撮影する複数のカメラと、
制御部を備える情報処理装置と
を備え、
前記複数のカメラは、撮影方向が互いに異なる2以上のカメラで一組のカメラグループを一又は複数組含み、
前記制御部は、前記カメラグループが撮影した動画に基づいて、自動車間の近接情報、自動車と人との間の近接情報、並びに自動車の速度情報を取得する
ことを特徴とする情報処理システム。
An information processing system that processes information when handling cargo, which is a cargo, in a car carrier.
A plurality of cameras installed in the car carrier, each of which photographs the passage of a car,
It is equipped with an information processing device equipped with a control unit.
The plurality of cameras include one or a plurality of a set of two or more cameras having different shooting directions.
The control unit is an information processing system characterized by acquiring proximity information between automobiles, proximity information between automobiles and people, and speed information of automobiles based on a moving image taken by the camera group.
前記カメラグループは、撮影方向が互いに直交する2つのカメラを含む
ことを特徴とする請求項1に記載の情報処理システム。
The information processing system according to claim 1, wherein the camera group includes two cameras whose shooting directions are orthogonal to each other.
前記制御部は、
前記速度情報に基づいて、速度超過の発生を検知し、及び
前記近接情報に基づいて、実際の事故には至らなかったが、事故に近い状況の発生、及び接触事故の発生を検知する
ことを特徴とする請求項1又は2に記載の情報処理システム。
The control unit
Based on the speed information, it is possible to detect the occurrence of overspeed, and based on the proximity information, it is possible to detect the occurrence of a situation close to an accident and the occurrence of a contact accident, although the actual accident did not occur. The information processing system according to claim 1 or 2, wherein the information processing system is characterized.
前記制御部は、各前記カメラグループの撮影範囲に対応する、自動車運搬船内の位置毎の、速度超過、並びに実際の事故には至らなかったが、事故に近い状況、及び接触事故の発生数に基づき、速度超過、並びに実際の事故には至らなかったが、事故に近い状況、及び接触事故の発生頻度に応じて、各位置を色分けしたヒートマップを作成する
ことを特徴とする請求項3に記載の情報処理システム。
The control unit responded to the situation close to the accident and the number of contact accidents, although the speed was not exceeded and the actual accident did not occur at each position in the automobile carrier corresponding to the shooting range of each camera group. Based on the above, claim 3 is characterized in that a heat map in which each position is color-coded is created according to the situation close to the accident and the frequency of contact accidents, although the speed was exceeded and the actual accident did not occur. The information processing system described.
前記制御部は、前記カメラグループが撮影した動画から、実際の事故には至らなかったが、事故に近い状況、及び接触事故が写った動画を、実際の事故には至らなかったが、事故に近い状況、及び接触事故が発生した時刻毎に抽出する
ことを特徴とする請求項3又は4に記載の情報処理システム。
The control unit did not lead to an actual accident from the video taken by the camera group, but did not lead to an actual accident, but did cause an accident with a video showing a situation close to the accident and a contact accident. The information processing system according to claim 3 or 4, wherein the information processing system is extracted for each close situation and the time when a contact accident occurs.
前記複数のカメラは、前記カメラグループとは別に速度計測用カメラを含み、
前記制御部は、前記速度計測用カメラが撮影した動画に基づいて、自動車の速度情報を取得する
ことを特徴とする請求項1〜5のいずれか一項に記載の情報処理システム。
The plurality of cameras include a speed measurement camera separately from the camera group.
The information processing system according to any one of claims 1 to 5, wherein the control unit acquires speed information of an automobile based on a moving image taken by the speed measurement camera.
自動車を運転する各運転手がそれぞれ保有するビーコンと、ビーコン受信器とをさらに備え、
各前記ビーコンには、それぞれ固有の識別記号が付与されており、
前記ビーコン受信器は、時刻毎に特定した各前記ビーコンの位置情報を前記識別記号とともに前記情報処理装置に送り、
前記制御部は、各前記ビーコンの位置情報及び前記識別記号に基づいて、前記運転手の時刻毎の位置を特定し、特定した各運転手の時刻毎の位置と、各前記カメラの設置位置及び撮影方向とに基づいて、動画に写る自動車を運転する運転手を特定する
ことを特徴とする請求項1〜6のいずれか一項に記載の情報処理システム。
It is further equipped with a beacon owned by each driver who drives a car and a beacon receiver.
Each of the beacons is given a unique identification symbol.
The beacon receiver sends the position information of each beacon specified for each time to the information processing device together with the identification symbol.
The control unit identifies the position of each driver at each time based on the position information of each of the beacons and the identification symbol, and the position of each of the identified drivers at each time, the installation position of each of the cameras, and the position of each of the cameras. The information processing system according to any one of claims 1 to 6, wherein the driver who drives the automobile shown in the moving image is specified based on the shooting direction.
自動車を運転する各運転手がそれぞれ着用するウェアラブルデバイスをさらに備え、
各前記ウェアラブルデバイスには、それぞれ固有の識別記号が付与されており、
前記ウェアラブルデバイスは、運転手の時刻毎の生体情報を取得し、該ウェアラブルデバイスの識別記号とともに前記情報処理装置に送り、
前記制御部は、各前記ウェアラブルデバイスの識別記号に基づいて、各該ウェアラブルデバイスと運転手とを関連付け、かつ各前記ウェアラブルデバイスから送られる生体情報に基づいて、各運転手の時刻毎のストレス量を算出する
ことを特徴とする請求項7に記載の情報処理システム。
Further equipped with wearable devices worn by each driver who drives a car,
Each wearable device is given a unique identification symbol.
The wearable device acquires biometric information for each time of the driver and sends it to the information processing device together with the identification symbol of the wearable device.
The control unit associates each wearable device with a driver based on the identification symbol of each wearable device, and based on the biological information sent from each wearable device, the stress amount for each time of each driver. The information processing system according to claim 7, wherein the information processing system is calculated.
JP2019212606A 2019-11-25 2019-11-25 Information processing system Active JP6811830B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019212606A JP6811830B1 (en) 2019-11-25 2019-11-25 Information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019212606A JP6811830B1 (en) 2019-11-25 2019-11-25 Information processing system

Publications (2)

Publication Number Publication Date
JP6811830B1 JP6811830B1 (en) 2021-01-13
JP2021086222A true JP2021086222A (en) 2021-06-03

Family

ID=74096342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019212606A Active JP6811830B1 (en) 2019-11-25 2019-11-25 Information processing system

Country Status (1)

Country Link
JP (1) JP6811830B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022244843A1 (en) 2021-05-21 2022-11-24 住友電気工業株式会社 Fusion splicing machine

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022244843A1 (en) 2021-05-21 2022-11-24 住友電気工業株式会社 Fusion splicing machine

Also Published As

Publication number Publication date
JP6811830B1 (en) 2021-01-13

Similar Documents

Publication Publication Date Title
KR102444277B1 (en) Health abnormality detection method using face monitoring and thermal image monitoring, health abnormality detection device and computer program for the same
CN110738135B (en) Method and system for judging and guiding worker operation step standard visual recognition
TWI735588B (en) Management system
CN104007715B (en) The industrial automatic control based on identification of reference is determined with position and derivative
KR101715001B1 (en) Display system for safety evaluation in construction sites using of wearable device, and thereof method
CN105574683A (en) Omni-directional transformer station inspection system and method
WO2019047338A1 (en) Port machinery inspection device and inspection method
CN109118081B (en) Operation safety supervision system and method based on image processing mode
JP6811830B1 (en) Information processing system
CN105684021A (en) Services support system and method
US20230041612A1 (en) Monitoring device, monitoring method, and program recording medium
WO2021043388A1 (en) Device and method for detecting wear and/or damage on a pantograph
CN112884624A (en) Community emergency rescue method, system, computer equipment and readable storage medium
CN108099914A (en) For controlling the apparatus and method of the stopping of vehicle
KR102216040B1 (en) 3D safety management system for port container terminal
JP5712401B2 (en) Behavior monitoring system, behavior monitoring program, and behavior monitoring method
JP6833296B2 (en) Unmanned aerial vehicle, flight path creation method for unmanned aerial vehicle and plant control system
WO2023148669A1 (en) Apparatus and method for monitoring an overhead contact line of a transportation network
CN112158691B (en) Elevator maintenance method, device, computer equipment and storage medium
CN114254901A (en) Scrap steel yard safety management system and method
CN110769042B (en) System for railway loading and unloading operation information acquisition
JP6389783B2 (en) Crossover relative position management apparatus and method
CN113048893B (en) Train brake pad abrasion measuring method and system
CN105788174A (en) Vehicle anti-collision terminal for preventing fatigue driving
US11036972B2 (en) Management system for supervising operator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201215

R150 Certificate of patent or registration of utility model

Ref document number: 6811830

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250