JP2023005746A - Work management system, robot device, work management method, and computer program - Google Patents

Work management system, robot device, work management method, and computer program Download PDF

Info

Publication number
JP2023005746A
JP2023005746A JP2021107893A JP2021107893A JP2023005746A JP 2023005746 A JP2023005746 A JP 2023005746A JP 2021107893 A JP2021107893 A JP 2021107893A JP 2021107893 A JP2021107893 A JP 2021107893A JP 2023005746 A JP2023005746 A JP 2023005746A
Authority
JP
Japan
Prior art keywords
work
robot device
image
abnormality
work management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021107893A
Other languages
Japanese (ja)
Inventor
貴之 蕨野
Takayuki Warabino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2021107893A priority Critical patent/JP2023005746A/en
Publication of JP2023005746A publication Critical patent/JP2023005746A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To determine the presence/absence of an abnormality in the work with an image captured by a camera of a robot device that can autonomously travel while moving.SOLUTION: A work management system comprises: a work management information storage part which stores work management information indicating a schedule of the work executed in a work site by a worker; an object recognition part which recognizes whether or not a person is included in an image captured by a robot device; a work abnormality determination part which determines the presence/absence of an abnormality in the work in a place and at the time of capturing of the image on the basis of the work management information when the person is included in the image; and a determination result storage part which stores a result of the determination.SELECTED DRAWING: Figure 1

Description

本発明は、作業管理システム、ロボット装置、作業管理方法及びコンピュータプログラムに関する。 The present invention relates to a work management system, a robot device, a work management method, and a computer program.

従来、建物の建設工事において作業を行う作業者を支援するための技術が例えば特許文献1に記載されている。特許文献1に記載された技術では、作業者に作業支援情報を提供するために、作業者が保有する作業者端末又は自律走行可能なロボットが、カメラが撮影した各作業者の作業の様子を示す画像情報及びマイクが集音した音声情報を中央管理装置に送信する。そして、中央管理装置が当該画像情報及び当該音声情報に対応する工事関連情報に基づいて、作業者個々の実施対象作業を特定している。 Conventionally, Patent Document 1, for example, describes a technique for assisting a worker who performs construction work of a building. In the technology described in Patent Document 1, in order to provide work support information to workers, a worker terminal owned by the worker or a robot capable of autonomous travel captures the state of the work of each worker photographed by a camera. The image information shown and the audio information collected by the microphone are transmitted to the central management device. Based on the construction-related information corresponding to the image information and the sound information, the central management device specifies the work to be performed by each worker.

特開2017-220109号公報JP 2017-220109 A

近年、作業者が例えばデータセンター等の情報処理施設内の作業現場で行う作業が間違って行われていないかを監視することが重要になっている。例えばデータセンターにおいてサーバ装置や通信装置に対する設定等の作業が間違って行われると、多くのユーザに影響が及ぶような障害が発生しかねない。このため、作業者が予定の作業とは異なる作業を行っていないかを監視し、障害の発生を未然に防ぐことが重要である。ここで、施設内に監視カメラを設置する場合、死角をなくすためには多数の監視カメラが必要になる。このため、自律走行可能なロボットが移動しながらカメラで撮影した画像によって作業の異常の有無を判定することが考えられる。 2. Description of the Related Art In recent years, it has become important to monitor whether workers are doing wrong work at a work site in an information processing facility such as a data center. For example, if work such as settings for a server device or a communication device is performed incorrectly in a data center, a failure that affects many users may occur. For this reason, it is important to monitor whether the worker is performing work that is different from the scheduled work, and to prevent failures from occurring. Here, when installing surveillance cameras in a facility, a large number of surveillance cameras are required to eliminate blind spots. For this reason, it is conceivable that the presence or absence of an abnormality in the work is determined based on an image captured by a camera while an autonomously traveling robot is moving.

しかしながら、上述した特許文献1に記載された技術では、作業者個々の実施対象作業を特定するために、参照する画像情報がどの作業者に対応するのかを特定する必要がある。このために、画像情報を中央管理装置に送信する作業者端末が、作業者IDも中央管理装置に送信している。一方、自律走行可能なロボットが画像情報を中央管理装置に送信する場合、当該画像情報に対応する作業者IDをどのようにして取得するのかまでは特許文献1に記載されていないので、参照する画像情報がどの作業者に対応するのかを特定することが困難である。 However, with the technique described in Patent Literature 1, it is necessary to specify which worker the image information to be referenced corresponds to, in order to specify the work to be performed by each worker. For this reason, the worker terminal that transmits the image information to the central management device also transmits the worker ID to the central management device. On the other hand, when an autonomously traveling robot transmits image information to a central management device, Patent Document 1 does not describe how to acquire a worker ID corresponding to the image information. It is difficult to specify which worker the image information corresponds to.

本発明は、このような事情を考慮してなされたものであり、その目的は、自律走行可能なロボット装置が移動しながらカメラで撮影した画像によって作業の異常の有無を判定することを図ることにある。 SUMMARY OF THE INVENTION The present invention has been made in consideration of such circumstances, and its object is to determine the presence or absence of an abnormality in a work by an image taken by a camera while an autonomously traveling robot device is moving. It is in.

(1)本発明の一態様は、自律走行を行い、周囲を撮影するロボット装置と、前記ロボット装置と通信するサーバ装置と、を備え、前記サーバ装置は、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部と、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識部と、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定部と、前記判定の結果を記憶する判定結果記憶部と、を備える、作業管理システムである。
(2)本発明の一態様は、前記作業異常判定部は、作業の異常ありと判定した場合に、前記画像の撮影の場所での撮影の時刻に対する過去の直近の作業終了予定時刻からの経過時間に基づいて、作業の異常の理由を判定する、上記(1)の作業管理システムである。
(3)本発明の一態様は、前記作業異常判定部は、同じ場所で一定期間内に複数回、作業の異常ありと判定した場合に、作業の異常レベルを基準よりも高いレベルに決定する、上記(1)又は(2)のいずれかの作業管理システムである。
(4)本発明の一態様は、前記作業異常判定部は、前記画像の撮影の場所が所定の場所である場合に、作業の異常の有無を判定しない、上記(1)から(3)のいずれかの作業管理システムである。
(5)本発明の一態様は、前記物体認識部は、前記ロボット装置が撮影した画像又は前記ロボット装置が計測した物体の点群情報に基づいて作業者と前記ロボット装置との間の距離を取得し、前記作業異常判定部は、当該取得された距離に基づいて作業者の位置を特定し、特定した作業者の位置で予定された作業を特定する、上記(1)から(4)のいずれかの作業管理システムである。
(6)本発明の一態様は、前記物体認識部は、前記ロボット装置が時間をずらして撮影した複数の画像から人数を認識し、前記作業異常判定部は、前記認識された人数と作業予定人数とに基づいて作業の異常の有無を判定する、上記(1)から(5)のいずれかの作業管理システムである。
(7)本発明の一態様は、前記サーバ装置は、前記認識された人数が作業予定人数よりも少ない場合に、前記ロボット装置に再撮影を指示するロボット制御部をさらに備える、上記(6)の作業管理システムである。
(8)本発明の一態様は、前記ロボット制御部は、前記ロボット装置に前回の撮影の場所から移動して再撮影させる、上記(7)の作業管理システムである。
(1) One aspect of the present invention includes a robot device that autonomously travels and captures images of its surroundings, and a server device that communicates with the robot device. an object recognition unit for recognizing whether or not a person is included in the image taken by the robot device; and a person is included in the image. a work abnormality determination unit that determines whether or not there is an abnormality in the work at the location and time when the image was taken, based on the work management information, and a determination result storage unit that stores the result of the determination. , is a work management system.
(2) In one aspect of the present invention, when the work abnormality determination unit determines that there is an abnormality in the work, the elapsed time from the most recent scheduled work end time for the time when the image was captured at the location where the image was captured The work management system according to (1) above, wherein the reason for an abnormality in work is determined based on time.
(3) In one aspect of the present invention, the work abnormality determination unit determines the work abnormality level to be higher than a reference level when it is determined that there is a work abnormality a plurality of times within a certain period at the same place. , the work management system according to (1) or (2) above.
(4) According to one aspect of the present invention, the above (1) to (3), wherein the work abnormality determination unit does not determine whether or not there is an abnormality in the work when the location where the image is captured is a predetermined location. Any work management system.
(5) In one aspect of the present invention, the object recognition unit calculates the distance between the worker and the robot device based on the image captured by the robot device or the point cloud information of the object measured by the robot device. The work abnormality determination unit identifies the position of the worker based on the obtained distance, and identifies the work scheduled at the identified position of the worker, according to the above (1) to (4) Any work management system.
(6) In one aspect of the present invention, the object recognition unit recognizes the number of people from a plurality of images captured by the robot device at different times, and the work abnormality determination unit recognizes the number of people recognized and the work schedule. The work management system according to any one of (1) to (5) above, wherein the presence or absence of an abnormality in the work is determined based on the number of workers.
(7) An aspect of the present invention is (6) above, wherein the server device further includes a robot control unit that instructs the robot device to re-capture when the recognized number of people is less than the number of people scheduled to work. work management system.
(8) An aspect of the present invention is the work management system according to (7) above, wherein the robot control unit causes the robot device to move from a location where the previous image was taken and to retake the image.

(9)本発明の一態様は、自律走行を行い、周囲を撮影するロボット装置であって、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部と、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識部と、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定部と、前記判定の結果を記憶する判定結果記憶部と、を備えるロボット装置である。 (9) One aspect of the present invention is a robot device that autonomously travels and captures images of its surroundings, and includes a work management information storage unit that stores work management information indicating a schedule of work to be performed by a worker at a work site. an object recognition unit for recognizing whether or not a person is included in the image captured by the robot apparatus; and when the image includes a person, the image is captured based on the work management information. and a determination result storage unit for storing the result of the determination.

(10)本発明の一態様は、自律走行を行い、周囲を撮影するロボット装置と、前記ロボット装置と通信するサーバ装置と、を備え、前記サーバ装置が、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部を備え、前記サーバ装置が、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、前記サーバ装置が、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、前記サーバ装置が、前記判定の結果を記憶する判定結果記憶ステップと、を含む作業管理方法である。
(11)本発明の一態様は、自律走行を行い、周囲を撮影するロボット装置が、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部を備え、前記ロボット装置が、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、前記ロボット装置が、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、前記ロボット装置が、前記判定の結果を記憶する判定結果記憶ステップと、を含む作業管理方法である。
(10) One aspect of the present invention includes a robot device that autonomously travels and captures images of its surroundings, and a server device that communicates with the robot device, wherein the server device performs work performed by a worker at a work site. an object recognition step in which the server device recognizes whether or not a person is included in the image taken by the robot device; a work abnormality determination step of determining whether or not there is an abnormality in the work at the place and time when the image was taken, based on the work management information, when a person is included in the image; and and a judgment result storage step of storing the judgment result.
(11) According to one aspect of the present invention, a robot device that autonomously travels and photographs the surroundings includes a work management information storage unit that stores work management information indicating a schedule of work to be performed by a worker at a work site, an object recognition step in which the robot device recognizes whether or not a person is included in an image taken by the robot device; Work management including: a work abnormality determination step of determining whether or not there is an abnormality in the work at the location and time when the image was captured based on the information; and a determination result storage step of storing the determination result in the robot device. The method.

(12)本発明の一態様は、自律走行を行い、周囲を撮影するロボット装置と通信するサーバ装置が、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部を備え、前記サーバ装置のコンピュータに、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、前記判定の結果を記憶する判定結果記憶ステップと、を実行させるためのコンピュータプログラムである。
(13)本発明の一態様は、自律走行を行い、周囲を撮影するロボット装置が、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部を備え、前記ロボット装置のコンピュータに、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、前記判定の結果を記憶する判定結果記憶ステップと、を実行させるためのコンピュータプログラムである。
(12) One aspect of the present invention is work management information in which a server device that communicates with a robot device that autonomously travels and photographs the surroundings stores work management information that indicates a schedule of work to be performed by a worker at a work site. an object recognition step of recognizing whether or not a person is included in an image taken by the robot device, in the computer of the server device, the object recognition step comprising a storage unit; A computer program for executing a work abnormality determination step of determining whether or not there is an abnormality in the work at the location and time when the image was captured, based on work management information, and a determination result storage step of storing the result of the determination. is.
(13) In one aspect of the present invention, a robot device that autonomously travels and photographs the surroundings includes a work management information storage unit that stores work management information indicating a schedule of work to be performed by a worker at a work site, an object recognition step of recognizing whether or not a person is included in the image taken by the robot device, and an object recognition step, in the computer of the robot device, of recognizing whether or not a person is included in the image taken by the robot device; a computer program for executing a work abnormality determination step of determining whether or not there is a work abnormality at the location and time when the image is captured; and a determination result storage step of storing the determination result.

本発明によれば、自律走行可能なロボット装置が移動しながらカメラで撮影した画像によって作業の異常の有無を判定することができるという効果が得られる。 According to the present invention, it is possible to determine whether or not there is an abnormality in the work based on the image captured by the camera while the autonomously traveling robot device is moving.

一実施形態に係る作業管理システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of a work management system according to one embodiment; FIG. 一実施形態に係る作業管理方法の全体手順の例を示すフローチャートである。4 is a flow chart showing an example of the overall procedure of a work management method according to one embodiment; 一実施形態に係る作業管理方法における具体的な一例を示す図である。It is a figure which shows a concrete example in the work management method which concerns on one Embodiment. 一実施形態に係る作業管理情報の構成例を示す図である。It is a figure which shows the structural example of the work management information which concerns on one Embodiment. 一実施形態に係るロボット制御情報の構成例を示す図である。4 is a diagram showing a configuration example of robot control information according to one embodiment; FIG. 一実施形態に係る判定結果の構成例を示す図である。It is a figure which shows the structural example of the determination result which concerns on one embodiment. 図6に示す判定結果の説明図である。FIG. 7 is an explanatory diagram of determination results shown in FIG. 6 ; 一実施形態に係るロボット装置の構成例を示すブロック図である。1 is a block diagram showing a configuration example of a robot device according to an embodiment; FIG.

以下、図面を参照し、本発明の実施形態について説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
図1は、第1実施形態に係る作業管理システムの構成例を示すブロック図である。図1において、作業管理システム1は、サーバ装置10とロボット装置20とを備える。作業管理システム1は、作業者が施設内の作業現場で行う作業を管理する。管理対象の施設は、例えば情報処理施設であってもよい。情報処理施設として、例えばデータセンターやサーバールーム等が挙げられる。
[First embodiment]
FIG. 1 is a block diagram showing a configuration example of a work management system according to the first embodiment. In FIG. 1 , the work management system 1 includes a server device 10 and a robot device 20 . The work management system 1 manages work performed by workers at work sites within the facility. A facility to be managed may be, for example, an information processing facility. Examples of information processing facilities include data centers and server rooms.

サーバ装置10は、通信部11と、制御部12(ロボット制御部121、物体認識部122、作業異常判定部123)と、記憶部13(ロボット制御情報131、作業管理情報132、判定結果133)とを備える。ロボット装置20は、通信部21と、制御部22(画像取得部221、自己位置推定部222、自律走行制御部223)と、カメラ部23と、LiDAR部24と、走行部25とを備える。 The server device 10 includes a communication unit 11, a control unit 12 (robot control unit 121, object recognition unit 122, work abnormality determination unit 123), and a storage unit 13 (robot control information 131, work management information 132, determination result 133). and The robot device 20 includes a communication unit 21 , a control unit 22 (an image acquisition unit 221 , a self-position estimation unit 222 and an autonomous travel control unit 223 ), a camera unit 23 , a LiDAR unit 24 and a travel unit 25 .

ロボット装置20は、自律走行を行い、周囲を撮影する。ロボット装置20が移動する移動範囲は、管理対象施設内の作業現場を撮影可能な予め設定された範囲である。 The robot device 20 autonomously travels and photographs the surroundings. The movement range in which the robot device 20 moves is a preset range in which the work site in the facility to be managed can be photographed.

サーバ装置10は、通信ネットワークNWを介して、ロボット装置20と通信する。通信ネットワークNWは、有線回線若しくは無線回線から構成されてもよく、又は有線回線及び無線回線から構成されてもよい。例えば、ロボット装置20の通信部21が通信ネットワークNWの無線回線に接続する一方、サーバ装置10の通信部11が通信ネットワークNWの有線回線に接続してもよい。 The server device 10 communicates with the robot device 20 via the communication network NW. The communication network NW may consist of wired lines or wireless lines, or may consist of wired lines and wireless lines. For example, the communication unit 21 of the robot device 20 may be connected to the wireless line of the communication network NW, while the communication unit 11 of the server device 10 may be connected to the wired line of the communication network NW.

サーバ装置10は、ロボット装置20が撮影した画像を、通信ネットワークNWを介して受信する。サーバ装置10は、ロボット装置20が撮影した画像によって、作業の異常の有無を判定する。 The server device 10 receives the image captured by the robot device 20 via the communication network NW. The server device 10 determines whether or not there is an abnormality in the work based on the image captured by the robot device 20 .

以下、図1に示されるロボット装置20及びサーバ装置10について詳細に説明する。 The robot device 20 and the server device 10 shown in FIG. 1 will be described in detail below.

[ロボット装置]
ロボット装置20は、カメラ部23やLiDAR部24や走行部25等の主にハードウェアによる機能と、制御部22(画像取得部221、自己位置推定部222、自律走行制御部223)等の主にソフトウェアによる機能とを有する。
[Robot device]
The robot device 20 has mainly hardware functions such as the camera unit 23, the LiDAR unit 24, and the traveling unit 25, and the main functions such as the control unit 22 (the image acquisition unit 221, the self-position estimation unit 222, and the autonomous traveling control unit 223). It has a function by software.

通信部21は、通信ネットワークNWを介して、サーバ装置10の通信部11と通信する。 The communication unit 21 communicates with the communication unit 11 of the server device 10 via the communication network NW.

カメラ部23は、ロボット装置20の周辺を撮像する。LiDAR部24は、LiDAR(Light Detection and Ranging)技術により、ロボット装置20の周辺に存在する物体までの距離(点群情報)等の計測を行う。走行部25は、ロボット装置20を走行させる走行機構や走行機構を駆動する駆動装置等を備え、自律走行制御部223からの命令に従ってロボット装置20を走行させる。 The camera unit 23 images the surroundings of the robot device 20 . The LiDAR unit 24 measures the distance (point group information) and the like to an object existing around the robot apparatus 20 by LiDAR (Light Detection and Ranging) technology. The traveling unit 25 includes a traveling mechanism that causes the robot device 20 to travel, a drive device that drives the traveling mechanism, and the like, and causes the robot device 20 to travel according to commands from the autonomous travel control unit 223 .

制御部22は、ロボット装置20の制御を行う。制御部22の各機能は、制御部22がCPU(Central Processing Unit:中央演算処理装置)及びメモリ等のコンピュータハードウェアを備え、CPUがメモリに格納されたコンピュータプログラムを実行することにより実現される。なお、制御部22として、汎用のコンピュータ装置を使用して構成してもよく、又は、専用のハードウェア装置として構成してもよい。 The control unit 22 controls the robot device 20 . Each function of the control unit 22 is realized by the control unit 22 having computer hardware such as a CPU (Central Processing Unit) and memory, and the CPU executing a computer program stored in the memory. . The controller 22 may be configured using a general-purpose computer device, or may be configured as a dedicated hardware device.

画像取得部221は、カメラ部23が撮像した画像(以下、カメラ画像と称する)を取得する。画像取得部221は、サーバ装置10から受信した画像取得リクエストに基づいて、カメラ画像を取得する。画像取得部221は、カメラ画像をサーバ装置10へ送信する。 The image acquisition unit 221 acquires an image captured by the camera unit 23 (hereinafter referred to as a camera image). The image acquisition unit 221 acquires camera images based on image acquisition requests received from the server device 10 . The image acquisition unit 221 transmits camera images to the server device 10 .

自己位置推定部222は、SLAM(Simultaneous Localization and Mapping)技術により、LiDAR部24が計測した点群情報とロボット装置20が備える地図情報(図示せず)とのマッチングを行ってロボット装置20の現在位置を推定する。当該地図情報は、ロボット装置20が走行予定の範囲を含む地図情報である。 The self-position estimation unit 222 matches the point group information measured by the LiDAR unit 24 with map information (not shown) provided in the robot device 20 by SLAM (Simultaneous Localization and Mapping) technology, and determines the current state of the robot device 20. Estimate location. The map information is map information including the range in which the robot device 20 is scheduled to travel.

自律走行制御部223は、ユーザやアプリケーションがロボット装置20の目的地を指定すると、パスプランニングの技術を用いて現在位置から目的地までの経路を生成する。自律走行制御部223は、当該経路に沿ってロボット装置20を走行させるように、走行部25へ命令を出す。 When the user or application designates the destination of the robot device 20, the autonomous travel control unit 223 generates a route from the current position to the destination using path planning technology. The autonomous travel control unit 223 issues a command to the travel unit 25 to make the robot device 20 travel along the route.

[サーバ装置]
サーバ装置10は、制御部12(ロボット制御部121、物体認識部122、作業異常判定部123)等の主にソフトウェアによる機能を有する。
[Server device]
The server device 10 has mainly software functions such as the control unit 12 (robot control unit 121, object recognition unit 122, work abnormality determination unit 123).

通信部11は、通信ネットワークNWを介して、ロボット装置20の通信部21と通信する。 The communication unit 11 communicates with the communication unit 21 of the robot device 20 via the communication network NW.

記憶部13は、各種の情報を記憶する。記憶部13は、ロボット制御情報131、作業管理情報132及び判定結果133を記憶する。 The storage unit 13 stores various information. The storage unit 13 stores robot control information 131 , work management information 132 and determination results 133 .

制御部12は、サーバ装置10の制御を行う。ロボット制御部121は、ロボット装置20を制御するためのロボット制御命令をロボット装置20へ送信する。ロボット制御部121は、ロボット制御情報131に基づいて、移動命令や画像取得リクエスト等のロボット制御命令をロボット装置20へ送信する。 The control unit 12 controls the server device 10 . The robot control unit 121 transmits a robot control command for controlling the robot device 20 to the robot device 20 . The robot control unit 121 transmits robot control commands such as movement commands and image acquisition requests to the robot device 20 based on the robot control information 131 .

物体認識部122は、ロボット装置20が撮影したカメラ画像の中に人が含まれるか否かを認識する。物体認識技術として、例えばSSD(Single Shot MultiBox Detector)やYolo(You only live once)等が適用可能である。なお、物体認識部122は、カメラ画像の中に含まれる人の数(人数)を認識してもよい。 The object recognition unit 122 recognizes whether or not a person is included in the camera image taken by the robot device 20 . For example, SSD (Single Shot MultiBox Detector) and Yolo (You only live once) can be applied as the object recognition technology. Note that the object recognition unit 122 may recognize the number of people (persons) included in the camera image.

作業異常判定部123は、カメラ画像の中に人が含まれる場合に、作業管理情報132に基づいて、カメラ画像の撮影の場所及び時刻における作業の異常の有無を判定する。作業管理情報132は、作業者が作業現場で実施する作業の予定を示す情報である。記憶部13は、作業異常判定部123による判定の結果を示す判定結果133を記憶する。 Based on the work management information 132, the work abnormality determination unit 123 determines whether or not there is an abnormality in the work at the location and time when the camera image was captured when a person is included in the camera image. The work management information 132 is information indicating a schedule of work to be performed by the worker at the work site. The storage unit 13 stores a determination result 133 indicating the determination result of the work abnormality determination unit 123 .

サーバ装置10の各機能は、サーバ装置10がCPU及びメモリ等のコンピュータハードウェアを備え、CPUがメモリに格納されたコンピュータプログラムを実行することにより実現される。なお、サーバ装置10として、汎用のコンピュータ装置を使用して構成してもよく、又は、専用のハードウェア装置として構成してもよい。例えば、サーバ装置10は、インターネット等の通信ネットワークに接続されるサーバコンピュータを使用して構成されてもよい。また、サーバ装置10の各機能はクラウドコンピューティングにより実現されてもよい。また、サーバ装置10は、単独のコンピュータにより実現するものであってもよく、又はサーバ装置10の機能を複数のコンピュータに分散させて実現するものであってもよい。 Each function of the server device 10 is realized by the server device 10 having computer hardware such as a CPU and memory, and the CPU executing a computer program stored in the memory. The server device 10 may be configured using a general-purpose computer device, or may be configured as a dedicated hardware device. For example, the server device 10 may be configured using a server computer connected to a communication network such as the Internet. Also, each function of the server device 10 may be realized by cloud computing. The server device 10 may be implemented by a single computer, or may be implemented by distributing the functions of the server device 10 to a plurality of computers.

次に図2を参照して、本実施形態に係る作業管理方法の全体手順を説明する。図2は、本実施形態に係る作業管理方法の全体手順の例を示すフローチャートである。 Next, with reference to FIG. 2, the overall procedure of the work management method according to this embodiment will be described. FIG. 2 is a flow chart showing an example of the overall procedure of the work management method according to this embodiment.

(ステップS1) サーバ装置10は、ロボット装置20が撮影したカメラ画像を取得する。 (Step S<b>1 ) The server device 10 acquires a camera image captured by the robot device 20 .

(ステップS2) サーバ装置10は、ロボット装置20から取得したカメラ画像の中に人が含まれるか否かを認識する。 (Step S2) The server device 10 recognizes whether or not the camera image obtained from the robot device 20 includes a person.

(ステップS3) カメラ画像の中に人が含まれる場合にはステップS4に進み、そうではない場合には図2の処理を終了する。 (Step S3) If a person is included in the camera image, proceed to step S4; otherwise, terminate the processing of FIG.

(ステップS4) サーバ装置10は、カメラ画像の中に人が含まれる場合に、作業管理情報132に基づいて、カメラ画像の撮影の場所及び時刻における作業の異常の有無を判定する。 (Step S<b>4 ) If a person is included in the camera image, the server device 10 determines whether there is an abnormality in the work at the location and time when the camera image was captured, based on the work management information 132 .

(ステップS5) サーバ装置10は、作業の異常の有無の判定結果133を記録する。 (Step S5) The server apparatus 10 records the determination result 133 of the presence/absence of an abnormality in the work.

次に図3-図7を参照して、本実施形態に係る作業管理方法の詳細を説明する。図3-図7は、本実施形態に係る作業管理方法における具体的な一例を示す図である。 Next, details of the work management method according to the present embodiment will be described with reference to FIGS. 3 to 7. FIG. 3 to 7 are diagrams showing a specific example of the work management method according to this embodiment.

ここでは、図3に示されるデータセンター300の施設内を作業現場の一例として説明する。図3に示されるように、データセンター300の施設内には、8台のラックが設置されている。各ラックには、サーバーやルーター等の装置が格納されている。作業者は、作業対象の装置が格納されているラックに対して作業を行う側の通路で、作業対象の装置に対する作業を行う。 Here, the facility of the data center 300 shown in FIG. 3 will be described as an example of the work site. As shown in FIG. 3, eight racks are installed in the data center 300 facility. Devices such as servers and routers are stored in each rack. A worker works on a device to be worked in a passage on the side of the rack in which the device to be worked is stored.

図4は、本実施形態に係る作業管理情報の構成例を示す図である。図4の作業管理情報132の例は、図3のデータセンター300の施設内において、作業者が作業現場で実施する作業の予定の例である。図4には、作業No.1から作業No.4までの4つの作業の予定が示される。 FIG. 4 is a diagram showing a configuration example of work management information according to this embodiment. An example of the work management information 132 in FIG. 4 is an example of a schedule of work to be performed by a worker at a work site within the facility of the data center 300 in FIG. In FIG. 4, work No. 1 to work No. A schedule of four tasks up to 4 is shown.

(作業No.1)作業時間「9時00分から10時00分」まで3番作業通路で作業会社Aの5人の作業者が作業内容AAAの作業を行う。
(作業No.2)作業時間「9時30分から10時15分」まで7番作業通路で作業会社Bの3人の作業者が作業内容BBBの作業を行う。
(作業No.3)作業時間「12時00分から13時00分」まで3番作業通路で作業会社Cの1人の作業者が作業内容CCCの作業を行う。
(作業No.4)作業時間「14時00分から15時00分」まで3番作業通路で作業会社Dの2人の作業者が作業内容DDDの作業を行う。
(Work No. 1) From 9:00 to 10:00, five workers of work company A perform the work of work content AAA in the third work passage.
(Work No. 2) From 9:30 to 10:15, three workers of work company B perform the work BBB in the 7th work passage.
(Work No. 3) From 12:00 to 13:00, one worker of work company C performs the work of work content CCC in the No. 3 work passage.
(Work No. 4) From 14:00 to 15:00, two workers of the work company D perform the work DDD in the work passage No. 3.

図5は、本実施形態に係るロボット制御情報の構成例を示す図である。図5のロボット制御情報131の例は、図3のデータセンター300の施設内において、ロボット装置20を制御するためのロボット制御命令に対応している。図5には、命令No.1から命令No.6までの6つのロボット制御命令が示される。 FIG. 5 is a diagram showing a configuration example of robot control information according to this embodiment. An example of the robot control information 131 in FIG. 5 corresponds to a robot control instruction for controlling the robot device 20 within the facility of the data center 300 in FIG. FIG. 5 shows instruction No. 1 to instruction No. Six robot control instructions up to 6 are shown.

(命令No.1)9時00分になると目的地P1「X座標=5.0、Y座標=10.0」へ移動するように命令し、当該目的地P1に到着すると画像取得リクエストを行う。ロボット装置20が目的地P1で周囲を撮像することによって、1番作業通路が撮影されたカメラ画像と6番作業通路が撮影されたカメラ画像とが取得される。 (Instruction No. 1) At 9:00, an instruction is given to move to the destination P1 "X coordinate = 5.0, Y coordinate = 10.0", and when the destination P1 is reached, an image acquisition request is made. . When the robot device 20 captures images of the surroundings at the destination P1, a camera image of the No. 1 work passage and a camera image of the No. 6 work passage are obtained.

(命令No.2)命令No.1に引き続き(図5中の開示時刻「NULL」に対応する)、目的地P2「X座標=10.0、Y座標=10.0」へ移動するように命令し、当該目的地P2に到着すると画像取得リクエストを行う。ロボット装置20が目的地P2で周囲を撮像することによって、2番作業通路が撮影されたカメラ画像と7番作業通路が撮影されたカメラ画像とが取得される。 (Instruction No. 2) Instruction No. 1 (corresponding to the opening time "NULL" in FIG. 5), command to move to destination P2 "X coordinate = 10.0, Y coordinate = 10.0", and arrive at the destination P2 Then, an image acquisition request is made. When the robot device 20 captures images of the surroundings at the destination P2, a camera image of the No. 2 work passage and a camera image of the No. 7 work passage are obtained.

(命令No.3)命令No.2に引き続き(図5中の開示時刻「NULL」に対応する)、目的地P3「X座標=15.0、Y座標=10.0」へ移動するように命令し、当該目的地P3に到着すると画像取得リクエストを行う。ロボット装置20が目的地P3で周囲を撮像することによって、3番作業通路が撮影されたカメラ画像と8番作業通路が撮影されたカメラ画像とが取得される。 (Instruction No. 3) Instruction No. 2 (corresponding to the opening time "NULL" in FIG. 5), command to move to destination P3 "X coordinate = 15.0, Y coordinate = 10.0", and arrive at the destination P3 Then, an image acquisition request is made. When the robot device 20 captures images of the surroundings at the destination P3, a camera image of the No. 3 work aisle and a camera image of the No. 8 work aisle are acquired.

(命令No.4)命令No.3に引き続き(図5中の開示時刻「NULL」に対応する)、目的地P4「X座標=20.0、Y座標=10.0」へ移動するように命令し、当該目的地P4に到着すると画像取得リクエストを行う。ロボット装置20が目的地P4で周囲を撮像することによって、4番作業通路が撮影されたカメラ画像と9番作業通路が撮影されたカメラ画像とが取得される。 (Instruction No. 4) Instruction No. 3 (corresponding to the opening time "NULL" in FIG. 5), command to move to the destination P4 "X coordinate = 20.0, Y coordinate = 10.0", and arrive at the destination P4 Then, an image acquisition request is made. When the robot device 20 captures images of the surroundings at the destination P4, a camera image of the No. 4 work aisle and a camera image of the No. 9 work aisle are acquired.

(命令No.5)命令No.4に引き続き(図5中の開示時刻「NULL」に対応する)、目的地P5「X座標=25.0、Y座標=10.0」へ移動するように命令し、当該目的地P5に到着すると画像取得リクエストを行う。ロボット装置20が目的地P4で周囲を撮像することによって、5番作業通路が撮影されたカメラ画像と10番作業通路が撮影されたカメラ画像とが取得される。 (Instruction No. 5) Instruction No. 4 (corresponding to the opening time "NULL" in FIG. 5), command to move to destination P5 "X coordinate = 25.0, Y coordinate = 10.0", and arrive at the destination P5 Then, an image acquisition request is made. When the robot device 20 captures images of the surroundings at the destination P4, a camera image of work aisle No. 5 and a camera image of work aisle No. 10 are acquired.

(命令No.6)9時30分になると目的地P1「X座標=5.0、Y座標=10.0」へ移動するように命令し、当該目的地P1に到着すると画像取得リクエストを行う。ロボット装置20が目的地P1で周囲を撮像することによって、1番作業通路が撮影されたカメラ画像と6番作業通路が撮影されたカメラ画像とが取得される。 (Instruction No. 6) At 9:30, an instruction is given to move to the destination P1 "X coordinate = 5.0, Y coordinate = 10.0", and when the destination P1 is reached, an image acquisition request is made. . When the robot device 20 captures images of the surroundings at the destination P1, a camera image of the No. 1 work passage and a camera image of the No. 6 work passage are obtained.

ロボット制御部121は、図5のロボット制御情報131に基づいて、命令No.1から命令No.6までの6つのロボット制御命令を順次、ロボット装置20へ送信する。ロボット装置20は、それら命令No.1から命令No.6までの6つのロボット制御命令に従って、順次目的地に移動して周囲を撮影し、撮影したカメラ画像をサーバ装置10へ送信する。 Based on the robot control information 131 shown in FIG. 1 to instruction No. Six robot control instructions up to 6 are sequentially transmitted to the robot device 20 . The robot device 20 can read those command numbers. 1 to instruction No. According to the six robot control commands up to 6, the robot sequentially moves to the destination, photographs the surroundings, and transmits the photographed camera images to the server device 10.例文帳に追加

なお、カメラ部23がロボット装置20の両端のそれぞれにカメラを備え、例えば目的地P1で両方のカメラで撮影することによって、1番作業通路が撮影されたカメラ画像(1番作業通路のカメラ画像)と6番作業通路が撮影されたカメラ画像(6作業通路のカメラ画像)とが取得されるように構成してもよい。又は、カメラ部23がロボット装置20の正面にカメラを備え、例えば目的地P1でロボット装置20が1番作業通路の方を向いて撮影した後に6番作業通路の方を向いて撮影することによって、1番作業通路のカメラ画像と6番作業通路のカメラ画像とが取得されるように構成してもよい。画像取得部221は、例えば目的地P1でカメラ部23から取得したカメラ画像に対して1番作業通路のカメラ画像であるか又は6番作業通路のカメラ画像であるのかを識別する識別子を付与してから、当該カメラ画像をサーバ装置10へ送信する。 The camera unit 23 is provided with cameras at both ends of the robot device 20. For example, by capturing images at the destination P1 with both cameras, a camera image of the No. 1 work passage (camera image of the No. 1 work passage) is obtained. ) and a camera image of work aisle No. 6 (camera image of work aisle 6). Alternatively, the camera unit 23 is provided with a camera in front of the robot device 20. For example, at the destination P1, the robot device 20 faces toward the No. 1 work passage and takes an image, and then faces toward the No. 6 work passage to take an image. , and a camera image of the No. 1 work aisle and a camera image of the No. 6 work aisle may be acquired. The image acquiring unit 221 assigns an identifier to the camera image acquired from the camera unit 23 at the destination P1, for example, to identify whether the camera image is the camera image of the first work passage or the camera image of the sixth work passage. After that, the camera image is transmitted to the server device 10 .

サーバ装置10は、例えば命令No.1によって1番作業通路のカメラ画像と6番作業通路のカメラ画像とを取得すると、物体認識部122が当該カメラ画像の中に人が含まれるか否かを認識する。次いで、作業異常判定部123は、当該カメラ画像の中に人が含まれる場合に、図4の作業管理情報132に基づいて、当該画像の撮影の場所及び時刻における作業の異常の有無を判定する。 The server device 10, for example, commands No. When the camera image of the No. 1 work passage and the camera image of the No. 6 work passage are acquired by 1, the object recognition unit 122 recognizes whether or not a person is included in the camera images. Next, when a person is included in the camera image, the work abnormality determination unit 123 determines whether or not there is an abnormality in the work at the location and time when the image was captured, based on the work management information 132 of FIG. .

例えば、作業異常判定部123は、命令No.1によって取得された1番作業通路のカメラ画像の中に人が含まれる場合、図4の作業管理情報132に基づいて、当該画像の撮影の場所「目的地P1」及び時刻「9時00分から9時30分までの間」における作業の異常の有無を判定する。この場合、図4の作業管理情報132には、9時00分から9時30分までの間に1番作業通路で予定された作業がない。したがって、当該1番作業通路のカメラ画像に写っている作業者が予定にはない間違った作業を行っている可能性がある。このため、作業異常判定部123は、命令No.1によって取得された1番作業通路のカメラ画像の中に人が含まれる場合、図4の作業管理情報132に基づいて、当該画像の撮影の場所「目的地P1」及び時刻「9時00分から9時30分までの間」における作業の異常ありと判定する。 For example, the work abnormality determination unit 123 determines the command No. 1, based on the work management information 132 of FIG. Determine whether there is an abnormality in the work until 9:30. In this case, in the work management information 132 of FIG. 4, there is no work scheduled for the first work passage from 9:00 to 9:30. Therefore, there is a possibility that the worker shown in the camera image of the No. 1 work passage is doing an unscheduled wrong work. Therefore, the work abnormality determination unit 123 determines that the command No. 1, based on the work management information 132 of FIG. It is determined that there is an abnormality in the work until 9:30.

一方、命令No.3によって取得された3番作業通路のカメラ画像の中に人が含まれる場合、図4の作業管理情報132には、9時00分から9時30分までの間に3番作業通路で予定された作業がある。このため、作業異常判定部123は、命令No.3によって取得された3番作業通路のカメラ画像の中に人が含まれる場合、図4の作業管理情報132に基づいて、当該画像の撮影の場所「目的地P3」及び時刻「9時00分から9時30分までの間」における作業の異常なしと判定する。 On the other hand, instruction No. 3, the work management information 132 in FIG. I have work to do. Therefore, the work abnormality determination unit 123 determines that the command No. 3, if a person is included in the camera image of work passage No. 3 acquired in step 3, based on the work management information 132 of FIG. It is judged that there is no abnormality in the work until 9:30.

なお、物体認識部122がカメラ画像の中に含まれる人数を認識し、作業異常判定部123が、作業管理情報132内の作業人数とカメラ画像の中に含まれる人数との一致不一致に基づいて、作業の異常の有無を判定してもよい。 The object recognition unit 122 recognizes the number of people included in the camera image, and the work abnormality determination unit 123 determines whether the number of workers in the work management information 132 and the number of people included in the camera image match or disagree. , the presence or absence of an abnormality in the work may be determined.

例えば、命令No.3によって取得された3番作業通路のカメラ画像の場合、図4の作業管理情報132において9時00分から9時30分までの間に3番作業通路で予定された作業の作業人数は5人である。このため、作業異常判定部123は、命令No.3によって取得された3番作業通路のカメラ画像の中に含まれる人数が5人である場合には、図4の作業管理情報132に基づいて、当該画像の撮影の場所「目的地P3」及び時刻「9時00分から9時30分までの間」における作業の異常なしと判定する。一方、作業異常判定部123は、命令No.3によって取得された3番作業通路のカメラ画像の中に含まれる人数が5人ではない場合には、図4の作業管理情報132に基づいて、当該画像の撮影の場所「目的地P3」及び時刻「9時00分から9時30分までの間」における作業の異常ありと判定する。 For example, instruction no. 3, the work management information 132 in FIG. is. Therefore, the work abnormality determination unit 123 determines that the command No. 3, if the number of people included in the camera image of the No. 3 work passage obtained in step 3 is 5, based on the work management information 132 of FIG. It is determined that there is no abnormality in the work at the time "between 9:00 and 9:30". On the other hand, the work abnormality determination unit 123 determines that the command No. 3, if the number of people included in the camera image of the No. 3 work passage acquired in step 3 is not 5, based on the work management information 132 of FIG. It is determined that there is an abnormality in the work at the time "between 9:00 and 9:30".

図6は、本実施形態に係る判定結果の構成例を示す図である。図6の判定結果133の例は、図3のデータセンター300の施設内において、図4の作業管理情報132における3番作業通路での3つの作業No.1、作業No.3及び作業No.4に対応している。図6には、結果No.1から結果No.3までの3つの判定結果が示される。また、図7は、図6の判定結果133の説明図である。図7には3番作業通路での作業の異常の有無の判定についての説明が示される。 FIG. 6 is a diagram showing a configuration example of determination results according to the present embodiment. An example of the determination result 133 in FIG. 1, work no. 3 and work no. It corresponds to 4. FIG. 6 shows the result No. 1 to result No. Three determination results up to 3 are shown. Also, FIG. 7 is an explanatory diagram of the determination result 133 of FIG. FIG. 7 shows an explanation of the determination of whether or not there is an abnormality in the work in the No. 3 work passage.

(結果No.1)9時30分に取得された3番作業通路のカメラ画像の中に人が含まれるが、図4の作業管理情報132における3番作業通路での作業No.1(作業時間「9時00分から10時00分」)に合致するので、判定結果は異常なしである。また、異常レベルは、異常なしに対応する「0」である。 (Result No. 1) A person is included in the camera image of the No. 3 work passage acquired at 9:30, but the work No. 3 in the No. 3 work passage in the work management information 132 of FIG. 1 (working time "9:00 to 10:00"), the determination result is no abnormality. Also, the abnormality level is "0" corresponding to no abnormality.

(結果No.2)10時30分に取得された3番作業通路のカメラ画像の中に人が含まれるが、図4の作業管理情報132には合致する3番作業通路での作業がないので、判定結果は異常ありである。このとき、作業異常判定部123は、作業の異常ありと判定した場合に、当該カメラ画像の撮影の場所での撮影の時刻に対する過去の直近の作業終了予定時刻からの経過時間に基づいて、作業の異常の理由を判定する。結果No.2の場合、3番作業通路での過去の直近の作業No.1の作業終了予定時刻「10時00分」からの経過時間「30分」は、所定の作業時間超過閾値「60分」以内である。このため、作業異常判定部123は、当該作業の異常の理由が「作業時間超過」であると判定する。また、異常レベルは、異常あり「作業時間超過」に対応する「1」である。 (Result No. 2) A person is included in the camera image of work aisle 3 acquired at 10:30, but there is no work in work aisle 3 that matches the work management information 132 in FIG. Therefore, the judgment result is abnormal. At this time, if the work abnormality determination unit 123 determines that there is a work abnormality, the work abnormality determination unit 123 determines the work based on the elapsed time from the most recent scheduled work end time with respect to the shooting time at the shooting location of the camera image. determine the reason for the abnormality. Result no. In the case of 2, the most recent work No. in the 3rd work passage. The elapsed time "30 minutes" from the scheduled work end time "10:00" of 1 is within the predetermined working time excess threshold "60 minutes". Therefore, the work abnormality determination unit 123 determines that the reason for the abnormality of the work is "work time exceeded". Moreover, the abnormality level is "1" corresponding to "work time exceeded" with abnormality.

(結果No.3)11時30分に取得された3番作業通路のカメラ画像の中に人が含まれるが、図4の作業管理情報132には合致する3番作業通路での作業がないので、判定結果は異常ありである。このとき、作業異常判定部123は、作業の異常ありと判定した場合に、当該カメラ画像の撮影の場所での撮影の時刻に対する過去の直近の作業終了予定時刻からの経過時間に基づいて、作業の異常の理由を判定する。結果No.3の場合、3番作業通路での過去の直近の作業終了予定時刻「10時00分」からの経過時間「90分」は、所定の作業時間超過閾値「60分」超過である。このため、作業異常判定部123は、当該作業の異常の理由が「計画外作業」であると判定する。また、異常レベルは、異常あり「計画外作業」に対応する「2」である。 (Result No. 3) A person is included in the camera image of work aisle 3 acquired at 11:30, but there is no work in work aisle 3 that matches the work management information 132 in FIG. Therefore, the judgment result is abnormal. At this time, if the work abnormality determination unit 123 determines that there is a work abnormality, the work abnormality determination unit 123 determines the work based on the elapsed time from the most recent scheduled work end time with respect to the shooting time at the shooting location of the camera image. determine the reason for the abnormality. Result no. In the case of 3, the elapsed time "90 minutes" from the past scheduled work end time "10:00" in the No. 3 work passage exceeds the predetermined working time excess threshold "60 minutes". Therefore, the work abnormality determination unit 123 determines that the reason for the abnormality of the work is "unplanned work". In addition, the abnormality level is "2" corresponding to "unplanned work" with abnormality.

なお、作業時間超過閾値は、一定の値がサーバ装置10に予め設定されてもよく、又は過去の直近の作業内容に応じた値がサーバ装置10に予め設定されてもよい。 Note that the working time excess threshold value may be preset in the server device 10 as a constant value, or may be preset in the server device 10 according to the content of the most recent work in the past.

また、作業異常判定部123は、同じ作業通路で一定期間内に複数回、作業の異常ありと判定した場合に、異常レベルを基準よりも高いレベルに決定してもよい。これにより、作業の異常レベルが通常よりも高いことを管理者へ知らせることができる。 In addition, the work abnormality determination unit 123 may determine the abnormality level to be higher than the reference level when it is determined that there is an abnormality in the work in the same work passage a plurality of times within a certain period of time. As a result, the administrator can be notified that the abnormal level of work is higher than usual.

次に本実施形態に係るいくつかの変形例を説明する。 Next, some modifications of this embodiment will be described.

(変形例1)
作業異常判定部123は、カメラ画像の撮影の場所が所定の場所である場合に、作業の異常の有無を判定しないようにしてもよい。例えば、図3において、6番作業通路に施設の出入口がある場合、6番作業通路での作業とは無関係に、6番作業通路に人が存在し、6番作業通路のカメラ画像に人が含まれる可能性がある。この場合、作業異常判定部123は、6番作業通路のカメラ画像に対して、作業の異常の有無を判定しない。これにより、作業の異常の有無の誤判定を防ぐ効果が得られる。
(Modification 1)
The work abnormality determination unit 123 may not determine the presence or absence of work abnormality when the camera image is captured at a predetermined location. For example, in FIG. 3, if there is an entrance/exit of the facility in the No. 6 work aisle, there is a person in the No. 6 work aisle regardless of the work in the No. 6 work aisle, and there is no person in the No. 6 work aisle camera image. may be included. In this case, the work abnormality determination unit 123 does not determine whether or not there is an abnormality in the work with respect to the camera image of the No. 6 work passage. As a result, it is possible to obtain the effect of preventing erroneous determination of the presence or absence of an abnormality in the work.

(変形例2)
物体認識部122は、ロボット装置20が時間をずらして撮影した複数のカメラ画像から人数を認識し、作業異常判定部123は、当該認識された人数と作業管理情報132内の予定の作業人数(作業予定人数)との一致不一致に基づいて、作業の異常の有無を判定してもよい。このとき、ロボット制御部121は、物体認識部122によって認識された人数が作業予定人数よりも少ない場合に、ロボット装置20に再撮影を指示してもよい。これは、作業者同士が重なって撮影されたために、実際よりも少ない人数が認識された可能性があるからである。さらに、ロボット制御部121は、ロボット装置20に前回の撮影の場所から移動して再撮影させてもよい。例えば、図3において、1回目が目的地P1(1番作業通路の一方の端側)で1番作業通路のカメラ画像が撮影された場合、2回目は、1番作業通路の目的地P1とは反対側(1番作業通路のもう一方の端側)で1番作業通路のカメラ画像の再撮影が行われるようにする。これにより、作業者同士が重なって撮影されたために実際よりも少ない人数が認識されることをより防止する効果が得られる。
(Modification 2)
The object recognition unit 122 recognizes the number of people from a plurality of camera images captured by the robot device 20 at different times, and the work abnormality determination unit 123 compares the recognized number of people with the planned number of workers in the work management information 132 ( The presence or absence of an abnormality in the work may be determined based on whether it matches or disagrees with the number of people scheduled to work. At this time, the robot control unit 121 may instruct the robot device 20 to re-shoot when the number of people recognized by the object recognition unit 122 is less than the number of people scheduled to work. This is because there is a possibility that fewer workers than the actual number were recognized because the workers were photographed overlapping each other. Further, the robot control unit 121 may cause the robot device 20 to move from the location where the previous image was taken and re-image. For example, in FIG. 3, when the camera image of the No. 1 work aisle is captured at the destination P1 (one end of the No. 1 work aisle) the first time, the second time is the destination P1 of the No. 1 work aisle. causes the camera image of the No. 1 work aisle to be re-captured on the opposite side (the other end of the No. 1 work aisle). As a result, it is possible to obtain the effect of preventing the number of workers from being recognized less than the actual number because the workers are photographed overlapping each other.

(変形例3)
物体認識部122は、ロボット装置20が撮影した画像又はロボット装置20が計測した物体の点群情報に基づいて作業者とロボット装置20との間の距離を取得し、作業異常判定部123は、当該取得された距離に基づいて作業者の位置を特定し、特定した作業者の位置で予定された作業を特定してもよい。これは、一つ通路で複数の作業が同時又は連続して行われる状況に対応するために、より詳細な作業位置の情報に基づいて該当する作業を特定した上で、作業の異常の有無を判定するためである。
(Modification 3)
The object recognition unit 122 acquires the distance between the worker and the robot device 20 based on the image captured by the robot device 20 or the point group information of the object measured by the robot device 20, and the work abnormality determination unit 123 The position of the worker may be specified based on the obtained distance, and the work scheduled at the specified position of the worker may be specified. In order to deal with situations where multiple tasks are performed simultaneously or consecutively in one aisle, the relevant tasks are identified based on more detailed information on the work position, and then the presence or absence of abnormalities in the work is identified. It is for judging.

具体的には、サーバ装置10は、作業管理情報132に対して、作業通路上の詳細な作業場所を示す情報(例えば、二次元空間におけるメッシュ状に区分けされた作業場所の情報)を含める。物体認識部122は、例えば、LiDAR部24が計測した点群情報に基づいて、作業者からロボット装置20までの距離を取得する。又は、例えばカメラ部23が奥行きの情報を取得する深度センサーを内蔵したデプスカメラを備え、物体認識部122は、当該デプスカメラが撮影した画像に基づいて、作業者からロボット装置20までの距離を取得する。作業異常判定部123は、当該取得された距離に基づいて、作業者の位置(メッシュ状に区分けされた作業場所)を特定し、特定した作業者の位置で予定された作業を特定し、作業の異常の有無を判定する。また、その作業者の位置を特定する精度を高めるために、ロボット装置20が通路の両側でカメラ画像又は点群情報を取得し、サーバ装置10が通路の両側で取得されたカメラ画像又は点群情報を使用して作業者の位置を特定してもよい。 Specifically, the server device 10 includes in the work management information 132 information indicating detailed work locations on work passages (for example, information on work locations divided into a mesh in a two-dimensional space). The object recognition unit 122 acquires the distance from the worker to the robot device 20 based on the point group information measured by the LiDAR unit 24, for example. Alternatively, for example, the camera unit 23 has a depth camera with a built-in depth sensor that acquires depth information, and the object recognition unit 122 calculates the distance from the worker to the robot device 20 based on the image captured by the depth camera. get. Based on the acquired distance, the work abnormality determination unit 123 identifies the worker's position (the work place divided into meshes), identifies the work scheduled at the identified worker's position, and performs the work. judge whether there is any abnormality. Further, in order to increase the accuracy of identifying the position of the worker, the robot device 20 acquires camera images or point cloud information on both sides of the passage, and the server device 10 acquires the camera images or point clouds acquired on both sides of the passage. The information may be used to locate the worker.

(変形例4)
ロボット装置20が任意のタイミングでカメラ画像を撮影し、サーバ装置10が任意のタイミングで撮影されたカメラ画像によって作業の異常の有無を判定してもよい。この場合、ロボット装置20は、カメラ画像の撮影の場所及び時刻を示す撮影情報をカメラ画像に付加する。サーバ装置10は、カメラ画像に付加された撮影情報によって当該カメラ画像の撮影の場所及び時刻を認識する。
(Modification 4)
The robot device 20 may capture a camera image at an arbitrary timing, and the server device 10 may determine whether there is an abnormality in the work based on the camera image captured at an arbitrary timing. In this case, the robot device 20 adds photographing information indicating the location and time at which the camera image was photographed to the camera image. The server device 10 recognizes the location and time when the camera image was captured based on the image capturing information added to the camera image.

[第2実施形態]
図8は、第2実施形態に係るロボット装置の構成例を示すブロック図である。図8において、図1の各部に対応する部分には同一の符号を付け、その説明を省略する。第2実施形態では、上述した第1実施形態においてサーバ装置10に具備されていた機能をロボット装置20aに具備させることによって、ロボット装置単体で作業管理システムを構成している。
[Second embodiment]
FIG. 8 is a block diagram showing a configuration example of a robot device according to the second embodiment. In FIG. 8, parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and descriptions thereof are omitted. In the second embodiment, the functions provided in the server device 10 in the above-described first embodiment are provided in the robot device 20a, so that the robot device alone constitutes a work management system.

具体的には、図8のロボット装置20aは、図1のロボット装置20に対して、制御部22aの機能としてロボット制御部121、物体認識部122及び作業異常判定部123が追加され、また記憶部26(ロボット制御情報131、作業管理情報132、判定結果133)が追加される。 Specifically, the robot device 20a of FIG. 8 is different from the robot device 20 of FIG. A section 26 (robot control information 131, work management information 132, determination result 133) is added.

上述した各実施形態によれば、自律走行可能なロボット装置20が移動しながらカメラで撮影した画像によって作業の異常の有無を判定することができるという効果が得られる。 According to each of the above-described embodiments, it is possible to obtain the effect that the presence or absence of an abnormality in the work can be determined based on the images captured by the camera while the robot device 20 capable of autonomous travel is moving.

なお、これにより、例えば作業管理システムを利用する各種のサービスにおける総合的なサービス品質の向上を実現することができることから、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、持続可能な産業化を推進するとともに、イノベーションの拡大を図る」に貢献することが可能となる。 As a result, for example, it is possible to improve the overall service quality of various services that use work management systems. , promote sustainable industrialization, and contribute to the expansion of innovation.

以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 Although the embodiment of the present invention has been described in detail above with reference to the drawings, the specific configuration is not limited to this embodiment, and design changes and the like are included within the scope of the present invention.

また、上述した各装置の機能を実現するためのコンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disc)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
Alternatively, a computer program for realizing the functions of the devices described above may be recorded in a computer-readable recording medium, and the program recorded in the recording medium may be read and executed by the computer system. Note that the “computer system” referred to here may include hardware such as an OS and peripheral devices.
In addition, "computer-readable recording medium" includes writable nonvolatile memories such as flexible discs, magneto-optical discs, ROMs and flash memories, portable media such as DVDs (Digital Versatile Discs), and computer system built-in media. A storage device such as a hard disk that

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Furthermore, "computer-readable recording medium" means a volatile memory (e.g., DRAM (Dynamic Random Access Memory)), which holds the program for a certain period of time, is also included.
Further, the above program may be transmitted from a computer system storing this program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1…作業管理システム、10…サーバ装置、20,20a…ロボット装置、11,21…通信部、12,22,22a…制御部、13,26…記憶部、121…ロボット制御部、122…物体認識部、123…作業異常判定部、131…ロボット制御情報、132…作業管理情報、133…判定結果、23…カメラ部、24…LiDAR部、25…走行部、221…画像取得部、222…自己位置推定部、223…自律走行制御部、NW…通信ネットワーク Reference Signs List 1 work management system 10 server device 20, 20a robot device 11, 21 communication unit 12, 22, 22a control unit 13, 26 storage unit 121 robot control unit 122 object Recognition unit 123 Work abnormality determination unit 131 Robot control information 132 Work management information 133 Determination result 23 Camera unit 24 LiDAR unit 25 Travel unit 221 Image acquisition unit 222 self-position estimation unit, 223... autonomous driving control unit, NW... communication network

Claims (13)

自律走行を行い、周囲を撮影するロボット装置と、
前記ロボット装置と通信するサーバ装置と、を備え、
前記サーバ装置は、
作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部と、
前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識部と、
前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定部と、
前記判定の結果を記憶する判定結果記憶部と、を備える、
作業管理システム。
A robot device that autonomously travels and shoots the surroundings,
a server device that communicates with the robot device,
The server device
a work management information storage unit that stores work management information indicating a schedule of work to be performed by a worker at a work site;
an object recognition unit that recognizes whether or not an image captured by the robot device includes a person;
a work abnormality determination unit that determines whether or not there is an abnormality in the work at the location and time when the image was captured based on the work management information when a person is included in the image;
A determination result storage unit that stores the result of the determination,
Work management system.
前記作業異常判定部は、作業の異常ありと判定した場合に、前記画像の撮影の場所での撮影の時刻に対する過去の直近の作業終了予定時刻からの経過時間に基づいて、作業の異常の理由を判定する、
請求項1に記載の作業管理システム。
When determining that there is an abnormality in the work, the work abnormality determination unit determines the reason for the work abnormality based on the elapsed time from the last scheduled work end time with respect to the shooting time at the location where the image was shot. determine the
The work management system according to claim 1.
前記作業異常判定部は、同じ場所で一定期間内に複数回、作業の異常ありと判定した場合に、作業の異常レベルを基準よりも高いレベルに決定する、
請求項1又は2のいずれか1項に記載の作業管理システム。
The work abnormality determination unit determines the work abnormality level to be higher than a reference level when it is determined that there is an abnormality in the work multiple times within a certain period at the same place.
The work management system according to claim 1 or 2.
前記作業異常判定部は、前記画像の撮影の場所が所定の場所である場合に、作業の異常の有無を判定しない、
請求項1から3のいずれか1項に記載の作業管理システム。
The work abnormality determination unit does not determine whether or not there is an abnormality in the work when the location where the image is captured is a predetermined location.
The work management system according to any one of claims 1 to 3.
前記物体認識部は、前記ロボット装置が撮影した画像又は前記ロボット装置が計測した物体の点群情報に基づいて作業者と前記ロボット装置との間の距離を取得し、
前記作業異常判定部は、当該取得された距離に基づいて作業者の位置を特定し、特定した作業者の位置で予定された作業を特定する、
請求項1から4のいずれか1項に記載の作業管理システム。
The object recognition unit acquires the distance between the worker and the robot device based on the image captured by the robot device or the point group information of the object measured by the robot device,
The work abnormality determination unit identifies the position of the worker based on the acquired distance, and identifies the work scheduled at the identified worker's position.
The work management system according to any one of claims 1 to 4.
前記物体認識部は、前記ロボット装置が時間をずらして撮影した複数の画像から人数を認識し、
前記作業異常判定部は、前記認識された人数と作業予定人数とに基づいて作業の異常の有無を判定する、
請求項1から5のいずれか1項に記載の作業管理システム。
The object recognition unit recognizes the number of people from a plurality of images captured at different times by the robot device,
The work abnormality determination unit determines whether there is a work abnormality based on the recognized number of people and the number of people scheduled to work.
The work management system according to any one of claims 1 to 5.
前記サーバ装置は、前記認識された人数が作業予定人数よりも少ない場合に、前記ロボット装置に再撮影を指示するロボット制御部をさらに備える、
請求項6に記載の作業管理システム。
The server device further comprises a robot control unit that instructs the robot device to re-shoot when the recognized number of people is less than the number of people scheduled to work.
The work management system according to claim 6.
前記ロボット制御部は、前記ロボット装置に前回の撮影の場所から移動して再撮影させる、
請求項7に記載の作業管理システム。
The robot control unit causes the robot device to move from a previous shooting location and reshoot.
The work management system according to claim 7.
自律走行を行い、周囲を撮影するロボット装置であって、
作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部と、
前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識部と、
前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定部と、
前記判定の結果を記憶する判定結果記憶部と、
を備えるロボット装置。
A robot device that autonomously travels and photographs the surroundings,
a work management information storage unit that stores work management information indicating a schedule of work to be performed by a worker at a work site;
an object recognition unit that recognizes whether or not an image captured by the robot device includes a person;
a work abnormality determination unit that determines whether or not there is an abnormality in the work at the location and time when the image was captured based on the work management information when a person is included in the image;
a determination result storage unit that stores the result of the determination;
A robotic device comprising:
自律走行を行い、周囲を撮影するロボット装置と、前記ロボット装置と通信するサーバ装置と、を備え、
前記サーバ装置が、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部を備え、
前記サーバ装置が、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、
前記サーバ装置が、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、
前記サーバ装置が、前記判定の結果を記憶する判定結果記憶ステップと、
を含む作業管理方法。
A robot device that autonomously travels and photographs the surroundings, and a server device that communicates with the robot device,
The server device includes a work management information storage unit that stores work management information indicating the schedule of work to be performed by the worker at the work site,
an object recognition step in which the server device recognizes whether or not an image captured by the robot device includes a person;
a work abnormality determination step in which the server device determines whether or not there is an abnormality in the work at the place and time when the image was taken based on the work management information when a person is included in the image;
a judgment result storage step in which the server device stores the judgment result;
work management methods, including;
自律走行を行い、周囲を撮影するロボット装置が、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部を備え、
前記ロボット装置が、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、
前記ロボット装置が、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、
前記ロボット装置が、前記判定の結果を記憶する判定結果記憶ステップと、
を含む作業管理方法。
A robot device that autonomously travels and shoots the surroundings has a work management information storage unit that stores work management information indicating the schedule of work to be performed by the worker at the work site,
an object recognition step in which the robot device recognizes whether or not an image captured by the robot device includes a person;
a work abnormality determination step in which the robot device determines whether or not there is an abnormality in the work at the location and time at which the image was captured based on the work management information when a person is included in the image;
a determination result storage step in which the robot device stores the result of the determination;
work management methods, including;
自律走行を行い、周囲を撮影するロボット装置と通信するサーバ装置が、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部を備え、
前記サーバ装置のコンピュータに、
前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、
前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、
前記判定の結果を記憶する判定結果記憶ステップと、
を実行させるためのコンピュータプログラム。
A server device that autonomously travels and communicates with a robot device that photographs the surroundings has a work management information storage unit that stores work management information indicating the schedule of work to be performed by the worker at the work site,
In the computer of the server device,
an object recognition step of recognizing whether or not an image captured by the robot device includes a person;
a work abnormality determination step of determining whether or not there is an abnormality in the work at the place and time when the image was taken, based on the work management information, when a person is included in the image;
a judgment result storage step of storing the judgment result;
A computer program for executing
自律走行を行い、周囲を撮影するロボット装置が、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部を備え、
前記ロボット装置のコンピュータに、
前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、
前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、
前記判定の結果を記憶する判定結果記憶ステップと、
を実行させるためのコンピュータプログラム。
A robot device that autonomously travels and shoots the surroundings has a work management information storage unit that stores work management information indicating the schedule of work to be performed by the worker at the work site,
In the computer of the robotic device,
an object recognition step of recognizing whether or not an image captured by the robot device includes a person;
a work abnormality determination step of determining whether or not there is an abnormality in the work at the place and time when the image was taken, based on the work management information, when a person is included in the image;
a judgment result storage step of storing the judgment result;
A computer program for executing
JP2021107893A 2021-06-29 2021-06-29 Work management system, robot device, work management method, and computer program Pending JP2023005746A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021107893A JP2023005746A (en) 2021-06-29 2021-06-29 Work management system, robot device, work management method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021107893A JP2023005746A (en) 2021-06-29 2021-06-29 Work management system, robot device, work management method, and computer program

Publications (1)

Publication Number Publication Date
JP2023005746A true JP2023005746A (en) 2023-01-18

Family

ID=85107523

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021107893A Pending JP2023005746A (en) 2021-06-29 2021-06-29 Work management system, robot device, work management method, and computer program

Country Status (1)

Country Link
JP (1) JP2023005746A (en)

Similar Documents

Publication Publication Date Title
US9862098B2 (en) Methods and devices for cleaning garbage
US9908239B1 (en) Mobile robot system
JP5267698B2 (en) Patrol robot and autonomous traveling method of patrol robot
US20160203391A1 (en) Information Technology Asset Type Identification Using a Mobile Vision-Enabled Robot
EP2093636A1 (en) Method for controlling an alarm management system
EP3938981A2 (en) Construction project tracking
JP6229075B2 (en) Method and apparatus for controlling smart home device, program and recording medium
JP2018032950A (en) Information processing unit and information processing method, and computer program
CN109465819A (en) Human body recognition system and human body recognition method
WO2023115927A1 (en) Cloud robot mapping method, system, device and storage medium
JP2013167986A (en) Image recognition system and image recognition method
CN108388252B (en) Robot teaching method, device, equipment and medium
WO2018154633A1 (en) Control device, control method, and program recording medium
CN114371632A (en) Intelligent equipment control method, device, server and storage medium
JP6804393B2 (en) Acceptance robot system
JP2016058767A (en) Picture imaging device, picture management device, and picture management system
JP2023005746A (en) Work management system, robot device, work management method, and computer program
US20210056485A1 (en) Data Center Impact Assessment Post Disaster
JP2010098550A (en) Camera management apparatus, and camera management method
JP2017033278A (en) Facility management ledger creation support system, facility management ledger creation support device, and program
JP7351757B2 (en) How to control a moving robot
JPWO2019187288A1 (en) Information processing equipment, data generation methods, and programs
WO2022030548A1 (en) Monitoring information processing device, method, and program
KR101332820B1 (en) System and Method for Tracking Object, Apparatus for Object Management and Driving Method Thereof, Image Device and Driving Method Thereof
KR20220074563A (en) Multi-robot based security method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240405