JP2023005746A - Work management system, robot device, work management method, and computer program - Google Patents
Work management system, robot device, work management method, and computer program Download PDFInfo
- Publication number
- JP2023005746A JP2023005746A JP2021107893A JP2021107893A JP2023005746A JP 2023005746 A JP2023005746 A JP 2023005746A JP 2021107893 A JP2021107893 A JP 2021107893A JP 2021107893 A JP2021107893 A JP 2021107893A JP 2023005746 A JP2023005746 A JP 2023005746A
- Authority
- JP
- Japan
- Prior art keywords
- work
- robot device
- image
- abnormality
- work management
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007726 management method Methods 0.000 title claims description 96
- 238000004590 computer program Methods 0.000 title claims description 9
- 230000005856 abnormality Effects 0.000 claims abstract description 109
- 238000004891 communication Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 230000015654 memory Effects 0.000 description 7
- 238000000034 method Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、作業管理システム、ロボット装置、作業管理方法及びコンピュータプログラムに関する。 The present invention relates to a work management system, a robot device, a work management method, and a computer program.
従来、建物の建設工事において作業を行う作業者を支援するための技術が例えば特許文献1に記載されている。特許文献1に記載された技術では、作業者に作業支援情報を提供するために、作業者が保有する作業者端末又は自律走行可能なロボットが、カメラが撮影した各作業者の作業の様子を示す画像情報及びマイクが集音した音声情報を中央管理装置に送信する。そして、中央管理装置が当該画像情報及び当該音声情報に対応する工事関連情報に基づいて、作業者個々の実施対象作業を特定している。
Conventionally,
近年、作業者が例えばデータセンター等の情報処理施設内の作業現場で行う作業が間違って行われていないかを監視することが重要になっている。例えばデータセンターにおいてサーバ装置や通信装置に対する設定等の作業が間違って行われると、多くのユーザに影響が及ぶような障害が発生しかねない。このため、作業者が予定の作業とは異なる作業を行っていないかを監視し、障害の発生を未然に防ぐことが重要である。ここで、施設内に監視カメラを設置する場合、死角をなくすためには多数の監視カメラが必要になる。このため、自律走行可能なロボットが移動しながらカメラで撮影した画像によって作業の異常の有無を判定することが考えられる。 2. Description of the Related Art In recent years, it has become important to monitor whether workers are doing wrong work at a work site in an information processing facility such as a data center. For example, if work such as settings for a server device or a communication device is performed incorrectly in a data center, a failure that affects many users may occur. For this reason, it is important to monitor whether the worker is performing work that is different from the scheduled work, and to prevent failures from occurring. Here, when installing surveillance cameras in a facility, a large number of surveillance cameras are required to eliminate blind spots. For this reason, it is conceivable that the presence or absence of an abnormality in the work is determined based on an image captured by a camera while an autonomously traveling robot is moving.
しかしながら、上述した特許文献1に記載された技術では、作業者個々の実施対象作業を特定するために、参照する画像情報がどの作業者に対応するのかを特定する必要がある。このために、画像情報を中央管理装置に送信する作業者端末が、作業者IDも中央管理装置に送信している。一方、自律走行可能なロボットが画像情報を中央管理装置に送信する場合、当該画像情報に対応する作業者IDをどのようにして取得するのかまでは特許文献1に記載されていないので、参照する画像情報がどの作業者に対応するのかを特定することが困難である。
However, with the technique described in
本発明は、このような事情を考慮してなされたものであり、その目的は、自律走行可能なロボット装置が移動しながらカメラで撮影した画像によって作業の異常の有無を判定することを図ることにある。 SUMMARY OF THE INVENTION The present invention has been made in consideration of such circumstances, and its object is to determine the presence or absence of an abnormality in a work by an image taken by a camera while an autonomously traveling robot device is moving. It is in.
(1)本発明の一態様は、自律走行を行い、周囲を撮影するロボット装置と、前記ロボット装置と通信するサーバ装置と、を備え、前記サーバ装置は、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部と、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識部と、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定部と、前記判定の結果を記憶する判定結果記憶部と、を備える、作業管理システムである。
(2)本発明の一態様は、前記作業異常判定部は、作業の異常ありと判定した場合に、前記画像の撮影の場所での撮影の時刻に対する過去の直近の作業終了予定時刻からの経過時間に基づいて、作業の異常の理由を判定する、上記(1)の作業管理システムである。
(3)本発明の一態様は、前記作業異常判定部は、同じ場所で一定期間内に複数回、作業の異常ありと判定した場合に、作業の異常レベルを基準よりも高いレベルに決定する、上記(1)又は(2)のいずれかの作業管理システムである。
(4)本発明の一態様は、前記作業異常判定部は、前記画像の撮影の場所が所定の場所である場合に、作業の異常の有無を判定しない、上記(1)から(3)のいずれかの作業管理システムである。
(5)本発明の一態様は、前記物体認識部は、前記ロボット装置が撮影した画像又は前記ロボット装置が計測した物体の点群情報に基づいて作業者と前記ロボット装置との間の距離を取得し、前記作業異常判定部は、当該取得された距離に基づいて作業者の位置を特定し、特定した作業者の位置で予定された作業を特定する、上記(1)から(4)のいずれかの作業管理システムである。
(6)本発明の一態様は、前記物体認識部は、前記ロボット装置が時間をずらして撮影した複数の画像から人数を認識し、前記作業異常判定部は、前記認識された人数と作業予定人数とに基づいて作業の異常の有無を判定する、上記(1)から(5)のいずれかの作業管理システムである。
(7)本発明の一態様は、前記サーバ装置は、前記認識された人数が作業予定人数よりも少ない場合に、前記ロボット装置に再撮影を指示するロボット制御部をさらに備える、上記(6)の作業管理システムである。
(8)本発明の一態様は、前記ロボット制御部は、前記ロボット装置に前回の撮影の場所から移動して再撮影させる、上記(7)の作業管理システムである。
(1) One aspect of the present invention includes a robot device that autonomously travels and captures images of its surroundings, and a server device that communicates with the robot device. an object recognition unit for recognizing whether or not a person is included in the image taken by the robot device; and a person is included in the image. a work abnormality determination unit that determines whether or not there is an abnormality in the work at the location and time when the image was taken, based on the work management information, and a determination result storage unit that stores the result of the determination. , is a work management system.
(2) In one aspect of the present invention, when the work abnormality determination unit determines that there is an abnormality in the work, the elapsed time from the most recent scheduled work end time for the time when the image was captured at the location where the image was captured The work management system according to (1) above, wherein the reason for an abnormality in work is determined based on time.
(3) In one aspect of the present invention, the work abnormality determination unit determines the work abnormality level to be higher than a reference level when it is determined that there is a work abnormality a plurality of times within a certain period at the same place. , the work management system according to (1) or (2) above.
(4) According to one aspect of the present invention, the above (1) to (3), wherein the work abnormality determination unit does not determine whether or not there is an abnormality in the work when the location where the image is captured is a predetermined location. Any work management system.
(5) In one aspect of the present invention, the object recognition unit calculates the distance between the worker and the robot device based on the image captured by the robot device or the point cloud information of the object measured by the robot device. The work abnormality determination unit identifies the position of the worker based on the obtained distance, and identifies the work scheduled at the identified position of the worker, according to the above (1) to (4) Any work management system.
(6) In one aspect of the present invention, the object recognition unit recognizes the number of people from a plurality of images captured by the robot device at different times, and the work abnormality determination unit recognizes the number of people recognized and the work schedule. The work management system according to any one of (1) to (5) above, wherein the presence or absence of an abnormality in the work is determined based on the number of workers.
(7) An aspect of the present invention is (6) above, wherein the server device further includes a robot control unit that instructs the robot device to re-capture when the recognized number of people is less than the number of people scheduled to work. work management system.
(8) An aspect of the present invention is the work management system according to (7) above, wherein the robot control unit causes the robot device to move from a location where the previous image was taken and to retake the image.
(9)本発明の一態様は、自律走行を行い、周囲を撮影するロボット装置であって、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部と、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識部と、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定部と、前記判定の結果を記憶する判定結果記憶部と、を備えるロボット装置である。 (9) One aspect of the present invention is a robot device that autonomously travels and captures images of its surroundings, and includes a work management information storage unit that stores work management information indicating a schedule of work to be performed by a worker at a work site. an object recognition unit for recognizing whether or not a person is included in the image captured by the robot apparatus; and when the image includes a person, the image is captured based on the work management information. and a determination result storage unit for storing the result of the determination.
(10)本発明の一態様は、自律走行を行い、周囲を撮影するロボット装置と、前記ロボット装置と通信するサーバ装置と、を備え、前記サーバ装置が、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部を備え、前記サーバ装置が、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、前記サーバ装置が、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、前記サーバ装置が、前記判定の結果を記憶する判定結果記憶ステップと、を含む作業管理方法である。
(11)本発明の一態様は、自律走行を行い、周囲を撮影するロボット装置が、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部を備え、前記ロボット装置が、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、前記ロボット装置が、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、前記ロボット装置が、前記判定の結果を記憶する判定結果記憶ステップと、を含む作業管理方法である。
(10) One aspect of the present invention includes a robot device that autonomously travels and captures images of its surroundings, and a server device that communicates with the robot device, wherein the server device performs work performed by a worker at a work site. an object recognition step in which the server device recognizes whether or not a person is included in the image taken by the robot device; a work abnormality determination step of determining whether or not there is an abnormality in the work at the place and time when the image was taken, based on the work management information, when a person is included in the image; and and a judgment result storage step of storing the judgment result.
(11) According to one aspect of the present invention, a robot device that autonomously travels and photographs the surroundings includes a work management information storage unit that stores work management information indicating a schedule of work to be performed by a worker at a work site, an object recognition step in which the robot device recognizes whether or not a person is included in an image taken by the robot device; Work management including: a work abnormality determination step of determining whether or not there is an abnormality in the work at the location and time when the image was captured based on the information; and a determination result storage step of storing the determination result in the robot device. The method.
(12)本発明の一態様は、自律走行を行い、周囲を撮影するロボット装置と通信するサーバ装置が、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部を備え、前記サーバ装置のコンピュータに、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、前記判定の結果を記憶する判定結果記憶ステップと、を実行させるためのコンピュータプログラムである。
(13)本発明の一態様は、自律走行を行い、周囲を撮影するロボット装置が、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部を備え、前記ロボット装置のコンピュータに、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、前記判定の結果を記憶する判定結果記憶ステップと、を実行させるためのコンピュータプログラムである。
(12) One aspect of the present invention is work management information in which a server device that communicates with a robot device that autonomously travels and photographs the surroundings stores work management information that indicates a schedule of work to be performed by a worker at a work site. an object recognition step of recognizing whether or not a person is included in an image taken by the robot device, in the computer of the server device, the object recognition step comprising a storage unit; A computer program for executing a work abnormality determination step of determining whether or not there is an abnormality in the work at the location and time when the image was captured, based on work management information, and a determination result storage step of storing the result of the determination. is.
(13) In one aspect of the present invention, a robot device that autonomously travels and photographs the surroundings includes a work management information storage unit that stores work management information indicating a schedule of work to be performed by a worker at a work site, an object recognition step of recognizing whether or not a person is included in the image taken by the robot device, and an object recognition step, in the computer of the robot device, of recognizing whether or not a person is included in the image taken by the robot device; a computer program for executing a work abnormality determination step of determining whether or not there is a work abnormality at the location and time when the image is captured; and a determination result storage step of storing the determination result.
本発明によれば、自律走行可能なロボット装置が移動しながらカメラで撮影した画像によって作業の異常の有無を判定することができるという効果が得られる。 According to the present invention, it is possible to determine whether or not there is an abnormality in the work based on the image captured by the camera while the autonomously traveling robot device is moving.
以下、図面を参照し、本発明の実施形態について説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[第1実施形態]
図1は、第1実施形態に係る作業管理システムの構成例を示すブロック図である。図1において、作業管理システム1は、サーバ装置10とロボット装置20とを備える。作業管理システム1は、作業者が施設内の作業現場で行う作業を管理する。管理対象の施設は、例えば情報処理施設であってもよい。情報処理施設として、例えばデータセンターやサーバールーム等が挙げられる。
[First embodiment]
FIG. 1 is a block diagram showing a configuration example of a work management system according to the first embodiment. In FIG. 1 , the
サーバ装置10は、通信部11と、制御部12(ロボット制御部121、物体認識部122、作業異常判定部123)と、記憶部13(ロボット制御情報131、作業管理情報132、判定結果133)とを備える。ロボット装置20は、通信部21と、制御部22(画像取得部221、自己位置推定部222、自律走行制御部223)と、カメラ部23と、LiDAR部24と、走行部25とを備える。
The
ロボット装置20は、自律走行を行い、周囲を撮影する。ロボット装置20が移動する移動範囲は、管理対象施設内の作業現場を撮影可能な予め設定された範囲である。
The
サーバ装置10は、通信ネットワークNWを介して、ロボット装置20と通信する。通信ネットワークNWは、有線回線若しくは無線回線から構成されてもよく、又は有線回線及び無線回線から構成されてもよい。例えば、ロボット装置20の通信部21が通信ネットワークNWの無線回線に接続する一方、サーバ装置10の通信部11が通信ネットワークNWの有線回線に接続してもよい。
The
サーバ装置10は、ロボット装置20が撮影した画像を、通信ネットワークNWを介して受信する。サーバ装置10は、ロボット装置20が撮影した画像によって、作業の異常の有無を判定する。
The
以下、図1に示されるロボット装置20及びサーバ装置10について詳細に説明する。
The
[ロボット装置]
ロボット装置20は、カメラ部23やLiDAR部24や走行部25等の主にハードウェアによる機能と、制御部22(画像取得部221、自己位置推定部222、自律走行制御部223)等の主にソフトウェアによる機能とを有する。
[Robot device]
The
通信部21は、通信ネットワークNWを介して、サーバ装置10の通信部11と通信する。
The
カメラ部23は、ロボット装置20の周辺を撮像する。LiDAR部24は、LiDAR(Light Detection and Ranging)技術により、ロボット装置20の周辺に存在する物体までの距離(点群情報)等の計測を行う。走行部25は、ロボット装置20を走行させる走行機構や走行機構を駆動する駆動装置等を備え、自律走行制御部223からの命令に従ってロボット装置20を走行させる。
The
制御部22は、ロボット装置20の制御を行う。制御部22の各機能は、制御部22がCPU(Central Processing Unit:中央演算処理装置)及びメモリ等のコンピュータハードウェアを備え、CPUがメモリに格納されたコンピュータプログラムを実行することにより実現される。なお、制御部22として、汎用のコンピュータ装置を使用して構成してもよく、又は、専用のハードウェア装置として構成してもよい。
The
画像取得部221は、カメラ部23が撮像した画像(以下、カメラ画像と称する)を取得する。画像取得部221は、サーバ装置10から受信した画像取得リクエストに基づいて、カメラ画像を取得する。画像取得部221は、カメラ画像をサーバ装置10へ送信する。
The
自己位置推定部222は、SLAM(Simultaneous Localization and Mapping)技術により、LiDAR部24が計測した点群情報とロボット装置20が備える地図情報(図示せず)とのマッチングを行ってロボット装置20の現在位置を推定する。当該地図情報は、ロボット装置20が走行予定の範囲を含む地図情報である。
The self-
自律走行制御部223は、ユーザやアプリケーションがロボット装置20の目的地を指定すると、パスプランニングの技術を用いて現在位置から目的地までの経路を生成する。自律走行制御部223は、当該経路に沿ってロボット装置20を走行させるように、走行部25へ命令を出す。
When the user or application designates the destination of the
[サーバ装置]
サーバ装置10は、制御部12(ロボット制御部121、物体認識部122、作業異常判定部123)等の主にソフトウェアによる機能を有する。
[Server device]
The
通信部11は、通信ネットワークNWを介して、ロボット装置20の通信部21と通信する。
The
記憶部13は、各種の情報を記憶する。記憶部13は、ロボット制御情報131、作業管理情報132及び判定結果133を記憶する。
The
制御部12は、サーバ装置10の制御を行う。ロボット制御部121は、ロボット装置20を制御するためのロボット制御命令をロボット装置20へ送信する。ロボット制御部121は、ロボット制御情報131に基づいて、移動命令や画像取得リクエスト等のロボット制御命令をロボット装置20へ送信する。
The
物体認識部122は、ロボット装置20が撮影したカメラ画像の中に人が含まれるか否かを認識する。物体認識技術として、例えばSSD(Single Shot MultiBox Detector)やYolo(You only live once)等が適用可能である。なお、物体認識部122は、カメラ画像の中に含まれる人の数(人数)を認識してもよい。
The
作業異常判定部123は、カメラ画像の中に人が含まれる場合に、作業管理情報132に基づいて、カメラ画像の撮影の場所及び時刻における作業の異常の有無を判定する。作業管理情報132は、作業者が作業現場で実施する作業の予定を示す情報である。記憶部13は、作業異常判定部123による判定の結果を示す判定結果133を記憶する。
Based on the
サーバ装置10の各機能は、サーバ装置10がCPU及びメモリ等のコンピュータハードウェアを備え、CPUがメモリに格納されたコンピュータプログラムを実行することにより実現される。なお、サーバ装置10として、汎用のコンピュータ装置を使用して構成してもよく、又は、専用のハードウェア装置として構成してもよい。例えば、サーバ装置10は、インターネット等の通信ネットワークに接続されるサーバコンピュータを使用して構成されてもよい。また、サーバ装置10の各機能はクラウドコンピューティングにより実現されてもよい。また、サーバ装置10は、単独のコンピュータにより実現するものであってもよく、又はサーバ装置10の機能を複数のコンピュータに分散させて実現するものであってもよい。
Each function of the
次に図2を参照して、本実施形態に係る作業管理方法の全体手順を説明する。図2は、本実施形態に係る作業管理方法の全体手順の例を示すフローチャートである。 Next, with reference to FIG. 2, the overall procedure of the work management method according to this embodiment will be described. FIG. 2 is a flow chart showing an example of the overall procedure of the work management method according to this embodiment.
(ステップS1) サーバ装置10は、ロボット装置20が撮影したカメラ画像を取得する。
(Step S<b>1 ) The
(ステップS2) サーバ装置10は、ロボット装置20から取得したカメラ画像の中に人が含まれるか否かを認識する。
(Step S2) The
(ステップS3) カメラ画像の中に人が含まれる場合にはステップS4に進み、そうではない場合には図2の処理を終了する。 (Step S3) If a person is included in the camera image, proceed to step S4; otherwise, terminate the processing of FIG.
(ステップS4) サーバ装置10は、カメラ画像の中に人が含まれる場合に、作業管理情報132に基づいて、カメラ画像の撮影の場所及び時刻における作業の異常の有無を判定する。
(Step S<b>4 ) If a person is included in the camera image, the
(ステップS5) サーバ装置10は、作業の異常の有無の判定結果133を記録する。
(Step S5) The
次に図3-図7を参照して、本実施形態に係る作業管理方法の詳細を説明する。図3-図7は、本実施形態に係る作業管理方法における具体的な一例を示す図である。 Next, details of the work management method according to the present embodiment will be described with reference to FIGS. 3 to 7. FIG. 3 to 7 are diagrams showing a specific example of the work management method according to this embodiment.
ここでは、図3に示されるデータセンター300の施設内を作業現場の一例として説明する。図3に示されるように、データセンター300の施設内には、8台のラックが設置されている。各ラックには、サーバーやルーター等の装置が格納されている。作業者は、作業対象の装置が格納されているラックに対して作業を行う側の通路で、作業対象の装置に対する作業を行う。
Here, the facility of the
図4は、本実施形態に係る作業管理情報の構成例を示す図である。図4の作業管理情報132の例は、図3のデータセンター300の施設内において、作業者が作業現場で実施する作業の予定の例である。図4には、作業No.1から作業No.4までの4つの作業の予定が示される。
FIG. 4 is a diagram showing a configuration example of work management information according to this embodiment. An example of the
(作業No.1)作業時間「9時00分から10時00分」まで3番作業通路で作業会社Aの5人の作業者が作業内容AAAの作業を行う。
(作業No.2)作業時間「9時30分から10時15分」まで7番作業通路で作業会社Bの3人の作業者が作業内容BBBの作業を行う。
(作業No.3)作業時間「12時00分から13時00分」まで3番作業通路で作業会社Cの1人の作業者が作業内容CCCの作業を行う。
(作業No.4)作業時間「14時00分から15時00分」まで3番作業通路で作業会社Dの2人の作業者が作業内容DDDの作業を行う。
(Work No. 1) From 9:00 to 10:00, five workers of work company A perform the work of work content AAA in the third work passage.
(Work No. 2) From 9:30 to 10:15, three workers of work company B perform the work BBB in the 7th work passage.
(Work No. 3) From 12:00 to 13:00, one worker of work company C performs the work of work content CCC in the No. 3 work passage.
(Work No. 4) From 14:00 to 15:00, two workers of the work company D perform the work DDD in the work passage No. 3.
図5は、本実施形態に係るロボット制御情報の構成例を示す図である。図5のロボット制御情報131の例は、図3のデータセンター300の施設内において、ロボット装置20を制御するためのロボット制御命令に対応している。図5には、命令No.1から命令No.6までの6つのロボット制御命令が示される。
FIG. 5 is a diagram showing a configuration example of robot control information according to this embodiment. An example of the
(命令No.1)9時00分になると目的地P1「X座標=5.0、Y座標=10.0」へ移動するように命令し、当該目的地P1に到着すると画像取得リクエストを行う。ロボット装置20が目的地P1で周囲を撮像することによって、1番作業通路が撮影されたカメラ画像と6番作業通路が撮影されたカメラ画像とが取得される。
(Instruction No. 1) At 9:00, an instruction is given to move to the destination P1 "X coordinate = 5.0, Y coordinate = 10.0", and when the destination P1 is reached, an image acquisition request is made. . When the
(命令No.2)命令No.1に引き続き(図5中の開示時刻「NULL」に対応する)、目的地P2「X座標=10.0、Y座標=10.0」へ移動するように命令し、当該目的地P2に到着すると画像取得リクエストを行う。ロボット装置20が目的地P2で周囲を撮像することによって、2番作業通路が撮影されたカメラ画像と7番作業通路が撮影されたカメラ画像とが取得される。
(Instruction No. 2) Instruction No. 1 (corresponding to the opening time "NULL" in FIG. 5), command to move to destination P2 "X coordinate = 10.0, Y coordinate = 10.0", and arrive at the destination P2 Then, an image acquisition request is made. When the
(命令No.3)命令No.2に引き続き(図5中の開示時刻「NULL」に対応する)、目的地P3「X座標=15.0、Y座標=10.0」へ移動するように命令し、当該目的地P3に到着すると画像取得リクエストを行う。ロボット装置20が目的地P3で周囲を撮像することによって、3番作業通路が撮影されたカメラ画像と8番作業通路が撮影されたカメラ画像とが取得される。
(Instruction No. 3) Instruction No. 2 (corresponding to the opening time "NULL" in FIG. 5), command to move to destination P3 "X coordinate = 15.0, Y coordinate = 10.0", and arrive at the destination P3 Then, an image acquisition request is made. When the
(命令No.4)命令No.3に引き続き(図5中の開示時刻「NULL」に対応する)、目的地P4「X座標=20.0、Y座標=10.0」へ移動するように命令し、当該目的地P4に到着すると画像取得リクエストを行う。ロボット装置20が目的地P4で周囲を撮像することによって、4番作業通路が撮影されたカメラ画像と9番作業通路が撮影されたカメラ画像とが取得される。
(Instruction No. 4) Instruction No. 3 (corresponding to the opening time "NULL" in FIG. 5), command to move to the destination P4 "X coordinate = 20.0, Y coordinate = 10.0", and arrive at the destination P4 Then, an image acquisition request is made. When the
(命令No.5)命令No.4に引き続き(図5中の開示時刻「NULL」に対応する)、目的地P5「X座標=25.0、Y座標=10.0」へ移動するように命令し、当該目的地P5に到着すると画像取得リクエストを行う。ロボット装置20が目的地P4で周囲を撮像することによって、5番作業通路が撮影されたカメラ画像と10番作業通路が撮影されたカメラ画像とが取得される。
(Instruction No. 5) Instruction No. 4 (corresponding to the opening time "NULL" in FIG. 5), command to move to destination P5 "X coordinate = 25.0, Y coordinate = 10.0", and arrive at the destination P5 Then, an image acquisition request is made. When the
(命令No.6)9時30分になると目的地P1「X座標=5.0、Y座標=10.0」へ移動するように命令し、当該目的地P1に到着すると画像取得リクエストを行う。ロボット装置20が目的地P1で周囲を撮像することによって、1番作業通路が撮影されたカメラ画像と6番作業通路が撮影されたカメラ画像とが取得される。
(Instruction No. 6) At 9:30, an instruction is given to move to the destination P1 "X coordinate = 5.0, Y coordinate = 10.0", and when the destination P1 is reached, an image acquisition request is made. . When the
ロボット制御部121は、図5のロボット制御情報131に基づいて、命令No.1から命令No.6までの6つのロボット制御命令を順次、ロボット装置20へ送信する。ロボット装置20は、それら命令No.1から命令No.6までの6つのロボット制御命令に従って、順次目的地に移動して周囲を撮影し、撮影したカメラ画像をサーバ装置10へ送信する。
Based on the
なお、カメラ部23がロボット装置20の両端のそれぞれにカメラを備え、例えば目的地P1で両方のカメラで撮影することによって、1番作業通路が撮影されたカメラ画像(1番作業通路のカメラ画像)と6番作業通路が撮影されたカメラ画像(6作業通路のカメラ画像)とが取得されるように構成してもよい。又は、カメラ部23がロボット装置20の正面にカメラを備え、例えば目的地P1でロボット装置20が1番作業通路の方を向いて撮影した後に6番作業通路の方を向いて撮影することによって、1番作業通路のカメラ画像と6番作業通路のカメラ画像とが取得されるように構成してもよい。画像取得部221は、例えば目的地P1でカメラ部23から取得したカメラ画像に対して1番作業通路のカメラ画像であるか又は6番作業通路のカメラ画像であるのかを識別する識別子を付与してから、当該カメラ画像をサーバ装置10へ送信する。
The
サーバ装置10は、例えば命令No.1によって1番作業通路のカメラ画像と6番作業通路のカメラ画像とを取得すると、物体認識部122が当該カメラ画像の中に人が含まれるか否かを認識する。次いで、作業異常判定部123は、当該カメラ画像の中に人が含まれる場合に、図4の作業管理情報132に基づいて、当該画像の撮影の場所及び時刻における作業の異常の有無を判定する。
The
例えば、作業異常判定部123は、命令No.1によって取得された1番作業通路のカメラ画像の中に人が含まれる場合、図4の作業管理情報132に基づいて、当該画像の撮影の場所「目的地P1」及び時刻「9時00分から9時30分までの間」における作業の異常の有無を判定する。この場合、図4の作業管理情報132には、9時00分から9時30分までの間に1番作業通路で予定された作業がない。したがって、当該1番作業通路のカメラ画像に写っている作業者が予定にはない間違った作業を行っている可能性がある。このため、作業異常判定部123は、命令No.1によって取得された1番作業通路のカメラ画像の中に人が含まれる場合、図4の作業管理情報132に基づいて、当該画像の撮影の場所「目的地P1」及び時刻「9時00分から9時30分までの間」における作業の異常ありと判定する。
For example, the work
一方、命令No.3によって取得された3番作業通路のカメラ画像の中に人が含まれる場合、図4の作業管理情報132には、9時00分から9時30分までの間に3番作業通路で予定された作業がある。このため、作業異常判定部123は、命令No.3によって取得された3番作業通路のカメラ画像の中に人が含まれる場合、図4の作業管理情報132に基づいて、当該画像の撮影の場所「目的地P3」及び時刻「9時00分から9時30分までの間」における作業の異常なしと判定する。
On the other hand, instruction No. 3, the
なお、物体認識部122がカメラ画像の中に含まれる人数を認識し、作業異常判定部123が、作業管理情報132内の作業人数とカメラ画像の中に含まれる人数との一致不一致に基づいて、作業の異常の有無を判定してもよい。
The
例えば、命令No.3によって取得された3番作業通路のカメラ画像の場合、図4の作業管理情報132において9時00分から9時30分までの間に3番作業通路で予定された作業の作業人数は5人である。このため、作業異常判定部123は、命令No.3によって取得された3番作業通路のカメラ画像の中に含まれる人数が5人である場合には、図4の作業管理情報132に基づいて、当該画像の撮影の場所「目的地P3」及び時刻「9時00分から9時30分までの間」における作業の異常なしと判定する。一方、作業異常判定部123は、命令No.3によって取得された3番作業通路のカメラ画像の中に含まれる人数が5人ではない場合には、図4の作業管理情報132に基づいて、当該画像の撮影の場所「目的地P3」及び時刻「9時00分から9時30分までの間」における作業の異常ありと判定する。
For example, instruction no. 3, the
図6は、本実施形態に係る判定結果の構成例を示す図である。図6の判定結果133の例は、図3のデータセンター300の施設内において、図4の作業管理情報132における3番作業通路での3つの作業No.1、作業No.3及び作業No.4に対応している。図6には、結果No.1から結果No.3までの3つの判定結果が示される。また、図7は、図6の判定結果133の説明図である。図7には3番作業通路での作業の異常の有無の判定についての説明が示される。
FIG. 6 is a diagram showing a configuration example of determination results according to the present embodiment. An example of the
(結果No.1)9時30分に取得された3番作業通路のカメラ画像の中に人が含まれるが、図4の作業管理情報132における3番作業通路での作業No.1(作業時間「9時00分から10時00分」)に合致するので、判定結果は異常なしである。また、異常レベルは、異常なしに対応する「0」である。
(Result No. 1) A person is included in the camera image of the No. 3 work passage acquired at 9:30, but the work No. 3 in the No. 3 work passage in the
(結果No.2)10時30分に取得された3番作業通路のカメラ画像の中に人が含まれるが、図4の作業管理情報132には合致する3番作業通路での作業がないので、判定結果は異常ありである。このとき、作業異常判定部123は、作業の異常ありと判定した場合に、当該カメラ画像の撮影の場所での撮影の時刻に対する過去の直近の作業終了予定時刻からの経過時間に基づいて、作業の異常の理由を判定する。結果No.2の場合、3番作業通路での過去の直近の作業No.1の作業終了予定時刻「10時00分」からの経過時間「30分」は、所定の作業時間超過閾値「60分」以内である。このため、作業異常判定部123は、当該作業の異常の理由が「作業時間超過」であると判定する。また、異常レベルは、異常あり「作業時間超過」に対応する「1」である。
(Result No. 2) A person is included in the camera image of
(結果No.3)11時30分に取得された3番作業通路のカメラ画像の中に人が含まれるが、図4の作業管理情報132には合致する3番作業通路での作業がないので、判定結果は異常ありである。このとき、作業異常判定部123は、作業の異常ありと判定した場合に、当該カメラ画像の撮影の場所での撮影の時刻に対する過去の直近の作業終了予定時刻からの経過時間に基づいて、作業の異常の理由を判定する。結果No.3の場合、3番作業通路での過去の直近の作業終了予定時刻「10時00分」からの経過時間「90分」は、所定の作業時間超過閾値「60分」超過である。このため、作業異常判定部123は、当該作業の異常の理由が「計画外作業」であると判定する。また、異常レベルは、異常あり「計画外作業」に対応する「2」である。
(Result No. 3) A person is included in the camera image of
なお、作業時間超過閾値は、一定の値がサーバ装置10に予め設定されてもよく、又は過去の直近の作業内容に応じた値がサーバ装置10に予め設定されてもよい。
Note that the working time excess threshold value may be preset in the
また、作業異常判定部123は、同じ作業通路で一定期間内に複数回、作業の異常ありと判定した場合に、異常レベルを基準よりも高いレベルに決定してもよい。これにより、作業の異常レベルが通常よりも高いことを管理者へ知らせることができる。
In addition, the work
次に本実施形態に係るいくつかの変形例を説明する。 Next, some modifications of this embodiment will be described.
(変形例1)
作業異常判定部123は、カメラ画像の撮影の場所が所定の場所である場合に、作業の異常の有無を判定しないようにしてもよい。例えば、図3において、6番作業通路に施設の出入口がある場合、6番作業通路での作業とは無関係に、6番作業通路に人が存在し、6番作業通路のカメラ画像に人が含まれる可能性がある。この場合、作業異常判定部123は、6番作業通路のカメラ画像に対して、作業の異常の有無を判定しない。これにより、作業の異常の有無の誤判定を防ぐ効果が得られる。
(Modification 1)
The work
(変形例2)
物体認識部122は、ロボット装置20が時間をずらして撮影した複数のカメラ画像から人数を認識し、作業異常判定部123は、当該認識された人数と作業管理情報132内の予定の作業人数(作業予定人数)との一致不一致に基づいて、作業の異常の有無を判定してもよい。このとき、ロボット制御部121は、物体認識部122によって認識された人数が作業予定人数よりも少ない場合に、ロボット装置20に再撮影を指示してもよい。これは、作業者同士が重なって撮影されたために、実際よりも少ない人数が認識された可能性があるからである。さらに、ロボット制御部121は、ロボット装置20に前回の撮影の場所から移動して再撮影させてもよい。例えば、図3において、1回目が目的地P1(1番作業通路の一方の端側)で1番作業通路のカメラ画像が撮影された場合、2回目は、1番作業通路の目的地P1とは反対側(1番作業通路のもう一方の端側)で1番作業通路のカメラ画像の再撮影が行われるようにする。これにより、作業者同士が重なって撮影されたために実際よりも少ない人数が認識されることをより防止する効果が得られる。
(Modification 2)
The
(変形例3)
物体認識部122は、ロボット装置20が撮影した画像又はロボット装置20が計測した物体の点群情報に基づいて作業者とロボット装置20との間の距離を取得し、作業異常判定部123は、当該取得された距離に基づいて作業者の位置を特定し、特定した作業者の位置で予定された作業を特定してもよい。これは、一つ通路で複数の作業が同時又は連続して行われる状況に対応するために、より詳細な作業位置の情報に基づいて該当する作業を特定した上で、作業の異常の有無を判定するためである。
(Modification 3)
The
具体的には、サーバ装置10は、作業管理情報132に対して、作業通路上の詳細な作業場所を示す情報(例えば、二次元空間におけるメッシュ状に区分けされた作業場所の情報)を含める。物体認識部122は、例えば、LiDAR部24が計測した点群情報に基づいて、作業者からロボット装置20までの距離を取得する。又は、例えばカメラ部23が奥行きの情報を取得する深度センサーを内蔵したデプスカメラを備え、物体認識部122は、当該デプスカメラが撮影した画像に基づいて、作業者からロボット装置20までの距離を取得する。作業異常判定部123は、当該取得された距離に基づいて、作業者の位置(メッシュ状に区分けされた作業場所)を特定し、特定した作業者の位置で予定された作業を特定し、作業の異常の有無を判定する。また、その作業者の位置を特定する精度を高めるために、ロボット装置20が通路の両側でカメラ画像又は点群情報を取得し、サーバ装置10が通路の両側で取得されたカメラ画像又は点群情報を使用して作業者の位置を特定してもよい。
Specifically, the
(変形例4)
ロボット装置20が任意のタイミングでカメラ画像を撮影し、サーバ装置10が任意のタイミングで撮影されたカメラ画像によって作業の異常の有無を判定してもよい。この場合、ロボット装置20は、カメラ画像の撮影の場所及び時刻を示す撮影情報をカメラ画像に付加する。サーバ装置10は、カメラ画像に付加された撮影情報によって当該カメラ画像の撮影の場所及び時刻を認識する。
(Modification 4)
The
[第2実施形態]
図8は、第2実施形態に係るロボット装置の構成例を示すブロック図である。図8において、図1の各部に対応する部分には同一の符号を付け、その説明を省略する。第2実施形態では、上述した第1実施形態においてサーバ装置10に具備されていた機能をロボット装置20aに具備させることによって、ロボット装置単体で作業管理システムを構成している。
[Second embodiment]
FIG. 8 is a block diagram showing a configuration example of a robot device according to the second embodiment. In FIG. 8, parts corresponding to those in FIG. 1 are denoted by the same reference numerals, and descriptions thereof are omitted. In the second embodiment, the functions provided in the
具体的には、図8のロボット装置20aは、図1のロボット装置20に対して、制御部22aの機能としてロボット制御部121、物体認識部122及び作業異常判定部123が追加され、また記憶部26(ロボット制御情報131、作業管理情報132、判定結果133)が追加される。
Specifically, the
上述した各実施形態によれば、自律走行可能なロボット装置20が移動しながらカメラで撮影した画像によって作業の異常の有無を判定することができるという効果が得られる。
According to each of the above-described embodiments, it is possible to obtain the effect that the presence or absence of an abnormality in the work can be determined based on the images captured by the camera while the
なお、これにより、例えば作業管理システムを利用する各種のサービスにおける総合的なサービス品質の向上を実現することができることから、国連が主導する持続可能な開発目標(SDGs)の目標9「レジリエントなインフラを整備し、持続可能な産業化を推進するとともに、イノベーションの拡大を図る」に貢献することが可能となる。 As a result, for example, it is possible to improve the overall service quality of various services that use work management systems. , promote sustainable industrialization, and contribute to the expansion of innovation.
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 Although the embodiment of the present invention has been described in detail above with reference to the drawings, the specific configuration is not limited to this embodiment, and design changes and the like are included within the scope of the present invention.
また、上述した各装置の機能を実現するためのコンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disc)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
Alternatively, a computer program for realizing the functions of the devices described above may be recorded in a computer-readable recording medium, and the program recorded in the recording medium may be read and executed by the computer system. Note that the “computer system” referred to here may include hardware such as an OS and peripheral devices.
In addition, "computer-readable recording medium" includes writable nonvolatile memories such as flexible discs, magneto-optical discs, ROMs and flash memories, portable media such as DVDs (Digital Versatile Discs), and computer system built-in media. A storage device such as a hard disk that
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Furthermore, "computer-readable recording medium" means a volatile memory (e.g., DRAM (Dynamic Random Access Memory)), which holds the program for a certain period of time, is also included.
Further, the above program may be transmitted from a computer system storing this program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
1…作業管理システム、10…サーバ装置、20,20a…ロボット装置、11,21…通信部、12,22,22a…制御部、13,26…記憶部、121…ロボット制御部、122…物体認識部、123…作業異常判定部、131…ロボット制御情報、132…作業管理情報、133…判定結果、23…カメラ部、24…LiDAR部、25…走行部、221…画像取得部、222…自己位置推定部、223…自律走行制御部、NW…通信ネットワーク
Claims (13)
前記ロボット装置と通信するサーバ装置と、を備え、
前記サーバ装置は、
作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部と、
前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識部と、
前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定部と、
前記判定の結果を記憶する判定結果記憶部と、を備える、
作業管理システム。 A robot device that autonomously travels and shoots the surroundings,
a server device that communicates with the robot device,
The server device
a work management information storage unit that stores work management information indicating a schedule of work to be performed by a worker at a work site;
an object recognition unit that recognizes whether or not an image captured by the robot device includes a person;
a work abnormality determination unit that determines whether or not there is an abnormality in the work at the location and time when the image was captured based on the work management information when a person is included in the image;
A determination result storage unit that stores the result of the determination,
Work management system.
請求項1に記載の作業管理システム。 When determining that there is an abnormality in the work, the work abnormality determination unit determines the reason for the work abnormality based on the elapsed time from the last scheduled work end time with respect to the shooting time at the location where the image was shot. determine the
The work management system according to claim 1.
請求項1又は2のいずれか1項に記載の作業管理システム。 The work abnormality determination unit determines the work abnormality level to be higher than a reference level when it is determined that there is an abnormality in the work multiple times within a certain period at the same place.
The work management system according to claim 1 or 2.
請求項1から3のいずれか1項に記載の作業管理システム。 The work abnormality determination unit does not determine whether or not there is an abnormality in the work when the location where the image is captured is a predetermined location.
The work management system according to any one of claims 1 to 3.
前記作業異常判定部は、当該取得された距離に基づいて作業者の位置を特定し、特定した作業者の位置で予定された作業を特定する、
請求項1から4のいずれか1項に記載の作業管理システム。 The object recognition unit acquires the distance between the worker and the robot device based on the image captured by the robot device or the point group information of the object measured by the robot device,
The work abnormality determination unit identifies the position of the worker based on the acquired distance, and identifies the work scheduled at the identified worker's position.
The work management system according to any one of claims 1 to 4.
前記作業異常判定部は、前記認識された人数と作業予定人数とに基づいて作業の異常の有無を判定する、
請求項1から5のいずれか1項に記載の作業管理システム。 The object recognition unit recognizes the number of people from a plurality of images captured at different times by the robot device,
The work abnormality determination unit determines whether there is a work abnormality based on the recognized number of people and the number of people scheduled to work.
The work management system according to any one of claims 1 to 5.
請求項6に記載の作業管理システム。 The server device further comprises a robot control unit that instructs the robot device to re-shoot when the recognized number of people is less than the number of people scheduled to work.
The work management system according to claim 6.
請求項7に記載の作業管理システム。 The robot control unit causes the robot device to move from a previous shooting location and reshoot.
The work management system according to claim 7.
作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部と、
前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識部と、
前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定部と、
前記判定の結果を記憶する判定結果記憶部と、
を備えるロボット装置。 A robot device that autonomously travels and photographs the surroundings,
a work management information storage unit that stores work management information indicating a schedule of work to be performed by a worker at a work site;
an object recognition unit that recognizes whether or not an image captured by the robot device includes a person;
a work abnormality determination unit that determines whether or not there is an abnormality in the work at the location and time when the image was captured based on the work management information when a person is included in the image;
a determination result storage unit that stores the result of the determination;
A robotic device comprising:
前記サーバ装置が、作業者が作業現場で実施する作業の予定を示す作業管理情報を記憶する作業管理情報記憶部を備え、
前記サーバ装置が、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、
前記サーバ装置が、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、
前記サーバ装置が、前記判定の結果を記憶する判定結果記憶ステップと、
を含む作業管理方法。 A robot device that autonomously travels and photographs the surroundings, and a server device that communicates with the robot device,
The server device includes a work management information storage unit that stores work management information indicating the schedule of work to be performed by the worker at the work site,
an object recognition step in which the server device recognizes whether or not an image captured by the robot device includes a person;
a work abnormality determination step in which the server device determines whether or not there is an abnormality in the work at the place and time when the image was taken based on the work management information when a person is included in the image;
a judgment result storage step in which the server device stores the judgment result;
work management methods, including;
前記ロボット装置が、前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、
前記ロボット装置が、前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、
前記ロボット装置が、前記判定の結果を記憶する判定結果記憶ステップと、
を含む作業管理方法。 A robot device that autonomously travels and shoots the surroundings has a work management information storage unit that stores work management information indicating the schedule of work to be performed by the worker at the work site,
an object recognition step in which the robot device recognizes whether or not an image captured by the robot device includes a person;
a work abnormality determination step in which the robot device determines whether or not there is an abnormality in the work at the location and time at which the image was captured based on the work management information when a person is included in the image;
a determination result storage step in which the robot device stores the result of the determination;
work management methods, including;
前記サーバ装置のコンピュータに、
前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、
前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、
前記判定の結果を記憶する判定結果記憶ステップと、
を実行させるためのコンピュータプログラム。 A server device that autonomously travels and communicates with a robot device that photographs the surroundings has a work management information storage unit that stores work management information indicating the schedule of work to be performed by the worker at the work site,
In the computer of the server device,
an object recognition step of recognizing whether or not an image captured by the robot device includes a person;
a work abnormality determination step of determining whether or not there is an abnormality in the work at the place and time when the image was taken, based on the work management information, when a person is included in the image;
a judgment result storage step of storing the judgment result;
A computer program for executing
前記ロボット装置のコンピュータに、
前記ロボット装置が撮影した画像の中に人が含まれるか否かを認識する物体認識ステップと、
前記画像の中に人が含まれる場合に、前記作業管理情報に基づいて、前記画像の撮影の場所及び時刻における作業の異常の有無を判定する作業異常判定ステップと、
前記判定の結果を記憶する判定結果記憶ステップと、
を実行させるためのコンピュータプログラム。 A robot device that autonomously travels and shoots the surroundings has a work management information storage unit that stores work management information indicating the schedule of work to be performed by the worker at the work site,
In the computer of the robotic device,
an object recognition step of recognizing whether or not an image captured by the robot device includes a person;
a work abnormality determination step of determining whether or not there is an abnormality in the work at the place and time when the image was taken, based on the work management information, when a person is included in the image;
a judgment result storage step of storing the judgment result;
A computer program for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021107893A JP2023005746A (en) | 2021-06-29 | 2021-06-29 | Work management system, robot device, work management method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021107893A JP2023005746A (en) | 2021-06-29 | 2021-06-29 | Work management system, robot device, work management method, and computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023005746A true JP2023005746A (en) | 2023-01-18 |
Family
ID=85107523
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021107893A Pending JP2023005746A (en) | 2021-06-29 | 2021-06-29 | Work management system, robot device, work management method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023005746A (en) |
-
2021
- 2021-06-29 JP JP2021107893A patent/JP2023005746A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9862098B2 (en) | Methods and devices for cleaning garbage | |
US9908239B1 (en) | Mobile robot system | |
JP5267698B2 (en) | Patrol robot and autonomous traveling method of patrol robot | |
US20160203391A1 (en) | Information Technology Asset Type Identification Using a Mobile Vision-Enabled Robot | |
EP2093636A1 (en) | Method for controlling an alarm management system | |
EP3938981A2 (en) | Construction project tracking | |
JP6229075B2 (en) | Method and apparatus for controlling smart home device, program and recording medium | |
JP2018032950A (en) | Information processing unit and information processing method, and computer program | |
CN109465819A (en) | Human body recognition system and human body recognition method | |
WO2023115927A1 (en) | Cloud robot mapping method, system, device and storage medium | |
JP2013167986A (en) | Image recognition system and image recognition method | |
CN108388252B (en) | Robot teaching method, device, equipment and medium | |
WO2018154633A1 (en) | Control device, control method, and program recording medium | |
CN114371632A (en) | Intelligent equipment control method, device, server and storage medium | |
JP6804393B2 (en) | Acceptance robot system | |
JP2016058767A (en) | Picture imaging device, picture management device, and picture management system | |
JP2023005746A (en) | Work management system, robot device, work management method, and computer program | |
US20210056485A1 (en) | Data Center Impact Assessment Post Disaster | |
JP2010098550A (en) | Camera management apparatus, and camera management method | |
JP2017033278A (en) | Facility management ledger creation support system, facility management ledger creation support device, and program | |
JP7351757B2 (en) | How to control a moving robot | |
JPWO2019187288A1 (en) | Information processing equipment, data generation methods, and programs | |
WO2022030548A1 (en) | Monitoring information processing device, method, and program | |
KR101332820B1 (en) | System and Method for Tracking Object, Apparatus for Object Management and Driving Method Thereof, Image Device and Driving Method Thereof | |
KR20220074563A (en) | Multi-robot based security method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230718 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240405 |