JP2019139733A - Information processing system, information processing device, information processing method and program - Google Patents

Information processing system, information processing device, information processing method and program Download PDF

Info

Publication number
JP2019139733A
JP2019139733A JP2018157214A JP2018157214A JP2019139733A JP 2019139733 A JP2019139733 A JP 2019139733A JP 2018157214 A JP2018157214 A JP 2018157214A JP 2018157214 A JP2018157214 A JP 2018157214A JP 2019139733 A JP2019139733 A JP 2019139733A
Authority
JP
Japan
Prior art keywords
moving image
stop
robot
unit
instructed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018157214A
Other languages
Japanese (ja)
Inventor
秀和 瀧澤
Hidekazu Takizawa
秀和 瀧澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BIKO Inc
Original Assignee
BIKO Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BIKO Inc filed Critical BIKO Inc
Priority to JP2018157214A priority Critical patent/JP2019139733A/en
Publication of JP2019139733A publication Critical patent/JP2019139733A/en
Pending legal-status Critical Current

Links

Images

Abstract

To make it possible to conduct learning more readily, avoiding collisions more surely.SOLUTION: An information processing device includes: measurement means that measures a degree of a risk of contact with a subject reflected in a moving picture by machine learning from the moving picture transmitted from a robot autonomously traveling on a floor in a building, and capturing the moving picture at a traveling destination; display control means that controls a display to display means of the moving picture; acquisition means that acquires an instruction of stopping the robot by an operation from a monitor monitoring the displayed moving picture; command means that, when the measured degree of the risk is more than a prescribed threshold, or the stoppage is instructed from the monitor, command the robot to stop; and recording control means that, when the stoppage of the robot is instructed from the monitor, causes recording means to record the moving picture of a time with a prescribed length including a time when the stoppage is instructed.SELECTED DRAWING: Figure 6

Description

本発明は情報処理システム、情報処理装置、情報処理方法およびプログラムに関し、特に、ロボットの走行の制御に用いる情報処理システム、情報処理装置、情報処理方法およびプログラムに関する。   The present invention relates to an information processing system, an information processing apparatus, an information processing method, and a program, and more particularly, to an information processing system, an information processing apparatus, an information processing method, and a program used for controlling the running of a robot.

建物内の床面の清掃にロボットが使用されるようになってきた。公共の建物や病院などの人がいる領域の清掃では、人との衝突を回避しなければならない。人との衝突の回避は、走行する車両について、各種提案されている。   Robots have come to be used for cleaning floors in buildings. When cleaning areas with people, such as public buildings and hospitals, collisions with people must be avoided. Various proposals have been made for avoiding a collision with a person on a traveling vehicle.

車両走行において、画像からニューラルネットで物体が歩行者であるか判別し、衝突危険度を判定するようにしているものもある(例えば、特許文献2参照)。   In a vehicle running, there is a type in which whether or not an object is a pedestrian is determined from an image by using a neural network, and a collision risk is determined (for example, see Patent Document 2).

画像からニューラルネットで歩行者が路上に侵入しようとしているか判別するようにしているものもある(例えば、特許文献2参照)。   Some images are used to determine whether a pedestrian is entering the road using a neural network (see, for example, Patent Document 2).

特開2007−148835号公報JP 2007-148835 A 特開2008−21034号公報JP 2008-21034 A

しかしながら、機械による判別だけでは、誤る可能性がある。特に、病院などでは、動きが制限されることのある患者との衝突は確実に回避する必要がある。また、衝突危険度の判定には、機械学習が用いられることも多いが、学習させて、より確実に判定させるには、学習データを用意する必要があり、手間がかかる。   However, there is a possibility of mistakes only by the discrimination by the machine. Particularly in hospitals and the like, it is necessary to reliably avoid collisions with patients whose movement may be restricted. In addition, machine learning is often used for the determination of the collision risk. However, it is necessary to prepare learning data to learn and to make a more reliable determination, which takes time.

本発明は、このような状況に鑑みてなされたものであり、より確実に衝突を回避して、より簡単に、学習ができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to more easily avoid collision and more easily learn.

本発明の第1の側面の情報処理システムは、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットと、ロボットを制御する情報処理装置とを含む情報処理システムであって、動画像から、機械学習によって、動画像に写っている被写体とロボットとの接触の危険の程度を測定する測定手段と、動画像の表示手段への表示を制御する表示制御手段と、表示している動画像を監視している監視者からの操作による、ロボットの停止の指示を取得する取得手段と、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令手段と、監視者からロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御手段とを備える。   An information processing system according to a first aspect of the present invention is an information processing system that includes a robot that autonomously travels on a floor in a building and captures a moving image of the travel destination, and an information processing device that controls the robot. A measuring means for measuring the degree of danger of contact between the subject in the moving image and the robot by machine learning from the moving image, a display control means for controlling the display on the moving image display means, An acquisition means for acquiring an instruction to stop the robot by an operation from the monitoring person who is monitoring the displayed moving image, and when the measured degree of danger is equal to or greater than a predetermined threshold or when the monitoring person stops. When instructed, the instruction means for instructing the robot to stop, and when the supervisor instructs the stop of the robot, the recording means records a moving image for a predetermined length of time including the time when the stop is instructed. Recording system And means.

測定手段に、複数のロボットのそれぞれにおいて撮像された動画像から、機械学習によって、複数のロボットのそれぞれについて、動画像に写っている被写体との接触の危険の程度を測定させ、取得手段に、表示している動画像を監視している監視者からの操作による、複数のロボットのいずれかへの停止の指示を取得させ、指令手段に、複数のロボットのいずれかについて測定された危険の程度が所定の閾値以上である場合または複数のロボットのいずれかについて監視者から停止が指示された場合、危険の程度が所定の閾値以上であるかまたは停止が指示されたロボットに停止を指令させ、記録制御手段に、複数のロボットのいずれかについて監視者から停止が指示された場合、停止が指示されたロボットから送信されてくる動画像であって、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させるようにすることができる。   From the moving image captured by each of the plurality of robots, the measuring unit is caused to measure the degree of danger of contact with the subject reflected in the moving image for each of the plurality of robots by machine learning. The degree of danger measured for any of the plurality of robots by causing the command means to obtain an instruction to stop any of the plurality of robots by an operation from the supervisor who is monitoring the displayed moving image Is equal to or greater than a predetermined threshold value, or when a stop is instructed by any of a plurality of robots, the robot is instructed to stop if the degree of danger is equal to or greater than a predetermined threshold value, When the recording controller is instructed to stop any of the plurality of robots by the monitoring person, it is a moving image transmitted from the robot instructed to stop. Te, can be made to be recorded in the recording means a moving image of a predetermined length of time, including when the stop is instructed.

測定手段に、停止が指示されたことを示すデータおよび記録手段に記録されている動画像を用いて学習させることができる。   It is possible to cause the measurement unit to learn using data indicating that stop has been instructed and a moving image recorded in the recording unit.

本発明の第2の側面の情報処理装置は、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体とロボットとの接触の危険の程度を測定する測定手段と、動画像の表示手段への表示を制御する表示制御手段と、表示している動画像を監視している監視者からの操作による、ロボットの停止の指示を取得する取得手段と、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令手段と、監視者からロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御手段とを含む。   The information processing apparatus according to the second aspect of the present invention autonomously travels on a floor in a building and converts a moving image transmitted from a robot that captures a moving image to a moving image by machine learning. From the measuring means for measuring the degree of danger of contact between the subject being photographed and the robot, the display control means for controlling the display of the moving image on the display means, and the monitor who is monitoring the displayed moving image An acquisition means for acquiring an instruction to stop the robot by the operation of the above, and an instruction means for instructing the robot to stop when the measured degree of danger is equal to or greater than a predetermined threshold or when a stop is instructed by a supervisor; And a recording control unit that causes the recording unit to record a moving image for a predetermined length of time including when the stop is instructed by the supervisor.

測定手段に、複数のロボットのそれぞれから送信されてくる動画像から、機械学習によって、複数のロボットのそれぞれについて、動画像に写っている被写体との接触の危険の程度を測定させ、取得手段に、表示している動画像を監視している監視者からの操作による、複数のロボットのいずれかへの停止の指示を取得させ、指令手段に、複数のロボットのいずれかについて測定された危険の程度が所定の閾値以上である場合または複数のロボットのいずれかについて監視者から停止が指示された場合、危険の程度が所定の閾値以上であるかまたは停止が指示されたロボットに停止を指令させ、記録制御手段に、複数のロボットのいずれかについて監視者から停止が指示された場合、停止が指示されたロボットから送信されてくる動画像であって、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させることができる。   Let the measuring means measure the degree of danger of contact with the subject in the moving image for each of the plurality of robots by using machine learning from the moving images transmitted from each of the plurality of robots. , By acquiring an instruction to stop any of the plurality of robots by an operation from the monitoring person who is monitoring the displayed moving image, and instructing the command means to detect the risk measured for any of the plurality of robots. When the degree is greater than or equal to a predetermined threshold or when a stop is instructed by any of a plurality of robots, the robot with the degree of danger exceeding the predetermined threshold or instructed to stop is instructed to stop. When the stop is instructed to any one of the plurality of robots by the recording control means, the moving image is transmitted from the robot instructed to stop. Te, can be recorded in the recording means a moving image of a predetermined length of time, including when the stop is instructed.

測定手段に、停止が指示されたことを示すデータおよび記録手段に記録されている動画像を用いて学習させることができる。   It is possible to cause the measurement unit to learn using data indicating that stop has been instructed and a moving image recorded in the recording unit.

本発明の第3の側面の情報処理方法は、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体とロボットとの接触の危険の程度を測定する測定ステップと、動画像の表示手段への表示を制御する表示制御ステップと、表示している動画像を監視している監視者からの操作による、ロボットの停止の指示を取得する取得ステップと、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令ステップと、監視者からロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御ステップとを含む。   The information processing method according to the third aspect of the present invention is a method of autonomously running on a floor in a building and converting a moving image transmitted from a robot that captures a moving image to a moving image by machine learning. From a measurement step for measuring the degree of danger of contact between the subject being photographed and the robot, a display control step for controlling the display of the moving image on the display means, and a supervisor who is monitoring the displayed moving image An acquisition step for acquiring an instruction to stop the robot by the operation of, and a command step for instructing the robot to stop when the measured degree of danger is equal to or greater than a predetermined threshold or when a stop is instructed by a supervisor; A recording control step of causing the recording means to record a moving image for a predetermined length of time including when the stop is instructed by the supervisor.

本発明の第4の側面のプログラムは、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体とロボットとの接触の危険の程度を測定する測定ステップと、動画像の表示手段への表示を制御する表示制御ステップと、表示している動画像を監視している監視者からの操作による、ロボットの停止の指示を取得する取得ステップと、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令ステップと、監視者からロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御ステップとを含む情報処理をコンピュータに行わせる。   The program according to the fourth aspect of the present invention is captured on a moving image by machine learning from a moving image transmitted from a robot that autonomously travels on a floor in a building and picks up a moving image. Measurement step for measuring the degree of danger of contact between the subject and the robot, a display control step for controlling the display of the moving image on the display means, and an operation from the supervisor who is monitoring the displayed moving image An acquisition step for acquiring an instruction to stop the robot, a command step for instructing the robot to stop if the measured degree of danger is equal to or greater than a predetermined threshold value, or a stop is instructed by a supervisor, Information processing including a recording control step for causing the recording means to record a moving image for a predetermined length of time including when the stop is instructed by a person. To perform.

以上のように、本発明によれば、より確実に衝突を回避して、より簡単に、学習ができる。   As described above, according to the present invention, it is possible to more easily avoid a collision and learn more easily.

清掃システム11の構成の一例を示す図である。It is a figure which shows an example of a structure of the cleaning system. 清掃ロボット22の外形の一例を示す図である。It is a figure which shows an example of the external shape of the cleaning robot. 清掃ロボット22のハードウェアの構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a hardware configuration of a cleaning robot 22. FIG. 制御モジュール42が制御プログラムを実行することにより実現される機能の構成の一例を説明するブロック図である。It is a block diagram explaining an example of the structure of the function implement | achieved when the control module 42 runs a control program. AIサーバ21のハードウェアの構成の一例を示すブロック図である。2 is a block diagram illustrating an example of a hardware configuration of an AI server 21. FIG. AIサーバ21がプログラムを実行することにより実現される機能の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the function implement | achieved when the AI server 21 runs a program. 起動の処理を説明するフローチャートである。It is a flowchart explaining the process of starting. 走行制御の処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the process of traveling control. AIサーバ21による清掃ロボット22の走行制御の処理を説明するフローチャートである。5 is a flowchart for explaining a process of running control of the cleaning robot 22 by the AI server 21. AIサーバ21による清掃ロボット22の走行制御の処理を説明するフローチャートである。5 is a flowchart for explaining a process of running control of the cleaning robot 22 by the AI server 21. 危険度の測定の処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the measurement process of a risk degree. タッチパネルモニタ25に表示される動画像の例を示す図である。6 is a diagram showing an example of a moving image displayed on the touch panel monitor 25. FIG. タッチパネルモニタ25に表示される動画像の例を示す図である。6 is a diagram showing an example of a moving image displayed on the touch panel monitor 25. FIG. タッチパネルモニタ25に表示される動画像の例を示す図である。6 is a diagram showing an example of a moving image displayed on the touch panel monitor 25. FIG. タッチパネルモニタ25に表示される動画像の例を示す図である。6 is a diagram showing an example of a moving image displayed on the touch panel monitor 25. FIG. 監視者からの指示に応じた処理を説明するフローチャートである。It is a flowchart explaining the process according to the instruction | indication from a monitoring person. タッチパネルモニタ25に表示される動画像の例を示す図である。6 is a diagram showing an example of a moving image displayed on the touch panel monitor 25. FIG. タッチパネルモニタ25に表示される動画像の例を示す図である。6 is a diagram showing an example of a moving image displayed on the touch panel monitor 25. FIG. 終了の処理を説明するフローチャートである。It is a flowchart explaining the process of completion | finish. 追加学習のスケジューリングの処理を説明するフローチャートである。It is a flowchart explaining the process of scheduling of additional learning. 追加学習の処理を説明するフローチャートである。It is a flowchart explaining the process of additional learning.

以下、図1乃至図21を参照して、本発明の実施の形態を説明する。   Embodiments of the present invention will be described below with reference to FIGS.

図1は、清掃システム11の構成の一例を示す図である。清掃システム11は、病院や公共施設などの建物の屋内の床を清掃する。清掃システム11は、自律的に走行して、清掃を行う清掃ロボットを制御して、清掃ロボットに清掃をさせる。清掃システム11は、AI(Artificial Intelligence)サーバ21、清掃ロボット22−1および22−2、ハブ23、アクセスポイント24−1乃至24−3並びにタッチパネルモニタ25−1および25−2を含み構成される。   FIG. 1 is a diagram illustrating an example of the configuration of the cleaning system 11. The cleaning system 11 cleans indoor floors of buildings such as hospitals and public facilities. The cleaning system 11 runs autonomously, controls a cleaning robot that performs cleaning, and causes the cleaning robot to perform cleaning. The cleaning system 11 includes an AI (Artificial Intelligence) server 21, cleaning robots 22-1 and 22-2, a hub 23, access points 24-1 to 24-3, and touch panel monitors 25-1 and 25-2. .

AIサーバ21は、動画像から、動画像のシーンにおける危険の程度を測定する。ここで動画像のシーンとは、動画像における一区切りであって、所定の状態または所定の動作をしている所定の被写体がある、所定の場所が写されている一区切りをいう。例えば、AIサーバ21は、動画像から、動画像に写っている被写体と清掃ロボット22−1および22−2との接触の危険の程度を測定する。AIサーバ21は、測定された危険の程度が所定の閾値以上である場合、清掃ロボット22−1および22−2の停止または減速を指令する。清掃ロボット22−1および22−2は、自律的に走行して、床面の清掃を行う。清掃ロボット22−1および22−2は、走行する先の動画像を撮像する。   The AI server 21 measures the degree of danger in the scene of the moving image from the moving image. Here, the scene of a moving image is a segment in the moving image, which is a segment where a predetermined place where a predetermined subject in a predetermined state or a predetermined motion is present is photographed. For example, the AI server 21 measures the degree of danger of contact between the subject shown in the moving image and the cleaning robots 22-1 and 22-2 from the moving image. The AI server 21 instructs the cleaning robots 22-1 and 22-2 to stop or decelerate when the measured degree of danger is equal to or greater than a predetermined threshold. The cleaning robots 22-1 and 22-2 travel autonomously and clean the floor surface. The cleaning robots 22-1 and 22-2 capture a moving image of the traveling destination.

すなわち、AIサーバ21は、走行する先の動画像を撮像する清掃ロボット22−1および22−2から送信されてくる動画像の撮像データを処理して、動画像に写っている被写体との接触の危険の程度を測定し、測定された危険の程度が所定の閾値以上である場合、清掃ロボット22−1および22−2の停止または減速を指令する。   That is, the AI server 21 processes the moving image imaging data transmitted from the cleaning robots 22-1 and 22-2 that captures the moving image of the traveling destination, and makes contact with the subject reflected in the moving image. The degree of danger is measured, and if the measured degree of danger is equal to or greater than a predetermined threshold, the cleaning robots 22-1 and 22-2 are instructed to stop or decelerate.

ハブ23は、スター型のネットワークトポロジ(物理トポロジ)を採用するネットワークにおける集線装置である。ハブ23は、AIサーバ21とアクセスポイント24−1乃至24−3のそれぞれとを接続する。   The hub 23 is a line concentrator in a network that employs a star-type network topology (physical topology). The hub 23 connects the AI server 21 and each of the access points 24-1 to 24-3.

アクセスポイント24−1乃至24−3は、それぞれ、清掃ロボット22−1および22−2のそれぞれに、無線LAN(Local Area Network)の所定の規格の無線通信で接続するための無線通信機である。清掃ロボット22−1および22−2は、走行する先の動画像を撮像し、ハブ23およびアクセスポイント24−1乃至24−3を介して、AIサーバ21に動画像を表示させる撮像データを送信する。   The access points 24-1 to 24-3 are wireless communication devices for connecting to the cleaning robots 22-1 and 22-2, respectively, by wireless communication of a predetermined standard of a wireless local area network (LAN). . The cleaning robots 22-1 and 22-2 capture the moving image of the traveling destination, and transmit imaging data for displaying the moving image on the AI server 21 via the hub 23 and the access points 24-1 to 24-3. To do.

タッチパネルモニタ25−1および25−2は、表示機能および入力機能を備える。タッチパネルモニタ25−1および25−2は、タッチスクリーンとも称され、AIサーバ21からの画像データにより所定の画像を表示する。また、タッチパネルモニタ25−1および25−2のそれぞれの画面の前面には、表示されている画像を透過させ、接触された位置を入力する位置入力装置であるタッチパネルが設けられている。タッチパネルモニタ25−1および25−2のそれぞれのタッチパネルが触られて操作されると、触られた位置を示す信号がAIサーバ21に送られる。   The touch panel monitors 25-1 and 25-2 have a display function and an input function. The touch panel monitors 25-1 and 25-2 are also referred to as touch screens, and display predetermined images based on image data from the AI server 21. In addition, a touch panel which is a position input device that transmits a displayed image and inputs a touched position is provided on the front surface of each screen of the touch panel monitors 25-1 and 25-2. When the touch panels of the touch panel monitors 25-1 and 25-2 are touched and operated, a signal indicating the touched position is sent to the AI server 21.

AIサーバ21は、清掃ロボット22−1および22−2から送信されてくる撮像データにより、動画像をタッチパネルモニタ25−1および25−2に表示させる。清掃ロボット22−1および22−2の走行を監視している監視者は、タッチパネルモニタ25−1および25−2に表示されている動画像を監視する。監視者は、タッチパネルモニタ25−1および25−2に表示されている動画像から、清掃ロボット22−1または22−2と患者や通行人などの人が接触する危険があると判断した場合、タッチパネルモニタ25−1または25−2にタッチして、清掃ロボット22−1または22−2を停止させるか、または減速させる。   The AI server 21 displays moving images on the touch panel monitors 25-1 and 25-2 based on the imaging data transmitted from the cleaning robots 22-1 and 22-2. The supervisor who monitors the running of the cleaning robots 22-1 and 22-2 monitors the moving images displayed on the touch panel monitors 25-1 and 25-2. When the supervisor determines from the moving images displayed on the touch panel monitors 25-1 and 25-2 that there is a risk that the cleaning robot 22-1 or 22-2 will come into contact with a person such as a patient or a passerby, Touching the touch panel monitor 25-1 or 25-2, the cleaning robot 22-1 or 22-2 is stopped or decelerated.

清掃ロボット22は、病院や公共施設などの建物の屋内を走行するので、速度は人が歩く程度であり、道路を走行する自動車などに比較して遅いので、監視者が、タッチパネルモニタ25の画像を見て、停止または減速を指示すれば、被写体との接触などの危険を回避することができる。   Since the cleaning robot 22 travels indoors in buildings such as hospitals and public facilities, the speed is only about walking, and is slower than a car traveling on a road. If a stop or deceleration is instructed by looking at, dangers such as contact with the subject can be avoided.

なお、以下、清掃ロボット22−1および22−2を個々に区別する必要がない場合、単に、清掃ロボット22と称する。また、以下、アクセスポイント24−1乃至24−3を個々に区別する必要がない場合、単に、アクセスポイント24と称する。さらに、以下、タッチパネルモニタ25−1および25−2を個々に区別する必要がない場合、単に、タッチパネルモニタ25と称する。   Hereinafter, the cleaning robots 22-1 and 22-2 are simply referred to as the cleaning robot 22 when it is not necessary to distinguish them individually. Hereinafter, when it is not necessary to individually distinguish the access points 24-1 to 24-3, they are simply referred to as access points 24. Further, hereinafter, when it is not necessary to distinguish between the touch panel monitors 25-1 and 25-2, they are simply referred to as a touch panel monitor 25.

図1には、2つの清掃ロボット22を示したが、単数または複数の任意の数の清掃ロボット22を用いることができる。また、図1には、3つのアクセスポイント24を示したが、単数または複数の任意の数のアクセスポイント24を設けることができる。さらにまた、図1には、2つのタッチパネルモニタ25を示したが、単数または複数の任意の数のタッチパネルモニタ25を設けることができる。   Although two cleaning robots 22 are shown in FIG. 1, any number of cleaning robots 22 or a plurality of cleaning robots 22 can be used. Further, although three access points 24 are shown in FIG. 1, an arbitrary number of access points 24 can be provided. Furthermore, although two touch panel monitors 25 are shown in FIG. 1, one or a plurality of arbitrary numbers of touch panel monitors 25 can be provided.

図2は、清掃ロボット22の外形の一例を示す図である。清掃ロボット22の本体41には、走行のための車輪やモータ、清掃のためのブラシやブラシを駆動するためのモータおよびバッテリなどの電源などが設けられている。清掃ロボット22の本体41の上面前方には、制御モジュール42が設けられている。制御モジュール42は、タブレット型のパーソナルコンピュータまたは専用のコンピュータなどからなる。制御モジュール42は、アクセスポイント24およびハブ23を介して、AIサーバ21と通信する。制御モジュール42は、停止などの各種の指令を本体41に送り、本体41の動作を制御する。   FIG. 2 is a diagram illustrating an example of the outer shape of the cleaning robot 22. The main body 41 of the cleaning robot 22 is provided with wheels and motors for traveling, a brush for cleaning, a motor for driving the brushes, and a power source such as a battery. A control module 42 is provided in front of the upper surface of the main body 41 of the cleaning robot 22. The control module 42 is composed of a tablet personal computer or a dedicated computer. The control module 42 communicates with the AI server 21 via the access point 24 and the hub 23. The control module 42 sends various commands such as a stop to the main body 41 to control the operation of the main body 41.

清掃ロボット22の本体41の前面側には、カメラ43が設けられている。カメラ43は、清掃ロボット22の前方の動画像を撮像する。すなわち、カメラ43は、清掃ロボット22が走行する先の動画像を撮像する。カメラ43で撮像された動画像の撮像データは、制御モジュール42により、AIサーバ21に送信される。   A camera 43 is provided on the front side of the main body 41 of the cleaning robot 22. The camera 43 captures a moving image in front of the cleaning robot 22. That is, the camera 43 captures a moving image where the cleaning robot 22 travels. The moving image image data captured by the camera 43 is transmitted to the AI server 21 by the control module 42.

次に、清掃ロボット22のハードウェアの構成について説明する。   Next, the hardware configuration of the cleaning robot 22 will be described.

図3は、清掃ロボット22のハードウェアの構成の一例を示すブロック図である。清掃ロボット22は、制御モジュール42、カメラ43、走行動作制御部51、センサ52、駆動部53、モータ54、車輪55、清掃動作制御部61、センサ62、駆動部63、モータ64およびブラシ65を含み構成される。制御モジュール42は、スピーカ71、表示部72、タッチパネル73、通信部74および記憶部75を含む。スピーカ71は、いわゆるラウドスピーカであり、各種の音声を出力する(放音する)。例えば、スピーカ71は、病院や公共施設などの建物の屋内を通行している人に対してメッセージを示す音声を出力する。表示部72は、液晶表示装置や有機EL(Electro-luminescence)表示装置などからなり、各種の画像や文字などを表示する。例えば、表示部72は、病院や公共施設などの建物の屋内を通行している人に対してメッセージを示す画像や文字を表示する。タッチパネル73は、表示部72の表示面に設けられ、表示部72に表示されている画像を透過させ、接触された位置を入力する。例えば、タッチパネル73は、起動の時にオペレータからの指示などを入力する。通信部74は、無線LANの所定の規格により、アクセスポイント24と無線通信する。記憶部75は、フラッシュメモリなどの不揮発性メモリなどからなり、各種のデータを記憶する。   FIG. 3 is a block diagram illustrating an example of a hardware configuration of the cleaning robot 22. The cleaning robot 22 includes a control module 42, a camera 43, a travel operation control unit 51, a sensor 52, a drive unit 53, a motor 54, wheels 55, a cleaning operation control unit 61, a sensor 62, a drive unit 63, a motor 64, and a brush 65. Consists of. The control module 42 includes a speaker 71, a display unit 72, a touch panel 73, a communication unit 74, and a storage unit 75. The speaker 71 is a so-called loudspeaker, and outputs (releases) various sounds. For example, the speaker 71 outputs a voice indicating a message to a person who is traveling indoors in a building such as a hospital or public facility. The display unit 72 includes a liquid crystal display device, an organic EL (Electroluminescence) display device, and the like, and displays various images and characters. For example, the display unit 72 displays an image or a character indicating a message for a person who is traveling indoors in a building such as a hospital or public facility. The touch panel 73 is provided on the display surface of the display unit 72, transmits an image displayed on the display unit 72, and inputs a touched position. For example, the touch panel 73 inputs an instruction from an operator at the time of activation. The communication unit 74 performs wireless communication with the access point 24 in accordance with a predetermined standard for wireless LAN. The storage unit 75 includes a nonvolatile memory such as a flash memory, and stores various data.

走行動作制御部51は、専用のプロセッサなどからなり、センサ52または制御モジュール42からの信号により、駆動部53を制御することで、清掃ロボット22の走行を制御する。センサ52は、赤外線や超音波を利用した距離センサや3次元の加速度センサなどからなり、清掃ロボット22の姿勢や周囲の人や物を検知して、その検知結果を示す信号を走行動作制御部51に供給する。駆動部53は、インバータなどであり、図示せぬバッテリなどの電源によって、モータ54を駆動する。モータ54は、清掃ロボット22の底面の4隅などに設けられている車輪55を回転させたり、車輪55の向きを変えたりする。   The traveling operation control unit 51 includes a dedicated processor and the like, and controls the traveling of the cleaning robot 22 by controlling the driving unit 53 by a signal from the sensor 52 or the control module 42. The sensor 52 includes a distance sensor using infrared rays or ultrasonic waves, a three-dimensional acceleration sensor, and the like. The sensor 52 detects the posture of the cleaning robot 22 and surrounding people and objects, and outputs a signal indicating the detection result to the traveling operation control unit. 51. The drive unit 53 is an inverter or the like, and drives the motor 54 by a power source such as a battery (not shown). The motor 54 rotates wheels 55 provided at the four corners of the bottom surface of the cleaning robot 22 or changes the direction of the wheels 55.

清掃動作制御部61は、専用のプロセッサなどからなり、センサ62からの信号により、駆駆動部63を制御することで、清掃ロボット22による清掃の動作を制御する。センサ62は、掃除のときの音を感知するマイク、またはごみの有無や量を感知するピエゾセンサや光センサなどからなり、床のごみや清掃の動作の状態を感知して、その検知結果を示す信号を清掃動作制御部61に供給する。駆動部63は、インバータなどであり、図示せぬバッテリなどの電源によって、モータ64を駆動する。モータ64は、清掃ロボット22の底面などに設けられているブラシ65を回転させたり、ごみを吸い込む吸引装置を動作させたりする。   The cleaning operation control unit 61 includes a dedicated processor and the like, and controls the cleaning operation by the cleaning robot 22 by controlling the drive unit 63 by a signal from the sensor 62. The sensor 62 is composed of a microphone that senses the sound during cleaning, a piezo sensor that detects the presence or amount of dust, an optical sensor, and the like, and senses the state of the floor dust and cleaning operation and indicates the detection result. A signal is supplied to the cleaning operation control unit 61. The drive unit 63 is an inverter or the like, and drives the motor 64 by a power source such as a battery (not shown). The motor 64 rotates a brush 65 provided on the bottom surface of the cleaning robot 22 or operates a suction device that sucks in dust.

次に、制御モジュール42の機能について説明する。   Next, the function of the control module 42 will be described.

図4は、制御モジュール42が制御プログラムを実行することにより実現される機能の構成の一例を説明するブロック図である。制御モジュール42が制御プログラムを実行すると、撮像制御部81、符号化部82、通信制御部83、フラグ設定部84、記憶制御部85、指示部86および音声出力制御部87が実現される。   FIG. 4 is a block diagram illustrating an example of a functional configuration realized by the control module 42 executing a control program. When the control module 42 executes the control program, an imaging control unit 81, an encoding unit 82, a communication control unit 83, a flag setting unit 84, a storage control unit 85, an instruction unit 86, and an audio output control unit 87 are realized.

撮像制御部81は、カメラ43による動画像の撮像を制御する。符号化部82は、カメラ43により撮像された動画像をH.262/MPEG(Moving Picture Experts Group)-2 Part 2やMPEG-4 AVC(Advanced Video Coding)/H.264などの方式により、符号化して、撮像データを生成する。通信制御部83は、通信部74による通信を制御する。通信制御部83は、送信制御部91および受信制御部92を含む。送信制御部91は、通信部74を制御することで、動画像の撮像データの送信など、アクセスポイント24を介したAIサーバ21への各種のデータの送信を制御する。受信制御部92は、通信部74を制御することで、停止を指示する制御信号の受信など、アクセスポイント24を介してAIサーバ21から送信されてくる各種のデータの受信を制御する。   The imaging control unit 81 controls imaging of moving images by the camera 43. The encoding unit 82 encodes a moving image captured by the camera 43 using a method such as H.262 / MPEG (Moving Picture Experts Group) -2 Part 2 or MPEG-4 AVC (Advanced Video Coding) /H.264. To generate imaging data. The communication control unit 83 controls communication by the communication unit 74. The communication control unit 83 includes a transmission control unit 91 and a reception control unit 92. The transmission control unit 91 controls transmission of various data to the AI server 21 via the access point 24 such as transmission of moving image captured data by controlling the communication unit 74. The reception control unit 92 controls reception of various data transmitted from the AI server 21 via the access point 24, such as reception of a control signal instructing stoppage, by controlling the communication unit 74.

フラグ設定部84は、記憶部75の所定のアドレスのデータのビットを0または1に設定することで、清掃ロボット22が停止していることを示す停止フラグなど各種のフラグを設定する。記憶制御部85は、記憶部75への音声のデータの記憶を制御する。指示部86は、タッチパネル73からの操作に応じた信号やAIサーバ21から停止を指示する制御信号などに応じて、走行動作制御部51に停止や減速などを指示する。指示部86は、判定部93を含む。判定部93は、AIサーバ21から送信されてきた制御信号が停止を指示するものであるか、減速を指示するものであるかなどを判定する。   The flag setting unit 84 sets various flags such as a stop flag indicating that the cleaning robot 22 is stopped by setting a bit of data at a predetermined address in the storage unit 75 to 0 or 1. The storage control unit 85 controls storage of audio data in the storage unit 75. The instruction unit 86 instructs the travel operation control unit 51 to stop or decelerate according to a signal according to an operation from the touch panel 73 or a control signal for instructing a stop from the AI server 21. Instruction unit 86 includes a determination unit 93. The determination unit 93 determines whether the control signal transmitted from the AI server 21 is an instruction to stop or an instruction to decelerate.

音声出力制御部87は、AIサーバ21から送信されてくる制御信号であって、音声の出力を指示する制御信号を受信した場合、記憶部75に記憶されている音声データを読み出して、音声データによる音声をスピーカ71に出力させる。   When the voice output control unit 87 receives a control signal transmitted from the AI server 21 and instructing voice output, the voice output control unit 87 reads the voice data stored in the storage unit 75 and reads the voice data. Is output to the speaker 71.

次に、AIサーバ21のハードウェアについて説明する。   Next, the hardware of the AI server 21 will be described.

図5は、AIサーバ21のハードウェアの構成の一例を示すブロック図である。   FIG. 5 is a block diagram illustrating an example of a hardware configuration of the AI server 21.

AIサーバ21において、CPU(Central Processing Unit)121,ROM(Read Only Memory)122,RAM(Random Access Memory)123は、バス124により相互に接続されている。   In the AI server 21, a CPU (Central Processing Unit) 121, a ROM (Read Only Memory) 122, and a RAM (Random Access Memory) 123 are connected to each other by a bus 124.

バス124には、さらに、入出力インタフェース125が接続されている。入出力インタフェース125には、必要に応じて接続されるキーボードまたはマウスなどよりなる入力部126、必要に応じて接続されるディスプレイなどよりなる出力部127、ハードディスクや不揮発性のメモリなどよりなる記録部128、ネットワークインタフェースなどよりなる通信部129、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア131を駆動するドライブ130が接続されている。   An input / output interface 125 is further connected to the bus 124. The input / output interface 125 includes an input unit 126 including a keyboard or a mouse connected as necessary, an output unit 127 including a display connected as necessary, and a recording unit including a hard disk and a non-volatile memory. 128, a communication unit 129 including a network interface, and a drive 130 for driving a removable medium 131 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory are connected.

また、入出力インタフェース125には、図示せぬGPU(Graphics Processing Unit)を介して、タッチパネルモニタ25が接続されている。   The touch panel monitor 25 is connected to the input / output interface 125 via a GPU (Graphics Processing Unit) (not shown).

以上のように構成されるAIサーバ21(コンピュータ)では、CPU121が、例えば、記録部128に記録されているプログラムを、入出力インタフェース125及びバス124を介して、RAM123にロードして実行することにより、後述する一連の処理が行われる。   In the AI server 21 (computer) configured as described above, the CPU 121 loads, for example, a program recorded in the recording unit 128 to the RAM 123 via the input / output interface 125 and the bus 124 and executes the program. Thus, a series of processes described later is performed.

AIサーバ21(CPU121)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア131に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。   The programs executed by the AI server 21 (CPU 121) are, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, Alternatively, it is recorded on a removable medium 131 which is a package medium made of a semiconductor memory, or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

そして、プログラムは、リムーバブルメディア131をドライブ130に装着することにより、入出力インタフェース125を介して、記録部128に記録することで、コンピュータにインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部129で受信し、記録部128に記録することで、コンピュータにインストールすることができる。その他、プログラムは、ROM122や記録部128にあらかじめ記憶または記録しておくことで、コンピュータにあらかじめインストールしておくことができる。   The program can be installed in the computer by mounting the removable medium 131 in the drive 130 and recording it in the recording unit 128 via the input / output interface 125. Further, the program can be installed in a computer by being received by the communication unit 129 via a wired or wireless transmission medium and recorded in the recording unit 128. In addition, the program can be installed in the computer in advance by storing or recording the program in the ROM 122 or the recording unit 128 in advance.

すなわち、AIサーバ21(コンピュータ)では、インストールされたプログラムを実行することにより、図6を参照して後述する機能が実現される。   That is, in the AI server 21 (computer), the functions described later with reference to FIG. 6 are realized by executing the installed program.

図6は、AIサーバ21がプログラムを実行することにより実現される機能の構成の一例を示すブロック図である。AIサーバ21がプログラムを実行することにより、危険度測定部161、撮像データバッファ162、復号部163、学習データ記録制御部164、学習スケジューラ165、判定部166、指令部167、通信制御部168、入力制御部169および表示制御部170が実現される。危険度測定部161は、清掃ロボット22から送信されてくる動画像の撮像データから、機械学習によって、動画像のシーンの危険の程度を測定する。また、危険度測定部161は、清掃ロボット22から送信されてくる動画像の撮像データから、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定する。また、危険度測定部161は、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を測定する。危険度測定部161は、物体検知AI部171、画像処理部172、危険度測定AI部173および描画部174を含む。   FIG. 6 is a block diagram illustrating an example of a functional configuration realized by the AI server 21 executing a program. When the AI server 21 executes the program, the risk measuring unit 161, the imaging data buffer 162, the decoding unit 163, the learning data recording control unit 164, the learning scheduler 165, the determination unit 166, the command unit 167, the communication control unit 168, An input control unit 169 and a display control unit 170 are realized. The danger measuring unit 161 measures the degree of danger of a moving image scene from the moving image captured data transmitted from the cleaning robot 22 by machine learning. Further, the danger measuring unit 161 measures the degree of danger of contact with the subject in the moving image by machine learning from the moving image captured data transmitted from the cleaning robot 22. Further, the risk measuring unit 161 measures the distance from the cleaning robot 22 to the subject and the speed of the subject with respect to the cleaning robot 22. The risk level measurement unit 161 includes an object detection AI unit 171, an image processing unit 172, a risk level measurement AI unit 173, and a drawing unit 174.

なお、危険度測定部161は、図示せぬGPUに計算を実行させて、動画像のシーンの危険の程度を測定するようにしてもよい。また、危険度測定部161は、図示せぬAIチップに計算を実行させて、動画像のシーンの危険の程度を測定するようにしてもよい。なお、危険度測定部161は、清掃ロボット22の数だけ実現されるようにしてもよい。例えば、図1に示されるように、清掃システム11において、清掃ロボット22−1および22−2が清掃する場合、図示は省略するが、プログラムを実行するAIサーバ21は、清掃ロボット22−1用の危険度測定部161−1と、清掃ロボット22−2用の危険度測定部161−2とを実現させる。   The risk measuring unit 161 may cause a GPU (not shown) to perform calculation and measure the degree of danger of a moving image scene. Further, the danger measuring unit 161 may cause an AI chip (not shown) to perform calculation to measure the degree of danger of a moving image scene. Note that the risk level measuring units 161 may be realized by the number of cleaning robots 22. For example, as illustrated in FIG. 1, when the cleaning robots 22-1 and 22-2 perform cleaning in the cleaning system 11, the AI server 21 that executes the program is for the cleaning robot 22-1 although illustration is omitted. The risk measuring unit 161-1 and the risk measuring unit 161-2 for the cleaning robot 22-2 are realized.

物体検知AI部171は、清掃ロボット22により撮像された動画像の撮像データから、ニューラルネットワークを用いた機械学習によって、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する。   The object detection AI unit 171 determines whether or not a subject is a person or something other than a person in a moving image by machine learning using a neural network from moving image captured data captured by the cleaning robot 22. And the position of the subject in the moving image is detected.

例えば、物体検知AI部171は、ディープラーニングを利用した物体検出を行うYOLO(You Only Look Once),R-CNN(Regions with Convolutional Neural Network),Faster R-CNNまたはFCN(Fully Convolutional Network)などの畳み込みニューラルネットワークによる機械学習によって、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する。例えば、YOLOを採用する物体検知AI部171は、動画像の全体からクラス確率および物体のバウンディングボックス座標を推論する。例えば、R-CNNを採用する物体検知AI部171は、選択的探索法から得られる物体領域候補内の画像を、事前に学習しておいたCNN(Convolutional Neural Network)に入力して、画像特徴を抽出し、抽出された画像特徴を線形サポートベクトルマシンに入力して物体クラスを予測する。   For example, the object detection AI unit 171 performs object detection using deep learning, such as YOLO (You Only Look Once), R-CNN (Regions with Convolutional Neural Network), Faster R-CNN or FCN (Fully Convolutional Network). By machine learning using a convolutional neural network, it is detected whether the subject is a person or something other than a person, and the position of the subject in the moving image is detected. For example, the object detection AI unit 171 employing YOLO infers the class probability and the bounding box coordinates of the object from the entire moving image. For example, the object detection AI unit 171 adopting R-CNN inputs an image in the object region candidate obtained from the selective search method to a CNN (Convolutional Neural Network) that has been learned in advance, and the image feature And the extracted image features are input to a linear support vector machine to predict the object class.

なお、物体検知AI部171は、学習済みモデルを使用して、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する。   The object detection AI unit 171 uses the learned model to detect whether the subject is a person or something other than a person, and detects the position of the subject in the moving image.

また、物体検知AI部171は、図示せぬGPUに計算を実行させて、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知するようにしてもよい。なお、物体検知AI部171は、図示せぬAIチップに計算を実行させて、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知するようにしてもよい。さらにまた、物体検知AI部171は、清掃ロボット22の数だけ実現されるようにしてもよい。例えば、図1に示されるように、清掃システム11において、清掃ロボット22−1および22−2が清掃する場合、図示は省略するが、プログラムを実行するAIサーバ21は、清掃ロボット22−1用の物体検知AI部171−1と、清掃ロボット22−2用の物体検知AI部171−2とを実現させる。   In addition, the object detection AI unit 171 causes a GPU (not shown) to perform calculation, detects whether the subject is a person or something other than a person in the moving image, and The position of the subject may be detected. The object detection AI unit 171 causes an AI chip (not shown) to perform calculation to detect whether the subject is a person or a person other than a person in the moving image. Alternatively, the position of the subject may be detected. Furthermore, the object detection AI units 171 may be realized by the number of cleaning robots 22. For example, as illustrated in FIG. 1, when the cleaning robots 22-1 and 22-2 perform cleaning in the cleaning system 11, the AI server 21 that executes the program is for the cleaning robot 22-1 although illustration is omitted. The object detection AI unit 171-1 and the object detection AI unit 171-2 for the cleaning robot 22-2 are realized.

画像処理部172は、画像処理により、動画像および動画像における被写体の位置から、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を求める。また、画像処理部172は、画像処理により、物体検知AI部171において被写体が人であると検知された場合、清掃ロボット22に対する被写体の向きまたは清掃ロボット22に対する被写体の顔の向きを求める。例えば、画像処理部172は、動画像および動画像における被写体の位置から、平面射影変換またはリセクションの処理により、清掃ロボット22から被写体までの距離を求める。例えば、画像処理部172は、動画像および動画像における被写体の位置から、背景差分法またはオプティカルフローにより、清掃ロボット22に対する被写体の速度を求める。   The image processing unit 172 obtains the distance from the cleaning robot 22 to the subject and the speed of the subject relative to the cleaning robot 22 from the moving image and the position of the subject in the moving image by image processing. Further, when the object detection AI unit 171 detects that the subject is a person by image processing, the image processing unit 172 obtains the orientation of the subject with respect to the cleaning robot 22 or the orientation of the face of the subject with respect to the cleaning robot 22. For example, the image processing unit 172 obtains the distance from the cleaning robot 22 to the subject by plane projection conversion or resection processing from the moving image and the position of the subject in the moving image. For example, the image processing unit 172 obtains the speed of the subject with respect to the cleaning robot 22 from the moving image and the position of the subject in the moving image by the background difference method or the optical flow.

例えば、画像処理部172は、目、鼻および口などの特徴点(領域)から左目端点、右目端点、鼻頂点、口左端、口右端および顎の先の6つの点を検出して、顔の回転角度を求めることで、清掃ロボット22に対する被写体の顔の向きを求める。また、例えば、画像処理部172は、動画像における、被写体の身体の特徴量を抽出し、正規化した特徴量からSVM(Support Vector Machine)およびクラス識別器により被写体の身体の向きを検出する。   For example, the image processing unit 172 detects the six points of the left eye end point, right eye end point, nose apex, left mouth end, right mouth end, and chin tip from the feature points (regions) such as the eyes, nose and mouth, By obtaining the rotation angle, the orientation of the subject's face relative to the cleaning robot 22 is obtained. Further, for example, the image processing unit 172 extracts a feature amount of the subject's body in the moving image, and detects the orientation of the subject's body from the normalized feature amount using a support vector machine (SVM) and a class identifier.

なお、物体検知AI部171または画像処理部172は、人である被写体が健常者、患者または子供であるか否か、人である被写体が立ち話をしているか否か、人である被写体が松葉杖をついているか否か、人である被写体が点滴スタンドを持っているか否かなどを検出するようにしてもよい。   Note that the object detection AI unit 171 or the image processing unit 172 determines whether the human subject is a healthy person, a patient, or a child, whether the human subject is talking, and whether the human subject is a crutch. It may be detected whether or not the subject is a person and whether or not the subject as a person has an infusion stand.

危険度測定AI部173は、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、ニューラルネットワークを用いた機械学習によって、動画像のシーンの危険の程度を測定する。また、危険度測定AI部173は、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、ニューラルネットワークを用いた機械学習によって、清掃ロボット22と被写体との接触の危険の程度を測定する。   The risk measurement AI unit 173 detects the moving image, the position of the subject in the moving image, the distance from the cleaning robot 22 to the subject, and the cleaning robot 22 as a result of detecting whether the subject is a person or something other than a person. The degree of danger of a moving image scene is measured from the speed of the subject by machine learning using a neural network. In addition, the risk measurement AI unit 173 detects the moving image, the position of the subject in the moving image, the distance from the cleaning robot 22 to the subject, and the cleaning robot as a result of detecting whether the subject is a person or something other than a person. The degree of danger of contact between the cleaning robot 22 and the subject is measured from the speed of the subject with respect to 22 by machine learning using a neural network.

例えば、危険度測定AI部173は、Deep CNNなどの畳み込みニューラルネットワークによる機械学習によって、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、動画像のシーンの危険の程度を測定する。例えば、危険度測定AI部173は、Deep CNNなどの畳み込みニューラルネットワークによる機械学習によって、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、清掃ロボット22と被写体との接触の危険の程度を測定する。   For example, the risk measurement AI unit 173 detects whether the subject is a person or something other than a person by machine learning using a convolutional neural network such as Deep CNN. From the distance from the subject 22 to the subject and the speed of the subject with respect to the cleaning robot 22, the degree of danger of the moving image scene is measured. For example, the risk measurement AI unit 173 detects whether the subject is a person or something other than a person by machine learning using a convolutional neural network such as Deep CNN. The degree of danger of contact between the cleaning robot 22 and the subject is measured from the distance from the subject 22 to the subject and the speed of the subject with respect to the cleaning robot 22.

なお、危険度測定AI部173は、学習済みモデルを使用して、動画像のシーンの危険の程度および清掃ロボット22と被写体との接触の危険の程度を測定する。   The degree-of-risk measurement AI unit 173 measures the degree of danger of the moving image scene and the degree of danger of contact between the cleaning robot 22 and the subject using the learned model.

描画部174は、動画像に、動画像のシーンの危険の程度を示す文字または画像を書き込む。また、描画部174は、動画像に、清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を書き込む。すなわち、描画部174は、動画像の撮像データに、動画像のシーンの危険の程度を示す文字または画像および清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を表示させるデータを書き込む。より詳細には、描画部174は、動画像に、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離、清掃ロボット22に対する被写体の速度または動画像のシーンの危険の程度若しくは清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を描画する。   The drawing unit 174 writes a character or an image indicating the degree of danger of the moving image scene in the moving image. The drawing unit 174 writes a character or an image indicating the degree of danger of contact between the cleaning robot 22 and the subject in the moving image. That is, the drawing unit 174 displays, in the moving image imaging data, characters or images that indicate the degree of danger of the moving image scene and characters or images that indicate the degree of danger of contact between the cleaning robot 22 and the subject. Write. More specifically, the drawing unit 174 detects, in the moving image, the position of the subject in the moving image, the distance from the cleaning robot 22 to the subject, the cleaning, as a result of detecting whether the subject is a person or something other than a person. Characters or images indicating the speed of the subject with respect to the robot 22 or the degree of danger of the moving image scene or the degree of danger of contact between the cleaning robot 22 and the subject are drawn.

さらに、描画部174は、動画像に、動画像のシーンの危険の程度または被写体との接触の危険の程度に応じた停止または減速などの清掃ロボット22への指令を示す文字または画像を書き込む。   Further, the drawing unit 174 writes a character or an image indicating an instruction to the cleaning robot 22 such as stop or deceleration according to the degree of danger of the scene of the moving image or the degree of danger of contact with the subject in the moving image.

撮像データバッファ162は、RAM123の記憶領域または記録部128の記録領域を用いて、清掃ロボット22からの撮像データを一時的に格納する。例えば、撮像データバッファ162は、リングバッファとされる。復号部163は、清掃ロボット22からの撮像データであって、符号化部82で符号化されている撮像データを復号する。学習データ記録制御部164は、タッチパネルモニタ25への操作によって監視者から清掃ロボット22の停止または減速が指示された場合、撮像データバッファ162から撮像データを取得して、停止が指示された時を含む所定の長さの時間の動画像の撮像データを記録部128に記録させる。学習スケジューラ165は、記録部128に記録された動画像の撮像データによる危険度測定部161の学習の実行を予約する。学習スケジューラ165は、危険度測定部161の学習のジョブをスケジューリングすることで予約する。また、学習スケジューラ165は、監視者またはオペレータからのタッチパネルモニタ25または入力部126への操作による指示に応じて、危険度測定部161の学習のジョブのスケジューリングにおける、学習の実行の可否および学習が実行される時刻を決定する。   The imaging data buffer 162 temporarily stores imaging data from the cleaning robot 22 using the storage area of the RAM 123 or the recording area of the recording unit 128. For example, the imaging data buffer 162 is a ring buffer. The decoding unit 163 decodes the imaging data from the cleaning robot 22 and encoded by the encoding unit 82. The learning data recording control unit 164 acquires the imaging data from the imaging data buffer 162 when the supervisor instructs the stop or deceleration of the cleaning robot 22 by an operation on the touch panel monitor 25, and indicates when the stop is instructed. The moving image pickup data of a predetermined length including the time is recorded in the recording unit 128. The learning scheduler 165 reserves execution of learning by the risk measuring unit 161 using moving image captured data recorded in the recording unit 128. The learning scheduler 165 makes a reservation by scheduling a learning job of the risk measuring unit 161. In addition, the learning scheduler 165 determines whether or not learning can be executed and learning in the scheduling of the learning job of the risk measuring unit 161 in accordance with an instruction by an operation to the touch panel monitor 25 or the input unit 126 from a supervisor or an operator. Determine the time of execution.

判定部166は、危険度測定AI部173で測定された清掃ロボット22と被写体との接触の危険の程度から、清掃ロボット22に停止を指令するか否か、清掃ロボット22に減速を指令するか否かなどを判定する。指令部167は、通信部129から清掃ロボット22に制御信号を送信させることで、清掃ロボット22に停止、減速または加速を指令する。通信制御部168は、通信部129による通信を制御する。通信制御部168は、送信制御部175および受信制御部176を含む。送信制御部175は、通信部129を制御することで、停止を指示する制御信号の送信など、アクセスポイント24を介した清掃ロボット22への各種のデータの送信を制御する。受信制御部176は、通信部129を制御することで、動画像の撮像データの受信など、アクセスポイント24を介して清掃ロボット22から送信されてくる各種のデータの受信を制御する。   The determination unit 166 determines whether to instruct the cleaning robot 22 to stop or whether to instruct the cleaning robot 22 to decelerate based on the degree of danger of contact between the cleaning robot 22 and the subject measured by the risk measurement AI unit 173. Determine whether or not. The command unit 167 instructs the cleaning robot 22 to stop, decelerate, or accelerate by transmitting a control signal from the communication unit 129 to the cleaning robot 22. The communication control unit 168 controls communication by the communication unit 129. Communication control unit 168 includes a transmission control unit 175 and a reception control unit 176. The transmission control unit 175 controls transmission of various data to the cleaning robot 22 via the access point 24 such as transmission of a control signal instructing stop by controlling the communication unit 129. The reception control unit 176 controls reception of various data transmitted from the cleaning robot 22 via the access point 24, such as reception of moving image imaging data, by controlling the communication unit 129.

入力制御部169は、タッチパネルモニタ25のタッチパネルを制御し、監視者がタッチパネルモニタ25のタッチパネルを操作した場合にタッチパネルモニタ25から送信されてくる、操作に応じた信号を取得する。表示制御部170は、タッチパネルモニタ25のモニタを制御し、清掃ロボット22から送信されてくる動画像をタッチパネルモニタ25に表示させる。   The input control unit 169 controls the touch panel of the touch panel monitor 25 and acquires a signal corresponding to the operation transmitted from the touch panel monitor 25 when the monitor operates the touch panel of the touch panel monitor 25. The display control unit 170 controls the monitor of the touch panel monitor 25 and displays the moving image transmitted from the cleaning robot 22 on the touch panel monitor 25.

次に、フローチャートを参照して、清掃システム11において行われる処理を説明する。   Next, the process performed in the cleaning system 11 is demonstrated with reference to a flowchart.

図7は、起動の処理を説明するフローチャートである。ステップS101において、監視者またはオペレータの操作により、制御モジュール42が起動させられる。ステップS102において、制御モジュール42は、AIサーバ21に接続する。ステップS201において、AIサーバ21は、制御モジュール42と接続する。例えば、制御モジュール42の通信制御部83は、通信部74に、TCP(Transmission Control Protocol)により、ハブ23およびアクセスポイント24を介して、通信制御部168に制御される通信部129とコネクションを確立させる。なお、制御モジュール42とAIサーバ21とは、UDP(User Datagram Protocol)により接続するようにしてもよい。   FIG. 7 is a flowchart for explaining the activation process. In step S101, the control module 42 is activated by the operation of the supervisor or operator. In step S <b> 102, the control module 42 connects to the AI server 21. In step S <b> 201, the AI server 21 is connected to the control module 42. For example, the communication control unit 83 of the control module 42 establishes a connection with the communication unit 129 controlled by the communication control unit 168 via the hub 23 and the access point 24 via the transmission control protocol (TCP). Let The control module 42 and the AI server 21 may be connected by UDP (User Datagram Protocol).

ステップS103において、指示部86の判定部93は、通信制御部83からコネクションが確立しているか否かを示すステータス情報を取得して、ステータス情報を参照して、制御モジュール42がAIサーバ21に接続しているか否かを判定する。ステップS103において、制御モジュール42がAIサーバ21に接続していないと判定された場合、手続きはステップS104に進み、判定部93は、制御モジュール42に内蔵されているタイマにより、ステップS102の手続きからの経過時間を計り、例えば1秒間経過したか否かにより、タイムアウトしたか否かを判定する。例えば、ステップS104において、判定部93は、ステップS102の手続きからの1秒間経過していない場合、タイムアウトしていないと判定し、ステップS102の手続きからの1秒間以上経過した場合、タイムアウトしたと判定する。   In step S <b> 103, the determination unit 93 of the instruction unit 86 acquires status information indicating whether or not a connection is established from the communication control unit 83, refers to the status information, and the control module 42 sends the information to the AI server 21. Determine if connected. When it is determined in step S103 that the control module 42 is not connected to the AI server 21, the procedure proceeds to step S104, and the determination unit 93 starts from the procedure of step S102 by a timer built in the control module 42. It is determined whether or not a timeout has occurred, for example, depending on whether or not one second has elapsed. For example, in step S104, the determination unit 93 determines that a time-out has not occurred if one second has not elapsed since the procedure in step S102, and determines that a time-out has occurred if one second or more has elapsed since the procedure in step S102. To do.

ステップS104において、タイムアウトしていないと判定された場合、手続きはステップS103に戻り、上述した処理が繰り返される。ステップS104において、タイムアウトしたと判定された場合、手続きはステップS105に進み、判定部93は、フラグ設定部84により設定される停止フラグであって、清掃ロボット22が停止していることを示す停止フラグが立っているか否かを判定する。ステップS105において、停止フラグが立っていると判定された場合、手続きはステップS102に戻り、上述した処理が繰り返される。   If it is determined in step S104 that the timeout has not occurred, the procedure returns to step S103, and the above-described processing is repeated. If it is determined in step S104 that the time-out has occurred, the procedure proceeds to step S105, and the determination unit 93 is a stop flag set by the flag setting unit 84 and indicates that the cleaning robot 22 is stopped. It is determined whether or not a flag is set. If it is determined in step S105 that the stop flag is set, the procedure returns to step S102, and the above-described processing is repeated.

ステップS105において、停止フラグが立っていないと判定された場合、手続きはステップS106に進み、制御モジュール42は、清掃ロボット22を停止させる。すなわち、制御モジュール42の指示部86は、走行動作制御部51に停止を指示する。ステップS105の後、手続きはステップS102に戻り、上述した処理が繰り返される。   If it is determined in step S105 that the stop flag is not set, the procedure proceeds to step S106, and the control module 42 stops the cleaning robot 22. That is, the instruction unit 86 of the control module 42 instructs the travel operation control unit 51 to stop. After step S105, the procedure returns to step S102, and the above-described processing is repeated.

ステップS103において、制御モジュール42がAIサーバ21に接続していると判定された場合、手続きはステップS107に進み、撮像制御部81は、カメラ43を制御して、カメラ43に動画像の撮像を開始させる。カメラ43は、動画像のデータを制御モジュール42に供給する。ステップS108において、制御モジュール42による走行制御の処理が開始され、起動の処理は終了する。   If it is determined in step S103 that the control module 42 is connected to the AI server 21, the procedure proceeds to step S107, and the imaging control unit 81 controls the camera 43 to capture a moving image in the camera 43. Let it begin. The camera 43 supplies moving image data to the control module 42. In step S108, the driving control process by the control module 42 is started, and the starting process is ended.

図8は、ステップS108の走行制御の処理の詳細を説明するフローチャートである。ステップS11において、指示部86は、走行動作制御部51および清掃動作制御部61から清掃ロボット22の動作状態を示すデータ(以下、動作状態データと称する。)を取得する。ステップS12において、指示部86の判定部93は、動作状態データを参照して、清掃ロボット22が停止しているか否かを判定する。ステップS12において、清掃ロボット22が停止していると判定された場合、手続きはステップS13に進み、フラグ設定部84は、停止フラグを立てる。ステップS12において、清掃ロボット22が停止していないと判定された場合、手続きはステップS14に進み、フラグ設定部84は、停止フラグを倒す。   FIG. 8 is a flowchart illustrating details of the travel control process in step S108. In step S <b> 11, the instruction unit 86 acquires data indicating the operation state of the cleaning robot 22 from the travel operation control unit 51 and the cleaning operation control unit 61 (hereinafter referred to as operation state data). In step S12, the determination unit 93 of the instruction unit 86 refers to the operation state data to determine whether or not the cleaning robot 22 is stopped. If it is determined in step S12 that the cleaning robot 22 is stopped, the procedure proceeds to step S13, and the flag setting unit 84 sets a stop flag. If it is determined in step S12 that the cleaning robot 22 has not stopped, the procedure proceeds to step S14, and the flag setting unit 84 defeats the stop flag.

ステップS13またはステップS14の後、手続きはステップS15に進み、通信制御部83の受信制御部92は、通信部74に、AIサーバ21から送信されてくる制御信号を受信させる。ステップS16において、指示部86の判定部93は、受信した制御信号により停止が指示されたか否かを判定する。ステップS16において、停止が指示されたと判定された場合、手続きはステップS17に進み、指示部86は、走行動作制御部51に停止を指示して、清掃ロボット22を停止させ、手続きはステップS11に戻り、上述した処理が繰り返される。   After step S13 or step S14, the procedure proceeds to step S15, and the reception control unit 92 of the communication control unit 83 causes the communication unit 74 to receive a control signal transmitted from the AI server 21. In step S <b> 16, the determination unit 93 of the instruction unit 86 determines whether stop is instructed by the received control signal. If it is determined in step S16 that the stop has been instructed, the procedure proceeds to step S17, and the instruction unit 86 instructs the travel operation control unit 51 to stop and stops the cleaning robot 22, and the procedure proceeds to step S11. Returning, the process described above is repeated.

ステップS16において、停止が指示されていないと判定された場合、手続きはステップS18に進み、指示部86の判定部93は、受信した制御信号により減速が指示されたか否かを判定する。ステップS18において、減速が指示されたと判定された場合、手続きはステップS19に進み、指示部86は、走行動作制御部51に減速を指示して、清掃ロボット22を減速させ、手続きはステップS11に戻り、上述した処理が繰り返される。   If it is determined in step S16 that stop is not instructed, the procedure proceeds to step S18, and the determination unit 93 of the instruction unit 86 determines whether deceleration is instructed by the received control signal. If it is determined in step S18 that deceleration has been instructed, the procedure proceeds to step S19, and the instruction unit 86 instructs the traveling operation control unit 51 to decelerate, causing the cleaning robot 22 to decelerate, and the procedure proceeds to step S11. Returning, the process described above is repeated.

ステップS18において、減速が指示されていないと判定された場合、手続きはステップS20に進み、指示部86の判定部93は、受信した制御信号により加速が指示されたか否かを判定する。ステップS20において、加速が指示されたと判定された場合、手続きはステップS21に進み、指示部86は、走行動作制御部51に加速および通常走行を指示して、清掃ロボット22を加速させて通常走行させ、手続きはステップS11に戻り、上述した処理が繰り返される。   If it is determined in step S18 that deceleration is not instructed, the procedure proceeds to step S20, and the determination unit 93 of the instruction unit 86 determines whether acceleration is instructed by the received control signal. If it is determined in step S20 that acceleration has been instructed, the procedure proceeds to step S21, and the instruction unit 86 instructs the traveling operation control unit 51 to perform acceleration and normal traveling, and accelerates the cleaning robot 22 to perform normal traveling. The procedure returns to step S11, and the above-described processing is repeated.

ステップS20において、加速が指示されていないと判定された場合、手続きはステップS22に進み、指示部86の判定部93は、受信した制御信号により停止フラグが要求されたか否かを判定する。ステップS22において、停止フラグが要求されたと判定された場合、手続きはステップS23に進み、フラグ設定部84は、停止フラグを読み出して、通信制御部83の送信制御部91は、通信部74に、読み出した停止フラグをAIサーバ21宛に送信させる。ステップS23の後、手続きはステップS11に戻り、上述した処理が繰り返される。   If it is determined in step S20 that acceleration is not instructed, the procedure proceeds to step S22, and the determination unit 93 of the instruction unit 86 determines whether or not a stop flag is requested by the received control signal. If it is determined in step S22 that the stop flag has been requested, the procedure proceeds to step S23, the flag setting unit 84 reads the stop flag, and the transmission control unit 91 of the communication control unit 83 sends the communication unit 74 to the communication unit 74. The read stop flag is transmitted to the AI server 21. After step S23, the procedure returns to step S11, and the above-described processing is repeated.

ステップS22において、停止フラグが要求されていないと判定された場合、手続きはステップS24に進み、指示部86の判定部93は、受信した制御信号により音声の出力が要求されたか否かを判定する。ステップS24において、音声の出力が要求されたと判定された場合、手続きはステップS25に進み、音声出力制御部87は、記憶部75から音声データを読み出して、読み出した音声データによりスピーカ71に音声を出力させる。ステップS23の後またはステップS24において、音声の出力が要求されていないと判定された場合、手続きはステップS11に戻り、上述した処理が繰り返される。   When it is determined in step S22 that the stop flag is not requested, the procedure proceeds to step S24, and the determination unit 93 of the instruction unit 86 determines whether or not the output of the sound is requested by the received control signal. . If it is determined in step S24 that output of audio has been requested, the procedure proceeds to step S25, where the audio output control unit 87 reads out audio data from the storage unit 75, and outputs audio to the speaker 71 using the read out audio data. Output. If it is determined after step S23 or in step S24 that no audio output is requested, the procedure returns to step S11 and the above-described processing is repeated.

次に、図9および図10のフローチャートを参照して、AIサーバ21による清掃ロボット22の走行制御の処理を説明する。ステップS121において、清掃ロボット22は、撮像データをストリーミングでAIサーバ21に送信する。すなわち、ステップS121において、符号化部82は、カメラ43の撮像により得られた動画像のデータを符号化して、ストリーミングデータである撮像データを生成し、通信制御部83の送信制御部91は、通信部74に、AIサーバ21宛に、ストリーミングデータである撮像データを送信させる。   Next, with reference to the flowcharts of FIGS. 9 and 10, the travel control processing of the cleaning robot 22 by the AI server 21 will be described. In step S121, the cleaning robot 22 transmits the imaging data to the AI server 21 by streaming. That is, in step S121, the encoding unit 82 encodes moving image data obtained by imaging with the camera 43 to generate imaging data that is streaming data, and the transmission control unit 91 of the communication control unit 83 The communication unit 74 transmits imaging data that is streaming data to the AI server 21.

ステップS221において、AIサーバ21は、ストリーミングデータである撮像データを受信する。より詳細には、通信制御部168の受信制御部176は、通信部129に、清掃ロボット22から送信されてきた撮像データを受信させる。撮像データバッファ162は、受信した撮像データを一時的に格納する。危険度測定部161は、撮像データバッファ162から順に撮像データを読み出す。   In step S221, the AI server 21 receives imaging data that is streaming data. More specifically, the reception control unit 176 of the communication control unit 168 causes the communication unit 129 to receive imaging data transmitted from the cleaning robot 22. The imaging data buffer 162 temporarily stores the received imaging data. The risk measurer 161 reads the image data sequentially from the image data buffer 162.

ステップS222において、危険度の測定の処理が行われる。   In step S222, risk level measurement processing is performed.

ここで、図11のフローチャートを参照して、危険度の測定の処理の詳細を説明する。ステップS51において、危険度測定部161の物体検知AI部171は、清掃ロボット22により撮像された動画像の撮像データから、ニューラルネットワークを用いた機械学習によって、動画像に写っている被写体について、被写体の種類と画像中の被写体の位置とを検知する。言い換えれば、物体検知AI部171は、移動体である清掃ロボット22により撮像された動画像から、ニューラルネットワークを用いた機械学習によって、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する。   Here, with reference to the flowchart of FIG. 11, the details of the process of measuring the risk will be described. In step S <b> 51, the object detection AI unit 171 of the risk level measurement unit 161 uses the moving image image data captured by the cleaning robot 22 to perform object learning on the object imaged in the moving image by machine learning using a neural network. Type and the position of the subject in the image. In other words, the object detection AI unit 171 determines whether a subject is a person from a moving image captured by the cleaning robot 22 that is a moving body by a machine learning using a neural network. Whether the object is other than a person is detected, and the position of the subject in the moving image is detected.

ステップS52において、危険度測定部161の画像処理部172は、画像処理により、撮像データ、被写体の種類および画像中の被写体の位置から、清掃ロボット22から被写体までの距離や被写体の移動速度など被写体の属性を求める。すなわち、画像処理部172は、画像処理により、動画像および動画像における被写体の位置から、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を求める。また、画像処理部172は、画像処理により、ステップS51において被写体が人であると検知された場合、清掃ロボット22に対する被写体の向きまたは清掃ロボット22に対する被写体の顔の向きを求める。   In step S52, the image processing unit 172 of the risk measurement unit 161 performs subject processing such as imaging data, the type of subject, the position of the subject in the image, the distance from the cleaning robot 22 to the subject, and the subject's moving speed by image processing. Find the attributes of. That is, the image processing unit 172 obtains the distance from the cleaning robot 22 to the subject and the speed of the subject relative to the cleaning robot 22 from the moving image and the position of the subject in the moving image by image processing. When the image processing unit 172 detects that the subject is a person in step S <b> 51 by image processing, the image processing unit 172 obtains the orientation of the subject with respect to the cleaning robot 22 or the orientation of the face of the subject with respect to the cleaning robot 22.

ステップS53において、危険度測定部161の危険度測定AI部173は、撮像データ、被写体の種類、画像中の被写体の位置および被写体の属性から、危険度を測定する。例えば、危険度測定AI部173は、撮像データ、被写体の種類、画像中の被写体の位置および被写体の属性から、動画像のシーンの危険の程度である危険度を測定する。また、例えば、危険度測定AI部173は、撮像データ、被写体の種類、画像中の被写体の位置および被写体の属性から、清掃ロボット22と被写体との接触の危険の程度である危険度を測定する。ここで、例えば、危険度は、0%乃至100%の範囲で表される。0%である危険度は、清掃ロボット22と被写体との接触の危険がないことを示す。100%である危険度は、清掃ロボット22と被写体との接触の可能性が極めて大きいことを示す。例えば、危険度は、清掃ロボット22が階段などの段差から転落する危険の程度を示す。また、例えば、危険度は、ロボット22の近くの扉が開いて、扉の陰にいる人が扉と接触する危険の程度を示す。さらに例えば、危険度は、ロボット22が床面に落とされた物(落下物)を清掃で巻き込んでしまう危険の程度を示す。   In step S53, the risk measurement AI unit 173 of the risk measurement unit 161 measures the risk from the imaging data, the type of the subject, the position of the subject in the image, and the attribute of the subject. For example, the risk level measurement AI unit 173 measures a risk level that is the degree of danger of a moving image scene from the imaging data, the type of the subject, the position of the subject in the image, and the attribute of the subject. Also, for example, the risk measurement AI unit 173 measures the risk that is the degree of danger of contact between the cleaning robot 22 and the subject from the imaging data, the type of the subject, the position of the subject in the image, and the attribute of the subject. . Here, for example, the degree of risk is expressed in a range of 0% to 100%. A risk level of 0% indicates that there is no risk of contact between the cleaning robot 22 and the subject. A risk level of 100% indicates that the possibility of contact between the cleaning robot 22 and the subject is extremely high. For example, the degree of danger indicates the degree of danger that the cleaning robot 22 falls from a step such as a staircase. Further, for example, the degree of danger indicates a degree of danger that a door near the robot 22 opens and a person behind the door comes into contact with the door. Further, for example, the degree of danger indicates a degree of danger that the robot 22 may involve an object (falling object) dropped on the floor surface by cleaning.

言い換えると、危険度測定AI部173は、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、ニューラルネットワークを用いた機械学習によって、動画像のシーンの危険の程度を測定する。危険度測定AI部173は、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、ニューラルネットワークを用いた機械学習によって、清掃ロボット22と被写体との接触の危険の程度および動画像のシーンの危険の程度を測定する。   In other words, the risk measurement AI unit 173 detects the moving image, the position of the subject in the moving image, the distance from the cleaning robot 22 to the subject, and the cleaning result as a result of detecting whether the subject is a person or something other than a person. From the speed of the subject with respect to the robot 22, the degree of danger of the moving image scene is measured by machine learning using a neural network. The risk measurement AI unit 173 detects the moving image, the position of the subject in the moving image, the distance from the cleaning robot 22 to the subject, and the cleaning robot 22 as a result of detecting whether the subject is a person or something other than a person. From the subject speed, the degree of danger of contact between the cleaning robot 22 and the subject and the degree of danger of the moving image scene are measured by machine learning using a neural network.

ステップS54において、危険度測定部161の描画部174は、撮像データに、被写体の位置を示す枠、被写体の種類、被写体の属性、測定の結果である危険度および危険度に応じた制御信号を示す画像または文字を描画するデータを書き込み、危険度の測定の処理は終了する。すなわち、ステップS54において描画部174は、動画像に、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離、清掃ロボット22に対する被写体の速度または清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を描画する。   In step S54, the drawing unit 174 of the risk level measurement unit 161 adds a frame indicating the position of the subject, the type of the subject, the attribute of the subject, the risk level as a result of the measurement, and a control signal corresponding to the risk level to the imaging data. Data for drawing the image or character to be written is written, and the process of measuring the degree of risk ends. That is, in step S54, the drawing unit 174 detects the position of the subject in the moving image, the distance from the cleaning robot 22 to the subject, the cleaning, as a result of detecting whether the subject is a person or something other than a person. Characters or images indicating the speed of the subject with respect to the robot 22 or the degree of danger of contact between the cleaning robot 22 and the subject are drawn.

図9に戻り、ステップS223において、AIサーバ21は、タッチパネルモニタ25に、危険度の測定の結果が書き込まれた撮像データで動画像を表示させる。   Returning to FIG. 9, in step S <b> 223, the AI server 21 causes the touch panel monitor 25 to display a moving image with the imaging data in which the result of the risk degree measurement is written.

図12は、タッチパネルモニタ25に表示される動画像の例を示す図である。タッチパネルモニタ25は、動画像と、被写体が人であるかまたは人以外の物であるかが検知された被写体の位置を示す枠201、被写体の種類および被写体の種類の正しさの確率を示す「Person:0.89」などの種類表示202、清掃ロボット22から被写体までの距離をcm単位で示す「70」などの距離表示203を表示させる。また、タッチパネルモニタ25は、画面の右上に、清掃ロボット22の状態を示す画像であるステータスモニタ204を表示させる。ステータスモニタ204には、「ROBOT1」などの清掃ロボット22の名称、「East Bldg 1F」などの清掃ロボット22の現在位置、「Degree of Risk 20%」などの動画像のシーンの危険の程度が文字で表示される。また、ステータスモニタ204には、清掃ロボット22が通常の走行状態であることを示すランプ表示211、清掃ロボット22が減速していることを示すランプ表示212、および清掃ロボット22が停止していることを示すランプ表示213が配置されている。ランプ表示211、ランプ表示212およびランプ表示213は、交通信号を模した画像であり、いずれか1つがアクティブ(輝度が高くなる)になるように表示される画像である。例えば、ランプ表示211、ランプ表示212およびランプ表示213は、それぞれ、緑色、黄色、赤色のそれぞれに表示される。   FIG. 12 is a diagram illustrating an example of a moving image displayed on the touch panel monitor 25. The touch panel monitor 25 indicates a moving image, a frame 201 indicating the position of the subject where it is detected whether the subject is a person or something other than a person, the type of subject, and the probability of the correctness of the type of subject. A type display 202 such as “Person: 0.89” and a distance display 203 such as “70” indicating the distance from the cleaning robot 22 to the subject in cm are displayed. Further, the touch panel monitor 25 displays a status monitor 204 that is an image indicating the state of the cleaning robot 22 on the upper right of the screen. The status monitor 204 indicates the name of the cleaning robot 22 such as “ROBOT1”, the current position of the cleaning robot 22 such as “East Bldg 1F”, and the degree of danger of the moving image scene such as “Degree of Risk 20%”. Is displayed. The status monitor 204 also includes a lamp display 211 indicating that the cleaning robot 22 is in a normal traveling state, a lamp display 212 indicating that the cleaning robot 22 is decelerating, and the cleaning robot 22 being stopped. Is displayed. The lamp display 211, the lamp display 212, and the lamp display 213 are images that simulate traffic signals, and are images that are displayed so that any one of them becomes active (the luminance increases). For example, the lamp display 211, the lamp display 212, and the lamp display 213 are displayed in green, yellow, and red, respectively.

例えば、図12に示されるように、ランプ表示211がアクティブに表示され、ランプ表示212およびランプ表示213が非アクティブ(輝度が低くなる)に表示されている場合、ランプ表示211、ランプ表示212およびランプ表示213は、清掃ロボット22が通常の走行状態であることを示す。   For example, as shown in FIG. 12, when the lamp display 211 is displayed actively and the lamp display 212 and the lamp display 213 are displayed inactive (the brightness is reduced), the lamp display 211, the lamp display 212, and The lamp display 213 indicates that the cleaning robot 22 is in a normal traveling state.

タッチパネルモニタ25は、画面の左下に、「Stop」と表示され、停止を指示するためのボタン205および「Attention」と表示され、「注意してください。ロボットが通ります。」などの音声の出力を指示するためのボタン206を表示させる。さらに、タッチパネルモニタ25は、画面の右下に、距離等表示207に「停止:0%:70cm」などと表示する。   On the touch panel monitor 25, “Stop” is displayed at the lower left of the screen, a button 205 for instructing the stop and “Attention” are displayed, and an audio output such as “Please note. The robot passes.” A button 206 for instructing is displayed. Further, the touch panel monitor 25 displays “stop: 0%: 70 cm” or the like on the distance display 207 at the lower right of the screen.

図9に戻り、ステップS224において、判定部166は、ステップS53において測定された危険度が40%以上60%未満であるか否かを判定する。例えば、ステップS224において、判定部166は、動画像のシーンの危険度が40%以上60%未満であるか否かを判定する。ステップS224において、危険度が40%以上60%未満であると判定された場合、手続きはステップS225に進み、指令部167は、減速を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、減速を指示する制御信号を清掃ロボット22宛に送信させる。また、この場合、指令部167は、スピーカである出力部127に、所定のビープ音などの音を出力させて、減速したことを監視者に知らせる。   Returning to FIG. 9, in step S224, the determination unit 166 determines whether the degree of risk measured in step S53 is 40% or more and less than 60%. For example, in step S224, the determination unit 166 determines whether or not the risk level of the moving image scene is 40% or more and less than 60%. If it is determined in step S224 that the degree of risk is 40% or more and less than 60%, the procedure proceeds to step S225, and the command unit 167 transmits a control signal instructing deceleration to the cleaning robot 22. In this case, the transmission control unit 175 of the communication control unit 168 causes the communication unit 129 to transmit a control signal instructing deceleration to the cleaning robot 22. Further, in this case, the command unit 167 causes the output unit 127, which is a speaker, to output a sound such as a predetermined beep sound to inform the supervisor that the vehicle has decelerated.

ステップS224において、危険度が40%以上60%未満でないと判定された場合、手続きはステップS226に進み、判定部166は、ステップS53において測定された危険度が60%以上であるか否かを判定する。例えば、ステップS226において、判定部166は、動画像のシーンの危険度が60%以上であるか否かを判定する。ステップS226において、危険度が60%以上であると判定された場合、手続きはステップS227に進み、指令部167は、停止を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、停止を指示する制御信号を清掃ロボット22宛に送信させる。   If it is determined in step S224 that the degree of risk is not 40% or more and less than 60%, the procedure proceeds to step S226, and the determination unit 166 determines whether or not the degree of risk measured in step S53 is 60% or more. judge. For example, in step S226, the determination unit 166 determines whether or not the risk level of the moving image scene is 60% or more. If it is determined in step S226 that the degree of risk is 60% or more, the procedure proceeds to step S227, and the command unit 167 transmits a control signal instructing the stop to the cleaning robot 22. In this case, the transmission control unit 175 of the communication control unit 168 causes the communication unit 129 to transmit a control signal for instructing the stop to the cleaning robot 22.

この場合、例えば、図13に示されるように、AIサーバ21は、タッチパネルモニタ25に、ボタン205およびランプ表示213をアクティブに表示させ、ランプ表示211およびランプ表示212を非アクティブに表示させることで、清掃ロボット22が停止していることを表示する。また、AIサーバ21は、タッチパネルモニタ25に、動画像の周囲を、アクティブに表示されるボタン205およびランプ表示213の赤色と同じ赤色で表示させる。   In this case, for example, as shown in FIG. 13, the AI server 21 causes the touch panel monitor 25 to display the button 205 and the lamp display 213 in an active manner and to display the lamp display 211 and the lamp display 212 in an inactive state. The cleaning robot 22 is stopped. Also, the AI server 21 causes the touch panel monitor 25 to display the periphery of the moving image in the same red color as that of the button 205 and the lamp display 213 that are actively displayed.

さらに、AIサーバ21は、タッチパネルモニタ25に、「AUTO:STOP」および「Please TOUCH the monitor to release the robot if AI Server is mistaking」などのメッセージ231を表示させる。   Further, the AI server 21 causes the touch panel monitor 25 to display a message 231 such as “AUTO: STOP” and “Please TOUCH the monitor to release the robot if AI Server is mistaking”.

ステップS228において、判定部166は、ステップS51における、被写体が人であるかまたは人以外の物であるかの検知の結果から、被写体が人であるか否かを判定する。ステップS228において、被写体が人であると判定された場合、手続きはステップS229に進み、指令部167は、音声の出力を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、音声の出力を指示する制御信号を清掃ロボット22宛に送信させる。清掃ロボット22が音声の出力を指示する制御信号を受信すると、清掃ロボット22の音声出力制御部87は、記憶部75から音声データを読み出して、読み出した音声データによりスピーカ71に「注意してください。ロボットが通ります。」などの音声を出力させる。   In step S228, the determination unit 166 determines whether or not the subject is a person based on the result of detection of whether the subject is a person or something other than a person in step S51. If it is determined in step S228 that the subject is a person, the procedure proceeds to step S229, and the command unit 167 transmits a control signal instructing output of sound to the cleaning robot 22. In this case, the transmission control unit 175 of the communication control unit 168 causes the communication unit 129 to transmit a control signal for instructing output of audio to the cleaning robot 22. When the cleaning robot 22 receives a control signal for instructing voice output, the voice output control unit 87 of the cleaning robot 22 reads the voice data from the storage unit 75, and “cautions the speaker 71 with the read voice data. "The robot passes."

なお、減速した場合、「注意してください。ロボットが通ります。」などの音声を出力させるようにしてもよい。この場合、例えば、図14に示されるように、AIサーバ21は、タッチパネルモニタ25に、ボタン206およびランプ表示212をアクティブに表示させ、ランプ表示211およびランプ表示213を非アクティブに表示させることで、清掃ロボット22が減速していることを表示する。また、AIサーバ21は、タッチパネルモニタ25に、動画像の周囲を、アクティブに表示されるボタン206およびランプ表示212の黄色と同じ黄色で表示させる。   When the vehicle decelerates, a sound such as “Please be careful. The robot passes” may be output. In this case, for example, as illustrated in FIG. 14, the AI server 21 causes the touch panel monitor 25 to actively display the button 206 and the lamp display 212 and to display the lamp display 211 and the lamp display 213 inactive. , It displays that the cleaning robot 22 is decelerating. In addition, the AI server 21 causes the touch panel monitor 25 to display the periphery of the moving image in the same yellow as the yellow of the button 206 and the lamp display 212 that are actively displayed.

さらに、AIサーバ21は、タッチパネルモニタ25に、「AUTO: Attention please. The robot will pass.」および「Please TOUCH the monitor to release the robot if AI Server is mistaking」などのメッセージ231を表示させる。   Furthermore, the AI server 21 causes the touch panel monitor 25 to display a message 231 such as “AUTO: Attention please. The robot will pass.” And “Please TOUCH the monitor to release the robot if AI Server is mistaking”.

なお、監視者がタッチパネルモニタ25に表示されているボタン206をタッチすることで、清掃ロボット22を減速させて、「注意してください。ロボットが通ります。」などの音声を出力させることもできる。この場合、例えば、図15に示されるように、AIサーバ21は、タッチパネルモニタ25に、ボタン206およびランプ表示212をアクティブに表示させ、ランプ表示211およびランプ表示213を非アクティブに表示させることで、清掃ロボット22が減速していることを表示する。また、AIサーバ21は、タッチパネルモニタ25に、動画像の周囲を、アクティブに表示されるボタン206およびランプ表示212の黄色と同じ黄色で表示させる。   In addition, when the supervisor touches the button 206 displayed on the touch panel monitor 25, the cleaning robot 22 can be decelerated and a sound such as “Please be careful. The robot passes” can be output. . In this case, for example, as shown in FIG. 15, the AI server 21 displays the button 206 and the lamp display 212 on the touch panel monitor 25 in an active manner, and displays the lamp display 211 and the lamp display 213 in an inactive state. , It displays that the cleaning robot 22 is decelerating. In addition, the AI server 21 causes the touch panel monitor 25 to display the periphery of the moving image in the same yellow as the yellow of the button 206 and the lamp display 212 that are actively displayed.

また、AIサーバ21は、タッチパネルモニタ25に、「「MANUAL: Attention please. The robot will pass.」などのメッセージ231を表示させる。   Also, the AI server 21 displays a message 231 such as ““ MANUAL: Attention please. The robot will pass ”on the touch panel monitor 25.

ステップS230において、判定部166は、音声の出力が3回繰り返されたか否かを判定し、音声の出力が3回繰り返されたと判定された場合、清掃ロボット22に制御を戻して清掃ロボット22に人を回避させるために、手続きはステップS231に進み、指令部167は、加速を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、加速を指示する制御信号を清掃ロボット22宛に送信させる。   In step S230, the determination unit 166 determines whether or not the sound output has been repeated three times, and when it is determined that the sound output has been repeated three times, the control is returned to the cleaning robot 22 and the cleaning robot 22 is returned. In order to avoid a person, the procedure proceeds to step S231, and the command unit 167 transmits a control signal instructing acceleration to the cleaning robot 22. In this case, the transmission control unit 175 of the communication control unit 168 causes the communication unit 129 to transmit a control signal instructing acceleration to the cleaning robot 22.

ステップS231の後、ステップS230において、音声の出力が3回繰り返されていないと判定された場合、または、ステップS225の後、AIサーバ21による清掃ロボット22の走行制御の処理は、ステップS121およびステップS221に戻り、上述した手続きが繰り返される。   After step S231, if it is determined in step S230 that the sound output has not been repeated three times, or after step S225, the process of running control of the cleaning robot 22 by the AI server 21 is performed in step S121 and step S231. Returning to S221, the above-described procedure is repeated.

清掃システム11においては、監視者は、ステップS223の手続きでタッチパネルモニタ25に表示されている画像を見て、清掃ロボット22の走行を監視し、動画像のシーンとして現在の状況全体に危険を感じた場合、または、被写体との接触などの危険を感じた場合、タッチパネルモニタ25の画面、すなわちタッチパネルを触ることで、清掃ロボット22の停止または減速を指示する。   In the cleaning system 11, the monitor looks at the image displayed on the touch panel monitor 25 in the procedure of step S 223, monitors the running of the cleaning robot 22, and feels danger in the current situation as a moving image scene. In case of touching the screen of the touch panel monitor 25, that is, the touch panel, the stop or deceleration of the cleaning robot 22 is instructed.

図16のフローチャートを参照して、監視者からの指示に応じた処理を説明する。ステップS81において、入力制御部169は、タッチパネルモニタ25のタッチパネルから送信されてくる信号を取得することで、ボタン205にタッチする、ボタン206にタッチするまたは画面のいずれかの位置にタッチするなどの、監視者のタッチパネルモニタ25のタッチパネルへの操作による指示を取得する。   With reference to the flowchart of FIG. 16, the process according to the instruction | indication from a supervisor is demonstrated. In step S81, the input control unit 169 obtains a signal transmitted from the touch panel of the touch panel monitor 25, thereby touching the button 205, touching the button 206, touching any position on the screen, or the like. The instruction by the operation of the monitor on the touch panel of the touch panel monitor 25 is acquired.

ステップS82において、判定部166は、非アクティブ状態のボタン205がタッチされるか、または画面のいずれかの位置がタッチされて、監視者から停止が指示されたか否かを判定する。ステップS82において、監視者から停止が指示されたと判定された場合、手続きはステップS83に進み、指令部167は、停止を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、停止を指示する制御信号を清掃ロボット22宛に送信させる。   In step S <b> 82, the determination unit 166 determines whether or not the inactive state button 205 has been touched or any position on the screen has been touched to stop the monitor. If it is determined in step S82 that a stop has been instructed by the supervisor, the procedure proceeds to step S83, and the command unit 167 transmits a control signal instructing the stop to the cleaning robot 22. In this case, the transmission control unit 175 of the communication control unit 168 causes the communication unit 129 to transmit a control signal for instructing the stop to the cleaning robot 22.

この場合、例えば、図17に示されるように、AIサーバ21は、タッチパネルモニタ25に、ボタン205およびランプ表示213をアクティブに表示させ、ランプ表示211およびランプ表示212を非アクティブに表示させることで、清掃ロボット22が停止していることを表示する。また、AIサーバ21は、タッチパネルモニタ25に、動画像の周囲を、アクティブに表示されるボタン205およびランプ表示213の赤色と同じ赤色で表示させる。   In this case, for example, as shown in FIG. 17, the AI server 21 causes the touch panel monitor 25 to display the button 205 and the lamp display 213 in an active manner and to display the lamp display 211 and the lamp display 212 in an inactive state. The cleaning robot 22 is stopped. Also, the AI server 21 causes the touch panel monitor 25 to display the periphery of the moving image in the same red color as that of the button 205 and the lamp display 213 that are actively displayed.

さらに、AIサーバ21は、タッチパネルモニタ25に、「MANUAL:STOP」などのメッセージ231を表示させる。   Further, the AI server 21 displays a message 231 such as “MANUAL: STOP” on the touch panel monitor 25.

なお、動画像のシーンにおいて、複数の人や複数の物である被写体が写っている場合には、被写体毎に、被写体の種類と画像中の被写体の位置とが検知され、被写体毎に、清掃ロボット22から被写体までの距離や被写体の移動速度など被写体の属性が求められ、動画像のシーンの危険の程度である危険度が測定される。   In addition, when a plurality of people or a plurality of objects are captured in a moving image scene, the type of the subject and the position of the subject in the image are detected for each subject, and cleaning is performed for each subject. The attributes of the subject such as the distance from the robot 22 to the subject and the moving speed of the subject are obtained, and the degree of danger that is the degree of danger of the moving image scene is measured.

図18は、動画像に複数の人や複数の物である被写体が写っている場合のタッチパネルモニタ25に表示される動画像の例を示す図である。なお、図17と同様の部分には同一の符号を付してあり、その説明は省略する。   FIG. 18 is a diagram illustrating an example of a moving image displayed on the touch panel monitor 25 in the case where a plurality of people and a plurality of objects are captured in the moving image. In addition, the same code | symbol is attached | subjected to the part similar to FIG. 17, and the description is abbreviate | omitted.

図18に示される例において、タッチパネルモニタ25は、動画像と、被写体が人であるかまたは人以外の物であるかが検知された被写体の位置を示す枠201−1乃至201−5、被写体の種類および被写体の種類の正しさの確率を示す種類表示202−1乃至202−5、清掃ロボット22から被写体までの距離をcm単位で示す距離表示203−1乃至203−5を表示させる。例えば、タッチパネルモニタ25には、人であることが検知された被写体の位置を示す枠201−1、枠201−1で示される位置の被写体の種類が人であり、被写体の種類が人であることの正しさの確率を示す「Person:0.89」である種類表示202−1、清掃ロボット22から枠201−1で示される位置の人である被写体までの距離をcm単位で示す「260」などの距離表示203−1が表示される。また、例えば、タッチパネルモニタ25には、人であることが検知された被写体の位置を示す枠201−2、枠201−2で示される位置の被写体の種類が人であり、被写体の種類が人であることの正しさの確率を示す「Person:0.93」である種類表示202−2、清掃ロボット22から枠201−2で示される位置の人である被写体までの距離をcm単位で示す「270」などの距離表示203−2が表示される。   In the example shown in FIG. 18, the touch panel monitor 25 includes a moving image and frames 201-1 to 201-5 indicating the positions of the subjects where the subject is detected to be a person or something other than a person, Type display 202-1 to 202-5 indicating the probability of the correctness of the type and the type of subject, and distance displays 203-1 to 203-5 indicating the distance from the cleaning robot 22 to the subject in cm. For example, in the touch panel monitor 25, a frame 201-1 indicating the position of a subject detected as a person, the type of the subject at the position indicated by the frame 201-1 is a person, and the type of the subject is a person. "Person: 0.89" indicating the probability of correctness, type display 202-1, "260" indicating the distance from the cleaning robot 22 to the subject at the position indicated by the frame 201-1 in cm The distance display 203-1 is displayed. Further, for example, on the touch panel monitor 25, a frame 201-2 indicating the position of a subject detected as a person, the type of the subject at the position indicated by the frame 201-2 is a person, and the type of the subject is a person. “Person: 0.93” indicating the probability of being correct, “270” indicating the distance from the cleaning robot 22 to the subject at the position indicated by the frame 201-2 in cm. ”Or the like is displayed.

さらに、例えば、タッチパネルモニタ25には、ごみ入れであることが検知された被写体の位置を示す枠201−3、枠201−3で示される位置の被写体の種類がごみ入れであり、被写体の種類がごみ入れであることの正しさの確率を示す「Bin:0.82」である種類表示202−3、清掃ロボット22から枠201−3で示される位置のごみ入れである被写体までの距離をcm単位で示す「180」などの距離表示203−3が表示される。さらにまた、例えば、タッチパネルモニタ25には、扉であることが検知された被写体の位置を示す枠201−4、枠201−4で示される位置の被写体の種類が扉であり、被写体の種類が扉であることの正しさの確率を示す「Door:0.79」である種類表示202−4、清掃ロボット22から枠201−4で示される位置の扉である被写体までの距離をcm単位で示す「320」などの距離表示203−4が表示される。   Further, for example, in the touch panel monitor 25, a frame 201-3 indicating the position of the subject that is detected to be a trash can, and the type of the subject at the position indicated by the frame 201-3 is the trash can. The type display 202-3 “Bin: 0.82” indicating the probability of the correctness of being a waste bin, and the distance from the cleaning robot 22 to the subject that is the waste bin at the position indicated by the frame 201-3 in cm A distance display 203-3 such as “180” shown in FIG. Furthermore, for example, in the touch panel monitor 25, the frame 201-4 indicating the position of the subject detected as the door, the type of the subject at the position indicated by the frame 201-4 is the door, and the type of the subject is A type display 202-4 “Door: 0.79” indicating the probability of the correctness of being a door, and a distance from the cleaning robot 22 to a subject at the position indicated by the frame 201-4 in cm. A distance display 203-4 such as “320” is displayed.

また、例えば、タッチパネルモニタ25には、照明であることが検知された被写体の位置を示す枠201−5、枠201−5で示される位置の被写体の種類が照明であり、被写体の種類が照明であることの正しさの確率を示す「Light:0.69」である種類表示202−5、清掃ロボット22から枠201−5で示される位置の照明である被写体までの距離をcm単位で示す「300」などの距離表示203−5が表示される。   Further, for example, in the touch panel monitor 25, the frame 201-5 indicating the position of the subject detected to be illumination, the subject type at the position indicated by the frame 201-5 is illumination, and the subject type is illumination. "Light: 0.69" indicating the probability of correctness, and "300: 300" indicating the distance from the cleaning robot 22 to the subject that is the illumination at the position indicated by the frame 201-5. ”Or the like is displayed.

ステータスモニタ204には、「ROBOT1」などの清掃ロボット22の名称、「East Bldg 1F」などの清掃ロボット22の現在位置、「Degree of Risk 87%」などの動画像のシーンの危険の程度が文字で表示される。   The status monitor 204 indicates the name of the cleaning robot 22 such as “ROBOT1”, the current position of the cleaning robot 22 such as “East Bldg 1F”, and the degree of danger of the moving image scene such as “Degree of Risk 87%”. Is displayed.

図18に示されるように、動画像に複数の人や複数の物である被写体が写っている場合、動画像のシーンの危険の程度に影響の大きい被写体の枠201が、太線や二重線とされるか、または赤色にされるなど強調表示される。すなわち、描画部174は、動画像のシーンの危険の程度に影響の大きい被写体の枠201を強調表示して、動画像に描画する。   As shown in FIG. 18, when a moving image includes a plurality of people or a plurality of objects, a subject frame 201 having a large influence on the degree of danger of the moving image scene is indicated by a thick line or a double line. Or highlighted, such as red. That is, the drawing unit 174 highlights the subject frame 201 that greatly affects the degree of danger of the moving image scene, and draws it on the moving image.

例えば、動画像に複数の人や複数の物である被写体が写っている場合、動画像のシーンの被写体のうち、危険の程度が最も高い被写体の位置を示す枠201が強調表示される。すなわち、例えば、動画像に複数の人や複数の物である被写体が写っている場合、清掃ロボット22との接触の危険の程度が最も高い被写体(携帯電話機を見ながら歩いている人)の位置を示す枠201−1が強調表示される。   For example, when a subject that is a plurality of people or a plurality of objects is captured in the moving image, a frame 201 indicating the position of the subject having the highest degree of danger among the subjects of the moving image scene is highlighted. That is, for example, when a moving image includes a plurality of people or a plurality of objects, the position of a subject (person walking while looking at a mobile phone) having the highest risk of contact with the cleaning robot 22 Is highlighted.

また、例えば、動画像に複数の人や複数の物である被写体が写っている場合、動画像のシーンの被写体のうち、危険の程度が高い順に所定の数の被写体の位置を示す枠201が強調表示される。すなわち、例えば、動画像に複数の人や複数の物である被写体が写っている場合、清掃ロボット22との接触の危険の程度が最も高い被写体(携帯電話機を見ながら歩いている人)の位置を示す枠201−1と清掃ロボット22との接触の危険の程度が2番目高い被写体(近くにあるごみ入れ)の位置を示す枠201−2とが強調表示される。   In addition, for example, when a moving image includes a plurality of people or a plurality of objects, a frame 201 indicating the positions of a predetermined number of subjects in descending order of the degree of danger among the subjects of the moving image scene. Highlighted. That is, for example, when a moving image includes a plurality of people or a plurality of objects, the position of a subject (person walking while looking at a mobile phone) having the highest risk of contact with the cleaning robot 22 A frame 201-2 indicating the position of the subject (the nearby garbage can) having the second highest risk of contact with the cleaning robot 22 is highlighted.

すなわち、動画像に複数の人や複数の物である被写体が写っている場合、動画像のシーンのうちの、危険状態にある被写体の枠201が、太線や二重線とされるか、または赤色にされるなど強調表示される。   That is, when a moving image includes a plurality of people or a plurality of objects, the frame 201 of the subject in a dangerous state in the moving image scene is a thick line or a double line, or It is highlighted such as red.

このようにすることで、タッチパネルモニタ25−1および25−2に表示されている動画像を監視している監視者は、動画像に写っている複数の被写体のうち、どの被写体が危険であるかを即座に認識することができる。   By doing in this way, the subject who is monitoring the moving images displayed on the touch panel monitors 25-1 and 25-2, which subject is dangerous among the plurality of subjects reflected in the moving image. Can be recognized immediately.

図16に戻り、ステップS84において、学習データ記録制御部164は、停止が指示された時点の前の5秒間および後の5秒間の動画像の撮像データを記録部128に記録させる。すなわち、学習データ記録制御部164は、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録部128に記録させる。このとき、学習データ記録制御部164は、停止が指示されたことを示すデータを、停止が指示された時点を基準に前の5秒間および後の5秒間の動画像の撮像データに関連付けて記録部128に記録させる。ステップS85において、学習スケジューラ165は、追加学習を予約する。すなわち、学習スケジューラ165は、記録部128に記録された動画像の撮像データによる危険度測定部161の学習の実行を予約する。   Returning to FIG. 16, in step S <b> 84, the learning data recording control unit 164 causes the recording unit 128 to record moving image imaging data for 5 seconds before and 5 seconds before the time when the stop is instructed. That is, when a stop is instructed by the supervisor, the learning data recording control unit 164 causes the recording unit 128 to record a moving image of a predetermined length including the time when the stop is instructed. At this time, the learning data recording control unit 164 records data indicating that the stop has been instructed in association with moving image data of the previous 5 seconds and the subsequent 5 seconds with reference to the time when the stop is instructed. Recorded in the unit 128. In step S85, the learning scheduler 165 reserves additional learning. That is, the learning scheduler 165 reserves execution of learning by the risk degree measurement unit 161 using moving image captured data recorded in the recording unit 128.

ステップS82において、監視者から停止が指示されていないと判定された場合、手続きはステップS86に進み、判定部166は、非アクティブ状態のボタン206がタッチされて、監視者から減速が指示されたか否かを判定する。ステップS86において、監視者から減速が指示されたと判定された場合、手続きはステップS87に進み、指令部167は、減速を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、減速を指示する制御信号を清掃ロボット22宛に送信させる。   If it is determined in step S82 that the monitoring has not been instructed to stop, the procedure proceeds to step S86, and the determination unit 166 has touched the inactive button 206 to determine whether the monitoring has instructed deceleration. Determine whether or not. If it is determined in step S86 that deceleration has been instructed by the supervisor, the procedure proceeds to step S87, and the command unit 167 transmits a control signal instructing deceleration to the cleaning robot 22. In this case, the transmission control unit 175 of the communication control unit 168 causes the communication unit 129 to transmit a control signal instructing deceleration to the cleaning robot 22.

ステップS88において、学習データ記録制御部164は、減速が指示された時点の前の5秒間および後の5秒間の動画像の撮像データを記録部128に記録させる。すなわち、学習データ記録制御部164は、監視者から減速が指示された場合、減速が指示された時を含む所定の長さの時間の動画像を記録部128に記録させる。このとき、学習データ記録制御部164は、減速が指示されたことを示すデータを、減速が指示された時点を基準に前の5秒間および後の5秒間の動画像の撮像データに関連付けて記録部128に記録させる。ステップS89において、学習スケジューラ165は、追加学習を予約する。すなわち、学習スケジューラ165は、記録部128に記録された動画像の撮像データによる危険度測定部161の学習の実行を予約する。   In step S <b> 88, the learning data recording control unit 164 causes the recording unit 128 to record moving image imaging data for 5 seconds before and 5 seconds before the point in time when deceleration is instructed. That is, the learning data recording control unit 164 causes the recording unit 128 to record a moving image of a predetermined length including the time when the deceleration is instructed when the monitoring is instructed to decelerate. At this time, the learning data recording control unit 164 records data indicating that deceleration has been instructed in association with moving image imaging data for the previous 5 seconds and the subsequent 5 seconds with reference to the point in time when the deceleration is instructed. Recorded in the unit 128. In step S89, the learning scheduler 165 reserves additional learning. That is, the learning scheduler 165 reserves execution of learning by the risk degree measurement unit 161 using moving image captured data recorded in the recording unit 128.

ステップS86において、監視者から減速が指示されていないと判定された場合、手続きはステップS90に進み、アクティブ状態のボタン205またはアクティブ状態のボタン206がタッチされて、監視者から加速が指示されたか否かを判定する。ステップS90において、監視者から加速が指示されたと判定された場合、手続きはステップS91に進み、指令部167は、加速を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、加速を指示する制御信号を清掃ロボット22宛に送信させる。   If it is determined in step S86 that deceleration is not instructed by the supervisor, the procedure proceeds to step S90, where the active button 205 or the active button 206 is touched and acceleration is instructed by the supervisor. Determine whether or not. If it is determined in step S90 that acceleration has been instructed by the supervisor, the procedure proceeds to step S91, and the command unit 167 transmits a control signal instructing acceleration to the cleaning robot 22. In this case, the transmission control unit 175 of the communication control unit 168 causes the communication unit 129 to transmit a control signal instructing acceleration to the cleaning robot 22.

例えば、図13に示されるように、AIサーバ21が、タッチパネルモニタ25に、ボタン205およびランプ表示213をアクティブに表示させ、ランプ表示211およびランプ表示212を非アクティブに表示させることで、清掃ロボット22が停止していることを表示し、「AUTO:STOP」および「Please TOUCH the monitor to release the robot if AI Server is mistaking」などのメッセージ231を表示させている場合、監視者が、タッチパネルモニタ25に表示されている動画像を見て、ポスターに示されている人の画像を人であると危険度測定部161が誤認したと判断したとき、監視者は、アクティブに表示されているボタン205をタッチすることで、清掃ロボット22の加速を指示する。   For example, as shown in FIG. 13, the AI server 21 causes the touch panel monitor 25 to display the button 205 and the lamp display 213 in an active manner, and to display the lamp display 211 and the lamp display 212 in an inactive state, thereby cleaning the robot. When the message 221, such as “AUTO: STOP” and “Please TOUCH the monitor to release the robot if AI Server is mistaking”, is displayed, the monitor touches the touch panel monitor 25. When the risk measuring unit 161 determines that the person image shown in the poster is a person by looking at the moving image displayed on the poster, the monitor 205 displays the button 205 displayed actively. Is touched to instruct acceleration of the cleaning robot 22.

ステップS85、ステップS89またはステップS91の後、手続きはステップS81に戻り、監視者からの指示に応じた処理が繰り返される。   After step S85, step S89 or step S91, the procedure returns to step S81, and the process according to the instruction from the supervisor is repeated.

図19は、終了の処理を説明するフローチャートである。ステップS181において、指示部86の判定部93は、清掃動作制御部61から清掃作業の状態を示すステータス情報を取得して、清掃ロボット22の清掃の作業が終了したか否かを判定する。ステップS181において、清掃の作業が終了していないと判定された場合、判定の処理が繰り返される。   FIG. 19 is a flowchart for explaining the termination process. In step S181, the determination unit 93 of the instruction unit 86 acquires status information indicating the state of the cleaning operation from the cleaning operation control unit 61, and determines whether the cleaning operation of the cleaning robot 22 has been completed. If it is determined in step S181 that the cleaning operation has not been completed, the determination process is repeated.

ステップS181において、清掃の作業が終了したと判定された場合、手続きはステップS182に進み、指示部86は、AIサーバ21に作業の終了を通知する。すなわち、通信制御部83の送信制御部91は、指示部86からの指示により、通信部74に、AIサーバ21宛に作業の終了の通知を送信させる。   If it is determined in step S181 that the cleaning work has been completed, the procedure proceeds to step S182, and the instruction unit 86 notifies the AI server 21 of the completion of the work. That is, the transmission control unit 91 of the communication control unit 83 causes the communication unit 74 to transmit a work end notification to the AI server 21 in accordance with an instruction from the instruction unit 86.

ステップS281において、通信制御部168の受信制御部176は、通信部129に、清掃ロボット22からの作業の終了の通知を受信させる。ステップS282において、通信制御部168の受信制御部176は、通信部129に、ストリーミングデータである撮像データの受信を停止させる。   In step S <b> 281, the reception control unit 176 of the communication control unit 168 causes the communication unit 129 to receive a work end notification from the cleaning robot 22. In step S282, the reception control unit 176 of the communication control unit 168 causes the communication unit 129 to stop receiving imaging data that is streaming data.

ステップS183において、通信制御部83の送信制御部91は、ストリーミングデータである撮像データの送信を停止する。ステップS184において、撮像制御部81は、カメラ43に撮像を停止させる。この場合、符号化部82は、動画像のデータの符号化を停止する。   In step S183, the transmission control unit 91 of the communication control unit 83 stops transmission of imaging data that is streaming data. In step S184, the imaging control unit 81 causes the camera 43 to stop imaging. In this case, the encoding unit 82 stops encoding the moving image data.

ステップS185において、指示部86は、AIサーバ21に電源オフを通知する。すなわち、通信制御部83の送信制御部91は、指示部86からの指示により、通信部74に、AIサーバ21宛に電源オフの通知を送信させる。   In step S185, the instruction unit 86 notifies the AI server 21 of power off. That is, the transmission control unit 91 of the communication control unit 83 causes the communication unit 74 to transmit a power-off notification to the AI server 21 in accordance with an instruction from the instruction unit 86.

ステップS283において、通信制御部168の受信制御部176は、通信部129に、清掃ロボット22からの電源オフの通知を受信させる。ステップS284において、判定部166は、清掃ロボット22からの電源オフの通知を受信したか否かにより、清掃ロボット22の電源がオフしたか否かを判定する。ステップS284において、清掃ロボット22の電源がオフしていないと判定された場合、手続きはステップS283に戻り、上述した処理が繰り返される。   In step S283, the reception control unit 176 of the communication control unit 168 causes the communication unit 129 to receive a power-off notification from the cleaning robot 22. In step S284, the determination unit 166 determines whether or not the cleaning robot 22 is powered off based on whether or not the power-off notification is received from the cleaning robot 22. If it is determined in step S284 that the cleaning robot 22 is not powered off, the procedure returns to step S283, and the above-described processing is repeated.

ステップS284において、清掃ロボット22の電源がオフしたと判定された場合、手続きはステップS285に進み、危険度測定部161は、終了を通知してきた清掃ロボット22に対する監視の処理を終了する。   If it is determined in step S284 that the cleaning robot 22 is powered off, the procedure proceeds to step S285, and the risk measuring unit 161 ends the monitoring process for the cleaning robot 22 that has notified the end.

ステップS186において、監視者またはオペレータの操作により、制御モジュール42が停止させられる。ステップS187において、監視者またはオペレータの操作により、清掃ロボット22の電源がオフされ、終了の処理は終了する。   In step S186, the control module 42 is stopped by the operation of the supervisor or operator. In step S187, the power of the cleaning robot 22 is turned off by the operation of the supervisor or the operator, and the end process ends.

次に、ステップS85またはステップS89で予約された追加学習のスケジューリングの処理を図20のフローチャートを参照して説明する。ステップS301において、学習スケジューラ165は、ディスプレイである出力部127またはタッチパネルモニタ25に、追加学習を実行するか否かを選択するためのボタンやメニューおよび日付や時刻などを配置した表や画像などにより追加学習の予定を表示させる。ステップS302において、学習スケジューラ165は、監視者によるタッチパネルモニタ25への操作またはオペレータによるキーボード若しくはマウスである入力部126への操作から、追加学習を実行するか否かの指示を取得する。例えば、学習スケジューラ165は、ディスプレイである出力部127またはタッチパネルモニタ25に表示されている表や画像に配置されている、監視者またはオペレータにボタンやメニューを選択させることにより、追加学習を実行するか否かの指示を取得する。   Next, the additional learning scheduling process reserved in step S85 or step S89 will be described with reference to the flowchart of FIG. In step S301, the learning scheduler 165 uses buttons or menus for selecting whether or not to perform additional learning on the output unit 127, which is a display, or the touch panel monitor 25, and a table or image in which date or time is arranged. Display the schedule for additional learning. In step S302, the learning scheduler 165 acquires an instruction as to whether or not to perform additional learning from an operation on the touch panel monitor 25 by a supervisor or an operation on the input unit 126 which is a keyboard or a mouse by an operator. For example, the learning scheduler 165 performs additional learning by causing a supervisor or operator to select a button or menu arranged in a table or image displayed on the output unit 127 or the touch panel monitor 25 that is a display. Get an indication of whether or not.

ステップS303において、学習スケジューラ165は、監視者またはオペレータから指示された追加学習を実行するか否かを示すデータを追加学習スケジュールデータとして記録部128に記録する。   In step S303, the learning scheduler 165 records, in the recording unit 128, data indicating whether or not to perform additional learning instructed by the supervisor or operator as additional learning schedule data.

ステップS304において、学習スケジューラ165は、監視者によるタッチパネルモニタ25への操作またはオペレータによるキーボード若しくはマウスである入力部126への操作から、追加学習を実行する日付および時刻の指示を取得する。例えば、学習スケジューラ165は、ディスプレイである出力部127またはタッチパネルモニタ25に、ディスプレイである出力部127またはタッチパネルモニタ25に表示されている表や画像に配置されている、監視者またはオペレータに日付および時刻を選択させることにより、追加学習を実行する日付および時刻の指示を取得する。   In step S304, the learning scheduler 165 acquires a date and time instruction for performing additional learning from an operation on the touch panel monitor 25 by the supervisor or an operation on the input unit 126 which is a keyboard or a mouse by the operator. For example, the learning scheduler 165 displays the date and time on the monitor or operator arranged in the table or image displayed on the output unit 127 or touch panel monitor 25 that is a display, on the output unit 127 or touch panel monitor 25 that is a display. By selecting the time, an instruction of the date and time for performing additional learning is acquired.

ステップS305において、学習スケジューラ165は、監視者またはオペレータから指示された追加学習を実行する日付および時刻を示すデータを追加学習スケジュールデータに追加して、記録部128に記録して、追加学習のスケジューリングの処理は終了する。   In step S305, the learning scheduler 165 adds the data indicating the date and time for executing the additional learning instructed by the supervisor or operator to the additional learning schedule data, records the data in the recording unit 128, and schedules additional learning. This process ends.

次に、図30のフローチャートを参照して、一定の期間ごとに実行される追加学習の処理を説明する。ステップS321において、学習スケジューラ165は、記録部128に記録されている追加学習スケジュールデータから、追加学習を実行するか否かの指示並びに追加学習を実行する日付および時刻を読み出す。ステップS322において、学習スケジューラ165は、追加学習スケジュールデータから読み出された追加学習を実行するか否かの指示から、追加学習の実行が指示されているか否かを判定する。ステップS322において、追加学習の実行が指示されていると判定された場合、手続きはステップS323に進み、学習スケジューラ165は、AIサーバ21に設けられている図示せぬ計時部から、追加学習の処理が実行されている時点の今日の日付および現在時刻を取得する。   Next, with reference to the flowchart of FIG. 30, the additional learning process executed at regular intervals will be described. In step S321, the learning scheduler 165 reads from the additional learning schedule data recorded in the recording unit 128 an instruction as to whether or not to perform additional learning and the date and time for executing additional learning. In step S322, the learning scheduler 165 determines whether or not execution of additional learning is instructed from an instruction on whether or not to execute additional learning read from the additional learning schedule data. If it is determined in step S322 that execution of additional learning has been instructed, the procedure proceeds to step S323, and the learning scheduler 165 performs additional learning processing from a timing unit (not shown) provided in the AI server 21. Get today's date and current time when is running.

ステップS324において、学習スケジューラ165は、追加学習スケジュールデータから読み出された追加学習を実行する日付および時刻と、追加学習の処理が実行されている時点の今日の日付および現在時刻とを比較することにより、追加学習を実行する日付および時刻になったか否かを判定する。ステップS324において、追加学習を実行する日付および時刻になったと判定された場合、手続きはステップS325に進み、学習スケジューラ165は、危険度測定部161に指示することにより、物体検知AI部171および危険度測定AI部173を学習モードにさせる。例えば、学習モードにおいて、学習スケジューラ165は、物体検知AI部171および危険度測定AI部173に、バッチサイズやエポック(学習回数)を設定する。また、例えば、学習モードにおいて、学習スケジューラ165は、物体検知AI部171および危険度測定AI部173の学習に用いる最適化関数および損失関数を選択する。   In step S324, the learning scheduler 165 compares the date and time when the additional learning read from the additional learning schedule data is executed with the today's date and current time when the additional learning process is executed. Thus, it is determined whether or not the date and time for performing the additional learning have come. If it is determined in step S324 that the date and time for performing additional learning has come, the procedure proceeds to step S325, and the learning scheduler 165 instructs the risk measuring unit 161 to detect the object detection AI unit 171 and the risk. The degree measurement AI unit 173 is set to the learning mode. For example, in the learning mode, the learning scheduler 165 sets a batch size and an epoch (learning number) in the object detection AI unit 171 and the risk measurement AI unit 173. Further, for example, in the learning mode, the learning scheduler 165 selects an optimization function and a loss function used for learning of the object detection AI unit 171 and the risk measurement AI unit 173.

ステップS326において、物体検知AI部171および危険度測定AI部173は、学習スケジューラ165からの指示により、ステップS84またはステップS88の手続きで記録部128に記録されている監視者により停止または減速が指示されたときの動画像および動画像に関連付けられている停止または減速が指示されたことを示すデータにより、学習して、追加学習の処理は終了する。   In step S326, the object detection AI unit 171 and the risk measurement AI unit 173 instruct to stop or decelerate by the supervisor recorded in the recording unit 128 in the procedure of step S84 or step S88 according to the instruction from the learning scheduler 165. The learning is performed based on the moving image at that time and the data indicating that the stop or the deceleration associated with the moving image is instructed, and the additional learning process ends.

例えば、物体検知AI部171および危険度測定AI部173は、バッチ手法により、学習する。また、例えば、物体検知AI部171および危険度測定AI部173は、記録部128に記録されている監視者により停止または減速が指示されたときの動画像および動画像に関連付けられている停止または減速が指示されたことを示すデータを用いて、誤差逆伝搬法などの勾配計算法により、教師あり学習を行う。   For example, the object detection AI unit 171 and the risk measurement AI unit 173 learn by a batch method. In addition, for example, the object detection AI unit 171 and the risk measurement AI unit 173 may be a stop or a link associated with a moving image and a moving image when stoppage or deceleration is instructed by a monitor recorded in the recording unit 128. Supervised learning is performed by using a gradient calculation method such as an error back-propagation method using data indicating that deceleration has been instructed.

ステップS322において、追加学習の実行が指示されていないと判定された場合、またはステップS324において、追加学習を実行する日付および時刻になっていないと判定された場合、学習をさせる必要はないので、学習をすることなく、追加学習の処理は終了する。   If it is determined in step S322 that execution of additional learning is not instructed, or if it is determined in step S324 that the date and time for performing additional learning have not been reached, it is not necessary to perform learning. The additional learning process ends without learning.

このように、より確実に衝突を回避して、より簡単に、学習ができる。また、接触の危険の程度を求める処理の経過を知ることができるようにして、より効果的な修正または学習をすることができる。   In this way, learning can be performed more easily while avoiding collision more reliably. Further, it is possible to know the progress of the process for obtaining the degree of danger of contact so that more effective correction or learning can be performed.

以上のように、AIサーバ21は、建物内の床上を自律的に走行し、走行する先の動画像を撮像する清掃ロボット22から送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定する危険度測定部161と、動画像のタッチパネルモニタ25への表示を制御する表示制御部170と、表示している動画像を監視している監視者からの操作による、停止の指示を取得する入力制御部169と、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、清掃ロボット22に停止を指令する指令部167と、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録部128に記録させる学習データ記録制御部164と、記録部128に記録された動画像による危険度測定部161の学習の実行を予約する学習スケジューラ165とを含む。   As described above, the AI server 21 autonomously travels on the floor in the building and is captured in a moving image by machine learning from the moving image transmitted from the cleaning robot 22 that captures the moving image of the traveling destination. A degree-of-contact measuring unit 161 that measures the degree of danger of contact with a subject, a display control unit 170 that controls display of moving images on the touch panel monitor 25, and monitoring that monitors the displayed moving images An input control unit 169 that obtains a stop instruction by an operation by the operator, and when the measured danger level is equal to or greater than a predetermined threshold or when a stop is instructed by the supervisor, the cleaning robot 22 is instructed to stop. An instruction unit 167 that performs recording, a learning data recording control unit 164 that causes the recording unit 128 to record a moving image for a predetermined length of time including when the stop is instructed, when the stop is instructed by the supervisor, and recording Book execute learning risk measuring unit 161 by the recorded moving image 128 and a learning scheduler 165.

入力制御部169が、監視者からの操作による、減速の指示を取得し、指令部167が、減速が指示された場合、清掃ロボット22に減速を指令し、学習データ記録制御部164が、監視者から減速が指示された場合、減速が指示された時を含む所定の長さの時間の動画像を記録手段に記録させるようにすることができる。このようにすることで、より簡単に、学習ができるようになる。   When the input control unit 169 obtains a deceleration instruction by an operation from the supervisor, and when the instruction unit 167 is instructed to decelerate, the instruction is given to the cleaning robot 22, and the learning data recording control unit 164 performs monitoring. When deceleration is instructed by a person, a moving image for a predetermined length of time including when the deceleration is instructed can be recorded on the recording means. In this way, learning can be performed more easily.

学習スケジューラ165が、危険度測定部161の学習のジョブをスケジューリングすることで予約するようにすることができる。このようにすることで、より簡単に、学習ができるようになる。   The learning scheduler 165 can make a reservation by scheduling a learning job of the risk measuring unit 161. In this way, learning can be performed more easily.

学習スケジューラ165が、監視者またはオペレータからの操作による指示に応じて、危険度測定部161の学習のジョブのスケジューリングにおける、学習の実行の可否および学習が実行される時刻を決定するようにすることができる。このようにすることで、より簡単に、学習ができるようになる。   The learning scheduler 165 determines whether or not learning can be performed and the time when the learning is executed in the scheduling of the learning job of the risk measuring unit 161 in accordance with an instruction from the supervisor or the operator. Can do. In this way, learning can be performed more easily.

動画像に、清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を書き込む描画部174をさらに設け、表示制御部170が、清掃ロボット22と被写体との接触の危険の程度を示す文字または画像が書き込まれた動画像のタッチパネルモニタ25への表示を制御するようにすることができる。このようにすることで、より確実に衝突を回避できるようになる。   A drawing unit 174 is further provided for writing a character or an image indicating the degree of danger of contact between the cleaning robot 22 and the subject in the moving image, and the display control unit 170 indicates the degree of danger of contact between the cleaning robot 22 and the subject. The display on the touch panel monitor 25 of a moving image in which characters or images are written can be controlled. By doing so, collision can be avoided more reliably.

危険度測定部161が、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を測定し、描画部174が、動画像に、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を示す文字または画像を書き込み、表示制御部170が、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を示す文字または画像が書き込まれた動画像のタッチパネルモニタ25への表示を制御するようにすることができる。このようにすることで、より確実に衝突を回避できるようになる。   The risk measuring unit 161 measures the distance from the cleaning robot 22 to the subject and the speed of the subject with respect to the cleaning robot 22, and the drawing unit 174 displays the distance from the cleaning robot 22 to the subject and the subject with respect to the cleaning robot 22 on the moving image. The display control unit 170 displays on the touch panel monitor 25 a moving image in which characters or images indicating the distance from the cleaning robot 22 to the subject and the speed of the subject with respect to the cleaning robot 22 are written. Can be controlled. By doing so, collision can be avoided more reliably.

危険度測定部161が、被写体が人であるかまたは人以外の物であるかを検知し、指令部167が、被写体が人であると検知された場合、清掃ロボット22に所定の音声の出力を指令するようにすることができる。このようにすることで、より確実に衝突を回避できるようになる。   When the risk measurement unit 161 detects whether the subject is a person or something other than a person, and the command unit 167 detects that the subject is a person, a predetermined sound is output to the cleaning robot 22. Can be commanded. By doing so, collision can be avoided more reliably.

このように、建物内の床上を自律的に走行し、走行する先の動画像を撮像する清掃ロボット22から送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定し、動画像をタッチパネルモニタ25に表示し、表示している動画像を監視している監視者からの操作による、停止の指示を取得し、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、清掃ロボット22に停止を指令するようにしたので、仮に、動画像に写っている被写体との接触の危険の程度の測定が誤ったとしても、表示している動画像を監視している監視者が停止を指示するので、より確実に衝突を回避することができる。また、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像が記録部128に記録され、記録部128に記録された動画像による危険度測定部161の学習の実行が予約されるので、仮に、動画像に写っている被写体との接触の危険の程度の測定が誤った場合でも、その状況に合わせた学習データをいちいち用意する必要がなく、簡単に学習させることができるので、学習の後には、より確実に衝突を回避することができる。このように、より確実に衝突を回避して、より簡単に、学習ができる。   In this way, the robot touches the subject in the moving image by machine learning from the moving image transmitted from the cleaning robot 22 that autonomously travels on the floor in the building and captures the moving image of the traveling destination. The degree of danger is measured, a moving image is displayed on the touch panel monitor 25, a stop instruction is obtained by an operation from a supervisor who is monitoring the displayed moving image, and the measured degree of danger is When it is equal to or greater than a predetermined threshold value or when a stop is instructed by the supervisor, the cleaning robot 22 is instructed to stop. Therefore, the degree of risk of contact with the subject in the moving image is temporarily measured. Even if it is wrong, the monitor who monitors the displayed moving image instructs the stop, so that the collision can be avoided more reliably. In addition, when a stop is instructed by the supervisor, a moving image of a predetermined length including the time when the stop is instructed is recorded in the recording unit 128, and the risk measurement by the moving image recorded in the recording unit 128 is performed. Since execution of learning by the unit 161 is reserved, even if the measurement of the degree of danger of contact with the subject in the moving image is wrong, it is not necessary to prepare learning data for each situation. Since learning can be performed easily, collision can be avoided more reliably after learning. In this way, learning can be performed more easily while avoiding collision more reliably.

このように、より確実に衝突を回避して、より簡単に、学習ができる。   In this way, learning can be performed more easily while avoiding collision more reliably.

また、AIサーバ21は、清掃ロボット22により撮像された動画像から、機械学習によって、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する物体検知AI部171と、動画像および動画像における被写体の位置から、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を求める画像処理部172と、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、機械学習によって、動画像のシーンの危険の程度を測定する危険度測定AI部173と、動画像に、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、移動体から被写体までの距離、移動体に対する被写体の速度および動画像のシーンの危険の程度を示す文字または画像を書き込む描画部174とを含む。   In addition, the AI server 21 detects whether a subject is a person or a person other than a person from a moving image captured by the cleaning robot 22 by using machine learning. An object detection AI unit 171 for detecting the position of the subject in the image, an image processing unit 172 for determining a distance from the cleaning robot 22 to the subject and a speed of the subject with respect to the cleaning robot 22 based on the moving image and the position of the subject in the moving image; As a result of detecting whether the moving image, the subject is a person or something other than a person, the position of the subject in the moving image, the distance from the cleaning robot 22 to the subject, and the speed of the subject with respect to the cleaning robot 22 are determined by machine learning. A risk measurement AI unit 173 that measures the degree of danger of a moving image scene, and whether the subject is a person in the moving image As a result of detecting whether the object is other than a person, characters or images indicating the position of the subject in the moving image, the distance from the moving body to the subject, the speed of the subject relative to the moving body, and the degree of danger of the moving image scene are displayed. And a drawing unit 174 for writing.

物体検知AI部171が、ニューラルネットワークを用いた機械学習によって、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知し、危険度測定AI部173が、ニューラルネットワークを用いた機械学習によって、清掃ロボット22と被写体との接触の危険の程度を測定するようにすることができる。   The object detection AI unit 171 detects whether the subject is a person or something other than a person by machine learning using a neural network, detects the position of the subject in the moving image, and detects the risk measurement AI unit 173. However, the degree of danger of contact between the cleaning robot 22 and the subject can be measured by machine learning using a neural network.

画像処理部172が、被写体が人であると検知された場合、清掃ロボット22に対する被写体の向きまたは清掃ロボット22に対する被写体の顔の向きを求めるようにすることができる。   When the image processing unit 172 detects that the subject is a person, the orientation of the subject with respect to the cleaning robot 22 or the orientation of the face of the subject with respect to the cleaning robot 22 can be obtained.

清掃ロボット22と被写体との接触の危険の程度が所定の閾値以上である場合、清掃ロボット22に停止または減速を指令する指令部167をさらに設けることができる。   If the degree of danger of contact between the cleaning robot 22 and the subject is equal to or greater than a predetermined threshold, a command unit 167 that instructs the cleaning robot 22 to stop or decelerate can be further provided.

清掃ロボット22からストリーミングで送信されてくる動画像を受信する通信部129をさらに設け、物体検知AI部171、画像処理部172および危険度測定AI部173は、それぞれ、受信された動画像で検知するか、画像処理するか、または測定するようにすることができる。   A communication unit 129 for receiving a moving image transmitted by streaming from the cleaning robot 22 is further provided, and the object detection AI unit 171, the image processing unit 172, and the risk measurement AI unit 173 are each detected by the received moving image. Or image processing or measurement.

清掃ロボット22への停止または減速の指示が外部から入力された場合、停止または減速が指示された時を含む所定の長さの時間の動画像を記録する記録部128をさらに設けることかできる。   When a stop or deceleration instruction to the cleaning robot 22 is input from the outside, a recording unit 128 that records a moving image for a predetermined length of time including when the stop or deceleration is instructed can be further provided.

このように、物体検知AI部171が、移動体により撮像された動画像から、機械学習によって、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知し、画像処理部172が、動画像および動画像における被写体の位置から、移動体から被写体までの距離および移動体に対する被写体の速度を求め、危険度測定AI部173が、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、移動体から被写体までの距離および移動体に対する被写体の速度から、機械学習によって、動画像のシーンの危険の程度を測定し、描画部174が、動画像に、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、移動体から被写体までの距離、移動体に対する被写体の速度および動画像のシーンの危険の程度を示す文字または画像を書き込むようにしたので、文字または画像が書き込まれた動画像を表示させれば、使用者が動画像を見ることで、被写体が人であるかまたは人以外の物であるかの検知の状態、動画像における被写体の位置の検知の状態、移動体から被写体までの距離および移動体に対する被写体の速度並びに動画像のシーンとして現在の状況全体の危険の程度を知ることができるので、使用者が、動画像のシーンの危険の程度を求める処理で、どうしてそのような判定になったかの手がかりを知ることができる。これにより、例えば、移動体に停止または減速を指令するなど、より効果的な操作をすることができる。このように、使用者が、動画像のシーンの危険の程度を求める処理で、どうしてそのような判定になったかの手がかりを知ることができるので、より効果的な操作をすることができる。   As described above, the object detection AI unit 171 detects whether a subject is a person or a person other than a person from a moving image picked up by a moving object by machine learning. Then, the position of the subject in the moving image is detected, and the image processing unit 172 obtains the distance from the moving body to the subject and the speed of the subject with respect to the moving body from the position of the subject in the moving image and the moving image, and the risk measurement AI As a result of detecting whether the moving image, the subject is a person, or a non-human thing, the unit 173 determines from the position of the subject in the moving image, the distance from the moving body to the subject, and the speed of the subject relative to the moving body. The degree of danger of the scene of the moving image is measured by learning, and the drawing unit 174 detects that the subject is a person or something other than a person as a moving image. The characters or images that indicate the position of the subject to be moved, the distance from the moving object to the subject, the speed of the subject relative to the moving object, and the degree of danger of the moving image scene are written. If it is displayed, when the user views the moving image, the state of detection of whether the subject is a person or something other than a person, the state of detection of the position of the subject in the moving image, from the moving body to the subject Distance, the speed of the subject with respect to the moving object, and the degree of danger of the entire current situation as a moving image scene, so why does the user determine the degree of danger of the moving image scene? It is possible to know the clue of whether or not the judgment is correct. Thereby, for example, it is possible to perform a more effective operation such as instructing the moving body to stop or decelerate. In this way, the user can know a clue as to why such a determination has been made in the process of obtaining the degree of danger of the scene of the moving image, so that a more effective operation can be performed.

また、追加学習のスケジューリングをする場合、監視者またはオペレータが学習に用いる動画像を必要な領域にトリミングして、物体検知AI部171および危険度測定AI部173に学習させるようにしてもよい。   In addition, when scheduling additional learning, a moving image used for learning by a supervisor or operator may be trimmed to a necessary area so that the object detection AI unit 171 and the risk measurement AI unit 173 learn.

なお、AIサーバ21が清掃ロボット22の走行を制御すると説明したが、これに限らず、書類や薬品、食品または機器などを搬送する搬送ロボットを制御することもできる。さらに、AIサーバ21は、屋内や屋外を移動する自動車若しくは電車などの車両またはマルチコプターなどの無人航空機などの移動体を制御することもできる。   In addition, although it demonstrated that the AI server 21 controlled driving | running | working of the cleaning robot 22, not only this but the conveyance robot which conveys a document, a chemical | medical agent, foodstuffs, an apparatus, etc. can also be controlled. Furthermore, the AI server 21 can also control a moving body such as a vehicle such as an automobile or a train that moves indoors or outdoors, or an unmanned aircraft such as a multicopter.

また、AIサーバ21が制御モジュール42に停止または減速を指令する制御信号を送信して、制御モジュール42が走行動作制御部51に指令することで、清掃ロボット22が停止または減速すると説明したが、これに限らず、清掃ロボット22のハードウェアの停止ボタンまたは減速ボタンを機械的な機構により押圧する押圧機構であって、ネットワーク上の信号により動作する押圧機構を設けて、AIサーバ21が信号を送信することにより、清掃ロボット22のハードウェアの停止ボタンまたは減速ボタンが押圧されるようにして、清掃ロボット22の走行を制御するようにしてもよい。   In addition, it has been described that the cleaning robot 22 stops or decelerates when the AI server 21 transmits a control signal that instructs the control module 42 to stop or decelerate, and the control module 42 instructs the travel operation control unit 51. Not limited to this, a pressing mechanism that presses a stop button or a deceleration button of the hardware of the cleaning robot 22 by a mechanical mechanism, provided with a pressing mechanism that operates according to a signal on the network, and the AI server 21 outputs a signal. By transmitting, the stop button or the deceleration button of the hardware of the cleaning robot 22 may be pressed to control the traveling of the cleaning robot 22.

なお、AIサーバ21が清掃ロボット22に走行の停止または減速を指令すると説明したが、これに限らず、清掃ロボット22の清掃の動作を停止させたり、清掃の特定の機能、例えばブラシ65を停止させたりするようにしてもよい。   Although the AI server 21 has been described as instructing the cleaning robot 22 to stop or decelerate travel, the present invention is not limited to this, and the cleaning operation of the cleaning robot 22 is stopped, or a specific cleaning function, for example, the brush 65 is stopped. You may make it let it.

また、ステップS224において、判定部166は、ステップS53において測定された危険度が40%以上60%未満であるか否かを判定し、ステップS226において、判定部166は、ステップS53において測定された危険度が60%以上であるか否かを判定すると説明したがこれに限らず、ステップS224において、判定部166は、ステップS53において測定された危険度が50%以上80%未満であるか否かを判定し、ステップS226において、判定部166は、ステップS53において測定された危険度が80%以上であるか否かを判定するなど、判定の閾値を所望の値とすることができる。   In step S224, the determination unit 166 determines whether or not the degree of risk measured in step S53 is 40% or more and less than 60%. In step S226, the determination unit 166 is measured in step S53. Although it has been described that it is determined whether or not the degree of risk is 60% or more, the present invention is not limited to this. In step S224, the determination unit 166 determines whether or not the degree of risk measured in step S53 is 50% or more and less than 80%. In step S226, the determination unit 166 can set the determination threshold to a desired value, such as determining whether the degree of risk measured in step S53 is 80% or more.

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

11 清掃システム, 21 AIサーバ, 22,22−1および22−2 清掃ロボット, 23 ハブ, 24,24−1乃至24−3 アクセスポイント, 25,25−1および25−2 タッチパネルモニタ, 41 本体, 42 制御モジュール, 43 カメラ, 51 走行動作制御部, 52 センサ, 53 駆動部, 54 モータ, 55 車輪, 61 清掃動作制御部, 62 センサ, 63 駆動部, 64 モータ, 65 ブラシ, 71 スピーカ, 72 表示部, 73 タッチパネル, 74 通信部, 75 記憶部, 81 撮像制御部, 82 符号化部, 83 通信制御部, 84 フラグ設定部, 85 記憶制御部, 86 指示部, 87 音声出力制御部, 91 送信制御部, 92 受信制御部, 93 判定部, 121 CPU, 122 ROM, 123 RAM, 126 入力部, 127 出力部, 128 記録部, 129 通信部, 131 リムーバブルメディア, 161 危険度測定部, 162 撮像データバッファ, 163 復号部, 164 学習データ記録制御部, 165 学習スケジューラ, 166 判定部, 167 指令部, 168 通信制御部, 169 入力制御部, 170 表示制御部, 171 物体検知AI部, 172 画像処理部, 173 危険度測定AI部, 174 描画部, 175 送信制御部, 176 受信制御部, 201,201−1乃至201−5 枠, 202,202−1乃至202−5 種類表示, 203,203−1乃至203−5 距離表示, 204 ステータスモニタ, 205および206 ボタン, 207 距離等表示, 211,212および213 ランプ表示, 231 メッセージ   11 Cleaning System, 21 AI Server, 22, 22-1 and 22-2 Cleaning Robot, 23 Hub, 24, 24-1 to 24-3 Access Point, 25, 25-1 and 25-2 Touch Panel Monitor, 41 Main Body, 42 control module, 43 camera, 51 travel operation control unit, 52 sensor, 53 drive unit, 54 motor, 55 wheel, 61 cleaning operation control unit, 62 sensor, 63 drive unit, 64 motor, 65 brush, 71 speaker, 72 display Unit, 73 touch panel, 74 communication unit, 75 storage unit, 81 imaging control unit, 82 encoding unit, 83 communication control unit, 84 flag setting unit, 85 storage control unit, 86 instruction unit, 87 audio output control unit, 91 transmission Control unit, 92 reception control unit, 93 determination unit 121 CPU, 122 ROM, 123 RAM, 126 input unit, 127 output unit, 128 recording unit, 129 communication unit, 131 removable media, 161 risk measurement unit, 162 imaging data buffer, 163 decoding unit, 164 learning data recording control unit 165 Learning scheduler, 166 determination unit, 167 command unit, 168 communication control unit, 169 input control unit, 170 display control unit, 171 object detection AI unit, 172 image processing unit, 173 risk measurement AI unit, 174 drawing unit, 175 transmission control unit, 176 reception control unit, 201, 201-1 to 201-5 frame, 202, 202-1 to 202-5 type display, 203, 203-1 to 203-5 distance display, 204 status monitor, 205 And 206 , 207 distance such as a display, 211, 212 and 213 lamp display, 231 messages

Claims (8)

建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットと、前記ロボットを制御する情報処理装置とを含む情報処理システムにおいて、
前記動画像から、機械学習によって、前記動画像に写っている被写体と前記ロボットとの接触の危険の程度を測定する測定手段と、
前記動画像の表示手段への表示を制御する表示制御手段と、
表示している前記動画像を監視している監視者からの操作による、前記ロボットの停止の指示を取得する取得手段と、
測定された危険の程度が所定の閾値以上である場合または前記監視者から停止が指示された場合、前記ロボットに停止を指令する指令手段と、
前記監視者から前記ロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる記録制御手段と
を備える情報処理システム。
In an information processing system including a robot that autonomously travels on a floor in a building and picks up a moving image of the traveling destination, and an information processing device that controls the robot,
Measuring means for measuring the degree of danger of contact between the subject in the moving image and the robot by machine learning from the moving image;
Display control means for controlling display on the display means of the moving image;
An acquisition means for acquiring an instruction to stop the robot by an operation from a supervisor who is monitoring the displayed moving image;
When the measured degree of danger is equal to or greater than a predetermined threshold value or when a stop is instructed by the supervisor, command means for instructing the robot to stop,
An information processing system comprising: a recording control unit that causes the recording unit to record the moving image for a predetermined length of time including when the stop is instructed by the monitor.
請求項1に記載の情報処理システムにおいて、
前記測定手段は、複数のロボットのそれぞれにおいて撮像された前記動画像から、機械学習によって、複数のロボットのそれぞれについて、前記動画像に写っている被写体との接触の危険の程度を測定し、
前記取得手段は、表示している前記動画像を監視している監視者からの操作による、複数の前記ロボットのいずれかへの停止の指示を取得し、
前記指令手段は、複数の前記ロボットのいずれかについて測定された危険の程度が所定の閾値以上である場合または複数の前記ロボットのいずれかについて前記監視者から停止が指示された場合、危険の程度が所定の閾値以上であるかまたは停止が指示された前記ロボットに停止を指令し、
前記記録制御手段は、複数の前記ロボットのいずれかについて前記監視者から停止が指示された場合、停止が指示された前記ロボットから送信されてくる前記動画像であって、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる
情報処理システム。
The information processing system according to claim 1,
The measuring means measures the degree of danger of contact with the subject in the moving image for each of the plurality of robots by using machine learning from the moving images captured by each of the plurality of robots,
The acquisition means acquires an instruction to stop any of the plurality of robots by an operation from a monitor who monitors the displayed moving image,
The command means has a degree of danger when the degree of danger measured for any of the plurality of robots is equal to or greater than a predetermined threshold or when the supervisor instructs the stop of any of the plurality of robots. The robot is instructed to stop or is instructed to stop,
The recording control means is the moving image transmitted from the robot instructed to stop, when the stop is instructed by any of the plurality of robots, and when the stop is instructed. An information processing system for causing the recording means to record the moving image for a predetermined length of time including:
請求項1に記載の情報処理システムにおいて、
前記測定手段は、停止が指示されたことを示すデータおよび前記記録手段に記録されている前記動画像を用いて学習する
情報処理システム。
The information processing system according to claim 1,
The information processing system in which the measurement unit learns using data indicating that a stop is instructed and the moving image recorded in the recording unit.
建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる前記動画像から、機械学習によって、前記動画像に写っている被写体と前記ロボットとの接触の危険の程度を測定する測定手段と、
前記動画像の表示手段への表示を制御する表示制御手段と、
表示している前記動画像を監視している監視者からの操作による、前記ロボットの停止の指示を取得する取得手段と、
測定された危険の程度が所定の閾値以上である場合または前記監視者から停止が指示された場合、前記ロボットに停止を指令する指令手段と、
前記監視者から前記ロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる記録制御手段と
を含む情報処理装置。
From the moving image transmitted from the robot that autonomously travels on the floor in the building and captures the moving image of the traveling destination, contact between the subject and the robot reflected in the moving image is performed by machine learning. A measuring means for measuring the degree of danger;
Display control means for controlling display on the display means of the moving image;
An acquisition means for acquiring an instruction to stop the robot by an operation from a supervisor who is monitoring the displayed moving image;
When the measured degree of danger is equal to or greater than a predetermined threshold value or when a stop is instructed by the supervisor, command means for instructing the robot to stop,
An information processing apparatus comprising: a recording control unit that causes the recording unit to record the moving image for a predetermined length of time including when the stop is instructed by the supervisor.
請求項4に記載の情報処理装置において、
前記測定手段は、複数のロボットのそれぞれから送信されてくる前記動画像から、機械学習によって、複数のロボットのそれぞれについて、前記動画像に写っている被写体との接触の危険の程度を測定し、
前記取得手段は、表示している前記動画像を監視している監視者からの操作による、複数の前記ロボットのいずれかへの停止の指示を取得し、
前記指令手段は、複数の前記ロボットのいずれかについて測定された危険の程度が所定の閾値以上である場合または複数の前記ロボットのいずれかについて前記監視者から停止が指示された場合、危険の程度が所定の閾値以上であるかまたは停止が指示された前記ロボットに停止を指令し、
前記記録制御手段は、複数の前記ロボットのいずれかについて前記監視者から停止が指示された場合、停止が指示された前記ロボットから送信されてくる前記動画像であって、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる
情報処理装置。
The information processing apparatus according to claim 4,
The measuring means measures, from the moving images transmitted from each of the plurality of robots, the degree of danger of contact with the subject in the moving image for each of the plurality of robots by machine learning,
The acquisition means acquires an instruction to stop any of the plurality of robots by an operation from a monitor who monitors the displayed moving image,
The command means has a degree of danger when the degree of danger measured for any of the plurality of robots is equal to or greater than a predetermined threshold or when the supervisor instructs the stop of any of the plurality of robots. The robot is instructed to stop or is instructed to stop,
The recording control means is the moving image transmitted from the robot instructed to stop, when the stop is instructed by any of the plurality of robots, and when the stop is instructed. An information processing apparatus for causing the recording means to record the moving image for a predetermined length of time including
請求項4に記載の情報処理装置において、
前記測定手段は、停止が指示されたことを示すデータおよび前記記録手段に記録されている前記動画像を用いて学習する
情報処理装置。
The information processing apparatus according to claim 4,
The information processing apparatus, wherein the measurement unit learns using data indicating that a stop is instructed and the moving image recorded in the recording unit.
建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる前記動画像から、機械学習によって、前記動画像に写っている被写体と前記ロボットとの接触の危険の程度を測定する測定ステップと、
前記動画像の表示手段への表示を制御する表示制御ステップと、
表示している前記動画像を監視している監視者からの操作による、前記ロボットの停止の指示を取得する取得ステップと、
測定された危険の程度が所定の閾値以上である場合または前記監視者から停止が指示された場合、前記ロボットに停止を指令する指令ステップと、
前記監視者から前記ロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる記録制御ステップと
を含む情報処理方法。
From the moving image transmitted from the robot that autonomously travels on the floor in the building and captures the moving image of the traveling destination, contact between the subject and the robot reflected in the moving image is performed by machine learning. A measuring step to measure the degree of danger;
A display control step for controlling display on the display means of the moving image;
An acquisition step of acquiring an instruction to stop the robot by an operation from a supervisor who is monitoring the displayed moving image;
A command step for instructing the robot to stop when the measured degree of danger is equal to or greater than a predetermined threshold or when a stop is instructed by the supervisor;
A recording control step of causing the recording means to record the moving image for a predetermined length of time including when the stop is instructed when the monitor instructs the stop of the robot.
建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる前記動画像から、機械学習によって、前記動画像に写っている被写体と前記ロボットとの接触の危険の程度を測定する測定ステップと、
前記動画像の表示手段への表示を制御する表示制御ステップと、
表示している前記動画像を監視している監視者からの操作による、前記ロボットの停止の指示を取得する取得ステップと、
測定された危険の程度が所定の閾値以上である場合または前記監視者から停止が指示された場合、前記ロボットに停止を指令する指令ステップと、
前記監視者から前記ロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる記録制御ステップと
を含む情報処理をコンピュータに行わせるプログラム。

From the moving image transmitted from the robot that autonomously travels on the floor in the building and captures the moving image of the traveling destination, contact between the subject and the robot reflected in the moving image is performed by machine learning. A measuring step to measure the degree of danger;
A display control step for controlling display on the display means of the moving image;
An acquisition step of acquiring an instruction to stop the robot by an operation from a supervisor who is monitoring the displayed moving image;
A command step for instructing the robot to stop when the measured degree of danger is equal to or greater than a predetermined threshold or when a stop is instructed by the supervisor;
When the stop is instructed by the supervisor, the computer performs information processing including a recording control step for causing the recording means to record the moving image for a predetermined length of time including when the stop is instructed. Program.

JP2018157214A 2018-08-24 2018-08-24 Information processing system, information processing device, information processing method and program Pending JP2019139733A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018157214A JP2019139733A (en) 2018-08-24 2018-08-24 Information processing system, information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018157214A JP2019139733A (en) 2018-08-24 2018-08-24 Information processing system, information processing device, information processing method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018021672A Division JP6393433B1 (en) 2018-02-09 2018-02-09 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2019139733A true JP2019139733A (en) 2019-08-22

Family

ID=67694131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018157214A Pending JP2019139733A (en) 2018-08-24 2018-08-24 Information processing system, information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP2019139733A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110751232A (en) * 2019-11-04 2020-02-04 哈尔滨理工大学 Chinese complex scene text detection and identification method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785280B2 (en) * 1992-08-04 1995-09-13 タカタ株式会社 Collision prediction judgment system by neural network
JP2006113858A (en) * 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd Method and system for supporting remote operation for mobile object
JP2006285548A (en) * 2005-03-31 2006-10-19 Secom Co Ltd Mobile robot and remote control system
JP2014011642A (en) * 2012-06-29 2014-01-20 Jvc Kenwood Corp Portable terminal device, and control method and program for the same
JP2014106638A (en) * 2012-11-26 2014-06-09 Sharp Corp Moving device and control method
JP2016130966A (en) * 2015-01-14 2016-07-21 株式会社デンソーアイティーラボラトリ Risk estimation device, risk estimation method and computer program for risk estimation
JP2017117353A (en) * 2015-12-25 2017-06-29 シャダイ株式会社 Mobile body platform system
JP2017159881A (en) * 2016-03-10 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Recognition result presentation device, recognition result presentation method and autonomous movable body
JP2017162438A (en) * 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Danger prediction method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0785280B2 (en) * 1992-08-04 1995-09-13 タカタ株式会社 Collision prediction judgment system by neural network
JP2006113858A (en) * 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd Method and system for supporting remote operation for mobile object
JP2006285548A (en) * 2005-03-31 2006-10-19 Secom Co Ltd Mobile robot and remote control system
JP2014011642A (en) * 2012-06-29 2014-01-20 Jvc Kenwood Corp Portable terminal device, and control method and program for the same
JP2014106638A (en) * 2012-11-26 2014-06-09 Sharp Corp Moving device and control method
JP2016130966A (en) * 2015-01-14 2016-07-21 株式会社デンソーアイティーラボラトリ Risk estimation device, risk estimation method and computer program for risk estimation
JP2017117353A (en) * 2015-12-25 2017-06-29 シャダイ株式会社 Mobile body platform system
JP2017159881A (en) * 2016-03-10 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Recognition result presentation device, recognition result presentation method and autonomous movable body
JP2017162438A (en) * 2016-03-11 2017-09-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Danger prediction method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110751232A (en) * 2019-11-04 2020-02-04 哈尔滨理工大学 Chinese complex scene text detection and identification method

Similar Documents

Publication Publication Date Title
JP6393433B1 (en) Information processing apparatus, information processing method, and program
US10532003B2 (en) Guide robot and method and system for operating the same
CN111479662B (en) Artificial intelligent mobile robot for learning obstacle and control method thereof
JP5629390B2 (en) Mobile robot system
TWI469910B (en) Control method and device of a simple node transportation system
US20220257077A1 (en) Cleaning robot and method of performing task thereof
JP7188471B2 (en) Virtual organism control system, virtual organism control method and program
WO2018028200A1 (en) Electronic robotic equipment
JP6158517B2 (en) Alarm system
JP6621220B2 (en) Information processing apparatus, information processing method, and program
JP5318623B2 (en) Remote control device and remote control program
JP2011204145A (en) Moving device, moving method and program
JP2017168105A (en) Behavior detection device, method and program, and monitored person monitoring device
US11257355B2 (en) System and method for preventing false alarms due to display images
JP2019139733A (en) Information processing system, information processing device, information processing method and program
KR101708301B1 (en) Robot cleaner and remote control system of the same
CN108346260A (en) It is a kind of for the monitoring method of unmanned plane, device, unmanned plane and monitoring system
WO2023159591A1 (en) Intelligent explanation system and method for exhibition scene
JP7264065B2 (en) Monitored Person Monitoring Support System and Monitored Person Monitoring Support Method
KR102093709B1 (en) Robot cleaner, mobile terminal and method for including the same
CN204131636U (en) Tool sees the image automonitor of protective function
CN102611832A (en) Novel automatic-tracking high-speed dome camera
JP7374581B2 (en) Robot, image processing method and program
JPWO2019235068A1 (en) Monitored person monitoring support device, monitored person monitoring support method, monitored person monitoring support system and monitored person monitoring support server device
CN104219501A (en) Automatic image monitor with nursing function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190130

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190304

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190816

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200228