JP6393433B1 - Information processing apparatus, information processing method, and program - Google Patents
Information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP6393433B1 JP6393433B1 JP2018021672A JP2018021672A JP6393433B1 JP 6393433 B1 JP6393433 B1 JP 6393433B1 JP 2018021672 A JP2018021672 A JP 2018021672A JP 2018021672 A JP2018021672 A JP 2018021672A JP 6393433 B1 JP6393433 B1 JP 6393433B1
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- subject
- unit
- stop
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 23
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000010801 machine learning Methods 0.000 claims abstract description 31
- 238000012544 monitoring process Methods 0.000 claims abstract description 26
- 238000005259 measurement Methods 0.000 claims description 60
- 238000004140 cleaning Methods 0.000 description 241
- 238000013473 artificial intelligence Methods 0.000 description 128
- 238000000034 method Methods 0.000 description 84
- 238000004891 communication Methods 0.000 description 65
- 238000003384 imaging method Methods 0.000 description 40
- 238000012545 processing Methods 0.000 description 37
- 238000001514 detection method Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 33
- 230000005540 biological transmission Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 18
- 238000003860 storage Methods 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000000428 dust Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 239000010813 municipal solid waste Substances 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000001994 activation Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001802 infusion Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002271 resection Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Landscapes
- Electric Vacuum Cleaner (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Abstract
【課題】自律的に走行するロボットが、衝突危険度の判定をより簡単に学習ができる情報処理装置を提供する。【解決手段】情報処理装置は、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定する測定手段173と、動画像の表示手段への表示を制御する表示制御手段170と、表示している動画像を監視している監視者からの操作による、停止の指示を取得する取得手段169と、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令手段167と、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御手段164と、記録手段に記録された動画像による測定手段の学習の実行を予約する予約手段165とを含む。【選択図】図6Provided is an information processing apparatus in which a robot traveling autonomously can more easily learn the determination of a collision risk. An information processing apparatus travels autonomously on a floor in a building and subjects that appear in a moving image by machine learning from a moving image transmitted from a robot that captures the moving image of the traveling destination. By measuring means 173 for measuring the degree of danger of contact with the display, display control means 170 for controlling the display of the moving image on the display means, and an operation from a supervisor who is monitoring the displayed moving image, An acquisition unit 169 that acquires a stop instruction, a command unit 167 that instructs the robot to stop when the measured degree of danger is equal to or greater than a predetermined threshold value, or a stop instruction from the monitor, When the stop is instructed, the recording control means 164 for recording a moving image of a predetermined length including the time when the stop is instructed to be recorded on the recording means, and learning of the measuring means by the moving image recorded on the recording means Execution And a reservation unit 165 to reserve. [Selection] Figure 6
Description
本発明は情報処理装置、情報処理方法およびプログラムに関し、特に、ロボットの走行の制御に用いる情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program, and more particularly, to an information processing device, an information processing method, and a program used for controlling the traveling of a robot.
建物内の床面の清掃にロボットが使用されるようになってきた。公共の建物や病院などの人がいる領域の清掃では、人との衝突を回避しなければならない。人との衝突の回避は、走行する車両について、各種提案されている。 Robots have come to be used for cleaning floors in buildings. When cleaning areas with people, such as public buildings and hospitals, collisions with people must be avoided. Various proposals have been made for avoiding a collision with a person on a traveling vehicle.
車両走行において、画像からニューラルネットで物体が歩行者であるか判別し、衝突危険度を判定するようにしているものもある(例えば、特許文献2参照)。 In a vehicle running, there is a type in which whether or not an object is a pedestrian is determined from an image by using a neural network, and a collision risk is determined (for example, see Patent Document 2).
画像からニューラルネットで歩行者が路上に侵入しようとしているか判別するようにしているものもある(例えば、特許文献2参照)。 Some images are used to determine whether a pedestrian is entering the road using a neural network (see, for example, Patent Document 2).
しかしながら、機械による判別だけでは、誤る可能性がある。特に、病院などでは、動きが制限されることのある患者との衝突は確実に回避する必要がある。また、衝突危険度の判定には、機械学習が用いられることも多いが、学習させて、より確実に判定させるには、学習データを用意する必要があり、手間がかかる。 However, there is a possibility of mistakes only by the discrimination by the machine. Particularly in hospitals and the like, it is necessary to reliably avoid collisions with patients whose movement may be restricted. In addition, machine learning is often used for the determination of the collision risk. However, it is necessary to prepare learning data to learn and to make a more reliable determination, which takes time.
本発明は、このような状況に鑑みてなされたものであり、より確実に衝突を回避して、より簡単に、学習ができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to more easily avoid collision and more easily learn.
本発明の一側面の情報処理装置は、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定する測定手段と、動画像の表示手段への表示を制御する表示制御手段と、表示している動画像を監視している監視者からの操作による、停止の指示を取得する取得手段と、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令手段と、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御手段と、停止が指示されたことを示すデータおよび記録手段に記録されている動画像を用いた測定手段の学習の実行を予約する予約手段とを含む。 An information processing apparatus according to an aspect of the present invention is autonomously traveling on a floor in a building and is reflected in a moving image by machine learning from a moving image transmitted from a robot that captures the moving image of the destination. By means of a measurement means for measuring the degree of danger of contact with a subject, a display control means for controlling the display of moving images on a display means, and an operation from a supervisor who is monitoring the displayed moving images, An acquisition means for acquiring a stop instruction, a command means for instructing the robot to stop when the degree of danger measured is equal to or greater than a predetermined threshold value, or a stop instruction from the supervisor, and a stop from the supervisor. When instructed, recording control means for recording a moving image for a predetermined length of time including the time when the stop is instructed is recorded on the recording means, and data indicating that the stop is instructed and recorded in the recording means measured using a moving picture And a reservation means for reserving the execution of the means of learning.
取得手段が、監視者からの操作による、減速の指示を取得し、指令手段が、減速が指示された場合、ロボットに減速を指令し、記録制御手段が、監視者から減速が指示された場合、減速が指示された時を含む所定の長さの時間の動画像を記録手段に記録させ、予約手段は、減速が指示されたことを示すデータおよび記録手段に記録されている減速が指示された時の動画像を用いた測定手段の学習の実行を予約するようにすることができる。このようにすることで、より簡単に、学習ができるようになる。 When the acquisition means acquires an instruction for deceleration by an operation from the supervisor, the command means instructs the deceleration when the deceleration is instructed, and the recording control means instructs the deceleration to be given by the supervisor The recording unit records a moving image for a predetermined length of time including when the deceleration is instructed, and the reservation unit is instructed to indicate that the deceleration has been instructed and the deceleration recorded in the recording unit. It is possible to reserve execution of learning of the measuring means using the moving image at that time . In this way, learning can be performed more easily.
予約手段が、測定手段の学習のジョブをスケジューリングすることで予約するようにすることができる。このようにすることで、より簡単に、学習ができるようになる。 The reservation means can make a reservation by scheduling a learning job of the measurement means. In this way, learning can be performed more easily.
予約手段が、監視者またはオペレータからの操作による指示に応じて、測定手段の学習のジョブのスケジューリングにおける、学習の実行の可否および学習が実行される時刻を決定するようにすることができる。このようにすることで、より簡単に、学習ができるようになる。 The reservation means can determine whether or not learning can be performed and the time at which learning is executed in scheduling of the learning job of the measurement means in accordance with an instruction by an operation from a supervisor or an operator. In this way, learning can be performed more easily.
動画像に、ロボットと被写体との接触の危険の程度を示す文字または画像を書き込む書き込み手段をさらに設け、表示制御手段が、ロボットと被写体との接触の危険の程度を示す文字または画像が書き込まれた動画像の表示手段への表示を制御するようにすることができる。このようにすることで、より確実に衝突を回避できるようになる。 The moving image is further provided with writing means for writing characters or images indicating the degree of danger of contact between the robot and the subject, and the display control means is written with characters or images indicating the degree of danger of contact between the robot and the subject. The display of the moving image on the display means can be controlled. By doing so, collision can be avoided more reliably.
測定手段が、ロボットから被写体までの距離およびロボットに対する被写体の速度を測定し、書き込み手段が、動画像に、ロボットから被写体までの距離およびロボットに対する被写体の速度を示す文字または画像を書き込み、表示制御手段が、ロボットから被写体までの距離およびロボットに対する被写体の速度を示す文字または画像が書き込まれた動画像の表示手段への表示を制御するようにすることができる。このようにすることで、より確実に衝突を回避できるようになる。 The measuring means measures the distance from the robot to the subject and the speed of the subject with respect to the robot, and the writing means writes a character or an image indicating the distance from the robot to the subject and the speed of the subject with respect to the robot on the moving image, and performs display control. The means may control the display on the display means of a moving image in which characters or images indicating the distance from the robot to the subject and the speed of the subject with respect to the robot are written. By doing so, collision can be avoided more reliably.
測定手段が、被写体が人であるかまたは人以外の物であるかを検知し、指令手段が、被写体が人であると検知された場合、ロボットに所定の音声の出力を指令するようにすることができる。このようにすることで、より確実に衝突を回避できるようになる。 The measuring means detects whether the subject is a person or something other than a person, and when the command means detects that the subject is a person, it instructs the robot to output a predetermined sound. be able to. By doing so, collision can be avoided more reliably.
本発明の一側面の情報処理方法は、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定する測定ステップと、動画像の表示手段への表示を制御する表示制御ステップと、表示している動画像を監視している監視者からの操作による、停止の指示を取得する取得ステップと、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令ステップと、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御ステップと、停止が指示されたことを示すデータおよび記録手段に記録されている動画像を用いた測定の学習の実行を予約する予約ステップとを含む。 An information processing method according to one aspect of the present invention is obtained by moving a moving image transmitted from a robot that autonomously travels on a floor in a building and picks up a moving image of the traveling destination to a moving image by machine learning. A measurement step for measuring the degree of danger of contact with a subject, a display control step for controlling the display of the moving image on the display means, and an operation from a supervisor who is monitoring the displayed moving image, An acquisition step for acquiring a stop instruction, a command step for instructing the robot to stop if the measured degree of danger is equal to or greater than a predetermined threshold value, or a stop instruction from the monitor, and a stop from the monitor. where indicated is recorded in the data and the recording means shown a recording control step for recording in the recording means a moving image of a predetermined length of time, including when the stop is instructed, that the stop is instructed That includes a reservation step of reserving the execution of the learning of measurement using the moving image.
本発明の一側面のプログラムは、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定する測定ステップと、動画像の表示手段への表示を制御する表示制御ステップと、表示している動画像を監視している監視者からの操作による、停止の指示を取得する取得ステップと、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令ステップと、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御ステップと、停止が指示されたことを示すデータおよび記録手段に記録されている動画像を用いた測定の学習の実行を予約する予約ステップとを含む情報処理をコンピュータに行わせる。 A program according to an aspect of the present invention is a program that autonomously travels on a floor in a building and that is captured in a moving image by machine learning from a moving image that is transmitted from a robot that captures the moving image of the traveling destination. A measurement step for measuring the degree of danger of contact with the display, a display control step for controlling the display of the moving image on the display means, and an operation by a supervisor who is monitoring the displayed moving image. An acquisition step for acquiring an instruction, a command step for instructing the robot to stop when the degree of the measured danger is equal to or greater than a predetermined threshold value, or a stop is instructed by the supervisor, and a stop is instructed by the supervisor. was the case, are recorded in the data and the recording means shown a recording control step for recording in the recording means a moving image of a predetermined length of time, including when the stop is instructed, that the stop is instructed To perform information processing including the reservation step of reserving the execution of the learning measurements using moving images to a computer.
本発明の一側面においては、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定し、動画像を表示手段に表示し、表示している動画像を監視している監視者からの操作による、停止の指示を取得し、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令するようにしたので、仮に、動画像に写っている被写体との接触の危険の程度の測定が誤ったとしても、表示している動画像を監視している監視者が停止を指示するので、より確実に衝突を回避することができる。また、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像が記録手段に記録され、停止が指示されたことを示すデータおよび記録手段に記録されている動画像を用いた測定の学習の実行が予約されるので、仮に、動画像に写っている被写体との接触の危険の程度の測定が誤った場合でも、その状況に合わせた学習データをいちいち用意する必要がなく、簡単に学習させることができるので、学習の後には、より確実に衝突を回避することができる。このように、より確実に衝突を回避して、より簡単に、学習ができる。 In one aspect of the present invention, a subject that appears in a moving image by machine learning from a moving image that is autonomously traveled on a floor in a building and that captures a moving image of a destination is obtained. Measures the degree of danger of contact, displays a moving image on the display means, obtains a stop instruction by an operation from a supervisor who monitors the displayed moving image, and measures the degree of danger Since the robot is instructed to stop when the value is over a predetermined threshold or when the supervisor gives an instruction to stop, the measurement of the risk of contact with the subject in the moving image is wrong. Even so, the monitoring person monitoring the displayed moving image gives an instruction to stop, so that the collision can be avoided more reliably. In addition, when a stop is instructed by the supervisor, a moving image of a predetermined length of time including the time when the stop is instructed is recorded in the recording means, and data indicating that the stop is instructed and recorded in the recording means Since the execution of measurement learning using a moving image is reserved, even if the measurement of the degree of danger of contact with the subject in the moving image is wrong, the learning data according to the situation Since it is possible to easily learn without having to prepare each time, it is possible to more reliably avoid collision after learning. In this way, learning can be performed more easily while avoiding collision more reliably.
以上のように、本発明によれば、より確実に衝突を回避して、より簡単に、学習ができる。 As described above, according to the present invention, it is possible to more easily avoid a collision and learn more easily.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、発明の詳細な説明に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、発明の詳細な説明に記載されていることを確認するためのものである。従って、発明の詳細な説明中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the configuration requirements of the present invention and the embodiments described in the detailed description of the present invention are exemplified as follows. This description is to confirm that the embodiments supporting the present invention are described in the detailed description of the invention. Accordingly, although there are embodiments that are described in the detailed description of the invention but are not described here as embodiments corresponding to the constituent elements of the present invention, It does not mean that the embodiment does not correspond to the configuration requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
本発明の一側面の情報処理装置は、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定する測定手段(例えば、図6の危険度測定部161)と、動画像の表示手段への表示を制御する表示制御手段(例えば、図6の表示制御部170)と、表示している動画像を監視している監視者からの操作による、停止の指示を取得する取得手段(例えば、図6の入力制御部169)と、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令手段(例えば、図6の指令部167)と、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御手段(例えば、図6の学習データ記録部164)と、停止が指示されたことを示すデータおよび記録手段に記録されている動画像を用いた測定手段の学習の実行を予約する予約手段(例えば、図6の学習スケジューラ165)とを含む。
An information processing apparatus according to an aspect of the present invention is autonomously traveling on a floor in a building and is reflected in a moving image by machine learning from a moving image transmitted from a robot that captures the moving image of the destination. Measuring means for measuring the degree of danger of contact with a subject (for example, the
本発明の一側面の情報処理方法は、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定する測定ステップ(例えば、図9のステップS222)と、動画像の表示手段への表示を制御する表示制御ステップ(例えば、図9のステップS223)と、表示している動画像を監視している監視者からの操作による、停止の指示を取得する取得ステップ(例えば、図16のステップS81)と、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令ステップ(例えば、図16のステップS83)と、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御ステップ(例えば、図16のステップS84)と、停止が指示されたことを示すデータおよび記録手段に記録されている動画像を用いた測定の学習の実行を予約する予約ステップ(例えば、図16のステップS85)とを含む。 An information processing method according to one aspect of the present invention is obtained by moving a moving image transmitted from a robot that autonomously travels on a floor in a building and picks up a moving image of the traveling destination to a moving image by machine learning. A measurement step (for example, step S222 in FIG. 9) for measuring the degree of danger of contact with a subject, a display control step (for example, step S223 in FIG. 9) for controlling the display of moving images on the display means, An acquisition step (for example, step S81 in FIG. 16) for acquiring a stop instruction by an operation from a monitoring person who is monitoring the displayed moving image, and the measured degree of danger is equal to or greater than a predetermined threshold. In this case, or when a stop is instructed by the supervisor, a command step for instructing the robot to stop (for example, step S83 in FIG. 16), and when a stop is instructed by the supervisor, a stop is instructed. Recording control step of recording in the recording means a moving image of a predetermined length of time including the time was (e.g., step S84 of FIG. 16) and is recorded in the data and the recording means indicate that the stop is instructed A reservation step (for example, step S85 in FIG. 16) for reserving execution of measurement learning using a moving image .
本発明の一側面のプログラムは、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定する測定ステップ(例えば、図9のステップS222)と、動画像の表示手段への表示を制御する表示制御ステップ(例えば、図9のステップS223)と、表示している動画像を監視している監視者からの操作による、停止の指示を取得する取得ステップ(例えば、図16のステップS81)と、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令ステップ(例えば、図16のステップS83)と、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御ステップ(例えば、図16のステップS84)と、停止が指示されたことを示すデータおよび記録手段に記録されている動画像を用いた測定の学習の実行を予約する予約ステップ(例えば、図16のステップS85)とを含む情報処理をコンピュータに行わせる。 A program according to an aspect of the present invention is a program that autonomously travels on a floor in a building and that is captured in a moving image by machine learning from a moving image that is transmitted from a robot that captures the moving image of the traveling destination. A measurement step (for example, step S222 in FIG. 9) for measuring the degree of danger of contact with the display, and a display control step (for example, step S223 in FIG. 9) for controlling the display of the moving image on the display means. An acquisition step (for example, step S81 in FIG. 16) for acquiring a stop instruction by an operation from a monitoring person who is monitoring a moving image, and when the degree of danger measured is equal to or greater than a predetermined threshold or When a stop is instructed by the supervisor, a command step (eg, step S83 in FIG. 16) for instructing the robot to stop, and when a stop is instructed by the supervisor, a stop is instructed. Recording control step of recording in the recording means a moving image of a predetermined length of time including the time (e.g., step S84 of FIG. 16) and, moving image recorded on the data and the recording means indicate that the stop is instructed The computer is caused to perform information processing including a reservation step (for example, step S85 in FIG. 16) for reserving execution of measurement learning using an image .
以下、図1乃至図21を参照して、本発明の実施の形態を説明する。 Embodiments of the present invention will be described below with reference to FIGS.
図1は、清掃システム11の構成の一例を示す図である。清掃システム11は、病院や公共施設などの建物の屋内の床を清掃する。清掃システム11は、自律的に走行して、清掃を行う清掃ロボットを制御して、清掃ロボットに清掃をさせる。清掃システム11は、AI(Artificial Intelligence)サーバ21、清掃ロボット22−1および22−2、ハブ23、アクセスポイント24−1乃至24−3並びにタッチパネルモニタ25−1および25−2を含み構成される。
FIG. 1 is a diagram illustrating an example of the configuration of the
AIサーバ21は、動画像から、動画像のシーンにおける危険の程度を測定する。ここで動画像のシーンとは、動画像における一区切りであって、所定の状態または所定の動作をしている所定の被写体がある、所定の場所が写されている一区切りをいう。例えば、AIサーバ21は、動画像から、動画像に写っている被写体と清掃ロボット22−1および22−2との接触の危険の程度を測定する。AIサーバ21は、測定された危険の程度が所定の閾値以上である場合、清掃ロボット22−1および22−2の停止または減速を指令する。清掃ロボット22−1および22−2は、自律的に走行して、床面の清掃を行う。清掃ロボット22−1および22−2は、走行する先の動画像を撮像する。 The AI server 21 measures the degree of danger in the scene of the moving image from the moving image. Here, the scene of a moving image is a segment in the moving image, which is a segment where a predetermined place where a predetermined subject in a predetermined state or a predetermined motion is present is photographed. For example, the AI server 21 measures the degree of danger of contact between the subject shown in the moving image and the cleaning robots 22-1 and 22-2 from the moving image. The AI server 21 instructs the cleaning robots 22-1 and 22-2 to stop or decelerate when the measured degree of danger is equal to or greater than a predetermined threshold. The cleaning robots 22-1 and 22-2 travel autonomously and clean the floor surface. The cleaning robots 22-1 and 22-2 capture a moving image of the traveling destination.
すなわち、AIサーバ21は、走行する先の動画像を撮像する清掃ロボット22−1および22−2から送信されてくる動画像の撮像データを処理して、動画像に写っている被写体との接触の危険の程度を測定し、測定された危険の程度が所定の閾値以上である場合、清掃ロボット22−1および22−2の停止または減速を指令する。 That is, the AI server 21 processes the moving image imaging data transmitted from the cleaning robots 22-1 and 22-2 that captures the moving image of the traveling destination, and makes contact with the subject reflected in the moving image. The degree of danger is measured, and if the measured degree of danger is equal to or greater than a predetermined threshold, the cleaning robots 22-1 and 22-2 are instructed to stop or decelerate.
ハブ23は、スター型のネットワークトポロジ(物理トポロジ)を採用するネットワークにおける集線装置である。ハブ23は、AIサーバ21とアクセスポイント24−1乃至24−3のそれぞれとを接続する。 The hub 23 is a line concentrator in a network that employs a star-type network topology (physical topology). The hub 23 connects the AI server 21 and each of the access points 24-1 to 24-3.
アクセスポイント24−1乃至24−3は、それぞれ、清掃ロボット22−1および22−2のそれぞれに、無線LAN(Local Area Network)の所定の規格の無線通信で接続するための無線通信機である。清掃ロボット22−1および22−2は、走行する先の動画像を撮像し、ハブ23およびアクセスポイント24−1乃至24−3を介して、AIサーバ21に動画像を表示させる撮像データを送信する。 The access points 24-1 to 24-3 are wireless communication devices for connecting to the cleaning robots 22-1 and 22-2, respectively, by wireless communication of a predetermined standard of a wireless local area network (LAN). . The cleaning robots 22-1 and 22-2 capture the moving image of the traveling destination, and transmit imaging data for displaying the moving image on the AI server 21 via the hub 23 and the access points 24-1 to 24-3. To do.
タッチパネルモニタ25−1および25−2は、表示機能および入力機能を備える。タッチパネルモニタ25−1および25−2は、タッチスクリーンとも称され、AIサーバ21からの画像データにより所定の画像を表示する。また、タッチパネルモニタ25−1および25−2のそれぞれの画面の前面には、表示されている画像を透過させ、接触された位置を入力する位置入力装置であるタッチパネルが設けられている。タッチパネルモニタ25−1および25−2のそれぞれのタッチパネルが触られて操作されると、触られた位置を示す信号がAIサーバ21に送られる。 The touch panel monitors 25-1 and 25-2 have a display function and an input function. The touch panel monitors 25-1 and 25-2 are also referred to as touch screens, and display predetermined images based on image data from the AI server 21. In addition, a touch panel which is a position input device that transmits a displayed image and inputs a touched position is provided on the front surface of each screen of the touch panel monitors 25-1 and 25-2. When the touch panels of the touch panel monitors 25-1 and 25-2 are touched and operated, a signal indicating the touched position is sent to the AI server 21.
AIサーバ21は、清掃ロボット22−1および22−2から送信されてくる撮像データにより、動画像をタッチパネルモニタ25−1および25−2に表示させる。清掃ロボット22−1および22−2の走行を監視している監視者は、タッチパネルモニタ25−1および25−2に表示されている動画像を監視する。監視者は、タッチパネルモニタ25−1および25−2に表示されている動画像から、清掃ロボット22−1または22−2と患者や通行人などの人が接触する危険があると判断した場合、タッチパネルモニタ25−1または25−2にタッチして、清掃ロボット22−1または22−2を停止させるか、または減速させる。 The AI server 21 displays moving images on the touch panel monitors 25-1 and 25-2 based on the imaging data transmitted from the cleaning robots 22-1 and 22-2. The supervisor who monitors the running of the cleaning robots 22-1 and 22-2 monitors the moving images displayed on the touch panel monitors 25-1 and 25-2. When the supervisor determines from the moving images displayed on the touch panel monitors 25-1 and 25-2 that there is a risk that the cleaning robot 22-1 or 22-2 will come into contact with a person such as a patient or a passerby, Touching the touch panel monitor 25-1 or 25-2, the cleaning robot 22-1 or 22-2 is stopped or decelerated.
清掃ロボット22は、病院や公共施設などの建物の屋内を走行するので、速度は人が歩く程度であり、道路を走行する自動車などに比較して遅いので、監視者が、タッチパネルモニタ25の画像を見て、停止または減速を指示すれば、被写体との接触などの危険を回避することができる。
Since the cleaning
なお、以下、清掃ロボット22−1および22−2を個々に区別する必要がない場合、単に、清掃ロボット22と称する。また、以下、アクセスポイント24−1乃至24−3を個々に区別する必要がない場合、単に、アクセスポイント24と称する。さらに、以下、タッチパネルモニタ25−1および25−2を個々に区別する必要がない場合、単に、タッチパネルモニタ25と称する。
Hereinafter, the cleaning robots 22-1 and 22-2 are simply referred to as the cleaning
図1には、2つの清掃ロボット22を示したが、単数または複数の任意の数の清掃ロボット22を用いることができる。また、図1には、3つのアクセスポイント24を示したが、単数または複数の任意の数のアクセスポイント24を設けることができる。さらにまた、図1には、2つのタッチパネルモニタ25を示したが、単数または複数の任意の数のタッチパネルモニタ25を設けることができる。
Although two cleaning
図2は、清掃ロボット22の外形の一例を示す図である。清掃ロボット22の本体41には、走行のための車輪やモータ、清掃のためのブラシやブラシを駆動するためのモータおよびバッテリなどの電源などが設けられている。清掃ロボット22の本体41の上面前方には、制御モジュール42が設けられている。制御モジュール42は、タブレット型のパーソナルコンピュータまたは専用のコンピュータなどからなる。制御モジュール42は、アクセスポイント24およびハブ23を介して、AIサーバ21と通信する。制御モジュール42は、停止などの各種の指令を本体41に送り、本体41の動作を制御する。
FIG. 2 is a diagram illustrating an example of the outer shape of the cleaning
清掃ロボット22の本体41の前面側には、カメラ43が設けられている。カメラ43は、清掃ロボット22の前方の動画像を撮像する。すなわち、カメラ43は、清掃ロボット22が走行する先の動画像を撮像する。カメラ43で撮像された動画像の撮像データは、制御モジュール42により、AIサーバ21に送信される。
A
次に、清掃ロボット22のハードウェアの構成について説明する。
Next, the hardware configuration of the cleaning
図3は、清掃ロボット22のハードウェアの構成の一例を示すブロック図である。清掃ロボット22は、制御モジュール42、カメラ43、走行動作制御部51、センサ52、駆動部53、モータ54、車輪55、清掃動作制御部61、センサ62、駆動部63、モータ64およびブラシ65を含み構成される。制御モジュール42は、スピーカ71、表示部72、タッチパネル73、通信部74および記憶部75を含む。スピーカ71は、いわゆるラウドスピーカであり、各種の音声を出力する(放音する)。例えば、スピーカ71は、病院や公共施設などの建物の屋内を通行している人に対してメッセージを示す音声を出力する。表示部72は、液晶表示装置や有機EL(Electro-luminescence)表示装置などからなり、各種の画像や文字などを表示する。例えば、表示部72は、病院や公共施設などの建物の屋内を通行している人に対してメッセージを示す画像や文字を表示する。タッチパネル73は、表示部72の表示面に設けられ、表示部72に表示されている画像を透過させ、接触された位置を入力する。例えば、タッチパネル73は、起動の時にオペレータからの指示などを入力する。通信部74は、無線LANの所定の規格により、アクセスポイント24と無線通信する。記憶部75は、フラッシュメモリなどの不揮発性メモリなどからなり、各種のデータを記憶する。
FIG. 3 is a block diagram illustrating an example of a hardware configuration of the cleaning
走行動作制御部51は、専用のプロセッサなどからなり、センサ52または制御モジュール42からの信号により、駆動部53を制御することで、清掃ロボット22の走行を制御する。センサ52は、赤外線や超音波を利用した距離センサや3次元の加速度センサなどからなり、清掃ロボット22の姿勢や周囲の人や物を検知して、その検知結果を示す信号を走行動作制御部51に供給する。駆動部53は、インバータなどであり、図示せぬバッテリなどの電源によって、モータ54を駆動する。モータ54は、清掃ロボット22の底面の4隅などに設けられている車輪55を回転させたり、車輪55の向きを変えたりする。
The traveling
清掃動作制御部61は、専用のプロセッサなどからなり、センサ62からの信号により、駆駆動部63を制御することで、清掃ロボット22による清掃の動作を制御する。センサ62は、掃除のときの音を感知するマイク、またはごみの有無や量を感知するピエゾセンサや光センサなどからなり、床のごみや清掃の動作の状態を感知して、その検知結果を示す信号を清掃動作制御部61に供給する。駆動部63は、インバータなどであり、図示せぬバッテリなどの電源によって、モータ64を駆動する。モータ64は、清掃ロボット22の底面などに設けられているブラシ65を回転させたり、ごみを吸い込む吸引装置を動作させたりする。
The cleaning
次に、制御モジュール42の機能について説明する。
Next, the function of the
図4は、制御モジュール42が制御プログラムを実行することにより実現される機能の構成の一例を説明するブロック図である。制御モジュール42が制御プログラムを実行すると、撮像制御部81、符号化部82、通信制御部83、フラグ設定部84、記憶制御部85、指示部86および音声出力制御部87が実現される。
FIG. 4 is a block diagram illustrating an example of a functional configuration realized by the
撮像制御部81は、カメラ43による動画像の撮像を制御する。符号化部82は、カメラ43により撮像された動画像をH.262/MPEG(Moving Picture Experts Group)-2 Part 2やMPEG-4 AVC(Advanced Video Coding)/H.264などの方式により、符号化して、撮像データを生成する。通信制御部83は、通信部74による通信を制御する。通信制御部83は、送信制御部91および受信制御部92を含む。送信制御部91は、通信部74を制御することで、動画像の撮像データの送信など、アクセスポイント24を介したAIサーバ21への各種のデータの送信を制御する。受信制御部92は、通信部74を制御することで、停止を指示する制御信号の受信など、アクセスポイント24を介してAIサーバ21から送信されてくる各種のデータの受信を制御する。
The imaging control unit 81 controls imaging of moving images by the
フラグ設定部84は、記憶部75の所定のアドレスのデータのビットを0または1に設定することで、清掃ロボット22が停止していることを示す停止フラグなど各種のフラグを設定する。記憶制御部85は、記憶部75への音声のデータの記憶を制御する。指示部86は、タッチパネル73からの操作に応じた信号やAIサーバ21から停止を指示する制御信号などに応じて、走行動作制御部51に停止や減速などを指示する。指示部86は、判定部93を含む。判定部93は、AIサーバ21から送信されてきた制御信号が停止を指示するものであるか、減速を指示するものであるかなどを判定する。
The flag setting unit 84 sets various flags such as a stop flag indicating that the cleaning
音声出力制御部87は、AIサーバ21から送信されてくる制御信号であって、音声の出力を指示する制御信号を受信した場合、記憶部75に記憶されている音声データを読み出して、音声データによる音声をスピーカ71に出力させる。
When the voice
次に、AIサーバ21のハードウェアについて説明する。 Next, the hardware of the AI server 21 will be described.
図5は、AIサーバ21のハードウェアの構成の一例を示すブロック図である。 FIG. 5 is a block diagram illustrating an example of a hardware configuration of the AI server 21.
AIサーバ21において、CPU(Central Processing Unit)121,ROM(Read Only Memory)122,RAM(Random Access Memory)123は、バス124により相互に接続されている。
In the AI server 21, a CPU (Central Processing Unit) 121, a ROM (Read Only Memory) 122, and a RAM (Random Access Memory) 123 are connected to each other by a
バス124には、さらに、入出力インタフェース125が接続されている。入出力インタフェース125には、必要に応じて接続されるキーボードまたはマウスなどよりなる入力部126、必要に応じて接続されるディスプレイなどよりなる出力部127、ハードディスクや不揮発性のメモリなどよりなる記録部128、ネットワークインタフェースなどよりなる通信部129、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア131を駆動するドライブ130が接続されている。
An input /
また、入出力インタフェース125には、図示せぬGPU(Graphics Processing Unit)を介して、タッチパネルモニタ25が接続されている。
The touch panel monitor 25 is connected to the input /
以上のように構成されるAIサーバ21(コンピュータ)では、CPU121が、例えば、記録部128に記録されているプログラムを、入出力インタフェース125及びバス124を介して、RAM123にロードして実行することにより、後述する一連の処理が行われる。
In the AI server 21 (computer) configured as described above, the
AIサーバ21(CPU121)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア131に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
The programs executed by the AI server 21 (CPU 121) are, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, Alternatively, it is recorded on a
そして、プログラムは、リムーバブルメディア131をドライブ130に装着することにより、入出力インタフェース125を介して、記録部128に記録することで、コンピュータにインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部129で受信し、記録部128に記録することで、コンピュータにインストールすることができる。その他、プログラムは、ROM122や記録部128にあらかじめ記憶または記録しておくことで、コンピュータにあらかじめインストールしておくことができる。
The program can be installed in the computer by mounting the
すなわち、AIサーバ21(コンピュータ)では、インストールされたプログラムを実行することにより、図6を参照して後述する機能が実現される。 That is, in the AI server 21 (computer), the functions described later with reference to FIG. 6 are realized by executing the installed program.
図6は、AIサーバ21がプログラムを実行することにより実現される機能の構成の一例を示すブロック図である。AIサーバ21がプログラムを実行することにより、危険度測定部161、撮像データバッファ162、復号部163、学習データ記録制御部164、学習スケジューラ165、判定部166、指令部167、通信制御部168、入力制御部169および表示制御部170が実現される。危険度測定部161は、清掃ロボット22から送信されてくる動画像の撮像データから、機械学習によって、動画像のシーンの危険の程度を測定する。また、危険度測定部161は、清掃ロボット22から送信されてくる動画像の撮像データから、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定する。また、危険度測定部161は、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を測定する。危険度測定部161は、物体検知AI部171、画像処理部172、危険度測定AI部173および描画部174を含む。
FIG. 6 is a block diagram illustrating an example of a functional configuration realized by the AI server 21 executing a program. When the AI server 21 executes the program, the
なお、危険度測定部161は、図示せぬGPUに計算を実行させて、動画像のシーンの危険の程度を測定するようにしてもよい。また、危険度測定部161は、図示せぬAIチップに計算を実行させて、動画像のシーンの危険の程度を測定するようにしてもよい。なお、危険度測定部161は、清掃ロボット22の数だけ実現されるようにしてもよい。例えば、図1に示されるように、清掃システム11において、清掃ロボット22−1および22−2が清掃する場合、図示は省略するが、プログラムを実行するAIサーバ21は、清掃ロボット22−1用の危険度測定部161−1と、清掃ロボット22−2用の危険度測定部161−2とを実現させる。
The
物体検知AI部171は、清掃ロボット22により撮像された動画像の撮像データから、ニューラルネットワークを用いた機械学習によって、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する。
The object
例えば、物体検知AI部171は、ディープラーニングを利用した物体検出を行うYOLO(You Only Look Once),R-CNN(Regions with Convolutional Neural Network),Faster R-CNNまたはFCN(Fully Convolutional Network)などの畳み込みニューラルネットワークによる機械学習によって、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する。例えば、YOLOを採用する物体検知AI部171は、動画像の全体からクラス確率および物体のバウンディングボックス座標を推論する。例えば、R-CNNを採用する物体検知AI部171は、選択的探索法から得られる物体領域候補内の画像を、事前に学習しておいたCNN(Convolutional Neural Network)に入力して、画像特徴を抽出し、抽出された画像特徴を線形サポートベクトルマシンに入力して物体クラスを予測する。
For example, the object
なお、物体検知AI部171は、学習済みモデルを使用して、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する。
The object
また、物体検知AI部171は、図示せぬGPUに計算を実行させて、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知するようにしてもよい。なお、物体検知AI部171は、図示せぬAIチップに計算を実行させて、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知するようにしてもよい。さらにまた、物体検知AI部171は、清掃ロボット22の数だけ実現されるようにしてもよい。例えば、図1に示されるように、清掃システム11において、清掃ロボット22−1および22−2が清掃する場合、図示は省略するが、プログラムを実行するAIサーバ21は、清掃ロボット22−1用の物体検知AI部171−1と、清掃ロボット22−2用の物体検知AI部171−2とを実現させる。
In addition, the object
画像処理部172は、画像処理により、動画像および動画像における被写体の位置から、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を求める。また、画像処理部172は、画像処理により、物体検知AI部171において被写体が人であると検知された場合、清掃ロボット22に対する被写体の向きまたは清掃ロボット22に対する被写体の顔の向きを求める。例えば、画像処理部172は、動画像および動画像における被写体の位置から、平面射影変換またはリセクションの処理により、清掃ロボット22から被写体までの距離を求める。例えば、画像処理部172は、動画像および動画像における被写体の位置から、背景差分法またはオプティカルフローにより、清掃ロボット22に対する被写体の速度を求める。
The
例えば、画像処理部172は、目、鼻および口などの特徴点(領域)から左目端点、右目端点、鼻頂点、口左端、口右端および顎の先の6つの点を検出して、顔の回転角度を求めることで、清掃ロボット22に対する被写体の顔の向きを求める。また、例えば、画像処理部172は、動画像における、被写体の身体の特徴量を抽出し、正規化した特徴量からSVM(Support Vector Machine)およびクラス識別器により被写体の身体の向きを検出する。
For example, the
なお、物体検知AI部171または画像処理部172は、人である被写体が健常者、患者または子供であるか否か、人である被写体が立ち話をしているか否か、人である被写体が松葉杖をついているか否か、人である被写体が点滴スタンドを持っているか否かなどを検出するようにしてもよい。
Note that the object
危険度測定AI部173は、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、ニューラルネットワークを用いた機械学習によって、動画像のシーンの危険の程度を測定する。また、危険度測定AI部173は、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、ニューラルネットワークを用いた機械学習によって、清掃ロボット22と被写体との接触の危険の程度を測定する。
The risk
例えば、危険度測定AI部173は、Deep CNNなどの畳み込みニューラルネットワークによる機械学習によって、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、動画像のシーンの危険の程度を測定する。例えば、危険度測定AI部173は、Deep CNNなどの畳み込みニューラルネットワークによる機械学習によって、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、清掃ロボット22と被写体との接触の危険の程度を測定する。
For example, the risk
なお、危険度測定AI部173は、学習済みモデルを使用して、動画像のシーンの危険の程度および清掃ロボット22と被写体との接触の危険の程度を測定する。
The degree-of-risk
描画部174は、動画像に、動画像のシーンの危険の程度を示す文字または画像を書き込む。また、描画部174は、動画像に、清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を書き込む。すなわち、描画部174は、動画像の撮像データに、動画像のシーンの危険の程度を示す文字または画像および清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を表示させるデータを書き込む。より詳細には、描画部174は、動画像に、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離、清掃ロボット22に対する被写体の速度または動画像のシーンの危険の程度若しくは清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を描画する。
The
さらに、描画部174は、動画像に、動画像のシーンの危険の程度または被写体との接触の危険の程度に応じた停止または減速などの清掃ロボット22への指令を示す文字または画像を書き込む。
Further, the
撮像データバッファ162は、RAM123の記憶領域または記録部128の記録領域を用いて、清掃ロボット22からの撮像データを一時的に格納する。例えば、撮像データバッファ162は、リングバッファとされる。復号部163は、清掃ロボット22からの撮像データであって、符号化部82で符号化されている撮像データを復号する。学習データ記録制御部164は、タッチパネルモニタ25への操作によって監視者から清掃ロボット22の停止または減速が指示された場合、撮像データバッファ162から撮像データを取得して、停止が指示された時を含む所定の長さの時間の動画像の撮像データを記録部128に記録させる。学習スケジューラ165は、記録部128に記録された動画像の撮像データによる危険度測定部161の学習の実行を予約する。学習スケジューラ165は、危険度測定部161の学習のジョブをスケジューリングすることで予約する。また、学習スケジューラ165は、監視者またはオペレータからのタッチパネルモニタ25または入力部126への操作による指示に応じて、危険度測定部161の学習のジョブのスケジューリングにおける、学習の実行の可否および学習が実行される時刻を決定する。
The
判定部166は、危険度測定AI部173で測定された清掃ロボット22と被写体との接触の危険の程度から、清掃ロボット22に停止を指令するか否か、清掃ロボット22に減速を指令するか否かなどを判定する。指令部167は、通信部129から清掃ロボット22に制御信号を送信させることで、清掃ロボット22に停止、減速または加速を指令する。通信制御部168は、通信部129による通信を制御する。通信制御部168は、送信制御部175および受信制御部176を含む。送信制御部175は、通信部129を制御することで、停止を指示する制御信号の送信など、アクセスポイント24を介した清掃ロボット22への各種のデータの送信を制御する。受信制御部176は、通信部129を制御することで、動画像の撮像データの受信など、アクセスポイント24を介して清掃ロボット22から送信されてくる各種のデータの受信を制御する。
The
入力制御部169は、タッチパネルモニタ25のタッチパネルを制御し、監視者がタッチパネルモニタ25のタッチパネルを操作した場合にタッチパネルモニタ25から送信されてくる、操作に応じた信号を取得する。表示制御部170は、タッチパネルモニタ25のモニタを制御し、清掃ロボット22から送信されてくる動画像をタッチパネルモニタ25に表示させる。
The
次に、フローチャートを参照して、清掃システム11において行われる処理を説明する。
Next, the process performed in the
図7は、起動の処理を説明するフローチャートである。ステップS101において、監視者またはオペレータの操作により、制御モジュール42が起動させられる。ステップS102において、制御モジュール42は、AIサーバ21に接続する。ステップS201において、AIサーバ21は、制御モジュール42と接続する。例えば、制御モジュール42の通信制御部83は、通信部74に、TCP(Transmission Control Protocol)により、ハブ23およびアクセスポイント24を介して、通信制御部168に制御される通信部129とコネクションを確立させる。なお、制御モジュール42とAIサーバ21とは、UDP(User Datagram Protocol)により接続するようにしてもよい。
FIG. 7 is a flowchart for explaining the activation process. In step S101, the
ステップS103において、指示部86の判定部93は、通信制御部83からコネクションが確立しているか否かを示すステータス情報を取得して、ステータス情報を参照して、制御モジュール42がAIサーバ21に接続しているか否かを判定する。ステップS103において、制御モジュール42がAIサーバ21に接続していないと判定された場合、手続きはステップS104に進み、判定部93は、制御モジュール42に内蔵されているタイマにより、ステップS102の手続きからの経過時間を計り、例えば1秒間経過したか否かにより、タイムアウトしたか否かを判定する。例えば、ステップS104において、判定部93は、ステップS102の手続きからの1秒間経過していない場合、タイムアウトしていないと判定し、ステップS102の手続きからの1秒間以上経過した場合、タイムアウトしたと判定する。
In step S <b> 103, the
ステップS104において、タイムアウトしていないと判定された場合、手続きはステップS103に戻り、上述した処理が繰り返される。ステップS104において、タイムアウトしたと判定された場合、手続きはステップS105に進み、判定部93は、フラグ設定部84により設定される停止フラグであって、清掃ロボット22が停止していることを示す停止フラグが立っているか否かを判定する。ステップS105において、停止フラグが立っていると判定された場合、手続きはステップS102に戻り、上述した処理が繰り返される。
If it is determined in step S104 that the timeout has not occurred, the procedure returns to step S103, and the above-described processing is repeated. If it is determined in step S104 that the time-out has occurred, the procedure proceeds to step S105, and the
ステップS105において、停止フラグが立っていないと判定された場合、手続きはステップS106に進み、制御モジュール42は、清掃ロボット22を停止させる。すなわち、制御モジュール42の指示部86は、走行動作制御部51に停止を指示する。ステップS105の後、手続きはステップS102に戻り、上述した処理が繰り返される。
If it is determined in step S105 that the stop flag is not set, the procedure proceeds to step S106, and the
ステップS103において、制御モジュール42がAIサーバ21に接続していると判定された場合、手続きはステップS107に進み、撮像制御部81は、カメラ43を制御して、カメラ43に動画像の撮像を開始させる。カメラ43は、動画像のデータを制御モジュール42に供給する。ステップS108において、制御モジュール42による走行制御の処理が開始され、起動の処理は終了する。
If it is determined in step S103 that the
図8は、ステップS108の走行制御の処理の詳細を説明するフローチャートである。ステップS11において、指示部86は、走行動作制御部51および清掃動作制御部61から清掃ロボット22の動作状態を示すデータ(以下、動作状態データと称する。)を取得する。ステップS12において、指示部86の判定部93は、動作状態データを参照して、清掃ロボット22が停止しているか否かを判定する。ステップS12において、清掃ロボット22が停止していると判定された場合、手続きはステップS13に進み、フラグ設定部84は、停止フラグを立てる。ステップS12において、清掃ロボット22が停止していないと判定された場合、手続きはステップS14に進み、フラグ設定部84は、停止フラグを倒す。
FIG. 8 is a flowchart illustrating details of the travel control process in step S108. In step S <b> 11, the instruction unit 86 acquires data indicating the operation state of the cleaning
ステップS13またはステップS14の後、手続きはステップS15に進み、通信制御部83の受信制御部92は、通信部74に、AIサーバ21から送信されてくる制御信号を受信させる。ステップS16において、指示部86の判定部93は、受信した制御信号により停止が指示されたか否かを判定する。ステップS16において、停止が指示されたと判定された場合、手続きはステップS17に進み、指示部86は、走行動作制御部51に停止を指示して、清掃ロボット22を停止させ、手続きはステップS11に戻り、上述した処理が繰り返される。
After step S13 or step S14, the procedure proceeds to step S15, and the reception control unit 92 of the communication control unit 83 causes the
ステップS16において、停止が指示されていないと判定された場合、手続きはステップS18に進み、指示部86の判定部93は、受信した制御信号により減速が指示されたか否かを判定する。ステップS18において、減速が指示されたと判定された場合、手続きはステップS19に進み、指示部86は、走行動作制御部51に減速を指示して、清掃ロボット22を減速させ、手続きはステップS11に戻り、上述した処理が繰り返される。
If it is determined in step S16 that stop is not instructed, the procedure proceeds to step S18, and the
ステップS18において、減速が指示されていないと判定された場合、手続きはステップS20に進み、指示部86の判定部93は、受信した制御信号により加速が指示されたか否かを判定する。ステップS20において、加速が指示されたと判定された場合、手続きはステップS21に進み、指示部86は、走行動作制御部51に加速および通常走行を指示して、清掃ロボット22を加速させて通常走行させ、手続きはステップS11に戻り、上述した処理が繰り返される。
If it is determined in step S18 that deceleration is not instructed, the procedure proceeds to step S20, and the
ステップS20において、加速が指示されていないと判定された場合、手続きはステップS22に進み、指示部86の判定部93は、受信した制御信号により停止フラグが要求されたか否かを判定する。ステップS22において、停止フラグが要求されたと判定された場合、手続きはステップS23に進み、フラグ設定部84は、停止フラグを読み出して、通信制御部83の送信制御部91は、通信部74に、読み出した停止フラグをAIサーバ21宛に送信させる。ステップS23の後、手続きはステップS11に戻り、上述した処理が繰り返される。
If it is determined in step S20 that acceleration is not instructed, the procedure proceeds to step S22, and the
ステップS22において、停止フラグが要求されていないと判定された場合、手続きはステップS24に進み、指示部86の判定部93は、受信した制御信号により音声の出力が要求されたか否かを判定する。ステップS24において、音声の出力が要求されたと判定された場合、手続きはステップS25に進み、音声出力制御部87は、記憶部75から音声データを読み出して、読み出した音声データによりスピーカ71に音声を出力させる。ステップS23の後またはステップS24において、音声の出力が要求されていないと判定された場合、手続きはステップS11に戻り、上述した処理が繰り返される。
When it is determined in step S22 that the stop flag is not requested, the procedure proceeds to step S24, and the
次に、図9および図10のフローチャートを参照して、AIサーバ21による清掃ロボット22の走行制御の処理を説明する。ステップS121において、清掃ロボット22は、撮像データをストリーミングでAIサーバ21に送信する。すなわち、ステップS121において、符号化部82は、カメラ43の撮像により得られた動画像のデータを符号化して、ストリーミングデータである撮像データを生成し、通信制御部83の送信制御部91は、通信部74に、AIサーバ21宛に、ストリーミングデータである撮像データを送信させる。
Next, with reference to the flowcharts of FIGS. 9 and 10, the travel control processing of the cleaning
ステップS221において、AIサーバ21は、ストリーミングデータである撮像データを受信する。より詳細には、通信制御部168の受信制御部176は、通信部129に、清掃ロボット22から送信されてきた撮像データを受信させる。撮像データバッファ162は、受信した撮像データを一時的に格納する。危険度測定部161は、撮像データバッファ162から順に撮像データを読み出す。
In step S221, the AI server 21 receives imaging data that is streaming data. More specifically, the
ステップS222において、危険度の測定の処理が行われる。 In step S222, risk level measurement processing is performed.
ここで、図11のフローチャートを参照して、危険度の測定の処理の詳細を説明する。ステップS51において、危険度測定部161の物体検知AI部171は、清掃ロボット22により撮像された動画像の撮像データから、ニューラルネットワークを用いた機械学習によって、動画像に写っている被写体について、被写体の種類と画像中の被写体の位置とを検知する。言い換えれば、物体検知AI部171は、移動体である清掃ロボット22により撮像された動画像から、ニューラルネットワークを用いた機械学習によって、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する。
Here, with reference to the flowchart of FIG. 11, the details of the process of measuring the risk will be described. In step S <b> 51, the object
ステップS52において、危険度測定部161の画像処理部172は、画像処理により、撮像データ、被写体の種類および画像中の被写体の位置から、清掃ロボット22から被写体までの距離や被写体の移動速度など被写体の属性を求める。すなわち、画像処理部172は、画像処理により、動画像および動画像における被写体の位置から、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を求める。また、画像処理部172は、画像処理により、ステップS51において被写体が人であると検知された場合、清掃ロボット22に対する被写体の向きまたは清掃ロボット22に対する被写体の顔の向きを求める。
In step S52, the
ステップS53において、危険度測定部161の危険度測定AI部173は、撮像データ、被写体の種類、画像中の被写体の位置および被写体の属性から、危険度を測定する。例えば、危険度測定AI部173は、撮像データ、被写体の種類、画像中の被写体の位置および被写体の属性から、動画像のシーンの危険の程度である危険度を測定する。また、例えば、危険度測定AI部173は、撮像データ、被写体の種類、画像中の被写体の位置および被写体の属性から、清掃ロボット22と被写体との接触の危険の程度である危険度を測定する。ここで、例えば、危険度は、0%乃至100%の範囲で表される。0%である危険度は、清掃ロボット22と被写体との接触の危険がないことを示す。100%である危険度は、清掃ロボット22と被写体との接触の可能性が極めて大きいことを示す。例えば、危険度は、清掃ロボット22が階段などの段差から転落する危険の程度を示す。また、例えば、危険度は、ロボット22の近くの扉が開いて、扉の陰にいる人が扉と接触する危険の程度を示す。さらに例えば、危険度は、ロボット22が床面に落とされた物(落下物)を清掃で巻き込んでしまう危険の程度を示す。
In step S53, the risk
言い換えると、危険度測定AI部173は、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、ニューラルネットワークを用いた機械学習によって、動画像のシーンの危険の程度を測定する。危険度測定AI部173は、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、ニューラルネットワークを用いた機械学習によって、清掃ロボット22と被写体との接触の危険の程度および動画像のシーンの危険の程度を測定する。
In other words, the risk
ステップS54において、危険度測定部161の描画部174は、撮像データに、被写体の位置を示す枠、被写体の種類、被写体の属性、測定の結果である危険度および危険度に応じた制御信号を示す画像または文字を描画するデータを書き込み、危険度の測定の処理は終了する。すなわち、ステップS54において描画部174は、動画像に、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離、清掃ロボット22に対する被写体の速度または清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を描画する。
In step S54, the
図9に戻り、ステップS223において、AIサーバ21は、タッチパネルモニタ25に、危険度の測定の結果が書き込まれた撮像データで動画像を表示させる。 Returning to FIG. 9, in step S <b> 223, the AI server 21 causes the touch panel monitor 25 to display a moving image with the imaging data in which the result of the risk degree measurement is written.
図12は、タッチパネルモニタ25に表示される動画像の例を示す図である。タッチパネルモニタ25は、動画像と、被写体が人であるかまたは人以外の物であるかが検知された被写体の位置を示す枠201、被写体の種類および被写体の種類の正しさの確率を示す「Person:0.89」などの種類表示202、清掃ロボット22から被写体までの距離をcm単位で示す「70」などの距離表示203を表示させる。また、タッチパネルモニタ25は、画面の右上に、清掃ロボット22の状態を示す画像であるステータスモニタ204を表示させる。ステータスモニタ204には、「ROBOT1」などの清掃ロボット22の名称、「East Bldg 1F」などの清掃ロボット22の現在位置、「Degree of Risk 20%」などの動画像のシーンの危険の程度が文字で表示される。また、ステータスモニタ204には、清掃ロボット22が通常の走行状態であることを示すランプ表示211、清掃ロボット22が減速していることを示すランプ表示212、および清掃ロボット22が停止していることを示すランプ表示213が配置されている。ランプ表示211、ランプ表示212およびランプ表示213は、交通信号を模した画像であり、いずれか1つがアクティブ(輝度が高くなる)になるように表示される画像である。例えば、ランプ表示211、ランプ表示212およびランプ表示213は、それぞれ、緑色、黄色、赤色のそれぞれに表示される。
FIG. 12 is a diagram illustrating an example of a moving image displayed on the touch panel monitor 25. The touch panel monitor 25 indicates a moving image, a
例えば、図12に示されるように、ランプ表示211がアクティブに表示され、ランプ表示212およびランプ表示213が非アクティブ(輝度が低くなる)に表示されている場合、ランプ表示211、ランプ表示212およびランプ表示213は、清掃ロボット22が通常の走行状態であることを示す。
For example, as shown in FIG. 12, when the
タッチパネルモニタ25は、画面の左下に、「Stop」と表示され、停止を指示するためのボタン205および「Attention」と表示され、「注意してください。ロボットが通ります。」などの音声の出力を指示するためのボタン206を表示させる。さらに、タッチパネルモニタ25は、画面の右下に、距離等表示207に「停止:0%:70cm」などと表示する。
On the touch panel monitor 25, “Stop” is displayed at the lower left of the screen, a
図9に戻り、ステップS224において、判定部166は、ステップS53において測定された危険度が40%以上60%未満であるか否かを判定する。例えば、ステップS224において、判定部166は、動画像のシーンの危険度が40%以上60%未満であるか否かを判定する。ステップS224において、危険度が40%以上60%未満であると判定された場合、手続きはステップS225に進み、指令部167は、減速を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、減速を指示する制御信号を清掃ロボット22宛に送信させる。また、この場合、指令部167は、スピーカである出力部127に、所定のビープ音などの音を出力させて、減速したことを監視者に知らせる。
Returning to FIG. 9, in step S224, the
ステップS224において、危険度が40%以上60%未満でないと判定された場合、手続きはステップS226に進み、判定部166は、ステップS53において測定された危険度が60%以上であるか否かを判定する。例えば、ステップS226において、判定部166は、動画像のシーンの危険度が60%以上であるか否かを判定する。ステップS226において、危険度が60%以上であると判定された場合、手続きはステップS227に進み、指令部167は、停止を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、停止を指示する制御信号を清掃ロボット22宛に送信させる。
If it is determined in step S224 that the degree of risk is not 40% or more and less than 60%, the procedure proceeds to step S226, and the
この場合、例えば、図13に示されるように、AIサーバ21は、タッチパネルモニタ25に、ボタン205およびランプ表示213をアクティブに表示させ、ランプ表示211およびランプ表示212を非アクティブに表示させることで、清掃ロボット22が停止していることを表示する。また、AIサーバ21は、タッチパネルモニタ25に、動画像の周囲を、アクティブに表示されるボタン205およびランプ表示213の赤色と同じ赤色で表示させる。
In this case, for example, as shown in FIG. 13, the AI server 21 causes the touch panel monitor 25 to display the
さらに、AIサーバ21は、タッチパネルモニタ25に、「AUTO:STOP」および「Please TOUCH the monitor to release the robot if AI Server is mistaking」などのメッセージ231を表示させる。
Further, the AI server 21 causes the touch panel monitor 25 to display a
ステップS228において、判定部166は、ステップS51における、被写体が人であるかまたは人以外の物であるかの検知の結果から、被写体が人であるか否かを判定する。ステップS228において、被写体が人であると判定された場合、手続きはステップS229に進み、指令部167は、音声の出力を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、音声の出力を指示する制御信号を清掃ロボット22宛に送信させる。清掃ロボット22が音声の出力を指示する制御信号を受信すると、清掃ロボット22の音声出力制御部87は、記憶部75から音声データを読み出して、読み出した音声データによりスピーカ71に「注意してください。ロボットが通ります。」などの音声を出力させる。
In step S228, the
なお、減速した場合、「注意してください。ロボットが通ります。」などの音声を出力させるようにしてもよい。この場合、例えば、図14に示されるように、AIサーバ21は、タッチパネルモニタ25に、ボタン206およびランプ表示212をアクティブに表示させ、ランプ表示211およびランプ表示213を非アクティブに表示させることで、清掃ロボット22が減速していることを表示する。また、AIサーバ21は、タッチパネルモニタ25に、動画像の周囲を、アクティブに表示されるボタン206およびランプ表示212の黄色と同じ黄色で表示させる。
When the vehicle decelerates, a sound such as “Please be careful. The robot passes” may be output. In this case, for example, as illustrated in FIG. 14, the AI server 21 causes the touch panel monitor 25 to actively display the
さらに、AIサーバ21は、タッチパネルモニタ25に、「AUTO: Attention please. The robot will pass.」および「Please TOUCH the monitor to release the robot if AI Server is mistaking」などのメッセージ231を表示させる。
Furthermore, the AI server 21 causes the touch panel monitor 25 to display a
なお、監視者がタッチパネルモニタ25に表示されているボタン206をタッチすることで、清掃ロボット22を減速させて、「注意してください。ロボットが通ります。」などの音声を出力させることもできる。この場合、例えば、図15に示されるように、AIサーバ21は、タッチパネルモニタ25に、ボタン206およびランプ表示212をアクティブに表示させ、ランプ表示211およびランプ表示213を非アクティブに表示させることで、清掃ロボット22が減速していることを表示する。また、AIサーバ21は、タッチパネルモニタ25に、動画像の周囲を、アクティブに表示されるボタン206およびランプ表示212の黄色と同じ黄色で表示させる。
In addition, when the supervisor touches the
また、AIサーバ21は、タッチパネルモニタ25に、「「MANUAL: Attention please. The robot will pass.」などのメッセージ231を表示させる。
Also, the AI server 21 displays a
ステップS230において、判定部166は、音声の出力が3回繰り返されたか否かを判定し、音声の出力が3回繰り返されたと判定された場合、清掃ロボット22に制御を戻して清掃ロボット22に人を回避させるために、手続きはステップS231に進み、指令部167は、加速を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、加速を指示する制御信号を清掃ロボット22宛に送信させる。
In step S230, the
ステップS231の後、ステップS230において、音声の出力が3回繰り返されていないと判定された場合、または、ステップS225の後、AIサーバ21による清掃ロボット22の走行制御の処理は、ステップS121およびステップS221に戻り、上述した手続きが繰り返される。
After step S231, if it is determined in step S230 that the sound output has not been repeated three times, or after step S225, the process of running control of the cleaning
清掃システム11においては、監視者は、ステップS223の手続きでタッチパネルモニタ25に表示されている画像を見て、清掃ロボット22の走行を監視し、動画像のシーンとして現在の状況全体に危険を感じた場合、または、被写体との接触などの危険を感じた場合、タッチパネルモニタ25の画面、すなわちタッチパネルを触ることで、清掃ロボット22の停止または減速を指示する。
In the
図16のフローチャートを参照して、監視者からの指示に応じた処理を説明する。ステップS81において、入力制御部169は、タッチパネルモニタ25のタッチパネルから送信されてくる信号を取得することで、ボタン205にタッチする、ボタン206にタッチするまたは画面のいずれかの位置にタッチするなどの、監視者のタッチパネルモニタ25のタッチパネルへの操作による指示を取得する。
With reference to the flowchart of FIG. 16, the process according to the instruction | indication from a supervisor is demonstrated. In step S81, the
ステップS82において、判定部166は、非アクティブ状態のボタン205がタッチされるか、または画面のいずれかの位置がタッチされて、監視者から停止が指示されたか否かを判定する。ステップS82において、監視者から停止が指示されたと判定された場合、手続きはステップS83に進み、指令部167は、停止を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、停止を指示する制御信号を清掃ロボット22宛に送信させる。
In step S <b> 82, the
この場合、例えば、図17に示されるように、AIサーバ21は、タッチパネルモニタ25に、ボタン205およびランプ表示213をアクティブに表示させ、ランプ表示211およびランプ表示212を非アクティブに表示させることで、清掃ロボット22が停止していることを表示する。また、AIサーバ21は、タッチパネルモニタ25に、動画像の周囲を、アクティブに表示されるボタン205およびランプ表示213の赤色と同じ赤色で表示させる。
In this case, for example, as shown in FIG. 17, the AI server 21 causes the touch panel monitor 25 to display the
さらに、AIサーバ21は、タッチパネルモニタ25に、「MANUAL:STOP」などのメッセージ231を表示させる。
Further, the AI server 21 displays a
なお、動画像のシーンにおいて、複数の人や複数の物である被写体が写っている場合には、被写体毎に、被写体の種類と画像中の被写体の位置とが検知され、被写体毎に、清掃ロボット22から被写体までの距離や被写体の移動速度など被写体の属性が求められ、動画像のシーンの危険の程度である危険度が測定される。
In addition, when a plurality of people or a plurality of objects are captured in a moving image scene, the type of the subject and the position of the subject in the image are detected for each subject, and cleaning is performed for each subject. The attributes of the subject such as the distance from the
図18は、動画像に複数の人や複数の物である被写体が写っている場合のタッチパネルモニタ25に表示される動画像の例を示す図である。なお、図17と同様の部分には同一の符号を付してあり、その説明は省略する。 FIG. 18 is a diagram illustrating an example of a moving image displayed on the touch panel monitor 25 in the case where a plurality of people and a plurality of objects are captured in the moving image. In addition, the same code | symbol is attached | subjected to the part similar to FIG. 17, and the description is abbreviate | omitted.
図18に示される例において、タッチパネルモニタ25は、動画像と、被写体が人であるかまたは人以外の物であるかが検知された被写体の位置を示す枠201−1乃至201−5、被写体の種類および被写体の種類の正しさの確率を示す種類表示202−1乃至202−5、清掃ロボット22から被写体までの距離をcm単位で示す距離表示203−1乃至203−5を表示させる。例えば、タッチパネルモニタ25には、人であることが検知された被写体の位置を示す枠201−1、枠201−1で示される位置の被写体の種類が人であり、被写体の種類が人であることの正しさの確率を示す「Person:0.89」である種類表示202−1、清掃ロボット22から枠201−1で示される位置の人である被写体までの距離をcm単位で示す「260」などの距離表示203−1が表示される。また、例えば、タッチパネルモニタ25には、人であることが検知された被写体の位置を示す枠201−2、枠201−2で示される位置の被写体の種類が人であり、被写体の種類が人であることの正しさの確率を示す「Person:0.93」である種類表示202−2、清掃ロボット22から枠201−2で示される位置の人である被写体までの距離をcm単位で示す「270」などの距離表示203−2が表示される。
In the example shown in FIG. 18, the touch panel monitor 25 includes a moving image and frames 201-1 to 201-5 indicating the positions of the subjects where the subject is detected to be a person or something other than a person, Type display 202-1 to 202-5 indicating the probability of the correctness of the type and the type of subject, and distance displays 203-1 to 203-5 indicating the distance from the cleaning
さらに、例えば、タッチパネルモニタ25には、ごみ入れであることが検知された被写体の位置を示す枠201−3、枠201−3で示される位置の被写体の種類がごみ入れであり、被写体の種類がごみ入れであることの正しさの確率を示す「Bin:0.82」である種類表示202−3、清掃ロボット22から枠201−3で示される位置のごみ入れである被写体までの距離をcm単位で示す「180」などの距離表示203−3が表示される。さらにまた、例えば、タッチパネルモニタ25には、扉であることが検知された被写体の位置を示す枠201−4、枠201−4で示される位置の被写体の種類が扉であり、被写体の種類が扉であることの正しさの確率を示す「Door:0.79」である種類表示202−4、清掃ロボット22から枠201−4で示される位置の扉である被写体までの距離をcm単位で示す「320」などの距離表示203−4が表示される。
Further, for example, in the touch panel monitor 25, a frame 201-3 indicating the position of the subject that is detected to be a trash can, and the type of the subject at the position indicated by the frame 201-3 is the trash can. The type display 202-3 “Bin: 0.82” indicating the probability of the correctness of being a waste bin, and the distance from the cleaning
また、例えば、タッチパネルモニタ25には、照明であることが検知された被写体の位置を示す枠201−5、枠201−5で示される位置の被写体の種類が照明であり、被写体の種類が照明であることの正しさの確率を示す「Light:0.69」である種類表示202−5、清掃ロボット22から枠201−5で示される位置の照明である被写体までの距離をcm単位で示す「300」などの距離表示203−5が表示される。
Further, for example, in the touch panel monitor 25, the frame 201-5 indicating the position of the subject detected to be illumination, the subject type at the position indicated by the frame 201-5 is illumination, and the subject type is illumination. "Light: 0.69" indicating the probability of correctness, and "300: 300" indicating the distance from the cleaning
ステータスモニタ204には、「ROBOT1」などの清掃ロボット22の名称、「East Bldg 1F」などの清掃ロボット22の現在位置、「Degree of Risk 87%」などの動画像のシーンの危険の程度が文字で表示される。
The status monitor 204 indicates the name of the cleaning
図18に示されるように、動画像に複数の人や複数の物である被写体が写っている場合、動画像のシーンの危険の程度に影響の大きい被写体の枠201が、太線や二重線とされるか、または赤色にされるなど強調表示される。すなわち、描画部174は、動画像のシーンの危険の程度に影響の大きい被写体の枠201を強調表示して、動画像に描画する。
As shown in FIG. 18, when a moving image includes a plurality of people or a plurality of objects, a
例えば、動画像に複数の人や複数の物である被写体が写っている場合、動画像のシーンの被写体のうち、危険の程度が最も高い被写体の位置を示す枠201が強調表示される。すなわち、例えば、動画像に複数の人や複数の物である被写体が写っている場合、清掃ロボット22との接触の危険の程度が最も高い被写体(携帯電話機を見ながら歩いている人)の位置を示す枠201−1が強調表示される。
For example, when a subject that is a plurality of people or a plurality of objects is captured in the moving image, a
また、例えば、動画像に複数の人や複数の物である被写体が写っている場合、動画像のシーンの被写体のうち、危険の程度が高い順に所定の数の被写体の位置を示す枠201が強調表示される。すなわち、例えば、動画像に複数の人や複数の物である被写体が写っている場合、清掃ロボット22との接触の危険の程度が最も高い被写体(携帯電話機を見ながら歩いている人)の位置を示す枠201−1と清掃ロボット22との接触の危険の程度が2番目高い被写体(近くにあるごみ入れ)の位置を示す枠201−2とが強調表示される。
In addition, for example, when a moving image includes a plurality of people or a plurality of objects, a
すなわち、動画像に複数の人や複数の物である被写体が写っている場合、動画像のシーンのうちの、危険状態にある被写体の枠201が、太線や二重線とされるか、または赤色にされるなど強調表示される。
That is, when a moving image includes a plurality of people or a plurality of objects, the
このようにすることで、タッチパネルモニタ25−1および25−2に表示されている動画像を監視している監視者は、動画像に写っている複数の被写体のうち、どの被写体が危険であるかを即座に認識することができる。 By doing in this way, the subject who is monitoring the moving images displayed on the touch panel monitors 25-1 and 25-2, which subject is dangerous among the plurality of subjects reflected in the moving image. Can be recognized immediately.
図16に戻り、ステップS84において、学習データ記録制御部164は、停止が指示された時点の前の5秒間および後の5秒間の動画像の撮像データを記録部128に記録させる。すなわち、学習データ記録制御部164は、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録部128に記録させる。このとき、学習データ記録制御部164は、停止が指示されたことを示すデータを、停止が指示された時点を基準に前の5秒間および後の5秒間の動画像の撮像データに関連付けて記録部128に記録させる。ステップS85において、学習スケジューラ165は、追加学習を予約する。すなわち、学習スケジューラ165は、記録部128に記録された動画像の撮像データによる危険度測定部161の学習の実行を予約する。
Returning to FIG. 16, in step S <b> 84, the learning data
ステップS82において、監視者から停止が指示されていないと判定された場合、手続きはステップS86に進み、判定部166は、非アクティブ状態のボタン206がタッチされて、監視者から減速が指示されたか否かを判定する。ステップS86において、監視者から減速が指示されたと判定された場合、手続きはステップS87に進み、指令部167は、減速を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、減速を指示する制御信号を清掃ロボット22宛に送信させる。
If it is determined in step S82 that the monitoring has not been instructed to stop, the procedure proceeds to step S86, and the
ステップS88において、学習データ記録制御部164は、減速が指示された時点の前の5秒間および後の5秒間の動画像の撮像データを記録部128に記録させる。すなわち、学習データ記録制御部164は、監視者から減速が指示された場合、減速が指示された時を含む所定の長さの時間の動画像を記録部128に記録させる。このとき、学習データ記録制御部164は、減速が指示されたことを示すデータを、減速が指示された時点を基準に前の5秒間および後の5秒間の動画像の撮像データに関連付けて記録部128に記録させる。ステップS89において、学習スケジューラ165は、追加学習を予約する。すなわち、学習スケジューラ165は、記録部128に記録された動画像の撮像データによる危険度測定部161の学習の実行を予約する。
In step S <b> 88, the learning data
ステップS86において、監視者から減速が指示されていないと判定された場合、手続きはステップS90に進み、アクティブ状態のボタン205またはアクティブ状態のボタン206がタッチされて、監視者から加速が指示されたか否かを判定する。ステップS90において、監視者から加速が指示されたと判定された場合、手続きはステップS91に進み、指令部167は、加速を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、加速を指示する制御信号を清掃ロボット22宛に送信させる。
If it is determined in step S86 that deceleration is not instructed by the supervisor, the procedure proceeds to step S90, where the
例えば、図13に示されるように、AIサーバ21が、タッチパネルモニタ25に、ボタン205およびランプ表示213をアクティブに表示させ、ランプ表示211およびランプ表示212を非アクティブに表示させることで、清掃ロボット22が停止していることを表示し、「AUTO:STOP」および「Please TOUCH the monitor to release the robot if AI Server is mistaking」などのメッセージ231を表示させている場合、監視者が、タッチパネルモニタ25に表示されている動画像を見て、ポスターに示されている人の画像を人であると危険度測定部161が誤認したと判断したとき、監視者は、アクティブに表示されているボタン205をタッチすることで、清掃ロボット22の加速を指示する。
For example, as shown in FIG. 13, the AI server 21 causes the touch panel monitor 25 to display the
ステップS85、ステップS89またはステップS91の後、手続きはステップS81に戻り、監視者からの指示に応じた処理が繰り返される。 After step S85, step S89 or step S91, the procedure returns to step S81, and the process according to the instruction from the supervisor is repeated.
図19は、終了の処理を説明するフローチャートである。ステップS181において、指示部86の判定部93は、清掃動作制御部61から清掃作業の状態を示すステータス情報を取得して、清掃ロボット22の清掃の作業が終了したか否かを判定する。ステップS181において、清掃の作業が終了していないと判定された場合、判定の処理が繰り返される。
FIG. 19 is a flowchart for explaining the termination process. In step S181, the
ステップS181において、清掃の作業が終了したと判定された場合、手続きはステップS182に進み、指示部86は、AIサーバ21に作業の終了を通知する。すなわち、通信制御部83の送信制御部91は、指示部86からの指示により、通信部74に、AIサーバ21宛に作業の終了の通知を送信させる。
If it is determined in step S181 that the cleaning work has been completed, the procedure proceeds to step S182, and the instruction unit 86 notifies the AI server 21 of the completion of the work. That is, the
ステップS281において、通信制御部168の受信制御部176は、通信部129に、清掃ロボット22からの作業の終了の通知を受信させる。ステップS282において、通信制御部168の受信制御部176は、通信部129に、ストリーミングデータである撮像データの受信を停止させる。
In step S <b> 281, the
ステップS183において、通信制御部83の送信制御部91は、ストリーミングデータである撮像データの送信を停止する。ステップS184において、撮像制御部81は、カメラ43に撮像を停止させる。この場合、符号化部82は、動画像のデータの符号化を停止する。
In step S183, the
ステップS185において、指示部86は、AIサーバ21に電源オフを通知する。すなわち、通信制御部83の送信制御部91は、指示部86からの指示により、通信部74に、AIサーバ21宛に電源オフの通知を送信させる。
In step S185, the instruction unit 86 notifies the AI server 21 of power off. That is, the
ステップS283において、通信制御部168の受信制御部176は、通信部129に、清掃ロボット22からの電源オフの通知を受信させる。ステップS284において、判定部166は、清掃ロボット22からの電源オフの通知を受信したか否かにより、清掃ロボット22の電源がオフしたか否かを判定する。ステップS284において、清掃ロボット22の電源がオフしていないと判定された場合、手続きはステップS283に戻り、上述した処理が繰り返される。
In step S283, the
ステップS284において、清掃ロボット22の電源がオフしたと判定された場合、手続きはステップS285に進み、危険度測定部161は、終了を通知してきた清掃ロボット22に対する監視の処理を終了する。
If it is determined in step S284 that the cleaning
ステップS186において、監視者またはオペレータの操作により、制御モジュール42が停止させられる。ステップS187において、監視者またはオペレータの操作により、清掃ロボット22の電源がオフされ、終了の処理は終了する。
In step S186, the
次に、ステップS85またはステップS89で予約された追加学習のスケジューリングの処理を図20のフローチャートを参照して説明する。ステップS301において、学習スケジューラ165は、ディスプレイである出力部127またはタッチパネルモニタ25に、追加学習を実行するか否かを選択するためのボタンやメニューおよび日付や時刻などを配置した表や画像などにより追加学習の予定を表示させる。ステップS302において、学習スケジューラ165は、監視者によるタッチパネルモニタ25への操作またはオペレータによるキーボード若しくはマウスである入力部126への操作から、追加学習を実行するか否かの指示を取得する。例えば、学習スケジューラ165は、ディスプレイである出力部127またはタッチパネルモニタ25に表示されている表や画像に配置されている、監視者またはオペレータにボタンやメニューを選択させることにより、追加学習を実行するか否かの指示を取得する。
Next, the additional learning scheduling process reserved in step S85 or step S89 will be described with reference to the flowchart of FIG. In step S301, the learning
ステップS303において、学習スケジューラ165は、監視者またはオペレータから指示された追加学習を実行するか否かを示すデータを追加学習スケジュールデータとして記録部128に記録する。
In step S303, the learning
ステップS304において、学習スケジューラ165は、監視者によるタッチパネルモニタ25への操作またはオペレータによるキーボード若しくはマウスである入力部126への操作から、追加学習を実行する日付および時刻の指示を取得する。例えば、学習スケジューラ165は、ディスプレイである出力部127またはタッチパネルモニタ25に、ディスプレイである出力部127またはタッチパネルモニタ25に表示されている表や画像に配置されている、監視者またはオペレータに日付および時刻を選択させることにより、追加学習を実行する日付および時刻の指示を取得する。
In step S304, the learning
ステップS305において、学習スケジューラ165は、監視者またはオペレータから指示された追加学習を実行する日付および時刻を示すデータを追加学習スケジュールデータに追加して、記録部128に記録して、追加学習のスケジューリングの処理は終了する。
In step S305, the learning
次に、図30のフローチャートを参照して、一定の期間ごとに実行される追加学習の処理を説明する。ステップS321において、学習スケジューラ165は、記録部128に記録されている追加学習スケジュールデータから、追加学習を実行するか否かの指示並びに追加学習を実行する日付および時刻を読み出す。ステップS322において、学習スケジューラ165は、追加学習スケジュールデータから読み出された追加学習を実行するか否かの指示から、追加学習の実行が指示されているか否かを判定する。ステップS322において、追加学習の実行が指示されていると判定された場合、手続きはステップS323に進み、学習スケジューラ165は、AIサーバ21に設けられている図示せぬ計時部から、追加学習の処理が実行されている時点の今日の日付および現在時刻を取得する。
Next, with reference to the flowchart of FIG. 30, the additional learning process executed at regular intervals will be described. In step S321, the learning
ステップS324において、学習スケジューラ165は、追加学習スケジュールデータから読み出された追加学習を実行する日付および時刻と、追加学習の処理が実行されている時点の今日の日付および現在時刻とを比較することにより、追加学習を実行する日付および時刻になったか否かを判定する。ステップS324において、追加学習を実行する日付および時刻になったと判定された場合、手続きはステップS325に進み、学習スケジューラ165は、危険度測定部161に指示することにより、物体検知AI部171および危険度測定AI部173を学習モードにさせる。例えば、学習モードにおいて、学習スケジューラ165は、物体検知AI部171および危険度測定AI部173に、バッチサイズやエポック(学習回数)を設定する。また、例えば、学習モードにおいて、学習スケジューラ165は、物体検知AI部171および危険度測定AI部173の学習に用いる最適化関数および損失関数を選択する。
In step S324, the learning
ステップS326において、物体検知AI部171および危険度測定AI部173は、学習スケジューラ165からの指示により、ステップS84またはステップS88の手続きで記録部128に記録されている監視者により停止または減速が指示されたときの動画像および動画像に関連付けられている停止または減速が指示されたことを示すデータにより、学習して、追加学習の処理は終了する。
In step S326, the object
例えば、物体検知AI部171および危険度測定AI部173は、バッチ手法により、学習する。また、例えば、物体検知AI部171および危険度測定AI部173は、記録部128に記録されている監視者により停止または減速が指示されたときの動画像および動画像に関連付けられている停止または減速が指示されたことを示すデータを用いて、誤差逆伝搬法などの勾配計算法により、教師あり学習を行う。
For example, the object
ステップS322において、追加学習の実行が指示されていないと判定された場合、またはステップS324において、追加学習を実行する日付および時刻になっていないと判定された場合、学習をさせる必要はないので、学習をすることなく、追加学習の処理は終了する。 If it is determined in step S322 that execution of additional learning is not instructed, or if it is determined in step S324 that the date and time for performing additional learning have not been reached, it is not necessary to perform learning. The additional learning process ends without learning.
このように、より確実に衝突を回避して、より簡単に、学習ができる。また、接触の危険の程度を求める処理の経過を知ることができるようにして、より効果的な修正または学習をすることができる。 In this way, learning can be performed more easily while avoiding collision more reliably. Further, it is possible to know the progress of the process for obtaining the degree of danger of contact so that more effective correction or learning can be performed.
以上のように、AIサーバ21は、建物内の床上を自律的に走行し、走行する先の動画像を撮像する清掃ロボット22から送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定する危険度測定部161と、動画像のタッチパネルモニタ25への表示を制御する表示制御部170と、表示している動画像を監視している監視者からの操作による、停止の指示を取得する入力制御部169と、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、清掃ロボット22に停止を指令する指令部167と、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録部128に記録させる学習データ記録制御部164と、記録部128に記録された動画像による危険度測定部161の学習の実行を予約する学習スケジューラ165とを含む。
As described above, the AI server 21 autonomously travels on the floor in the building and is captured in a moving image by machine learning from the moving image transmitted from the cleaning
入力制御部169が、監視者からの操作による、減速の指示を取得し、指令部167が、減速が指示された場合、清掃ロボット22に減速を指令し、学習データ記録制御部164が、監視者から減速が指示された場合、減速が指示された時を含む所定の長さの時間の動画像を記録手段に記録させるようにすることができる。このようにすることで、より簡単に、学習ができるようになる。
When the
学習スケジューラ165が、危険度測定部161の学習のジョブをスケジューリングすることで予約するようにすることができる。このようにすることで、より簡単に、学習ができるようになる。
The learning
学習スケジューラ165が、監視者またはオペレータからの操作による指示に応じて、危険度測定部161の学習のジョブのスケジューリングにおける、学習の実行の可否および学習が実行される時刻を決定するようにすることができる。このようにすることで、より簡単に、学習ができるようになる。
The learning
動画像に、清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を書き込む描画部174をさらに設け、表示制御部170が、清掃ロボット22と被写体との接触の危険の程度を示す文字または画像が書き込まれた動画像のタッチパネルモニタ25への表示を制御するようにすることができる。このようにすることで、より確実に衝突を回避できるようになる。
A
危険度測定部161が、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を測定し、描画部174が、動画像に、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を示す文字または画像を書き込み、表示制御部170が、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を示す文字または画像が書き込まれた動画像のタッチパネルモニタ25への表示を制御するようにすることができる。このようにすることで、より確実に衝突を回避できるようになる。
The
危険度測定部161が、被写体が人であるかまたは人以外の物であるかを検知し、指令部167が、被写体が人であると検知された場合、清掃ロボット22に所定の音声の出力を指令するようにすることができる。このようにすることで、より確実に衝突を回避できるようになる。
When the
このように、建物内の床上を自律的に走行し、走行する先の動画像を撮像する清掃ロボット22から送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定し、動画像をタッチパネルモニタ25に表示し、表示している動画像を監視している監視者からの操作による、停止の指示を取得し、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、清掃ロボット22に停止を指令するようにしたので、仮に、動画像に写っている被写体との接触の危険の程度の測定が誤ったとしても、表示している動画像を監視している監視者が停止を指示するので、より確実に衝突を回避することができる。また、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像が記録部128に記録され、記録部128に記録された動画像による危険度測定部161の学習の実行が予約されるので、仮に、動画像に写っている被写体との接触の危険の程度の測定が誤った場合でも、その状況に合わせた学習データをいちいち用意する必要がなく、簡単に学習させることができるので、学習の後には、より確実に衝突を回避することができる。このように、より確実に衝突を回避して、より簡単に、学習ができる。
In this way, the robot touches the subject in the moving image by machine learning from the moving image transmitted from the cleaning
このように、より確実に衝突を回避して、より簡単に、学習ができる。 In this way, learning can be performed more easily while avoiding collision more reliably.
また、AIサーバ21は、清掃ロボット22により撮像された動画像から、機械学習によって、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する物体検知AI部171と、動画像および動画像における被写体の位置から、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を求める画像処理部172と、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、機械学習によって、動画像のシーンの危険の程度を測定する危険度測定AI部173と、動画像に、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、移動体から被写体までの距離、移動体に対する被写体の速度および動画像のシーンの危険の程度を示す文字または画像を書き込む描画部174とを含む。
In addition, the AI server 21 detects whether a subject is a person or a person other than a person from a moving image captured by the cleaning
物体検知AI部171が、ニューラルネットワークを用いた機械学習によって、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知し、危険度測定AI部173が、ニューラルネットワークを用いた機械学習によって、清掃ロボット22と被写体との接触の危険の程度を測定するようにすることができる。
The object
画像処理部172が、被写体が人であると検知された場合、清掃ロボット22に対する被写体の向きまたは清掃ロボット22に対する被写体の顔の向きを求めるようにすることができる。
When the
清掃ロボット22と被写体との接触の危険の程度が所定の閾値以上である場合、清掃ロボット22に停止または減速を指令する指令部167をさらに設けることができる。
If the degree of danger of contact between the cleaning
清掃ロボット22からストリーミングで送信されてくる動画像を受信する通信部129をさらに設け、物体検知AI部171、画像処理部172および危険度測定AI部173は、それぞれ、受信された動画像で検知するか、画像処理するか、または測定するようにすることができる。
A
清掃ロボット22への停止または減速の指示が外部から入力された場合、停止または減速が指示された時を含む所定の長さの時間の動画像を記録する記録部128をさらに設けることかできる。
When a stop or deceleration instruction to the cleaning
このように、物体検知AI部171が、移動体により撮像された動画像から、機械学習によって、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知し、画像処理部172が、動画像および動画像における被写体の位置から、移動体から被写体までの距離および移動体に対する被写体の速度を求め、危険度測定AI部173が、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、移動体から被写体までの距離および移動体に対する被写体の速度から、機械学習によって、動画像のシーンの危険の程度を測定し、描画部174が、動画像に、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、移動体から被写体までの距離、移動体に対する被写体の速度および動画像のシーンの危険の程度を示す文字または画像を書き込むようにしたので、文字または画像が書き込まれた動画像を表示させれば、使用者が動画像を見ることで、被写体が人であるかまたは人以外の物であるかの検知の状態、動画像における被写体の位置の検知の状態、移動体から被写体までの距離および移動体に対する被写体の速度並びに動画像のシーンとして現在の状況全体の危険の程度を知ることができるので、使用者が、動画像のシーンの危険の程度を求める処理で、どうしてそのような判定になったかの手がかりを知ることができる。これにより、例えば、移動体に停止または減速を指令するなど、より効果的な操作をすることができる。このように、使用者が、動画像のシーンの危険の程度を求める処理で、どうしてそのような判定になったかの手がかりを知ることができるので、より効果的な操作をすることができる。
As described above, the object
また、追加学習のスケジューリングをする場合、監視者またはオペレータが学習に用いる動画像を必要な領域にトリミングして、物体検知AI部171および危険度測定AI部173に学習させるようにしてもよい。
In addition, when scheduling additional learning, a moving image used for learning by a supervisor or operator may be trimmed to a necessary area so that the object
なお、AIサーバ21が清掃ロボット22の走行を制御すると説明したが、これに限らず、書類や薬品、食品または機器などを搬送する搬送ロボットを制御することもできる。さらに、AIサーバ21は、屋内や屋外を移動する自動車若しくは電車などの車両またはマルチコプターなどの無人航空機などの移動体を制御することもできる。
In addition, although it demonstrated that the AI server 21 controlled driving | running | working of the cleaning
また、AIサーバ21が制御モジュール42に停止または減速を指令する制御信号を送信して、制御モジュール42が走行動作制御部51に指令することで、清掃ロボット22が停止または減速すると説明したが、これに限らず、清掃ロボット22のハードウェアの停止ボタンまたは減速ボタンを機械的な機構により押圧する押圧機構であって、ネットワーク上の信号により動作する押圧機構を設けて、AIサーバ21が信号を送信することにより、清掃ロボット22のハードウェアの停止ボタンまたは減速ボタンが押圧されるようにして、清掃ロボット22の走行を制御するようにしてもよい。
In addition, it has been described that the cleaning
なお、AIサーバ21が清掃ロボット22に走行の停止または減速を指令すると説明したが、これに限らず、清掃ロボット22の清掃の動作を停止させたり、清掃の特定の機能、例えばブラシ65を停止させたりするようにしてもよい。
Although the AI server 21 has been described as instructing the cleaning
また、ステップS224において、判定部166は、ステップS53において測定された危険度が40%以上60%未満であるか否かを判定し、ステップS226において、判定部166は、ステップS53において測定された危険度が60%以上であるか否かを判定すると説明したがこれに限らず、ステップS224において、判定部166は、ステップS53において測定された危険度が50%以上80%未満であるか否かを判定し、ステップS226において、判定部166は、ステップS53において測定された危険度が80%以上であるか否かを判定するなど、判定の閾値を所望の値とすることができる。
In step S224, the
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
11 清掃システム, 21 AIサーバ, 22,22−1および22−2 清掃ロボット, 23 ハブ, 24,24−1乃至24−3 アクセスポイント, 25,25−1および25−2 タッチパネルモニタ, 41 本体, 42 制御モジュール, 43 カメラ, 51 走行動作制御部, 52 センサ, 53 駆動部, 54 モータ, 55 車輪, 61 清掃動作制御部, 62 センサ, 63 駆動部, 64 モータ, 65 ブラシ, 71 スピーカ, 72 表示部, 73 タッチパネル, 74 通信部, 75 記憶部, 81 撮像制御部, 82 符号化部, 83 通信制御部, 84 フラグ設定部, 85 記憶制御部, 86 指示部, 87 音声出力制御部, 91 送信制御部, 92 受信制御部, 93 判定部, 121 CPU, 122 ROM, 123 RAM, 126 入力部, 127 出力部, 128 記録部, 129 通信部, 131 リムーバブルメディア, 161 危険度測定部, 162 撮像データバッファ, 163 復号部, 164 学習データ記録制御部, 165 学習スケジューラ, 166 判定部, 167 指令部, 168 通信制御部, 169 入力制御部, 170 表示制御部, 171 物体検知AI部, 172 画像処理部, 173 危険度測定AI部, 174 描画部, 175 送信制御部, 176 受信制御部, 201,201−1乃至201−5 枠, 202,202−1乃至202−5 種類表示, 203,203−1乃至203−5 距離表示, 204 ステータスモニタ, 205および206 ボタン, 207 距離等表示, 211,212および213 ランプ表示, 231 メッセージ
11 Cleaning System, 21 AI Server, 22, 22-1 and 22-2 Cleaning Robot, 23 Hub, 24, 24-1 to 24-3 Access Point, 25, 25-1 and 25-2 Touch Panel Monitor, 41 Main Body, 42 control module, 43 camera, 51 travel operation control unit, 52 sensor, 53 drive unit, 54 motor, 55 wheel, 61 cleaning operation control unit, 62 sensor, 63 drive unit, 64 motor, 65 brush, 71 speaker, 72 display Unit, 73 touch panel, 74 communication unit, 75 storage unit, 81 imaging control unit, 82 encoding unit, 83 communication control unit, 84 flag setting unit, 85 storage control unit, 86 instruction unit, 87 audio output control unit, 91 transmission Control unit, 92 reception control unit, 93 determination unit, 121 CPU, 122 ROM, 123 RAM, 126 input Unit, 127 output unit, 128 recording unit, 129 communication unit, 131 removable media, 161 risk measurement unit, 162 imaging data buffer, 163 decoding unit, 164 learning data recording control unit, 165 learning scheduler, 166 determination unit, 167 command Unit, 168 communication control unit, 169 input control unit, 170 display control unit, 171 object detection AI unit, 172 image processing unit, 173 risk measurement AI unit, 174 drawing unit, 175 transmission control unit, 176 reception control unit, 201 , 201-1 to 201-5 frame, 202, 202-1 to 202-5 type display, 203, 203-1 to 203-5 distance display, 204 status monitor, 205 and 206 buttons, 207 distance display, 211, 212 and 213 lamp display, 231 message
Claims (9)
前記動画像の表示手段への表示を制御する表示制御手段と、
表示している前記動画像を監視している監視者からの操作による、停止の指示を取得する取得手段と、
測定された危険の程度が所定の閾値以上である場合または前記監視者から停止が指示された場合、前記ロボットに停止を指令する指令手段と、
前記監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる記録制御手段と、
停止が指示されたことを示すデータおよび前記記録手段に記録されている前記動画像を用いた前記測定手段の学習の実行を予約する予約手段と
を含む情報処理装置。 The degree of danger of contact with the subject in the moving image by machine learning from the moving image transmitted from the robot that autonomously travels on the floor in the building and picks up the moving image of the destination Measuring means for measuring,
Display control means for controlling display on the display means of the moving image;
An acquisition means for acquiring a stop instruction by an operation from a monitoring person who is monitoring the displayed moving image;
When the measured degree of danger is equal to or greater than a predetermined threshold value or when a stop is instructed by the supervisor, command means for instructing the robot to stop,
A recording control unit that causes the recording unit to record the moving image for a predetermined length of time including a time when the stop is instructed when the stop is instructed by the supervisor;
An information processing apparatus comprising: reservation means for reserving execution of learning of the measurement means using data indicating that stop has been instructed and the moving image recorded in the recording means .
前記取得手段は、前記監視者からの操作による、減速の指示を取得し、
前記指令手段は、減速が指示された場合、前記ロボットに減速を指令し、
前記記録制御手段は、前記監視者から減速が指示された場合、減速が指示された時を含む所定の長さの時間の前記動画像を前記記録手段に記録させ、
前記予約手段は、減速が指示されたことを示すデータおよび前記記録手段に記録されている減速が指示された時の前記動画像を用いた前記測定手段の学習の実行を予約する
情報処理装置。 The information processing apparatus according to claim 1,
The acquisition means acquires an instruction for deceleration by an operation from the supervisor,
The command means commands the robot to decelerate when deceleration is instructed;
The recording control means causes the recording means to record the moving image for a predetermined length of time including when the deceleration is instructed when the supervisor instructs the deceleration ,
The reservation unit reserves execution of learning of the measurement unit using data indicating that a deceleration is instructed and the moving image recorded when the deceleration recorded in the recording unit is instructed .
前記予約手段は、前記測定手段の学習のジョブをスケジューリングすることで予約する
情報処理装置。 The information processing apparatus according to claim 1,
The reservation means reserves by scheduling a learning job of the measurement means.
前記予約手段は、前記監視者またはオペレータからの操作による指示に応じて、前記測定手段の学習のジョブのスケジューリングにおける、学習の実行の可否および学習が実行される時刻を決定する
情報処理装置。 The information processing apparatus according to claim 3.
The reservation means determines whether or not learning can be performed and the time at which learning is executed in scheduling of a learning job of the measurement means in accordance with an instruction by an operation from the monitor or operator.
前記動画像に、前記ロボットと前記被写体との接触の危険の程度を示す文字または画像を書き込む書き込み手段をさらに含み、
前記表示制御手段は、前記ロボットと前記被写体との接触の危険の程度を示す文字または画像が書き込まれた前記動画像の前記表示手段への表示を制御する
情報処理装置。 The information processing apparatus according to claim 1,
The image further includes writing means for writing a character or an image indicating a degree of danger of contact between the robot and the subject on the moving image,
The display control unit controls display on the display unit of the moving image in which characters or images indicating the degree of danger of contact between the robot and the subject are written.
前記測定手段は、前記ロボットから前記被写体までの距離および前記ロボットに対する前記被写体の速度を測定し、
前記書き込み手段は、前記動画像に、前記ロボットから前記被写体までの距離および前記ロボットに対する前記被写体の速度を示す文字または画像を書き込み、
前記表示制御手段は、前記ロボットから前記被写体までの距離および前記ロボットに対する前記被写体の速度を示す文字または画像が書き込まれた前記動画像の前記表示手段への表示を制御する
情報処理装置。 The information processing apparatus according to claim 5,
The measuring means measures the distance from the robot to the subject and the speed of the subject relative to the robot;
The writing means writes, on the moving image, a character or an image indicating a distance from the robot to the subject and a speed of the subject with respect to the robot,
The display control unit controls display on the display unit of the moving image in which characters or images indicating the distance from the robot to the subject and the speed of the subject with respect to the robot are written.
前記測定手段は、前記被写体が人であるかまたは人以外の物であるかを検知し、
前記指令手段は、前記被写体が人であると検知された場合、前記ロボットに所定の音声の出力を指令する
情報処理装置。 The information processing apparatus according to claim 1,
The measuring means detects whether the subject is a person or something other than a person;
The command means commands the robot to output a predetermined sound when it is detected that the subject is a person.
前記動画像の表示手段への表示を制御する表示制御ステップと、
表示している前記動画像を監視している監視者からの操作による、停止の指示を取得する取得ステップと、
測定された危険の程度が所定の閾値以上である場合または前記監視者から停止が指示された場合、前記ロボットに停止を指令する指令ステップと、
前記監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる記録制御ステップと、
停止が指示されたことを示すデータおよび前記記録手段に記録されている前記動画像を用いた測定の学習の実行を予約する予約ステップと
を含む情報処理方法。 The degree of danger of contact with the subject in the moving image by machine learning from the moving image transmitted from the robot that autonomously travels on the floor in the building and picks up the moving image of the destination Measuring steps to measure,
A display control step for controlling display on the display means of the moving image;
An acquisition step of acquiring a stop instruction by an operation from a monitoring person who is monitoring the displayed moving image;
A command step for instructing the robot to stop when the measured degree of danger is equal to or greater than a predetermined threshold or when a stop is instructed by the supervisor;
A recording control step for causing the recording means to record the moving image for a predetermined length of time including when the stop is instructed when the stop is instructed by the supervisor;
An information processing method comprising: a reservation step of reserving execution of measurement learning using data indicating that stop is instructed and the moving image recorded in the recording means .
前記動画像の表示手段への表示を制御する表示制御ステップと、
表示している前記動画像を監視している監視者からの操作による、停止の指示を取得する取得ステップと、
測定された危険の程度が所定の閾値以上である場合または前記監視者から停止が指示された場合、前記ロボットに停止を指令する指令ステップと、
前記監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる記録制御ステップと、
停止が指示されたことを示すデータおよび前記記録手段に記録されている前記動画像を用いた測定の学習の実行を予約する予約ステップと
を含む情報処理をコンピュータに行わせるプログラム。 The degree of danger of contact with the subject in the moving image by machine learning from the moving image transmitted from the robot that autonomously travels on the floor in the building and picks up the moving image of the destination Measuring steps to measure,
A display control step for controlling display on the display means of the moving image;
An acquisition step of acquiring a stop instruction by an operation from a monitoring person who is monitoring the displayed moving image;
A command step for instructing the robot to stop when the measured degree of danger is equal to or greater than a predetermined threshold or when a stop is instructed by the supervisor;
A recording control step for causing the recording means to record the moving image for a predetermined length of time including when the stop is instructed when the stop is instructed by the supervisor;
A program for causing a computer to perform information processing including: a reservation step of reserving execution of measurement learning using data indicating that stop is instructed and the moving image recorded in the recording means .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018021672A JP6393433B1 (en) | 2018-02-09 | 2018-02-09 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018021672A JP6393433B1 (en) | 2018-02-09 | 2018-02-09 | Information processing apparatus, information processing method, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018157214A Division JP2019139733A (en) | 2018-08-24 | 2018-08-24 | Information processing system, information processing device, information processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6393433B1 true JP6393433B1 (en) | 2018-09-19 |
JP2019139467A JP2019139467A (en) | 2019-08-22 |
Family
ID=63580054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018021672A Active JP6393433B1 (en) | 2018-02-09 | 2018-02-09 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6393433B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109645633A (en) * | 2019-01-21 | 2019-04-19 | 珠海格力电器股份有限公司 | Walking stick and navigation method and device |
JP2020093373A (en) * | 2018-12-14 | 2020-06-18 | オムロン株式会社 | Robot interference determination device, robot interference determination method, robot control device, and robot control system |
JP2020097091A (en) * | 2018-12-14 | 2020-06-25 | オムロン株式会社 | Robot interference determination device, robot interference determination method, robot control device, robot control system, human movement predictor, and human movement prediction method |
CN111331618A (en) * | 2018-12-19 | 2020-06-26 | 发那科株式会社 | Robot control device, robot control system, and robot control method |
WO2020136978A1 (en) * | 2018-12-27 | 2020-07-02 | 本田技研工業株式会社 | Path determination method |
CN112883921A (en) * | 2021-03-22 | 2021-06-01 | 北京易华录信息技术股份有限公司 | Garbage can overflow detection model training method and garbage can overflow detection method |
JP7521980B2 (en) | 2019-09-13 | 2024-07-24 | トヨタ リサーチ インスティテュート,インコーポレイティド | Embedding and Support Vector Machines for Teaching Passability |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024142726A1 (en) * | 2022-12-28 | 2024-07-04 | 有限会社パシフィックネットワーク | Swimmer monitoring device and swimmer monitoring method |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05133523A (en) * | 1991-11-11 | 1993-05-28 | Matsushita Electric Ind Co Ltd | Gas cut-off device with calendar learning function |
JPH0785280B2 (en) * | 1992-08-04 | 1995-09-13 | タカタ株式会社 | Collision prediction judgment system by neural network |
JP2003256041A (en) * | 2002-02-28 | 2003-09-10 | Matsushita Electric Ind Co Ltd | Self-contained travel device, its monitoring method and remote control method |
JP2005192994A (en) * | 2004-01-06 | 2005-07-21 | Samsung Electronics Co Ltd | Cleaning robot and controlling method therefor |
JP2006113858A (en) * | 2004-10-15 | 2006-04-27 | Mitsubishi Heavy Ind Ltd | Method and system for supporting remote operation for mobile object |
JP2008012635A (en) * | 2006-07-07 | 2008-01-24 | Toyota Motor Corp | Personal identification system |
JP2013171314A (en) * | 2012-02-17 | 2013-09-02 | Sharp Corp | Self-propelled electronic apparatus |
JP2017117353A (en) * | 2015-12-25 | 2017-06-29 | シャダイ株式会社 | Mobile body platform system |
JP2017162438A (en) * | 2016-03-11 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Danger prediction method |
-
2018
- 2018-02-09 JP JP2018021672A patent/JP6393433B1/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05133523A (en) * | 1991-11-11 | 1993-05-28 | Matsushita Electric Ind Co Ltd | Gas cut-off device with calendar learning function |
JPH0785280B2 (en) * | 1992-08-04 | 1995-09-13 | タカタ株式会社 | Collision prediction judgment system by neural network |
JP2003256041A (en) * | 2002-02-28 | 2003-09-10 | Matsushita Electric Ind Co Ltd | Self-contained travel device, its monitoring method and remote control method |
JP2005192994A (en) * | 2004-01-06 | 2005-07-21 | Samsung Electronics Co Ltd | Cleaning robot and controlling method therefor |
JP2006113858A (en) * | 2004-10-15 | 2006-04-27 | Mitsubishi Heavy Ind Ltd | Method and system for supporting remote operation for mobile object |
JP2008012635A (en) * | 2006-07-07 | 2008-01-24 | Toyota Motor Corp | Personal identification system |
JP2013171314A (en) * | 2012-02-17 | 2013-09-02 | Sharp Corp | Self-propelled electronic apparatus |
JP2017117353A (en) * | 2015-12-25 | 2017-06-29 | シャダイ株式会社 | Mobile body platform system |
JP2017162438A (en) * | 2016-03-11 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Danger prediction method |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020093373A (en) * | 2018-12-14 | 2020-06-18 | オムロン株式会社 | Robot interference determination device, robot interference determination method, robot control device, and robot control system |
JP2020097091A (en) * | 2018-12-14 | 2020-06-25 | オムロン株式会社 | Robot interference determination device, robot interference determination method, robot control device, robot control system, human movement predictor, and human movement prediction method |
JP7243979B2 (en) | 2018-12-14 | 2023-03-22 | オムロン株式会社 | Robot interference determination device, robot interference determination method, robot control device, robot control system, human motion prediction device, and human motion prediction method |
CN111331618A (en) * | 2018-12-19 | 2020-06-26 | 发那科株式会社 | Robot control device, robot control system, and robot control method |
WO2020136978A1 (en) * | 2018-12-27 | 2020-07-02 | 本田技研工業株式会社 | Path determination method |
JPWO2020136978A1 (en) * | 2018-12-27 | 2021-09-27 | 本田技研工業株式会社 | Route determination method |
JP7130062B2 (en) | 2018-12-27 | 2022-09-02 | 本田技研工業株式会社 | Route determination method |
US12093051B2 (en) | 2018-12-27 | 2024-09-17 | Honda Motor Co., Ltd. | Path determination method |
CN109645633A (en) * | 2019-01-21 | 2019-04-19 | 珠海格力电器股份有限公司 | Walking stick and navigation method and device |
CN109645633B (en) * | 2019-01-21 | 2024-02-09 | 珠海格力电器股份有限公司 | Walking stick, navigation method and device |
JP7521980B2 (en) | 2019-09-13 | 2024-07-24 | トヨタ リサーチ インスティテュート,インコーポレイティド | Embedding and Support Vector Machines for Teaching Passability |
CN112883921A (en) * | 2021-03-22 | 2021-06-01 | 北京易华录信息技术股份有限公司 | Garbage can overflow detection model training method and garbage can overflow detection method |
Also Published As
Publication number | Publication date |
---|---|
JP2019139467A (en) | 2019-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6393433B1 (en) | Information processing apparatus, information processing method, and program | |
US10532003B2 (en) | Guide robot and method and system for operating the same | |
CN110338708B (en) | Sweeping control method and device of sweeping robot | |
US20220257077A1 (en) | Cleaning robot and method of performing task thereof | |
JP5629390B2 (en) | Mobile robot system | |
JP7188471B2 (en) | Virtual organism control system, virtual organism control method and program | |
WO2021103987A1 (en) | Control method for sweeping robot, sweeping robot, and storage medium | |
US20180317725A1 (en) | Cleaning robot and method for controlling same | |
CN104772748B (en) | A kind of social robot | |
US9079749B2 (en) | Simple node transportation system and node controller and vehicle controller therein | |
CN111479662A (en) | Artificial intelligent mobile robot for learning obstacles and control method thereof | |
KR102104896B1 (en) | robot cleaner and caring method of human using the same | |
JP5318623B2 (en) | Remote control device and remote control program | |
CN106406119A (en) | Service robot based on voice interaction, cloud technology and integrated intelligent home monitoring | |
JP6621220B2 (en) | Information processing apparatus, information processing method, and program | |
JP2002006784A (en) | Floating type robot | |
US11257355B2 (en) | System and method for preventing false alarms due to display images | |
JP2011204145A (en) | Moving device, moving method and program | |
CN109093633A (en) | A kind of detachable robot and its control method | |
CN208930273U (en) | A kind of detachable robot | |
JP2019139733A (en) | Information processing system, information processing device, information processing method and program | |
KR20180040908A (en) | Airport robot | |
JP2023133343A (en) | Robot, method for controlling direction, and program | |
JP2012110996A (en) | Movement control system of robot, movement control program of the robot, and movement control method of the robot | |
US20230196681A1 (en) | Extended reality 3d space creation and management |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180412 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180412 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180725 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180824 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6393433 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |