JP2019139733A - Information processing system, information processing device, information processing method and program - Google Patents
Information processing system, information processing device, information processing method and program Download PDFInfo
- Publication number
- JP2019139733A JP2019139733A JP2018157214A JP2018157214A JP2019139733A JP 2019139733 A JP2019139733 A JP 2019139733A JP 2018157214 A JP2018157214 A JP 2018157214A JP 2018157214 A JP2018157214 A JP 2018157214A JP 2019139733 A JP2019139733 A JP 2019139733A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- stop
- robot
- unit
- instructed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 29
- 238000003672 processing method Methods 0.000 title description 4
- 238000005259 measurement Methods 0.000 claims abstract description 47
- 238000010801 machine learning Methods 0.000 claims abstract description 33
- 238000012544 monitoring process Methods 0.000 claims abstract description 24
- 238000004140 cleaning Methods 0.000 description 241
- 238000013473 artificial intelligence Methods 0.000 description 128
- 238000000034 method Methods 0.000 description 85
- 238000004891 communication Methods 0.000 description 65
- 238000003384 imaging method Methods 0.000 description 40
- 238000012545 processing Methods 0.000 description 37
- 238000001514 detection method Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 33
- 230000005540 biological transmission Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 18
- 238000003860 storage Methods 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 12
- 238000013528 artificial neural network Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 8
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000005286 illumination Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 239000000428 dust Substances 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 239000010813 municipal solid waste Substances 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000001994 activation Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001802 infusion Methods 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000002271 resection Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Abstract
Description
本発明は情報処理システム、情報処理装置、情報処理方法およびプログラムに関し、特に、ロボットの走行の制御に用いる情報処理システム、情報処理装置、情報処理方法およびプログラムに関する。 The present invention relates to an information processing system, an information processing apparatus, an information processing method, and a program, and more particularly, to an information processing system, an information processing apparatus, an information processing method, and a program used for controlling the running of a robot.
建物内の床面の清掃にロボットが使用されるようになってきた。公共の建物や病院などの人がいる領域の清掃では、人との衝突を回避しなければならない。人との衝突の回避は、走行する車両について、各種提案されている。 Robots have come to be used for cleaning floors in buildings. When cleaning areas with people, such as public buildings and hospitals, collisions with people must be avoided. Various proposals have been made for avoiding a collision with a person on a traveling vehicle.
車両走行において、画像からニューラルネットで物体が歩行者であるか判別し、衝突危険度を判定するようにしているものもある(例えば、特許文献2参照)。 In a vehicle running, there is a type in which whether or not an object is a pedestrian is determined from an image by using a neural network, and a collision risk is determined (for example, see Patent Document 2).
画像からニューラルネットで歩行者が路上に侵入しようとしているか判別するようにしているものもある(例えば、特許文献2参照)。 Some images are used to determine whether a pedestrian is entering the road using a neural network (see, for example, Patent Document 2).
しかしながら、機械による判別だけでは、誤る可能性がある。特に、病院などでは、動きが制限されることのある患者との衝突は確実に回避する必要がある。また、衝突危険度の判定には、機械学習が用いられることも多いが、学習させて、より確実に判定させるには、学習データを用意する必要があり、手間がかかる。 However, there is a possibility of mistakes only by the discrimination by the machine. Particularly in hospitals and the like, it is necessary to reliably avoid collisions with patients whose movement may be restricted. In addition, machine learning is often used for the determination of the collision risk. However, it is necessary to prepare learning data to learn and to make a more reliable determination, which takes time.
本発明は、このような状況に鑑みてなされたものであり、より確実に衝突を回避して、より簡単に、学習ができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to more easily avoid collision and more easily learn.
本発明の第1の側面の情報処理システムは、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットと、ロボットを制御する情報処理装置とを含む情報処理システムであって、動画像から、機械学習によって、動画像に写っている被写体とロボットとの接触の危険の程度を測定する測定手段と、動画像の表示手段への表示を制御する表示制御手段と、表示している動画像を監視している監視者からの操作による、ロボットの停止の指示を取得する取得手段と、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令手段と、監視者からロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御手段とを備える。 An information processing system according to a first aspect of the present invention is an information processing system that includes a robot that autonomously travels on a floor in a building and captures a moving image of the travel destination, and an information processing device that controls the robot. A measuring means for measuring the degree of danger of contact between the subject in the moving image and the robot by machine learning from the moving image, a display control means for controlling the display on the moving image display means, An acquisition means for acquiring an instruction to stop the robot by an operation from the monitoring person who is monitoring the displayed moving image, and when the measured degree of danger is equal to or greater than a predetermined threshold or when the monitoring person stops. When instructed, the instruction means for instructing the robot to stop, and when the supervisor instructs the stop of the robot, the recording means records a moving image for a predetermined length of time including the time when the stop is instructed. Recording system And means.
測定手段に、複数のロボットのそれぞれにおいて撮像された動画像から、機械学習によって、複数のロボットのそれぞれについて、動画像に写っている被写体との接触の危険の程度を測定させ、取得手段に、表示している動画像を監視している監視者からの操作による、複数のロボットのいずれかへの停止の指示を取得させ、指令手段に、複数のロボットのいずれかについて測定された危険の程度が所定の閾値以上である場合または複数のロボットのいずれかについて監視者から停止が指示された場合、危険の程度が所定の閾値以上であるかまたは停止が指示されたロボットに停止を指令させ、記録制御手段に、複数のロボットのいずれかについて監視者から停止が指示された場合、停止が指示されたロボットから送信されてくる動画像であって、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させるようにすることができる。 From the moving image captured by each of the plurality of robots, the measuring unit is caused to measure the degree of danger of contact with the subject reflected in the moving image for each of the plurality of robots by machine learning. The degree of danger measured for any of the plurality of robots by causing the command means to obtain an instruction to stop any of the plurality of robots by an operation from the supervisor who is monitoring the displayed moving image Is equal to or greater than a predetermined threshold value, or when a stop is instructed by any of a plurality of robots, the robot is instructed to stop if the degree of danger is equal to or greater than a predetermined threshold value, When the recording controller is instructed to stop any of the plurality of robots by the monitoring person, it is a moving image transmitted from the robot instructed to stop. Te, can be made to be recorded in the recording means a moving image of a predetermined length of time, including when the stop is instructed.
測定手段に、停止が指示されたことを示すデータおよび記録手段に記録されている動画像を用いて学習させることができる。 It is possible to cause the measurement unit to learn using data indicating that stop has been instructed and a moving image recorded in the recording unit.
本発明の第2の側面の情報処理装置は、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体とロボットとの接触の危険の程度を測定する測定手段と、動画像の表示手段への表示を制御する表示制御手段と、表示している動画像を監視している監視者からの操作による、ロボットの停止の指示を取得する取得手段と、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令手段と、監視者からロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御手段とを含む。 The information processing apparatus according to the second aspect of the present invention autonomously travels on a floor in a building and converts a moving image transmitted from a robot that captures a moving image to a moving image by machine learning. From the measuring means for measuring the degree of danger of contact between the subject being photographed and the robot, the display control means for controlling the display of the moving image on the display means, and the monitor who is monitoring the displayed moving image An acquisition means for acquiring an instruction to stop the robot by the operation of the above, and an instruction means for instructing the robot to stop when the measured degree of danger is equal to or greater than a predetermined threshold or when a stop is instructed by a supervisor; And a recording control unit that causes the recording unit to record a moving image for a predetermined length of time including when the stop is instructed by the supervisor.
測定手段に、複数のロボットのそれぞれから送信されてくる動画像から、機械学習によって、複数のロボットのそれぞれについて、動画像に写っている被写体との接触の危険の程度を測定させ、取得手段に、表示している動画像を監視している監視者からの操作による、複数のロボットのいずれかへの停止の指示を取得させ、指令手段に、複数のロボットのいずれかについて測定された危険の程度が所定の閾値以上である場合または複数のロボットのいずれかについて監視者から停止が指示された場合、危険の程度が所定の閾値以上であるかまたは停止が指示されたロボットに停止を指令させ、記録制御手段に、複数のロボットのいずれかについて監視者から停止が指示された場合、停止が指示されたロボットから送信されてくる動画像であって、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させることができる。 Let the measuring means measure the degree of danger of contact with the subject in the moving image for each of the plurality of robots by using machine learning from the moving images transmitted from each of the plurality of robots. , By acquiring an instruction to stop any of the plurality of robots by an operation from the monitoring person who is monitoring the displayed moving image, and instructing the command means to detect the risk measured for any of the plurality of robots. When the degree is greater than or equal to a predetermined threshold or when a stop is instructed by any of a plurality of robots, the robot with the degree of danger exceeding the predetermined threshold or instructed to stop is instructed to stop. When the stop is instructed to any one of the plurality of robots by the recording control means, the moving image is transmitted from the robot instructed to stop. Te, can be recorded in the recording means a moving image of a predetermined length of time, including when the stop is instructed.
測定手段に、停止が指示されたことを示すデータおよび記録手段に記録されている動画像を用いて学習させることができる。 It is possible to cause the measurement unit to learn using data indicating that stop has been instructed and a moving image recorded in the recording unit.
本発明の第3の側面の情報処理方法は、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体とロボットとの接触の危険の程度を測定する測定ステップと、動画像の表示手段への表示を制御する表示制御ステップと、表示している動画像を監視している監視者からの操作による、ロボットの停止の指示を取得する取得ステップと、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令ステップと、監視者からロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御ステップとを含む。 The information processing method according to the third aspect of the present invention is a method of autonomously running on a floor in a building and converting a moving image transmitted from a robot that captures a moving image to a moving image by machine learning. From a measurement step for measuring the degree of danger of contact between the subject being photographed and the robot, a display control step for controlling the display of the moving image on the display means, and a supervisor who is monitoring the displayed moving image An acquisition step for acquiring an instruction to stop the robot by the operation of, and a command step for instructing the robot to stop when the measured degree of danger is equal to or greater than a predetermined threshold or when a stop is instructed by a supervisor; A recording control step of causing the recording means to record a moving image for a predetermined length of time including when the stop is instructed by the supervisor.
本発明の第4の側面のプログラムは、建物内の床上を自律的に走行し、走行する先の動画像を撮像するロボットから送信されてくる動画像から、機械学習によって、動画像に写っている被写体とロボットとの接触の危険の程度を測定する測定ステップと、動画像の表示手段への表示を制御する表示制御ステップと、表示している動画像を監視している監視者からの操作による、ロボットの停止の指示を取得する取得ステップと、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、ロボットに停止を指令する指令ステップと、監視者からロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録手段に記録させる記録制御ステップとを含む情報処理をコンピュータに行わせる。 The program according to the fourth aspect of the present invention is captured on a moving image by machine learning from a moving image transmitted from a robot that autonomously travels on a floor in a building and picks up a moving image. Measurement step for measuring the degree of danger of contact between the subject and the robot, a display control step for controlling the display of the moving image on the display means, and an operation from the supervisor who is monitoring the displayed moving image An acquisition step for acquiring an instruction to stop the robot, a command step for instructing the robot to stop if the measured degree of danger is equal to or greater than a predetermined threshold value, or a stop is instructed by a supervisor, Information processing including a recording control step for causing the recording means to record a moving image for a predetermined length of time including when the stop is instructed by a person. To perform.
以上のように、本発明によれば、より確実に衝突を回避して、より簡単に、学習ができる。 As described above, according to the present invention, it is possible to more easily avoid a collision and learn more easily.
以下、図1乃至図21を参照して、本発明の実施の形態を説明する。 Embodiments of the present invention will be described below with reference to FIGS.
図1は、清掃システム11の構成の一例を示す図である。清掃システム11は、病院や公共施設などの建物の屋内の床を清掃する。清掃システム11は、自律的に走行して、清掃を行う清掃ロボットを制御して、清掃ロボットに清掃をさせる。清掃システム11は、AI(Artificial Intelligence)サーバ21、清掃ロボット22−1および22−2、ハブ23、アクセスポイント24−1乃至24−3並びにタッチパネルモニタ25−1および25−2を含み構成される。
FIG. 1 is a diagram illustrating an example of the configuration of the
AIサーバ21は、動画像から、動画像のシーンにおける危険の程度を測定する。ここで動画像のシーンとは、動画像における一区切りであって、所定の状態または所定の動作をしている所定の被写体がある、所定の場所が写されている一区切りをいう。例えば、AIサーバ21は、動画像から、動画像に写っている被写体と清掃ロボット22−1および22−2との接触の危険の程度を測定する。AIサーバ21は、測定された危険の程度が所定の閾値以上である場合、清掃ロボット22−1および22−2の停止または減速を指令する。清掃ロボット22−1および22−2は、自律的に走行して、床面の清掃を行う。清掃ロボット22−1および22−2は、走行する先の動画像を撮像する。
The
すなわち、AIサーバ21は、走行する先の動画像を撮像する清掃ロボット22−1および22−2から送信されてくる動画像の撮像データを処理して、動画像に写っている被写体との接触の危険の程度を測定し、測定された危険の程度が所定の閾値以上である場合、清掃ロボット22−1および22−2の停止または減速を指令する。
That is, the
ハブ23は、スター型のネットワークトポロジ(物理トポロジ)を採用するネットワークにおける集線装置である。ハブ23は、AIサーバ21とアクセスポイント24−1乃至24−3のそれぞれとを接続する。
The
アクセスポイント24−1乃至24−3は、それぞれ、清掃ロボット22−1および22−2のそれぞれに、無線LAN(Local Area Network)の所定の規格の無線通信で接続するための無線通信機である。清掃ロボット22−1および22−2は、走行する先の動画像を撮像し、ハブ23およびアクセスポイント24−1乃至24−3を介して、AIサーバ21に動画像を表示させる撮像データを送信する。
The access points 24-1 to 24-3 are wireless communication devices for connecting to the cleaning robots 22-1 and 22-2, respectively, by wireless communication of a predetermined standard of a wireless local area network (LAN). . The cleaning robots 22-1 and 22-2 capture the moving image of the traveling destination, and transmit imaging data for displaying the moving image on the
タッチパネルモニタ25−1および25−2は、表示機能および入力機能を備える。タッチパネルモニタ25−1および25−2は、タッチスクリーンとも称され、AIサーバ21からの画像データにより所定の画像を表示する。また、タッチパネルモニタ25−1および25−2のそれぞれの画面の前面には、表示されている画像を透過させ、接触された位置を入力する位置入力装置であるタッチパネルが設けられている。タッチパネルモニタ25−1および25−2のそれぞれのタッチパネルが触られて操作されると、触られた位置を示す信号がAIサーバ21に送られる。
The touch panel monitors 25-1 and 25-2 have a display function and an input function. The touch panel monitors 25-1 and 25-2 are also referred to as touch screens, and display predetermined images based on image data from the
AIサーバ21は、清掃ロボット22−1および22−2から送信されてくる撮像データにより、動画像をタッチパネルモニタ25−1および25−2に表示させる。清掃ロボット22−1および22−2の走行を監視している監視者は、タッチパネルモニタ25−1および25−2に表示されている動画像を監視する。監視者は、タッチパネルモニタ25−1および25−2に表示されている動画像から、清掃ロボット22−1または22−2と患者や通行人などの人が接触する危険があると判断した場合、タッチパネルモニタ25−1または25−2にタッチして、清掃ロボット22−1または22−2を停止させるか、または減速させる。
The
清掃ロボット22は、病院や公共施設などの建物の屋内を走行するので、速度は人が歩く程度であり、道路を走行する自動車などに比較して遅いので、監視者が、タッチパネルモニタ25の画像を見て、停止または減速を指示すれば、被写体との接触などの危険を回避することができる。
Since the cleaning
なお、以下、清掃ロボット22−1および22−2を個々に区別する必要がない場合、単に、清掃ロボット22と称する。また、以下、アクセスポイント24−1乃至24−3を個々に区別する必要がない場合、単に、アクセスポイント24と称する。さらに、以下、タッチパネルモニタ25−1および25−2を個々に区別する必要がない場合、単に、タッチパネルモニタ25と称する。
Hereinafter, the cleaning robots 22-1 and 22-2 are simply referred to as the cleaning
図1には、2つの清掃ロボット22を示したが、単数または複数の任意の数の清掃ロボット22を用いることができる。また、図1には、3つのアクセスポイント24を示したが、単数または複数の任意の数のアクセスポイント24を設けることができる。さらにまた、図1には、2つのタッチパネルモニタ25を示したが、単数または複数の任意の数のタッチパネルモニタ25を設けることができる。
Although two cleaning
図2は、清掃ロボット22の外形の一例を示す図である。清掃ロボット22の本体41には、走行のための車輪やモータ、清掃のためのブラシやブラシを駆動するためのモータおよびバッテリなどの電源などが設けられている。清掃ロボット22の本体41の上面前方には、制御モジュール42が設けられている。制御モジュール42は、タブレット型のパーソナルコンピュータまたは専用のコンピュータなどからなる。制御モジュール42は、アクセスポイント24およびハブ23を介して、AIサーバ21と通信する。制御モジュール42は、停止などの各種の指令を本体41に送り、本体41の動作を制御する。
FIG. 2 is a diagram illustrating an example of the outer shape of the cleaning
清掃ロボット22の本体41の前面側には、カメラ43が設けられている。カメラ43は、清掃ロボット22の前方の動画像を撮像する。すなわち、カメラ43は、清掃ロボット22が走行する先の動画像を撮像する。カメラ43で撮像された動画像の撮像データは、制御モジュール42により、AIサーバ21に送信される。
A
次に、清掃ロボット22のハードウェアの構成について説明する。
Next, the hardware configuration of the cleaning
図3は、清掃ロボット22のハードウェアの構成の一例を示すブロック図である。清掃ロボット22は、制御モジュール42、カメラ43、走行動作制御部51、センサ52、駆動部53、モータ54、車輪55、清掃動作制御部61、センサ62、駆動部63、モータ64およびブラシ65を含み構成される。制御モジュール42は、スピーカ71、表示部72、タッチパネル73、通信部74および記憶部75を含む。スピーカ71は、いわゆるラウドスピーカであり、各種の音声を出力する(放音する)。例えば、スピーカ71は、病院や公共施設などの建物の屋内を通行している人に対してメッセージを示す音声を出力する。表示部72は、液晶表示装置や有機EL(Electro-luminescence)表示装置などからなり、各種の画像や文字などを表示する。例えば、表示部72は、病院や公共施設などの建物の屋内を通行している人に対してメッセージを示す画像や文字を表示する。タッチパネル73は、表示部72の表示面に設けられ、表示部72に表示されている画像を透過させ、接触された位置を入力する。例えば、タッチパネル73は、起動の時にオペレータからの指示などを入力する。通信部74は、無線LANの所定の規格により、アクセスポイント24と無線通信する。記憶部75は、フラッシュメモリなどの不揮発性メモリなどからなり、各種のデータを記憶する。
FIG. 3 is a block diagram illustrating an example of a hardware configuration of the cleaning
走行動作制御部51は、専用のプロセッサなどからなり、センサ52または制御モジュール42からの信号により、駆動部53を制御することで、清掃ロボット22の走行を制御する。センサ52は、赤外線や超音波を利用した距離センサや3次元の加速度センサなどからなり、清掃ロボット22の姿勢や周囲の人や物を検知して、その検知結果を示す信号を走行動作制御部51に供給する。駆動部53は、インバータなどであり、図示せぬバッテリなどの電源によって、モータ54を駆動する。モータ54は、清掃ロボット22の底面の4隅などに設けられている車輪55を回転させたり、車輪55の向きを変えたりする。
The traveling
清掃動作制御部61は、専用のプロセッサなどからなり、センサ62からの信号により、駆駆動部63を制御することで、清掃ロボット22による清掃の動作を制御する。センサ62は、掃除のときの音を感知するマイク、またはごみの有無や量を感知するピエゾセンサや光センサなどからなり、床のごみや清掃の動作の状態を感知して、その検知結果を示す信号を清掃動作制御部61に供給する。駆動部63は、インバータなどであり、図示せぬバッテリなどの電源によって、モータ64を駆動する。モータ64は、清掃ロボット22の底面などに設けられているブラシ65を回転させたり、ごみを吸い込む吸引装置を動作させたりする。
The cleaning
次に、制御モジュール42の機能について説明する。
Next, the function of the
図4は、制御モジュール42が制御プログラムを実行することにより実現される機能の構成の一例を説明するブロック図である。制御モジュール42が制御プログラムを実行すると、撮像制御部81、符号化部82、通信制御部83、フラグ設定部84、記憶制御部85、指示部86および音声出力制御部87が実現される。
FIG. 4 is a block diagram illustrating an example of a functional configuration realized by the
撮像制御部81は、カメラ43による動画像の撮像を制御する。符号化部82は、カメラ43により撮像された動画像をH.262/MPEG(Moving Picture Experts Group)-2 Part 2やMPEG-4 AVC(Advanced Video Coding)/H.264などの方式により、符号化して、撮像データを生成する。通信制御部83は、通信部74による通信を制御する。通信制御部83は、送信制御部91および受信制御部92を含む。送信制御部91は、通信部74を制御することで、動画像の撮像データの送信など、アクセスポイント24を介したAIサーバ21への各種のデータの送信を制御する。受信制御部92は、通信部74を制御することで、停止を指示する制御信号の受信など、アクセスポイント24を介してAIサーバ21から送信されてくる各種のデータの受信を制御する。
The
フラグ設定部84は、記憶部75の所定のアドレスのデータのビットを0または1に設定することで、清掃ロボット22が停止していることを示す停止フラグなど各種のフラグを設定する。記憶制御部85は、記憶部75への音声のデータの記憶を制御する。指示部86は、タッチパネル73からの操作に応じた信号やAIサーバ21から停止を指示する制御信号などに応じて、走行動作制御部51に停止や減速などを指示する。指示部86は、判定部93を含む。判定部93は、AIサーバ21から送信されてきた制御信号が停止を指示するものであるか、減速を指示するものであるかなどを判定する。
The
音声出力制御部87は、AIサーバ21から送信されてくる制御信号であって、音声の出力を指示する制御信号を受信した場合、記憶部75に記憶されている音声データを読み出して、音声データによる音声をスピーカ71に出力させる。
When the voice
次に、AIサーバ21のハードウェアについて説明する。
Next, the hardware of the
図5は、AIサーバ21のハードウェアの構成の一例を示すブロック図である。
FIG. 5 is a block diagram illustrating an example of a hardware configuration of the
AIサーバ21において、CPU(Central Processing Unit)121,ROM(Read Only Memory)122,RAM(Random Access Memory)123は、バス124により相互に接続されている。
In the
バス124には、さらに、入出力インタフェース125が接続されている。入出力インタフェース125には、必要に応じて接続されるキーボードまたはマウスなどよりなる入力部126、必要に応じて接続されるディスプレイなどよりなる出力部127、ハードディスクや不揮発性のメモリなどよりなる記録部128、ネットワークインタフェースなどよりなる通信部129、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア131を駆動するドライブ130が接続されている。
An input /
また、入出力インタフェース125には、図示せぬGPU(Graphics Processing Unit)を介して、タッチパネルモニタ25が接続されている。
The touch panel monitor 25 is connected to the input /
以上のように構成されるAIサーバ21(コンピュータ)では、CPU121が、例えば、記録部128に記録されているプログラムを、入出力インタフェース125及びバス124を介して、RAM123にロードして実行することにより、後述する一連の処理が行われる。
In the AI server 21 (computer) configured as described above, the
AIサーバ21(CPU121)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア131に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
The programs executed by the AI server 21 (CPU 121) are, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, Alternatively, it is recorded on a
そして、プログラムは、リムーバブルメディア131をドライブ130に装着することにより、入出力インタフェース125を介して、記録部128に記録することで、コンピュータにインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部129で受信し、記録部128に記録することで、コンピュータにインストールすることができる。その他、プログラムは、ROM122や記録部128にあらかじめ記憶または記録しておくことで、コンピュータにあらかじめインストールしておくことができる。
The program can be installed in the computer by mounting the
すなわち、AIサーバ21(コンピュータ)では、インストールされたプログラムを実行することにより、図6を参照して後述する機能が実現される。 That is, in the AI server 21 (computer), the functions described later with reference to FIG. 6 are realized by executing the installed program.
図6は、AIサーバ21がプログラムを実行することにより実現される機能の構成の一例を示すブロック図である。AIサーバ21がプログラムを実行することにより、危険度測定部161、撮像データバッファ162、復号部163、学習データ記録制御部164、学習スケジューラ165、判定部166、指令部167、通信制御部168、入力制御部169および表示制御部170が実現される。危険度測定部161は、清掃ロボット22から送信されてくる動画像の撮像データから、機械学習によって、動画像のシーンの危険の程度を測定する。また、危険度測定部161は、清掃ロボット22から送信されてくる動画像の撮像データから、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定する。また、危険度測定部161は、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を測定する。危険度測定部161は、物体検知AI部171、画像処理部172、危険度測定AI部173および描画部174を含む。
FIG. 6 is a block diagram illustrating an example of a functional configuration realized by the
なお、危険度測定部161は、図示せぬGPUに計算を実行させて、動画像のシーンの危険の程度を測定するようにしてもよい。また、危険度測定部161は、図示せぬAIチップに計算を実行させて、動画像のシーンの危険の程度を測定するようにしてもよい。なお、危険度測定部161は、清掃ロボット22の数だけ実現されるようにしてもよい。例えば、図1に示されるように、清掃システム11において、清掃ロボット22−1および22−2が清掃する場合、図示は省略するが、プログラムを実行するAIサーバ21は、清掃ロボット22−1用の危険度測定部161−1と、清掃ロボット22−2用の危険度測定部161−2とを実現させる。
The
物体検知AI部171は、清掃ロボット22により撮像された動画像の撮像データから、ニューラルネットワークを用いた機械学習によって、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する。
The object
例えば、物体検知AI部171は、ディープラーニングを利用した物体検出を行うYOLO(You Only Look Once),R-CNN(Regions with Convolutional Neural Network),Faster R-CNNまたはFCN(Fully Convolutional Network)などの畳み込みニューラルネットワークによる機械学習によって、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する。例えば、YOLOを採用する物体検知AI部171は、動画像の全体からクラス確率および物体のバウンディングボックス座標を推論する。例えば、R-CNNを採用する物体検知AI部171は、選択的探索法から得られる物体領域候補内の画像を、事前に学習しておいたCNN(Convolutional Neural Network)に入力して、画像特徴を抽出し、抽出された画像特徴を線形サポートベクトルマシンに入力して物体クラスを予測する。
For example, the object
なお、物体検知AI部171は、学習済みモデルを使用して、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する。
The object
また、物体検知AI部171は、図示せぬGPUに計算を実行させて、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知するようにしてもよい。なお、物体検知AI部171は、図示せぬAIチップに計算を実行させて、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知するようにしてもよい。さらにまた、物体検知AI部171は、清掃ロボット22の数だけ実現されるようにしてもよい。例えば、図1に示されるように、清掃システム11において、清掃ロボット22−1および22−2が清掃する場合、図示は省略するが、プログラムを実行するAIサーバ21は、清掃ロボット22−1用の物体検知AI部171−1と、清掃ロボット22−2用の物体検知AI部171−2とを実現させる。
In addition, the object
画像処理部172は、画像処理により、動画像および動画像における被写体の位置から、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を求める。また、画像処理部172は、画像処理により、物体検知AI部171において被写体が人であると検知された場合、清掃ロボット22に対する被写体の向きまたは清掃ロボット22に対する被写体の顔の向きを求める。例えば、画像処理部172は、動画像および動画像における被写体の位置から、平面射影変換またはリセクションの処理により、清掃ロボット22から被写体までの距離を求める。例えば、画像処理部172は、動画像および動画像における被写体の位置から、背景差分法またはオプティカルフローにより、清掃ロボット22に対する被写体の速度を求める。
The
例えば、画像処理部172は、目、鼻および口などの特徴点(領域)から左目端点、右目端点、鼻頂点、口左端、口右端および顎の先の6つの点を検出して、顔の回転角度を求めることで、清掃ロボット22に対する被写体の顔の向きを求める。また、例えば、画像処理部172は、動画像における、被写体の身体の特徴量を抽出し、正規化した特徴量からSVM(Support Vector Machine)およびクラス識別器により被写体の身体の向きを検出する。
For example, the
なお、物体検知AI部171または画像処理部172は、人である被写体が健常者、患者または子供であるか否か、人である被写体が立ち話をしているか否か、人である被写体が松葉杖をついているか否か、人である被写体が点滴スタンドを持っているか否かなどを検出するようにしてもよい。
Note that the object
危険度測定AI部173は、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、ニューラルネットワークを用いた機械学習によって、動画像のシーンの危険の程度を測定する。また、危険度測定AI部173は、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、ニューラルネットワークを用いた機械学習によって、清掃ロボット22と被写体との接触の危険の程度を測定する。
The risk
例えば、危険度測定AI部173は、Deep CNNなどの畳み込みニューラルネットワークによる機械学習によって、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、動画像のシーンの危険の程度を測定する。例えば、危険度測定AI部173は、Deep CNNなどの畳み込みニューラルネットワークによる機械学習によって、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、清掃ロボット22と被写体との接触の危険の程度を測定する。
For example, the risk
なお、危険度測定AI部173は、学習済みモデルを使用して、動画像のシーンの危険の程度および清掃ロボット22と被写体との接触の危険の程度を測定する。
The degree-of-risk
描画部174は、動画像に、動画像のシーンの危険の程度を示す文字または画像を書き込む。また、描画部174は、動画像に、清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を書き込む。すなわち、描画部174は、動画像の撮像データに、動画像のシーンの危険の程度を示す文字または画像および清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を表示させるデータを書き込む。より詳細には、描画部174は、動画像に、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離、清掃ロボット22に対する被写体の速度または動画像のシーンの危険の程度若しくは清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を描画する。
The
さらに、描画部174は、動画像に、動画像のシーンの危険の程度または被写体との接触の危険の程度に応じた停止または減速などの清掃ロボット22への指令を示す文字または画像を書き込む。
Further, the
撮像データバッファ162は、RAM123の記憶領域または記録部128の記録領域を用いて、清掃ロボット22からの撮像データを一時的に格納する。例えば、撮像データバッファ162は、リングバッファとされる。復号部163は、清掃ロボット22からの撮像データであって、符号化部82で符号化されている撮像データを復号する。学習データ記録制御部164は、タッチパネルモニタ25への操作によって監視者から清掃ロボット22の停止または減速が指示された場合、撮像データバッファ162から撮像データを取得して、停止が指示された時を含む所定の長さの時間の動画像の撮像データを記録部128に記録させる。学習スケジューラ165は、記録部128に記録された動画像の撮像データによる危険度測定部161の学習の実行を予約する。学習スケジューラ165は、危険度測定部161の学習のジョブをスケジューリングすることで予約する。また、学習スケジューラ165は、監視者またはオペレータからのタッチパネルモニタ25または入力部126への操作による指示に応じて、危険度測定部161の学習のジョブのスケジューリングにおける、学習の実行の可否および学習が実行される時刻を決定する。
The
判定部166は、危険度測定AI部173で測定された清掃ロボット22と被写体との接触の危険の程度から、清掃ロボット22に停止を指令するか否か、清掃ロボット22に減速を指令するか否かなどを判定する。指令部167は、通信部129から清掃ロボット22に制御信号を送信させることで、清掃ロボット22に停止、減速または加速を指令する。通信制御部168は、通信部129による通信を制御する。通信制御部168は、送信制御部175および受信制御部176を含む。送信制御部175は、通信部129を制御することで、停止を指示する制御信号の送信など、アクセスポイント24を介した清掃ロボット22への各種のデータの送信を制御する。受信制御部176は、通信部129を制御することで、動画像の撮像データの受信など、アクセスポイント24を介して清掃ロボット22から送信されてくる各種のデータの受信を制御する。
The
入力制御部169は、タッチパネルモニタ25のタッチパネルを制御し、監視者がタッチパネルモニタ25のタッチパネルを操作した場合にタッチパネルモニタ25から送信されてくる、操作に応じた信号を取得する。表示制御部170は、タッチパネルモニタ25のモニタを制御し、清掃ロボット22から送信されてくる動画像をタッチパネルモニタ25に表示させる。
The
次に、フローチャートを参照して、清掃システム11において行われる処理を説明する。
Next, the process performed in the
図7は、起動の処理を説明するフローチャートである。ステップS101において、監視者またはオペレータの操作により、制御モジュール42が起動させられる。ステップS102において、制御モジュール42は、AIサーバ21に接続する。ステップS201において、AIサーバ21は、制御モジュール42と接続する。例えば、制御モジュール42の通信制御部83は、通信部74に、TCP(Transmission Control Protocol)により、ハブ23およびアクセスポイント24を介して、通信制御部168に制御される通信部129とコネクションを確立させる。なお、制御モジュール42とAIサーバ21とは、UDP(User Datagram Protocol)により接続するようにしてもよい。
FIG. 7 is a flowchart for explaining the activation process. In step S101, the
ステップS103において、指示部86の判定部93は、通信制御部83からコネクションが確立しているか否かを示すステータス情報を取得して、ステータス情報を参照して、制御モジュール42がAIサーバ21に接続しているか否かを判定する。ステップS103において、制御モジュール42がAIサーバ21に接続していないと判定された場合、手続きはステップS104に進み、判定部93は、制御モジュール42に内蔵されているタイマにより、ステップS102の手続きからの経過時間を計り、例えば1秒間経過したか否かにより、タイムアウトしたか否かを判定する。例えば、ステップS104において、判定部93は、ステップS102の手続きからの1秒間経過していない場合、タイムアウトしていないと判定し、ステップS102の手続きからの1秒間以上経過した場合、タイムアウトしたと判定する。
In step S <b> 103, the
ステップS104において、タイムアウトしていないと判定された場合、手続きはステップS103に戻り、上述した処理が繰り返される。ステップS104において、タイムアウトしたと判定された場合、手続きはステップS105に進み、判定部93は、フラグ設定部84により設定される停止フラグであって、清掃ロボット22が停止していることを示す停止フラグが立っているか否かを判定する。ステップS105において、停止フラグが立っていると判定された場合、手続きはステップS102に戻り、上述した処理が繰り返される。
If it is determined in step S104 that the timeout has not occurred, the procedure returns to step S103, and the above-described processing is repeated. If it is determined in step S104 that the time-out has occurred, the procedure proceeds to step S105, and the
ステップS105において、停止フラグが立っていないと判定された場合、手続きはステップS106に進み、制御モジュール42は、清掃ロボット22を停止させる。すなわち、制御モジュール42の指示部86は、走行動作制御部51に停止を指示する。ステップS105の後、手続きはステップS102に戻り、上述した処理が繰り返される。
If it is determined in step S105 that the stop flag is not set, the procedure proceeds to step S106, and the
ステップS103において、制御モジュール42がAIサーバ21に接続していると判定された場合、手続きはステップS107に進み、撮像制御部81は、カメラ43を制御して、カメラ43に動画像の撮像を開始させる。カメラ43は、動画像のデータを制御モジュール42に供給する。ステップS108において、制御モジュール42による走行制御の処理が開始され、起動の処理は終了する。
If it is determined in step S103 that the
図8は、ステップS108の走行制御の処理の詳細を説明するフローチャートである。ステップS11において、指示部86は、走行動作制御部51および清掃動作制御部61から清掃ロボット22の動作状態を示すデータ(以下、動作状態データと称する。)を取得する。ステップS12において、指示部86の判定部93は、動作状態データを参照して、清掃ロボット22が停止しているか否かを判定する。ステップS12において、清掃ロボット22が停止していると判定された場合、手続きはステップS13に進み、フラグ設定部84は、停止フラグを立てる。ステップS12において、清掃ロボット22が停止していないと判定された場合、手続きはステップS14に進み、フラグ設定部84は、停止フラグを倒す。
FIG. 8 is a flowchart illustrating details of the travel control process in step S108. In step S <b> 11, the
ステップS13またはステップS14の後、手続きはステップS15に進み、通信制御部83の受信制御部92は、通信部74に、AIサーバ21から送信されてくる制御信号を受信させる。ステップS16において、指示部86の判定部93は、受信した制御信号により停止が指示されたか否かを判定する。ステップS16において、停止が指示されたと判定された場合、手続きはステップS17に進み、指示部86は、走行動作制御部51に停止を指示して、清掃ロボット22を停止させ、手続きはステップS11に戻り、上述した処理が繰り返される。
After step S13 or step S14, the procedure proceeds to step S15, and the
ステップS16において、停止が指示されていないと判定された場合、手続きはステップS18に進み、指示部86の判定部93は、受信した制御信号により減速が指示されたか否かを判定する。ステップS18において、減速が指示されたと判定された場合、手続きはステップS19に進み、指示部86は、走行動作制御部51に減速を指示して、清掃ロボット22を減速させ、手続きはステップS11に戻り、上述した処理が繰り返される。
If it is determined in step S16 that stop is not instructed, the procedure proceeds to step S18, and the
ステップS18において、減速が指示されていないと判定された場合、手続きはステップS20に進み、指示部86の判定部93は、受信した制御信号により加速が指示されたか否かを判定する。ステップS20において、加速が指示されたと判定された場合、手続きはステップS21に進み、指示部86は、走行動作制御部51に加速および通常走行を指示して、清掃ロボット22を加速させて通常走行させ、手続きはステップS11に戻り、上述した処理が繰り返される。
If it is determined in step S18 that deceleration is not instructed, the procedure proceeds to step S20, and the
ステップS20において、加速が指示されていないと判定された場合、手続きはステップS22に進み、指示部86の判定部93は、受信した制御信号により停止フラグが要求されたか否かを判定する。ステップS22において、停止フラグが要求されたと判定された場合、手続きはステップS23に進み、フラグ設定部84は、停止フラグを読み出して、通信制御部83の送信制御部91は、通信部74に、読み出した停止フラグをAIサーバ21宛に送信させる。ステップS23の後、手続きはステップS11に戻り、上述した処理が繰り返される。
If it is determined in step S20 that acceleration is not instructed, the procedure proceeds to step S22, and the
ステップS22において、停止フラグが要求されていないと判定された場合、手続きはステップS24に進み、指示部86の判定部93は、受信した制御信号により音声の出力が要求されたか否かを判定する。ステップS24において、音声の出力が要求されたと判定された場合、手続きはステップS25に進み、音声出力制御部87は、記憶部75から音声データを読み出して、読み出した音声データによりスピーカ71に音声を出力させる。ステップS23の後またはステップS24において、音声の出力が要求されていないと判定された場合、手続きはステップS11に戻り、上述した処理が繰り返される。
When it is determined in step S22 that the stop flag is not requested, the procedure proceeds to step S24, and the
次に、図9および図10のフローチャートを参照して、AIサーバ21による清掃ロボット22の走行制御の処理を説明する。ステップS121において、清掃ロボット22は、撮像データをストリーミングでAIサーバ21に送信する。すなわち、ステップS121において、符号化部82は、カメラ43の撮像により得られた動画像のデータを符号化して、ストリーミングデータである撮像データを生成し、通信制御部83の送信制御部91は、通信部74に、AIサーバ21宛に、ストリーミングデータである撮像データを送信させる。
Next, with reference to the flowcharts of FIGS. 9 and 10, the travel control processing of the cleaning
ステップS221において、AIサーバ21は、ストリーミングデータである撮像データを受信する。より詳細には、通信制御部168の受信制御部176は、通信部129に、清掃ロボット22から送信されてきた撮像データを受信させる。撮像データバッファ162は、受信した撮像データを一時的に格納する。危険度測定部161は、撮像データバッファ162から順に撮像データを読み出す。
In step S221, the
ステップS222において、危険度の測定の処理が行われる。 In step S222, risk level measurement processing is performed.
ここで、図11のフローチャートを参照して、危険度の測定の処理の詳細を説明する。ステップS51において、危険度測定部161の物体検知AI部171は、清掃ロボット22により撮像された動画像の撮像データから、ニューラルネットワークを用いた機械学習によって、動画像に写っている被写体について、被写体の種類と画像中の被写体の位置とを検知する。言い換えれば、物体検知AI部171は、移動体である清掃ロボット22により撮像された動画像から、ニューラルネットワークを用いた機械学習によって、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する。
Here, with reference to the flowchart of FIG. 11, the details of the process of measuring the risk will be described. In step S <b> 51, the object
ステップS52において、危険度測定部161の画像処理部172は、画像処理により、撮像データ、被写体の種類および画像中の被写体の位置から、清掃ロボット22から被写体までの距離や被写体の移動速度など被写体の属性を求める。すなわち、画像処理部172は、画像処理により、動画像および動画像における被写体の位置から、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を求める。また、画像処理部172は、画像処理により、ステップS51において被写体が人であると検知された場合、清掃ロボット22に対する被写体の向きまたは清掃ロボット22に対する被写体の顔の向きを求める。
In step S52, the
ステップS53において、危険度測定部161の危険度測定AI部173は、撮像データ、被写体の種類、画像中の被写体の位置および被写体の属性から、危険度を測定する。例えば、危険度測定AI部173は、撮像データ、被写体の種類、画像中の被写体の位置および被写体の属性から、動画像のシーンの危険の程度である危険度を測定する。また、例えば、危険度測定AI部173は、撮像データ、被写体の種類、画像中の被写体の位置および被写体の属性から、清掃ロボット22と被写体との接触の危険の程度である危険度を測定する。ここで、例えば、危険度は、0%乃至100%の範囲で表される。0%である危険度は、清掃ロボット22と被写体との接触の危険がないことを示す。100%である危険度は、清掃ロボット22と被写体との接触の可能性が極めて大きいことを示す。例えば、危険度は、清掃ロボット22が階段などの段差から転落する危険の程度を示す。また、例えば、危険度は、ロボット22の近くの扉が開いて、扉の陰にいる人が扉と接触する危険の程度を示す。さらに例えば、危険度は、ロボット22が床面に落とされた物(落下物)を清掃で巻き込んでしまう危険の程度を示す。
In step S53, the risk
言い換えると、危険度測定AI部173は、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、ニューラルネットワークを用いた機械学習によって、動画像のシーンの危険の程度を測定する。危険度測定AI部173は、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、ニューラルネットワークを用いた機械学習によって、清掃ロボット22と被写体との接触の危険の程度および動画像のシーンの危険の程度を測定する。
In other words, the risk
ステップS54において、危険度測定部161の描画部174は、撮像データに、被写体の位置を示す枠、被写体の種類、被写体の属性、測定の結果である危険度および危険度に応じた制御信号を示す画像または文字を描画するデータを書き込み、危険度の測定の処理は終了する。すなわち、ステップS54において描画部174は、動画像に、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離、清掃ロボット22に対する被写体の速度または清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を描画する。
In step S54, the
図9に戻り、ステップS223において、AIサーバ21は、タッチパネルモニタ25に、危険度の測定の結果が書き込まれた撮像データで動画像を表示させる。
Returning to FIG. 9, in step S <b> 223, the
図12は、タッチパネルモニタ25に表示される動画像の例を示す図である。タッチパネルモニタ25は、動画像と、被写体が人であるかまたは人以外の物であるかが検知された被写体の位置を示す枠201、被写体の種類および被写体の種類の正しさの確率を示す「Person:0.89」などの種類表示202、清掃ロボット22から被写体までの距離をcm単位で示す「70」などの距離表示203を表示させる。また、タッチパネルモニタ25は、画面の右上に、清掃ロボット22の状態を示す画像であるステータスモニタ204を表示させる。ステータスモニタ204には、「ROBOT1」などの清掃ロボット22の名称、「East Bldg 1F」などの清掃ロボット22の現在位置、「Degree of Risk 20%」などの動画像のシーンの危険の程度が文字で表示される。また、ステータスモニタ204には、清掃ロボット22が通常の走行状態であることを示すランプ表示211、清掃ロボット22が減速していることを示すランプ表示212、および清掃ロボット22が停止していることを示すランプ表示213が配置されている。ランプ表示211、ランプ表示212およびランプ表示213は、交通信号を模した画像であり、いずれか1つがアクティブ(輝度が高くなる)になるように表示される画像である。例えば、ランプ表示211、ランプ表示212およびランプ表示213は、それぞれ、緑色、黄色、赤色のそれぞれに表示される。
FIG. 12 is a diagram illustrating an example of a moving image displayed on the touch panel monitor 25. The touch panel monitor 25 indicates a moving image, a
例えば、図12に示されるように、ランプ表示211がアクティブに表示され、ランプ表示212およびランプ表示213が非アクティブ(輝度が低くなる)に表示されている場合、ランプ表示211、ランプ表示212およびランプ表示213は、清掃ロボット22が通常の走行状態であることを示す。
For example, as shown in FIG. 12, when the
タッチパネルモニタ25は、画面の左下に、「Stop」と表示され、停止を指示するためのボタン205および「Attention」と表示され、「注意してください。ロボットが通ります。」などの音声の出力を指示するためのボタン206を表示させる。さらに、タッチパネルモニタ25は、画面の右下に、距離等表示207に「停止:0%:70cm」などと表示する。
On the touch panel monitor 25, “Stop” is displayed at the lower left of the screen, a
図9に戻り、ステップS224において、判定部166は、ステップS53において測定された危険度が40%以上60%未満であるか否かを判定する。例えば、ステップS224において、判定部166は、動画像のシーンの危険度が40%以上60%未満であるか否かを判定する。ステップS224において、危険度が40%以上60%未満であると判定された場合、手続きはステップS225に進み、指令部167は、減速を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、減速を指示する制御信号を清掃ロボット22宛に送信させる。また、この場合、指令部167は、スピーカである出力部127に、所定のビープ音などの音を出力させて、減速したことを監視者に知らせる。
Returning to FIG. 9, in step S224, the
ステップS224において、危険度が40%以上60%未満でないと判定された場合、手続きはステップS226に進み、判定部166は、ステップS53において測定された危険度が60%以上であるか否かを判定する。例えば、ステップS226において、判定部166は、動画像のシーンの危険度が60%以上であるか否かを判定する。ステップS226において、危険度が60%以上であると判定された場合、手続きはステップS227に進み、指令部167は、停止を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、停止を指示する制御信号を清掃ロボット22宛に送信させる。
If it is determined in step S224 that the degree of risk is not 40% or more and less than 60%, the procedure proceeds to step S226, and the
この場合、例えば、図13に示されるように、AIサーバ21は、タッチパネルモニタ25に、ボタン205およびランプ表示213をアクティブに表示させ、ランプ表示211およびランプ表示212を非アクティブに表示させることで、清掃ロボット22が停止していることを表示する。また、AIサーバ21は、タッチパネルモニタ25に、動画像の周囲を、アクティブに表示されるボタン205およびランプ表示213の赤色と同じ赤色で表示させる。
In this case, for example, as shown in FIG. 13, the
さらに、AIサーバ21は、タッチパネルモニタ25に、「AUTO:STOP」および「Please TOUCH the monitor to release the robot if AI Server is mistaking」などのメッセージ231を表示させる。
Further, the
ステップS228において、判定部166は、ステップS51における、被写体が人であるかまたは人以外の物であるかの検知の結果から、被写体が人であるか否かを判定する。ステップS228において、被写体が人であると判定された場合、手続きはステップS229に進み、指令部167は、音声の出力を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、音声の出力を指示する制御信号を清掃ロボット22宛に送信させる。清掃ロボット22が音声の出力を指示する制御信号を受信すると、清掃ロボット22の音声出力制御部87は、記憶部75から音声データを読み出して、読み出した音声データによりスピーカ71に「注意してください。ロボットが通ります。」などの音声を出力させる。
In step S228, the
なお、減速した場合、「注意してください。ロボットが通ります。」などの音声を出力させるようにしてもよい。この場合、例えば、図14に示されるように、AIサーバ21は、タッチパネルモニタ25に、ボタン206およびランプ表示212をアクティブに表示させ、ランプ表示211およびランプ表示213を非アクティブに表示させることで、清掃ロボット22が減速していることを表示する。また、AIサーバ21は、タッチパネルモニタ25に、動画像の周囲を、アクティブに表示されるボタン206およびランプ表示212の黄色と同じ黄色で表示させる。
When the vehicle decelerates, a sound such as “Please be careful. The robot passes” may be output. In this case, for example, as illustrated in FIG. 14, the
さらに、AIサーバ21は、タッチパネルモニタ25に、「AUTO: Attention please. The robot will pass.」および「Please TOUCH the monitor to release the robot if AI Server is mistaking」などのメッセージ231を表示させる。
Furthermore, the
なお、監視者がタッチパネルモニタ25に表示されているボタン206をタッチすることで、清掃ロボット22を減速させて、「注意してください。ロボットが通ります。」などの音声を出力させることもできる。この場合、例えば、図15に示されるように、AIサーバ21は、タッチパネルモニタ25に、ボタン206およびランプ表示212をアクティブに表示させ、ランプ表示211およびランプ表示213を非アクティブに表示させることで、清掃ロボット22が減速していることを表示する。また、AIサーバ21は、タッチパネルモニタ25に、動画像の周囲を、アクティブに表示されるボタン206およびランプ表示212の黄色と同じ黄色で表示させる。
In addition, when the supervisor touches the
また、AIサーバ21は、タッチパネルモニタ25に、「「MANUAL: Attention please. The robot will pass.」などのメッセージ231を表示させる。
Also, the
ステップS230において、判定部166は、音声の出力が3回繰り返されたか否かを判定し、音声の出力が3回繰り返されたと判定された場合、清掃ロボット22に制御を戻して清掃ロボット22に人を回避させるために、手続きはステップS231に進み、指令部167は、加速を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、加速を指示する制御信号を清掃ロボット22宛に送信させる。
In step S230, the
ステップS231の後、ステップS230において、音声の出力が3回繰り返されていないと判定された場合、または、ステップS225の後、AIサーバ21による清掃ロボット22の走行制御の処理は、ステップS121およびステップS221に戻り、上述した手続きが繰り返される。
After step S231, if it is determined in step S230 that the sound output has not been repeated three times, or after step S225, the process of running control of the cleaning
清掃システム11においては、監視者は、ステップS223の手続きでタッチパネルモニタ25に表示されている画像を見て、清掃ロボット22の走行を監視し、動画像のシーンとして現在の状況全体に危険を感じた場合、または、被写体との接触などの危険を感じた場合、タッチパネルモニタ25の画面、すなわちタッチパネルを触ることで、清掃ロボット22の停止または減速を指示する。
In the
図16のフローチャートを参照して、監視者からの指示に応じた処理を説明する。ステップS81において、入力制御部169は、タッチパネルモニタ25のタッチパネルから送信されてくる信号を取得することで、ボタン205にタッチする、ボタン206にタッチするまたは画面のいずれかの位置にタッチするなどの、監視者のタッチパネルモニタ25のタッチパネルへの操作による指示を取得する。
With reference to the flowchart of FIG. 16, the process according to the instruction | indication from a supervisor is demonstrated. In step S81, the
ステップS82において、判定部166は、非アクティブ状態のボタン205がタッチされるか、または画面のいずれかの位置がタッチされて、監視者から停止が指示されたか否かを判定する。ステップS82において、監視者から停止が指示されたと判定された場合、手続きはステップS83に進み、指令部167は、停止を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、停止を指示する制御信号を清掃ロボット22宛に送信させる。
In step S <b> 82, the
この場合、例えば、図17に示されるように、AIサーバ21は、タッチパネルモニタ25に、ボタン205およびランプ表示213をアクティブに表示させ、ランプ表示211およびランプ表示212を非アクティブに表示させることで、清掃ロボット22が停止していることを表示する。また、AIサーバ21は、タッチパネルモニタ25に、動画像の周囲を、アクティブに表示されるボタン205およびランプ表示213の赤色と同じ赤色で表示させる。
In this case, for example, as shown in FIG. 17, the
さらに、AIサーバ21は、タッチパネルモニタ25に、「MANUAL:STOP」などのメッセージ231を表示させる。
Further, the
なお、動画像のシーンにおいて、複数の人や複数の物である被写体が写っている場合には、被写体毎に、被写体の種類と画像中の被写体の位置とが検知され、被写体毎に、清掃ロボット22から被写体までの距離や被写体の移動速度など被写体の属性が求められ、動画像のシーンの危険の程度である危険度が測定される。
In addition, when a plurality of people or a plurality of objects are captured in a moving image scene, the type of the subject and the position of the subject in the image are detected for each subject, and cleaning is performed for each subject. The attributes of the subject such as the distance from the
図18は、動画像に複数の人や複数の物である被写体が写っている場合のタッチパネルモニタ25に表示される動画像の例を示す図である。なお、図17と同様の部分には同一の符号を付してあり、その説明は省略する。 FIG. 18 is a diagram illustrating an example of a moving image displayed on the touch panel monitor 25 in the case where a plurality of people and a plurality of objects are captured in the moving image. In addition, the same code | symbol is attached | subjected to the part similar to FIG. 17, and the description is abbreviate | omitted.
図18に示される例において、タッチパネルモニタ25は、動画像と、被写体が人であるかまたは人以外の物であるかが検知された被写体の位置を示す枠201−1乃至201−5、被写体の種類および被写体の種類の正しさの確率を示す種類表示202−1乃至202−5、清掃ロボット22から被写体までの距離をcm単位で示す距離表示203−1乃至203−5を表示させる。例えば、タッチパネルモニタ25には、人であることが検知された被写体の位置を示す枠201−1、枠201−1で示される位置の被写体の種類が人であり、被写体の種類が人であることの正しさの確率を示す「Person:0.89」である種類表示202−1、清掃ロボット22から枠201−1で示される位置の人である被写体までの距離をcm単位で示す「260」などの距離表示203−1が表示される。また、例えば、タッチパネルモニタ25には、人であることが検知された被写体の位置を示す枠201−2、枠201−2で示される位置の被写体の種類が人であり、被写体の種類が人であることの正しさの確率を示す「Person:0.93」である種類表示202−2、清掃ロボット22から枠201−2で示される位置の人である被写体までの距離をcm単位で示す「270」などの距離表示203−2が表示される。
In the example shown in FIG. 18, the touch panel monitor 25 includes a moving image and frames 201-1 to 201-5 indicating the positions of the subjects where the subject is detected to be a person or something other than a person, Type display 202-1 to 202-5 indicating the probability of the correctness of the type and the type of subject, and distance displays 203-1 to 203-5 indicating the distance from the cleaning
さらに、例えば、タッチパネルモニタ25には、ごみ入れであることが検知された被写体の位置を示す枠201−3、枠201−3で示される位置の被写体の種類がごみ入れであり、被写体の種類がごみ入れであることの正しさの確率を示す「Bin:0.82」である種類表示202−3、清掃ロボット22から枠201−3で示される位置のごみ入れである被写体までの距離をcm単位で示す「180」などの距離表示203−3が表示される。さらにまた、例えば、タッチパネルモニタ25には、扉であることが検知された被写体の位置を示す枠201−4、枠201−4で示される位置の被写体の種類が扉であり、被写体の種類が扉であることの正しさの確率を示す「Door:0.79」である種類表示202−4、清掃ロボット22から枠201−4で示される位置の扉である被写体までの距離をcm単位で示す「320」などの距離表示203−4が表示される。
Further, for example, in the touch panel monitor 25, a frame 201-3 indicating the position of the subject that is detected to be a trash can, and the type of the subject at the position indicated by the frame 201-3 is the trash can. The type display 202-3 “Bin: 0.82” indicating the probability of the correctness of being a waste bin, and the distance from the cleaning
また、例えば、タッチパネルモニタ25には、照明であることが検知された被写体の位置を示す枠201−5、枠201−5で示される位置の被写体の種類が照明であり、被写体の種類が照明であることの正しさの確率を示す「Light:0.69」である種類表示202−5、清掃ロボット22から枠201−5で示される位置の照明である被写体までの距離をcm単位で示す「300」などの距離表示203−5が表示される。
Further, for example, in the touch panel monitor 25, the frame 201-5 indicating the position of the subject detected to be illumination, the subject type at the position indicated by the frame 201-5 is illumination, and the subject type is illumination. "Light: 0.69" indicating the probability of correctness, and "300: 300" indicating the distance from the cleaning
ステータスモニタ204には、「ROBOT1」などの清掃ロボット22の名称、「East Bldg 1F」などの清掃ロボット22の現在位置、「Degree of Risk 87%」などの動画像のシーンの危険の程度が文字で表示される。
The status monitor 204 indicates the name of the cleaning
図18に示されるように、動画像に複数の人や複数の物である被写体が写っている場合、動画像のシーンの危険の程度に影響の大きい被写体の枠201が、太線や二重線とされるか、または赤色にされるなど強調表示される。すなわち、描画部174は、動画像のシーンの危険の程度に影響の大きい被写体の枠201を強調表示して、動画像に描画する。
As shown in FIG. 18, when a moving image includes a plurality of people or a plurality of objects, a
例えば、動画像に複数の人や複数の物である被写体が写っている場合、動画像のシーンの被写体のうち、危険の程度が最も高い被写体の位置を示す枠201が強調表示される。すなわち、例えば、動画像に複数の人や複数の物である被写体が写っている場合、清掃ロボット22との接触の危険の程度が最も高い被写体(携帯電話機を見ながら歩いている人)の位置を示す枠201−1が強調表示される。
For example, when a subject that is a plurality of people or a plurality of objects is captured in the moving image, a
また、例えば、動画像に複数の人や複数の物である被写体が写っている場合、動画像のシーンの被写体のうち、危険の程度が高い順に所定の数の被写体の位置を示す枠201が強調表示される。すなわち、例えば、動画像に複数の人や複数の物である被写体が写っている場合、清掃ロボット22との接触の危険の程度が最も高い被写体(携帯電話機を見ながら歩いている人)の位置を示す枠201−1と清掃ロボット22との接触の危険の程度が2番目高い被写体(近くにあるごみ入れ)の位置を示す枠201−2とが強調表示される。
In addition, for example, when a moving image includes a plurality of people or a plurality of objects, a
すなわち、動画像に複数の人や複数の物である被写体が写っている場合、動画像のシーンのうちの、危険状態にある被写体の枠201が、太線や二重線とされるか、または赤色にされるなど強調表示される。
That is, when a moving image includes a plurality of people or a plurality of objects, the
このようにすることで、タッチパネルモニタ25−1および25−2に表示されている動画像を監視している監視者は、動画像に写っている複数の被写体のうち、どの被写体が危険であるかを即座に認識することができる。 By doing in this way, the subject who is monitoring the moving images displayed on the touch panel monitors 25-1 and 25-2, which subject is dangerous among the plurality of subjects reflected in the moving image. Can be recognized immediately.
図16に戻り、ステップS84において、学習データ記録制御部164は、停止が指示された時点の前の5秒間および後の5秒間の動画像の撮像データを記録部128に記録させる。すなわち、学習データ記録制御部164は、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録部128に記録させる。このとき、学習データ記録制御部164は、停止が指示されたことを示すデータを、停止が指示された時点を基準に前の5秒間および後の5秒間の動画像の撮像データに関連付けて記録部128に記録させる。ステップS85において、学習スケジューラ165は、追加学習を予約する。すなわち、学習スケジューラ165は、記録部128に記録された動画像の撮像データによる危険度測定部161の学習の実行を予約する。
Returning to FIG. 16, in step S <b> 84, the learning data
ステップS82において、監視者から停止が指示されていないと判定された場合、手続きはステップS86に進み、判定部166は、非アクティブ状態のボタン206がタッチされて、監視者から減速が指示されたか否かを判定する。ステップS86において、監視者から減速が指示されたと判定された場合、手続きはステップS87に進み、指令部167は、減速を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、減速を指示する制御信号を清掃ロボット22宛に送信させる。
If it is determined in step S82 that the monitoring has not been instructed to stop, the procedure proceeds to step S86, and the
ステップS88において、学習データ記録制御部164は、減速が指示された時点の前の5秒間および後の5秒間の動画像の撮像データを記録部128に記録させる。すなわち、学習データ記録制御部164は、監視者から減速が指示された場合、減速が指示された時を含む所定の長さの時間の動画像を記録部128に記録させる。このとき、学習データ記録制御部164は、減速が指示されたことを示すデータを、減速が指示された時点を基準に前の5秒間および後の5秒間の動画像の撮像データに関連付けて記録部128に記録させる。ステップS89において、学習スケジューラ165は、追加学習を予約する。すなわち、学習スケジューラ165は、記録部128に記録された動画像の撮像データによる危険度測定部161の学習の実行を予約する。
In step S <b> 88, the learning data
ステップS86において、監視者から減速が指示されていないと判定された場合、手続きはステップS90に進み、アクティブ状態のボタン205またはアクティブ状態のボタン206がタッチされて、監視者から加速が指示されたか否かを判定する。ステップS90において、監視者から加速が指示されたと判定された場合、手続きはステップS91に進み、指令部167は、加速を指示する制御信号を清掃ロボット22に送信する。この場合、通信制御部168の送信制御部175は、通信部129に、加速を指示する制御信号を清掃ロボット22宛に送信させる。
If it is determined in step S86 that deceleration is not instructed by the supervisor, the procedure proceeds to step S90, where the
例えば、図13に示されるように、AIサーバ21が、タッチパネルモニタ25に、ボタン205およびランプ表示213をアクティブに表示させ、ランプ表示211およびランプ表示212を非アクティブに表示させることで、清掃ロボット22が停止していることを表示し、「AUTO:STOP」および「Please TOUCH the monitor to release the robot if AI Server is mistaking」などのメッセージ231を表示させている場合、監視者が、タッチパネルモニタ25に表示されている動画像を見て、ポスターに示されている人の画像を人であると危険度測定部161が誤認したと判断したとき、監視者は、アクティブに表示されているボタン205をタッチすることで、清掃ロボット22の加速を指示する。
For example, as shown in FIG. 13, the
ステップS85、ステップS89またはステップS91の後、手続きはステップS81に戻り、監視者からの指示に応じた処理が繰り返される。 After step S85, step S89 or step S91, the procedure returns to step S81, and the process according to the instruction from the supervisor is repeated.
図19は、終了の処理を説明するフローチャートである。ステップS181において、指示部86の判定部93は、清掃動作制御部61から清掃作業の状態を示すステータス情報を取得して、清掃ロボット22の清掃の作業が終了したか否かを判定する。ステップS181において、清掃の作業が終了していないと判定された場合、判定の処理が繰り返される。
FIG. 19 is a flowchart for explaining the termination process. In step S181, the
ステップS181において、清掃の作業が終了したと判定された場合、手続きはステップS182に進み、指示部86は、AIサーバ21に作業の終了を通知する。すなわち、通信制御部83の送信制御部91は、指示部86からの指示により、通信部74に、AIサーバ21宛に作業の終了の通知を送信させる。
If it is determined in step S181 that the cleaning work has been completed, the procedure proceeds to step S182, and the
ステップS281において、通信制御部168の受信制御部176は、通信部129に、清掃ロボット22からの作業の終了の通知を受信させる。ステップS282において、通信制御部168の受信制御部176は、通信部129に、ストリーミングデータである撮像データの受信を停止させる。
In step S <b> 281, the
ステップS183において、通信制御部83の送信制御部91は、ストリーミングデータである撮像データの送信を停止する。ステップS184において、撮像制御部81は、カメラ43に撮像を停止させる。この場合、符号化部82は、動画像のデータの符号化を停止する。
In step S183, the
ステップS185において、指示部86は、AIサーバ21に電源オフを通知する。すなわち、通信制御部83の送信制御部91は、指示部86からの指示により、通信部74に、AIサーバ21宛に電源オフの通知を送信させる。
In step S185, the
ステップS283において、通信制御部168の受信制御部176は、通信部129に、清掃ロボット22からの電源オフの通知を受信させる。ステップS284において、判定部166は、清掃ロボット22からの電源オフの通知を受信したか否かにより、清掃ロボット22の電源がオフしたか否かを判定する。ステップS284において、清掃ロボット22の電源がオフしていないと判定された場合、手続きはステップS283に戻り、上述した処理が繰り返される。
In step S283, the
ステップS284において、清掃ロボット22の電源がオフしたと判定された場合、手続きはステップS285に進み、危険度測定部161は、終了を通知してきた清掃ロボット22に対する監視の処理を終了する。
If it is determined in step S284 that the cleaning
ステップS186において、監視者またはオペレータの操作により、制御モジュール42が停止させられる。ステップS187において、監視者またはオペレータの操作により、清掃ロボット22の電源がオフされ、終了の処理は終了する。
In step S186, the
次に、ステップS85またはステップS89で予約された追加学習のスケジューリングの処理を図20のフローチャートを参照して説明する。ステップS301において、学習スケジューラ165は、ディスプレイである出力部127またはタッチパネルモニタ25に、追加学習を実行するか否かを選択するためのボタンやメニューおよび日付や時刻などを配置した表や画像などにより追加学習の予定を表示させる。ステップS302において、学習スケジューラ165は、監視者によるタッチパネルモニタ25への操作またはオペレータによるキーボード若しくはマウスである入力部126への操作から、追加学習を実行するか否かの指示を取得する。例えば、学習スケジューラ165は、ディスプレイである出力部127またはタッチパネルモニタ25に表示されている表や画像に配置されている、監視者またはオペレータにボタンやメニューを選択させることにより、追加学習を実行するか否かの指示を取得する。
Next, the additional learning scheduling process reserved in step S85 or step S89 will be described with reference to the flowchart of FIG. In step S301, the learning
ステップS303において、学習スケジューラ165は、監視者またはオペレータから指示された追加学習を実行するか否かを示すデータを追加学習スケジュールデータとして記録部128に記録する。
In step S303, the learning
ステップS304において、学習スケジューラ165は、監視者によるタッチパネルモニタ25への操作またはオペレータによるキーボード若しくはマウスである入力部126への操作から、追加学習を実行する日付および時刻の指示を取得する。例えば、学習スケジューラ165は、ディスプレイである出力部127またはタッチパネルモニタ25に、ディスプレイである出力部127またはタッチパネルモニタ25に表示されている表や画像に配置されている、監視者またはオペレータに日付および時刻を選択させることにより、追加学習を実行する日付および時刻の指示を取得する。
In step S304, the learning
ステップS305において、学習スケジューラ165は、監視者またはオペレータから指示された追加学習を実行する日付および時刻を示すデータを追加学習スケジュールデータに追加して、記録部128に記録して、追加学習のスケジューリングの処理は終了する。
In step S305, the learning
次に、図30のフローチャートを参照して、一定の期間ごとに実行される追加学習の処理を説明する。ステップS321において、学習スケジューラ165は、記録部128に記録されている追加学習スケジュールデータから、追加学習を実行するか否かの指示並びに追加学習を実行する日付および時刻を読み出す。ステップS322において、学習スケジューラ165は、追加学習スケジュールデータから読み出された追加学習を実行するか否かの指示から、追加学習の実行が指示されているか否かを判定する。ステップS322において、追加学習の実行が指示されていると判定された場合、手続きはステップS323に進み、学習スケジューラ165は、AIサーバ21に設けられている図示せぬ計時部から、追加学習の処理が実行されている時点の今日の日付および現在時刻を取得する。
Next, with reference to the flowchart of FIG. 30, the additional learning process executed at regular intervals will be described. In step S321, the learning
ステップS324において、学習スケジューラ165は、追加学習スケジュールデータから読み出された追加学習を実行する日付および時刻と、追加学習の処理が実行されている時点の今日の日付および現在時刻とを比較することにより、追加学習を実行する日付および時刻になったか否かを判定する。ステップS324において、追加学習を実行する日付および時刻になったと判定された場合、手続きはステップS325に進み、学習スケジューラ165は、危険度測定部161に指示することにより、物体検知AI部171および危険度測定AI部173を学習モードにさせる。例えば、学習モードにおいて、学習スケジューラ165は、物体検知AI部171および危険度測定AI部173に、バッチサイズやエポック(学習回数)を設定する。また、例えば、学習モードにおいて、学習スケジューラ165は、物体検知AI部171および危険度測定AI部173の学習に用いる最適化関数および損失関数を選択する。
In step S324, the learning
ステップS326において、物体検知AI部171および危険度測定AI部173は、学習スケジューラ165からの指示により、ステップS84またはステップS88の手続きで記録部128に記録されている監視者により停止または減速が指示されたときの動画像および動画像に関連付けられている停止または減速が指示されたことを示すデータにより、学習して、追加学習の処理は終了する。
In step S326, the object
例えば、物体検知AI部171および危険度測定AI部173は、バッチ手法により、学習する。また、例えば、物体検知AI部171および危険度測定AI部173は、記録部128に記録されている監視者により停止または減速が指示されたときの動画像および動画像に関連付けられている停止または減速が指示されたことを示すデータを用いて、誤差逆伝搬法などの勾配計算法により、教師あり学習を行う。
For example, the object
ステップS322において、追加学習の実行が指示されていないと判定された場合、またはステップS324において、追加学習を実行する日付および時刻になっていないと判定された場合、学習をさせる必要はないので、学習をすることなく、追加学習の処理は終了する。 If it is determined in step S322 that execution of additional learning is not instructed, or if it is determined in step S324 that the date and time for performing additional learning have not been reached, it is not necessary to perform learning. The additional learning process ends without learning.
このように、より確実に衝突を回避して、より簡単に、学習ができる。また、接触の危険の程度を求める処理の経過を知ることができるようにして、より効果的な修正または学習をすることができる。 In this way, learning can be performed more easily while avoiding collision more reliably. Further, it is possible to know the progress of the process for obtaining the degree of danger of contact so that more effective correction or learning can be performed.
以上のように、AIサーバ21は、建物内の床上を自律的に走行し、走行する先の動画像を撮像する清掃ロボット22から送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定する危険度測定部161と、動画像のタッチパネルモニタ25への表示を制御する表示制御部170と、表示している動画像を監視している監視者からの操作による、停止の指示を取得する入力制御部169と、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、清掃ロボット22に停止を指令する指令部167と、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像を記録部128に記録させる学習データ記録制御部164と、記録部128に記録された動画像による危険度測定部161の学習の実行を予約する学習スケジューラ165とを含む。
As described above, the
入力制御部169が、監視者からの操作による、減速の指示を取得し、指令部167が、減速が指示された場合、清掃ロボット22に減速を指令し、学習データ記録制御部164が、監視者から減速が指示された場合、減速が指示された時を含む所定の長さの時間の動画像を記録手段に記録させるようにすることができる。このようにすることで、より簡単に、学習ができるようになる。
When the
学習スケジューラ165が、危険度測定部161の学習のジョブをスケジューリングすることで予約するようにすることができる。このようにすることで、より簡単に、学習ができるようになる。
The learning
学習スケジューラ165が、監視者またはオペレータからの操作による指示に応じて、危険度測定部161の学習のジョブのスケジューリングにおける、学習の実行の可否および学習が実行される時刻を決定するようにすることができる。このようにすることで、より簡単に、学習ができるようになる。
The learning
動画像に、清掃ロボット22と被写体との接触の危険の程度を示す文字または画像を書き込む描画部174をさらに設け、表示制御部170が、清掃ロボット22と被写体との接触の危険の程度を示す文字または画像が書き込まれた動画像のタッチパネルモニタ25への表示を制御するようにすることができる。このようにすることで、より確実に衝突を回避できるようになる。
A
危険度測定部161が、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を測定し、描画部174が、動画像に、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を示す文字または画像を書き込み、表示制御部170が、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を示す文字または画像が書き込まれた動画像のタッチパネルモニタ25への表示を制御するようにすることができる。このようにすることで、より確実に衝突を回避できるようになる。
The
危険度測定部161が、被写体が人であるかまたは人以外の物であるかを検知し、指令部167が、被写体が人であると検知された場合、清掃ロボット22に所定の音声の出力を指令するようにすることができる。このようにすることで、より確実に衝突を回避できるようになる。
When the
このように、建物内の床上を自律的に走行し、走行する先の動画像を撮像する清掃ロボット22から送信されてくる動画像から、機械学習によって、動画像に写っている被写体との接触の危険の程度を測定し、動画像をタッチパネルモニタ25に表示し、表示している動画像を監視している監視者からの操作による、停止の指示を取得し、測定された危険の程度が所定の閾値以上である場合または監視者から停止が指示された場合、清掃ロボット22に停止を指令するようにしたので、仮に、動画像に写っている被写体との接触の危険の程度の測定が誤ったとしても、表示している動画像を監視している監視者が停止を指示するので、より確実に衝突を回避することができる。また、監視者から停止が指示された場合、停止が指示された時を含む所定の長さの時間の動画像が記録部128に記録され、記録部128に記録された動画像による危険度測定部161の学習の実行が予約されるので、仮に、動画像に写っている被写体との接触の危険の程度の測定が誤った場合でも、その状況に合わせた学習データをいちいち用意する必要がなく、簡単に学習させることができるので、学習の後には、より確実に衝突を回避することができる。このように、より確実に衝突を回避して、より簡単に、学習ができる。
In this way, the robot touches the subject in the moving image by machine learning from the moving image transmitted from the cleaning
このように、より確実に衝突を回避して、より簡単に、学習ができる。 In this way, learning can be performed more easily while avoiding collision more reliably.
また、AIサーバ21は、清掃ロボット22により撮像された動画像から、機械学習によって、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知する物体検知AI部171と、動画像および動画像における被写体の位置から、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度を求める画像処理部172と、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、清掃ロボット22から被写体までの距離および清掃ロボット22に対する被写体の速度から、機械学習によって、動画像のシーンの危険の程度を測定する危険度測定AI部173と、動画像に、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、移動体から被写体までの距離、移動体に対する被写体の速度および動画像のシーンの危険の程度を示す文字または画像を書き込む描画部174とを含む。
In addition, the
物体検知AI部171が、ニューラルネットワークを用いた機械学習によって、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知し、危険度測定AI部173が、ニューラルネットワークを用いた機械学習によって、清掃ロボット22と被写体との接触の危険の程度を測定するようにすることができる。
The object
画像処理部172が、被写体が人であると検知された場合、清掃ロボット22に対する被写体の向きまたは清掃ロボット22に対する被写体の顔の向きを求めるようにすることができる。
When the
清掃ロボット22と被写体との接触の危険の程度が所定の閾値以上である場合、清掃ロボット22に停止または減速を指令する指令部167をさらに設けることができる。
If the degree of danger of contact between the cleaning
清掃ロボット22からストリーミングで送信されてくる動画像を受信する通信部129をさらに設け、物体検知AI部171、画像処理部172および危険度測定AI部173は、それぞれ、受信された動画像で検知するか、画像処理するか、または測定するようにすることができる。
A
清掃ロボット22への停止または減速の指示が外部から入力された場合、停止または減速が指示された時を含む所定の長さの時間の動画像を記録する記録部128をさらに設けることかできる。
When a stop or deceleration instruction to the cleaning
このように、物体検知AI部171が、移動体により撮像された動画像から、機械学習によって、動画像に写っている被写体について、被写体が人であるかまたは人以外の物であるかを検知し、動画像における被写体の位置を検知し、画像処理部172が、動画像および動画像における被写体の位置から、移動体から被写体までの距離および移動体に対する被写体の速度を求め、危険度測定AI部173が、動画像、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、移動体から被写体までの距離および移動体に対する被写体の速度から、機械学習によって、動画像のシーンの危険の程度を測定し、描画部174が、動画像に、被写体が人であるかまたは人以外の物であるかの検知の結果、動画像における被写体の位置、移動体から被写体までの距離、移動体に対する被写体の速度および動画像のシーンの危険の程度を示す文字または画像を書き込むようにしたので、文字または画像が書き込まれた動画像を表示させれば、使用者が動画像を見ることで、被写体が人であるかまたは人以外の物であるかの検知の状態、動画像における被写体の位置の検知の状態、移動体から被写体までの距離および移動体に対する被写体の速度並びに動画像のシーンとして現在の状況全体の危険の程度を知ることができるので、使用者が、動画像のシーンの危険の程度を求める処理で、どうしてそのような判定になったかの手がかりを知ることができる。これにより、例えば、移動体に停止または減速を指令するなど、より効果的な操作をすることができる。このように、使用者が、動画像のシーンの危険の程度を求める処理で、どうしてそのような判定になったかの手がかりを知ることができるので、より効果的な操作をすることができる。
As described above, the object
また、追加学習のスケジューリングをする場合、監視者またはオペレータが学習に用いる動画像を必要な領域にトリミングして、物体検知AI部171および危険度測定AI部173に学習させるようにしてもよい。
In addition, when scheduling additional learning, a moving image used for learning by a supervisor or operator may be trimmed to a necessary area so that the object
なお、AIサーバ21が清掃ロボット22の走行を制御すると説明したが、これに限らず、書類や薬品、食品または機器などを搬送する搬送ロボットを制御することもできる。さらに、AIサーバ21は、屋内や屋外を移動する自動車若しくは電車などの車両またはマルチコプターなどの無人航空機などの移動体を制御することもできる。
In addition, although it demonstrated that the
また、AIサーバ21が制御モジュール42に停止または減速を指令する制御信号を送信して、制御モジュール42が走行動作制御部51に指令することで、清掃ロボット22が停止または減速すると説明したが、これに限らず、清掃ロボット22のハードウェアの停止ボタンまたは減速ボタンを機械的な機構により押圧する押圧機構であって、ネットワーク上の信号により動作する押圧機構を設けて、AIサーバ21が信号を送信することにより、清掃ロボット22のハードウェアの停止ボタンまたは減速ボタンが押圧されるようにして、清掃ロボット22の走行を制御するようにしてもよい。
In addition, it has been described that the cleaning
なお、AIサーバ21が清掃ロボット22に走行の停止または減速を指令すると説明したが、これに限らず、清掃ロボット22の清掃の動作を停止させたり、清掃の特定の機能、例えばブラシ65を停止させたりするようにしてもよい。
Although the
また、ステップS224において、判定部166は、ステップS53において測定された危険度が40%以上60%未満であるか否かを判定し、ステップS226において、判定部166は、ステップS53において測定された危険度が60%以上であるか否かを判定すると説明したがこれに限らず、ステップS224において、判定部166は、ステップS53において測定された危険度が50%以上80%未満であるか否かを判定し、ステップS226において、判定部166は、ステップS53において測定された危険度が80%以上であるか否かを判定するなど、判定の閾値を所望の値とすることができる。
In step S224, the
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.
11 清掃システム, 21 AIサーバ, 22,22−1および22−2 清掃ロボット, 23 ハブ, 24,24−1乃至24−3 アクセスポイント, 25,25−1および25−2 タッチパネルモニタ, 41 本体, 42 制御モジュール, 43 カメラ, 51 走行動作制御部, 52 センサ, 53 駆動部, 54 モータ, 55 車輪, 61 清掃動作制御部, 62 センサ, 63 駆動部, 64 モータ, 65 ブラシ, 71 スピーカ, 72 表示部, 73 タッチパネル, 74 通信部, 75 記憶部, 81 撮像制御部, 82 符号化部, 83 通信制御部, 84 フラグ設定部, 85 記憶制御部, 86 指示部, 87 音声出力制御部, 91 送信制御部, 92 受信制御部, 93 判定部, 121 CPU, 122 ROM, 123 RAM, 126 入力部, 127 出力部, 128 記録部, 129 通信部, 131 リムーバブルメディア, 161 危険度測定部, 162 撮像データバッファ, 163 復号部, 164 学習データ記録制御部, 165 学習スケジューラ, 166 判定部, 167 指令部, 168 通信制御部, 169 入力制御部, 170 表示制御部, 171 物体検知AI部, 172 画像処理部, 173 危険度測定AI部, 174 描画部, 175 送信制御部, 176 受信制御部, 201,201−1乃至201−5 枠, 202,202−1乃至202−5 種類表示, 203,203−1乃至203−5 距離表示, 204 ステータスモニタ, 205および206 ボタン, 207 距離等表示, 211,212および213 ランプ表示, 231 メッセージ 11 Cleaning System, 21 AI Server, 22, 22-1 and 22-2 Cleaning Robot, 23 Hub, 24, 24-1 to 24-3 Access Point, 25, 25-1 and 25-2 Touch Panel Monitor, 41 Main Body, 42 control module, 43 camera, 51 travel operation control unit, 52 sensor, 53 drive unit, 54 motor, 55 wheel, 61 cleaning operation control unit, 62 sensor, 63 drive unit, 64 motor, 65 brush, 71 speaker, 72 display Unit, 73 touch panel, 74 communication unit, 75 storage unit, 81 imaging control unit, 82 encoding unit, 83 communication control unit, 84 flag setting unit, 85 storage control unit, 86 instruction unit, 87 audio output control unit, 91 transmission Control unit, 92 reception control unit, 93 determination unit 121 CPU, 122 ROM, 123 RAM, 126 input unit, 127 output unit, 128 recording unit, 129 communication unit, 131 removable media, 161 risk measurement unit, 162 imaging data buffer, 163 decoding unit, 164 learning data recording control unit 165 Learning scheduler, 166 determination unit, 167 command unit, 168 communication control unit, 169 input control unit, 170 display control unit, 171 object detection AI unit, 172 image processing unit, 173 risk measurement AI unit, 174 drawing unit, 175 transmission control unit, 176 reception control unit, 201, 201-1 to 201-5 frame, 202, 202-1 to 202-5 type display, 203, 203-1 to 203-5 distance display, 204 status monitor, 205 And 206 , 207 distance such as a display, 211, 212 and 213 lamp display, 231 messages
Claims (8)
前記動画像から、機械学習によって、前記動画像に写っている被写体と前記ロボットとの接触の危険の程度を測定する測定手段と、
前記動画像の表示手段への表示を制御する表示制御手段と、
表示している前記動画像を監視している監視者からの操作による、前記ロボットの停止の指示を取得する取得手段と、
測定された危険の程度が所定の閾値以上である場合または前記監視者から停止が指示された場合、前記ロボットに停止を指令する指令手段と、
前記監視者から前記ロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる記録制御手段と
を備える情報処理システム。 In an information processing system including a robot that autonomously travels on a floor in a building and picks up a moving image of the traveling destination, and an information processing device that controls the robot,
Measuring means for measuring the degree of danger of contact between the subject in the moving image and the robot by machine learning from the moving image;
Display control means for controlling display on the display means of the moving image;
An acquisition means for acquiring an instruction to stop the robot by an operation from a supervisor who is monitoring the displayed moving image;
When the measured degree of danger is equal to or greater than a predetermined threshold value or when a stop is instructed by the supervisor, command means for instructing the robot to stop,
An information processing system comprising: a recording control unit that causes the recording unit to record the moving image for a predetermined length of time including when the stop is instructed by the monitor.
前記測定手段は、複数のロボットのそれぞれにおいて撮像された前記動画像から、機械学習によって、複数のロボットのそれぞれについて、前記動画像に写っている被写体との接触の危険の程度を測定し、
前記取得手段は、表示している前記動画像を監視している監視者からの操作による、複数の前記ロボットのいずれかへの停止の指示を取得し、
前記指令手段は、複数の前記ロボットのいずれかについて測定された危険の程度が所定の閾値以上である場合または複数の前記ロボットのいずれかについて前記監視者から停止が指示された場合、危険の程度が所定の閾値以上であるかまたは停止が指示された前記ロボットに停止を指令し、
前記記録制御手段は、複数の前記ロボットのいずれかについて前記監視者から停止が指示された場合、停止が指示された前記ロボットから送信されてくる前記動画像であって、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる
情報処理システム。 The information processing system according to claim 1,
The measuring means measures the degree of danger of contact with the subject in the moving image for each of the plurality of robots by using machine learning from the moving images captured by each of the plurality of robots,
The acquisition means acquires an instruction to stop any of the plurality of robots by an operation from a monitor who monitors the displayed moving image,
The command means has a degree of danger when the degree of danger measured for any of the plurality of robots is equal to or greater than a predetermined threshold or when the supervisor instructs the stop of any of the plurality of robots. The robot is instructed to stop or is instructed to stop,
The recording control means is the moving image transmitted from the robot instructed to stop, when the stop is instructed by any of the plurality of robots, and when the stop is instructed. An information processing system for causing the recording means to record the moving image for a predetermined length of time including:
前記測定手段は、停止が指示されたことを示すデータおよび前記記録手段に記録されている前記動画像を用いて学習する
情報処理システム。 The information processing system according to claim 1,
The information processing system in which the measurement unit learns using data indicating that a stop is instructed and the moving image recorded in the recording unit.
前記動画像の表示手段への表示を制御する表示制御手段と、
表示している前記動画像を監視している監視者からの操作による、前記ロボットの停止の指示を取得する取得手段と、
測定された危険の程度が所定の閾値以上である場合または前記監視者から停止が指示された場合、前記ロボットに停止を指令する指令手段と、
前記監視者から前記ロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる記録制御手段と
を含む情報処理装置。 From the moving image transmitted from the robot that autonomously travels on the floor in the building and captures the moving image of the traveling destination, contact between the subject and the robot reflected in the moving image is performed by machine learning. A measuring means for measuring the degree of danger;
Display control means for controlling display on the display means of the moving image;
An acquisition means for acquiring an instruction to stop the robot by an operation from a supervisor who is monitoring the displayed moving image;
When the measured degree of danger is equal to or greater than a predetermined threshold value or when a stop is instructed by the supervisor, command means for instructing the robot to stop,
An information processing apparatus comprising: a recording control unit that causes the recording unit to record the moving image for a predetermined length of time including when the stop is instructed by the supervisor.
前記測定手段は、複数のロボットのそれぞれから送信されてくる前記動画像から、機械学習によって、複数のロボットのそれぞれについて、前記動画像に写っている被写体との接触の危険の程度を測定し、
前記取得手段は、表示している前記動画像を監視している監視者からの操作による、複数の前記ロボットのいずれかへの停止の指示を取得し、
前記指令手段は、複数の前記ロボットのいずれかについて測定された危険の程度が所定の閾値以上である場合または複数の前記ロボットのいずれかについて前記監視者から停止が指示された場合、危険の程度が所定の閾値以上であるかまたは停止が指示された前記ロボットに停止を指令し、
前記記録制御手段は、複数の前記ロボットのいずれかについて前記監視者から停止が指示された場合、停止が指示された前記ロボットから送信されてくる前記動画像であって、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる
情報処理装置。 The information processing apparatus according to claim 4,
The measuring means measures, from the moving images transmitted from each of the plurality of robots, the degree of danger of contact with the subject in the moving image for each of the plurality of robots by machine learning,
The acquisition means acquires an instruction to stop any of the plurality of robots by an operation from a monitor who monitors the displayed moving image,
The command means has a degree of danger when the degree of danger measured for any of the plurality of robots is equal to or greater than a predetermined threshold or when the supervisor instructs the stop of any of the plurality of robots. The robot is instructed to stop or is instructed to stop,
The recording control means is the moving image transmitted from the robot instructed to stop, when the stop is instructed by any of the plurality of robots, and when the stop is instructed. An information processing apparatus for causing the recording means to record the moving image for a predetermined length of time including
前記測定手段は、停止が指示されたことを示すデータおよび前記記録手段に記録されている前記動画像を用いて学習する
情報処理装置。 The information processing apparatus according to claim 4,
The information processing apparatus, wherein the measurement unit learns using data indicating that a stop is instructed and the moving image recorded in the recording unit.
前記動画像の表示手段への表示を制御する表示制御ステップと、
表示している前記動画像を監視している監視者からの操作による、前記ロボットの停止の指示を取得する取得ステップと、
測定された危険の程度が所定の閾値以上である場合または前記監視者から停止が指示された場合、前記ロボットに停止を指令する指令ステップと、
前記監視者から前記ロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる記録制御ステップと
を含む情報処理方法。 From the moving image transmitted from the robot that autonomously travels on the floor in the building and captures the moving image of the traveling destination, contact between the subject and the robot reflected in the moving image is performed by machine learning. A measuring step to measure the degree of danger;
A display control step for controlling display on the display means of the moving image;
An acquisition step of acquiring an instruction to stop the robot by an operation from a supervisor who is monitoring the displayed moving image;
A command step for instructing the robot to stop when the measured degree of danger is equal to or greater than a predetermined threshold or when a stop is instructed by the supervisor;
A recording control step of causing the recording means to record the moving image for a predetermined length of time including when the stop is instructed when the monitor instructs the stop of the robot.
前記動画像の表示手段への表示を制御する表示制御ステップと、
表示している前記動画像を監視している監視者からの操作による、前記ロボットの停止の指示を取得する取得ステップと、
測定された危険の程度が所定の閾値以上である場合または前記監視者から停止が指示された場合、前記ロボットに停止を指令する指令ステップと、
前記監視者から前記ロボットの停止が指示された場合、停止が指示された時を含む所定の長さの時間の前記動画像を記録手段に記録させる記録制御ステップと
を含む情報処理をコンピュータに行わせるプログラム。
From the moving image transmitted from the robot that autonomously travels on the floor in the building and captures the moving image of the traveling destination, contact between the subject and the robot reflected in the moving image is performed by machine learning. A measuring step to measure the degree of danger;
A display control step for controlling display on the display means of the moving image;
An acquisition step of acquiring an instruction to stop the robot by an operation from a supervisor who is monitoring the displayed moving image;
A command step for instructing the robot to stop when the measured degree of danger is equal to or greater than a predetermined threshold or when a stop is instructed by the supervisor;
When the stop is instructed by the supervisor, the computer performs information processing including a recording control step for causing the recording means to record the moving image for a predetermined length of time including when the stop is instructed. Program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018157214A JP2019139733A (en) | 2018-08-24 | 2018-08-24 | Information processing system, information processing device, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018157214A JP2019139733A (en) | 2018-08-24 | 2018-08-24 | Information processing system, information processing device, information processing method and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018021672A Division JP6393433B1 (en) | 2018-02-09 | 2018-02-09 | Information processing apparatus, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019139733A true JP2019139733A (en) | 2019-08-22 |
Family
ID=67694131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018157214A Pending JP2019139733A (en) | 2018-08-24 | 2018-08-24 | Information processing system, information processing device, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019139733A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751232A (en) * | 2019-11-04 | 2020-02-04 | 哈尔滨理工大学 | Chinese complex scene text detection and identification method |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0785280B2 (en) * | 1992-08-04 | 1995-09-13 | タカタ株式会社 | Collision prediction judgment system by neural network |
JP2006113858A (en) * | 2004-10-15 | 2006-04-27 | Mitsubishi Heavy Ind Ltd | Method and system for supporting remote operation for mobile object |
JP2006285548A (en) * | 2005-03-31 | 2006-10-19 | Secom Co Ltd | Mobile robot and remote control system |
JP2014011642A (en) * | 2012-06-29 | 2014-01-20 | Jvc Kenwood Corp | Portable terminal device, and control method and program for the same |
JP2014106638A (en) * | 2012-11-26 | 2014-06-09 | Sharp Corp | Moving device and control method |
JP2016130966A (en) * | 2015-01-14 | 2016-07-21 | 株式会社デンソーアイティーラボラトリ | Risk estimation device, risk estimation method and computer program for risk estimation |
JP2017117353A (en) * | 2015-12-25 | 2017-06-29 | シャダイ株式会社 | Mobile body platform system |
JP2017159881A (en) * | 2016-03-10 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Recognition result presentation device, recognition result presentation method and autonomous movable body |
JP2017162438A (en) * | 2016-03-11 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Danger prediction method |
-
2018
- 2018-08-24 JP JP2018157214A patent/JP2019139733A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0785280B2 (en) * | 1992-08-04 | 1995-09-13 | タカタ株式会社 | Collision prediction judgment system by neural network |
JP2006113858A (en) * | 2004-10-15 | 2006-04-27 | Mitsubishi Heavy Ind Ltd | Method and system for supporting remote operation for mobile object |
JP2006285548A (en) * | 2005-03-31 | 2006-10-19 | Secom Co Ltd | Mobile robot and remote control system |
JP2014011642A (en) * | 2012-06-29 | 2014-01-20 | Jvc Kenwood Corp | Portable terminal device, and control method and program for the same |
JP2014106638A (en) * | 2012-11-26 | 2014-06-09 | Sharp Corp | Moving device and control method |
JP2016130966A (en) * | 2015-01-14 | 2016-07-21 | 株式会社デンソーアイティーラボラトリ | Risk estimation device, risk estimation method and computer program for risk estimation |
JP2017117353A (en) * | 2015-12-25 | 2017-06-29 | シャダイ株式会社 | Mobile body platform system |
JP2017159881A (en) * | 2016-03-10 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Recognition result presentation device, recognition result presentation method and autonomous movable body |
JP2017162438A (en) * | 2016-03-11 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Danger prediction method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751232A (en) * | 2019-11-04 | 2020-02-04 | 哈尔滨理工大学 | Chinese complex scene text detection and identification method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6393433B1 (en) | Information processing apparatus, information processing method, and program | |
US10532003B2 (en) | Guide robot and method and system for operating the same | |
CN111479662B (en) | Artificial intelligent mobile robot for learning obstacle and control method thereof | |
JP5629390B2 (en) | Mobile robot system | |
TWI469910B (en) | Control method and device of a simple node transportation system | |
US20220257077A1 (en) | Cleaning robot and method of performing task thereof | |
JP7188471B2 (en) | Virtual organism control system, virtual organism control method and program | |
WO2018028200A1 (en) | Electronic robotic equipment | |
JP6158517B2 (en) | Alarm system | |
JP6621220B2 (en) | Information processing apparatus, information processing method, and program | |
JP5318623B2 (en) | Remote control device and remote control program | |
JP2011204145A (en) | Moving device, moving method and program | |
JP2017168105A (en) | Behavior detection device, method and program, and monitored person monitoring device | |
US11257355B2 (en) | System and method for preventing false alarms due to display images | |
JP2019139733A (en) | Information processing system, information processing device, information processing method and program | |
KR101708301B1 (en) | Robot cleaner and remote control system of the same | |
CN108346260A (en) | It is a kind of for the monitoring method of unmanned plane, device, unmanned plane and monitoring system | |
WO2023159591A1 (en) | Intelligent explanation system and method for exhibition scene | |
JP7264065B2 (en) | Monitored Person Monitoring Support System and Monitored Person Monitoring Support Method | |
KR102093709B1 (en) | Robot cleaner, mobile terminal and method for including the same | |
CN204131636U (en) | Tool sees the image automonitor of protective function | |
CN102611832A (en) | Novel automatic-tracking high-speed dome camera | |
JP7374581B2 (en) | Robot, image processing method and program | |
JPWO2019235068A1 (en) | Monitored person monitoring support device, monitored person monitoring support method, monitored person monitoring support system and monitored person monitoring support server device | |
CN104219501A (en) | Automatic image monitor with nursing function |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190130 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190304 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190409 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190514 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190816 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200228 |