JP7272221B2 - 情報処理装置、ロボット、および情報処理システム - Google Patents

情報処理装置、ロボット、および情報処理システム Download PDF

Info

Publication number
JP7272221B2
JP7272221B2 JP2019177504A JP2019177504A JP7272221B2 JP 7272221 B2 JP7272221 B2 JP 7272221B2 JP 2019177504 A JP2019177504 A JP 2019177504A JP 2019177504 A JP2019177504 A JP 2019177504A JP 7272221 B2 JP7272221 B2 JP 7272221B2
Authority
JP
Japan
Prior art keywords
information
robot
sensor
unit
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019177504A
Other languages
English (en)
Other versions
JP2021056639A (ja
Inventor
火炎 木焦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2019177504A priority Critical patent/JP7272221B2/ja
Priority to PCT/JP2020/010073 priority patent/WO2021059560A1/ja
Publication of JP2021056639A publication Critical patent/JP2021056639A/ja
Application granted granted Critical
Publication of JP7272221B2 publication Critical patent/JP7272221B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Description

本発明は情報処理装置、ロボット、および情報処理システム等に関する。
通行者や作業者が居る空間で自動ロボットを用いる場合、人と衝突しないようにロボットの動作を制御することが求められる。このようなロボットの衝突回避のための技術は、従来種々開発されている。例えば特許文献1には、ロボット装置のマニュピレータと、人との干渉または接触を確実に防止しつつ、装置のダウンタイムを減少させる技術が開示されている。
特開2010-208002号公報
ところで、通行者または作業者が居る空間で自走式のロボットを用いる場合、ロボットは、人との衝突回避のために遅い速度で走行するよう運用される。例えば、ロボットは人の歩く速度と同程度の速度で運用される。通行者または作業者は空間内を移動するが、従来技術のロボットでは、通行者または作業者の移動経路および移動後の位置を認識できないからである。
そのため、例えばロボットの周囲に人が居ない場合、すなわち、もっと速い速度で走行しても良い場合でも、ロボットは必要以上に低速で走行していた。これにより、ロボットの作業効率が低下していた。
本発明の一態様は、前記の問題点に鑑みたものである。本発明の一態様は、ロボットに人の移動経路および移動後の位置を認識させることが可能な情報処理装置等を実現することを目的とする。
前記の課題を解決するために、本発明の一態様に係る情報処理装置は、自走式の複数のロボットと通信する情報処理装置であって、各ロボットの位置情報を取得する位置情報取得部と、第1ロボットがセンサ装置で該第1ロボットの周囲の人物を検出した場合の第1センサ情報を取得する第1センサ情報取得部と、前記第1センサ情報から該人物の周囲のオブジェクトを検出するオブジェクト検出部と、前記人物の時系列の位置情報である時系列位置情報と、当該時系列位置情報の示す各位置の周囲に設定された複数の領域のそれぞれにおける前記オブジェクトの検出結果を示す情報とを、機械学習済みの予測モデルに入力して、前記予測モデルの出力から前記人物が移動する位置である移動位置を予測する移動位置予測部と、前記第1ロボット以外の他のロボットが、前記移動位置から所定の範囲内に存在する場合に、前記移動位置を示す移動位置情報を、他の前記ロボットに通知する通知部と、を備える。
前記の構成によれば、第1ロボットの周囲に居る人物が移動する位置を予測することができる。すなわち、該人物の移動経路を予測することができる。そして、該移動経路を示す移動位置情報を、第1ロボット以外の他のロボットに通知することができる。これにより、ロボットに人の移動経路および移動後の位置を認識させることができる。
前記情報処理装置は、空間内の定点センサの取得した第2センサ情報を取得する第2センサ情報取得部を備え、前記オブジェクト検出部は、前記第1センサ情報および前記第2センサ情報に基づいて前記オブジェクトを検出してもよい。前記の構成によれば、人物が移動する位置をより正確に予想することができる。
前記情報処理装置において、前記複数のロボットそれぞれと前記情報処理装置との間のデータ通信方式は、同一の無線通信方式であってよい。
前記の構成によれば、各ロボットと情報処理装置との間の通信方式が全て同一であるため、同一でない場合に比べて、通信の応答速度を高めることができる。
前記情報処理装置は、前記第1センサ情報、および、前記移動位置情報のうち少なくとも一方を、所定のタイミングで外部記憶装置に送信するデータ送信部を備えていてもよい。前記の構成によれば、第1センサ情報、および、移動位置情報の少なくとも一方を、外部記憶装置に記憶させておくことができる。
前記の課題を解決するために、本発明の一態様に係るロボットは、前記情報処理装置と通信する、自走式のロボットであって、自装置の位置を特定する位置特定部と、前記センサ装置と、前記自装置の位置を示す位置情報と、前記第1センサ情報と、を前記情報処理装置に送信する情報送信部と、自装置の走行速度および走行経路の少なくとも一方を制御する駆動制御部と、前記情報処理装置から、前記移動位置情報を取得する移動位置情報取得部と、を備え、前記駆動制御部は、前記自装置の位置と、前記移動位置情報とに基づいて、前記走行速度および前記走行経路の少なくとも一方を変更する。
前記の構成によれば、自装置の位置と、情報処理装置から受信した移動位置情報とに基づいて、ロボットの走行速度および走行経路の少なくとも一方を変更することができる。例えば、ロボットは、人物と衝突しないように、減速して走行したり、該人物の居る位置を避けて走行したりすることができる。したがって、ロボットは人との衝突を回避しつつ、効率よく走行することができる。
前記ロボットは、自装置の周囲の人物を検出する人物検出センサを備えていてもよく、前記駆動制御部は、前記人物検出センサの検出結果に応じて、前記走行速度および前記走行経路の少なくとも一方を変更してもよい。
前記の構成によれば、ロボットは周囲の人物を自装置でも検出する。そして、検出結果と、情報処理装置から受信した移動位置情報と、自装置の位置情報と、に基づいて、走行速度および走行経路の少なくとも一方を変更する。これにより、ロボットは人との衝突を回避しつつ、効率よく走行することができる。
前記の課題を解決するために、本発明の一態様に係る情報処理システムは、前記情報処理装置と、複数台の前記ロボットと、を含む。前記の構成によれば、前記情報処理装置と同様の効果を奏する。
本発明の一態様によれば、ロボットに人の移動経路および移動後の位置を認識させることができる。
本発明の実施形態1に係る情報処理システムの概要例を示す図である。 前記情報処理システムに含まれる装置の要部構成の一例を示すブロック図である。 前記情報処理システムにおける処理の流れの一例を示すフローチャートである。 本発明の実施形態2に係る情報処理システムの概要例を示す図である。 前記情報処理システムに含まれる装置の要部構成の一例を示すブロック図である。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。
〔実施形態1〕
§1.適用例
図1を用いて本発明が適用される場面の一例について説明する。図1は、本実施形態に係る情報処理システム100の概要例を示す図である。情報処理システム100は、少なくとも、人が居る空間に設置された複数のロボット2と、該ロボット2を集中管理するエッジコンピュータ1と、を含むシステムである。また、情報処理システム100は、外部記憶装置であるサーバ3を含んでいてもよい。
図1の例では、エッジコンピュータ1と複数のロボット2、および、エッジコンピュータ1とサーバ3は、それぞれ基地局を介して通信接続している。各装置間のデータ通信方式としては、例えば5Gの通信方式を採用することができる。
情報処理システム100において、ロボット2は自走式のロボットであり、それぞれが基地局を介してエッジコンピュータ1と通信接続している。ロボット2は、自機の位置を特定して、位置情報を随時エッジコンピュータ1に送信している。また、ロボット2には1つ以上のセンサ装置(後述する第1センサ部22)が搭載されている。ロボット2はそれぞれ、センサ装置の検出領域内の人物を検出する。例えば図1に示すように、ロボットAの検出領域内に人物Aが入った場合、ロボットAは該人物Aを検出する。ロボットAはセンサ装置の検出した情報である第1センサ情報を、エッジコンピュータ1に送信する。
エッジコンピュータ1は、ロボット2から受信した第1センサ情報と、予め構築しておいた予測モデルとに基づいて、第1センサ情報が示す人物(図1では人物A)の移動する位置を予測する。すなわち、エッジコンピュータ1は、人物の移動経路を予測する。エッジコンピュータ1は、該移動経路を示す情報である移動位置情報を、該人物を検出したロボット2以外の、他のロボット2に送信する。図1の例の場合は、ロボットAが人物Aを検出して、第1センサ情報をエッジコンピュータ1に送信している。そのため、エッジコンピュータ1は、人物Aの移動する位置を予測すると、その移動位置情報をロボットA以外の他のロボット2、すなわち、ロボットB、C、およびDに送信する。これにより、エッジコンピュータ1は、人物Aの移動経路および移動後の位置を、ロボットに認識させることができる。
なお、エッジコンピュータ1は、予測される人物の移動経路から所定の範囲内に存在するロボット2にのみ、移動位置情報を送信することが望ましい。例えば、図1の例において、エッジコンピュータ1は、人物Aの進行方向に存在するロボットBには移動位置情報を送信するが、該進行方向とは離れた位置に存在するロボットCには、移動位置情報を送信しない。人物Aから遠い位置に存在するロボット2には、人物Aの移動位置情報は不要である。したがって、上述の例によれば、不要な送信処理でエッジコンピュータ1にかかる負荷を削減することができる。
エッジコンピュータ1はサーバ3と通信接続している。サーバ3は各種データを格納するデータベース(DB)サーバである。エッジコンピュータ1はサーバ3に、第1センサ情報および移動位置情報の少なくとも一方を格納する。
ロボットB、C、Dは、エッジコンピュータ1から受信した移動位置情報と、自機で特定する自機の位置情報とに基づいて、自機の走行速度および走行経路の少なくとも一方を変更する。例えば、ロボットBは、人物Aとの衝突を避けるため、自機の走行速度を遅くしてもよい。また例えば、ロボットBは、人物Aとの衝突を避けるため、自機の走行経路を本来の経路と異なる経路に変更してもよい。より具体的には、ロボットBは、人物Aの移動の軌跡を避けるような経路で走行してもよい。これにより、ロボットは人との衝突を回避しつつ、効率よく走行することができる。
なお、エッジコンピュータ1と、複数のロボット2それぞれとの間のデータ通信方式は、同一の無線通信方式であることが望ましい。これにより、各ロボット2とエッジコンピュータ1との間の通信方式を全て同一にすることができる。そのため、通信方式が同一でない場合に比べて、通信の応答速度を高めることができる。また、エッジコンピュータ1とサーバ3との間のデータ通信方式も、エッジコンピュータ1とロボット2との間のデータ通信方式と同一であることが望ましい。
§2.構成例
図2は、情報処理システム100に含まれる装置の要部構成の一例を示すブロック図である。
ロボット2は、制御部20と、第1通信部(情報送信部)21と、第1センサ部22と、駆動部23と、第1記憶部24と、を含む。制御部20は、ロボット2を統括的に制御するものである。制御部20は、第1通信部21を介しエッジコンピュータ1と通信する。また、制御部20は第1センサ部22に対し、人物検出のためのセンシングを指示する。また、制御部20は、駆動部23を制御することで、ロボット2の各種動作を制御する。また、制御部20は、第1記憶部24に各種データを格納する。
第1通信部21は、エッジコンピュータ1とロボット2との間の通信インタフェースである。エッジコンピュータ1とロボット2との間の通信方式は特に限定されないが、カメラの撮影画像等、比較的容量の大きいデータをリアルタイムでやりとり可能な通信方式が望ましい。例えば、第1通信部21はエッジコンピュータ1と、5G、Wifi(登録商標)6等の通信方式で通信してもよい。
第1センサ部22は、ロボット2の周囲に存在する人物を検出するためのセンサまたはセンサ群である。第1センサ部22は、例えば、センサカメラ、LiDAR(Light Detection and Ranging)、RADAR等およびこれらの組合せで実現できる。第1センサ部22は、取得または測定した情報(第1センサ情報)を制御部20の検出部202に送信する。具体的には、例えば第1センサ部22としてのセンサカメラは、撮影領域内への人間の侵入を検知すると、該人間を被写体として撮影し、撮影画像を制御部20に出力する。もしくは、第1センサ部22は、所定の時間間隔または随時、センサ情報を取得し、制御部20に送信してもよい。例えば、第1センサ部22としてのカメラは動画を録画し制御部20に随時送信してもよい。
駆動部23は、ロボット2の各種動作を行うものである。駆動部23は例えばロボット2のモータ、アーム、タイヤ等、ロボット2の駆動に係るハードウェアユニットである。
第1記憶部24は、ロボット2の駆動に必要な各種データを記憶する。第1記憶部24は例えば、第1センサ情報を記憶してもよい。また、第1記憶部24は工場または倉庫等、ロボット2が稼働する空間内の地図情報を記憶してもよい。また、第1記憶部24は、該空間内でのロボット2の動作スケジュールを示すスケジュール情報を記憶してもよい。地図情報およびスケジュール情報は、後述するエッジコンピュータ1から送信され、制御部20が取得して、第1記憶部24に記憶させる。
制御部20は、さらに詳しくは、位置特定部201と、検出部202と、移動位置情報取得部203と、駆動制御部204と、を含む。
位置特定部201は、ロボット2の位置を特定する。位置特定部201は、例えば第1センサ部22からの第1センサ情報と、第1記憶部24に記憶されている地図情報とに応じて、ロボット2の現在位置を特定する。以降、特段の記載が無ければ、ロボット2の現在位置を示す情報を単に「位置情報」と称する。位置特定部201は、第1通信部21を介して随時、位置情報をエッジコンピュータ1に送信する。また、位置特定部201は位置情報を駆動制御部204に送信する。なお、位置特定部201は、ロボット2が備えるGPSセンサ等のセンサからの情報に基づいて、ロボット2の現在位置を特定してもよい。
検出部202は、第1センサ情報に基づいて、第1センサ部22の検出領域内における人物の存在を検出する。検出部202は人物を検出すると、該人物を示す第1センサ情報を、第1通信部21を介しエッジコンピュータ1に送信する。なお、第1センサ部22自体が人の存在を検知したことをトリガとして第1センサ情報を取得または測定する場合、検出部202は人物検出に係る処理を実行しなくてもよい。
移動位置情報取得部203は、エッジコンピュータ1から移動位置情報を取得する。移動位置情報取得部203は、取得した移動位置情報を駆動制御部204に送信する。
駆動制御部204は、位置情報と移動位置情報とに基づいて、ロボット2の駆動を制御する。具体的には、駆動制御部204は、位置情報と移動位置情報とに基づき、ロボット2の走行速度および走行経路の少なくとも一方を変更する。
駆動制御部204における走行速度および走行経路の変更内容は特に限定しない。例えば、駆動制御部204は、位置情報が示すロボット2の現在位置が、移動位置情報が示す人物の移動経路から所定範囲内である場合に、ロボット2を減速させてもよい。また、駆動制御部204は、位置情報が示すロボット2の現在位置が、移動位置情報が示す人物の移動経路から所定範囲内である場合に、ロボット2の走行経路を、該人物の移動経路を回避する経路に変更してもよい。
エッジコンピュータ1は、第2制御部(位置情報取得部、第1センサ情報取得部、データ送信部)10と、第2通信部11と、第2記憶部12と、を含む。第2制御部10は、エッジコンピュータ1を統括的に制御するものである。第2制御部10は、第2通信部11を介しロボット2およびサーバ3と通信する。第2制御部10は、ロボット2から位置情報および第1センサ情報を取得する。また、第2制御部10は、第2記憶部12に各種データを格納する。
第2記憶部12は、エッジコンピュータ1の処理に必要な各種データを記憶する。第2記憶部12は例えば、予測モデル121と、設定情報122とを記憶する。
予測モデル121は、予め構築された学習済モデルである。予測モデル121の種類は特に限定されない。予測モデル121については後で詳述する。
設定情報122は、エッジコンピュータ1における各種設定を規定するデータである。例えば、設定情報122は、エッジコンピュータ1からロボット2、ならびに、エッジコンピュータ1からサーバ3へのデータ送信の時間間隔を規定する情報を含んでいてもよい。また、設定情報122は、エッジコンピュータ1から各ロボット2に対する各種指示命令、リクエスト、および通知等の送信の時間間隔を規定する情報を含んでいてもよい。
第2制御部10は、さらに詳しくは、オブジェクト検出部101と、空間情報生成部102と、移動情報生成部103と、移動位置予測部104と、通知部105と、を含む。
オブジェクト検出部101は、第1センサ情報が示すオブジェクトを検出する。例えば、第1センサ情報がカメラの撮影画像である場合、オブジェクト検出部101は、該画像からオブジェクトを検出する。なお、検出対象のオブジェクトには、第1センサ情報が示す人物自身も含まれる。例えば、第1センサ情報が画像である場合、「第1センサ情報が示す人物」とは、画像に写った人物を示す。
ここで、オブジェクトとは、第1センサ情報で判別可能なオブジェクトであれば、その種類は特に限定されない。例えば、オブジェクトとは、壁や柱等の構造物やその一部分であってもよい。例えば、オブジェクトとは、椅子や文房具、機材等の移動させることが可能なものであってもよい。例えば、オブジェクトとは、壁や床等に描かれた文字や記号等の二次元のものであってもよい。例えば、オブジェクトとは、人や動物等のように移動するものであってもよい。
第1センサ情報が示す人物以外のオブジェクトは、該人物の移動に直接的または間接的に影響を与えるものであればよい。例えば、人物の通行の妨げになるものや、人物が立ち寄る可能性のある場所に存在するものを検出対象のオブジェクトとしてもよい。
オブジェクトの検出方法は特に限定されない。例えば、検出対象の各オブジェクトの画像を教師データとした機械学習により構築した学習済みモデルを用いてオブジェクトの検出を行ってもよい。この場合、例えば深層学習によって構築した学習済みモデルを用いることが、検出速度および検出精度の点から好ましい。具体例を挙げれば、Faster R-CNN(Regional Convolutional Neural Network)等の学習済みモデルが好適である。
空間情報生成部102は、人物の周囲の空間に関する空間情報を生成する。空間情報は、人物の周囲に存在している因子であって、該人物の移動先に関連する因子を示す情報である。
移動情報生成部103は、オブジェクト検出部101が検出した人物の移動軌跡を示す軌跡情報を生成し、この軌跡情報と、空間情報生成部102が生成した空間情報とを対応付けて移動情報を生成する。軌跡情報の生成方法は特に限定されず、例えば時系列の第1センサ情報から、人物が検出された位置座標をそれぞれ特定し、それらの座標を人物の位置情報とし、それらの位置情報を時系列順に配列して軌跡情報としてもよい。
移動位置予測部104は、予測モデル121を用いて、第1センサ情報が示す人物が移動する位置を予測する。以降、人物が移動する位置のことを単に移動位置と称する。移動位置予測部104は、予測モデル121に、移動情報生成部103が生成した移動情報を入力することで、移動位置を予測する。
(予測モデル121)
予測モデル121は、人物の時系列の位置情報である時系列位置情報と、当該時系列位置情報の示す各位置の周囲に設定された複数の領域のそれぞれにおける前記オブジェクトの検出結果を示す情報との相関関係を機械学習させた、学習済モデルである。予測モデル121は、例えば以下の方法で予め構築される。すなわち、人物が移動する様子を第1センサ部22でセンシングし、センシングによって得られた第1センサ情報を教師データとする。そして、該教師データを未学習の予測モデルに入力することで、学習済の予測モデルを構築することができる。
通知部105は、移動位置予測部104の予測結果、すなわち移動位置を示す情報(移動位置情報)を、ロボット2に通知する。このとき、通知部105は、第2制御部10が各ロボット2から受信した位置情報と、移動位置とを参照して、前記移動位置から所定の範囲内にロボット2が存在するか否かを判定する。移動位置から所定の範囲内にロボット2が存在する場合、通知部105は、該ロボット2に対して移動位置情報を送信する。
なお、第2制御部10は、第1センサ情報、および、移動位置情報のうち少なくとも一方を、所定のタイミングで外部記憶装置であるサーバ3に送信してもよい。そして、サーバ3はこれらの情報を記憶してもよい。これにより、サーバ3に第1センサ情報および移動位置情報を蓄積することができる。
≪処理の流れ≫
図3は、情報処理システム100における処理の流れの一例を示すフローチャートである。図3では、ロボット2の一例として、ロボットAとロボットBを示している。
ロボットAは通常の速度で走行中(S10)、随時、自機の現在位置を特定し、位置情報をエッジコンピュータ1に送信する(S12)。エッジコンピュータ1の第2制御部10はこの位置情報を随時取得する(S24)。
ロボットAの第1センサ部22は、第1センサ情報を制御部20の検出部202に送信する。検出部202は、第1センサ情報を参照し人物の存在を検出する(S14)。検出部202は、人物を検出していない場合(S14でNO)、次の第1センサ情報を待つ。一方、人物を検出した場合(S14でYES)、検出部202は第1通信部21を介して第1センサ情報をエッジコンピュータ1に送信する(S16)。ここで、制御部20の駆動制御部204は、駆動部23を制御することによって、ロボット2を減速させてもよい(S18)。エッジコンピュータ1の第2制御部10は第1センサ情報を取得する(S26)。
第1センサ情報を送信した後も、第1センサ部22のセンシングおよび検出部202の検出は継続する(S20)。人物を検出した場合、検出部202はS16と同様、第1センサ情報を再度エッジコンピュータ1へ送信する。一方、人物が検出できなくなった場合(S20でNO)、制御部20の駆動制御部204は、駆動部23を制御することによって、S18で減速したロボット2の走行速度を通常の速度に戻す(S22)。なお、S18およびS22において、駆動制御部204は、ロボット2を減速ではなく停止させることとしてもよい。
位置情報および第1センサ情報を取得した第2制御部10は、オブジェクト検出部101において、第1センサ情報からオブジェクトを検出する(S28)。オブジェクト検出部101が検出したオブジェクトは、空間情報生成部102および移動情報生成部103に出力される。空間情報生成部102は空間情報を作成し、移動情報生成部103へ出力する。移動情報生成部103は移動情報を生成して、移動位置予測部104に出力する。移動位置予測部104は、移動情報を予測モデル121に入力することによって、人物の移動位置を予測する(S30)。移動位置予測部104は移動位置情報を通知部105に出力する。
通知部105は、移動位置情報を取得すると、エッジコンピュータ1と接続されている各ロボット2の位置情報を参照し、移動位置情報が示す位置の所定範囲内に、ロボットA以外の他のロボットが存在するか否かを判定する(S32)。移動位置情報が示す位置の所定範囲内に、ロボットA以外の他のロボットが存在しない場合(S32でNO)、通知部105は処理を終了する。一方、移動位置情報が示す位置の所定範囲内に、ロボットA以外の他のロボットが存在する場合(S32でYES)、通知部105は該他のロボット(図3ではロボットB)に、移動位置情報を通知する(S34)。ロボットBの移動位置情報取得部203は、移動位置情報を取得する(S36)。ロボットBの駆動制御部204は、移動位置情報に基づいて駆動部23を制御することにより、ロボットBの走行態様を変更する。例えば、駆動制御部204は、ロボットBを減速させる(S38)。なお、S38において、駆動制御部204はロボットBを停止させてもよい。
前記の処理によれば、ロボットA(第1ロボット)の周囲に居る人物が移動する位置を予測することができる。すなわち、該人物の移動経路を予測することができる。そして、該移動経路を示す移動位置情報を、ロボットA以外の他のロボット(ロボットB)に通知することができる。これにより、ロボットBに人の移動経路および移動後の位置を認識させることができる。
また、情報処理システム100において、人物の移動位置の予測は、エッジコンピュータ1で一元的に行っている。そのため、情報処理システム100は、ロボット2それぞれが人物の移動位置の予測を行う場合と比較して、安価にシステムを構築できるという利点を有する。また、エッジコンピュータ1で、ロボット2よりも高性能な演算部を利用して移動位置の予測を実行することができるので、移動位置の予測に係る処理に必要とされる性能を、容易に実現することができる。
〔実施形態2〕
エッジコンピュータ1は、空間内の定点センサの取得した第2センサ情報を取得する第2センサ情報取得部を備えていてもよい。そして、オブジェクト検出部101は、前記第1センサ情報および前記第2センサ情報に基づいてオブジェクトを検出してもよい。
本発明の実施形態2について、以下に説明する。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
≪システム概要≫
図4は、本実施形態に係る情報処理システム200の概要例を示す図である。情報処理システム200は、外部センサ4を含む点で、実施形態1に係る情報処理システム100と異なる。
外部センサ4は、ロボット2が動作する空間内に設置される定点センサである。外部センサ4は自機の検出領域内の人物を検出する。例えば図4に示すように、外部センサ4の検出領域内に人物Bが入った場合、外部センサ4は該人物Bを検出する。外部センサ4は検出した情報である第2センサ情報を、エッジコンピュータ1に送信する。エッジコンピュータ1は、第1センサ情報の代わりに、または第1センサ情報とともに第2センサ情報を用いて、人物の移動位置を予測する。エッジコンピュータ1は予測結果である移動位置情報を、該移動位置情報が示す移動位置から所定範囲内に存在するロボット2に通知する。例えば、図示の例では、エッジコンピュータ1はロボットDに移動位置情報を通知する。これにより、図示のように柵等の影になって、ロボットDからは検出できないような人物を外部センサ4で検出し、移動位置を予測することができる。また、第1センサ情報と第2センサ情報とを併用する場合、より正確に人物の移動位置を予測することができる。なお、移動位置から所定範囲外(例えば、人物Bと衝突の危険性の無い、離れた位置)に存在するロボットEには、エッジコンピュータ1は移動位置情報を送信しなくてよい。
≪要部構成≫
図5は、情報処理システム200に含まれる装置の要部構成の一例を示すブロック図である。
外部センサ4は、ロボット2およびエッジコンピュータ1と独立して存在する定点センサである。外部センサ4は、ロボット2が稼働する空間内に設置される。例えば、外部センサ4は該空間の天井部分に取り付けられたカメラであってもよい。また、外部センサ4は、該空間の壁に取り付けられたカメラであってもよい。
外部センサ4は、制御部40と、第3通信部41と、第2センサ部42と、第3記憶部43とを備える。第3通信部41の機能は、ロボット2の第1通信部21と同様である。第3記憶部43の機能は、ロボット2の第1記憶部24と同様である。第2センサ部42の機能は、第1センサ部22と同様である。制御部40は、検出部402を含む。検出部402は、検出部202と同様の機能を有する。外部センサ4の第3通信部41は、第1センサ部22のセンサ情報を第2センサ情報として、エッジコンピュータ1に送信する。
エッジコンピュータ1のオブジェクト検出部101は、第2センサ情報に基づいて、オブジェクトを検出する。もしくは、オブジェクト検出部101は、第1センサ情報と、第2センサ情報とを併用して、オブジェクトを検出する。以降の第2制御部10の処理は、実施形態1に係る第2制御部10における処理と同様である。
なお、第2制御部10は、第1センサ情報、第2センサ情報、および、移動位置情報のうち少なくとも1つを、所定のタイミングで外部記憶装置であるサーバ3に送信してもよい。これにより、サーバ3に第1センサ情報、第2センサ情報、および移動位置情報のうち少なくとも1つを蓄積することができる。
〔変形例〕
なお、ロボット2は、第1センサ部22とは別に、自装置の周囲の人物を検出する人物検出センサを備えていてもよい。そして駆動制御部204は、人物検出センサの検出結果に応じて、走行速度および走行経路の少なくとも一方を変更してもよい。前記の構成によれば、ロボットは周囲の人物を自装置でも検出する。そして、検出結果と、情報処理装置から受信した移動位置情報と、自装置の位置情報と、に基づいて、走行速度および走行経路の少なくとも一方を変更する。これにより、ロボットは人との衝突を回避しつつ、効率よく走行することができる。
前記各実施形態に記載の情報処理システム100および200において、エッジコンピュータ1とロボット2、エッジコンピュータ1とサーバ3、およびエッジコンピュータ1と外部センサ4との間のデータ通信方式は、高速無線通信であることが望ましい。具体的には、これらのデータ通信方式は、5GまたはWifi6等であることが望ましい。
高速無線通信を採用することによって、大容量の第1センサ情報および第2センサ情報を、遅滞なく送受信することができる。例えば、第1センサ情報および第2センサ情報が動画データであると仮定する。この場合、動画のサイズを1080×720ピクセルと仮定すると、例えば通信速度が1gbpsである場合は、0.77ミリ秒で動画を送信することができる。高速無線通信でない無線通信、例えばWifi4では、前述の動画であれば送信に200msの時間がかかっていた。一方、5GまたはWifi6等の高速無線通信であれば、動画の送信速度が約1.54ミリ秒まで向上する。
このように、高速無線通信で情報処理システム100および200を実現することで、第1センサ情報および第2センサ情報の送受信における通信ロスを減少させることができる。これにより、エッジコンピュータ1からロボット2を、リアルタイムでより正確に制御することができる。例えば、より頻繁にエッジコンピュータ1からロボット2へ制御指示等を送信することができる(すなわち、制御周期を短くすることができる)ため、ロボット2が停止または減速している期間を減少させることができる。
また、エッジコンピュータ1とロボット2、またはエッジコンピュータ1と外部センサ4との間の通信を無線通信にすることで、カメラの配線が不要となり、情報処理システム100および200のセットアップを簡易化することができる。
〔ソフトウェアによる実現例〕
エッジコンピュータ1、ロボット2、および外部センサ4の制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、エッジコンピュータ1、ロボット2、および外部センサ4は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、前記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、前記コンピュータにおいて、前記プロセッサが前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。前記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明の一態様は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
100、200 情報処理システム
1 エッジコンピュータ
2 ロボット
3 サーバ
4 外部センサ
10 第2制御部(情報処理装置)
11 第2通信部
12 第2記憶部
20、40 制御部
21 第1通信部
22 第1センサ部
23 駆動部
24 第1記憶部
41 第3通信部
42 第2センサ部
43 第3記憶部
100、200 情報処理システム
101 オブジェクト検出部
104 移動位置予測部
102 空間情報生成部
103 移動情報生成部
105 通知部
121 予測モデル
122 設定情報
201 位置特定部
202、402 検出部
203 移動位置情報取得部
204 駆動制御部

Claims (7)

  1. 自走式の複数のロボットと通信する情報処理装置であって、
    各ロボットの位置情報を取得する位置情報取得部と、
    第1ロボットがセンサ装置で該第1ロボットの周囲の人物を検出した場合の第1センサ情報を取得する第1センサ情報取得部と、
    前記第1センサ情報から該人物の周囲のオブジェクトを検出するオブジェクト検出部と、
    前記人物の時系列の位置情報である時系列位置情報と、当該時系列位置情報の示す各位置の周囲に設定された複数の領域のそれぞれにおける前記オブジェクトの検出結果を示す情報とを、機械学習済みの予測モデルに入力して、前記予測モデルの出力から前記人物が移動する位置である移動位置を予測する移動位置予測部と、
    前記第1ロボット以外の他のロボットが、前記移動位置から所定の範囲内に存在する場合に、前記移動位置を示す移動位置情報を、他の前記ロボットに通知する通知部と、を備える、情報処理装置。
  2. 空間内の定点センサの取得した第2センサ情報を取得する第2センサ情報取得部を備え、
    前記オブジェクト検出部は、前記第1センサ情報および前記第2センサ情報に基づいて前記オブジェクトを検出する、請求項1に記載の情報処理装置。
  3. 前記複数のロボットそれぞれと前記情報処理装置との間のデータ通信方式は、同一の無線通信方式である、請求項1または2に記載の情報処理装置。
  4. 前記第1センサ情報、および、前記移動位置情報のうち少なくとも一方を、所定のタイミングで外部記憶装置に送信するデータ送信部を備える、請求項1~3のいずれか1項に記載の情報処理装置。
  5. 請求項1から4のいずれか1項に記載の情報処理装置と通信する、自走式のロボットであって、
    自装置の位置を特定する位置特定部と、
    前記センサ装置と、
    前記自装置の位置を示す位置情報と、前記第1センサ情報と、を前記情報処理装置に送信する情報送信部と、
    自装置の走行速度および走行経路の少なくとも一方を制御する駆動制御部と、
    前記情報処理装置から、前記移動位置情報を取得する移動位置情報取得部と、を備え、
    前記駆動制御部は、前記自装置の位置と、前記移動位置情報とに基づいて、前記走行速度および前記走行経路の少なくとも一方を変更する、ロボット。
  6. 自装置の周囲の人物を検出する人物検出センサを備え、
    前記駆動制御部は、前記人物検出センサの検出結果に応じて、前記走行速度および前記走行経路の少なくとも一方を変更する、請求項5に記載のロボット。
  7. 請求項1~4のいずれか1項に記載の情報処理装置と、
    複数台の、請求項5または6に記載のロボットと、を含む、情報処理システム。
JP2019177504A 2019-09-27 2019-09-27 情報処理装置、ロボット、および情報処理システム Active JP7272221B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019177504A JP7272221B2 (ja) 2019-09-27 2019-09-27 情報処理装置、ロボット、および情報処理システム
PCT/JP2020/010073 WO2021059560A1 (ja) 2019-09-27 2020-03-09 情報処理装置、ロボット、および情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019177504A JP7272221B2 (ja) 2019-09-27 2019-09-27 情報処理装置、ロボット、および情報処理システム

Publications (2)

Publication Number Publication Date
JP2021056639A JP2021056639A (ja) 2021-04-08
JP7272221B2 true JP7272221B2 (ja) 2023-05-12

Family

ID=75166913

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019177504A Active JP7272221B2 (ja) 2019-09-27 2019-09-27 情報処理装置、ロボット、および情報処理システム

Country Status (2)

Country Link
JP (1) JP7272221B2 (ja)
WO (1) WO2021059560A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113542004B (zh) * 2021-06-01 2023-05-16 浙江捷创方舟数字技术有限公司 基于5G网络和WiFi6技术的用于PLC控制系统的冗余系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000263489A (ja) 1999-03-16 2000-09-26 Denso Corp 移動ロボットの安全装置
JP2012200818A (ja) 2011-03-25 2012-10-22 Advanced Telecommunication Research Institute International 歩行者の軌跡を予測して自己の回避行動を決定するロボット

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296229A (ja) * 1998-02-13 1999-10-29 Komatsu Ltd 車両の誘導装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000263489A (ja) 1999-03-16 2000-09-26 Denso Corp 移動ロボットの安全装置
JP2012200818A (ja) 2011-03-25 2012-10-22 Advanced Telecommunication Research Institute International 歩行者の軌跡を予測して自己の回避行動を決定するロボット

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
加藤 由花 ほか,インタフェースロボット応答制御のための歩行者分岐方向の予測 A Method Predicting the Destination of a,情報処理学会 論文誌(ジャーナル) Vol.60 No.2 [online],日本,情報処理学会,2019年02月15日,pp.572-580

Also Published As

Publication number Publication date
JP2021056639A (ja) 2021-04-08
WO2021059560A1 (ja) 2021-04-01

Similar Documents

Publication Publication Date Title
CN109933064B (zh) 用于自主车辆的多传感器安全路径系统
JP7353747B2 (ja) 情報処理装置、システム、方法、およびプログラム
US10466707B2 (en) Planning robot stopping points to avoid collisions
CN105094005B (zh) 光学安全系统、用于控制机动化工业设备的方法和计算机可读介质
US11906971B2 (en) Spatiotemporal robotic navigation
JP5283622B2 (ja) 機械の衝突防止のためのカメラを利用した監視方法及び装置
US10948907B2 (en) Self-driving mobile robots using human-robot interactions
WO2020182470A1 (en) Route planning in an autonomous device
US20160367415A1 (en) Patient support apparatuses with navigation and guidance systems
US10239692B2 (en) Article transport facility
US20070135966A1 (en) Legged mobile robot
US11258987B2 (en) Anti-collision and motion control systems and methods
US10705532B2 (en) Standing test device for mobile robots
CN113966265B (zh) 用于运行机器人的方法和系统
JP2012130986A (ja) 移動体
JP2018092256A (ja) 死角カバレッジ装置、制御装置、移動体の分散制御プログラム
Boehning Improving safety and efficiency of AGVs at warehouse black spots
JP7272221B2 (ja) 情報処理装置、ロボット、および情報処理システム
CN117111054A (zh) 使用传感器融合优化工业中人机协作的人类的检测和追踪
KR102670285B1 (ko) 제조 공장에서 물품을 반송하는 모바일 로봇의 동작 방법
JP7147624B2 (ja) 自律移動ロボット
JP4950150B2 (ja) 移動体の位置情報取得システム及び取得方法
WO2022116628A1 (zh) 避障控制系统、方法、存储介质、计算机程序产品及移动设备
KR20200050231A (ko) 동적 가로등 및 그 제어 방법
JP2020093373A (ja) ロボット干渉判定装置、ロボット干渉判定方法、ロボット制御装置、およびロボット制御システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230410

R150 Certificate of patent or registration of utility model

Ref document number: 7272221

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150