JP7075935B2 - 自律型ロボットシステム - Google Patents

自律型ロボットシステム Download PDF

Info

Publication number
JP7075935B2
JP7075935B2 JP2019540008A JP2019540008A JP7075935B2 JP 7075935 B2 JP7075935 B2 JP 7075935B2 JP 2019540008 A JP2019540008 A JP 2019540008A JP 2019540008 A JP2019540008 A JP 2019540008A JP 7075935 B2 JP7075935 B2 JP 7075935B2
Authority
JP
Japan
Prior art keywords
module
robot system
robot
information
dialogue
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019540008A
Other languages
English (en)
Other versions
JP2020507160A (ja
Inventor
デ マトス,ルイス カルロス イナシオ
Original Assignee
フォロー インスピレーション,エセ.アー.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フォロー インスピレーション,エセ.アー. filed Critical フォロー インスピレーション,エセ.アー.
Publication of JP2020507160A publication Critical patent/JP2020507160A/ja
Application granted granted Critical
Publication of JP7075935B2 publication Critical patent/JP7075935B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Description

発明の詳細な説明
[技術分野]
本出願は、自律型ロボットシステム(自律型のロボットシステム)を開示する。
[背景]
現在、産業およびサービス提供と同じくらい多様なアプリケーションに関し、ロボットシステムへの関心が高まっている。しかし、(i)経路および障害物迂回の計算などのタスクにおけるハードウェア概念化およびソフトウェアの開発から、(ii)最も抽象的かつ複雑なレベルのヒューマンマシン対話に至るまで、まだ解決されていない様々な課題がある。複数の重要な貢献がすでになされており、それらの一部を以下に要約する。
US20050216126A1は、異常事象の発生を検出するために、特定の人物の習慣を識別し、追跡し、かつ学習する能力を有する自律型個人ロボットを開示している。この解決知覚モジュール策の主な目的は、高齢者および障害者を支援し、当該高齢者および障害者の周囲の状況だけでなく、当該高齢者および障害者の状況を報告することである。この思想は、具体的には、特定のユーザのために設計されているという点で、一部の態様にて本明細書において示されている思想とは異なる。
US2006106496A1において提案された思想は、移動ロボットの移動を制御するための方法を説明している。この研究は、構造が完全には特定されていない従来のロボットの存在を想定する方法に焦点を当てている。この研究は、当該文献においてロボットおよびそのセンサの説明において本質的に提案されている研究とは異なる。US2006106496A1にはカメラが記載されているが、例えば当該文献にはRGBカメラだけでなく、深度カメラ(デプスカメラ)の存在も示唆されている。
WO2007034434A2は、RGBビデオを使用してオブジェクト(物体)または人物を追跡するためのシステムを開示している。ビデオは、ブロック間の対応についてのアルゴリズムを使用して、論理処理によって分析される。このアルゴリズムは画像内の画素ブロックを特定し、次のビデオ画像内のある探索領域内において同じブロックを発見しようと試みる。探索領域は、測定値の履歴に基づいて動的に適合される。しかし、使用される追跡アルゴリズムは、前記基準「オブジェクト」に対するロボットシステム自体の移動(変位)を考慮していない。
US20110026770A1は、ステレオビジョンカメラを備えた遠隔車両を使用する方法を開示している。カメラは、人物の検出および追跡を可能にする。本方法の目的は、人物および遠隔車両が現実の環境において協働することを可能にするシステムを開発することである。その解決策はまた、遠隔車両を人物に対して適切な位置にナビゲーションすることを可能にするが、このことに関連してオブジェクトの追跡を提供してはいない。
US2011228976A1に示された研究は、ジョイントベースの追跡システムのための自動学習アルゴリズムによって使用されることを目的として、合成画像を生成するための技術を説明している。本研究は、データおよび画像の処理のためのアルゴリズムのセットだけでなく、自律型ロボットシステムも含む。
US20130342652A1は、RGBカメラおよび深度カメラを有するロボットによって人物を追跡するために一般に使用される追跡方法を開示している。本出願で提案されている本発明との主な相違点の1つは、RGBカメラおよび深度カメラ(本明細書では2つ以上であると認められる)に加えて、障害物の追跡および輪郭付け(コンタリング)もまた、少なくとも1つのLRFの使用をもたらすことである。安全性は、1つ以上のソナーによってさらに高めることができる。
WO2014045225A1は、障害物を避ける能力を有する個体を追跡するための自律型システムを開示している。この自律型システムは、この移動モードのみに限定されており、自律的に巡回することができない。さらに、オペレータの認識は、深度カメラのみに基づいて行われる。このことは、識別処理自体のロバスト性を低下させ、故障の影響を受けやすくする。さらに、前記自律型システムのアプリケーションは、人工光シナリオ(制御された光)に限定される。
このように、ユーザとの対話のレベルおよび周囲環境の両方において、配置(挿入)される環境との完全な統合(一体化)を促進するロボットシステムの開発に関して、既知の解決策が除外されることが実際には見受けられる。
[概要]
自立型ロボットシステムが開示されている。当該ロボットシステムは、
中央処理モジュールと、
表示システムと、前記ロボットシステムの外部から知覚情報を収集するための技術的手段と、を含む知覚モジュールと、
前記ロボットシステムの各モジュールに関連する状態およびパラメータを監視する監視モジュールと、
前記ロボットシステムと当該ロボットシステムのユーザと外部エージェントとの間の双方向通信を確立するための技術的手段を含む対話モジュールと、
少なくとも1つのバッテリと充電システムとを含む電源モジュールと、
前記ロボットシステムに搭載されたステアリングシステムに応じて動作する移動モジュールと、を備えており、
各モジュールは、共に接続されており、
各モジュールの動作は、前記中央処理モジュールによって制御され、
各モジュールは、データ処理動作を実行する少なくとも1つの処理ユニットを含んでおり、
前記少なくとも1つの処理ユニットは、各モジュール間の接続を確立する通信サブモジュールを含んでいる。
前記システムの特定の実施形態では、前記知覚モジュールの前記表示システムは、水平軸および垂直軸に応じた動的挙動を伴う、RGBDタイプ、RGBタイプ、サーマルタイプ、およびステレオタイプの複数のカメラを含んでいる。
前記システムの特定の実施形態では、知覚情報を収集するための前記知覚モジュールの前記技術的手段は、
少なくとも1つの距離センサと、
少なくとも1つのRGBセンサと、
少なくとも1つのソナー(超音波範囲または赤外線範囲の動作周波数を有する)と、
LIDAR技術に関する少なくとも1つのセンサと、
少なくとも1つのレーザ距離計(LRF)センサと、を含んでおり、
各タイプのセンサは、前記知覚モジュールの前記処理ユニットとの通信に先立って知覚処理を実行する、関連する処理ユニットを有している。
前記システムの特定の実施形態では、前記知覚モジュールの前記処理ユニットは、画像処理アルゴリズムを実行する。
前記システムの特定の実施形態では、前記監視モジュールは、プロセッサ温度、速度および負荷、使用されるRAMメモリ、並びにストレージスペースなどのパラメータを監視するために、ハードウェア通信プロトコルによって、前記ロボットシステムの残りの各モジュールの前記処理ユニットと通信する。
前記システムの特定の実施形態では、前記監視モジュールは、前記ロボットシステムの前記移動モジュールと接続(通信)することによって、移動エンジンコントローラの温度と、前記ロボットシステムの速度と、を決定する。
前記システムの特定の実施形態では、前記監視モジュールは、前記ロボットシステムの前記電源モジュールと接続(通信)することによって、前記ロボットシステムのバッテリレベルを決定する。
前記システムの特定の実施形態では、前記対話モジュールは、
少なくとも1つのマイクロフォンと、
少なくとも1つのモニタと、
少なくとも1つのスピーカと、
通信サブモジュールと、を含んでおり、
前記通信サブモジュールは、外部エージェントとの双方向ポイント・トゥ・ポイント通信を確立し、かつ、無線通信技術に応じて動作する。
前記システムの特定の実施形態では、前記通信サブモジュールは、前記通信サブモジュールは、Wi-Fi、Bluetooth、LAN、およびIR技術に応じて動作する。
前記システムの特定の実施形態では、前記外部エージェントは、データサーバである。
前記システムの特定の実施形態では、前記移動モジュールは、アッカーマン型、差動型、または全方向型の前記ステアリングシステムに応じて動作する。
さらに、開発された前記ロボットシステムの前記中央処理モジュールを動作させるための方法が開示されている。当該方法は、
知覚モジュールと監視モジュールと対話モジュールと移動モジュールとの間の双方向通信を確立するステップと、
知覚モジュールと監視モジュールと対話モジュールとからのデータをリアルタイムで統合する(リアルタイム統合する)ステップと、
追跡モード、案内モード、または2つの地点間のナビゲーションモードで動作するように、前記ロボットシステムの動作モードをプログラムするステップと、
3つのベクトル、すなわち速度、方向、および方位に応じて、前記移動モジュールに情報を送信するステップと、を含んでいる。
前記方法の特定の実施形態では、前記中央処理モジュールは、前記知覚モジュールと前記対話モジュールと前記監視モジュールとからの情報を、ステータスマシンまたはマルコフモデルアルゴリズムに応じて処理することにより、前記ロボットシステムの動作モードを設定する。
前記方法の特定の実施形態では、前記対話モジュールからの前記情報は、前記モニタ内における接触によって、または、マイクロフォンを介した音声情報によって、前記ユーザにより入力された入力パラメータである。
前記方法の特定の実施形態では、前記対話モジュールからの前記情報は、外部エージェントによって前記ロボットシステムに送信される。
前記方法の特定の実施形態では、前記追跡モードは、前記知覚モジュールにおいて実行されるユーザ識別ステージを含んでおり、前記ユーザ識別ステージは、深度センサおよびRGBカメラからのデータの統合処理を含んでいる。
前記方法の特定の実施形態では、ユーザ識別に学習アルゴリズムが用いられてよい。
前記方法の特定の実施形態では、2つの地点間の案内およびナビゲーションモードの設定は、地理的マップをダウンロードするために、前記対話モジュールと前記外部エージェントとを接続することを含んでいる。
[一般的な説明]
本出願は、ロボットシステムを、当該ロボットシステムの周囲の環境において完全な統合に有利な、より合理的かつ「意識的」にする必要性から生じている。
この目的のために、自律型ロボットシステムは、3つの異なる種類の「情報源」(information sources)から得られるデータ、すなわち、(i)当該ロボットシステムが配置される環境から直接的に収集される知覚情報、(ii)当該ロボットシステムのオペレータによって提供される入力、および、(iii)当該ロボットシステムの外部の情報システムによって送信される外部コンテキスト情報、に応じて、その動作を規定する能力を有するように開発されてきた。異なるエンティティから到来するこれらすべてのデータをリアルタイムで統合することは、上記システムに割り当てられた機能に従って、異なる動作モードに従って動作することを可能にする知能(インテリジェンス)を、上記システムに与える。それによって、上記システムは、(i)当該システムのユーザに専ら追従(後続)して動作することを可能にするか、あるいは、(ii)特定の規定された点へと直接的に自律移動することを可能にする。
本明細書では、開発されたロボットシステムは、技術的モジュール(テクニカルモジュール)に従って定義されるものとする。当該技術的モジュールは、上記ロボットシステムを構成し、かつ、必要な技術的複雑性をもたらす。これにより、当該ロボットシステムに、既に述べた原理に従って動作させることが可能となる。本明細書において示されるシステムのモジュール性は、ソフトウェアおよびハードウェアの両方に関して検証され、実用的な点で大きな利点を提供する。上記モジュール性は、特定のアプリケーションシナリオに適合された異なる動作機能をプログラミングすることを可能にし、かつ、上記モジュール性によれば、システムハードウェアに必要とされる任意の変更を、その全体的な動作に直接的な影響を与えることなく実施できるためである。例えば、人工光および自然光の両方について、ロボットシステムがユーザ追跡モードのためにプログラムされる場合、知覚モジュールは、よりロバスト性が高い範囲のセンサとして設けられうる。知覚モジュールによって提供される抽象化層(抽象化レイヤ)は、システムに導入される新しいセンサの統合に有利である。
ロボットシステムは、以下の技術的モジュール、すなわち、知覚モジュール、監視モジュール、対話モジュール、中央処理モジュール、電源モジュール、および移動モジュール、によって構成される。このモジュール性は、必要に応じた構成を導入する場合に、より速い処理およびより優れた柔軟性(フレキシビリティ)を可能にする。
これに則して、ロボットシステムには、モジュール毎に少なくとも1つの処理ユニット(すなわち複数の処理ユニット)が備えられている。このことは、単一のユニットを損なうため、必然的により複雑となるであろう。例えば、開発された分析および決定アルゴリズムの複雑性だけでなく、知覚モジュールによって提供されるデータを含む大量のデータに起因して、処理の分散化は、(i)消費を許容可能な限界内に維持している間のエネルギー要求と、(ii)ロボットシステムが実際のアプリケーションシナリオにおいて、自身の機能を適切に実行するために従うべき空間的制限と、の両方に有利な開発アプローチを示す。このようにして、最初から、知覚データを処理することが予定されている処理ユニットを分離することが可能である。このことは、その他の計算的により要求の厳しいモジュールを表す。すべてのモジュール間の通信は、各モジュール内に存在する処理ユニットに関連する通信サブモジュールを介して確立される。当該モジュールは、CANプロトコル、イーサネットプロトコル、または任意の他のハードウェア通信プロトコルに基づいて通信を確立するように構成される。
このモジュール性にもかかわらず、ロボットシステムの全体の動作は中央処理モジュールによってプログラムされる。この場合、システムの移動(変位)を担う移動モジュールを駆動するために、知覚モジュール、対話モジュール、電源モジュール、および監視モジュールによって送信される情報を統合する適切な(合理的な)ステージ(rational stage)が処理される。
次に、ロボットシステムを規定する各モジュールについて説明する。
[中央処理モジュール]
本モジュール(中央処理モジュール)は、ロボットシステムの他のすべてのモジュールを制御する主モジュール(メインモジュール)である。
本モジュールは、ユーザ追跡(いかなる識別装置をも必要としない)、ガイドモードでの移動(ユーザはロボットシステムに従う)、または2地点間の単純な移動などの、ロボットシステムの自律型行動を規定することに関して、ロボットシステムの動作モードに関する重要な決定がなされるモジュールである。ロボットシステムにおいて設定される動作モードにかかわらず、中央処理モジュールは、残りのモジュールからのデータを統合することによって、移動モジュールを起動する。どの行動を実行すべきかに関する決定は、(i)知覚モジュール(すなわち、センサおよびカメラ)、および、(ii)対話モジュール(ユーザまたは外部エージェントのそれぞれからローカル指令またはリモート指令を受信する)、によって収集された情報に基づく。すべての情報の処理は、ステータスマシン、マルコフモデルなどの「ステータス」および「行動(ビヘイビア)」選択アルゴリズムに従って実行される。
ロボットシステムの安全なナビゲーション(障害物の迂回および安全距離)は、中央処理モジュールが移動システムに正確に供給することを意味する。この目的のために、様々なセンサから到来するデータ(当該データは、相補的なだけでなく冗長な情報を提供するとともに、周囲環境の認識を可能にする)が統合される。さらに、対話モジュールを介して、中央処理モジュールは、障害物迂回を伴う経路を計算するためのアルゴリズムを実装するマップ(地図)を使用して、および/または、グローバル測位技術(全地球測位技術)を使用して、この情報を補完することができる。実際には、中央処理モジュールは、(i)外部エージェントによって提供されるマップに基づいて経路を生成し、(ii)知覚モジュールによって収集された情報に基づいてローカルアルゴリズムおよび/またはグローバルアルゴリズムによってマップを構築し、かつ、(iii)周囲環境に関する情報をユーザに与えることが可能である。例えば、人が巡回ゾーン内にいるか駐車エリア内にいるかを特定するために、ロボットが通過できない狭い通路に近づいていることをユーザに示すことができる。また、サービス提供のためにロボットが存在している場所(空港における関心地点、リストの存在下での広告または購入サポート)を、ユーザに示すことも可能である。
これに関連して、中央処理モジュールにおいて、人工知能(artificial intelligence,AI)アルゴリズムを実行することが可能である。これにより、ロボットにユーザの嗜好(好み)/履歴を報知でき、その結果、効果的な対話を提供することができる。例えば、リテール(小売)エリアとの関連では、ロボットシステムの位置に応じて、ユーザのショッピングプロファイルに応じて、当該ユーザ自身の好みに合う可能性のある特定の製品を提案することが可能である。
言及された全ての例は、本明細書に示されているロボットシステムを構成する全てのモジュール間の相互通信によって可能である。それらのモジュールの各々に割り当てられた情報を効果的に統合することは、(i)意図された機能、(ii)上記ロボットシステムのユーザ、および、(iii)上記ロボットシステムが配置される環境に関するコンテキスト情報、に由来する、システムの動作を最適化することを可能にする。
知覚情報を使用することは、中央処理モジュールによってなされてもよい。これにより、ロボットシステムの移動を停止させ、近傍の障害物に起因する緊急停止を実行できる。この停止は、ロボットの本体(ボディ)に配置されたボタンを用いて、ハードウェアによって引き起こされてもよい。
[知覚モジュール]
知覚モジュールは、ロボットシステムが配される(inserted)環境から情報を収集する役割を果たす。知覚モジュールは、ロボットシステムが処理するデータ量ゆえに、計算的により複雑なモジュールである。知覚モジュールは、以下の範囲のセンサを含む:
-少なくとも1つの距離センサ;
-少なくとも1つのRGBセンサ;
-少なくとも1つのソナー(超音波範囲または赤外線範囲の動作周波数を有する);
-LIDAR技術に関する少なくとも1つのセンサ;
-少なくとも1つのレーザ距離計(レーザーレンジファインダ)(LRF)センサ。
さらに、知覚モジュールは、ロボットの表示システムも含む。当該表示システム(it)には、以下の異なるタイプ(種類)の、水平軸および垂直軸に応じた動的挙動を伴う複数のカメラが設けられている:
-RGBDカメラ;
-RGBカメラ;
-サーマルカメラ;
-とりわけ、ステレオカメラ。
知覚モジュールで扱われる知覚データの量に対処するために、知覚モジュールは、ロボットに適用されるセンサ/カメラの種類毎に処理ユニットを有する分散データ処理ストラテジーを有する。したがって、(例えば、CAN、profiBUS、EtherCAT、ModBus、またはEthernetタイプの)ハードウェア通信プロトコルを介してモジュールの主処理ユニットにデータを送信することに先立ち、事前の知覚処理ステップが存在する。当該知覚処理ステップは、収集されたすべての情報を中央処理モジュールに転送する前に、当該収集されたすべての情報を統合する。
使用されるセンサ/カメラの数は、意図されたアプリケーションに応じて変更されてよい。センサ/カメラは、ロボットの本体に常に取り付けられるであろう。センサ/カメラの正確な位置決めが、意図されたアプリケーションに応じて変更される。このような適応性を可能にするために、知覚モジュールは、新たにインストールされたコンポーネントを自動的に設定(構成)するように設計された較正ブロックを統合する。これにより、ロボットシステムにおいて知覚モジュールによる統合に有利な抽象化層を生成できる。
相補的でありかつ冗長でもある構成を有する異なるタイプのセンサ/カメラを組み合わせることは、障害物の検出、オブジェクトおよび人物の検出および識別、ならびにハードウェア障害に対するより高いロバスト性および保護に関して、より優れた性能をもたらす。実際、周囲の環境(人、障害物、他のロボットシステム、ゾーン、またはマーカー(標識))の認識は、画像処理アルゴリズムによって行われ、知覚モジュールの主処理ユニット内で実行される。その後、この情報は、移動モジュールを始動させる役割を担う中央処理モジュールに転送される。
オペレータの識別に関する限り、深度情報に対して相補的なセンサを使用することは、この処理をより効率的にし、例えば、(特に)色特性を抽出するために、RGB情報を使用することを可能にする。色特性は、現行の照明特性にかかわらずオペレータをより正確に特徴付けることを可能にする。この場合、ユーザおよびオブジェクトの両方を識別する処理は、深度情報および色情報から得られた特徴(構成)(feature)に基づいてモデルを生成する初期段階を経る。各々の瞬間に検出されたユーザ/オブジェクトに関する新しい情報は、既存のモデルと比較され、マッチングアルゴリズムに基づいて、当該新しい情報がユーザ/オブジェクトであるか否かが決定される。このモデルはAIおよび学習アルゴリズムに基づいて、時間の経過に伴い適合される。これにより、ユーザ/オブジェクトの視覚特性の調整を、時間の経過に伴い、その動作中に可能にする。
また、このモジュールの構成により、ユーザによって実行されるアクションを認識することも可能である。これにより、他のアプリケーションの中でも、より高度な人間-ロボット対話が可能となる。また、RGBカメラおよびステレオカメラを設けることにより、自然光または人工光を伴う環境下においてロボットシステムを動作させることも可能である。
[対話モジュール]
対話モジュールは、ロボットシステム、その(当該ロボットシステムの)ユーザ、および両方の外部エージェントとの間のインターフェースを確立する役割を担うモジュールである。
ユーザとの対話は、
-少なくとも1つのマイクロフォン;
-少なくとも1つのモニタ;
-少なくとも1つのスピーカ;
によって処理される。これらは、例えば、ジェスチャーまたは音声によって対話を処理することを可能にする。前記ハードウェアを支援するために、画像処理アルゴリズム、すなわち、(a)深度情報および色情報(知覚モジュールは以下の技術的手段、すなわち、(i)深度情報を捕捉するための少なくとも1つのセンサ、例えば、RGBD型センサおよび/またはステレオカメラ、(ii)ならびに、例えば、色情報を収集するための少なくとも1つのRGBDカメラ、を有することを前提とする)(b)および単語認識がこのモジュールに関連付けられた処理ユニットにおいて処理(実行)される。これにより、ユーザとの対話が音声(マイクロフォンおよび/またはスピーカ)または視覚的態様(モニタを介して)によって行われることが可能となる。この例は、ロボットシステムを含むすべてのモジュールによって収集され、かつ、そのユーザまたは周囲環境との異なる種類のコンタクト(連絡)を提供する情報間の対話および統合を明らかにする。
次に、ロボットシステムには、外部エージェントと対話する能力が付与される。この場合、外部エージェントは例えば、インターネット内に存在する(housed)情報サーバであると考慮される。ロボットシステムはコンテキスト情報を取得するために、当該外部エージェントを使用する。この目的のために、知覚モジュールは例えば、WI-FI、Bluetooth、LANまたはIR(赤外)技術に応じて動作するように構成された、外部と通信するためのサブモジュールを含む。さらに、知覚モジュールは、以下の目的のために、システム自体の外部の他の機器との双方向ポイント・トゥ・ポイント接続を確立することを可能にする:
-遠隔制御またはステーションによってシステムを遠隔操作(teleoperation)すること。これにより、外部装置から指令を受け付け、さらにセンサおよびアクチュエータの状態または処理の状態に関する監視情報を共有することが可能となる;
-異なるレベルのロボットシステム間の協働によるチームの操作(チームオペレーション)。この機能は、所与のシナリオで動作可能な様々なロボット間で情報を交換するために、前のポイントで説明した通信性能を使用することが主体にある。複数のロボットは、自身が有するすべての情報を共有し、かつ、他のロボットからの指令を受け付ける//他のロボットへの指令を与えることができる。一例として、使用されるロボットが、常に最も多くのバッテリを有するロボットであると考えることができる。この意味で、全てのロボットのバッテリ(電池)状態を認識していることが必要である。他の可能なアプリケーションは、作業の最適化である。この場合、各ロボットは他のロボットの経路(ルート)に応じた経路を生成する(例えば、2つのロボットがそれぞれ半分の負荷で同じ場所を通過する価値はない);
-中央コマンド・コンピュータへの相互接続によって、自動的なまたは管理されたソフトウェア更新を実行すること。
[監視モジュール]
監視モジュールは、ロボットシステムの他のすべてのモジュールの状態を監視するように意図されている。監視モジュールは、ロボットシステムに関連する異なるパラメータ(例:プロセッサ温度、既存の処理ユニットの速度および負荷、使用されるRAMメモリおよびストレージスペース(記憶スペース)、移動モジュールのエンジンコントローラ温度、ロボットの速度および位置、バッテリの電力レベルなど)を制御する。
この目的のために、監視モジュールは、ロボットシステムの他のモジュールの各々、特に、上述のパラメータに関する情報を共有するそれぞれの処理ユニットに接続される。
[電源モジュール]
電源モジュール(パワーモジュール)は、少なくとも1つのバッテリと、有線および/または無線充電システムと、を備える。有線充電システムは、電源をロボットのバッテリに直接的に接続する接点プラグ(コンタクトプラグ)に基づく。一方、無線充電システムは、空気中において2点間でエネルギーを伝達するために、電磁気(無線信号、電磁波、または同等の事項)を使用することに基づいている。環境内には(複数の)固定された送信機が存在し、ロボットシステムの電源モジュールは、内蔵型の受信機を含む。受信機が送信機の近くに存在している場合(必ずしも接触している必要はない)、エネルギーの伝達が生じる。このシステムは、高い汚染環境(例えば、産業)、および、ロボットが自律的に充電ステーションに接続されなければならないアプリケーションにおいて、物理的接続に対する利点を有する(位置精度が必ずしも要求されないので、接続処理を簡単化できる)。送信機および受信機は、本質的には、コイルによって構成される。当該コイルの送信機側では、可変電場を発生させる時間内に、可変電流によって給電される。受信機側からは、発生した磁場に基づく励起によって、コイルに発生した電流が使用される。
また、電源モジュールには、送信機を制御し、かつ、ロボットシステムの側の電荷の監視を制御するための処理能力(処理性能)が付与される。電源モジュールは、システムの他のモジュール、特に監視モジュールおよび中央処理モジュールと相互接続される。全てのモジュール間のこの対話によれば、例えば、ロボットシステムは、任意の時点において有する充電(electric charge)のレベルについての認識を有することができる。その結果、必要なときはいつでも、当該ロボットシステムを自律的に充電ベースに導くことができる。
[移動モジュール]
移動モジュールは、ロボットを移動(変位)させる役割を担う。上述のように、当該移動モジュールは、3つのベクトル、すなわち、速度、方向(direction)、および方位(orientation)に従って、後の情報から受信する中央処理モジュールと通信する。処理ユニット内のソフトウェアレベルにおいて生成される抽象化層は、それぞれのハードウェア変更によって、すなわち、差動ステアリング、アッカーマンステアリング(ackermann steering)、および全方向ステアリング(omnidirectional steering)によって、異なる種類のステアリングシステムを適合させることを可能にする。
[図面の簡単な説明]
本出願のより良い理解のために、好ましい実施形態を表す図が本明細書に添付されている。但し、これらの図は本明細書に開示されている技術を限定することを意図するものではない。
図1は、開発されたロボットシステムを含む異なるブロックと、当該異なるブロック間に確立される対話とを示す。
図2は、ロボットシステムの特定の実施形態を示す。当該実施形態は、リテールエリアにおいてユーザを支援するアプリケーションシナリオに特に適合されている。
[実施形態の説明]
図面を参照して、複数の実施形態をより詳細に説明する。但し、これらの実施形態は、本出願の範囲を限定することを意図するものではない。
本明細書にて開示されている自律型ロボットシステムの特定の実施形態は、リテールエリアでのアプリケーションシナリオを対象とする。アプリケーションコンテキストを規定する目的および特定性を考慮に入れると、選択された製品を運ぶユーザにロボットシステムが追従(後続)できるように、当該ロボットシステムには、積載能力を有するスケール(秤)と物理的サポート(物理的支持体)とが設けられている。次いで、コマーシャル(商業)エリア内のナビゲーションは、ユーザの追跡に従って規定されるであろう。その上、ロボットシステムが位置するエリアに応じて、当該ロボットシステムは、特別なプロモーション(宣伝)について、または、上記特定のエリアで入手可能な(アクセス可能な)特別な製品について、ユーザに通知することによって、ユーザと対話することができる。あるいは、ロボットシステムのナビゲーションは、周囲の環境に計画的に配置された個別のマーカーの識別および解釈から実行されてもよい。経路(corridor)の幾何学的特性に応じて、ロボットシステムは、移動モジュールにおいて全方向ステアリングシステムを統合してもよい。これにより、ロボットがより狭い空間において、より滑らかに移動することが可能となる。このシナリオでは、移動モジュールは、複数のより小さな車輪(ホイール)から構成される全方向車輪を備える。これらの車輪は、主車輪軸に垂直な軸を有する。これにより、車輪が特定の方向において摩擦係合することを可能にするとともに、他の方向への運動に対する抵抗をもたらさない。
この特定の実施形態では、ロボットシステムの対話モジュールがナビゲートするコマーシャルエリアのマップ、特定の製品、プロモーション、および/またはユーザに関連する好ましいデータに関する情報をダウンロードするために、当該ロボットシステムは、モニタまたはサウンドスピーカーを介して当該ユーザ(the latter)と対話しながらリテールエリアサーバにアクセスする。ロボットシステム-ユーザ-リテールエリアのデータサーバ間の、3者間のプレーン接続(three-plane connection)は、ユーザがロボット自体と対話することによって、(i)ユーザ自身のショッピングリストをローカルに作成すること、または、(ii)ユーザ自身のモバイル(携帯)デバイスから、もしくはリテールエリアデータサーバから、ユーザ自身のショッピングリストを直接的にアップロードすることを可能にする。
サービスの提供の枠組み内で、ロボットシステムは、自動支払い端末を備えていてもよい。当該自動支払い端末は、支払い行為をロボットによってサポート可能とするために、バーコードリーダおよび課金ソフトウェアを含んでいる。
さらに、コマーシャルエリアまたは産業的環境内では、ロボットシステムが、知覚情報、グローバル位置、および画像処理アルゴリズムを統合して、欠落した製品(missing product)を識別し、当該製品を特定の位置に集荷(upload)することにより、在庫補充を支援することができる。
同様のアプリケーションは、例えば、空港で、乗客追跡、複数の地点間におけるスーツケースおよび乗客の自律的な運搬、または情報サービスの提供のために、本明細書に示される自律型ロボットシステムに応じて設計(デザイン)されてよい。
別のアプリケーションシナリオでは、ロボットシステムを車両(ビークル)に統合することができ、当該車両を自律化できる。それゆえ、自動駐車、(交通標識の認識に基づく)自律運転、または車両自体もしくは他の車両のセットの統合された方法(プラトーニング,隊列走行)での遠隔制御などの動作を、運転者の介入を必要とせずに実行させることが可能となる。この目的のために、車両の中央制御ユニットは、当該中央制御ユニットに接続されたロボットシステムの中央処理モジュールから高次のレベルの指令(位置、方位、および速度)を受信するように適合されている。システムの残りのモジュール(すなわち、知覚モジュール、監視モジュール、および対話モジュール)もまた、車両への統合のために調整される。移動モジュールおよび電源モジュールは、車両自体のモジュールであり、ロボットシステムの中央処理モジュールによって統合および制御される。これに関連して、外部エージェントは、車両自体のドライバ(駆動部)またはたデータサーバであると考えることもできる。当該外部エージェントは、有用な道路情報を提供するロボットシステムと通信するように、または、モバイルアプリケーションを介して車両自体もしくは車両のセットの動作を制御するように構成されている。本例ではドライバの識別も可能であり、追跡動作の場合、現在開発されているロボットシステムを備えた車両は、(例えば)別の車両を追跡するようにプログラムされてよい。この場合、知覚システムによって別の車両の位置が検出される。
当然ながら、本説明は、本明細書に示される実施形態に何ら限定されず、当業者は、特許請求の範囲に規定される一般的な概念から逸脱することなく、当該実施形態を変更する多くの可能性を提供することができる。上述の好ましい実施形態が互いに組み合わせ可能であることは、明らかである。以下の特許請求の範囲は、好ましい実施形態をさらに規定する。
開発されたロボットシステムを含む異なるブロックと、当該異なるブロック間に確立される対話とを示す。 リテールエリアにおいてユーザを支援するアプリケーションシナリオに特に適合されている、ロボットシステムの特定の実施形態を示す。

Claims (18)

  1. 自律型のロボットシステムであって、
    中央処理モジュールと、
    ロバストな範囲のセンサと、複数のカメラを含んだ表示システムとを含む知覚モジュールと、
    前記ロボットシステムの各モジュールに関連する状態およびパラメータを監視する監視モジュールと、
    前記ロボットシステムと当該ロボットシステムのユーザと外部エージェントとの間の双方向通信を確立するための技術的手段を含む対話モジュールと、
    少なくとも1つのバッテリと充電システムとを含む電源モジュールと、
    前記ロボットシステムに搭載されたステアリングシステムに応じて動作する移動モジュールと、を備えており
    各モジュールは、データ処理動作を実行する少なくとも1つの処理ユニットを含んでおり、
    各モジュールの前記少なくとも1つの処理ユニットは、各モジュール間の接続を確立する通信サブモジュールを含んでおり、
    各モジュールの動作は、前記中央処理モジュールによって制御され、
    前記知覚モジュールは、
    前記ロバストな範囲のセンサおよび前記表示システムに新たにインストールされたコンポーネントを自動的に設定する較正ブロックを含んでおり、
    相補的かつ冗長な構成を有する異なるタイプのセンサおよびカメラから収集された情報を組み合わせることによって、ユーザによって実行されるアクションを認識するために、人工知能(AI)および学習アルゴリズムに基づいて、前記ロボットシステムが配置されている周囲環境から知覚情報を収集するように、時間の経過に伴い適合され、
    AIアルゴリズムを実行する前記中央処理モジュールは、
    前記ロボットシステムの各モジュールの全ての動作を制御し、
    前記ロボットシステムが配置されている前記周囲環境から直接的に収集された、前記知覚モジュールからのデータのリアルタイム統合;
    前記対話モジュールによって、ジェスチャーまたは音声を介してユーザから受信した指令に由来するデータのリアルタイム統合;
    前記対話モジュールによって、外部エージェントから受信した指令に由来するデータのリアルタイム統合;
    という3つの異なるタイプの情報源に基づいて、各モジュールにおいて実行すべき行動を決定し、
    前記中央処理モジュールは、前記ロバストな範囲のセンサの状態と、処理の状態と、異なるレベルのロボットシステム間の協働による動作の状態と、についての情報を共有する、自立型のロボットシステム。
  2. 前記知覚モジュールの前記表示システムは、水平軸および垂直軸に応じた動的挙動を伴う、RGBDタイプ、RGBタイプ、サーマルタイプ、およびステレオタイプの複数のカメラを含んでいる、請求項1に記載のシステム。
  3. 記知覚モジュールの前記ロバストな範囲のセンサは、
    少なくとも1つの距離センサと、
    少なくとも1つのRGBセンサと、
    超音波周波数範囲または赤外線周波数範囲において動作する少なくとも1つのソナー
    LIDAR技術に関する少なくとも1つのセンサと、
    少なくとも1つのレーザ距離計(LRF)センサと、を含んでおり、
    ンサは、前記知覚モジュールの前記処理ユニットとの通信に先立って知覚処理を実行する理ユニットをさらに有している、請求項1に記載のシステム。
  4. 前記知覚モジュールの前記処理ユニットは、画像処理アルゴリズムを実行する、請求項1~3のいずれか1項に記載のシステム。
  5. 前記監視モジュールは、プロセッサ温度、速度および負荷、使用されるRAMメモリ、並びにストレージスペースなどのパラメータを監視するために、ハードウェア通信プロトコルによって、前記ロボットシステムの残りの各モジュールの前記処理ユニットと通信する、請求項1に記載のシステム。
  6. 前記監視モジュールは、前記ロボットシステムの前記移動モジュールと接続することによって、移動エンジンコントローラの温度と、前記ロボットシステムの速度と、を決定する、請求項5に記載のシステム。
  7. 前記監視モジュールは、前記ロボットシステムの前記電源モジュールと接続することによって、前記ロボットシステムのバッテリレベルを決定する、請求項5に記載のシステム。
  8. 前記対話モジュールは、
    少なくとも1つのマイクロフォンと、
    少なくとも1つのモニタと、
    少なくとも1つのスピーカと、
    通信サブモジュールと、を含んでおり、
    前記通信サブモジュールは、外部エージェントとの双方向ポイント・トゥ・ポイント通信を確立し、かつ、無線通信技術に応じて動作する、請求項1に記載のシステム。
  9. 前記通信サブモジュールは、Wi-Fi、Bluetooth、LAN、およびIR技術に応じて動作する、請求項8に記載のシステム。
  10. 前記外部エージェントは、データサーバである、請求項8に記載のシステム。
  11. 前記移動モジュールは、アッカーマン型、差動型、または全方向型の前記ステアリングシステムに応じて動作する、請求項1に記載のシステム。
  12. 請求項1~11に記載の前記ロボットシステムの前記中央処理モジュールを動作させるための方法であって、
    知覚モジュールと監視モジュールと対話モジュールと移動モジュールとの間の双方向通信を確立するステップと、
    知覚モジュールと監視モジュールと対話モジュールとからのデータをリアルタイムで統合するステップと、
    追跡モード、案内モード、または2つの地点間のナビゲーションモードで動作するように、前記ロボットシステムの動作モードをプログラムするステップと、
    3つのベクトル、すなわち速度、方向、および方位に応じて、前記移動モジュールに情報を送信するステップと、を含んでいる、方法。
  13. 前記中央処理モジュールは、前記知覚モジュールと前記対話モジュールと前記監視モジュールとからの情報を、ステータスマシンまたはマルコフモデルアルゴリズムに応じて処理することにより、前記ロボットシステムの動作モードを設定する請求項12に記載の方法。
  14. 前記対話モジュールからの前記情報は、前記モニタ内における接触によって、または、マイクロフォンを介した音声情報によって、前記ユーザにより入力された入力パラメータである、請求項13に記載の方法。
  15. 前記対話モジュールからの前記情報は、外部エージェントによって前記ロボットシステムに送信される、請求項13または14に記載の方法。
  16. 前記追跡モードは、前記知覚モジュールにおいて実行されるユーザ識別ステージを含んでおり、
    前記ユーザ識別ステージは、深度センサおよびRGBカメラからのデータの統合処理を含んでいる、請求項12に記載の方法。
  17. ユーザ識別に学習アルゴリズムが用いられる、請求項16に記載の方法。
  18. 2つの地点間の案内およびナビゲーションモードの設定は、地理的マップをダウンロードするために、前記対話モジュールと前記外部エージェントとを接続することを含んでいる、請求項12に記載の方法。
JP2019540008A 2017-01-20 2018-01-18 自律型ロボットシステム Active JP7075935B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
PT10987117 2017-01-20
PT109871 2017-01-20
PCT/IB2018/050317 WO2018134763A1 (en) 2017-01-20 2018-01-18 Autonomous robotic system

Publications (2)

Publication Number Publication Date
JP2020507160A JP2020507160A (ja) 2020-03-05
JP7075935B2 true JP7075935B2 (ja) 2022-05-26

Family

ID=61258566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019540008A Active JP7075935B2 (ja) 2017-01-20 2018-01-18 自律型ロボットシステム

Country Status (6)

Country Link
US (1) US20190354102A1 (ja)
EP (1) EP3571560B1 (ja)
JP (1) JP7075935B2 (ja)
CA (1) CA3055445A1 (ja)
MX (1) MX2019008657A (ja)
WO (1) WO2018134763A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110471409B (zh) * 2019-07-11 2022-12-02 深圳市优必选科技股份有限公司 机器人巡检方法、装置、计算机可读存储介质及机器人
CN111438678A (zh) * 2020-05-22 2020-07-24 陕西科技大学 一种智能购物跟随机器人及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054638A (ja) 2002-07-19 2004-02-19 Honda Motor Co Ltd クロスモーダル学習装置及び認識処理方法
JP2009509673A (ja) 2005-09-30 2009-03-12 アイロボット コーポレーション 個人の相互交流のためのコンパニオンロボット
CN103926925A (zh) 2014-04-22 2014-07-16 江苏久祥汽车电器集团有限公司 一种基于改进的vfh算法的定位与避障方法及机器人
JP2014176963A (ja) 2013-03-14 2014-09-25 Toyota Motor Engineering & Manufacturing North America Inc ロボット装置/プラットフォームを使用して能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム
JP2014195868A (ja) 2010-05-20 2014-10-16 アイロボット コーポレイション 移動式ロボットを作動させて人について行くようにする方法
CN105204509A (zh) 2015-10-09 2015-12-30 南京采薇且歌信息科技有限公司 通过远程控制实现园区巡检和野外勘察的履带机器人系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2581481B2 (ja) * 1995-07-21 1997-02-12 株式会社日立製作所 制御装置
JP2005103678A (ja) * 2003-09-29 2005-04-21 Toshiba Corp ロボット装置
EP1741044B1 (en) 2004-03-27 2011-09-14 Harvey Koselka Autonomous personal service robot
JP4316477B2 (ja) 2004-11-18 2009-08-19 パナソニック株式会社 移動ロボットの追従方法
JP2009510558A (ja) 2005-09-26 2009-03-12 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 物体又は人物の動きを追跡する方法及び装置
US7974738B2 (en) * 2006-07-05 2011-07-05 Battelle Energy Alliance, Llc Robotics virtual rail system and method
US20110026770A1 (en) 2009-07-31 2011-02-03 Jonathan David Brookshire Person Following Using Histograms of Oriented Gradients
US8213680B2 (en) 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US9321173B2 (en) 2012-06-22 2016-04-26 Microsoft Technology Licensing, Llc Tracking and following people with a mobile robotic device
CA2885630C (en) 2012-09-19 2020-09-29 Follow Inspiration Unipessoal, Lda. Self tracking system and its operation method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004054638A (ja) 2002-07-19 2004-02-19 Honda Motor Co Ltd クロスモーダル学習装置及び認識処理方法
JP2009509673A (ja) 2005-09-30 2009-03-12 アイロボット コーポレーション 個人の相互交流のためのコンパニオンロボット
JP2014195868A (ja) 2010-05-20 2014-10-16 アイロボット コーポレイション 移動式ロボットを作動させて人について行くようにする方法
JP2014176963A (ja) 2013-03-14 2014-09-25 Toyota Motor Engineering & Manufacturing North America Inc ロボット装置/プラットフォームを使用して能動的且つ自動的なパーソナルアシスタンスを提供するコンピュータベースの方法及びシステム
CN103926925A (zh) 2014-04-22 2014-07-16 江苏久祥汽车电器集团有限公司 一种基于改进的vfh算法的定位与避障方法及机器人
CN105204509A (zh) 2015-10-09 2015-12-30 南京采薇且歌信息科技有限公司 通过远程控制实现园区巡检和野外勘察的履带机器人系统

Also Published As

Publication number Publication date
CA3055445A1 (en) 2018-07-26
EP3571560B1 (en) 2022-11-02
EP3571560A1 (en) 2019-11-27
MX2019008657A (es) 2019-12-16
WO2018134763A1 (en) 2018-07-26
JP2020507160A (ja) 2020-03-05
US20190354102A1 (en) 2019-11-21

Similar Documents

Publication Publication Date Title
US11097416B2 (en) Mobile robot system, mobile robot, and method of controlling the mobile robot system
US11673269B2 (en) Method of identifying dynamic obstacle and robot implementing same
US11960290B2 (en) Systems and methods for end-to-end trajectory prediction using radar, LIDAR, and maps
US20210362335A1 (en) Robot and method for manage item using same
US11858148B2 (en) Robot and method for controlling the same
US11269328B2 (en) Method for entering mobile robot into moving walkway and mobile robot thereof
US20210097852A1 (en) Moving robot
JP6891753B2 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
KR20200099611A (ko) 로봇 자율 모션 계획 및 내비게이션을 위한 시스템 및 방법들
US20200101974A1 (en) Device and method for selecting optimal travel route based on driving situation
US11372418B2 (en) Robot and controlling method thereof
CN112020411B (zh) 用于向用户提供服务的移动机器人装置和方法
US11768490B2 (en) System and methods for controlling state transitions using a vehicle controller
WO2021178513A1 (en) Systems and methods for integrating radar data for improved object detection in autonomous vehicles
JP2020079997A (ja) 情報処理装置、情報処理方法、及びプログラム
US20220291685A1 (en) Method and system to improve autonomous robotic systems responsive behavior
US11635759B2 (en) Method of moving robot in administrator mode and robot of implementing method
JP7075935B2 (ja) 自律型ロボットシステム
KR20190104264A (ko) 차량에 탑재되는 인공 지능 장치 및 그 방법
KR20210021169A (ko) 로봇의 충전 시스템 및 그 제어 방법
JP7147142B2 (ja) 制御装置、および制御方法、プログラム、並びに移動体
WO2020213275A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Albogamy et al. SRAVIP: smart robot assistant for visually impaired persons
Aarthi et al. Smart alert and intimation system for VIP (visually impaired person)
KR20210042537A (ko) 대면적의 공간에서 로컬 영역별로 위치를 추정하는 방법 및 이를 구현하는 로봇과 클라우드 서버

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220516

R150 Certificate of patent or registration of utility model

Ref document number: 7075935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150