JP2022027569A - ロボット遠隔制御方法及びシステム - Google Patents

ロボット遠隔制御方法及びシステム Download PDF

Info

Publication number
JP2022027569A
JP2022027569A JP2021122299A JP2021122299A JP2022027569A JP 2022027569 A JP2022027569 A JP 2022027569A JP 2021122299 A JP2021122299 A JP 2021122299A JP 2021122299 A JP2021122299 A JP 2021122299A JP 2022027569 A JP2022027569 A JP 2022027569A
Authority
JP
Japan
Prior art keywords
robot
image
output
area
user input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021122299A
Other languages
English (en)
Other versions
JP7213924B2 (ja
Inventor
ガヒョン キム
Kahyeon Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Naver Labs Corp
Original Assignee
Naver Labs Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Naver Labs Corp filed Critical Naver Labs Corp
Publication of JP2022027569A publication Critical patent/JP2022027569A/ja
Application granted granted Critical
Publication of JP7213924B2 publication Critical patent/JP7213924B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0022Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/222Remote-control arrangements operated by humans
    • G05D1/224Output arrangements on the remote controller, e.g. displays, haptics or speakers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/225Remote-control arrangements operated by off-board computers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/22Command input arrangements
    • G05D1/221Remote-control arrangements
    • G05D1/226Communication links with the remote-control arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)
  • Traffic Control Systems (AREA)

Abstract

【課題】 より直観的にロボットの走行を遠隔制御できるロボット遠隔制御方法及びシステムを提供する。【解決手段】 本発明によるロボット遠隔制御方法は、ロボット100に備えられたカメラから、ロボット100周辺の周辺画像を受信するステップと、前記周辺画像と共に、前記周辺画像に対応する場所情報を含む地図イメージをディスプレイ部330に出力するステップと、前記周辺画像及び前記地図イメージがディスプレイ部330に出力されている状態で、ディスプレイ部330へのユーザ入力に応答して、ロボット100の走行を制御するための制御命令を生成するステップと、ロボット100が前記制御命令に基づいて走行するように、前記制御命令をロボット100に送信するステップとを含むことを特徴とする。【選択図】図1

Description

本発明は、ロボットの制御に関し、より詳細には、ロボットの走行を遠隔制御できるロボット遠隔制御方法及びシステムに関する。
技術が発展するにつれて、様々なサービスデバイスが出現しており、特に、近年は、様々な作業やサービスを行うロボットに関する技術開発が盛んに行われている。
さらに、近年は、人工知能技術やクラウド技術などが発展するにつれて、ロボットの活用度がますます高まっている。
一方、ロボットにより様々な作業やサービスを提供するためには、ロボットを正確に制御することが非常に重要である。ユーザがロボットの周辺で逐一ロボットの制御を行うには現実的な限界があるので、ロボットを遠隔制御する技術の必要性がますます高まっている。
よって、特許文献1(ラップアラウンド画像を用いたロボット遠隔制御のための方法及びそのための装置)においては、ロボットの四方にカメラを備え、ロボット周辺の画像を取得し、それを用いてロボットを遠隔制御する技術について開示している。
ただし、ロボットに備えられたカメラのみでロボットの周辺環境を把握する場合、ロボットが位置する場所に関する情報を正確に把握できないという問題が生じ得る。よって、ロボットの位置情報及びロボットの周辺環境情報をより直観的に提供できる制御システムに対するニーズが依然として存在する。
韓国登録特許第10-1305944号公報
本発明は、ロボットの遠隔制御方法及びシステムを提供するものである。より具体的に、本発明は、より直観的にロボットの走行を遠隔制御できる方法及びシステムを提供するものである。
上記課題を解決するために、本発明によるロボット遠隔制御方法は、ロボットに備えられたカメラから、前記ロボット周辺の周辺画像を受信するステップと、前記周辺画像と共に、前記周辺画像に対応する場所情報を含む地図イメージをディスプレイ部に出力するステップと、前記周辺画像及び前記地図イメージが前記ディスプレイ部に出力されている状態で、前記ディスプレイ部へのユーザ入力に応答して、前記ロボットの走行を制御するための制御命令を生成するステップと、前記ロボットが前記制御命令に基づいて走行するように、前記制御命令を前記ロボットに送信するステップと、を含む、ことを特徴とする。
また、本発明によるロボット遠隔制御システムは、ディスプレイ部と、入力部と、ロボットに備えられたカメラから、前記ロボット周辺の周辺画像を受信する通信部と、前記周辺画像と共に、前記周辺画像に対応する場所情報を含む地図イメージを出力するように、前記ディスプレイ部を制御する制御部とを含み、前記制御部は、前記周辺画像及び前記地図イメージが前記ディスプレイ部に出力されている状態で、前記入力部を介して受信するユーザ入力に応答して、前記ロボットの走行を制御するための制御命令を生成し、前記ロボットが前記制御命令に基づいて走行するために前記制御命令を前記ロボットに送信するように、前記通信部を制御する、ことを特徴とする。
以上のように、本発明によるロボット遠隔制御方法及びシステムは、ロボットから受信する画像と、ロボットが位置する場所に関する情報を含む地図を共に提供することができる。これにより、本発明によるロボット遠隔制御方法及びシステムは、ロボットを遠隔制御する状況で、ロボットを囲む周辺環境情報を総合的に提供できるユーザ環境を提供することができる。よって、ロボットを遠隔制御するユーザは、ロボットを遠隔制御する際に、周辺環境を考慮して、ロボットの制御をより正確に行うことができる。
また、本発明によるロボット遠隔制御方法及びシステムは、ロボットの遠隔制御のためのユーザ入力に基づいて、ロボットの制御を行うと共に、ディスプレイ領域の制御を行うことができるユーザ環境を提供することができる。よって、ロボットを遠隔制御するユーザは、状況に応じて、ロボットの制御及びディスプレイ領域の制御を、1つの制御命令に基づいて行うことにより、作業をより簡単かつ直観的に行うことができる。
本発明によるロボット遠隔制御方法及びシステムを説明するための概念図である。 本発明によるロボット遠隔制御方法及びシステムを説明するための概念図である。 本発明によるロボット遠隔制御方法及びシステムにおける、ロボットで収集される画像及びロボットの現在位置を推定する方法を説明するための概念図である。 本発明によるロボット遠隔制御方法及びシステムにおける、ロボットで収集される画像及びロボットの現在位置を推定する方法を説明するための概念図である。 本発明によるロボット遠隔制御方法を説明するためのフローチャートである。 本発明によるロボット遠隔制御方法及びシステムにおける、ロボットを遠隔制御する方法を説明するための概念図である。 本発明によるロボット遠隔制御方法及びシステムにおける、ロボットを遠隔制御する方法を説明するための概念図である。 本発明によるロボット遠隔制御方法及びシステムにおける、ロボットを遠隔制御する方法を説明するための概念図である。 本発明によるロボット遠隔制御方法及びシステムにおける、ロボットを遠隔制御する方法を説明するための概念図である。 本発明によるロボット遠隔制御方法及びシステムにおける、ロボットを遠隔制御する方法を説明するための概念図である。 本発明によるロボット遠隔制御方法及びシステムにおける、ロボットを遠隔制御する方法を説明するための概念図である。 本発明によるロボット遠隔制御方法及びシステムにおける、ロボットを遠隔制御する方法を説明するための概念図である。 本発明によるロボット遠隔制御方法及びシステムにおける、ロボットを遠隔制御するための制御命令を説明するための概念図である。
以下、添付図面を参照して本明細書に開示される実施形態について詳細に説明するが、図面番号に関係なく、同一又は類似の構成要素には同一又は類似の符号を付し、その説明は省略する。以下の説明で用いる構成要素の接尾辞である「モジュール」及び「部」は、明細書の作成を容易にするために付与又は混用されるものであり、それ自体が有意性や有用性を有するものではない。また、本明細書に開示される実施形態について説明するにあたって、関連する公知技術についての具体的な説明が本明細書に開示される実施形態の要旨を不明確にする恐れがあると判断される場合は、その詳細な説明を省略する。なお、添付図面は本明細書に開示される実施形態を容易に理解できるようにするためのものにすぎず、添付図面により本明細書に開示される技術的思想が限定されるものではなく、本発明の思想及び技術範囲に含まれるあらゆる変更、均等物、又は代替物が本発明に含まれるものと理解されるべきである。
第1、第2などのように序数を含む用語は様々な構成要素を説明するために用いられるが、上記構成要素は、上記用語により限定されるものではない。上記用語は1つの構成要素を他の構成要素と区別する目的でのみ用いられる。
ある構成要素が他の構成要素に「連結」又は「接続」されていると言及された場合は、他の構成要素に直接連結又は接続されていてもよく、中間に、さらに他の構成要素が存在してもよいものと解すべきである。それに対して、ある構成要素が他の構成要素に「直接連結」又は「直接接続」されていると言及された場合は、中間には、さらに他の構成要素が存在しないものと解すべきである。
単数の表現には、特に断らない限り複数の表現が含まれる。
本明細書において、「含む」や「有する」などの用語は、明細書に記載された特徴、数字、ステップ、動作、構成要素、部品、又は、それらの組み合わせが存在することを指定しようとするものであり、1つ又はそれ以上の他の特徴、数字、ステップ、動作、構成要素、部品、又は、それらの組み合わせの存在や付加可能性を予め排除するものではないと理解すべきである。
本発明は、ロボットの周辺環境及びロボットの現在位置をどちらも考慮して、ロボットを遠隔制御することのできる、ロボット遠隔制御方法及びシステムを提供するものである。
また、本発明は、ロボットを制御するためのインタフェースを直観的に制御するためのユーザ環境を提供できるロボット遠隔制御方法及びシステムを提供するものである。
より具体的には、本発明は、ロボットの遠隔制御方法及びシステムを提供するものであり、さらに具体的には、より直観的にロボットの走行を遠隔制御できる方法及びシステムを提供するものである。以下に、添付図面を参照して、ロボットが走行する空間及びそれに関連するロボット遠隔制御システムについて説明する。図1及び図2は、本発明によるロボット遠隔制御方法及びシステムを説明するための概念図である。
図1に示すように、技術が発展するにつれて、ロボットの活用度はますます高まっている。従来のロボットは、特殊な産業分野(例えば、産業自動化関連分野)で活用されていたが、次第に、人間や設備のために有用な作業を行うサービスロボットに変貌している。
このように、様々なサービスを提供するロボットは、与えられたタスクを実行するために、図1に示すような空間10を走行するようにしてよい。ロボットが走行する空間の種類に制限はなく、ロボットは、必要に応じて、室内空間及び室外空間の少なくとも一方を走行するようにしてもよい。例えば、室内空間には、デパート、空港、ホテル、学校、ビル、地下鉄駅、汽車駅、書店など、様々な空間が含まれる。ロボットは、このように、様々な空間に配置され、人間に有用なサービスを提供する。
一方、ロボットを用いて様々なサービスを提供する上で、ロボットを正確に制御することは非常に重要な要素である。よって、本発明は、ロボットに備えられたカメラ及び空間に関する地図情報を用いて、ロボットを遠隔でより正確に制御する方法を提案する。なお、本発明によるロボットは、様々に命名され、例えば、無人移動マシン、自律移動マシン、などと呼ばれる。
図1に示すように、ロボットが位置する空間10にはカメラ20が配置されてよい。空間10に配置されたカメラ20の数は制限されない。同図に示すように、空間10には、複数のカメラ20a、20b、20cが配置されてもよい。空間10に配置されたカメラ20としては、様々な種類を用いることができる。空間10に配置されたカメラ20は、CCTV(closed-circuit television)であってもよい。
図2に示すように、本発明によれば、ロボット遠隔制御システム300は、ロボット100の走行を遠隔制御することができる。
図2に示すように、本発明によるロボット遠隔制御システム300は、通信部310、保存部320、ディスプレイ部330、入力部340、及び制御部350の少なくとも1つを含む。
通信部310は、空間10に配置された様々なデバイスと有線又は無線で通信するように構成される。通信部310は、同図に示すように、ロボット100との通信を行うことができる。通信部310は、ロボット100との通信により、ロボット100に備えられたカメラで撮影される画像を受信するようにしてよい。
また、通信部310は、空間10に配置されたカメラ20との直接的な通信を行うことができる。さらに、通信部310は、カメラ20を制御する画像管制システムとの通信を行うことができる。
さらに、通信部310は、少なくとも1つの外部サーバ200(又は、外部ストレージ)との通信を行うことができる。ここで、外部サーバ200は、同図に示すように、クラウドサーバ210及びデータベース220の少なくとも一方を含むように構成されてよい。一方、外部サーバ200は、制御部350の少なくとも一部の役割を果たすように構成されてもよい。すなわち、データ処理やデータ演算などの実行は、外部サーバ200で行われるようにしてもよく、本発明においては、その方式に特に制限を設けていない。
一方、通信部310は、通信するデバイスの通信規格に準拠して、様々な通信方式をサポートすることができる。
例えば、通信部310は、WLAN(Wireless LAN)、Wi-Fi(Wireless Fidelity)、Wi-Fi Direct(Wireless Fidelity Direct)、DLNA(Digital Living Network Alliance)、WiBro(Wireless Broadband)、WiMAX(World Interoperability for Microwave Access)、HSDPA(High-Speed Downlink Packet Access)、HSUPA(High-Speed Uplink Packet Access)、LTE(Long Term Evolution)、LTE-A(Long Term Evolution-Advanced)、5G(5th Generation Mobile Telecommunication)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、IrDA(Infrared Data Association)、UWB(Ultra Wide Band)、ZigBee、NFC(Near Field Communication)、及びワイヤレスUSB(Wireless Universal Serial Bus)技術のうち少なくとも1つを用いて、空間10の内外に位置するデバイス(クラウドサーバを含む)と通信を行うようにしてよい。
次に、保存部320は、本発明に係る様々な情報を保存するようにしてよい。本発明において、保存部320は、ロボット遠隔制御システム300自体に備えられてもよい。それとは異なり、保存部320の少なくとも一部は、クラウドサーバ210及びデータベース220の少なくとも一方であってもよい。すなわち、保存部320は、本発明によるロボットの遠隔制御のために必要な情報が保存される空間であれば十分であり、物理的な空間の制約はないものと解される。よって、以下では、保存部320、クラウドサーバ210、及びデータベース220を区分せず、全てを保存部320とする。ここで、クラウドサーバ210とは「クラウドストレージ」を意味する。
まず、保存部320には、ロボット100に関する情報を保存することができる。
ロボット100に関する情報は、非常に様々であり、例えば、i)空間10に配置されたロボット100を識別するための識別情報(例えば、シリアル番号、TAG情報、QRコード情報、など)、ii)ロボット100に与えられたタスクに関するタスク情報、iii)ロボット100に設定された走行経路に関する走行経路情報、iv)ロボット100の位置情報、v)ロボット100の状態情報(例えば、電源状態、故障の有無、バッテリ状態、など)、vi)ロボット100に備えられたカメラから受信した画像に関する画像情報、などが挙げられる。
次に、保存部320には、空間10の地図(又は、地図情報)を保存することができる。ここで、地図は、2次元地図及び3次元地図の少なくとも一方であってよい。空間10の地図とは、ロボット100の現在位置を把握し、または、ロボット100の走行経路を設定するのに活用できる地図を意味する。
特に、本発明によるロボット遠隔制御システム300においては、ロボット100から受信する画像に基づいて、ロボット100の位置を把握することができる。そのために、保存部320に保存された空間10の地図は、画像に基づいて位置を推定できるようにするデータで構成されてよい。
ここで、空間10の地図は、事前に、空間10を移動する少なくとも1つのロボットにより、SLAM(Simultaneous Localization and Mapping)に基づいて作成された地図であってもよい。このような空間10の地図は、地図イメージからなるようにしてもよい。
一方、保存部320には、前記列挙された情報の種類以外にも様々な情報を保存することができる。
次に、ディスプレイ部330は、ロボット100に備えられたカメラ及び空間10の地図イメージの少なくとも一方を出力するようにしてよい。ディスプレイ部330は、ロボット100を遠隔管理する管理者のデバイスに備えられたものであり、図2に示すように、遠隔管制室300aに備えられてもよい。また、それとは異なり、ディスプレイ部330は、モバイルデバイスに備えられたディスプレイであってもよい。このように、本発明においては、ディスプレイ部の種類に制限を設けていない。
次に、入力部340は、ユーザ(又は、管理者)からの情報の入力のためのものであり、入力部340は、ユーザ(又は、管理者)とロボット遠隔制御システム300間の媒体であるといえる。より具体的には、入力部340とは、ユーザからロボット100の走行を遠隔制御するための制御命令を受信する入力手段を意味する。
ここで、入力部340の種類に特に制限はなく、入力部340は、機械式(mechanical)入力手段(又はメカニカルキー)及びタッチ式入力手段の少なくとも一方を含む。機械式入力手段としては、例えば、マウス(mouse)、ジョイスティック(joystick)、物理的なボタン、ドームスイッチ(dome switch)、ジョグホイール、ジョグスイッチ、などが挙げられる。タッチ式入力手段は、例えば、ソフトウェア的な処理によりタッチスクリーンに表示される仮想キー(virtual key)、ソフトキー(soft key)、又はビジュアルキー(visual key)から構成されるようにしてよく、前記タッチスクリーン以外の部分に配置されるタッチキー(touch key)から構成されるようにしてもよい。一方、前記仮想キー及び前記ビジュアルキーは、タッチスクリーン上に様々な形状で表示され、例えば、グラフ(graphic)、テキスト(text)、アイコン(icon)、ビデオ(video)、又はそれらの組み合わせから構成されるようにしてもよい。ここで、入力部340がタッチスクリーンを含む場合、ディスプレイ部330は、タッチスクリーンから構成されるようにしてもよい。この場合、ディスプレイ部330は、情報を出力する役割と情報の入力を受ける役割の両方を果たす。
次に、制御部350は、本発明によるロボット遠隔制御システム300の全般的な動作を制御するように構成される。制御部350は、上記構成要素により入力又は出力される信号、データ、情報などを処理し、または、ユーザに適切な情報又は機能を提供又は処理することができる。
特に、制御部350は、ロボット100に備えられたカメラから受信する画像、及び、空間10の地図イメージを用いて、ロボット100を遠隔制御することができる。制御部350は、ロボット100の直観的な遠隔制御のために、ロボット100に備えられたカメラから受信する画像から、空間でのロボット100の位置に関する位置情報を抽出することができる。また、制御部350は、保存部320から、前記抽出されたロボット100の位置情報に対応する地図イメージを抽出することができる。さらに、制御部350は、前記画像及び前記地図イメージがディスプレイ部330に共に出力されるように、ディスプレイ部330を制御することができる。さらに、制御部350は、入力部340を介してディスプレイ部330に入力されるユーザ入力に基づいて、ロボット100の遠隔制御を行うことができる。
以下に、添付図面を参照して、ロボット100から受信する画像に基づいて、ロボット100の現在位置を推定する方法及び地図イメージを特定する方法について、より具体的に説明する。図3及び図4は、本発明によるロボット遠隔制御方法及びシステムにおける、ロボットで収集される画像及びロボットの現在位置を推定する方法を説明するための概念図である。
前述のように、本発明による制御部350は、ロボット100に備えられたカメラ(図示せず)を用いて空間10の画像を受信し、受信した画像からロボットの位置を推定するビジュアルローカリゼーション(Visual Localization)を行うように構成される。ここで、ロボット100に備えられたカメラは、空間10の画像、すなわちロボット100周辺の画像を撮影(又は、検知)するように構成される。以下では、説明の便宜上、ロボット100に備えられたカメラにより取得された画像を「周辺画像」という。
制御部350は、図3の(a)に示すように、ロボット100に備えられたカメラにより周辺画像410を取得するように構成される。また、制御部350は、取得された周辺画像410を用いて、ロボット100の現在位置を推定することができる。
さらに、制御部350は、周辺画像410と保存部320に保存された地図情報とを比較し、図3の(b)に示すように、ロボット100の現在位置に対応する位置情報を抽出することができる。
前述のように、本発明において、空間10の地図は、事前に、空間10を移動する少なくとも1つのロボットにより、SLAMに基づいて作成された地図であってよい。特に、空間10の地図は、画像情報に基づいて生成された地図であってもよい。
すなわち、空間10の地図は、ビジョン(又は、ビジュアル)ベースのSLAM技術により生成された地図であってもよい。
よって、制御部350は、図3の(b)に示すように、ロボット100で取得された周辺画像410の座標情報(例えば、「3階B区域(3,1,1)」、「3階B区域(7,1,1)」)を特定することができる。このように特定された座標情報は、ロボット100の現在位置情報となる。
ここで、制御部350は、ロボット100で取得された周辺画像410とビジョン(又は、ビジュアル)ベースのSLAM技術により生成された地図とを比較することにより、ロボット100の現在位置を推定することができる。この場合、制御部350は、i)周辺画像410と予め生成された地図を構成するイメージとのイメージ比較により、周辺画像410に最も類似したイメージを特定し、ii)特定されたイメージにマッチした位置情報を取得する方式で、ロボット100の位置情報を特定することができる。
このように、制御部350は、図4の(a)に示すように、ロボット100で周辺画像410が取得されると、取得された周辺画像410を用いて、ロボット100の現在位置を特定することができる。前述したように、制御部350は、保存部320に予め保存された地図情報(例えば、「参照マップ」ともいえる)から、周辺画像410に対応する位置情報(例えば、座標情報)を抽出することができる。
また、制御部350は、図4の(b)に示すように、抽出された位置情報に対応する地図イメージ420を特定することができる。本発明において、地図イメージは、2次元イメージ又は3次元イメージであり、ロボット100が位置する空間10を視覚化したイメージからなるようにしてもよい。ここで、地図イメージには、ロボット100で取得された周辺画像410に対応する場所情報が含まれるようにしてもよい。
地図イメージは、様々な形式が可能であり、実際のカメラにより取得された画像から構成されるようにしてもよい。この場合、地図イメージは、空間10に配置されたカメラ20又はロボット100で取得された画像の少なくとも一方を用いて構成してもよい。
それとは異なり、地図イメージは、カメラにより取得された画像ではなく、空間10を所定の倍率で縮小したイメージで構成してもよい。地図イメージは、空間10を構成する実際の全ての事物をそのまま含むのではなく、空間10の一部の情報を含むように構成したイメージであってもよい。ここで、空間10の一部の情報は、ロボット100の走行及び経路を決定するのに必要な情報であり、柱情報、天井情報、壁情報、空間区分情報、家具(空間10に配置された家具)情報、などを含んでもよい。
本発明において、制御部350は、ロボット100の遠隔制御のために、ロボット100自体で取得された周辺画像410だけでなく、ロボット100が位置する空間に対応する地図イメージをディスプレイ部330に共に出力させることができる。よって、本発明においては、ロボット100を遠隔制御する管理者が、ロボット100で取得された周辺画像410だけでなく、ロボット100が位置する空間を考慮して、ロボット100の遠隔制御を行うようにすることができる。
一方、制御部350は、ディスプレイ部330に地図イメージ420を出力する際に、空間10に関する情報をロボット100の周辺画像410とは異なる倍率で提供するように、地図イメージ420の出力倍率を制御することができる。すなわち、制御部350は、空間10に関する情報を周辺画像410より広い画角(視野)で提供するように、地図イメージ420の出力倍率を制御することができる。この場合、ユーザは、ロボット100を遠隔制御する際に、空間10に関する情報をより総合的に考慮することができる。
なお、本発明においては、周辺画像及び地図イメージをディスプレイ部330に共に出力し、入力部340を介して周辺画像及び地図イメージの少なくとも一方に対して入力されるユーザ入力に基づいて、ロボット100を遠隔制御する。ここで、本発明においては、ロボット100を遠隔制御するための制御命令を、ロボット100に対する制御命令としてだけでなく、ディスプレイ部330に対する制御命令としても用いることにより、ユーザ利便性を向上させることができる。以下に、それについて、添付図面を参照してより具体的に説明する。図5は、本発明によるロボット遠隔制御方法を説明するためのフローチャートである。また、図6、図7a、図7b、図7c、図8a、図8b、図9a、図9b、及び図10は、本発明によるロボット遠隔制御方法及びシステムにおける、ロボットを遠隔制御する方法を説明するための概念図である。さらに、図11は、本発明によるロボット遠隔制御方法及びシステムにおける、ロボットを遠隔制御するための制御命令を説明するための概念図である。
まず、本発明によるロボット遠隔制御方法においては、ロボットに備えられたカメラからロボット周辺の周辺画像を受信する過程が行われる(S510)。
制御部350は、通信部310により、ロボット100から周辺画像を受信するようにしてよい。ここで、ロボット100は、遠隔制御の対象となるロボットであってもよい。遠隔制御の対象となるロボット100の特定は、様々に行うことができ、本発明においては、これについて具体的に限定しない。すなわち、制御部350は、様々な方法で遠隔制御の対象となるロボット100の特定が行われると、遠隔制御の対象となるロボット100から周辺画像を受信することができる。
このように、ロボット100から周辺画像を受信すると、制御部350は、受信した周辺画像を用いて、ロボット100の現在位置を推定することができる。制御部350は、ビジュアルローカリゼーションにより、ロボット100の現在位置を特定することができる。制御部350は、周辺画像と保存部320に保存された地図情報とを比較し、図3の(b)に示すように、ロボット100の現在位置に対応する位置情報を抽出することができる。
前述のように、本発明において、空間10の地図は、事前に、空間10を移動する少なくとも1つのロボットにより、SLAMに基づいて作成された地図であってよい。特に、空間10の地図は、画像情報に基づいて生成された地図であってもよい。すなわち、空間10の地図は、ビジョン(又は、ビジュアル)ベースのSLAM技術により生成された地図であってもよい。
制御部350は、ロボット100で取得された周辺画像とビジョン(又は、ビジュアル)ベースのSLAM技術により生成された地図とを比較することにより、ロボット100の現在位置を推定することができる。この場合、制御部350は、i)周辺画像410と予め生成された地図を構成するイメージとのイメージ比較により、周辺画像410に最も類似したイメージを特定し、ii)特定されたイメージにマッチした位置情報を取得する方式で、ロボット100の位置情報を特定することができる。このように、制御部350は、前述した図4の(a)に示すように、ロボット100で周辺画像410が取得されると、取得された周辺画像410を用いて、ロボット100の現在位置を特定することができる。前述のように、制御部350は、保存部320に予め保存された地図情報(例えば、「参照マップ」ともいえる)から、周辺画像410に対応する位置情報(例えば、座標情報)を抽出することができる。
また、制御部350は、前述した図4の(b)に示すように、周辺画像を用いて抽出した位置情報に対応する地図イメージを特定することができる。本発明において、地図イメージは、2次元イメージ又は3次元イメージであり、ロボット100が位置する空間10を視覚化したイメージから構成されるようにしてよい。ここで、地図イメージには、ロボット100で取得された周辺画像410に対応する場所情報が含まれるようにしてもよい。
前述のように、制御部350は、ロボット100で取得された周辺画像に対応する場所情報を含む地図イメージを特定することができる。このような地図イメージは、保存部320に保存されるようにしてよい。
制御部350は、画像情報に対応する座標情報に対応する場所を特定し、当該場所に対応する地図イメージを特定することができる。特定された地図イメージは、空間10の全地図イメージの少なくとも一部であってよい。すなわち、制御部350は、空間10の全地図イメージから、周辺画像に対応する場所を含む部分を抽出し、抽出した部分をロボット100の現在位置に対応する地図イメージとして特定することができる。
このように、ロボット100の現在位置が特定されると、本発明においては、ロボット100で取得された周辺画像と共に、周辺画像に対応する場所情報を含む地図イメージを出力する過程が行われる(S520)。
より具体的には、制御部350は、図6aの(a)及び(b)に示すように、周辺画像610及び地図イメージ620がディスプレイ部330に共に出力されるように、ディスプレイ部330を制御することができる。
図6aの(a)及び(b)に示すように、ディスプレイ部330は、メイン領域Aと、メイン領域Aの少なくとも一部にオーバーラップするサブ領域Bとを含んでもよい。ディスプレイ部330において視覚的な情報が表示される領域を「ディスプレイ領域」ともいう。この場合、ディスプレイ部330のディスプレイ領域は、メイン領域Aと、メイン領域Aの少なくとも一部にオーバーラップするサブ領域Bとを含むといえる。
一方、メイン領域Aにおいてサブ領域Bがオーバーラップする位置は、ユーザ入力に基づいて変更することができる。また、メイン領域A及びサブ領域Bの少なくとも一方の出力の大きさも、ユーザ入力に基づいて変更できることは言うまでもない。
上記の例においては、サブ領域Bがメイン領域A上にオーバーラップする場合について説明したが、本発明は、上記の例に限定されるものではない。例えば、ディスプレイ部330は、複数のディスプレイ領域に分割され、そのうち、いずれか1つにはメイン領域Aが割り当てられ、他の1つにはサブ領域Bが割り当てられるようにしてよい。ここで、メイン領域Aとサブ領域Bとは、重ならないようにしてもよく、少なくとも一部のみ重なるようにしてもよい。本発明においては、メイン領域Aの方がサブ領域Bより大きく形成されてもよい。
以下に、説明の便宜上、メイン領域Aの少なくとも一部にサブ領域Bが重なる場合を例に説明する。ただし、以下に説明される制御及びインタラクションを他の画面構成に同様に適用できることは言うまでもない。
以上で説明したように、ディスプレイ部330は、メイン領域A及びサブ領域Bを含み、本発明においては、ロボット100から受信した周辺画像及び前記周辺画像に対応する場所情報を含む地図イメージのうち、いずれか一方をメイン領域A上に出力し、他方をサブ領域B上に出力することができる。
図6に示すように、制御部350は、メイン領域A及びサブ領域Bのうち、いずれか一方に周辺画像610が出力され、他方に地図イメージ620が出力されるように、ディスプレイ部330を制御することができる。例えば、図6の(a)に示すように、メイン領域Aにロボット100で撮影された周辺画像610が出力される場合、サブ領域Bには周辺画像610に対応する場所情報を含む地図イメージ620が出力されるようにしてよい。これとは逆に、図6の(b)に示すように、メイン領域Aに周辺画像610に対応する場所情報を含む地図イメージ620が出力される場合、サブ領域Bにロボット100で撮影された周辺画像610が出力されるようにしてもよい。
また、ディスプレイ部330のメイン領域A及びサブ領域Bのうち、地図イメージ620が出力される領域には、ロボット100の現在位置を示すグラフィックオブジェクト601がさらに出力されるようにしてよい。すなわち、制御部350は、グラフィックオブジェクト601を用いて、地図イメージ620に対応する空間でロボット100がどこに位置するかに関する情報を表示することにより、ユーザがロボット100の直観的な遠隔制御を行えるようにすることができる。
このように、ディスプレイ部330に出力される地図イメージ620は、ロボット100を示すグラフィックオブジェクト601を含んでよい。ここで、グラフィックオブジェクト601は、地図イメージ620上でロボット100の現在位置に対応する領域に配置される。
一方、グラフィックオブジェクト601は、ロボット100が走行する場合、ロボット100の走行に連動して、地図イメージ620上での出力位置が変更される。制御部350は、ロボット100の現在位置が変更されると、ロボット100の変更される現在位置に応じて、グラフィックオブジェクト601の出力位置が変更されるように、ディスプレイ部330を制御することができる。よって、ユーザは、グラフィックオブジェクト601が地図イメージ620上でどこに位置するかによって、空間10でのロボット100の位置を直観的に把握することができる。一方、制御部350は、ビジュアルローカリゼーションにより、ロボット100が走行する間、受信する画像からロボット100の位置を追跡し続けることができる。
一方、図6を参照して説明したように、周辺画像及び地図イメージがディスプレイ部330に出力されている状態で、ディスプレイ部330へのユーザ入力が受信されると、本発明においては、ユーザ入力に応答して、ロボットの走行を制御するための制御命令を生成する過程が行われる(S530)。また、本発明においては、ロボット100が前記制御命令に基づいて走行するように、前記制御命令を前記ロボットに送信する過程が行われる(S540)。前記制御命令を受信したロボット100は、前記制御命令に基づいて走行が制御される。
より具体的には、前述したように、ユーザ入力は、入力部340を介して行われるようにしてもよい。入力部340は、その種類が様々であり、機械式入力手段(又はメカニカルキー、例えばマウス、ジョイスティック、物理的なボタン、ドームスイッチ、ジョグホイール、ジョグスイッチなど)及びタッチ式入力手段の少なくとも一方を含む。
また、ディスプレイ部330へのユーザ入力は、i)タッチスクリーンで構成されるディスプレイ部330への直接的なタッチによる入力、及び、ii)マウスなどの別の入力手段を媒体としてディスプレイ部330に加えられる入力のうち少なくとも1つを含む。
例えば、マウスなどの入力手段を介してユーザ入力が受信される場合、ディスプレイ部330には、図7の(a)~(d)に示すように、ユーザ入力に対応してディスプレイ部330上で移動するグラフィックオブジェクト(例えば、カーソルイメージ701)が出力される。ユーザは、このようなカーソルイメージ701により、入力部340を介したユーザ入力がディスプレイ部330のどの領域(又は、地点)に加えられているかを把握することができる。一方、タッチスクリーンを介してユーザ入力が受信される場合も、カーソルイメージ701などのグラフィックオブジェクトが出力されるようにしてもよいことは言うまでもない。以下に、ユーザ入力を受ける具体的な入力手段を限定せずに説明する。すなわち、以下では、タッチスクリーンや他の入力手段を介してディスプレイ部330に加えられるユーザ入力を、「ディスプレイ部へのユーザ入力」という。
制御部350は、図6を参照して説明したように、周辺画像及び地図イメージがディスプレイ部330に出力されている状態で、ディスプレイ部330に対するユーザ入力が受信されると、ユーザ入力に応答して、ロボットの走行を制御するための制御命令を生成することができる。例えば、制御命令は、ロボットの走行方向、走行速度、走行中であるか否か、走行距離、走行経路、などのように、ロボットの走行に関する様々な命令を含む。ロボット100は、ロボット遠隔制御システム300を介して受信した制御命令に基づいて、走行することができる。
制御部350は、入力部340を介してディスプレイ部330に入力されるユーザ入力に基づいて、ロボット100の走行に関する制御命令を生成することができる。この場合、制御部350は、入力部340を介したユーザ入力がディスプレイ部330のどの領域に加えられたかによって、ディスプレイ部330の制御を共に行うことができる。
すなわち、制御部350は、ディスプレイ部330へのユーザ入力を、ロボット100に対する制御命令としてだけでなく、ディスプレイ部330に対する制御命令として処理することもできる。
このように、制御部350は、入力部340を介したユーザ入力がディスプレイ部330のどの領域に加えられたかによって、異なる制御(又は、異なるデータ処理)を行うことができる。
より具体的に、制御部350は、ユーザ入力がディスプレイ部330のメイン領域A及びサブ領域Bのうちどちらの領域に加えられたかによって、ロボット100の走行を制御するための前記制御命令を生成すると共に、前記ディスプレイ領域の制御を行うことができる。
前述のように、メイン領域Aの方がサブ領域Bより大きく形成されてよいが、ユーザは、サブ領域Bに表示された情報をより大きくして見たいことがある。この場合、メイン領域A及びサブ領域Bに出力されている視覚的な情報を互いに切り替えなければならない。本発明においては、メイン領域A及びサブ領域Bに出力されている情報を互いに切り替えるための制御命令をさらに入力しなければならないユーザの不便を解消するために、ロボット100を制御するためのユーザ入力を、ディスプレイ部330の制御にも活用することができる。
制御部350は、図7の(b)及び(d)に示すように、ユーザ入力がメイン領域A及びサブ領域Bのうちサブ領域Bに対して加えられた場合、メイン領域A及びサブ領域Bに出力されている情報を互いに切り替えるための制御命令が入力されたと判断することができる。すなわち、制御部350は、図7の(b)及び(d)に示すように、ユーザ入力がサブ領域Bに対して加えられたイベントを、「メイン領域A及びサブ領域Bに出力されている情報を互いに切り替える」ための制御命令として処理することができる。
よって、図7の(b)及び(d)に示すように、ユーザ入力がサブ領域Bに対して加えられると、制御部350は、ロボット100の走行を制御するための制御命令を生成すると共に、ディスプレイ部330のディスプレイ領域(例えば、メイン領域A及びサブ領域B)に関する制御を行うことができる。
これとは逆に、図7の(a)及び(c)に示すように、ユーザ入力がメイン領域Aに対して加えられると、制御部350は、ディスプレイ部330のディスプレイ領域(例えば、メイン領域A及びサブ領域B)に関する制御を行うことなく、ロボット100の走行を制御するための制御命令のみを生成することができる。
具体的な例として、図8aの(a)に示すように、ディスプレイ部330のメイン領域Aにロボット100で撮影された周辺画像810が出力され、ディスプレイ部330のサブ領域Bにロボット100の位置情報に対応する場所の地図イメージ820が出力されているとする。このように、メイン領域A及びサブ領域Bにそれぞれ周辺画像810及び地図イメージ820が出力されている状態で、入力部340を介したユーザ入力がメイン領域Aに対して加えられると、制御部350は、前記ユーザ入力に応答して、前記ユーザ入力に対応するロボット100の走行に関する制御命令を生成することができる。例えば、前記ユーザ入力がロボット100を一方向(802aから802への方向)に前進走行させる制御命令である場合、ロボット100は、前記制御命令に基づいて前記一方向に走行することができる。その結果、図8aの(b)に示すように、メイン領域Aには、ロボット100が前記制御命令に基づいて走行する前の周辺画像810(図8aの(a)参照)とは異なる周辺画像810’が出力される。すなわち、制御部350は、ロボット100からリアルタイムで、又は、所定の時間間隔で画像を受信し、最も新しく受信した周辺画像をメイン領域Aに出力することができる。
一方、ロボット100の走行を制御するためのユーザ入力は、入力部340を介してディスプレイ部330に加えられるドラッグ入力であってよい。制御部350は、図8aの(a)に示すように、カーソルイメージ801a、801を一方向(802aから802への方向)にドラッグするユーザ入力に基づいて、ロボット100の走行を制御するための制御命令を生成することができる。
また、ロボット100が前記制御命令に基づいて走行することにより、ロボット100の現在位置が変更されると、図8aの(b)に示すように、サブ領域Bに出力された地図イメージ820に含まれるロボット100の現在位置を示すグラフィックオブジェクト803aの出力位置も変更される。一方、図示していないが、地図イメージに含まれる場所情報は、ロボット100の走行に連動して少なくとも一部を変更することができる。すなわち、制御部350は、ロボット100の現在位置を基準として、所定の範囲内の場所情報が地図イメージ820に含まれるように、地図イメージをリアルタイムで、又は、所定の時間間隔でアップデートすることができる。
制御部350は、図8aに示すように、ユーザ入力がメイン領域Aに対して加えられると、ロボット100の走行を制御するための制御命令のみを生成することができる。
次に、上記の例とは異なる場合について説明する。図8bの(a)に示すように、ディスプレイ部330のメイン領域Aにロボット100で撮影された周辺画像810が出力され、ディスプレイ部330のサブ領域Bにロボット100の位置情報に対応する場所の地図イメージ820が出力されるとする。このようにメイン領域A及びサブ領域Bにそれぞれ周辺画像810及び地図イメージ820が出力されている状態で、入力部340を介したユーザ入力がサブ領域Bに対して加えられると、制御部350は、前記ユーザ入力に応答して、前記ユーザ入力に対応するロボット100の走行に関する制御命令を生成することができる。例えば、前記ユーザ入力がロボット100を一方向に前進走行させる制御命令である場合、ロボット100は、前記制御命令に基づいて、前記一方向に走行することができる。
また、制御部350は、図8bの(a)に示すように、ユーザ入力がサブ領域Bに対して加えられたことに応答して、i)ロボット100の走行を制御するための制御命令を生成すると共に、図8bの(a)及び(b)に示すように、ii)サブ領域Bに出力されていた地図イメージ820がメイン領域Aに出力され、iii)メイン領域Aに出力されていた周辺画像810がサブ領域Bに出力されるように、ディスプレイ部330を制御することができる。
すなわち、制御部350は、ユーザ入力がサブ領域Bに対して加えられると、メイン領域A及びサブ領域Bに出力されている視覚的な情報を互いに切り替えることができる。
一方、前述のように、ロボット100の走行を制御するためのユーザ入力は、入力部340を介してディスプレイ部330に加えられるドラッグ入力であってよい。制御部350は、図8bの(a)に示すように、カーソルイメージ801a、801を一方向(803aから803への方向)にドラッグするユーザ入力に基づいて、ロボット100の走行を制御するための制御命令を生成することができる。
このようにして、ロボット100が前記制御命令に基づいて走行することにより、ロボット100の現在位置が変更されると、図8bの(b)に示すように、メイン領域Aに出力された地図イメージ820に含まれるロボット100の現在位置を示すグラフィックオブジェクト803bの出力位置も変更される(ロボット100が走行する前のグラフィックオブジェクト803aの出力位置を参照のこと)。このように、制御部350は、ユーザ入力がサブ領域Bに対して加えられると、ロボット100の走行を制御するための制御命令を生成すると共に、ディスプレイ部330のディスプレイ領域(例えば、メイン領域A及びサブ領域B)に関する制御を行うことができる。よって、ユーザは、ロボット100の走行を制御中に、メイン領域Aとサブ領域Bとの画面切り替えが必要であれば、ユーザ入力を加える領域を選択することにより、簡単に画面切り替えを行うことができる。
以上、メイン領域Aに周辺画像が出力された状態でメイン領域Aとサブ領域Bとの画面切り替えを行う方法について説明した。以下、メイン領域Aに地図イメージが出力された状態でメイン領域Aとサブ領域Bとの画面切り替えを行う方法について説明する。
図9aの(a)に示すように、ディスプレイ部330のメイン領域Aには、ロボット100の位置情報に対応する場所の地図イメージ920が出力され、ディスプレイ部330のサブ領域Bには、ロボット100で撮影された周辺画像910が出力されている。このようにメイン領域A及びサブ領域Bにそれぞれ地図イメージ920及び周辺画像910が出力されている状態で、入力部340を介したユーザ入力がメイン領域Aに対して加えられると、制御部350は、前記ユーザ入力に応答して、前記ユーザ入力に対応するロボット100の走行に関する制御命令を生成することができる。例えば、前記ユーザ入力がロボット100を一方向(902aから902への方向)に前進走行させる制御命令である場合、ロボット100は、前記制御命令に基づいて、前記一方向に走行することができる。ロボット100が前記制御命令に基づいて走行することにより、ロボット100の現在位置が変更されると、図9aの(b)に示すように、メイン領域Aに出力された地図イメージ920に含まれるロボット100の現在位置を示すグラフィックオブジェクト902(図9aの(a)の902aを参照のこと)の出力位置も変更される。一方、図示していないが、地図イメージに含まれる場所情報は、ロボット100の走行に連動して、少なくとも一部を変更することができる。すなわち、制御部350は、ロボット100の現在位置を基準として、所定の範囲内の場所情報が地図イメージ920に含まれるように、地図イメージをリアルタイムで、又は、所定の時間間隔でアップデートすることができる。
制御部350は、図9の(a)に示すように、ユーザ入力がメイン領域Aに対して加えられると、ロボット100の走行を制御するための制御命令のみを生成することができる。すなわち、この場合、メイン領域A及びサブ領域Bに出力される情報の種類は、変更されず、ユーザ入力が行われる前と同じである。
また、図9aの(b)に示すように、サブ領域Bには、ロボット100が前記制御命令に基づいて走行する前の周辺画像910(図9aの(a)を参照のこと)とは異なる周辺画像910’が出力される。すなわち、制御部350は、ロボット100からリアルタイムで、又は、所定の時間間隔で画像を受信し、最も新しく受信した周辺画像をサブ領域Bに出力することができる。一方、前述のように、ロボット100の走行を制御するためのユーザ入力は、入力部340を介してディスプレイ部330に加えられるドラッグ入力であってもよい。
次に、上記の例とは異なる場合について説明する。図9bの(a)に示すように、ディスプレイ部330のメイン領域Aには、ロボット100の位置情報に対応する場所の地図イメージ920が出力され、ディスプレイ部330のサブ領域Bには、ロボット100で撮影された周辺画像910が出力されている。このようにメイン領域A及びサブ領域Bにそれぞれ地図イメージ920及び周辺画像910が出力されている状態で、入力部340を介したユーザ入力がサブ領域Bに対して加えられると、制御部350は、前記ユーザ入力に応答して、前記ユーザ入力に対応するロボット100の走行に関する制御命令を生成することができる。例えば、前記ユーザ入力がロボット100を一方向に前進走行させる制御命令である場合、ロボット100は、前記制御命令に基づいて、前記一方向に走行することができる。
また、制御部350は、図9bの(a)に示すように、ユーザ入力がサブ領域Bに対して加えられたことに応答して、i)ロボット100の走行を制御するための制御命令を生成すると共に、図9bの(a)及び(b)に示すように、ii)サブ領域Bに出力されていた周辺画像910がメイン領域Aに出力され、iii)メイン領域Aに出力されていた地図イメージ920がサブ領域Bに出力されるように、ディスプレイ部330を制御することができる。
すなわち、制御部350は、ユーザ入力がサブ領域Bに対して加えられると、メイン領域A及びサブ領域Bに出力されている視覚的な情報を互いに切り替えることができる。一方、前述のように、ロボット100の走行を制御するためのユーザ入力は、入力部340を介してディスプレイ部330に加えられるドラッグ入力であってもよい。
制御部350は、図9bの(a)に示すように、カーソルイメージ901a、901を一方向(903aから903への方向)にドラッグするユーザ入力に基づいて、ロボット100の走行を制御するための制御命令を生成することができる。
このようにして、ロボット100が前記制御命令に基づいて走行することにより、ロボット100の現在位置が変更されると、地図イメージ920に含まれるロボット100の現在位置を示すグラフィックオブジェクト902’の出力位置も変更される(ロボット100が走行する前のグラフィックオブジェクト902の出力位置を参照のこと)。このように、制御部350は、ユーザ入力がサブ領域Bに対して加えられると、ロボット100の走行を制御するための制御命令を生成すると共に、ディスプレイ部330のディスプレイ領域(例えば、メイン領域A及びサブ領域B)に関する制御を行うことができる。
このように、本発明においては、ロボット遠隔制御システム300のディスプレイ部330へのユーザ入力に基づいて、ロボットの走行を遠隔制御すると共に、ディスプレイ部330の制御を行うことができる。一方、制御部350は、ユーザにロボット100の走行に関する情報を提供するために、図10に示すように、ロボット100の走行に関するガイド情報1030をディスプレイ部330に出力することができる。ガイド情報1030は、ロボット100の走行経路及び走行速度の少なくとも一方に基づいて、視覚的な形状が異なるようにしてもよい。ガイド情報1030は、同図に示すように、ロボット100から受信した周辺画像1010にオーバーラップして表示されるようにしてよい。
それとは異なり、制御部350は、メイン領域Aにガイド情報1030が表示されるようにしてもよい。この場合、メイン領域Aには、周辺画像及び地図イメージのいずれか一方が出力される。ガイド情報1030により、ユーザはロボットの遠隔制御をより容易に行うことができる。
なお、本発明において、ディスプレイ部330に加えられるユーザ入力は、入力部340を介して行われるようにしてもよい。ここで、制御部350は、ユーザ入力の属性によって、ロボット100の走行に関する異なる制御命令を実行することができる。すなわち、ロボット100の走行属性は、ユーザ入力の属性によって異なる。例えば、ユーザ入力が、入力部340を用いてカーソルイメージ(例えば、図8aの(a)の符号801を参照のこと)をドラッグするドラッグ入力である場合、制御部350は、前記ユーザ入力に応じて移動するカーソルイメージ801のドラッグの程度及びドラッグの方向に基づいて、ロボット100の走行属性を決定することができる。
ここで、ロボット100の走行属性は、ロボット100の走行方向(又は、ロボット100の移動方向)、ロボット100の走行速度(又は、ロボット100の移動速度)、走行中であるか否か、走行経路、及び、ロボット100の走行距離(又は、ロボット100の移動距離)のうち1つ以上を含んでよい。
例えば、制御部350は、前記ユーザ入力に応じてカーソルイメージ801がドラッグされる速度に基づいて、ロボット100の走行速度を制御することができる。
図11に示すように、制御部350は、ユーザ入力の属性とロボット100の走行属性とをマッチングさせたマッチング情報を含んでよい。また、ユーザ入力の入力方式や入力特徴などに基づいて、ロボット100の走行を制御するための様々な制御命令を生成することができる。図11に示すマッチング情報は、一例であり、場合によって様々に変化する。例えば、ユーザは、「ドラッグ」という入力方式の様々な入力属性(又は、入力特徴)を変化させることにより、ロボット100の走行に関する様々な制御命令を出すことができる。例えば、カーソルイメージ801のドラッグ長さが長くなるほど、制御部350は、ロボット100の移動距離が長くなるように制御することができる。このように、本発明においては、ディスプレイ部330への直観的なユーザ入力に基づいて、ロボット100の走行を制御すると共に、ディスプレイ部330の画面切り替えを行うことにより、ロボット100を遠隔制御するためのユーザ利便性を最大化することができる。
一方、上記の説明においては、ロボット100の位置推定が制御部350により行われる例について説明したが、本発明は、これに限定されるものではない。すなわち、ロボット100の位置推定は、ロボット100自体で行われるようにしてもよい。すなわち、ロボット100は、ロボット100自体で受信する画像に基づいて、上記方式で現在位置を推定することができる。また、ロボット100は、推定された位置情報を制御部350に送信することができる。この場合、制御部350は、ロボット100から受信する位置情報に基づいて、前述した一連の制御を行うことができる。
前述のように、本発明によるロボット遠隔制御方法及びシステムは、ロボットから受信する画像と、ロボットが位置する場所に関する情報を含む地図を共に提供することができる。これにより、本発明によるロボット遠隔制御方法及びシステムは、ロボットを遠隔制御する状況で、ロボットを囲む周辺環境情報を総合的に提供できるユーザ環境を提供することができる。よって、ロボットを遠隔制御するユーザは、ロボットを遠隔制御する際に、周辺環境を考慮して、ロボットの制御をより正確に行うことができる。
また、本発明によるロボット遠隔制御方法及びシステムは、ロボットの遠隔制御のためのユーザ入力に基づいて、ロボットの制御を行うと共に、ディスプレイ領域の制御を行うことができるユーザ環境を提供することができる。よって、ロボットを遠隔制御するユーザは、状況に応じて、ロボットの制御及びディスプレイ領域の制御を1つの制御命令に基づいて行うことにより、作業をより簡単かつ直観的に行うことができる。
一方、前述した本発明は、コンピュータで1つ以上のプロセスにより実行され、コンピュータ可読媒体に保存できるプログラムとして実現することができる。
また、前述した本発明は、プログラム記録媒体にコンピュータ可読コード又はコマンドとして実現することができる。すなわち、本発明は、プログラムの形態で提供することができる。
一方、コンピュータ可読媒体は、コンピュータシステムにより読み取り可能なデータが記録されるあらゆる種類の記録装置を含む。コンピュータ可読媒体の例としては、HDD(Hard Disk Drive)、SSD(Solid State Disk)、SDD(Silicon Disk Drive)、ROM、RAM、CD-ROM、磁気テープ、フロッピーディスク、光データ記憶装置、などが挙げられる。
また、コンピュータ可読媒体は、ストレージを含み、電子機器が通信によりアクセスできるサーバ又はクラウドストレージであり得る。この場合、コンピュータは、有線又は無線通信により、サーバ又はクラウドストレージから本発明によるプログラムをダウンロードすることができる。
さらに、本発明において、前述したコンピュータは、プロセッサ、すなわち中央処理装置(Central Processing Unit、CPU)が搭載された電子機器であり、その種類は特に限定されない。
一方、本発明の詳細な説明は例示的なものであり、あらゆる面で制限的に解釈されてはならない。本発明の範囲は、添付の特許請求の範囲の合理的解釈により定められるべきであり、本発明の等価的範囲内でのあらゆる変更が本発明の範囲に含まれる。
10 空間
20(20a、20b、20c) カメラ
100 ロボット
300 ロボット遠隔制御システム
310 通信部
320 保存部
330 ディスプレイ部
340 入力部
350 制御部

Claims (11)

  1. ロボットの走行を遠隔制御する方法であって、
    前記ロボットに備えられたカメラから、前記ロボット周辺の周辺画像を受信するステップと、
    前記周辺画像と共に、前記周辺画像に対応する場所情報を含む地図イメージをディスプレイ部に出力するステップと、
    前記周辺画像及び前記地図イメージが前記ディスプレイ部に出力されている状態で、前記ディスプレイ部に対するユーザ入力に応答して、前記ロボットの走行を制御するための制御命令を生成するステップと、
    前記ロボットが前記制御命令に基づいて走行するように、前記制御命令を、前記ロボットに送信するステップと、を含む、
    ことを特徴とする、方法。
  2. 前記ディスプレイ部のディスプレイ領域は、メイン領域、および、前記メイン領域の少なくとも一部にオーバーラップするサブ領域、を含み、
    前記周辺画像及び前記地図イメージのいずれか一方は、前記メイン領域に出力され、他方は、前記サブ領域に出力される、
    ことを特徴とする、請求項1に記載の方法。
  3. 前記制御命令を生成するステップにおいて、
    前記ユーザ入力が前記メイン領域及び前記サブ領域のうちどちらの領域に加えられたかによって、前記ロボットの走行を制御するための前記制御命令を生成すると共に、前記ディスプレイ領域の制御を行う、
    ことを特徴とする、請求項2に記載の方法。
  4. 前記制御命令を生成するステップにおいて、
    前記ユーザ入力が前記サブ領域に加えられる場合に、前記ロボットの走行を制御するための前記制御命令を生成すると共に、前記ディスプレイ領域の制御を行い、
    前記ユーザ入力が前記メイン領域に加えられる場合に、前記ディスプレイ領域の制御を行うことなく、前記ロボットの走行を制御するための前記制御命令を生成する、
    ことを特徴とする、請求項3に記載の方法。
  5. 前記ユーザ入力が前記サブ領域に加えられる場合に、 前記メイン領域及び前記サブ領域にそれぞれ出力されていた視覚的な情報が互いに切り替えられる、
    ことを特徴とする、請求項4に記載の方法。
  6. 前記メイン領域に前記周辺画像が出力され、前記サブ領域に前記地図イメージが出力されている状態で、前記ユーザ入力が前記サブ領域に加えられた場合には、
    前記制御命令を生成するステップにおいて、
    前記ユーザ入力に応答して、前記ロボットの走行を制御するための前記制御命令を生成すると共に、前記サブ領域に出力されていた前記地図イメージを前記メイン領域に出力し、前記メイン領域に出力されていた前記周辺画像を前記サブ領域に出力する、
    ことを特徴とする、請求項5に記載の方法。
  7. 前記地図イメージは、前記ロボットを示すグラフィックオブジェクトを含み、
    前記グラフィックオブジェクトは、前記地図イメージ上で前記ロボットの現在位置に対応する領域に配置されている、
    ことを特徴とする、請求項1~6のいずれか一項に記載の方法。
  8. 前記ロボットが前記制御命令に基づいて走行する場合に、前記ロボットの走行に連動して、前記地図イメージ上での前記グラフィックオブジェクトの出力位置が変更される、
    ことを特徴とする、請求項7に記載の方法。
  9. 前記ディスプレイ部には、前記ユーザ入力に対応して前記ディスプレイ部上で移動するカーソルイメージが出力され、
    前記ロボットの走行属性は、前記ユーザ入力に応じて移動する前記カーソルイメージのドラッグの程度及びドラッグの方向に基づいて決定される、
    ことを特徴とする、請求項1~8のいずれか一項に記載の方法。
  10. 前記ロボットの走行属性は、前記ロボットの移動方向、移動速度、及び移動距離のうち少なくとも1つを含み、
    前記ロボットの移動速度は、前記ユーザ入力に応じて前記カーソルイメージがドラッグされる速度に基づいて決定される、
    ことを特徴とする、請求項9に記載の方法。
  11. ロボット遠隔制御システムであって、
    ディスプレイ部と、
    入力部と、
    ロボットに備えられたカメラから、前記ロボット周辺の周辺画像を受信する通信部と、
    前記周辺画像と共に、前記周辺画像に対応する場所情報を含む地図イメージを出力するように、前記ディスプレイ部を制御する制御部と、を含み、
    前記制御部は、
    前記周辺画像及び前記地図イメージが前記ディスプレイ部に出力されている状態で、前記入力部を介して受信するユーザ入力に応答して、前記ロボットの走行を制御するための制御命令を生成し、
    前記ロボットが前記制御命令に基づいて走行するために前記制御命令を前記ロボットに送信するように、前記通信部を制御する、
    ことを特徴とする、システム。
JP2021122299A 2020-07-29 2021-07-27 ロボット遠隔制御方法及びシステム Active JP7213924B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0094178 2020-07-29
KR1020200094178A KR102372563B1 (ko) 2020-07-29 2020-07-29 로봇 원격 제어 방법 및 시스템

Publications (2)

Publication Number Publication Date
JP2022027569A true JP2022027569A (ja) 2022-02-10
JP7213924B2 JP7213924B2 (ja) 2023-01-27

Family

ID=77042702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021122299A Active JP7213924B2 (ja) 2020-07-29 2021-07-27 ロボット遠隔制御方法及びシステム

Country Status (4)

Country Link
US (1) US12001205B2 (ja)
EP (1) EP3945388B1 (ja)
JP (1) JP7213924B2 (ja)
KR (2) KR102372563B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116922387A (zh) * 2023-07-31 2023-10-24 重庆越千创新科技有限公司 一种摄影机器人的实时控制方法及系统

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230144380A (ko) * 2022-04-07 2023-10-16 네이버랩스 주식회사 로봇 친화형 건물, 로봇 운영 모니터링 방법 및 시스템
WO2024111680A1 (ko) * 2022-11-21 2024-05-30 엘지전자 주식회사 로봇, 로봇의 제어 시스템 및 로봇의 제어 방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149315A (ja) * 1997-11-19 1999-06-02 Mitsubishi Heavy Ind Ltd ロボット制御システム
JP2002084531A (ja) * 2000-09-08 2002-03-22 Nippon Telegr & Teleph Corp <Ntt> 遠隔操縦移動型監視ロボットシステム
JP2007221191A (ja) * 2006-02-14 2007-08-30 Hitachi Ltd 監視システム、監視方法、及び、監視プログラム
JP2010128799A (ja) * 2008-11-27 2010-06-10 Mitsubishi Electric Corp 複合メディア合成装置及び複合メディア表示システム及び複合メディア合成方法及び複合メディア合成プログラム
JP2014016858A (ja) * 2012-07-10 2014-01-30 Ihi Aerospace Co Ltd 無人移動体システム
JP2014503376A (ja) * 2011-01-28 2014-02-13 インタッチ テクノロジーズ インコーポレーション モバイルテレプレゼンスロボットとのインタフェーシング
JP2017003866A (ja) * 2015-06-12 2017-01-05 シャープ株式会社 移動体システム及び制御装置
JP2017211893A (ja) * 2016-05-27 2017-11-30 国立研究開発法人農業・食品産業技術総合研究機構 移動車両の走行制御装置
JP2019077528A (ja) * 2017-10-23 2019-05-23 株式会社豊田自動織機 産業車両用遠隔操作システム、遠隔操作装置、産業車両用遠隔操作プログラム、産業車両用遠隔操作方法及び産業車両

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8355818B2 (en) * 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
US9014848B2 (en) * 2010-05-20 2015-04-21 Irobot Corporation Mobile robot system
CA2928262C (en) * 2010-12-30 2018-06-26 Irobot Corporation Mobile robot system
KR101378883B1 (ko) * 2011-09-07 2014-03-28 엘지전자 주식회사 로봇 청소기, 단말 장치, 및 로봇 청소기의 원격 제어 시스템과 방법
KR101305944B1 (ko) 2011-12-27 2013-09-12 전자부품연구원 랩어라운드 영상을 이용한 로봇 원격 제어를 위한 방법 및 이를 위한 장치
KR101392679B1 (ko) * 2012-10-12 2014-05-21 한국과학기술원 드래그 제스처를 이용한 원격 제어 방법 및 장치
WO2015017691A1 (en) * 2013-08-02 2015-02-05 Irobot Corporation Time-dependent navigation of telepresence robots

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149315A (ja) * 1997-11-19 1999-06-02 Mitsubishi Heavy Ind Ltd ロボット制御システム
JP2002084531A (ja) * 2000-09-08 2002-03-22 Nippon Telegr & Teleph Corp <Ntt> 遠隔操縦移動型監視ロボットシステム
JP2007221191A (ja) * 2006-02-14 2007-08-30 Hitachi Ltd 監視システム、監視方法、及び、監視プログラム
JP2010128799A (ja) * 2008-11-27 2010-06-10 Mitsubishi Electric Corp 複合メディア合成装置及び複合メディア表示システム及び複合メディア合成方法及び複合メディア合成プログラム
JP2014503376A (ja) * 2011-01-28 2014-02-13 インタッチ テクノロジーズ インコーポレーション モバイルテレプレゼンスロボットとのインタフェーシング
JP2014016858A (ja) * 2012-07-10 2014-01-30 Ihi Aerospace Co Ltd 無人移動体システム
JP2017003866A (ja) * 2015-06-12 2017-01-05 シャープ株式会社 移動体システム及び制御装置
JP2017211893A (ja) * 2016-05-27 2017-11-30 国立研究開発法人農業・食品産業技術総合研究機構 移動車両の走行制御装置
JP2019077528A (ja) * 2017-10-23 2019-05-23 株式会社豊田自動織機 産業車両用遠隔操作システム、遠隔操作装置、産業車両用遠隔操作プログラム、産業車両用遠隔操作方法及び産業車両

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116922387A (zh) * 2023-07-31 2023-10-24 重庆越千创新科技有限公司 一种摄影机器人的实时控制方法及系统
CN116922387B (zh) * 2023-07-31 2024-02-20 重庆越千创新科技有限公司 一种摄影机器人的实时控制方法及系统

Also Published As

Publication number Publication date
KR20220014509A (ko) 2022-02-07
JP7213924B2 (ja) 2023-01-27
KR102462636B1 (ko) 2022-11-03
US12001205B2 (en) 2024-06-04
US20220035370A1 (en) 2022-02-03
EP3945388C0 (en) 2023-07-05
KR20220014810A (ko) 2022-02-07
KR102372563B1 (ko) 2022-03-10
EP3945388B1 (en) 2023-07-05
EP3945388A1 (en) 2022-02-02

Similar Documents

Publication Publication Date Title
JP2022027569A (ja) ロボット遠隔制御方法及びシステム
JP7199480B2 (ja) ロボット管制方法及びシステム
US10612934B2 (en) System and methods for robotic autonomous motion planning and navigation
KR102329067B1 (ko) 원격 제어 가능 로봇에 로봇 작동 제한사항을 제공하는 방법 및 시스템
KR102370873B1 (ko) 로봇 원격 제어 방법 및 시스템
KR102671223B1 (ko) 맵 생성 방법, 이를 이용한 로봇 원격 제어 방법 및 시스템
KR102484770B1 (ko) 로봇의 통신 장애 복구 방법 및 시스템
US20240045432A1 (en) Method and system for remote control of robot, and building having elevators for robots
KR102489723B1 (ko) 로봇 원격 제어 방법 및 시스템
JP2022040060A (ja) ロボット管制方法及びシステム
KR102513728B1 (ko) 로봇 원격 제어 방법 및 시스템
US20240004399A1 (en) Method and system for remotely controlling robots, and building having traveling robots flexibly responding to obstacles
KR102315362B1 (ko) 로봇 평가 방법 및 시스템
KR102462635B1 (ko) 실내 공간을 주행하는 로봇의 동작을 평가하는 건물
KR102404098B1 (ko) 빌딩 내 층별 기계 설비 관리를 위한 인도어 네비게이션 제공 방법 및 이를 이용한 시스템
KR102494840B1 (ko) 네트워크 장애 상황에 강인한 로봇이 주행하는 건물
KR20240093425A (ko) 맵 생성 방법, 이를 이용한 로봇 원격 제어 방법 및 시스템
KR20230144380A (ko) 로봇 친화형 건물, 로봇 운영 모니터링 방법 및 시스템
JP2022040020A (ja) ロボット制御方法及びシステム
KR20230171826A (ko) 로봇 친화형 건물, 로봇 운용을 위한 맵 생성 방법 및 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230117

R150 Certificate of patent or registration of utility model

Ref document number: 7213924

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150