JP7295175B2 - ロボット制御方法及びシステム - Google Patents

ロボット制御方法及びシステム Download PDF

Info

Publication number
JP7295175B2
JP7295175B2 JP2021133894A JP2021133894A JP7295175B2 JP 7295175 B2 JP7295175 B2 JP 7295175B2 JP 2021133894 A JP2021133894 A JP 2021133894A JP 2021133894 A JP2021133894 A JP 2021133894A JP 7295175 B2 JP7295175 B2 JP 7295175B2
Authority
JP
Japan
Prior art keywords
robot
task
target user
information
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021133894A
Other languages
English (en)
Other versions
JP2022040020A (ja
Inventor
セジン チャ
ガヒョン キム
Original Assignee
ネイバーラボス コーポレーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ネイバーラボス コーポレーション filed Critical ネイバーラボス コーポレーション
Publication of JP2022040020A publication Critical patent/JP2022040020A/ja
Application granted granted Critical
Publication of JP7295175B2 publication Critical patent/JP7295175B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manipulator (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、ロボットの制御に関する。より詳細には、ロボットに与えられたタスクを効率的に管理できるロボット制御方法及びシステムに関する。
技術が発展するにつれて、様々なサービスデバイスが出現している。特に、近年では、様々な作業やサービスを行うロボットに関する技術開発が盛んに行われている。
さらに、近年は、人工知能技術やクラウド技術などが発展するにつれて、ロボットの活用度がますます高まっている。
近年、ロボットが人間の業務や作業を代替しており、特に、ロボットが直接人間を対象にサービスを提供する方法が盛んに研究されている。一方、ロボットが様々な作業やサービスを提供するためには、ロボットを正確かつ効率的に制御することが非常に重要である。
例えば、特許文献1(ビル管理ロボット及びそれを用いたサービス提供方法)には、ロボットがCCTV(closed-circuit television)画像を用いてデータベース(database:DB)に登録されたユーザを認識し、認識したユーザに基づいてサービスを提供する方法が開示されている。このように、ロボットがユーザにサービスを提供する上で、より効率的にサービスを提供するための技術開発及び研究が盛んに行われている。
一方、ロボットをより効率的に運用して、より意味のあるサービスをユーザに提供するために、ロボットがユーザの状況を考慮してより柔軟にサービスを提供する方法に関するニーズがある。
韓国公開特許第10-2019-0096849号公報
本発明は、ユーザの状況を考慮して、ロボットに割り当てられたタスクを制御できるロボット制御方法及びシステムを提供するものである。
上記課題を解決するために、本発明によるロボット制御方法は、ロボットがタスクにマッチングされた特定の場所に移動するように、前記ロボットの走行に関する制御を行うステップと、前記特定の場所が含まれる空間に配置されたカメラから画像を受信し、前記受信した画像を用いて、前記タスクの実行対象となるターゲットユーザの位置を確認するステップと、前記ターゲットユーザの位置と前記特定の場所との相対位置情報に基づいて、前記タスクが実行される時間に関する制御を行うステップと、を含むことを特徴とする。
また、本発明によるロボット制御システムは、ロボットと通信する通信部と、前記ロボットがタスクにマッチングされた特定の場所に移動するように、前記ロボットの走行に関する制御を行う制御部と、を含み、前記制御部は、前記特定の場所が含まれる空間に配置されたカメラから画像を受信し、前記受信した画像を用いて、前記タスクの実行対象となるターゲットユーザの位置を確認し、前記ターゲットユーザの位置と前記特定の場所との相対位置情報に基づいて、前記タスクが実行される時間に関する制御を行う、ことを特徴とする。
さらに、本発明によるロボットは、ロボット制御システムから、実行対象のタスクに関するタスク情報を受信する通信部と、前記タスクの実行が予定された特定の場所に移動する走行部と、前記ロボット制御システムから前記タスクの実行対象となるターゲットユーザの位置情報を受信し、前記ターゲットユーザの位置情報に基づいて、前記ターゲットユーザの位置と前記特定の場所との距離を算出する制御部と、を含み、前記制御部は、前記ターゲットユーザの位置と前記特定の場所との距離が基準範囲内である場合、前記タスクの実行予定時間が過ぎても前記タスクを実行するように、追加タスク実行時間を設定する、ことを特徴とする。
以上のように、本発明によるロボット制御方法及びシステムは、空間に設置されたカメラを用いて、ユーザの位置を確認し、ユーザの位置とタスク実行場所との距離に基づいて、タスクが実行される時間に関する制御を行うことができる。
特に、本発明によるロボット制御方法及びシステムは、ユーザがタスク実行場所から遠くない場所に位置する場合、タスクの実行予定時間が経過しても、ユーザを待ってユーザに対するタスクの実行を完了するように、ロボットを制御することができる。
よって、ロボットの観点からは、追加待機時間の間、ユーザを待つことにより、ユーザに対するタスクを完了することができる。また、本発明によるロボット制御方法及びシステムは、タスクが与えられたロボットがタスクを完了するように、ロボットを制御することにより、ロボットを効率的に運用することができる。
本発明によるロボット制御方法及びシステムを説明するための概念図である。 本発明によるロボット制御方法及びシステムを説明するための概念図である。 本発明によるロボット制御方法及びシステムにおけるロボットを識別する方法を説明するための概念図である。 本発明によるロボット制御方法及びシステムにおけるロボットの位置を推定する方法を説明するための概念図である。 本発明によるロボット制御方法を説明するためのフローチャートである。 本発明によるロボット制御方法及びシステムを説明するための概念図である。 本発明によるロボット制御方法及びシステムを説明するための概念図である。 本発明によるロボット制御方法及びシステムを説明するための概念図である。 本発明によるロボット制御方法及びシステムを説明するための概念図である。 本発明によるロボット制御方法及びシステムを説明するための概念図である。
以下に、添付図面を参照して本明細書に開示される実施形態について詳細に説明するが、図面番号に関係なく、同一又は類似の構成要素には同一又は類似の符号を付し、その説明は省略する。以下の説明で用いる構成要素の接尾辞である「モジュール」及び「部」は、明細書の作成を容易にするために付与又は混用されるものであり、それ自体が有意性や有用性を有するものではない。また、本明細書に開示される実施形態について説明するにあたって、関連する公知技術についての具体的な説明が本明細書に開示される実施形態の要旨を不明確にする恐れがあると判断される場合は、その詳細な説明を省略する。なお、添付図面は本明細書に開示される実施形態を容易に理解できるようにするためのものにすぎず、添付図面により本明細書に開示される技術的思想が限定されるものではなく、本発明の思想及び技術範囲に含まれるあらゆる変更、均等物、又は代替物が本発明に含まれるものと理解されるべきである。
第1、第2などのように序数を含む用語は、様々な構成要素を説明するために用いられるが、上記構成要素は、上記用語により限定されるものではない。上記用語は、1つの構成要素を他の構成要素と区別する目的でのみ用いられる。
ある構成要素が他の構成要素に「連結」又は「接続」されていると言及された場合は、他の構成要素に直接に連結又は接続されていてもよく、中間にさらに他の構成要素が存在してもよいものと解すべきである。それに対して、ある構成要素が他の構成要素に「直接連結」又は「直接接続」されていると言及された場合は、中間にさらに他の構成要素が存在しないものと解すべきである。
単数の表現には、特に断らない限り複数の表現が含まれる。
本明細書において、「含む」や「有する」などの用語は、明細書に記載された特徴、数字、ステップ、動作、構成要素、部品、又は、それらの組み合わせが存在することを指定しようとするものであり、1つ又はそれ以上の他の特徴、数字、ステップ、動作、構成要素、部品、又は、それらの組み合わせの存在や付加可能性を予め排除するものではない、と理解すべきである。
本発明は、ユーザの状況を考慮して、ロボットに割り当てられたタスクを制御できるロボット制御方法及びシステムを提供するものである。
特に、本発明は、ユーザの状況に基づいて、ロボットに割り当てられたタスクをより柔軟に制御できるロボット制御方法及びシステムを提供するものである。
本発明は、ロボット制御方法及びシステムを提供するものであり、より具体的には、ユーザの状況を考慮して、ロボットに割り当てられたタスクを制御できるロボット制御方法及びシステムを提供するものである。以下に、添付図面を参照して、ロボットが走行する空間及びそれに関連するロボット制御システムについて説明する。図1及び図2は、本発明によるロボット制御方法及びシステムを説明するための概念図である。また、図3は、本発明によるロボット制御方法及びシステムにおけるロボットを識別する方法を説明するための概念図である。さらに、図4は、本発明によるロボット制御方法及びシステムにおけるロボットの位置を推定する方法を説明するための概念図である。
技術が発展するにつれて、ロボットの活用度はますます高まっている。従来のロボットは、特殊な産業分野(例えば、産業自動化関連分野)で活用されていたが、次第に、人間や設備のために有用な作業を行うサービスロボットに変貌している。
このように、様々なサービスを提供するロボットは、与えられたタスクを実行するために、図1に示すような空間10を走行するようにしてよい。ロボットRが走行する空間の種類に制限はなく、ロボットは、必要に応じて、室内空間及び室外空間の少なくとも一方を走行するようにしてよい。例えば、室内空間には、デパート、空港、ホテル、学校、ビル、地下鉄駅、汽車駅、書店など、様々な空間が含まれる。ロボットRは、このように様々な空間に配置され、人間に有用なサービスを提供する。なお、本発明によるロボットは、様々に命名され、例えば、無人移動マシン、自律移動マシンなどと呼ばれる。
図1に示すように、ロボットが位置する空間10には、カメラ20が配置されてよい。空間10に配置されたカメラ20の数は制限されない。同図に示すように、空間10には、複数のカメラ20a、20b、20cが配置されてもよい。空間10に配置されたカメラ20として、様々な種類を用いることができる。空間10に配置されたカメラ20は、CCTVであってよい。
一方、空間10を走行するロボットRには、ユーザにサービスを提供するためのサービスロボットが含まれる。ロボットRがユーザに提供するサービスは、非常に多様である。例えば、ロボットRは、ユーザに物品(例えば、郵便物、宅配物など)を配送するサービスや、飲み物を運ぶサービスなどのサービスを提供することができる。このようなサービスを提供するロボットRは、空間10上でサービスの提供対象となるユーザ(以下、「ターゲットユーザ」という)と直接に会い(又は、対面し)、ターゲットユーザにサービスを提供するようにしてもよい。
一方、ロボットRがサービスを提供する動作は、ロボットRがタスクを実行する動作として理解できる。すなわち、ロボットRは、割り当てられたタスクを実行することにより、ターゲットユーザにサービスを提供する。以下、説明の便宜上、「ロボットRがサービスを提供する」を「ロボットRがタスクを実行する」ともいう。
そのために、ロボットRには、ターゲットユーザに対するタスクの実行が予定された時間(又は、タスクの実行予定時間、タスク実行予定時間)が設定されるようにしてもよい。
タスクの実行予定時間は、単に「予定時間」又は「予約時間」ともいう。予定時間又は予約時間は、ターゲットユーザの選択又はロボット制御システム100の制御に基づいて決定されるようにしてよい。例えば、ターゲットユーザは、ロボットRがユーザ自身に対して特定のタスク(例えば、物品配送タスク)を実行することをロボット制御システム100に予約することができる。このとき、ターゲットユーザは、電子機器により、ロボット制御システム100に、特定のタスクに関するサービスの提供を受ける時間(例えば、午後3時)を入力することができる。このように特定された時間は、前述した予定時間又は予約時間といえる。また、ターゲットユーザは、電子機器により、ロボット制御システム100を介することなく、ロボットRに直接予定時間情報を送信することもできる。
一方、ロボットRは、様々な経路でタスク実行予定時間に関する情報を受信し、当該予定時間にタスクを実行するように、プログラミングされてよい。
以下に、ロボットRが、ロボット制御システム100からタスク実行予定時間に関する情報を受信することを前提にして説明する。ロボット制御システム100とは、ロボットRに関する様々な動作を制御する中央システムを意味する。
一方、ロボットRは、ロボット制御システム100からタスク実行予定時間に関する情報を受信し、当該予定時間にターゲットユーザに対してタスクを実行するようにしてもよい。なお、ロボットRに割り当てられたタスクを完了するとは、ターゲットユーザに対してタスクに対応するサービスを提供することを意味する。よって、ロボットRは、ターゲットユーザに対するタスクを完了するために、予定時間にターゲットユーザに会わなければならない。一方、ターゲットユーザは、ロボットRからサービスの提供を受けるために、予定時間までにサービスの提供を受けることにした場所に移動しなければならない。このとき、ターゲットユーザは、様々な状況により、特定の場所に予定時間より早く又は遅く到着することがある。ターゲットユーザが特定の場所に予定時間より早く到着した場合、ターゲットユーザは、予定時間までロボットRを待つことにより、ロボットRからサービスの提供を受けることができる。しかし、ターゲットユーザが特定の場所に予定時間より遅く到着した場合、ターゲットユーザは、ロボットRからサービスの提供を受けることができない。例えば、ロボットRに割り当てられたタスクを予定時間に実行するようにロボットRが制御された場合、ロボットRは、予定時間にターゲットユーザに会えない場合には、ターゲットユーザに対するタスクを取り消すか、予め設定された場所に戻るようにしてもよい。この場合、ロボットRに割り当てられたタスクが取り消されたので、ターゲットユーザは、特定の場所に到着してもロボットRからサービスの提供を受けることができない。
一方、ターゲットユーザが特定の場所の近くに位置するか、又は、特定の場所へ移動するとしても予定時間から臨界時間内に特定の場所に到着できる状況であると仮定する。この場合、ロボットRの運用の観点からは、予定時間が過ぎてもターゲットユーザに対するタスクを実行することが効率的である。ロボットの観点からは、特定の場所に移動したロボットRがタスクを完了しない場合、当該タスクのために、当該ロボット又は他のロボットが再び特定の場所へ移動しなければならないので、ロボットに割り当てられたタスクが倍となる。また、ターゲットユーザの観点からは、ターゲットユーザがロボットRに会うために特定の場所へ移動している状況の場合、ロボットRにおいて予定時間までに特定の場所に到着できなかったターゲットユーザに対するタスクが取り消されると、ターゲットユーザにとってロボットRに会うために使用した時間を浪費したことになる。また、ターゲットユーザは、ロボットRからサービスの提供を受けるために、再びサービスの予約などを行わなければならない。
本発明において、「ロボットRがタスクを完了する」には、「ロボットRがターゲットユーザに会う」ことが含まれる。また、「ロボットRがタスクを完了する」とは、ロボットRがターゲットユーザに会い、その後で、割り当てられたタスクに対応するサービス(物品配送サービス)の提供を完了することを意味する。よって、ロボットRは、ターゲットユーザに会えない場合や、ターゲットユーザにサービスを提供できない場合は、「タスクを完了していない状態」である。
このように、ロボットRに割り当てられたタスクが、人に直接会わないと完了しないタスクである場合、タスクに関するサービスの提供対象となるターゲットユーザの状況を考慮して、ロボットRでタスクが実行される時間をより柔軟に制御する必要がある。よって、本発明は、ユーザの状況を考慮して、ロボットに割り当てられたタスクを制御できるロボット制御方法及びシステムを提供する。
図2に示すように、本発明によるロボット制御システム100は、通信部110、保存部120、ディスプレイ部130、入力部140、及び制御部150の少なくとも1つを含む。
通信部110は、空間10に配置された様々なデバイスと有線又は無線で通信するように構成される。通信部110は、同図に示すように、ロボットR、外部サーバ200、及び画像管制システム2000の少なくとも1つと通信を行うことができる。
例えば、通信部110は、ロボットRからデータ(例えば、ロボットRで撮影される画像、検知データ、など)を受信したり、ロボットRに制御命令を送信したりすることができる。
また、通信部110は、空間10に配置されたカメラ20との直接的な通信を行うことができる。さらに、通信部110は、カメラ20を制御する画像管制システム2000と通信を行うことができる。画像管制システム2000と通信部110との間で通信が行われる場合、ロボット制御システム100は、通信部110により、画像管制システム2000からカメラ20で撮影される(又は、受信される)画像を受信することができる。
さらに、通信部110は、少なくとも1つの外部サーバ200(又は、外部ストレージ)と通信を行うことができる。ここで、外部サーバ200は、同図に示すように、クラウドサーバ210及びデータベース(DB)220の少なくとも一方を含むように構成されてよい。一方、外部サーバ200は、制御部150の少なくとも一部の役割を果たすように構成されてもよい。すなわち、データ処理やデータ演算などの実行は、外部サーバ200で行われるようにしてよく、本発明においては、その方式に特に制限を設けていない。
さらに、通信部110は、ユーザ(又は、ターゲットユーザ)が所持する電子機器と通信を行うことができる。ここで、電子機器の種類に制限はなく、スマートフォン、タブレットPC、などであってもよい。
一方、通信部110は、通信するデバイスの通信規格に準拠して、様々な通信方式をサポートすることができる。
例えば、通信部110は、WLAN(Wireless LAN)、Wi-Fi(Wireless Fidelity)、Wi-Fi Direct(Wireless Fidelity Direct)、DLNA(Digital Living Network Alliance)、WiBro(Wireless Broadband)、WiMAX(World Interoperability for Microwave Access)、HSDPA(High-Speed Downlink Packet Access)、HSUPA(High-Speed Uplink Packet Access)、LTE(Long Term Evolution)、LTE-A(Long Term Evolution-Advanced)、5G(5th Generation Mobile Telecommunication)、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、IrDA(Infrared Data Association)、UWB(Ultra Wide Band)、ZigBee、NFC(Near Field Communication)、及びワイヤレスUSB(Wireless Universal Serial Bus)技術の少なくとも1つを用いて、空間10の内外に位置するデバイス(クラウドサーバを含む)と通信を行うようにしてもよい。
次に、保存部120は、本発明に係る様々な情報を保存するようにしてよい。本発明において、保存部120は、ロボット制御システム100自体に備えられてもよい。それとは異なり、保存部120の少なくとも一部は、クラウドサーバ210及びデータベース220の少なくとも一方であってもよい。すなわち、保存部120は、本発明によるロボットの制御のために必要な情報が保存される空間であれば十分であり、物理的な空間の制約はないものと解される。よって、以下では、保存部120、クラウドサーバ210、及びデータベース220を区分せず、全てを保存部120とする。ここで、クラウドサーバ210とは「クラウドストレージ」を意味する。
まず、保存部120には、ロボットRに関する情報が保存されるようにしてよい。
ロボットRに関する情報は、非常に様々であり、例えば、i)空間10に配置されたロボットRを識別するための識別情報(例えば、シリアル番号、TAG情報、QRコード情報、など)、ii)ロボットRに与えられたタスクに関するタスク情報(例えば、タスクの種類、タスクの実行動作、タスクの実行対象となるターゲットユーザ、タスク実行場所、タスク実行予定時間、など)、iii)ロボットRに設定された走行経路に関する走行経路情報、iv)ロボットRの位置情報、v)ロボットRの状態情報(例えば、電源状態、故障の有無、バッテリ状態、など)、vi)ロボットRに備えられたカメラから受信した画像に関する画像情報、vii)ロボットRの動作に関する動作情報、などが挙げられる。
次に、保存部120には、カメラ20に関する情報が保存されるようにしてよい。
カメラ20に関する情報は、非常に様々であり、例えば、i)それぞれのカメラ20a、20b、20c、20d・・・の識別情報(例えば、シリアル番号、TAG情報、QRコード情報、など)、ii)それぞれのカメラ20a、20b、20c、20d・・・の配置位置情報(例えば、空間内でそれぞれのカメラ20a、20b、20c、20d・・・が配置された位置に関する情報)、iii)それぞれのカメラ20a、20b、20c、20d・・・の画角情報(例えば、空間内でそれぞれのカメラ20a、20b、20c、20d・・・が撮影しているビューに関する情報)、iv)それぞれのカメラ20a、20b、20c、20d・・・の画角に対応する領域(又は、空間(又は、特定の空間))に関する位置情報、v)それぞれのカメラ20a、20b、20c、20d・・・の状態情報(例えば、電源状態、故障の有無、バッテリ状態、など)、vi)それぞれのカメラ20a、20b、20c、20d・・・から受信した画像に関する画像情報、などが挙げられる。
一方、前記列挙されたカメラ20に関する情報は、それぞれのカメラ20a、20b、20c、20d・・・を基準に互いにマッチングされて存在するようにしてよい。
例えば、保存部120には、特定のカメラ20aの識別情報、位置情報、画角情報、状態情報、及び画像情報の少なくとも1つがマッチングされてマッチング情報として存在するようにしてよい。このようなマッチング情報は、今後、特定のカメラが配置された空間(又は、場所、領域)を特定したり、当該空間に位置するユーザ(例えば、ターゲットユーザ)の位置を確認したりするのに有効に用いることができる。
さらに、保存部120には、ユーザに関する情報が保存されるようにしてもよい。ユーザに関する情報は、「ユーザDB」ともいえる。
ユーザに関する情報は、「ユーザの識別情報」ともいえる。
ユーザに関する情報は、ユーザの名前、生年月日、住所、電話番号、社番、ID、顔イメージ、生体情報(指紋情報、虹彩情報、など)、空間10内でのユーザの生活場所(例えば、勤務場所(又は、勤務区域)、住居場所、など)、ユーザが所持する電子機器の識別情報、ユーザの日程(スケジュール)に関する情報のうち少なくとも1つを含む。
次に、保存部120には、空間10の地図(又は、地図情報)が保存されるようにしてよい。ここで、地図は、2次元地図及び3次元地図の少なくとも一方であってもよい。空間10の地図とは、ロボットR又はユーザの現在位置を把握したり、ロボットRの走行経路を設定したり、ロボットRが走行したりするのに活用できる地図を意味する。
特に、本発明によるロボット制御システム100においては、ロボットRから受信する画像に基づいて、ロボットRの位置を把握することができる。そのために、保存部120に保存された空間10の地図は、画像に基づいて位置を推定できるようにするデータで構成されてよい。
ここで、空間10の地図は、事前に、空間10を移動する少なくとも1つのロボットにより、SLAM(Simultaneous Localization and Mapping)に基づいて作成された地図であってよい。
一方、保存部120には、前記列挙された情報の種類以外にも様々な情報を保存することができる。
次に、ディスプレイ部130は、ロボットRを遠隔管理するユーザ又は管理者のデバイスに備えられたものであり、図2に示すように、管制室100aに備えられてもよい。また、ディスプレイ部130は、モバイルデバイスに備えられたディスプレイであってもよい。このように、本発明においては、ディスプレイ部の種類に制限を設けていない。
次に、入力部140は、ユーザ(又は、管理者)からの情報の入力のためのものであり、入力部140は、ユーザ(又は、管理者)とロボット制御システム100間の媒体であるといえる。より具体的には、入力部140とは、ユーザからロボットRを遠隔制御するための制御命令を受信する入力手段を意味する。ここで、ユーザは、サービスの提供対象となるターゲットユーザとは異なるユーザであり得る。
ここで、入力部140の種類に特に制限はなく、入力部140は、機械式(mechanical)入力手段(又は、メカニカルキー)及びタッチ式入力手段の少なくとも一方を含む。機械式入力手段としては、例えば、マウス(mouse)、ジョイスティック(joystick)、物理的なボタン、ドームスイッチ(dome switch)、ジョグホイール、ジョグスイッチ、などが挙げられる。タッチ式入力手段は、例えば、ソフトウェア的な処理によりタッチスクリーンに表示される仮想キー(virtual key)、ソフトキー(soft key)、又はビジュアルキー(visual key)から構成されるようにしてよく、前記タッチスクリーン以外の部分に配置されるタッチキー(touch key)から構成されるようにしてもよい。一方、前記仮想キー及び前記ビジュアルキーは、タッチスクリーン上に様々な形状で表示され、例えば、グラフ(graphic)、テキスト(text)、アイコン(icon)、ビデオ(video)、又は、それらの組み合わせから構成されるようにしてもよい。ここで、入力部140がタッチスクリーンを含む場合、ディスプレイ部130は、タッチスクリーンから構成されるようにしてもよい。この場合、ディスプレイ部130は、情報を出力する役割と情報の入力を受ける役割の両方を果たす。
次に、制御部150は、本発明によるロボット制御システム100の全般的な動作を制御するように構成される。制御部150は、上記構成要素により入力又は出力される信号、データ、情報などを処理したり、ユーザに適切な情報又は機能を提供又は処理したりすることができる。
制御部150は、ロボットRにタスクを割り当てることができる。制御部150は、ロボットRにタスクを割り当てるために、通信部110を用いて、ロボットRに、タスクに関する制御命令を送信するようにしてよい。このような制御命令は、ロボットRにタスクを実行させる制御を含んでもよい。
制御部150は、ロボットRがタスクにマッチングされた特定の場所に移動するように、ロボットRの走行に関する制御を行うことができる。制御部150は、ロボットRに、タスクに対応する制御命令を送信することにより、ロボットRが前記タスクにマッチングされた特定の場所に移動するように制御することができる。
ここで、ロボットRに割り当てられるタスクに対応する制御命令は、タスクに関する情報を含んでよい。前述したように、タスクに関する情報には、タスクの種類、タスクの実行動作、タスクの実行対象となるターゲットユーザ、タスク実行場所(又は、タスクにマッチングされた特定の場所)、及びタスク実行予定時間の少なくとも1つに関する情報が含まれる。
一方、ロボットRは、制御部150からタスクに対応する制御命令を受信すると、割り当てられたタスクを実行するために、タスクにマッチングされた特定の場所に移動するようにしてよい。ロボットRの制御部は、ロボット制御システム100から受信したタスクに関する情報に基づいて、タスク実行場所に移動するようにしてもよい。
そして、制御部150は、空間10に配置されたロボットRを制御するための様々な制御を行うことができる。そのために、制御部150は、空間10に配置されたロボットRを様々な方法で認識することにより、ロボットRの現在位置を把握したり、ロボットの動作を制御したりすることができる。また、制御部150は、空間10に配置されたロボットRを様々な方法で認識することにより、ロボットに割り当てられたタスクを管理することができる。
一方、ロボットRの識別情報は、図3に示すように、ロボットRに備えられた識別標識(又は、識別マーク)に基づいて、画像から抽出するようにしてよい。図3の(a)、(b)及、び(c)に示すように、ロボットRの識別標識301、302、303は、ロボットの識別情報を含んでよい。同図に示すように、識別標識301、302、303は、バーコード301、シリアル情報(又は、一連情報)302、及びQRコード303から構成され、バーコード301、シリアル情報(又は、一連情報)302、及びQRコード303は、それぞれロボットの識別情報を含むようにしてもよい。
ロボットの識別情報は、ロボットを区分するための情報であり、同じ種類のロボットであっても、異なる識別情報を有する。一方、識別標識を構成する情報は、前述したバーコード、シリアル情報、QRコードの他にも多様に構成することができる。
制御部150は、カメラ20から受信した画像から、前述した識別標識に基づいてロボットRの識別情報を抽出し、カメラ20により撮影されたロボットRを特定し、空間10での特定されたロボットRの位置を把握するようにしてもよい。
なお、本発明において、カメラ20により撮影されたロボットRを特定する方法は様々である。前述したように、制御部150は、画像からロボットRの識別情報を抽出することにより、ロボットRを特定することができる。その他に、制御部150は、画像が撮影された時間及び画像を撮影したカメラ20にマッチした位置情報の少なくとも1つを用いて、カメラ20により撮影されたロボットRの現在位置を特定するようにしてもよい。
一方、ロボットRの位置を推定する方法は、前述した空間10に配置されたカメラを用いる方法の他にも様々である。例えば、図4に示すように、ロボット制御システム100又はロボットRの制御部は、ロボットRに備えられたカメラ(図示せず)を用いて空間10の画像を受信し、受信した画像からロボットの位置を推定するビジュアルローカリゼーション(Visual Localization)を行うように構成される。ここで、ロボットRに備えられたカメラは、空間10の画像、すなわちロボットR周辺の画像を撮影(又は、検知)するように構成される。
ロボット制御システム100又はロボットRの制御部は、図4の(a)に示すように、ロボットRに備えられたカメラにより画像を取得するように構成される。また、ロボット制御システム100又はロボットRの制御部は、取得された画像を用いて、ロボットRの現在位置を推定することができる。
さらに、ロボット制御システム100又はロボットRの制御部は、ロボットRで取得された画像と保存部120に保存された地図情報とを比較し、図4の(b)に示すように、ロボットRの現在位置に対応する位置情報(例えば、「3階A区域(3,1,1)」)を抽出することができる。
前述したように、本発明において、空間10の地図は、事前に、空間10を移動する少なくとも1つのロボットにより、SLAMに基づいて作成された地図であってよい。特に、空間10の地図は、画像情報に基づいて生成された地図であってもよい。
すなわち、空間10の地図は、ビジョン(又は、ビジュアル)ベースのSLAM技術により生成された地図であってもよい。
よって、ロボット制御システム100又はロボットRの制御部は、図4の(b)に示すように、ロボットRで取得された画像の座標情報(例えば、「3階A区域(3,1,1)」)を特定することができる。このように特定された座標情報は、ロボットRの現在位置情報となる。
ここで、ロボット制御システム100又はロボットRの制御部は、ロボットRで取得された画像とビジョン(又は、ビジュアル)ベースのSLAM技術により生成された地図とを比較することにより、ロボットRの位置(又は、現在位置)を推定することができる。この場合、ロボット制御システム100又はロボットRの制御部は、i)ロボットRで取得された画像と予め生成された地図を構成するイメージとのイメージ比較により、ロボットRで取得された画像に最も類似したイメージを特定し、ii)特定されたイメージにマッチした位置情報を取得する方式で、ロボットRの位置情報を特定することができる。
このように、ロボット制御システム100又はロボットRの制御部は、図4の(a)に示すように、ロボットRで画像が取得されると、取得された画像を用いて、ロボットRの位置(又は、現在位置)を特定することができる。前述したように、ロボット制御システム100又はロボットRの制御部は、保存部120に予め保存された地図情報(例えば、「参照マップ」ともいえる)から、ロボットRで取得された画像に対応する位置情報(例えば、座標情報)を抽出することができる。
一方、図2に示す画像管制システム2000は、空間10内に配置された少なくとも1つのカメラ20を制御するように構成されてよい。同図に示すように、空間10には、複数のカメラ20a、20b、20c、20d・・・が配置される。複数のカメラ20a、20b、20c、20d・・・は、空間10内でそれぞれ異なる位置に配置される。
このように、空間10の異なる位置に複数のカメラ20a、20b、20c、20d・・・が配置されるので、ロボット制御システム100においては、このような複数のカメラ20a、20b、20c、20d・・・を用いて、ロボットRの動作をモニタしたり、ターゲットユーザの位置を把握したりすることができる。
画像管制システム2000は、ロボット制御システム100との相互通信により、ロボットRのタスクの実行に必要な情報をロボット制御システム100に提供することができる。前述した保存部120の構成と同様に、画像管制システム2000の保存部には、カメラ20に関する様々な情報を保存することができる。カメラ20に関する情報は、非常に様々であり、例えば、i)それぞれのカメラ20a、20b、20c、20d・・・の識別情報(例えば、シリアル番号、TAG情報、QRコード情報、など)、ii)それぞれのカメラ20a、20b、20c、20d・・・の配置位置情報(例えば、空間内でそれぞれのカメラ20a、20b、20c、20d・・・が配置された位置に関する情報)、iii)それぞれのカメラ20a、20b、20c、20d・・・の画角情報(例えば、空間内でそれぞれのカメラ20a、20b、20c、20d・・・が撮影しているビューに関する情報)、iv)それぞれのカメラ20a、20b、20c、20d・・・の画角に対応する領域(又は、空間(又は、特定の空間))に関する位置情報、v)それぞれのカメラ20a、20b、20c、20d・・・の状態情報(例えば、電源状態、故障の有無、バッテリ状態、など)、vi)それぞれのカメラ20a、20b、20c、20d・・・から受信した画像に関する画像情報、などが挙げられる。
一方、前記列挙されたカメラ20に関する情報は、それぞれのカメラ20a、20b、20c、20d・・・を基準に、互いにマッチングされて存在するようにしてもよい。
例えば、画像管制システム2000の保存部には、特定のカメラ20aの識別情報、位置情報、画角情報、状態情報、及び画像情報の少なくとも1つがマッチングされて、マッチング情報として存在するようにしてもよい。
一方、以下では、前述したカメラに関する情報がどちらの保存部(又は、ストレージ)に保存されるかを区分せず、説明の便宜上、保存部120の構成に保存された場合を例にして説明する。すなわち、カメラに関する情報は、状況に応じて様々な保存部に保存できるので、本発明においては、これに特に制限を設けていない。
以上、画像管制システム2000及びロボット制御システム100を別の構成として説明した。しかし、本発明は、これに限定されるものではなく、画像管制システム2000及びロボット制御システム100は、1つの統合されたシステムから構成されるようにしてよい。この場合、画像管制システム2000は、「カメラ部」の構成として命名してもよい。
以下に、上記構成を参照して、本発明によるロボット制御方法について、添付図面と共に、より具体的に説明する。図5は、本発明によるロボット制御方法を説明するためのフローチャートであり、図6、図7、図8a、図8b、及び図9は、本発明によるロボット制御方法及びシステムを説明するための概念図である。
本発明によるロボット制御方法においては、ロボットRにタスクを割り当てる過程が行われる(S510)。
本発明において、「ロボットRにタスクを割り当てる」とは、ロボットRにタスクを与えることをいい、より具体的には、ロボットRが割り当てられたタスクを実行するように、ロボットRに制御命令を入力又は送信することを意味する。ロボットRは、割り当てられたタスクを実行するアルゴリズムを有する。すなわち、ロボットRは、割り当てられたタスクを実行できるようにプログラミングされる。ロボットRの制御部は、予め設定されたアルゴリズム及びプログラムにより、割り当てられたタスクを実行するための動作を行うことができる。
割り当てられたタスクを実行するためのロボットRの動作は、非常に多様である。
例えば、ロボットRの動作は、ロボットの走行、ロボットのタスクの実行、ロボットの電源状態、などに関する動作を全て含む概念である。
まず、ロボットの走行に関する動作は、ロボットの走行速度、走行方向、回転方向、回転速度、走行開始、走行停止、走行終了のように、ロボットの走行に関する様々な動作を含む。
次に、ロボットのタスクの実行に関する動作は、ロボットが実行するタスクの種類に応じて異なる。一例として、ロボットRが道案内サービスを提供するロボットの場合、ロボットのタスクの実行に関する動作は、道案内のための経路検索動作、道案内のための走行動作、などを含む。他の例として、ロボットRが物品配送サービスを提供するロボットの場合、ロボットのタスクの実行に関する動作は、物品の配送のための走行動作、物品の配送のためのロボットのハードウェア駆動動作、などを含む。
次に、ロボットの電源状態に関する動作は、ロボットの電源をオン(ON)又はオフ(OFF)にする動作、ロボットを待機状態にする動作、ロボットをスリープモードにする動作、などを含む。ロボットRの動作の種類は、前記列挙された例の他にも多様であり、本発明は、上記の例に限定されるものではない。
このようにロボットRの動作は多様であり、ロボットRは、割り当てられたタスクを実行するために、前述した多様な動作の少なくとも1つを行うことができる。
一方、ロボットRにタスクを割り当てるためにロボットRに入力又は送信される制御命令は、ロボットRが割り当てられたタスクを実行するようにロボットRを駆動する少なくとも1つの命令を含んでよい。
ロボットRに対するタスクの割り当ては、様々な経路で行うことができ、例えば、本発明によるロボット制御システム100により行うことができる。制御部150は、ロボットRにタスクを割り当てることができる。制御部150は、ロボットRにタスクを割り当てるために、通信部110を用いて、ロボットRに、タスクに関する制御命令を送信するようにしてよい。このような制御命令は、ロボットRにタスクを実行させる制御を含んでもよい。
ここで、制御部150は、ロボットRがタスクにマッチングされた特定の場所に移動するように、ロボットRの走行に関する制御を行うことができる。制御部150は、ロボットRに、タスクに対応する制御命令を送信することにより、ロボットRが前記タスクにマッチングされた特定の場所に移動するように制御することができる。
ここで、ロボットRに割り当てられるタスクに対応する制御命令は、タスクに関する情報を含んでよい。前述したように、タスクに関する情報には、タスクの種類、タスクの実行動作、タスクの実行対象となるターゲットユーザ、タスク実行場所(又は、タスクにマッチングされた特定の場所)、及びタスク実行予定時間の少なくとも1つに関する情報が含まれる。
一方、ロボットRは、制御部150からタスクに対応する制御命令を受信すると、前記タスクに関する情報に基づいて、割り当てられたタスクを実行するために、タスクにマッチングされた特定の場所に移動する。ロボットRの制御部は、ロボット制御システム100から受信したタスクに関する情報に基づいて、タスク実行場所に移動するようにしてもよい。
一方、ロボットRに対するタスクの割り当ては、タスクに関する情報がロボットRに入力されることに基づいて行われるようにしてよい。この場合、ロボットRは、ロボットRに備えられた入力部の構成を介して、タスクに関する情報を受信するようにしてもよい。ロボットRの入力部の構成を介してタスクに関する情報を入力する対象は、人、又はタスクが割り当てられるロボットとは異なるロボットであり得る。
このように、ロボットRに対するタスクの割り当ては、様々な方法で行うことができ、ロボットRは、タスクが割り当てられることに基づいて、タスクを実行するための動作を行うようにしてよい。
前述したように、ロボットRに割り当てられるタスクは、ターゲットユーザにサービスを提供するタスクであり得る。この場合、ロボットRは、空間10上でタスクの実行対象、すなわち、サービスの提供対象となるユーザ(以下、「ターゲットユーザ」という)に直接会い(又は、対面し)、ターゲットユーザにサービスを提供するようにしてもよい。
よって、ロボットRは、タスクが割り当てられることに基づいて、ターゲットユーザに対するタスクを実行するために(又は、タスクに関するサービスを提供するために)、特定の場所に移動するようにしてもよい。
このとき、ロボットRは、割り当てられたタスクに関する情報に基づいて、特定の場所に移動するようにしてもよい。制御部150は、ロボットRが割り当てられたタスクに関する情報に対応する特定の場所に移動するように、ロボットRを制御することができる。
前述したように、タスクに関する情報には、タスクの種類、タスクの実行動作、タスクの実行対象となるターゲットユーザ、タスク実行場所(又は、タスクにマッチングされた特定の場所)、及びタスク実行予定時間の少なくとも1つに関する情報が含まれる。
ロボットRは、タスクの実行のために、タスクに関する情報に基づいて、タスク実行予定時間までに、タスクにマッチングされた特定の場所に移動するようにしてもよい。
制御部150は、ロボットRが、前記タスクの実行のために、前記タスクに関する情報に基づいて、前記タスク実行予定時間までに、前記タスクにマッチングされた特定の場所に移動するように、ロボットRを制御することができる。
一方、タスクの実行予定時間は、単に「予定時間」又は「予約時間」ともいう。予定時間又は予約時間は、ターゲットユーザの選択又はロボット制御システム100の制御に基づいて決定されるようにしてもよい。例えば、ターゲットユーザは、ロボットRがユーザ自身に対して特定のタスク(例えば、物品配送タスク)を実行することをロボット制御システム100に予約することができる。このとき、ターゲットユーザは、電子機器により、ロボット制御システム100に、特定のタスクに関するサービスの提供を受ける時間(例えば、午後3時)を入力することができる。このように特定された時間は、前述した予定時間又は予約時間といえる。また、ターゲットユーザは、電子機器により、ロボット制御システム100を介することなく、ロボットRに直接予定時間情報を送信することもできる。
一方、ロボットRは、様々な経路でタスク実行予定時間に関する情報を受信し、当該予定時間にタスクを実行するように、プログラミングされてよい。
また、タスクが実行される特定の場所は、様々な方法で設定することができる。一例として、制御部150は、サービスの提供対象となるターゲットユーザが特定されると、前述したユーザDBを参照して、ターゲットユーザの勤務場所や居住場所などの場所情報を抽出するようにしてよい。また、制御部150は、抽出した場所情報に対応する場所を、タスクが実行される特定の場所(又は、目的地)として設定するようにしてもよい。他の例として、タスクが実行される特定の場所は、ターゲットユーザから受信する情報に基づいて特定されるようにしてもよい。
一方、ロボットRは、様々な経路でタスクが実行される特定の場所に関する情報を受信すると、タスクの実行のために当該特定の場所に移動するように、プログラミングされてもよい。ロボットRは、前記特定の場所を「目的地」とし、走行を行うことができる。
このように、ロボットRは、タスクが割り当てられると、タスクの実行のために、予定時間までに(又は、予定時間から所定時間前までに(例えば、予定時間が午後3時の場合、2時50分までに))特定の場所に移動するようにしてよい。
制御部150は、ロボットRが、前記割り当てられたタスクの実行のために、前記予定時間までに前記特定の場所に移動するように、ロボットRを制御することができる。このとき、制御部150は、ロボットRの走行を制御してもよい。
一方、本発明によるロボット制御方法においては、空間10に配置されたカメラから受信した画像を用いて、タスクに関するサービスの提供対象となるターゲットユーザの位置を確認する過程が行われる(S520)。
制御部150は、ターゲットユーザが特定されると、空間10に配置されたカメラから画像を受信し、受信した画像からターゲットユーザを識別し、ターゲットユーザの位置情報を抽出するようにしてよい。制御部150は、タスク実行予定時間から所定時間前に、空間10でのターゲットユーザの現在位置を確認するようにしてもよい。これは、制御部150が、タスク実行予定時間から所定時間前にターゲットユーザの現在位置を確認することにより、前記ターゲットユーザが前記タスク実行予定時間までに前記タスクにマッチングされた特定の場所に到着できる状況であるか否かを把握するためのものである。
ここで、所定時間の長さは、状況に応じて異なるように設定されてもよい。
このとき、ロボットRは、図6に示すように、前記タスクにマッチングされた特定の場所に到着した状態、又は前記特定の場所へ移動する状態であり得る。
なお、本発明において、ターゲットユーザの位置を確認する方法は様々である。より具体的には、制御部150は、図7に示すように、空間10に配置されたカメラ20から受信した画像から、ターゲットユーザ1000を抽出するようにしてよい。制御部150は、顔認識アルゴリズムを用いて、空間10に配置されたカメラ20から受信した複数の画像のうち、ターゲットユーザ1000に対応する顔イメージが含まれる画像を特定するようにしてもよい。ターゲットユーザ1000の顔イメージは、保存部120に保存されたユーザDBに既に存在するようにしてもよい。
一方、ターゲットユーザ1000に対応する顔イメージが含まれる画像が特定されると、制御部150は、特定された画像を撮影したカメラが配置された場所を、ターゲットユーザ1000の位置(又は現在位置)として特定するようにしてよい。
前述したように、保存部120には、カメラに関する識別情報と共に、カメラが配置された場所に関する位置情報がマッチングされて存在するようにしてもよい。よって、制御部150は、特定された画像を撮影したカメラの識別情報にマッチした位置情報を保存部120から抽出し、ターゲットユーザ1000の位置として特定するようにしてもよい。
一方、ターゲットユーザ1000の位置は、ターゲットユーザ1000が所持する識別標識を認識することに基づいて行われるようにしてよい。制御部150は、通信部110を介して、ターゲットユーザ1000が所持する識別標識を認識するようにしてもよい。また、制御部150は、空間10内に配置された識別標識をスキャンするスキャン部、又は、識別標識を認識する認識部を用いて、識別標識を認識するようにしてもよい。このような識別標識は、アンテナ(例えば、NFCアンテナなど)、バーコード、QRコード、などのように、通信により認識される構成を含んでもよい。このような識別標識は、特定の会社の出入カードなどで構成されてもよい。一方、保存部120には、識別標識を認識したスキャン部又は認識部の識別情報と共に、スキャン部又は認識部が配置された場所に関する位置情報がマッチングされて、存在するようにしてもよい。よって、制御部150は、識別標識を認識したスキャン部又は認識部の識別情報にマッチした位置情報を保存部120から抽出し、ターゲットユーザ1000の位置として特定するようにしてもよい。
他の例として、ターゲットユーザ1000の位置は、ターゲットユーザ1000が所持する電子機器を認識することに基づいて行われるようにしてよい。ここで、電子機器には、ターゲットユーザ1000の携帯電話(又は、スマートフォン)が含まれる。電子機器は、ユーザDBに予め登録された電子機器であり、ユーザDBに存在するターゲットユーザ1000に関する情報には、ターゲットユーザ1000の電子機器に対応する識別情報が含まれるようにしてもよい。制御部150は、通信部110を用いて、ターゲットユーザ1000が所持する電子機器を認識するようにしてもよい。
保存部120には、最も強い信号強度で電子機器と通信を行った通信部の識別情報と共に、通信部が配置された場所に関する位置情報がマッチングされて存在するようにしてよい。よって、制御部150は、最も強い信号強度で電子機器と通信を行った通信部の識別情報にマッチした位置情報を保存部120から抽出し、抽出した位置情報をターゲットユーザ1000の位置として特定するようにしてもよい。
このように、ターゲットユーザ1000の位置情報が確認(又は、特定)されると、本発明においては、ターゲットユーザ1000の位置とタスクが実行される特定の場所との相対位置情報に基づいて、タスクが実行される時間に関する制御を行う過程が行われる(S530)。
前述したように、タスクが実行される時間とは、ロボットRがタスクを実行すること(又は、ターゲットユーザに会うこと)が予定された予定時間を意味する。
ここで、相対位置情報は、前記ステップS520で確認したターゲットユーザ1000の位置(又は、現在位置)と前記特定の場所との距離に対応する距離情報を含んでよい。相対位置情報は、特定の場所からターゲットユーザ1000が離れている程度に関する情報であり、水平距離情報及び垂直距離情報の少なくとも一方を含むようにしてもよい。
ここで、特定の場所とターゲットユーザ1000が同じ階(フロア)に位置すると仮定すると、水平距離情報とは、特定の場所からターゲットユーザ1000が、どれだけ離れているかに関する情報を意味する。このような水平距離情報は、メートルなどの単位で表されてよい。
また、特定の場所とターゲットユーザ1000が異なる階に位置すると仮定すると、垂直距離情報とは、特定の場所からターゲットユーザ1000が、何階分の距離だけ離れているかに関する情報を意味する。このような垂直距離情報は、特定の場所が位置する階からターゲットユーザ1000が位置する階を引いた「階数」で表されてよい。例えば、図7に示すように、空間10は、異なる複数の階10a、10b、10c、10d、・・・から構成され、1階10aにターゲットユーザ1000が位置し、4階10dに特定の場所が位置すると仮定する。この場合、ターゲットユーザ1000と特定の場所との相対位置情報(具体的には、垂直距離情報)は3階である。
このように、制御部150は、ターゲットユーザ1000の位置情報を確認すると、確認した位置情報を用いて、ターゲットユーザ1000と特定の場所との相対位置情報を算出するようにしてよい。また、制御部150は、水平距離情報及び垂直距離情報の少なくとも一方を含む相対位置情報に基づいて、ロボットRに割り当てられたタスクの実行予定時間が過ぎても前記タスクを実行するようにロボットRを制御するか否かを決定するようにしてもよい。
一方、ロボットRは、タスク実行予定時間が過ぎても前記タスクを実行するように制御されるまでは、タスク実行予定時間までのみ、特定の場所でターゲットユーザ1000を待つようにプログラミング(又は、制御)されてよい。
また、ロボットRは、予定時間までにタスクに関するサービス(例えば、物品配送サービス)をターゲットユーザ1000に提供できないと、タスクの実行の完了に関係なく、それ以上ターゲットユーザ1000を待たず、予め設定された場所に戻るようにしてよい。これを、ロボットRに割り当てられたタスクが取り消されたともいう。
よって、ロボットRが割り当てられたタスクの実行予定時間が過ぎても前記タスクを実行するとは、図6に示すように、ロボットRが、前記予定時間が過ぎても前記タスクにマッチングされた特定の場所に位置することを意味する。
すなわち、ロボットRが、前記予定時間が過ぎても前記タスクを実行するように制御された場合、ロボットRは、前記特定の場所でターゲットユーザ1000を待つ。
一方、ロボットRは、ロボット制御システム100から受信する制御命令に基づいて、前記予定時間が過ぎても既に割り当てられたタスクを実行するようにしてよい。すなわち、ロボットRの制御部は、ロボット制御システム100から受信する制御命令に基づいて、前記予定時間が過ぎても前記特定の場所に位置し続けるようにしてもよい。このとき、ロボットRは、待機モード、節電モード、及びスリープモードのいずれかの状態で存在するようにしてもよい。
ロボットRが、ロボットRに割り当てられたタスクの実行予定時間が過ぎてもタスクを実行するように、ロボットRを制御する方法について、より具体的に説明する。
制御部150は、様々な基準に基づいて、前記タスク実行予定時間に対する追加タスク実行時間を設定するようにしてよい。ここで、「追加タスク実行時間」は、「追加待機時間」ともいえる。「追加待機時間」は、予め設定されたタスク実行予定時間を超えた時間であり、例えば10分、20分などに特定することができる。例えば、タスク実行予定時間が午後3時であり、追加待機時間が10分である場合、ロボットRは、ターゲットユーザに会うために(又は、ターゲットユーザにタスクに関するサービスを提供するために)、午後3時10分まで特定の場所に位置する。
以下に、追加タスク実行時間を設定する方法について、より具体的に説明する。制御部150は、ターゲットユーザの位置と特定の場所との距離が基準範囲内である場合、タスク実行予定時間に対する追加タスク実行時間を設定するようにしてよい。
ここで、前記ターゲットユーザの位置と前記特定の場所との距離は、前述した水平距離情報及び垂直距離情報の少なくとも一方に基づいて特定されてよい。
また、制御部150は、前記予定時間が過ぎても、前記追加タスク実行時間の間は、ロボットRがタスクを実行するように、ロボットRに対して前記追加タスク実行時間に関する制御を行うようにしてよい。前述したように、前記追加タスク実行時間に関する制御は、ロボットRが前記特定の場所に到達し、その後、前記予定時間が過ぎても、前記追加タスク実行時間の間は前記特定の場所で待機させる制御を含む。
保存部120には、図8a及び図8bに示すように、追加タスク実行時間を設定するための様々なガイド情報が保存されて存在するようにしてよい。制御部150は、保存部120に保存されたガイド情報及び相対位置情報(例えば、前記ターゲットユーザの位置と前記特定の場所との距離)に基づいて、追加タスク実行時間を設定するようにしてもよい。
ここで、追加タスク実行時間の長さ(又は、時間長(duration))は、前記ターゲットユーザの位置と前記特定の場所との距離に応じて、異なるように設定されてもよい。
一例として、図8aに示すように、前記ターゲットユーザの位置と前記特定の場所との距離が「同じ階で10メートル(m)」以内の場合、追加タスク実行時間の長さは、「5分」に設定されてよい。制御部150は、ロボットRに、追加タスク実行時間に関する情報を送信するようにしてもよい。ロボットRは、制御部150から受信した追加タスク実行時間に関する情報に基づいて、予め設定されたタスク実行予定時間が過ぎても、前記追加タスク実行時間の間は、割り当てられたタスクを実行できるように、前記特定の場所で待機状態を維持するようにしてもよい。
他の例として、図8aに示すように、前記ターゲットユーザの位置と前記特定の場所との距離が「5階」以内の場合、追加タスク実行時間の長さは、「10分」に設定されてよい。すなわち、制御部150は、ターゲットユーザの位置と特定の場所との距離が遠いほど、ターゲットユーザが特定の場所に移動するのに要する時間がより長いので、ターゲットユーザの位置と特定の場所との距離に応じて、異なる追加待機時間を設定する。
この場合も、制御部150は、ロボットRに追加タスク実行時間に関する情報を送信するようにしてよい。ロボットRは、制御部150から受信した追加タスク実行時間に関する情報に基づいて、予め設定されたタスク実行予定時間が過ぎても、前記追加タスク実行時間の間は、割り当てられたタスクを実行できるように、前記特定の場所で待機状態を維持するようにしてもよい。
一方、前記ターゲットユーザの位置と前記特定の場所との距離が基準範囲から外れた場合、ロボットRに割り当てられたタスクを取り消すようにしてよい。
例えば、図7に示すように、空間10を構成する複数の階10a、10b、10c、10dのうち特定の階10dに特定の場所が位置するとする。ここで、基準範囲は、「階」を基準にしてよい。制御部150は、ターゲットユーザが前記複数の階のうち、どの階に位置するかを確認し、前記ターゲットユーザが位置する階と前記特定の場所が位置する特定の階とが異なる場合、追加タスク実行時間を設定しないようにしてもよい。
また、制御部150は、前記ターゲットユーザの位置と前記特定の場所との階間距離が基準範囲から外れた場合、追加タスク実行時間を設定しないようにしてもよい。
例えば、図8aに示すように、前記ターゲットユーザの位置と前記特定の場所との距離が「5階」を超えた場合、制御部150は、ロボットRに割り当てられたタスクを取り消すように、ロボットRに対して、タスクの取り消しに関する制御命令を送信するようにしてよい。この場合、ロボットRは、タスクの実行を完了せず、予め設定された場所に戻るようにしてもよい。制御部150は、前記ターゲットユーザが前記特定の場所から前記基準範囲を超えた距離に位置する場合、前記ターゲットユーザが予め設定されたタスク実行予定時間内に前記特定の場所に到着できないと判断するようにしてもよい。
よって、制御部150は、前記タスク実行予定時間より前に、ロボットRが予め設定された場所に戻るように、ロボットRを制御するようにしてよい。この場合、ロボットRは、前記予定時間まで前記特定の場所で待機することなく、前記予め設定された場所に戻る。それとは異なり、制御部150は、前記予定時間まではロボットRが前記特定の場所で前記ターゲットユーザを待つように、ロボットRを制御するようにしてもよい。すなわち、前記「タスクの取り消しに関する制御命令」は、これら2つの状況のいずれかを含む。
一方、制御部150は、ターゲットユーザの位置と特定の場所との距離に加えて、ターゲットユーザの状況情報を共に考慮して、追加タスク実行時間に関する制御を行うようにしてよい。すなわち、ターゲットユーザの位置と特定の場所との距離が近い場合であっても、ターゲットユーザの現在の状況によっては、ターゲットユーザがタスク実行予定時間と追加タスク実行時間とを合わせた時間までに特定の場所に到達できない場合が生じ得る。
ターゲットユーザの状況情報は、様々な経路で収集することができる。
一例として、制御部150は、空間10に配置されたカメラ20から受信した画像から、ターゲットユーザを認識すると共に、ターゲットユーザの行動情報及びターゲットユーザが位置する場所の特性情報の少なくとも一方を抽出するようにしてよい。例えば、制御部150は、画像から、図8bに示すように、ターゲットユーザが、i)特定の場所に向かって移動しているか、ii)第三者と話しているか、iii)会議室でミーティングをしているか、などのターゲットユーザの状況情報を把握するようにしてよい。また、制御部150は、ターゲットユーザの状況情報に基づいて、ターゲットユーザがタスク実行予定時間と追加タスク実行時間とを合わせた時間までに特定の場所に到達できない可能性を予測するようにしてもよい。よって、制御部150は、ターゲットユーザと特定の場所とが基準範囲内に位置する場合であっても、ターゲットユーザの状況情報に基づいて、追加タスク実行時間を設定しないようにしてもよい。例えば、図8bに示すように、ターゲットユーザが「特定の場所に向かって移動している」状況であると分析された場合は、追加タスク実行時間(又は、待機時間)を設定するようにしてよい。また、図8bに示すように、ターゲットユーザが「会議室でミーティングをしている」状況であると分析された場合は、ターゲットユーザが特定の場所から基準範囲内に位置する場合であっても、追加タスク実行時間(又は、待機時間)を設定しないようにしてもよい。
一方、制御部150は、ユーザDBに保存されたユーザのスケジュール情報に基づいて、ターゲットユーザの状況情報を分析するようにしてよい。例えば、制御部150は、ユーザのスケジュール情報から、ミーティング終了時間情報を抽出するようにしてもよい。そして、抽出したミーティング終了時間情報のミーティング終了時間が、タスク実行予定時間内、又は設定可能な追加タスク実行時間内である場合、制御部150は、ユーザのスケジュール情報に基づいて、追加タスク実行時間を設定するようにしてもよい。
一方、制御部150は、「ターゲットユーザが特定の場所に向かって移動している」ことを示すターゲットユーザの状況情報が取得された場合、ターゲットユーザの位置と特定の場所との距離が基準範囲から外れていても、追加タスク実行時間を設定するようにしてよい。これは、タスクに関するサービスの提供を受けることを希望するターゲットユーザの意図を反映するためのものである。この場合、制御部150は、ロボットRに既に割り当てられた他のタスクのタスク実行予定時間を考慮して、追加タスク実行時間を設定するようにしてもよい。
一方、上記実施形態においては、ターゲットユーザの状況のみを考慮して、追加タスク実行時間の長さを設定することについて説明したが、本発明においては、ロボットRのスケジュールを考慮して、追加タスク実行時間の長さを設定するようにしてよい。制御部150は、ロボットRに既に割り当てられた他のタスクを確認し、ロボットRに許容された最大追加タスク実行時間情報を算出するようにしてもよい。そして、制御部150は、前記最大追加タスク実行時間内で、ターゲットユーザに対する追加タスク実行時間を設定するようにしてもよい。
一方、制御部150は、ターゲットユーザにサービスを提供するために、タスクが割り当てられたロボットRが特定の場所への移動を開始するか、又は、タスク実行予定時間から所定時間前にターゲットユーザの電子機器に通知情報を送信するようにしてよい。前記通知情報は、ロボットRが特定の場所に向かって移動していること、又はロボットRが特定の場所に位置していることを通知する情報を含んでもよい。
一方、制御部150は、ターゲットユーザの電子機器から、特定の場所への到着予定時間及び到着の可否の少なくとも一方に関する情報を受信するようにしてよい。そして、制御部150は、ターゲットユーザの電子機器から受信した情報に基づいて、追加タスク実行時間に関する制御(例えば、追加タスク実行時間の長さの決定、追加タスク実行時間を設定するか否かの決定、など)を行うようにしてもよい。
一方、制御部150は、ロボットRから、タスクの実行のために特定の場所に到着したことを含む状態情報を受信するようにしてよい。制御部150は、このような状態情報を受信することに基づいて、ターゲットユーザの位置を確認し、前述した一連の制御を行うようにしてもよい。
上記の実施形態においては、ロボット制御システム100の制御により、ロボットRに追加タスク実行時間を設定する方法について説明したが、本発明においては、ロボットRの制御部により、追加タスク実行時間を設定することも可能である。
ロボットRは、ロボット制御システム100から、実行対象のタスクに関するタスク情報を受信する通信部と、前記タスクの実行が予定された特定の場所に移動する走行部と、前記ロボット制御システムから前記タスクの実行対象となるターゲットユーザの位置情報を受信し、前記ターゲットユーザの位置情報に基づいて、前記ターゲットユーザの位置と前記特定の場所との距離を算出する制御部と、を含んでよい。また、ロボットRの制御部は、前記ターゲットユーザの位置と前記特定の場所との距離が基準範囲内である場合、前記タスクの実行予定時間が過ぎても前記タスクが実行されるように、追加タスク実行時間を設定するようにしてもよい。ここで、i)前記ターゲットユーザの位置と前記特定の場所との距離を算出し、ii)それに基づいて追加タスク実行時間を設定する、方法は、前述したロボット制御システム100の制御部150による方法と同様であるので、それについての具体的な説明は省略する。すなわち、ロボットRの制御部は、前述したロボット制御システム100の制御部150と同様に理解してよい。
また、ロボットRの制御部は、ロボット制御システム100から、i)ターゲットユーザの位置情報、及びii)ターゲットユーザと特定の場所との相対位置情報の少なくとも一方を受信し、前記追加タスク実行時間を設定するようにしてよい。
一方、ロボットRは、特定の場所でターゲットユーザ1000を待つ場合、特定の場所に予め設定された領域である、待機領域11に位置するようにしてもよい。ここで、予め設定された待機領域11は、人の通行を妨げない領域(例えば、図6の11、図9の11を参照のこと)であってもよい。ロボットRの制御部は、ロボットRに備えられたカメラを用いて、特定の場所の画像を収集し、ターゲットユーザを待つ待機領域11を予め設定(決定)するようにしてよい。このような待機領域11を設定する基準に関する情報は、ロボットR又はロボット制御システム100の保存部に予め保存されて、存在するようにしてもよい。例えば、待機領域11を設定する基準は、「出入口から所定距離以上離れて待機」、「壁付近で待機」、などであってよい。一方、このような待機領域11の位置は、ロボット制御システム100の制御部150により、指定されるようにしてもよい。
一方、ロボットRの制御部は、タスクの実行のために特定の場所に到着した場合、ロボットRが待機領域11に位置するように、ロボットRを制御するようにしてもよい。
ロボットRの制御部は、ロボットRが前記特定の場所への移動を完了すると、ロボットRが特定の場所の待機領域11内で走行を停止するように、ロボットRの走行部を制御するようにしてよい。ロボットRは、待機領域11でターゲットユーザを待つ動作を行うようにしてもよい。このとき、ロボットRの動作状態は、ディスプレイ部などの出力部の電源が切れるか、もしくは、最小電源使用モードで動作するスリープモード、待機モード、又は節電モードの動作状態であってもよい。
ロボットRの制御部は、このような動作状態で、所定の時間間隔又はリアルタイムで、ロボットRに備えられたカメラを用いて、ロボットRの周辺状況をモニタするようにしてよい。ロボットRは、カメラにより周辺状況の画像を収集し、収集した画像から、図9の(b)に示すように、ターゲットユーザ1000を識別するようにしてもよい。また、ロボットRの制御部は、ターゲットユーザ1000が前記特定の場所に到着(又は、進入、位置)したことを確認すると、ターゲットユーザ1000に向かって走行を開始するようにしてもよい。このとき、ロボットRの制御部は、所定速度以下でターゲットユーザ1000に向かって走行するようにしてもよい。さらに、ロボットRの制御部は、ディスプレイ部又はスピーカを介して、ターゲットユーザ1000の識別情報(例えば、名前)を出力するようにしてもよい。よって、ターゲットユーザ1000は、ユーザ自身に対してサービスを提供するロボットRを容易に認知することができる。
一方、ロボットRの制御部は、ターゲットユーザ1000を認証するためのユーザ認証過程により、ターゲットユーザ1000を認証するユーザ認証が完了すると、ターゲットユーザ1000に対してタスクを実行するようにしてよい。ロボットRの制御部は、顔認識、指紋認識、虹彩認識、音声認識、パスワード入力、識別標識スキャン、などの様々なユーザ認証方法の少なくとも1つにより、ターゲットユーザ1000の認証を行うようにしてもよい。つまり、ロボットRの制御部は、ロボットRに近づいたユーザが、割り当てられたタスクにマッチングされたターゲットユーザ、すなわち真のユーザであるか否かを認証する過程により、割り当てられたタスクが当該タスクと関係のない第三者に対して実行されることを防止することができる。
一方、ロボットRの制御部は、ユーザ認証が完了すると、タスクに対応するサービスをターゲットユーザ1000に提供するようにしもよい。例えば、割り当てられたタスクが物品配送である場合、ロボットRの制御部は、ロボットRの保管箱が開くように保管箱を制御し、ターゲットユーザ1000が物品を搬出できるようにしてもよい。よって、ロボットRの制御部は、ターゲットユーザ1000に対するタスクの実行を完了することができる。
一方、上記の例においては、ロボットRに備えられたカメラを用いてユーザ認証を行う方法について説明したが、本発明は、このような例に限定されるものではない。本発明においては、ロボットRに備えられたカメラだけでなく、空間に配置されたカメラを用いてユーザ認証を行うことにより、タスクの実行対象となるターゲットユーザ1000を認証することもできる。
本発明においては、制御部150が、通信部110を用いて、空間に配置されたカメラから取得した画像をロボットRに送信するようにしてよい。ロボットRの制御部は、ロボット制御システム100から受信した画像を用いて、前述したターゲットユーザ1000を認証するためのユーザ認証過程を行うようにしてもよい。
上記の例とは異なり、本発明においては、制御部150が、空間に配置されたカメラにより取得された画像を用いて、ユーザ認証を行い、認証の結果をロボットRに送信するようにしてよい。制御部150は、ターゲットユーザ1000の認証が完了したことを通知する情報をロボットRに送信するようにしてもよい。ロボットRの制御部は、ロボット制御システム100から受信した情報に基づいて、ターゲットユーザ1000に対してタスクを実行するようにしてもよい。
この場合、制御部150は、ロボットRが位置する空間に配置されたカメラから受信した画像から、ユーザの顔イメージを取得するようにしてよい。このとき、制御部150は、空間に配置された複数のカメラのうち、ロボットRに近づくユーザ又はロボットRに最も近いユーザの顔イメージを取得できるカメラを選択するようにしてもよい。
また、制御部150は、空間に配置されたカメラにより取得された顔イメージを分析し、前記取得された顔イメージがターゲットユーザ1000の顔イメージに対応するか否かを判断することにより、ターゲットユーザ1000の認証を行うようにしてよい。
さらに、制御部150は、ユーザDBを参照して、前記取得された顔イメージに対応するユーザが、ターゲットユーザ1000であるか否かを判断するようにしてよい。
このように、本発明においては、ロボットRに備えられたカメラだけでなく、空間に配置されたカメラを用いて、ターゲットユーザ1000の認証を効率的に行うことにより、ロボットRに割り当てられたタスクが当該タスクと関係のない第三者に対して実行されることを防止することができる。
前述したように、本発明によるロボット制御方法及びシステムは、空間に設置されたカメラを用いて、ユーザの位置を確認し、ユーザの位置とタスク実行場所との距離に基づいて、タスクが実行される時間に関する制御を行うことができる。
特に、本発明によるロボット制御方法及びシステムは、ユーザがタスク実行場所から遠くない場所に位置する場合、タスクの実行予定時間が経過しても、ユーザを待ってユーザに対するタスクの実行を完了するように、ロボットを制御することができる。
よって、ロボットの観点からは、追加待機時間の間、ユーザを待つことにより、ユーザに対するタスクを完了することができる。また、本発明によるロボット制御方法及びシステムは、タスクが与えられたロボットがタスクを完了するようにロボットを制御することにより、ロボットを効率的に運用することができる。
一方、前述した本発明は、コンピュータで1つ以上のプロセスにより実行され、コンピュータ可読媒体に保存できるプログラムとして実現することができる。
また、前述した本発明は、プログラム記録媒体にコンピュータ可読コード又はコマンドとして実現することができる。すなわち、本発明は、プログラムの形態で提供することができる。
一方、コンピュータ可読媒体は、コンピュータシステムにより読み取り可能なデータが記録されるあらゆる種類の記録装置を含む。コンピュータ可読媒体の例としては、HDD(Hard Disk Drive)、SSD(Solid State Disk)、SDD(Silicon Disk Drive)、ROM、RAM、CD-ROM、磁気テープ、フロッピーディスク、光データ記憶装置などが挙げられる。
また、コンピュータ可読媒体は、ストレージを含み、電子機器が通信によりアクセスできるサーバ又はクラウドストレージであり得る。この場合、コンピュータは、有線又は無線通信により、サーバ又はクラウドストレージから本発明によるプログラムをダウンロードすることができる。
さらに、本発明において、前述したコンピュータは、プロセッサ、すなわち中央処理装置(Central Processing Unit,CPU)が搭載された電子機器であり、その種類は特に限定されない。
一方、本発明の詳細な説明は例示的なものであり、あらゆる面で制限的に解釈されてはならない。本発明の範囲は添付の特許請求の範囲の合理的解釈により定められるべきであり、本発明の等価的範囲内でのあらゆる変更が本発明の範囲に含まれる。
10 空間
11 待機領域(予め設定された領域)
20 カメラ
100 ロボット制御システム
110 通信部
120 保存部
130 ディスプレイ部
140 入力部
150 制御部
1000 ターゲットユーザ
2000 画像管制システム
R ロボット

Claims (10)

  1. ロボットを制御する方法であって、
    前記ロボットに対して、特定の場所で実行されるタスクを割り当てるステップと、
    前記特定の場所が含まれる空間に配置されたカメラから画像を受信し、前記受信した画像を用いて、前記タスクの実行対象となるターゲットユーザの位置を確認するステップと、
    前記ターゲットユーザの位置と前記特定の場所との相対位置情報に基づいて、前記タスクが実行される時間に関する制御を行うステップと、
    含み、
    前記タスクが実行される時間は、前記ロボットによる前記タスクの実行が予定された予定時間を含み、
    前記タスクが実行される時間に関する制御を行うステップは、
    前記相対位置情報に基づいて、前記予定時間が過ぎても前記タスクを実行するように前記ロボットを制御するか否かを決定すること、を含む、
    ことを特徴とする、方法。
  2. 前記相対位置情報は、
    前記ターゲットユーザの位置と前記特定の場所との距離に対応する距離情報を含み、
    前記タスクが実行される時間に関する制御を行うステップは、
    前記ターゲットユーザの位置と前記特定の場所との距離が基準範囲内である場合、前記予定時間に対する追加タスク実行時間を設定すること、および、
    前記ロボットが、前記予定時間が過ぎても前記追加タスク実行時間の間は前記タスクを実行するように、前記ロボットに対して前記追加タスク実行時間に関する制御を行うこと、を含む、
    ことを特徴とする、請求項に記載の方法。
  3. 前記追加タスク実行時間に関する制御を行うステップは、
    前記ロボットが前記特定の場所に到達し、その後前記予定時間が過ぎても、前記追加タスク実行時間の間は前記特定の場所で待機させること、を含む、
    ことを特徴とする、請求項に記載の方法。
  4. 前記追加タスク実行時間の長さは、前記ターゲットユーザの位置と前記特定の場所との距離に応じて異なるように設定される、
    ことを特徴とする、請求項に記載の方法。
  5. 前記ターゲットユーザの位置と前記特定の場所との距離が前記基準範囲から外れた場合、前記ロボットに割り当てられた前記タスクを取り消す、
    ことを特徴とする、請求項に記載の方法。
  6. 前記特定の場所は、前記空間を構成する複数の階のうち特定の階に位置し、
    前記ターゲットユーザの位置を確認するステップは、
    前記画像を用いて、前記ターゲットユーザが前記複数の階のうちどの階に位置するかを確認すること、を含み、
    前記タスクが実行される時間に関する制御を行うステップは、
    前記ターゲットユーザが位置する階と前記特定の場所が位置する特定の階とが異なる場合、前記追加タスク実行時間を設定しないこと、を含む、
    ことを特徴とする、請求項に記載の方法。
  7. 前記ターゲットユーザの位置を確認するステップには、
    前記予定時間から所定時間前に前記ターゲットユーザの位置を確認すること、を含む、
    ことを特徴とする、請求項1乃至6のうちいずれか一項に記載の方法。
  8. ロボットであって、
    ロボット制御システムから、実行対象のタスクに関するタスク情報を受信する通信部と、
    前記タスクの実行が予定された特定の場所に移動する走行部と、
    前記ロボット制御システムから前記タスクの実行対象となるターゲットユーザの位置情報を受信し、前記ターゲットユーザの位置情報に基づいて、前記ターゲットユーザの位置と前記特定の場所との距離を算出する制御部と、を含み、
    前記制御部は、
    前記ターゲットユーザの位置と前記特定の場所との距離が基準範囲内である場合、前記タスクの実行が予定された予定時間が過ぎても前記タスクを実行するように、追加タスク実行時間を設定する、
    ことを特徴とする、ロボット。
  9. 前記ロボットは、さらに、
    カメラを含み、
    前記制御部は、
    前記特定の場所への移動を完了すると、前記特定の場所の予め設定された領域内で走行を停止するように、前記走行部を制御し、
    前記カメラにより前記ターゲットユーザが認識されると、前記ターゲットユーザに向かって移動するように、前記走行部を制御する、
    ことを特徴とする、請求項に記載のロボット。
  10. ロボットを制御するシステムであって、
    前記ロボットと通信する通信部と、
    前記ロボットが特定の場所でタスクを実行するように、前記ロボットに対してタスクを割り当てる制御部と、を含み、
    前記制御部は、
    前記特定の場所が含まれる空間に配置されたカメラから画像を受信し、前記受信した画像を用いて、前記タスクの実行対象となるターゲットユーザの位置を確認し、
    前記ターゲットユーザの位置と前記特定の場所との相対位置情報に基づいて、前記タスクが実行される時間に関する制御を行い、
    前記タスクが実行される時間は、前記ロボットによる前記タスクの実行が予定された予定時間を含み、
    前記タスクが実行される時間に関する制御を行うことは、
    前記相対位置情報に基づいて、前記予定時間が過ぎても前記タスクを実行するように前記ロボットを制御するか否かを決定すること、を含む、
    ことを特徴とする、ロボット制御システム。
JP2021133894A 2020-08-28 2021-08-19 ロボット制御方法及びシステム Active JP7295175B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200109614A KR102355263B1 (ko) 2020-08-28 2020-08-28 로봇 제어 방법 및 시스템
KR10-2020-0109614 2020-08-28

Publications (2)

Publication Number Publication Date
JP2022040020A JP2022040020A (ja) 2022-03-10
JP7295175B2 true JP7295175B2 (ja) 2023-06-20

Family

ID=80049731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021133894A Active JP7295175B2 (ja) 2020-08-28 2021-08-19 ロボット制御方法及びシステム

Country Status (3)

Country Link
US (1) US11850759B2 (ja)
JP (1) JP7295175B2 (ja)
KR (2) KR102355263B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018190379A (ja) 2017-05-01 2018-11-29 サビオーク インコーポレイテッドSavioke, Inc. 移動する目標の間のロボット配送のシステムおよび方法
JP2019032806A (ja) 2017-08-07 2019-02-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御装置及び制御方法
JP2020032529A (ja) 2015-02-23 2020-03-05 株式会社国際電気通信基礎技術研究所 誘導サービスシステム、誘導サービスプログラム、誘導サービス方法および誘導サービス装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005329515A (ja) * 2004-05-21 2005-12-02 Hitachi Ltd サービスロボットシステム
KR100702147B1 (ko) * 2006-04-03 2007-03-30 한국전력공사 전력선통신을 이용한 로봇관제 시스템 및 그 방법
JP6048321B2 (ja) * 2013-06-07 2016-12-21 富士ゼロックス株式会社 自走式作業装置及びプログラム
JP2015001863A (ja) * 2013-06-17 2015-01-05 株式会社リコー 配達装置、自走型フィニッシャ、画像形成システム、及び配達プログラム
JP2018147359A (ja) * 2017-03-08 2018-09-20 富士ゼロックス株式会社 サービス提供システムおよび要求受付ロボット
CN109213141B (zh) * 2017-07-05 2024-02-02 松下电器(美国)知识产权公司 自主行驶车、行驶控制装置和方法及记录程序的记录介质
KR20210099217A (ko) * 2019-01-03 2021-08-12 엘지전자 주식회사 로봇 시스템의 제어 방법
US11430278B2 (en) 2019-06-21 2022-08-30 Lg Electronics Inc. Building management robot and method of providing service using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020032529A (ja) 2015-02-23 2020-03-05 株式会社国際電気通信基礎技術研究所 誘導サービスシステム、誘導サービスプログラム、誘導サービス方法および誘導サービス装置
JP2018190379A (ja) 2017-05-01 2018-11-29 サビオーク インコーポレイテッドSavioke, Inc. 移動する目標の間のロボット配送のシステムおよび方法
JP2019032806A (ja) 2017-08-07 2019-02-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 制御装置及び制御方法

Also Published As

Publication number Publication date
US11850759B2 (en) 2023-12-26
KR102355263B1 (ko) 2022-02-07
KR102355262B1 (ko) 2022-01-24
JP2022040020A (ja) 2022-03-10
US20220063107A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
JP7277523B2 (ja) ロボットを用いた配送方法及びシステム
KR102370873B1 (ko) 로봇 원격 제어 방법 및 시스템
JP7243110B2 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、並びに荷物受け取り支援システム
JP2005103722A (ja) 協調ロボット装置、システム、およびナビゲーションロボット装置
KR20240042369A (ko) 로봇 친화형 건물, 로봇 및 건물을 주행하는 멀티-로봇 제어 시스템
KR20240025571A (ko) 로봇 친화형 건물, 복수의 로봇들을 이용한 협업 방법 및 시스템
US20240045432A1 (en) Method and system for remote control of robot, and building having elevators for robots
JP7295175B2 (ja) ロボット制御方法及びシステム
KR102489723B1 (ko) 로봇 원격 제어 방법 및 시스템
KR102462635B1 (ko) 실내 공간을 주행하는 로봇의 동작을 평가하는 건물
KR102657615B1 (ko) 로봇 친화형 건물, 로봇의 충전 제어 방법 및 시스템
KR102620941B1 (ko) 건물을 주행하는 로봇 제어 방법 및 시스템
KR20230091639A (ko) 로봇 친화형 건물, 로봇을 활용한 배송 방법 및 시스템
JP7370362B2 (ja) ロボット管制方法及びシステム
CN112638809B (zh) 用于控制电梯设备的维护模式的方法和电梯控制结构
KR20230094043A (ko) 로봇 친화형 건물, 로봇의 작업 제어 방법 및 시스템
KR20230144380A (ko) 로봇 친화형 건물, 로봇 운영 모니터링 방법 및 시스템
KR20230056272A (ko) 로봇 친화형 건물, 건물을 주행하는 로봇 제어 방법 및 시스템
KR20230173939A (ko) 로봇 친화형 건물, 로봇 운용을 위한 맵 생성 방법 및 시스템
KR20230041353A (ko) 로봇 친화형 건물, 건물을 주행하는 로봇 제어 방법 및 시스템
KR20230056270A (ko) 건물을 주행하는 로봇 제어 방법 및 시스템
KR20240073246A (ko) 로봇 친화형 건물, 건물을 주행하는 로봇 제어 방법 및 시스템
KR20230171826A (ko) 로봇 친화형 건물, 로봇 운용을 위한 맵 생성 방법 및 시스템
KR20230065724A (ko) 로봇 친화형 건물, 건물을 주행하는 로봇 제어 방법 및 시스템
JP2021140401A (ja) 応対制御装置、応対制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230608

R150 Certificate of patent or registration of utility model

Ref document number: 7295175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150